Klimawandel – Grundlagen und Spekulation: Wie und warum es so kommen musste und weiter kommen muss 3658355409, 9783658355401

Klimawandel ist in aller Munde, aber die Zusammenhänge aus den Bereichen Physik, Chemie und Systemtheorie zu verstehen i

146 62 14MB

German Pages 439 [433] Year 2022

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Dank
Inhaltsverzeichnis
1 Einleitung und Geschichtliches: Von der Wärmelehre zum Treibhaus Erde
1.1 Der Beginn der Wärmelehre und des Treibhauseffekts
1.1.1 Joseph Fourier und der Glashaus-Effekt
1.1.2 Sir Isaac Newton
1.1.3 Horace-Bénédict de Saussure
1.1.4 Friedrich Wilhelm Herschel und das Infrarote
1.1.5 Eunice Newton Foote und John Tyndall
1.1.6 Johann Wilhelm Ritter und das Ultraviolette
1.1.7 Louis Agassiz und Karl Friedrich Schimper
1.2 Der Weg zum Verstehen des globalen Klimawandels
1.2.1 Svante Arrhenius
1.2.2 Die Zeit der grossen Unsicherheit: kühler oder wärmer?
Die Zeit des Wartens auf Wissen (Phase I)
Die Periode der beobachteten und vermuteten globalen Abkühlung (Phase II)
Wissenschaftler zwischen Abkühlung und Erwärmung
1.2.3 Die globale Erwärmung ist klar (Phase III)
Die Hockeystick-Kurve
Die Keeling-Kurve
Die Gletscher ziehen sich zurück
Katastrophen und Klimawandel
Der Klimawandel als Experiment
Simulationen und Modelle zum Verstehen
1.3 Geschichte auf den Punkt gebracht
2 Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung
2.1 Wann ist eine Aussage (pseudo-) wissenschaftlich?
2.2 Warum ist Sauerstoff kein Treibhausgas, Wasserdampf schon?
2.3 Kohlendioxid: Gift, Lebenskraft und Treibhausgas
2.3.1 Kohlendioxid: Das freundliche Gas
2.3.2 Kohlendioxid: Das sanfte Gift
2.3.3 Kohlendioxid und die Pflanzen
2.3.4 Kohlendioxid als Treibhausgas in der Atmosphäre
2.4 Die Energiebilanz der Atmosphäre
2.5 Mehr Treibhausgase
2.5.1 Das Messen des Treibhauseffekts
2.5.2 Methan
2.5.3 Lachgas
2.5.4 Ozon
Die zwei Welten des Ozons: Troposphäre und Stratosphäre
2.5.5 Die Fluorchlorkohlenwasserstoffe, die nützlichen Ozonkiller
2.6 Die Spektren, die vielleicht das Schicksal der Menschheit bestimmen: Sättigung oder nicht?
2.7 Aerosole und Wolken
2.7.1 Russ
2.7.2 Mineralische Aerosole
2.7.3 Schwefel und Sulfat-Aerosole
Vulkanische Eruptionen und Schwefeldioxid
Verbrennung fossiler Stoffe und Schwefeldioxid
Die Ozeane und Schwefeldioxid und die CLAW-Hypothese
2.8 Astronomie und Klimawandel
2.8.1 Das Paradox der schwachen jungen Sonne
2.8.2 Schwankungen über historische Zeiten hinweg
2.8.3 Klimaschwankungen durch die Elemente der Erdbahn
Astronomische Grundlagen
2.8.4 Milankoviç und das Klima, insbesondere die Eiszeiten
2.9 Stufen der Komplexität: Mit Beispielen auf den Punkt gebracht
2.9.1 Einzelne Effekte als Beispiel für die Komplexität
Landnutzung und Klimawandel
Kondensstreifen
Das Gegenteil von Kondensstreifen
2.9.2 Rückkopplungen (Feedback-Prozesse) und Komplexität
2.9.3 Simulation des Weltklimas als Ganzes
3 Ausgewählte Technologische Themen zur Globalen Erwärmung
3.1 Das Pareto-Prinzip
3.2 Sonnenenergie
3.2.1 Photovoltaik
3.2.2 EROI (Energetischer Erntefaktor) und EPBT (Energetische Amortisation)
3.2.3 Windenergie
3.2.4 Der Wirkungsgrad von Physik und Biologie: Warum die Pflanzen nicht maximal arbeiten
3.2.5 Der Übergang zur Null-Kohlendioxid-Energiewirtschaft
3.2.6 Nachtrag: Die verflixte Kernenergie
3.3 Die Dekarbonisierung der Infrastruktur
3.3.1 Die Elektromobilität kommt beinahe von selbst
3.3.2 Das Problem des Heizens und vor allem des Kühlens (HVAC)
3.3.3 Die Herstellung von Zement und Stahl als harter Kern
3.3.4 Computer, Bitcoin, Katzen, Licht und Klimawandel
3.4 Wälder und Äcker als Kohlenstoff-Senken und Quellen
3.4.1 Wälder und Klimawandel, Teil I
3.4.2 Ackerböden und Klimawandel.
3.5 Grosstechnische Kohlenstoff-Senken (Carbon Capturing)
3.5.1 Negative Emissionstechnologien (NETs)
3.5.2 Die Endlagerung des Kohlendioxids (Sequestrierung)
3.6 Geoengineering-Ideen
3.6.1 Wir sind im Anthropozän
3.6.2 Erste unerwartete Ankündigung des grossen Problems
3.6.3 Beispiele zum Geoengineering: Aerosole in die Stratosphäre
3.6.4 Wolkenaufhellung auf dem Meer
3.6.5 Meeresdüngung
3.6.6 Ein Weltraumschirm
3.6.7 Exotisches Geoengineering bleibt Idee, es fehlt Forschung.
4 Menschliches und Spekulatives zur Zukunft
4.1 Die Ethik des Erwärmens und des Abkühlens der Erde
4.2 Die Psychologie des Klimawandels
4.3 Das Anthropozän: Anfang und mögliches Ende
4.3.1 Die Erde als Planet unter vielen Planeten
4.3.2 Eis, Wald, Wolken – es geht nicht so leicht zurück
4.3.3 Die Zukunft der Erde
Es musste so kommen
Wie geht es (wahrscheinlich) weiter?
Was wir tun sollten
Liste besonderer Wikipedia-Artikel
Zahlen
Glossar
Literatur
Stichwortverzeichnis
Recommend Papers

Klimawandel – Grundlagen und Spekulation: Wie und warum es so kommen musste und weiter kommen muss
 3658355409, 9783658355401

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Walter Hehl

Klimawandel – Grundlagen und Spekulation Wie und warum es so kommen musste und weiter kommen muss

Klimawandel – Grundlagen und Spekulation

Walter Hehl

Klimawandel – Grundlagen und Spekulation Wie und warum es so kommen musste und weiter kommen muss

Walter Hehl Thalwil, Schweiz

ISBN 978-3-658-35540-1 ISBN 978-3-658-35541-8  (eBook) https://doi.org/10.1007/978-3-658-35541-8 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Einbandabbildung: Kunstwerk „Mano del Desierto“ von Mario Irarrázabal, photo: © yesica/stock.adobe.com Planung/Lektorat: Daniel Froehlich Springer ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany

Vorwort

Wir stehen nun an einem Wendepunkt zwischen zwei grossen Zeitabschnitten. Hinter uns ist eine Vergangenheit, zu der wir nie wieder zurückkehren können, selbst wenn wir es wollen … die ganze Geschichte der Menschheit vor dem 20. Jahrhundert scheint nur ein Vorspiel zu sein für ein grosses Drama. Arthur C. Clarke, The Exploration of Space, Tauchnitz 1952.

Arthur Clarke, Schriftsteller und Pionier der Raumfahrt, ist in seinem Büchlein voller Vorfreude und Optimismus bezüglich der kommenden Epoche der Raumfahrt. Die Sätze können wir auch auf heute übertragen. Aber der wichtigste Wendepunkt hat düstere Vorzeichen. Es ist der globale Klimawandel. Dieses Buch ist gedacht für alle, die ohne spezielles Fachwissen (und ohne Formeln) die Grundlagen verstehen wollen. Es gibt zum Klima-Thema viele zusammenwirkende Bereiche aus Physik, Chemie und Systemtheorie. Damit sind viele Fakten zu klären und wir versuchen, eine Art von Allgemeinbildung zum Thema zu liefern: Die Entwicklung des Wissens von Newton und Fourier bis heute. Es ist eine Ironie der Wissenschafts- und Technikgeschichte, dass die entstehende physikalische Wärmelehre auch die Technik für die Wärmekraftmaschinen geliefert hat, die den heutigen Klimawandel bewirkt haben. Um 1950 herrschte in der Wissenschaft noch Unentschlossenheit, ob wir einer globalen Erwärmung oder einer Abkühlung entgegen arbeiten! Wir versuchen zu zeigen, dass diese Unsicherheit eine notwendige und typische Stufe des Wissenschaftsbetriebs ist. Dazu kommen die Verflechtungen der V

VI      Vorwort

naturwissenschaftlichen Themen mit der Entwicklung der Technologien sowie die Verbindungen zu Politik und Philosophie. Das Buch beginnt im ersten Teil mit dem Aufkommen der Ideen der Wissenschaft vom Klima und Klimawandel. Die Grundbegriffe beginnen überraschenderweise bei Newton. Die geschichtliche Einleitung führt bis zum zuverlässigen Verständnis der globalen Erwärmung. Im zweiten Teil gehen wir auf die Problematik der wissenschaftlichen Themen ein. Wir streifen die wichtigsten Gebiete und fragen uns, was überhaupt wissenschaftlich sein kann. Der dritte Teil analysiert technische Fragen und Aufgaben, die uns die Erwärmung stellt. Im vierten Teil diskutieren wir die menschliche Seite des globalen Klimawandels, demonstrieren die grosse Unsicherheit und zeigen auf, was von Nöten wäre. Wir kommen nicht ungeschoren davon, aber es gibt noch Hoffnung. Es geht in der Gesellschaft um die Phasen der Akzeptanz des Gedankens, dass wir Menschen das Klima ändern. Die erste Phase war eine dominierende Ablehnung (noch möglich im Rahmen der damaligen Wissenschaft). Die zweite Phase war (neben fortgesetzter Ablehnung) die Akzeptanz der Idee, man müsse nur Klimaschutz betreiben und der Klimawandel lasse sich zurückdrehen. Es sei eben fünf vor zwölf. Heute sind wir in der dritten Phase des Klimawandels. Nach dem (fast gänzlichen) Verschwinden totaler Leugner eines Klimawandels stehen immer noch viele politische Aussagen und Forderungen im Raum, die unrealistisch sind. In einem Unternehmen würde man bei einer Investition eine KostenNutzungs-Rechnung durchführen. Bei den heute dominierenden Klimaschutz-Vorschlägen gilt dies offensichtlich nicht. Die Massnahmen weisen irgendwie in die richtige Richtung, aber ein Schutzeffekt ist nicht klar, jedenfalls nicht in naher Zukunft. Das Wort Klimaschutz ist ein ungeschickter Begriff. Es ist so, als ob wir im Zug beschleunigt losfahren, aber unseren Ausgangspunkt durch Ortsschutzmassnahmen zurückbekämen. Es werden auch ungewohnte Ideen im Buch stehen. Die Aussagen zur Zukunft sind naturgemäss nicht von der gleichen wissenschaftlichen Härte wie die naturwissenschaftlichen Grunddaten oder die Episoden der Vergangenheit. Der Autor hat versucht, aus seiner pragmatischen Erfahrung und aus all den Informationen als ehrlicher Makler die Schlüsse zur Zukunft zu ziehen.

Vorwort      VII

Es wird notwendig sein, auf lange Zeit – Jahrhunderte, ja Jahrtausende – mit dem Klimawandel zu leben, und noch Jahrzehnte mit fortschreitender Erwärmung. Eine detaillierte Rückkehr des Klimas zum Status vor der Industrialisierung wird es nicht geben. Das heisst natürlich nicht, den Umbau zu einer nachhaltigen Welt nicht voranzutreiben. Aber es bedeutet, nicht naiv zu sein, sondern die ganze Realität zu erfassen und Veränderungen vorauszusehen und sich vorzubereiten. Das Klima ist kein starr zusammengesetztes System. Wir überschätzen leicht unser Verstehen und Vorhersagen; deshalb betonen wir im Buch die klaren Umstände, etwa den Rückgang der Gletscher und präzise Messwerte wie den CO2-Gehalt der Luft. Ich habe versucht, alle Spekulationen zu begründen. Natürlich besteht kein Zwang, diesen Ideen zuzustimmen – aber eine Aufforderung, sie zu diskutieren. Einige meiner philosophischen Spekulationen sind ja sogar verheissungsvoll, freundlicher als jene Jonathan Franzens (Franzen, 2020). Die Zukunft wird entscheiden. Es liegt in der dynamischen und komplexen Natur der klimatischen Prozesse, dass manche Zahlen grosse Fehlertoleranzen haben und verschiedene Werte in der Literatur zu finden sind. Aber es geht um die Grössenordnungen. So können wir beurteilen, was sicher und verstanden ist, was sicher und wenig verstanden, und was unsicher und nicht verstanden. Wir werden übrigens auch von Energieerzeugung reden; bei der Sonne ist dies zutreffend, auf der Erde ist der Begriff falsch aber eben üblich obwohl die Energie erhalten bleibt. Eine Bemerkung zu den Zitaten: Ich glaube, zu einem Wissensgebiet gehören auch die Meinungen und die Geistesblitze anderer. Sie sind meistens nicht als Bestätigung gedacht, sondern als Denkanstösse. Es macht hoffentlich Vergnügen, sie zu lesen und sie vielleicht sogar zu widerlegen. Ein Argument für Zitate habe ich vom Direktor der IBM Forschungsorganisation, Paul Horn, etwa im Jahr 2005, gelernt: Egal, wie viele gute Leute du hast, draussen hat es noch mehr. Paul Horn, US-amerikanischer Informatiker, geb. 1944.

Sein Votum war als Argument gedacht, mit anderen Forschungsorganisationen zusammen zu arbeiten. Die IBM Forschung war damals (und ist es vielleicht auch heute) die beste industrielle Forschungsorganisation im Computerbereich.

VIII      Vorwort

Ich glaube, Entsprechendes gilt für Zitate und die kulturelle Welt. Egal wie viele gute Gedanken man hat, draussen hat es noch mehr. In einem bislang so umstrittenen Bereich wie dem globalen Klimawandel gibt die Menge der Zitate auch einen Einblick in die verschiedenen Ansichten. Dabei stösst man auch auf kuriose Gedanken – aber dies ist schon menschliche Zeitgeschichte. Noch eine Warnung ist mir wichtig: Glauben Sie keinem Autor in Energiefragen, der so etwas schreibt wie es sind x kW im Jahr! Walter Hehl

Dank

Der US-amerikanische Autor Jonathan Franzen (geb. 1959) hat nicht nur erfolgreiche Romane geschrieben, sondern ab 2017 auch aufsehenerregende Thesen zum Klimawandel aufgestellt. Insbesondere stellt er sich gegen die Möglichkeit, den Klimawandel zu stoppen im Sinne von Aufforderungen wie Wir haben noch zehn Jahre Zeit den Planeten zu retten. Er will die langfristigen Effekte weitgehend akzeptieren und lokale Projekte mehr unterstützen. Seine Artikel und sein Büchlein (Franzen, 2020) zu diesem Thema haben mich in einigen Gedanken bestärkt und zu einem NZZ-Artikel geführt (Hehl, 2020) und nun zu diesem Buch. Allerdings ist mein Ausblick nicht ganz so pessimistisch wie der von Franzen. Ich bedanke mich bei Jonathan Franzen für seine persönliche Empfehlung, ein Buch zum Klimawandel zu schreiben. Meine ersten Gedanken zum Thema rühren bereits von Diskussionen mit Studenten, etwa im Jahr 1980, denen ich riet, nicht nur gegen Atomkraftwerke zu protestieren, sondern auch gegen Kohlekraftwerke. Ich bedanke mich für freundliche Korrespondenz bei vielen Klimatologen und Klimainteressierten: Anna Ahn, Climeworks, Zürich, Anders Andrae, Mikroelektronik, Huawei, Schweden, Néle Azevedo, Bildhauerin, Brasilien, John Cook, Kognitionswissenschaftler, Australien, Thomas Frölicher, Physiker, Universität Bern, Schweiz. Hall, Charles, Biologe, State University New York, USA. William Happer, Physiker, Princeton, USA, IX

X      Dank

Mojib Latif, Meteorologe, Kiel, Deutschland, Robert Page, Berater, Center of Negative Carbon Emissions, Arizona, USA, John Perlin, Historiker der Sonnenenergie, Kalifornien, Stephen Salter, Ingenieur, University Edinburgh, Fritz Scholz, Biochemiker, Universität Greifswald, Warren Stannard, Physiker, University Western Australia, Roland Stull, Physiker, Vancouver, Kanada, Henning Wagenbreth, Cartoonist, Berlin, William van Wijngaarden, Physiker und Informatiker, Universität von York.

Dies muss nicht bedeuten, dass diese Damen und Herren meine Ansichten im Buch teilen und umgekehrt ebenfalls nicht. Meiner Frau Edith danke ich für ihre Geduld und das gründliche Lektorat. Jegliche sprachlichen Fehler im Text sind durch meine nachträglich ungeprüft eingebrachten Korrekturen entstanden und gehen ganz zu meinen Lasten.

Inhaltsverzeichnis

1 Einleitung und Geschichtliches: Von der Wärmelehre zum Treibhaus Erde 1 1.1 Der Beginn der Wärmelehre und des Treibhauseffekts 1 1.1.1 Joseph Fourier und der Glashaus-Effekt 1 1.1.2 Sir Isaac Newton 5 1.1.3 Horace-Bénédict de Saussure 8 1.1.4 Friedrich Wilhelm Herschel und das Infrarote 10 1.1.5 Eunice Newton Foote und John Tyndall 12 1.1.6 Johann Wilhelm Ritter und das Ultraviolette 17 1.1.7 Louis Agassiz und Karl Friedrich Schimper 20 1.2 Der Weg zum Verstehen des globalen Klimawandels 22 1.2.1 Svante Arrhenius 22 1.2.2 Die Zeit der grossen Unsicherheit: kühler oder wärmer? 30 1.2.3 Die globale Erwärmung ist klar (Phase III) 49 1.3 Geschichte auf den Punkt gebracht 83 2

Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung 87 2.1 Wann ist eine Aussage (pseudo-) wissenschaftlich? 87 2.2 Warum ist Sauerstoff kein Treibhausgas, Wasserdampf schon? 103 2.3 Kohlendioxid: Gift, Lebenskraft und Treibhausgas 106 2.3.1 Kohlendioxid: Das freundliche Gas 106 2.3.2 Kohlendioxid: Das sanfte Gift 108 XI

XII      Inhaltsverzeichnis

2.4 2.5

2.6 2.7

2.8

2.9

2.3.3 Kohlendioxid und die Pflanzen 110 2.3.4 Kohlendioxid als Treibhausgas in der Atmosphäre 118 Die Energiebilanz der Atmosphäre 121 Mehr Treibhausgase 130 2.5.1 Das Messen des Treibhauseffekts 130 2.5.2 Methan 132 2.5.3 Lachgas 153 2.5.4 Ozon 160 2.5.5 Die Fluorchlorkohlenwasserstoffe, die nützlichen Ozonkiller 170 Die Spektren, die vielleicht das Schicksal der Menschheit bestimmen: Sättigung oder nicht? 179 Aerosole und Wolken 184 2.7.1 Russ 186 2.7.2 Mineralische Aerosole 189 2.7.3 Schwefel und Sulfat-Aerosole 194 Astronomie und Klimawandel 205 2.8.1 Das Paradox der schwachen jungen Sonne 206 2.8.2 Schwankungen über historische Zeiten hinweg 208 2.8.3 Klimaschwankungen durch die Elemente der Erdbahn 211 2.8.4 Milankoviç und das Klima, insbesondere die Eiszeiten 217 Stufen der Komplexität: Mit Beispielen auf den Punkt gebracht 221 2.9.1 Einzelne Effekte als Beispiel für die Komplexität 222 2.9.2 Rückkopplungen (Feedback-Prozesse) und Komplexität 229 2.9.3 Simulation des Weltklimas als Ganzes 237

3 Ausgewählte Technologische Themen zur Globalen Erwärmung 253 3.1 Das Pareto-Prinzip 254 3.2 Sonnenenergie 256 3.2.1 Photovoltaik 256 3.2.2 EROI (Energetischer Erntefaktor) und EPBT (Energetische Amortisation) 263 3.2.3 Windenergie 265

Inhaltsverzeichnis     XIII

3.3

3.4

3.5

3.6

3.2.4 Der Wirkungsgrad von Physik und Biologie: Warum die Pflanzen nicht maximal arbeiten 267 3.2.5 Der Übergang zur Null-Kohlendioxid-Energiewirtschaft 273 3.2.6 Nachtrag: Die verflixte Kernenergie 278 Die Dekarbonisierung der Infrastruktur 284 3.3.1 Die Elektromobilität kommt beinahe von selbst 285 3.3.2 Das Problem des Heizens und vor allem des Kühlens (HVAC) 293 3.3.3 Die Herstellung von Zement und Stahl als harter Kern 298 3.3.4 Computer, Bitcoin, Katzen, Licht und Klimawandel 301 Wälder und Äcker als Kohlenstoff-Senken und Quellen 312 3.4.1 Wälder und Klimawandel, Teil I 312 3.4.2 Ackerböden und Klimawandel. 318 Grosstechnische Kohlenstoff-Senken (Carbon Capturing) 320 3.5.1 Negative Emissionstechnologien (NETs) 320 3.5.2 Die Endlagerung des Kohlendioxids (Sequestrierung) 329 Geoengineering-Ideen 337 3.6.1 Wir sind im Anthropozän 338 3.6.2 Erste unerwartete Ankündigung des grossen Problems 339 3.6.3 Beispiele zum Geoengineering: Aerosole in die Stratosphäre 341 3.6.4 Wolkenaufhellung auf dem Meer 344 3.6.5 Meeresdüngung 347 3.6.6 Ein Weltraumschirm 349 3.6.7 Exotisches Geoengineering bleibt Idee, es fehlt Forschung. 352

4 Menschliches und Spekulatives zur Zukunft 357 4.1 Die Ethik des Erwärmens und des Abkühlens der Erde 357 4.2 Die Psychologie des Klimawandels 362

XIV      Inhaltsverzeichnis

4.3 Das Anthropozän: Anfang und mögliches Ende 4.3.1 Die Erde als Planet unter vielen Planeten 4.3.2 Eis, Wald, Wolken – es geht nicht so leicht zurück 4.3.3 Die Zukunft der Erde

376 376 381 385

Liste besonderer Wikipedia-Artikel 401 Zahlen 403 Glossar 407 Literatur 411 Stichwortverzeichnis 421

1 Einleitung und Geschichtliches: Von der Wärmelehre zum Treibhaus Erde

Die Frage der Temperaturen auf der Erde ist eine der wichtigsten und schwierigsten Fragen der Naturphilosophie. Sie setzt sich aus ganz verschiedenen Elementen zusammen, die unter einem allgemeinen Gesichtspunkt betrachtet werden müssen. Beginn des Berichts über die Temperaturen der Weltkugel und der planetarischen Räume, Mémoire sur les températures du globe terrestre et des espaces planétaires, Jean-Baptiste Joseph Fourier, 1824 und 1827.

In diesem Teil entwickeln wir die historische Grundlage der Wissenschaft vom globalen Klimawandel.

1.1 Der Beginn der Wärmelehre und des Treibhauseffekts 1.1.1 Joseph Fourier und der Glashaus-Effekt [Für die Frage der Temperatur der Erde] habe ich vor allem vor, die mathematische Theorie der Wärme zu entwickeln. Jean-Baptiste Joseph Fourier, 1824 und 1827.

Fourier hat recht: Die Temperatur der Erde ist wichtig und ein schwieriges Problem. Der französische Physiker und Mathematiker Joseph Fourier © Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 W. Hehl, Klimawandel – Grundlagen und Spekulation, https://doi.org/10.1007/978-3-658-35541-8_1

1

2     W. Hehl

Abb. 1.1  Jean-Baptiste Fourier Französischer Mathematiker und Vorahner des Treibhauseffekts für die Erde Bild: Fourier2, Wikipedia Commons, Bunzil.

(1768–1799, Abb. 1.1) versteht unter der Problematik Temperatur der Erde auch die Temperatur im Erdinnern (er kann als erster einen Wärmefluss in einem Festkörper berechnen) und unter planetarischen Räumen den interstellaren Raum. Als Quellen für die Temperatur der Erde als Ganzem nennt er: 1. Die Strahlen der Sonne, ungleichmässig verteilt und dadurch für das Klima zuständig. 2. Die Erde partizipiert an der Gesamtheit der Strahlung aller Sterne. 3. Die Erde enthält und erzeugt Wärme im Erdinneren. Heute weiss man, dass das Klimaproblem der Atmosphäre und der Erdoberfläche effektiv nahezu vollständig getrennt ist von den Wärmequellen des Erdinnern. Der Punkt 3, Wärme aus dem Erdinnern als Rest von der Entstehung der Erde durch Kontraktion, ist korrekt. Nennen wir ihn Punkt 3a). Aber wie wir heute wissen, ist es nur eine von drei Wärmequellen aus dem Innern der Erde: 3 a) Wärmerest durch Kontraktion aus Gravitationsenergie, 3 b) Wärme durch Bewegung im flüssigen äusseren Erdkern, 3 c) Entstehen von Wärme durch radioaktiven Zerfall. Natürlich wäre die Vorstellung eines Kerns mit flüssigem Eisen für Fourier undenkbar gewesen; er erwartete in der Erde nur Festkörper. Radioaktivität war vollkommen unbekannt; die Wärmeleistung der vier bekannten

1  Einleitung und Geschichtliches: Von der Wärmelehre …     3

radioaktiven Isotope im Erdinnern, Kalium-40, Uran-235, Uran-238 und Thoriums-232, ergibt zusammen etwa 20 TeraWatt. Insgesamt liefert das Erdinnere eine Wärmeleistung von 47 TeraWatt nach aussen. Wir wissen heute, dass die Sonne sehr viel mehr Energie zur Erde schickt, nämlich 173 000 TeraWatt, also etwa 3700 Mal mehr als aus dem Erdinneren. Fourier wusste im Prinzip bereits, dass der Energiefluss aus der Tiefe der Erde viel geringer ist als die direkte Einstrahlung – er schloss dies aus der kühlen, konstanten Temperatur in tiefen Kellern. Für Fourier war Wärme etwas wie Gravitation oder wie ein Fluss, der alles durchströmt – auch das Weltall. Trotz der grossen Anzahl von Sternen ist auch der Energiefluss von den Sternen zur Erde vernachlässigbar gering. Dies ist eine Form der Aussage des Paradoxons von Olbers: Trotz der de facto unendlich grossen Ausdehnung ist der Nachthimmel dunkel. Der gesamte Energiestrom von Sternen entspricht nur wenigen hundert hellen Sternen der Grösse vergleichbar Wega. Der gesamte Energiestrom der kosmischen Hintergrundstrahlung ist grob geschätzt immerhin etwa ein Hundertmillionstel der Sonnenstrahlung. Damit partizipiert die Erde nicht, wie Fourier meint, an der Strahlung des Kosmos. Es gilt sogar das Umgekehrte. Wir werden mit Strahlung ins Weltall Energie los, wie wir (und Fourier) aus der Kälte einer klaren Wüstennacht wissen. Zurück zu den Arbeiten von Joseph Fourier. Der Schlüssel zu seinem Verständnis von Wärme sind seine Beobachtungen und mathematischen Analysen der Temperatur im Boden. Es geht z. B. um die Weiterleitung von Wärme auf sonnenbeschienenem Boden. Er berechnet und misst die Temperaturen in der Tiefe als Funktion der Zeit, d. h. die Temperaturschwankungen im Boden im Laufe eines Tages oder Jahres. Tiefe ist nicht im Sinn moderner Bohrexperimente zu verstehen. Es geht nur um Meter oder Dutzende von Metern, z. B. schon in tiefen Kellern. Er unterscheidet drei Bereiche: Erstens, die Bodentiefe von wenigen Zentimetern, in der sich die Temperatur messbar im Laufe des Tages ändert, zweitens, die Tiefe von wenigen Metern, in der (überraschenderweise!) nur noch die jährliche Temperaturschwankung zu messen ist, und tiefer (er sagt 40 m), wenn keine zeitlichen Schwankungen mehr festzustellen sind. Fourier schafft die mathematischen Mittel, um den Abfall der Temperatur- Schwankungen mit zunehmender Tiefe berechnen zu können. Seine Mathematik der Wärmeleitung lässt sich auf eine Kugel übertragen; man kann damit die Abkühlung einer heissen Kugel berechnen. William Thomson, der spätere Lord Kelvin, wird um 1860 mit dieser Formel vergeblich versuchen, das Alter der Erde auszurechnen.

4     W. Hehl

Die Überlegungen Fouriers gehen weiter als nur die Leitung von Wärme in Festkörpern zu berechnen. Zum Geschehen auf der Oberfläche der Erde beschreibt er, wie die Strömungen der Meere und der Atmosphäre die Wärme verteilen. Joseph Fourier beschreibt als Erster das Prinzip der Erwärmung der Erde und geht damit in die Geschichte der Klimatologie ein. Er nimmt an, dass das Weltall kalt ist (er sagt die planetaren Räume) und von der gleichen Kälte ist wie die Erde an den Polen, kälter als der Schmelzpunkt des Quecksilbers. Dann beschreibt er die Ursache, warum es sonst auf der Erde warm ist: So steigt die Temperatur durch die Wirkung der Atmosphäre, denn die Wärme [der Sonne] findet als Licht weniger Hindernis als zurück, da sie in dunkle Wärme verwandelt wurde. Jean-Baptiste Joseph Fourier, 1824 und 1827.

Unter dunkler Wärme versteht Fourier die Wärme durch infrarote Strahlung. Diese Asymmetrie des Lichtwegs zur Erdoberfläche und zurück ins All ist das Grundprinzip, das (fälschlicherweise oder zumindest nicht vollständig richtig) als Glashaus- oder Treibhauseffekt bezeichnet wird; im Englischen oft Greenhouse Effect. Wir definieren: Beim Glashaus- oder Treibhauseffekt wandelt sich Licht beim Auftreffen auf bestimmte Moleküle in Wärmestrahlung um, die in alle Richtungen gestreut wird.

Beim Glashaus wandelt sich das auf Pflanzen und Boden einfallende sichtbare Licht zwar ebenfalls in Wärme um, allerdings verhindert dann das Glas des Glashauses das Entweichen und eine weitere Konvektion. Dies ist beim Glashaus der wesentliche Effekt. Bei der Atmosphäre im Freien wandelt sich das Licht in der Atmosphäre selbst in Wärme um. Der Begriff des Treibhauseffekts ist also unglücklich gewählt und streng genommen falsch. Aber das Treibhaus hilft, den planetaren Effekt zu verstehen. Fourier hat dies anhand eines einfachen wissenschaftlichen Instruments gelernt, das ein halbes Jahrhundert früher vom Schweizer Naturforscher Horace Bénédict de Saussure (1740–1799) gebaut worden wurde. Aber Fourier hat das Wort Treibhaus oder serre im Französischen nicht verwendet.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     5

1.1.2 Sir Isaac Newton … der Überschuss an Hitzegrad.. war in geometrischer Progression, während die Zeiten dazu in arithmetischer Progression waren. Newtons Abkühlungsgesetz in Scala graduum Caloris, 1701. Grad der Hitze bedeutet in heutiger Sprechweise Temperatur, Überschuss an Hitzegrad bedeutet Temperatur-Differenz.

Der erste Pionier der Wärmelehre, den wir vorstellen, ist wahrscheinlich eine Überraschung: der englische Physiker und Alchemist Isaac Newton, 1642–1722. Newton untersuchte die Wärme insbesondere auch als Leiter der Münze, als Master of the Mint, ab 1699. Es waren sehr praktische Überlegungen, bei weitem nicht im wissenschaftlichen Rang der mechanischen Prinzipien und des Gravitationsgesetzes. Er war sich dessen bewusst – das obige Büchlein hat er anonym veröffentlicht. Seine Beobachtung war, dass die Geschwindigkeit des Abkühlens umso grösser war, je grösser die Differenz der Temperatur des Körpers zur Umwelt war. Allerdings benützte er nicht das Wort Temperatur, sondern sprach vom Grad der Wärme. Dieses einfache Newtonsche Abkühlungsgesetz beschreibt einen exponentiellen Abfall der Temperatur und kann nützlich sein, aber es ist viel zu simpel angesichts der verschiedenen Teileffekte der Wärmeübertragung. Wir definieren die physikalischen Vorgänge: 1) Wärmeleitung überträgt die Energie durch direkten Kontakt, 2) Wärmekonvektion durch Transport der warmen Materie selbst, 3) Wärmestrahlung ist unsichtbare elektromagnetische Strahlung: je wärmer, desto intensiver und mit umso höherer Frequenz. Die Strahlung wird abgegeben oder absorbiert.

Diese Prozesse mussten erst verstanden und auseinander gehalten werden. Newton ahnt die Wärmestrahlung als Vibrations, sogar für das Vakuum und spekuliert sogar über einen absoluten Nullpunkt (Rowlands 2018)! Fourier wird für die Wärmeleitung eine elegante mathematische Lösung finden: die Wärmeleitungsgleichung oder Diffusionsgleichung. Newton ist ein Pionier der Temperaturmessung von alltäglichen Temperaturen bis zu den Temperaturen schmelzender Metalle. Für Temperaturen bis zum schmelzenden Zinn (232°C) verwendet er ein Glasthermometer mit Leinöl. Seine Eichpunkte sind die Temperatur von schmelzendem Schnee 0°N und die Temperatur des gesunden menschlichen

6     W. Hehl

Körpers definiert zu 12°N („N“ für Grad Newton). Damit ergibt sich der Siedepunkt des Wassers zu etwa 33°N. (Diesen Punkt hatte Newton nicht als Basis genommen, weil er wohl wusste, dass der Siedepunkt des Wassers mit dem Luftdruck schwankt). Die Erweiterung der Skala zu höheren Temperaturen für Metallschmelzen war für Newton als Master of Mint eine praktische Herausforderung. Er benützte dazu einen Eisenbarren, der im Kohlefeuer mit Blasebalg zum Glühen gebracht wurde. Auf diese Stange setzte er kleine Mengen der flüssigen Metalle Blei, Zinn und Wismut und beobachtete, wann sie fest wurden. Mit dieser Methode bestimmte er z. B. für Blei den Schmelzpunkt von 96°N, das glühendste Eisen bei 192°N. Der Schmelzpunkt von Zinn (232°C oder 77°N) ist der Verbindungspunkt zwischen den beiden Skalen, von unten das Leinölthermometer, von oben die Zeiten der Schmelzpunkte. Als ein Nebenprodukt der metallurgischen Arbeiten erfindet Newton eine besonders tiefschmelzende Legierung, natürlich Newtons Metall genannt. Ein wenig bekannter früher Höhepunkt der Wärmetechnologie (mit antiken Vollbildern), kommt ebenfalls von Newton. Es ist ein SonnenBrennofen aus dem Jahr 1704. Newton versteht, dass es darum geht, Strahlen vom Bild der ganzen Sonne zu konzentrieren; die Strahlen sind ja nicht vollständig parallel. Die Hitze steigt mit der Dichte des Lichts auf der Brennfläche. Auf dem Merkur wäre sie sieben Mal grösser als in unserem Sommer wegen des quadratischen Gesetzes des Abfalls der Lichtintensität mit dem Abstand von der Sonne schreibt Newton in seiner Opticks. Das quadratische Abstandsgesetz hatte schon Johannes Kepler gekannt und beschrieben. Im Newtonschen Brennofen konzentrieren sieben sphärische konkave Spiegel (Abb. 1.2) das Licht auf einen ungefähren Brennfleck. Leider ist kein Exemplar und kein Teil des Spiegelsystems erhalten geblieben, auch die Informationen sind spärlich. Hier einige Zitate aus dem Bericht des schottischen Mathematiker David Gregory (1659–1706) von Newtons Projekt aus dem Jahr 1704 (Simms 1989): Herrn Newtons sieben Spiegel kann man, da sie einen gemeinsamen Brennpunkt haben, ohne Gefahr zu brennen mit dem Mond bequem einstellen. Silber widersteht mehr als Gold. Gold kocht ein wenig und macht Blasen, dann fliegen kleine runde Goldkügelchen fort, und Goldhärchen bleiben zurück. Sir Isaac Newton beabsichtigt 12 weitere Spiegel zu den 7 zu setzen, die es schon gibt, also insgesamt 19.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     7

Abb. 1.2  Der Newtonsche Sonnenofen Ein System von sieben Spiegeln, die das Sonnenlicht auf etwa 1 cm2 fokussieren. Nach Simms 1989

Der innere Spiegel ist dabei etwas versetzt. Jeder Spiegel hat den Durchmesser 11.5 Zoll oder etwa 30 cm, geschliffen in Glas mit Bleiüberzug, Das System der Spiegel entspricht einer Kugelkalotte mit einer freien Öffnung von 34.5 Zoll (etwa 87 cm) und erzeugt einen Brennfleck in der Brennweite von 22.5 Zoll (knapp 58 cm) Entfernung mit etwa ½ Zoll oder 1 cm Durchmesser. Rowlands (2018) schätzt, dass die erreichte Energieflussdichte von vermutlich 460 W/cm2 (das wäre etwa 7000 Mal mehr als etwa die direkte Energiedichte der Sonnenstrahlung am Boden1) erst im Jahr 1945 mit der Atombombe übertroffen wurde, ganz im Sinne des Buchtitels Heller als 1000 Sonnen von Robert Jungk. Noch eine Bemerkung zur Problematik der Begriffe Wärme und Temperatur im 18. Jahrhundert. Die Physik der Wärme ist zum Ende des 17. Jahrhunderts und Beginn des 18. Jahrhunderts ein grosses Geheimnis. Wissenschaftliche Aussagen waren selten, die wesentlichen Begriffe wie die Wärme selbst oder auch die Temperatur waren unklar, ja Wärme und Temperatur wurden verwechselt. War die Wärme eine Art durchdringendes Feld wie die Gravitation oder eine Art von materieller Flüssigkeit, die von einem Körper zum anderen strömte? Dies mischte sich mit dem Problem der Chemiker, der Verbrennung. Sie wurde damals vor allem als Befreiung von einem mystischen Stoff

1 Rowlands nimmt am Boden den halben Wert der Strahlung im Weltraum an, also etwa 0,065 W/cm2. Andere Technologien mit hoher Energiedichte sind Lichtbögen und Laser.

8     W. Hehl

v­erstanden, dem Phlogiston oder Flammenstoff. Die Phlogistontheorie wurde 1785 durch den französischen Chemiker Antonie Lavoisier widerlegt: Verbrennung ist Verbindung mit Sauerstoff. Wärme als Stoffmenge in Körpern würde etwas Beständiges bedeuten. Dass dies falsch ist, beweist der britische Offizier und Physiker Sir Benjamin Thompson oder Graf Rumford. Er hatte 1798 als Kriegsminister in München am Hof des bayrischen Kurfürsten die Kanonengiesserei besucht. Hier wurden die Seelen der Kanonen aus Bronze mühsam aufgebohrt, begleitet von einer nicht aufhörenden Wärmeentwicklung. Wärme konnte endlos erzeugt werden, sie konnte kein Stoff sein. Der Temperaturbegriff ist bisher über die Ausdehnung von Stoffen definiert, z. B. von Leinöl, Alkohol oder Quecksilber oder vielleicht Wasser. Dazu kommen zwei willkürliche, möglichst bequem erreichbare Fixpunkte zur Eichung, etwa eine bestimmte Kälte, die Körperwärme oder der Siedepunkt des Wassers. Wasser selbst ist sichtlich ungeeignet als Thermometerflüssigkeit und zeigt die Problematik der Temperaturdefinition über einen materiellen Stoff: Unterhalb von 4°C wäre jeder Punkt zweideutig, da Wasser bei 4°C die maximale Dichte hat und sich deshalb beim Abkühlen nicht linear zusammenzieht. Der österreichische Physiker Ernst Mach liefert dazu in seinem Lehrbuch eine klassische, brillante Diskussion (Mach, 1896). Es ist auch unsinnig zu sagen der Wärmegrad von A ist drei Mal der von B – es sind nur Zahlen. Schwächer wird die Stoffabhängigkeit, wenn die Ausdehnung (oder der Druck) von Gasen gemessen wird. Und es gibt einen absoluten Bezugspunkt: Die Abkühlung, bei der mit linearer Extrapolation das Volumen mathematisch verschwindet. Der französische Physiker Guillaume Amontons hat bereits 1699 diese Idee gehabt, erst 1848 hat Lord Kelvin dann die absolute Temperaturskala eingeführt. Heute ist die Temperaturskala über die Energie definiert, über den Wert der sog. BoltzmannKonstante – und zwar so, dass die alte Celsius-Skala recht genau weiter gilt. Diese Temperaturen haben jetzt physikalische Bedeutung und können multipliziert werden!

1.1.3 Horace-Bénédict de Saussure Sie [die dunkle Wärme] kann wegen der Glasscheibe das Gefäss nicht verlassen, sammelt sich in einem Raum an, der von isolierender Materie umgeben ist, und die Temperatur steigt bis die hereinströmende Wärme gerade von der fortströmenden kompensiert wird. Jean-Baptiste Joseph Fourier, 1824 und 1827.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     9

Abb. 1.3  Die Boîte chaude Die heisse Box nach Horace de Saussures Bild: Nachbau des Astrophysikers Samuel Langley, um 1887. Quelle: Nicht bestimmbar.

Abb. 1.4  Schweizer Banknote zu Ehren von de Saussure Quelle: eigen

De Saussure, 1740–1799, hatte sich ein Miniaturglashaus in der Box gebaut (Abb. 1.3). Er wollte feststellen, ob die Sonneneinstrahlung mit zunehmender Höhe abnehme. Es war ja offensichtlich, dass die Temperatur mit der Höhe abnahm. Der handliche Apparat enthält mehrere Glasscheiben (bis zu fünf ), eine isolierende Wand und eine dunkle Auskleidung. Ein eingesetztes Thermometer misst die Innentemperatur. Es wird heiss, in heutigem Mass bis zu 110°C! De Saussure hat sozusagen mit seiner Boîte chaude, der heissen Box (Abb. 1.3) den ersten Solarofen konstruiert. Die erreichte Innentemperatur bleit auch in der kalten Höhe gleich. Das Experiment ist ein wissenschaftlicher Erfolg. Der Strom der Wärme von der Sonne zur Erde ist konstant, d. h. hier unabhängig von der Höhe. Die Abb. 1.4 zeigt eine Schweizer Banknote mit seinem Bild; er wird als Alpenforscher geehrt. Er ist Botaniker, Geologe, Glaziologe und Geometer, insbesondere hat er das Matterhorn vermessen. Ein kleines, originelles Messinstrument stammt von ihm, das Cyanometer (von griechisch kyanos blau ). Es besteht aus einem Farbkranz mit Blau-, Hellgrau- und Dunkelgrautönen bis zu Schwarz, um damit den Farbton des Himmels zu bestimmen. Alexander von Humboldt hatte auf seiner Amerikareise von 1799–1804 ein derartiges Instrument mitgeführt.

10     W. Hehl

1.1.4 Friedrich Wilhelm Herschel und das Infrarote So setzt sich das Sonnenlicht am Boden zusammen, wenn die Sonne im Zenit steht, jeweils auf den Quadratmeter bezogen: 527 W infrarote Strahlen, 445 W sichtbares Licht und 32 W ultraviolette Strahlung. Die Bilanz zwischen absorbierter und ausgesandter infraroter Strahlung ist für das Klima der Erde kritisch. Institute of Agriculture, University of Tennessee. 2020.

Wärmestrahlung ist schon immer gefühlt geworden und damit bekannt gewesen. Es gab sogar bis zu Beginn des 19. Jahrhunderts die Vorstellung von physikalischen Kältestrahlen. Einer der letzten Verfechter war der schon erwähnte Sir Benjamin Thompson, Graf Rumford, der britische Physiker und Offizier. Aber es gibt keine Kältestrahlen, nur Wärmestrahlen (oder einen Mangel an Wärmestrahlung). Der klare physikalische Beweis für die Existenz von Wärmestrahlen, zusätzlich zum sichtbaren Licht, war ein einfaches Experiment des deutsch-britischen Astronomen (und Musikers) Friedrich Wilhelm Herschel (1738–1822). Herschel sucht für Sonnenbeobachtungen nach dem idealen Filter für das Teleskop, um die Sonne sicher beobachten zu können. Das Problem ist, dass das Filter das Licht nur dämpfen soll, aber die zerstörerische Wärme ganz abhalten. Er hätte gerne ein Filter für das sichtbare Licht einerseits und ein Filter für die Wärme andrerseits. Im Jahr 1800 macht Herschel dafür Versuche mit einem Prisma, das das Sonnenlicht in das sichtbare Spektrum zerlegt, und misst dabei mit einem geschwärzten Thermometer auch die auftretende Wärme. Die Intensität des sichtbaren Lichts misst Herschel mit einem originellen Verfahren. Er verwendet ein Mikroskop und betrachtet im jeweiligen Licht die noch sichtbaren Einzelheiten an einem Objekt (einem rostigen Nagel). Zu seiner Überraschung findet er zwar für das sichtbare Licht ein Maximum und für die unsichtbare Wärme ein anderes Maximum – aber ausserhalb des sichtbaren Spektrums, jenseits des roten Lichts (Abb. 1.5). Die graue Fläche (links) zeigt die gemessene Wärme, die rechte Kurve die empfundene Lichtstärke. Je weiter rechts im Diagramm, umso stärker ist die Brechung. Er schreibt: „Beim Punkt R, wo wir das meiste Licht haben, gibt es nur wenig Wärme, beim Punkt S, wo wir die meiste Wärme haben, finden wir überhaupt kein Licht.“

1  Einleitung und Geschichtliches: Von der Wärmelehre …     11

Abb. 1.5  Die Spektren von Friedrich Herschel Links (grau) seine Wärmemessung, rechte Kurve die Lichtmessung Bild: Herschel, 1800 Phil. Trans. Royal Soc. London, Vol. 90, S. 530

Herschel hatte damit die Existenz der infraroten Strahlung bewiesen. Er weiss natürlich nichts von den verborgenen Schwierigkeiten seines Experiments, z. B. von der Abhängigkeit von Tages- oder Jahreszeit, von der ungleichmässigen Dispersion des Prismas, die die Energiedichten pro Länge verzerrt, oder von der Empfindlichkeitskurve des Auges, die ebenfalls ihr Maximum bei Grün (ca. 500 nm Wellenlänge) ganz in der Nähe des Maximums der Kurve (hellgrün, 550 nm) hat. Wenn die Sonne gleichmässig über alle Farben Licht aussenden würde, wäre seine gemessene Lichtkurve trotzdem so gewesen. Das Auge würde von allein durch seine spektrale Empfindlichkeit eine ähnliche Kurve ergeben. Herschel zeichnet beide Spektren auf die gleiche Achse und hält sie aus philosophischen Gründen, im Sinne des Rasierers von Ockham, für zwei Aspekte der gleichen Ursache: „… ob das Licht wesentlich verschieden ist von den Wärmestrahlen? Ich würde als Antwort vorschlagen, dass es uns nicht gestattet ist, zwei Ursachen vorzuschlagen, wenn schon eine Ursache ausreicht.“

Aber Licht (und der Sensor Auge) und Wärme (über die Haut) sind für seine Zeitgenossen doch zu verschiedene Welten, um zusammen zu gehören. Leider gibt er der falschen Kritik nach und schreibt abschliessend: „Es scheint nicht so zu sein, dass die Natur ein und denselben Mechanismus für zwei unserer Sinne verwendet …“.

Dabei hatte er sogar festgestellt, dass Linsen für beides, für Licht und für Wärme (die chaleur obscure damals oder infrarotes Licht heute) ähnliche

12     W. Hehl

Wirkung haben, nämlich Strahlen zu verdichten. Beide Strahlenbereiche sind elektromagnetische Strahlen mit gleicher Ausbreitungsgeschwindigkeit, der Lichtgeschwindigkeit. Es sind nur kleine Ausschnitte aus dem riesigen Gesamtspektrum von Strahlung über 25 Potenzen in Wellenlänge bzw. Frequenz. Die Gemeinsamkeit wird dann James Maxwell 1864 erkennen. Er wird bemerken, dass die Berechnung der Geschwindigkeit der (damals hypothetischen) elektromagnetischen Wellen zufällig oder wie durch Zauberei die Geschwindigkeit von Licht ergibt …

1.1.5 Eunice Newton Foote und John Tyndall Drittens. Den grössten Effekt auf die Sonnenstrahlen habe ich bei Kohlensäuregas gefunden. Eine Atmosphäre aus diesem Gas würde unserer Erde eine hohe Temperatur geben; und wenn, wie manche vermuten, die Erdatmosphäre in einer Periode mehr als heute enthalten hätte, dann wäre daraus eine höhere Temperatur entstanden, sowohl durch die eigene Aktion wie durch die höhere Dichte. Eunice Newton Foote (1819–1888) war eine amerikanische (Amateur-) Wissenschaftlerin und Erfinderin und die erste Person, die mit Experimenten die Glashaus-Eigenschaft von Kohlendioxid zeigte, drei Jahre bevor der viel berühmtere irische Physiker John Tyndall ähnliche Versuche professionell durchführte und feststellte: Kohlendioxid absorbiert Sonnenlicht und verwandelt es effizient in Wärme (s. die Textausschnitte der Abbn. 1.6). Tyndall hatte die Arbeit von Foote nicht gekannt. Die Vereinigten Staaten waren damals Europa auch noch nicht wissenschaftlich ebenbürtig; der Wissenschaftsbetrieb war erst im Aufbau. Dazu war Eunice Foote eine Frau, die deshalb nicht einmal ihre Arbeit selbst vortragen durfte (der Vortragende war allerdings der damals wohl berühmteste amerikanische Physiker Joseph Henry), und diese Versuche waren nahezu ihre einzigen physikalischen Arbeiten. In ihren Experimenten liess sie Sonnenlicht auf dicht verschlossene Glasröhren mit verschiedenen Gasen fallen. Als Nachtrag zum Vortrag von Eunice Foote: Sie führt Kohlendioxid (Kohlensäure) als den dritten Punkt in ihrer Liste auf, ihr erster Punkt ist die Dichte der Luft. Foote verfügt über eine Luftpumpe. Bei verdünnter Luft ist die Erwärmung geringer, bei erhöhten Luftdruck höher. Der zweite Punkt ist der Wassergehalt der Luft. In mit Wasserdampf gesättigter Luft ist die Erwärmung höher als in scharf getrockneter Luft. Aber beim Versuch mit der dritten Option, dem CO2 im Glaszylinder, war der Effekt am stärksten

1  Einleitung und Geschichtliches: Von der Wärmelehre …     13

Abb. 1.6  Aus: Die Umstände, die die Wärme der Sonnenstrahlen betreffen Eunice Foote, vorgetragen vor der American Association for the Advancement of Science, 23. August 1856. Am. Journal of Science and Arts, Vol. 22, S. 382–383

und es wurde sogar der Glasbehälter des Experiments heiss. Die kaum bekannte Eunice Foote hat mit CO2 und Wasserdampf die ersten wissenschaftlichen Versuche zur Treibhaus-Problematik gemacht. Der irische Physiker John Tyndall (1820–1893) ist nicht nur berühmt als Physiker, sondern auch als Alpenfreund und Bergsteiger. Der leicht beobachtbare Effekt der Lichtstreuung an kleinen Teilchen, die ungefähr so gross sind wie die Lichtwellenlänge, heisst nach ihm Tyndall-Effekt. Es ist in der Wissenschaft ja wohlbekannt, dass ein Effekt oder eine Konstante, die mit einem Namen verbunden ist, beide populärer macht – den Namensträger wie den Effekt2. Zum Tyndall-Effekt gibt es viele alltägliche Beispiele, etwa sichtbare Staubteilchen im Sonnenlicht oder durch Leim oder ähnliche Kolloide getrübtes Wasser oder Zigarettenrauch in der Luft. Verwandt ist auch die Erscheinung der Gottesfinger, sichtbar gewordene Strahlen von Licht in feuchter Luft. In der Abb. 3.6 macht der Tyndall-Effekt bei einem Sonnenkraftwerk die intensiven Lichtstrahlen selbst am Tag deutlich. Ein ganz anderer Bereich führt Tyndall zur Klimaforschung, nämlich seine Leidenschaft für die Alpen, sowohl als Tourist und Bergsteiger wie auch als Wissenschaftler. Es war um 1860 das Goldene Zeitalter des Alpinismus. John Tyndall bestieg als Erster zwar nicht das Matterhorn

2  Üblicherweise

gebend.

heisst eine solche Bezeichnung ein Eponym, nach altgriechisch eponymos namens-

14     W. Hehl

Abb. 1.7  The Mer de Glace (Das Eismeer) Stich im Buch The glaciers of the Alps (Die Gletscher der Alpen) von John Tyndall, 1896, Longmans, Green, and Co, London, 1861. 2. Auflage. Bild: Tyndall 1896 The Mer de Glace-MJ, Wikimedia Commons, John Tyndall

(4478 m) selbst, aber den Nebengipfel auf der Westschulter (4241 m), der nach ihm jetzt Pic Tyndall heisst (mehrere Berge auf der Erde tragen heute seinen Namen). Tyndall war auch als Wissenschaftler in den Alpen, mass Temperaturen und Luftdruck und beobachtete Gletscher. Seine diesbezüglichen Bücher sind historische Schmuckstücke (Abb. 1.7). Über die Gletscherforschung stiess er auf den Gedanken von Fourier von der Asymmetrie in der Durchlässigkeit der Atmosphäre für sichtbares und unsichtbares Licht und auf die heisse Box des Bergsteiger-Kollegen de Saussure. Ohne von Eunice Foote zu wissen, beginnt er mit Experimenten zur Absorption von unsichtbarem Licht. Dazu baut er eine professionelle und empfindliche, ja raffinierte Apparatur (Abb. 1.8) zum Messen des Absorptionsverhaltens von Gasen. Lichtquellen sind zwei Behälter mit siedenden Wassers mit ihrer Wärmestrahlung. Damit misst er nur (langwellige) Wärmestrahlung und nicht Sonnenstrahlung und Wärmestrahlung zusammen. Das mit dem Thermoelement verbundene Galvanometer sei so empfindlich gewesen, dass es die Wärme eines Gesichts gespürt habe und deshalb aus der Entfernung, mit einem Teleskop quer durch den Raum, abgelesen werden musste.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     15

Abb. 1.8  Die Messapparatur von Tyndall Das Thermoelement (Thermopile ) misst Unterschiede der Strahlung von den beiden Seiten mit einem Galvanometer (Schemel in der Mitte). John Tyndall, 1861. Bild: Tyndalls setup, Wikimedia Commons, John Tyndall, subsequently annotated.

Er verglich die Absorption der einfachen Gase wie Sauerstoff, Wasserstoff und Stickstoff (die er für einatomige Moleküle hielt) mit der von komplizierteren Gasen wie Wasserdampf, Kohlendioxid, Kohlenwasserstoffen wie Methan und Ozon und fand gewaltige Unterschiede. Die komplexen Gase absorbieren (und strahlen wieder ab) tausend Mal mehr als trockene, CO2-freie Luft: Wasserdampf (H2O) etwa 70 Mal, Kohlendioxid (CO2) nahezu 1000 Mal, Stickstoffdioxid (NO2) 1600 Mal und Ammoniak (NH3) sogar 5500 Mal mehr (Tyndall nach Arthur Smith 1920). Ausser dem leicht braunroten NO2 sind all diese Gase wie Luft für das Auge perfekt farblos und unsichtbar, aber für die infrarote Strahlung sind die komplexen Gase undurchsichtig. Tyndall zieht daraus den Schluss, dass ohne Wasserdampf (und wir fügen hinzu, ohne Kohlendioxid) in der Luft, der Frost die Erde fest im Griff hätte. Er schreibt: Wenn die Wärme von einem Planeten absorbiert wird, so ändert sich ihre Qualität. Die Strahlen, die dann vom Planeten ausgehen, können nicht mit derselben Freiheit zurück ins All. So erlaubt die Atmosphäre den Eintritt der Wärme der Sonne, aber kontrolliert ihren Austritt. Das Ergebnis ist die Tendenz, dass sich Wärme auf der Oberfläche des Planeten ansammelt.

16     W. Hehl

Tyndall versteht auch, dass Tau und Frost durch Abstrahlung von Wärme erfolgen. London ist für ihn eine Wärmeinsel – auch wir wissen heute, dass Städte wärmer sind als das Umland. Er macht weitere Entdeckungen zur Absorption und Ausstrahlung von Wärme oder Licht, etwa den erwähnten Tyndall-Effekt. Dies ist die Sichtbarkeit der Lichtstreuung von Partikeln in einem durchsichtigen Medium, Gas oder Flüssigkeit; man kann den Strahl des eingestrahlten Lichts von der Seite sehen. Die Streuung von elektromagnetischen Wellen (wie z. B. Licht) an Teilchen enthält viele Phänomene, da ja sowohl die Wellenlänge der Strahlung wie die Teilchengrösse sehr variieren können. John Tyndall hatte von seinem befreundeten Kollegen, dem englischen Physiker Michael Faraday (1791–1867), im Jahre 1857 gelernt, dass feinverteiltes kolloidales Gold, das in einer Flüssigkeit schwebt, das Licht streut und als Trübung zu sehen ist. Tyndall untersuchte den Vorgang dieser Lichtstreuung von Partikeln allgemein; er stiess auch auf dieses Problem bei der Reinigung von Gasen für seine Experimente. Teilchen im Gas, genannt Aerosole, stören den Wärmehaushalt; wir kommen später darauf zurück. Tyndall baut ein Messgerät und verwendet es 1871, um die Londoner Luftverschmutzung nachzuweisen und zu messen. Allgemein wird das kurzwellige, blaue Licht stärker gestreut und das rote Licht bleibt auf der geradlinigen Richtung übrig. Ein besonders hübsches Beispiel dieser Physik ist der trübe Stein in der Abb. 1.9. Die milchige Farbe entsteht durch Streuung an Myriaden von Kryolith-Teilchen. Der Glasbrocken erscheint bläulich, das eher transiente Licht hat orange Farbe. Erst bei grösseren Teilchen, z. B. den Wassertropfen einer Wolke, wird die Streuung unabhängig von der Lichtfrequenz – die Wolken sind weiss oder grau. Tyndall ist nicht nur in der Physik seiner Zeit in vielen Bereichen aktiv (Akustik, Magnetismus, Licht und Wärme, Aerosole), sondern wendet seine Erkenntnisse an und ist vielseitiger Erfinder. In gewissem Sinn ist er Begründer der angewandten Wissenschaft der Aerosole. Ein Aerosol (ein Kunstwort aus altgriech. āḗr, deutsch ‚Luft‘, und lateinisch solutio‚ Lösung‘) ist eine Dispersion von flüssigen oder festen Schwebeteilchen in einem Gas.

Aus seinen Erfahrungen mit Luft und Gasen entstehen u. a. • ein Gerät zur Bestimmung der Konzentration von Partikeln in Luft oder Flüssigkeiten, das Nephelometer (vom griechischen Wort für Wolke, nephos ),

1  Einleitung und Geschichtliches: Von der Wärmelehre …     17

Abb. 1.9  Opalisierendes Glas Beispiel des Tyndall-Effekts mit Demonstration der Farbeffekte Bild: Scattering, itp Universität Hannover. Dietrich Zawischa, mit freundlicher Genehmigung

• ein medizinisches Instrument, das das Kohlendioxid im Atem misst, das Kapnometer (vom griechischen Wort für Rauch, kapnos ), und • eine Methode, um absolute mikrobiologische Sterilität zu erreichen durch eine Prozedur mit mehrfachem Erhitzen. Dadurch werden nicht nur Bakterien abgetötet, sondern auch ihre Sporen (Tyndallisierung). Tyndall war zur Mikrobiologie gekommen durch seine Versuche mit partikelfreier Luft. Tyndall versucht 1869 mit seinen Aerosol-Erfahrungen das uns bekannteste Streuphänomen zu klären, das Blau des Himmels. Aber das Blau entsteht auch in reiner Luft, ohne Tröpfchen oder Staub – die Streuung erfolgt an den Molekülen von Sauerstoff und Stickstoff, die etwa tausend Mal kleiner sind als die Lichtwellenlängen, nämlich etwa 0,3 nm im Vergleich zu 400 bis 750 Nanometern von blauem bzw. rotem Licht. Die Erklärung für das Blau des Himmels (und damit für Morgen- und Abendrot) findet zwei Jahre später der englische Physiker Lord Raleigh (1842–1919). Er berechnet mit klassischer Streutheorie und später mit Hilfe der neuen Gleichungen von James Maxwell die Streuung am Himmel. Entscheidend ist, dass Licht von doppelter Frequenz an den Luftmolekülen sechzehn Mal mehr gestreut wird, d. h. blaues Licht wird aus dem Sonnenlicht damit herausgestreut und füllt den Himmel.

1.1.6 Johann Wilhelm Ritter und das Ultraviolette In dieses farbige Licht [eines Prismas im Sonnenlicht] lege man ein Stück Papier, welches mit Hornsilber bestreut ist. So wird man gewahr werden, dass

18     W. Hehl

dieses Hornsilber3 in der violetten Farbe weit eher schwarz wird als in den anderen Farben. Carl Wilhelm Scheele, deutsch-schwedischer Chemiker, 1742–1786.

Carl Wilhelm Scheele war ein äusserst erfolgreicher Chemiker, so z. B. ein Mitentdecker des Elements Sauerstoff und der Verbindung Harnstoff. Aber bei der obigen Beobachtung schon im Jahr 1777 hat er nicht weiter gedacht. Der deutsche Physiker und „deutsche Romantiker“ Johann Wilhelm Ritter (1776–1810) wiederholte den Versuch 1801. Diese Versuche entsprechen dem Versuch von John Herschel aus dem Jahr 1800, allerdings nun auf der anderen Seite des Spektrums. Hier findet Ritter mehr als Scheele: Habe auf der Seite des Violetts im Farbspektrums, ausserhalb desselben, Sonnenstrahlen angetroffen, und zwar durch Hornsilber gefunden. Sie reduzieren noch stärker als das violette Licht selbst, und das Feld dieser Strahlen ist sehr gross.

Ritter hat damit die ultraviolette Strahlung der Sonne entdeckt. Die Sonne strahlt als heisser Körper mit etwa 6000°C Oberflächentemperatur etwa 10 % der Energie als ultraviolettes Licht ab. Definiert ist UV als nicht mehr direkt sichtbares Licht jenseits des Blau, d. h. mit Wellenlängen unter 400 nm bis etwa 10 nm (die noch kleineren Wellenlängen nennt man Röntgen-Strahlung). Die eingestrahlte Leistung von der Sonne im fernen UV (kurzer Wellenlänge) und von Röntgenstrahlung ist nur gering. Spektakulärer ist die UV- und Röntgenstrahlung bei Sonneneruptionen, den Fackeln oder Flares; und ihren hohen Temperaturen. Kurzwelliges UV-Licht zerstört DNA-Moleküle und damit Bakterien und Viren. Bakterien werden schon im Bruchteil einer Sekunde inaktiviert. Schon langwelliges UV-Licht löst chemische Reaktionen aus, kurzwelliges Licht ionisiert sogar wie radioaktive Strahlung. Der Entdecker Ritter hatte die UV-Strahlung als chemische Strahlen bezeichnet im Gegensatz zu den passiven Wärmestrahlen am roten Ende des Spektrums. Würde die UVStrahlung der Sonne den Erdboden ungeschwächt erreichen, wäre biologisches Leben unserer Bauart auf der Erde wohl nicht möglich. Am Boden sind noch 3 % des Energiestroms ultraviolettes Licht; kurzwelliges UV-Licht (UVC) erreicht den Grund praktisch nicht. Die Ozon-Schicht absorbiert die meiste UV-Strahlung. Dazu mehr später.

3 Hornsilber

ist ein alter, populärer Name für Silberchlorid.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     19

Abb. 1.10  Logo einer UV-Lampe Die Höhensonne Original Hanau um 1920. Bild: www.original-hanau.de/unternehmen/historie

1902 wurde die heilende Wirkung von UV-Licht entdeckt. Der deutsche Physiker Richard Küch entwickelte aus geschmolzenem Bergkristall ein UVdurchlässiges Glas und eine Quecksilberdampflampe als UV-Lichtquelle. Die Abb. 1.10 ist das Logo der entstehenden Firma Höhensonne Original Hanau und ein weltweites Symbol für UV-Licht als Heilmittel. Noch eine weitere Erfindung von Ritter ist erwähnenswert. Aus einem Stapel von 50 Kupferscheiben mit salzgetränkten Kartonstücken dazwischen entsteht eine wieder aufladbare Batterie, der erste Akku. Er hat bei seinen elektrochemischen Versuchen schon systematische Beobachtungen gemacht und die verschiedenen Metalle elektrochemisch geordnet nach der Fällungsreihe. Der Grund für die galvanischen Erscheinungen waren für ihn chemische Reaktionen; damit hat er die elektrochemische Spannungsreihe vorbereitet und gilt als Begründer der Elektrochemie. Allerdings hatte er zunehmend dubiose Ideen, z. B. über die „elektrischen Pole“ der Erde und zur Radioaesthesie (Wünschelrutengängerei), die ihm den Weg in die akademische Welt verstellten. Es ist aufschlussreich, die nüchterne und rationale Haltung von Wissenschaftlern wie John Tyndall und Charles Darwin mit den romantisierenden und teils dubiosen Gedanken von Johann Wilhelm Ritter und auch Johann Wolfgang von Goethe zu vergleichen. Als nüchterner, vielleicht kleinbürgerlicher Wissenschaftler wäre Ritter wohl zu einem der ganz grossen Physiker und Chemiker zu Beginn des 19. Jahrhunderts geworden.

20     W. Hehl

1.1.7 Louis Agassiz und Karl Friedrich Schimper Der lange Sommer war vorbei. Lange Zeiten hatte ein tropisches Klima über einen grossen Teil der Erde geherrscht, und Tiere, die heute unter dem Äquator zu Hause sind, streiften über die Welt … Aber ihre Herrschaft war jetzt vorbei. Ein plötzlicher heftiger Winter, der auch lange andauern sollte, fiel auf unseren Globus. Louis Agassiz inGeological Sketches, 1866.

Der schweizer-amerikanische Naturforscher Jean Louis Rodolphe Agassiz (1807–1873) war kein experimenteller Physiker oder Chemiker. Seine wesentliche wissenschaftliche Arbeit war in der Zoologie und Paläontologie von Fischen angesiedelt. Sein Beitrag zu den Grundlagen der Klimaforschung und der Grund, ihm hier ein kleines Kapitel zu widmen, war seine Idee einer weltweiten Eiszeit in der Vergangenheit der Erde. Die Möglichkeit einer neuen Eiszeit wird noch bis etwa 1970 wissenschaftlich diskutiert werden. Dies war zunächst eine der vielen Spekulationen im 19. Jahrhundert in Geologie und Astronomie, vor allem von Katastrophen. Die grosse Vorstellung, wie geologischer Fortschritt erfolgt, war in der Form von Katastrophen und nicht allmählich. Der vermuteten Katastrophen gab es viele, wie etwa einen globalen, alles bedeckenden Ozean, einen totalen globalen Vulkanismus oder sogar plötzliche Gebirgsbildungen durch Explosionen. Der historische Katastrophismus passte naturgemäss gut zu den damaligen religiösen Vorstellungen von spontaner Erschaffung der Welt, Kreationismus und dem Mythos der Sintflut. Mit diesen Katastrophen brauchte man die langen Zeiträume nicht, wie sie die Evolution nach Darwin voraussetzte. Aber mit der Idee der Eiszeit hatte Agassiz Recht; die Schleifspuren im Gestein (Gletscherschliff) und die weit weg von den Alpen gefundenen Findlinge waren Beweise. Er machte auch vor Ort, am Unteraargletscher in der Schweiz, Versuche zur Messung der Bewegung des Eises. Die Abb. 1.11 zeigt einen dafür verwendeten Eisbohrer. Dazu war er ein guter Propagandist für die Idee der Eiszeit(en), man lese dazu Agassiz, 1866. Die Eiszeiten waren ein publizistisch wirkungsvolles, aufregendes Thema. Hierzu heisst es im zugehörigen deutschsprachigen Wikipedia-Artikel Agassiz (gezogen Oktober 2020): … deshalb gilt er heute noch, insbesondere im englischsprachigen Raum, in dem anderssprachige Literatur kaum beachtet wird, als Entdecker der Eiszeit.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     21

Abb. 1.11  Ein eiserner Eisbohrer von Louis Agassiz Beim Bohren auf dem Aargletscher verwendet. Bild: SAM PC0 Ice auger of Louis Agassiz and Eduard Dasor, Wikimedia Commons, Sandstein

Ein wenig bekannter deutscher Naturforscher, Karl Friedrich Schimper, 1803–1867, hatte wohl sogar als erster den Gedanken des Weltwinters gehabt, bei dem Eis einst weite Teile von Europa, Asien und Nordeuropa bedeckt hatte. Er hat auch als erster das Wort Eiszeit geprägt und 1837 in einem Gedicht verwendet, einer Ode zum Geburtstag Galileis. Schimper hat leider kaum veröffentlicht und stand (und steht) in der Öffentlichkeit ganz im Schatten von Agassiz. Der amerikanische Linguist und Germanist Edward Payson Evans (1831–1917) hat darüber im Jahr 1887 eine kleine Schrift verfasst mit dem Titel The Authorship of the Glacial Theory – die

22     W. Hehl

Urheberschaft der Theorie der Eiszeiten (Evans 1887). Es ist die Darstellung eines wenig erfreulichen Gerangels um Prioritäten, bedauerlich als historischer und persönlicher Streit – und vollkommen zu Gunsten von Schimper. Noch ein weiteres, zu seiner Zeit revolutionäres Konzept rührt von Schimper. Als Ergebnis seiner Arbeiten als Geologe für den Bayrischen Kronprinzen erkannte er, dass die Alpen durch horizontale Kräfte gefaltet worden sind, im Gegensatz zur damals etablierten Sicht des Aufsteigens des Gebirges durch vertikale Kräfte. Ein Nachtrag zur erwähnten historischen Katastrophentheorie; die Diskussion passt ja vielleicht zum Thema dieses Buchs, dem Klimawandel. Daneben gab es in der Geologie und Biologie im 19. Jahrhundert auch den gegensätzlichen Gedanken, dass sich alles langsam und allmählich ändert, den sog. Gradualismus. Die Realität der biologischen und geologischen, ja der astronomischen Welt kennt beides. In der biologischen Evolution besteht der Fortschritt aus Myriaden von kleinen, zufälligen Veränderungen, die einen graduellen Eindruck ergeben und sehr viel Zeit zur Ausführung brauchen, ja Milliarden Jahre. Aber es ist noch nicht sicher, ob es nicht doch grössere Sprünge in der Evolution gegeben hat und geben musste – etwa für das Entstehen des ersten Lebens aus Anorganischem überhaupt (Hehl 2020). In der Astronomie war innerhalb von mehreren Milliarden Jahren der Entwicklung die Entstehung des Mondes durch eine wenige Stunden dauernde Kollision eine Katastrophe für die junge Erde, in der Erdgeschichte der Einschlag des Meteoriten von Yucatán für die Saurierwelt. Sind wir in unserer Zeit, in diesen Jahrhunderten, auch vom Gradualismus in den Katastrophenmodus übergegangen?

1.2 Der Weg zum Verstehen des globalen Klimawandels 1.2.1 Svante Arrhenius Bis heute haben sich warme und Eisperioden abgewechselt, selbst seitdem es Menschen auf der Erde gibt, und wir fragen uns: Ist es möglich, dass es eine neue Eiszeit geben wird, die uns von unseren gemässigten Ländern in das heissere Klima Afrikas treiben könnte? Das scheint nicht sehr wahrscheinlich. Die enorme Verbrennung von Kohle in unserer Industrie reicht aus, den Prozentsatz von Kohlendioxid in der Luft wahrnehmbar zu erhöhen. Svante Arrhenius, in Worlds in the Making, 1908.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     23

Abb. 1.12  Der Einfluss von CO2 auf die Temperatur der Erde von Svante Arrhenius Titel des wohl bedeutendsten Artikels überhaupt zum Klimawandel. Bild nach Druckmaterial in der Public Domain

Abb. 1.13  Die Sicht auf das Klimaproblem zum Beginn des 19. Jahrhunderts (1921) Bild aus dem Scientific American, Mai 1971, in der Rubrik Vor 50 Jahren. Eigene Aufnahme

24     W. Hehl

Svante Arrhenius (1859–1927) ist erfolgreicher Physiker und Chemiker und ein Optimist. Er entwickelt den Gedanken, dass alle Säuren, Basen und Salze elektrolytisch dissoziieren, d. h. sich zu geladenen Teilchen, den Ionen, mehr oder weniger stark auftrennen. Dadurch konnte er z. B. die elektrische Leitfähigkeit vieler Lösungen erklären. 1903 bekommt er dafür den Nobelpreis für Chemie. Arrhenius ist sehr vielseitig, auch mit eigenwilligen Ideen wie mit dem Gedanken, dass biologisches Leben in der Form von Sporen durch das Weltall fliegt (sog. Panspermie). Seine Überlegungen sind im letzten Kapitel des populären Buchs Werden der Welten beschrieben. Damit hätte das Leben irgendwo im Universum entstehen können. Der Gedanke ist heute nicht mehr ganz so exotisch wie im 20. Jahrhundert. Wir wissen heute, dass es Lebensformen gibt, die Weltraumbedingen aushalten wie etwa manche Bakterien, Viren oder sogar ein höheres Lebewesen, das Bärtierchen Targagrada. Seine heute vielleicht bekanntesten Arbeiten betreffen die Absorption von Licht durch Wasserdampf und Kohlendioxid und seine Schlüsse, die er daraus gezogen hat. Sein Ausgangspunkt waren die Infrarot-Messungen des Astronomen Langley zur Temperatur des Mondes, natürlich durch die irdische Atmosphäre hindurch. Aus dem Unterschied der Infrarotstrahlung beim hochstehenden und beim tiefstehenden Mond liess sich die Strahlung quantifizieren. Langley schätzte damit die Temperatur auf der Mondoberfläche. Eine zentrale wissenschaftliche Grundlage ist das 1879 vom österreichischen Physiker Joseph Stefan (1835–1893) gefundene Gesetz (Stefan-Boltzmann-Gesetz), das die Strahlung eines Körpers mit der Temperatur verbindet: Die Abstrahlung von Energie nimmt mit der Temperatur sehr schnell zu, mit der vierten Potenz der (absoluten) Temperatur. Doppelte absolute Temperatur ergibt 16-fache Abstrahlung! Dieses rasche Anwachsen von abgestrahlter Strahlung mit der Temperatur ist grundlegend dafür, dass die Erde bei einer menschlich angenehmen Oberflächentemperatur zu einem Gleichgewicht kommt mit der heissen Sonne. Damit konnte Arrhenius das Strahlungsgleichgewicht berechnen; sein Modell ist noch heute im Prinzip die Grundlage für die modernen Klimamodelle. Arrhenius berechnete (oder schätzte) die Temperaturen der Erde mit verschiedenem CO2-Gehalt. Sein Interesse geht dabei in beide Richtungen, mögliche Erwärmung einerseits und Abkühlung andrerseits, d. h. die Möglichkeit einer neuen Eiszeit. Die dringendere Aufgabe schien ihm dabei die Erklärung der weltweiten Eiszeiten zu sein, über die in intellektuellen Kreisen in dieser Zeit heftig diskutiert wurde. Er schätzt ab, welche

1  Einleitung und Geschichtliches: Von der Wärmelehre …     25

Konzentrationen zum Auslösen einer Eis- oder Warmzeit notwendig wären. 1896 schreibt er: … dass die Temperatur der arktischen Gebiete um 8° bis 9° steigen würde, wenn der CO2 -Gehalt auf das 2.5 bis Dreifache des heutigen [damaligen] Werts stiege. Um die Temperaturen der Eiszeit in den Breiten zwischen 40 und 50 Grad Breite zu erhalten, müsste das CO2 in der Luft auf zwischen 62 und 55 % des heutigen Werts absinken (bei etwa 4°bis 5° tieferer Temperatur).

Er spricht im Sprachgebrauch der Zeit von Kohlensäure, aber es ist Kohlendioxid (CO2) gemeint. Eine Erhöhung der Temperatur der Erde wird nicht als bedrohlich empfunden; er nennt die Veränderungen genial or glacial, also freundliche, positive oder eisige, negative Epochen. In der schwedischen Öffentlichkeit war die Befürchtung grösser, eine Eiszeit könne das Land klimatisch in eine Polarregion verwandeln, als die Angst vor Erwärmung. Arrhenius berechnet sogar, dass dieser Hot house effect überhaupt notwendig ist, um die Erde bewohnbar zu machen! Das Kohlendioxid in der Luft hebe die mittlere Temperatur um 21°C an, dazu komme der Effekt des anderen verbreiteten Treibhausgases, des Wasserdampfs, der weitere 10° Erwärmung zusteuere. Damit ist Arrhenius der Vater der globalen Erwärmung. Arrhenius macht sich auch Gedanken zu den möglichen zugehörigen Prozessen, der Aufnahme und der Abgabe des CO2 in und aus der Atmosphäre. 1896 listet er die von ihm vermuteten Vorgänge in die beiden Richtungen auf. In die irdische Atmosphäre gelangt CO2 durch 1) Vulkanische Ausdünstungen und Ähnlichem, 2) die Verbrennung kohlenstoffhaltiger Meteoriten in der oberen Atmosphäre, 3) den Zerfall organischer Körper, 4) die Zersetzung von Karbonaten (Salzen der Kohlensäure), 5) die Befreiung von CO2, das mechanisch in Mineralien eingeschlossen ist. Umgekehrt wird gasförmiges CO2 aufgenommen und verschwindet aus der Atmosphäre nach Arrhenius durch: 6) die Bildung von Karbonaten aus Silikaten, 7) den Verbrauch durch vegetative Prozesse (durch Pflanzen).

26     W. Hehl

Dazu kommt als Punkt 8) die einfache physikalische Lösung des CO2 im Wasser der Meere: Arrhenius sieht in den Ozeanen grosse Puffer. Der Wert des CO2-Gehalts der Atmosphäre ist bereits bekannt und bestimmt worden zu 0.03 % Vol.-Prozent oder 3,4 mm Wassersäule (0,034 kPa) Partialdruck oder, wie er originellerweise berechnet, entsprechend einer Kohleschicht über die ganze Erde von 1 mm Dicke. Ähnlich anschaulich wird der CO2-Beitrag geschildert durch die Kohleverbrennung um die Jahrhundertwende: Es sind 500 Mio. Tonnen4 Kohle entsprechend einer Tonne Kohlenstoff pro km2 Erdoberfläche. Zum Vergleich mit heute: 2020 werden etwa 30 Mrd. Tonnen5 CO2 freigesetzt entsprechend 8,3 Mrd. Tonnen Kohlenstoff. Eine andere (ungewöhnliche) Betrachtung von Arrhenius betrifft das in Sedimentgesteinen fixierte Kohlendioxid. Er schätzt ab, dass dies 25 000 Mal mehr ist als das freie CO2, das sich heute in der Luft befindet, und dass all dieses gebundene Gas nach und nach einmal in der Atmosphäre gewesen ist. Daraus schliesst er, dass es auch grosse Variationen im Kohlendioxidgehalt der irdischen Luft geben konnte und könnte. Insbesondere eine Folgerung macht jegliche Rechnung schwierig: Die Ströme des CO2 gehen in beide Richtungen, in die Atmosphäre und aus ihr heraus, und es ist leicht möglich, dass es zu Änderungen kommt. Der Gesamteffekt ist gerade deshalb schwer zu berechnen. Externe, mögliche astronomische Gründe für eine Eiszeit zitiert er, aber er lehnt sie ab. Es ist eine durchaus vernünftige Liste möglicher Effekte zur Temperaturänderung der Erde, wie z. B. eine Änderung der Sonnenstrahlung selbst (der Solarkonstante), der Exzentrizität der Erdbahnellipse oder der Schiefe der Ekliptik. Amüsant aus heutiger Sicht ist der erwähnte Punkt Klimawandel durch Änderung der Weltall-Temperatur am Ort der Erde – diese Möglichkeit braucht man nicht zu erwägen. Arrhenius ist ein umfassend denkender Wissenschaftler auf der Wissensbasis des Beginns des 20. Jahrhunderts. Er bringt die wesentlichen Probleme der Berechnung des Klimas, die uns noch heute beschäftigen, auf die wissenschaftliche Ebene. Er macht deutlich, dass winzige Änderungen, etwa am so kleinen CO2-Gehalt der Luft, über einen langen chemisch-physikalischen Hebel grosse Veränderungen hervorrufen können. Nach heutigem Wissen hatte er falsche Ausgangsdaten und seine numerischen Überlegungen waren falsch, ja er hat sogar Zahlen „verbessert“,

4 Die 5 Die

wissenschaftliche, standardisierte Masseinheit ist Gg a−1, Gigagramm pro Jahr. wissenschaftliche, standardisierte Masseinheit ist Tg a−1, Teragramm pro Jahr.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     27

z. B. die Übereinstimmung mit Tyndall (Erren 2006). Sein Gesetz für den Einfluss von CO2 auf die Temperatur, ist hier in Originalwortlaut: Wenn die Menge der Kohlensäure in einer geometrischen Reihe wächst, so steigt die Temperatur nahezu arithmetisch [d. h. die Beziehung ist logarithmisch].

Seine Rechnungen leben heute in verbesserter Form weiter für die entsprechende moderne Grösse, den Strahlungsantrieb (Radiative Forcing) zur Klimaänderung etwa durch CO2 (s. u.). So steigt der Strahlungsantrieb logarithmisch für Konzentrationen bis zu etwa dem Achtfachen des aktuellen Werts (Huang 2014). Insgesamt ist Arrhenius optimistisch was die Entwicklung des Klimas durch die Verbrennung der fossilen Brennstoffe anbetrifft. Den Verbrauch der nicht erneuerbaren Ressourcen bedauert er in Das Werden der Welten, 1907: Wir können eine Art von Trost darin finden, dass es hier, wie in jedem Fall, Gutes vermischt mit Schlechtem gibt. Durch den Einfluss des zunehmenden Prozentsatzes an Kohlensäure in der Atmosphäre hoffen wir auf Zeiten mit ausgeglichenerem und besserem Klima, besonders in den kälteren Regionen der Erde, und auf Zeiten, in denen die Erde reichere Ernten hervorbringt als heute zum Nutzen einer rasch fortschreitenden Menschheit.

Dies drückt auch der englische Text aus dem Scientific American vom Mai des Jahres 1921 aus. Es ist die Sorge um das Ende der Kohlevorräte und das Versiegen der Erdölquellen einerseits, und die Aussicht auf ein wärmeres Klima andrerseits. Viele Überlegungen von Svante Arrhenius sind sinnvoll, aber ein Bereich ist – ohne sein Verschulden – unsinnig. Seine Betrachtungen zur Venus sind ganz im Wissen und Geist seiner Zeit und damit vollkommen falsch. Bis noch etwa 1962 war die allgemeine Vorstellung von der Venus eine lineare Extrapolation der Erde. Da näher an der Sonne und etwa von gleicher Grösse, stellte man sich die Venusoberfläche ähnlich der Erde vor, nur wärmer. Die Klischeevorstellung, zum Teil auch in Fachkreisen, war ein tropisches Paradies. So schildern die bis heute erfolgreichen Perry Rhodan-Romane die Venus und ihre Tierwelt als eine urweltliche, feuchtheiße Dschungelwelt. In vielen Einzelheiten wird eine Art tropische Tierwelt beschrieben:

28     W. Hehl

Auf der Venus war eine halbintelligente Art beheimatet, die seehundähnlichen Robben. Die halbtelepathisch begabten Wesen sind Lungenatmer … Der Boden ist von vielseitigen Organismen belebt. Es gibt zum Beispiel Schraubenwürmer, fünf Zentimeter große fleischfressende Ameisen, sechsfüßige Schlangen, und auch normale Schlangen … Die venusischen Dinosaurier sind äußerst träge, besonders die großen Pflanzenfresser. Und so weiter (Perrypedia, Artikel Venus, gezogen Oktober 2020). Der Wissenschaftler Arrhenius beschreibt seinen Gedankengang zur Temperatur der Venus in Werden der Welten (1907): Wenn die Atmosphäre transparent wäre, sollte sich die Oberflächentemperatur auf + 65°C belaufen. Aber da die Venus von dichten weissen Wolken umgeben ist wahrscheinlich aus Wassertropfen … weiss wie ein Schneeball folgert er. dadurch wird seine [des Planeten] Temperatur bedeutend erniedrigt, obgleich sie teilweise wieder erhöht wird durch die schützende Wirkung seiner Atmosphäre. Die mittlere Temperatur auf der Venus ist daher nicht unbeträchtlich niedriger als die berechnete und dürfte etwa 40°C betragen. Darum scheint die Annahme durchaus nicht ungereimt, daß ganz beträchtliche Teile der Venusoberfläche dem organischen Leben günstig sind, besonders die Gegenden um die Pole herum.

Die Lage ist ganz anders. Die mittlere Temperatur auf dem Venusboden beträgt + 464°C, weit über dem Schmelzpunkt von Zinn (232°C) und Blei (327°C). Die Atmosphäre besteht vor allem aus CO2 mit ein paar Prozenten Stickstoff. Der Druck am Boden ist etwa 92 bar, d. h. wie der Druck auf der Erde in 910 m Meerestiefe. Die Wolkendecke der Venus (die man schon am Fernrohr vermutet hat) besteht zu drei Vierteln aus Tröpfchen von Schwefelsäure. Es gibt in der dichten Atmosphäre am Boden nur geringe Windgeschwindigkeiten und nur noch ein schwaches, trübes Sonnenlicht. Dazu kommt eine kuriose lange Rotationszeit von beinahe der Umlaufzeit – aber retrograd, entgegen der Umlaufrichtung des Planeten und entgegen den Verhältnissen der Erde. Dies alles weiss man erst durch Raumsonden und Radar-Messungen. Die Venus zeigt den Glashaus-Effekt, den Arrhenius untersucht hat und so freundlich ansah, in einer bösen Endform, genannt das Venus-Syndrom. Es besteht in einer Serie sich selbst verstärkender Effekte, die bei der Venus zu einem totalen Kippen der klimatischen Verhältnisse geführt haben.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     29

Nimmt man (Wasser-) Ozeane auf der Ur-Venus an, so wirkt zunächst der Wasserdampf als Treibhausgas. Wasser verdampft, verstärkt die Wärmeisolation und führt zu weiterer Erwärmung. Wasserdampf wandert in immer grössere Höhen, wird durch UV-Strahlung zerlegt und die ganz leichten (und damit ganz schnellen) Wasserstoffatome entkommen zuerst ins All, danach die schwereren Sauerstoffatome. Das Entweichen aus dem Einflussbereich erfolgt einzeln bei Ausreisseratomen, die statistisch schneller als die Fluchtgeschwindigkeit sind (Jeans-Effekt) oder in Scharen, wenn ein hoher Energiefluss leichte und schwerere Atome aus dem Schwerefeld des Planeten hebt (hydrodynamisches Entweichen ). Die grossen Mengen des CO2 (und das Schwefeldioxid SO2) in der Atmosphäre entstanden durch Zersetzen der Karbonate und Sulfate der Venusrinde und Gebirge (Podbregar 2019). Der Treibhauseffekt hat sich bei der Venus und dem Venus-Syndrom selbstverstärkend entwickelt bis zu einem infernalischen, wieder stabilen Grenzzustand. Die Venus ist der Sonne zu nah; es hatte deshalb kein flüssiges Wasser und keine dämpfenden Wasserwolken gegeben. Eine derartige Entwicklung wird ein Runaway-Effekt genannt oder ein galoppierender Treibhauseffekt. Ein Runaway des Erdklimas vom Typ des Venus-Syndroms hängt wie ein Damokles-Schwert über uns Menschen. Dies hat vor allem der britische Physiker Stephen Hawking betont mit dieser satirischen Bemerkung: „So geschieht es, wenn die Treibhausgase ausser Kontrolle geraten“, sagt er. „Wenn Sie das nächste Mal einen Klimaleugner treffen, sagen Sie ihm, er soll auf die Venus reisen. Ich zahle die Reise.“ In Stephen Hawking’s Favorite Places, Episode 2, 2016.

Allerdings empfängt die Venus doppelt so viel Sonnenenergie pro Flächeneinheit wie die Erde. Das Abdriften in unwirtliche Zustände war leichter. Mit Svante Arrhenius beginnt die angewandte Wissenschaft der Modellierung des Klimas. Er hatte die Welt in Streifen (Ringe) gleicher geografischer Breite eingeteilt und die jeweiligen Energiebilanzen gerechnet. Er hat die empfangene Energie, die absorbierte und die reflektierte, berechnet und dies wieder und wieder. Arrhenius hat ein Jahr lang gerechnet – etwa 100 000 Rechnungen von Hand. Allerdings waren die Rechnungen (mit wahrscheinlich vielen beschriebenen Blättern Papier) für ihn eine Therapie. Er war gerade von seiner Frau geschieden worden. Er hatte geschätzt, dass es 3000 Jahre dauern würde bis sich der CO2-Gehalt der Erdatmosphäre durch menschliche Aktivitäten um 50 % erhöhen würde, von 0,028 % auf 0,042 %. Er konnte nicht voraussehen, wie viele Automobile gebaut werden

30     W. Hehl

würden, wie viel Strom aus Kohle erzeugt, wie viele Flugzeuge fliegen würden (und auch nicht, was sich unter der Wolkendecke der Venus verbarg). Er war voll des Optimismus (Crawford 1998) und dachte, damit würde das Kohlendioxid es. „unseren Nachfahren erlauben, unter einem wärmeren Himmel zu leben und in einer weniger rauen Umwelt, als wir sie haben.“

Wir haben den doppelten CO2-Wert nahezu schon heute erreicht, nämlich 0,041 %. Bis um das Jahr 1960 werden es die Klimawissenschaftler für unmöglich halten, dass der Mensch das Klima der Erde überhaupt verändern kann. Der Gedanke sei Hybris, menschliche Überheblichkeit.

1.2.2 Die Zeit der grossen Unsicherheit: kühler oder wärmer? Es gibt mehr und mehr Beweise dafür, dass das schlechte Klima im Jahr 1972 der Vorläufer ist für eine lange Reihe von schlechteren Erntejahren für die meisten Gesellschaften auf der Welt. … In der Tat, ein schlechteres Klima könnte die neue globale Norm sein. Vielleicht ist die Erde in eine neue ‚kleine Eiszeit‘ eingetreten. … Es gibt starke Indizien dafür, dass diese Klimakatastrophen keine zufälligen Schwankungen des üblichen Wetters sind, sondern Zeichen des Aufkommens eines neuen, normal werdenden Weltklimas. Walter Orr Roberts, amerikanischer Atmosphärenphysiker, National Center of Atmospheric Research, USA, 1975.

Die Zeit des Wartens auf Wissen (Phase I) Die nächsten 70 Jahre nach den Rechnungen von Arrhenius sind Zeiten der Nichtbeachtung und des Schwankens. Es ist im Schaubild der Abb. 1.14 die erste Phase. Es gibt in diesem Zeitraum kein Interesse überhaupt an möglicher Klimaänderung. Eine Änderung durch die menschlichen Aktivitäten wurde als unmöglich angesehen. Die Genauigkeit der Messpunkte ist zu gering und ihr Signal-zu-Rausch-Verhältnis sichtlich zu hoch, um eindeutige Nachrichten oder gar fundierte Alarmnachrichten auszulösen. Der Treibhauseffekt ist ja schon seit Joseph Fourier als physikalischer Effekt bekannt, aber noch nicht als geologischer Begriff. Als planetares Phänomen wurde er 1907 vom englischen Physiker John Henry Poynting

1  Einleitung und Geschichtliches: Von der Wärmelehre …     31

Abb. 1.14  Die moderne Messung der globalen Temperaturen der Erdoberfläche Die Jahre 1880 bis 2005, bezogen auf das Mittel der Temperatur 1951–1980. Quelle: NASA Goddard Space Science Institute, 2018. Die blauen Balken geben die 95 %-Sicherheit des Jahresmittels an. Die Einfärbungen (vom Autor) ab 1940 deuten das Ende der normalen Klimaschwankungen an, die Zeit der globalen Abkühlung (blau) und die eindeutige globale Erwärmung (rot). Bild: Global Temperature Anomaly, Commons Wikipedia, NASA/GSSI.

eingeführt, der von den Planeten schrieb, sie hätten durch die Atmosphären eine Art von Decken-Effekt (blanket effect) oder wörtlich nenne ich es lieber den ‚Treibhauseffekt‘ (greenhouse effect) der Atmosphären. In diesem Zeitrahmen bis etwa 1970 sind eine Reihe von Namen von Klimaforschern zu nennen, die im Sinn von Arrhenius weiter forschten und argumentierten: • Thomas Chamberlin, 1841–1896, amerikanischer Geologe, der Arrhenius unterstützt und bestätigt. Er erwartet durch eine Klimaerwärmung einen Ausgleich der Temperaturen auf der Erde zwischen Tropen und polaren Gebieten, umgekehrt bei einer Abkühlung. • Arvid Högbom, 1857–1940, ein schwedischer Geologe, den Arrhenius ausführlich zitiert. • Guy Stewart Callendar, 1898–1964, ein englischer Ingenieur und Amateurmeteorologe, versucht 1938 eine globale Erwärmung festzustellen. Er hat dazu Werte von 147 Wetterstationen aus aller Welt

32     W. Hehl

gesammelt. Seine Arbeit bleibt zunächst unbeachtet, seine Beobachtung geht aber als Callendar-Effekt in die Geschichte der Wissenschaft vom Klimawandel ein. Die Problematik, wissenschaftlich fundiert eine globale Erwärmung (oder überhaupt einen langfristigen Trend) im Jahr 1938 schon festzustellen, zeigt die Abb. 1.14 mit einer modernen Wertebasis von NASA/GSSI. Die Werte heissen Anomalien weil es Differenzwerte sind; die Referenz ist das Mittel der Temperatur von 1951 bis 1980. Es ist schon erstaunlich, dass die Werte schon von Jahr zu Jahr verhältnismässig stark schwanken im Vergleich zur (angenommenen und sichtbaren) Messgenauigkeit. Offensichtlich hat es im Klima der Welt recht einflussreiche grosse zyklische Zufallsprozesse – die Anomalie der El Niño-Southern Oscillation im Pazifik mit dem warmen El Niño und der kühlen La Niña ist hierfür ein Beispiel. Es ist offensichtlich vor etwa 1975 nicht leicht, hier einen eindeutigen Trend zu sehen. Wenn man nur die weiter zurückliegenden Messwerte der Vergangenheit, etwa vor 1935, betrachtet, oder, wie wir es können, die Werte bis 1975, so wird es schwer verständlich, bereits in 1938 eine globale Erwärmung zu identifizieren. Dazu kommt, dass die globale Temperatur ein komplexer und gleichmacherischer Begriff ist. Es müssen viele Messungen standardisiert und korrekt gewichtet über Zeit und Erdoberfläche zusammengeführt werden. Unter der globalen Temperatur können sich regional wärmere oder kältere Gebiete befinden. Auch Satellitenmessungen (möglich seit etwa 1979) müssen korrekt gewichtet und kalibriert werden. Allerdings ist die Genauigkeit des historischen Anteils der Kurve (und damit die Arbeit des Guy Stewart Callendar) physikalisch-wissenschaftlich problematisch. Wir werden unten in Abb. 1.21 die Zeitskala nach links bis zum Jahr 1000 n.Chr. ausdehnen und als Kurve das berühmte Hockeyschläger-Diagramm von 1998 erhalten. Dabei wird die statistische Unsicherheit naturgemäss nach links weiter zunehmen. Das Problem, auch im 20. Jahrhundert, waren die Messungen der Meerestemperaturen, die entscheidend in die globale Temperatur eingehen. Die grossen Lieferanten an Daten vor 1940, Grossbritannien, Deutschland, USA und Japan, hatten alle verschiedene Verfahren zur Messung, meistens mit Eimern, aus Segeltuch oder Holz. Mit diesen Eimern wurde Wasser an Bord geholt und seine Temperatur gemessen. Die Wassertemperaturen änderten sich rasch an der Luft. Dabei wurden verschiedene Temperaturskalen verwendet, umgerechnet und noch gerundet. Die Genauigkeit von einem Zehntelgrad, die der offizielle Graph der Abb. 1.14 suggeriert, ist

1  Einleitung und Geschichtliches: Von der Wärmelehre …     33

vor 1950 illusorisch. Ein grober systematischer Fehler geschah um 1940. Vor dem Kriegsausbruch hatten Grossbritannien und die USA ungefähr gleichviel Meeresdaten geliefert, während des Kriegs war es vor allem die USA. Das Problem waren zwei verschiedene Messmethoden. Die britische Methode war es, aussen mit Canvas-Eimern das Messwasser zu ziehen, die amerikanischen Schiffe massen die Temperatur im Maschinenraum am Einlass des Kühlwassers (Matthews 2012). Individuelle Fehler der vielen global Messenden mögen sich kompensieren, aber die Fehler hier sind systematisch. Die Messungen im Innenraum waren mehrere Zehntelgrade höher als aussen. Wenn man dies berücksichtigt, so wird der Höcker um 1940 in Abb. 1.14 zumindest wesentlich geringer! Wir werden uns sowieso mehr auf die Messungen ab 1980 verlassen. Zum Vergleich zeigt die Abb.  1.15 die historischen mittleren Temperaturen in Deutschland. Der Autor hat ausgleichend versucht, drei Geradenstücke in die Punktemenge zu legen (in Gedanken an Carl Friedrich Gauss, den genialen Erfinder der Ausgleichsrechnung) und damit die in den Zick-Zack-Kurven offensichtlichen Signalschwankungen zu umgehen. Auch dieses Bildchen macht es unmittelbar verständlich, dass es bis etwa 1975 keinen klaren Beweis für eine stattfindende Klimaerwärmung gab. Wir benützen die Abb. 1.15 auch, um unsere Einteilung der Geschichte des Klimawandels zu illustrieren. Der Bereich I ist die (eben besprochene) Zeit vom Pionier Svante Arrhenius bis etwa 1940, der Bereich II die Epoche leicht sinkender Temperaturen und damit der grossen Verunsicherung. Mit dem Eintreten des Bereichs III ab 1975 stellt sich die Erwärmung als dominanter Prozess und der Kohlendioxid-Gehalt der Atmosphäre als treibende Kraft heraus.

Die Periode der beobachteten und vermuteten globalen Abkühlung (Phase II) Seit etwa 1900 lag die Möglichkeit einer globalen Erwärmung zwar theoretisch buchstäblich in der Luft, aber sie war noch kein grosses aktuelles Thema. Nach beiden Messkurven scheint allerdings um 1940 das Ende der uneindeutigen Fluktuationen der Temperatur zu sein und nun eine Abkühlung zu beginnen. In diesen Jahren lag eher das Gegenteil näher, eine kollektive Angst. Es war Angst vor Abkühlung oder gar vor einer kommenden Eiszeit. Das kollektive Gedächtnis an eine (oder mehrere) globale Abkühlungen war schon vorhanden, insbesondere das Jahr ohne Sommer, 1815 und das

34     W. Hehl

Abb. 1.15  Zeitreihe der Temperaturen in Deutschland von 1880 bis 2020 Mit Ausgleichsgeraden vom Autor (blau) und einer Einteilung in 3 Perioden. Bild: Datei Zeitreihe der Temperaturen in Deutschland, Deutsche Wikipedia, Deutscher Wetterdienst.

Nebeljahr 1783. Der Sommer 1815 war ein Sommer mit Nachtfrösten und Schneefällen im August in Nordamerika und Überschwemmungen in Europa das ganze Jahr hindurch. In darauffolgenden beiden Jahren schlossen sich Hungersnöte in der ganzen nördlichen Hälfte der Welt an, von Deutschland und der Schweiz über Grossbritannien und die USA bis nach Indien, dazu Epidemien und Aufstände. In Südostasien fiel für drei Jahre der Monsun aus. Ein Chronist schrieb 1818 von der Schweiz man musste immer mehr zu den elendesten, eckelhaftesten Speisen Zuflucht nehmen, und was ehedem Schweinen nicht wäre vorgeworfen worden, das genossen nun diese Tausend

1  Einleitung und Geschichtliches: Von der Wärmelehre …     35

Abb. 1.16  Der Ausbruch des Krakatau 1883 Lithographie. Bild: Krakatoa eruption, Wikimedia Commons. Lithographie Parker&Coward, 1888.

Hungrigen noch als köstliche Speise. Der russische Zar schickte 100 000 Rubel Hilfe. Der Grund für die Katastrophe war die Explosion des Vulkans Tambora am 10. April 1815 auf der indonesischen Insel Sumbawa gewesen. Tambora war vor der Explosion ein Vulkankegel gewesen, ein Stratovulkan, mit 60 km Basislänge und 4300 m Höhe. Nach der Explosion hat der Tambora noch zwei Drittel der Grösse, und eine Caldera von 6 bis 7 km Durchmesser und 600 m Tiefe. Die Explosion hat auf der Skala des Explosivitätsindexes der Vulkane die Stufe 7 (von 8). Es ist die stärkste in historischer Zeit beobachtete Vulkaneruption, eine Grössenordnung grösser als die Krakatau-Explosion im Jahr 1833, gezeigt in Abb. 1.16 mit der Plume, der Vulkanfahne. Die globale Abkühlung der Welt für mindestens zwei Jahre wird durch 60 bis 160 km3 Gestein verursacht, die als Feststoff-Gas-Gemisch bis auf 43 km in die Stratosphäre geschleudert wurden und sich nun über die Erde verteilen. Ein km3 ist ein grosses Volumen – es sind eine Billion Liter oder anschaulicher etwa 412 Mal die grosse Cheopspyramide. Es sind also einige Zehntausend Cheopspyramiden Material! Dabei kamen 60 bis 80 Mio. Tonnen Schwefeldioxid (SO2) in die Atmosphäre. Heute wissen wir, was damit geschah. Das SO2 verbindet

36     W. Hehl

Abb. 1.17  Der Sonnenuntergang Sunset von William Turner, etwa 1830 Die Explosion des Tambora 1815 hatte besonders dramatische Sonnenauf- und -untergänge erzeugt. Gemälde in der Tate Gallery NO 1876/Nationalgalerie NG 1876. Bild: Joseph Mollard William Turner Sunset N01876, Wikimedia Commons.

sich in den nächsten Wochen mit Wasserdampf zu winzigen Tröpfchen konzentrierter Schwefelsäure – wie wir es in grossem, planetarischem Stil auf der Venus erfahren haben. Diese Tröpfchen absorbieren das Sonnenlicht, heizen oben die Stratosphäre auf und verringern unten die Temperatur am Boden. Die Aerosole der Tambora-Explosion haben für zwei Jahre die Sonneneinstrahlung verringert, aber auch für phantastische Sonnenaufund Untergänge gesorgt wie sie das berühmte Bild von William Turner (Abb. 1.17) zeigt; vermutlich hatte Turner derartige Sonnenuntergänge gesehen. Diese Form von festen oder flüssigen Schwebeteilchen heisst Aerosol von āḗr, deutsch ‚Luft‘, und lateinisch solutio ‚Lösung‘. Aerosole sind die Gegenspieler der Treibhausgase im Wärmehaushalt der Erde. Wenige Jahre vorher hatte es schon eine ähnliche, nicht so berühmte, aber auch nahezu globale Abkühlung gegeben, durch den Ausbruch des Vulkans Laki auf Island 1783. Es war keine Explosion gewesen, sondern ein acht Monate dauernder Ausfluss aus einer Reihe von Kratern mit gasreicher Lava, etwa 14 km3 Lava und 0,9 km3 Flugasche oder Tephra. Dabei hatte der

1  Einleitung und Geschichtliches: Von der Wärmelehre …     37

Vulkan etwa acht Millionen Tonnen Fluor als höchst gefährliche Flusssäure HF ausgestossen und 120 Mio. Tonnen Schwefeldioxid SO2. Das Ergebnis war ein trockener Nebel in Europa, also recht beständige SO2- und SO3haltige Aerosole. Der englische Geistliche Gilbert White schrieb: Der Sommer des Jahres 1783 war erstaunlich und unheilvoll, und voller schrecklicher Phänomene … der besondere Dunst oder rauchige Nebel, der für viele Wochen über die Insel herrschte … war etwas ganz ausserordentliches, noch nie in der Geschichte berichtet.

Die historisch erste richtige Erklärung eines derartigen Kühl-Effekts rührt vom vielseitigen amerikanischen Naturforscher und Staatsmann Benjamin Franklin (1706–1790) her. Franklin lebte damals in der Gemeinde Passy, heute Paris-Passy, also in Frankreich. Er schreibt 1784 in einem Brief: Es gab einen beständigen Nebel über ganz Europa und weite Teile Nordamerikas. Der Nebel blieb bestehen; er war trocken, und die Strahlen der Sonne schienen ihn kaum zerstreuen zu können. … Sie [die Sonnenstrahlen] waren so schwach, dass sie, wenn im Brennpunkt eines Brennglases gesammelt, braunes Papier kaum anzünden konnten.

Franklin hält den isländischen Vulkan und die resultierende Staubentwicklung mit dem dry fog, dem trockenen Nebel, für die Ursache. In moderner Sprache nennen wir es die vulkanischen Aerosole. Aerosole verdunkeln nicht nur die Sonne, sie sind auch Kondensationskeime für Wolken, die ebenfalls mehr reflektieren und damit den Kühlungseffekt (den negativen Strahlungsantrieb oder das Radiative Forcing) verstärken. Mehr dazu im Abschnitt Aerosole und Wolken. Nehmen wir noch die Theorie der Auslöschung der Saurier durch einen Meteoriteneinschlag hinzu, so ist das Mem Aerosole bedeuten globale Abkühlung im Bewusstsein der Menschen verfestigt. Dazu kommt das Offensichtliche: Die rauchenden Schlote der Fabriken seit über zweihundert Jahren, der Smog der Städte durch den Autoverkehr seit hundert Jahren und die Kondensstreifen der hochfliegenden Flugzeuge seit 70 Jahren. Bei den Kondensstreifen am Himmel kann man den Übergang von Kondensstreifen zu normalen weissen (reflektierenden) Cirrus-Wolken unmittelbar beobachten. All diese Prozesse erzeugen Kohlendioxid, dazu häufig Wasserdampf und mehr Treibhausgase. Nach den Bombenversuchen mit Atom- und Wasserstoffbomben entstand Ende der 1970er Jahre noch eine weitere Variante des Mems globale

38     W. Hehl

Abkühlung und wurde zum Bestand des Wortschatzes des Informierten, der nukleare Winter. Der amerikanische Astronom Carl Sagan hatte ihn 1983 beschrieben als die Zerstörung der ganzen Welt durch einen atomaren Krieg, von Freund und von Feind, von Angreifer wie Verteidiger, durch die resultierende langfristige globale Abkühlung durch die verschmutzte Atmosphäre: Wenn der Treibhauseffekt eine Decke ist, in die wir uns einwickeln können und es warm haben, so reisst uns ein nuklearer Winter diese Decke fort.

Sagan betont damit auch die gegensätzlichen Effekte, negatives Forcing (Abnahme der Temperatur) durch die meisten Aerosole, positives Forcing (Zunahme der Temperatur) durch die Treibhausgase. Diese gegensätzlichen Kräfte machen eine klare Aussage zur Zukunft der Erde schwierig und erschweren eine klare Meinungsbildung in der Grauzone. Für Aerosole sprechen in der Öffentlichkeit die harte historische Erfahrung und die relativ leichte Messbarkeit des Effekts von Staub und Tröpfchen. Dagegen ist die Idee des wachsenden CO2-Gehalts der Luft in dieser Zeit noch Theorie. Noch denkt man, dass natürliche Prozesse das zweifellos bei der Verbrennung gebildete CO2 aufnehmen, etwa dass Pflanzen effektiver assimilieren und sogar bessere Ernten ergeben oder, vor allem, dass die Ozeane als grösstes Reservoir es im Meerwasser aufnehmen.

Wissenschaftler zwischen Abkühlung und Erwärmung Im Jahr 1976 veröffentlichte das Magazin National Geografik einen Artikel mit dem Titel Was geschieht mit unserem Klima? Vier Wissenschaftler antworteten. Zwei davon sahen die Abkühlung als Zukunft, zwei die Erwärmung. nach Thomas Peterson, amerikanischer Klimatologe, (2008).

Hier einige wichtige und typische Wissenschaftler der wankelmütigen Zeit zwischen Abkühlung und Erwärmung: • Murray Mitchell, 1928–1990, entdeckt Aerosole aus Europa und China in der arktischen Atmosphäre. Er findet, dass die globale Temperatur ab 1940 abnimmt, und hält vor allem Vulkanemissionen dafür verantwortlich: Der Mensch spielt nur die zweite Geige in der Staubfabrik. Ab 1970

1  Einleitung und Geschichtliches: Von der Wärmelehre …     39

sieht er, dass Aerosole (im Wesentlichen negativ) und CO2 (positiv) die Entwicklung bestimmen. Ab 1976 hält er die Vorhersage einer Eiszeit für unverantwortlich. • Reid Bryson, 1920–2008, hielt Ende der 1960er Jahre die Menschheit über den Weg der Erzeugung von Staub für globales Cooling verantwortlich: der Human Vulcano, die Menschheit als aerosolspeiender Vulkan. 1976 sieht er ebenfalls beide Effekte, Aerosole wie CO2, hält aber die Aerosole weiter für wichtiger (Hanley 1976). Er betont die Bedeutung der Polargebiete, allerdings zitiert er Messwerte, die besagen, die Arktis werde kälter … Als Grund für eine globale Erwärmung sieht er vor allem das Ende einer vorhergehenden Eiszeit und nicht beim Menschen. Er propagiert Sparsamkeit, keine Verwendung von Erdöl sondern stattdessen von Solarenergie (wir würden sagen Nachhaltigkeit ). • Stephen Schneider, 1945–2010, beginnt mit Aerosolforschung und die erste Veröffentlichung sieht globale Abkühlung als Hauptproblem (Rasool 1971). 1974 nimmt er seine ersten Arbeiten zurück und sieht das CO2 und seine erwärmende Wirkung an erster Stelle und er wird zu einem führenden Vertreter der Bewegung zur Publizierung der Klimabedrohung. In diesem Zusammenhang wird er sich der Problematik bewusst, die öffentliche Meinung bei komplexer oder widersprüchlicher oder unsicherer Kenntnislage vernünftig anzuleiten. Schneider lernt dies auf die harte Art, selbst als Zielfigur heftiger Angriffe. Zitate von ihm (1972) nehmen heutige Probleme voraus. So sagt er vom Amazonasgebiet: Es mag lokal für die Landwirtschaft günstig sein, das Amazonasgebiet zu roden, aber es würde Feuchtigkeit entfernen und hätte damit weitreichende Folgen.

Oder er fragt Haben die industriellen Länder das Recht, Rauch in die Luft zu bringen, um die Rückstrahlung der Erde zu ändern?

• Roger Revelle, 1909–1991, ist ein amerikanischer Ozeanograph. Zum Beginn seiner Arbeit hatte die Hypothese von der Erwärmung der Erde (nicht der Glashauseffekt von CO2 selbst, der ist grundlegende, unbestreitbare Physik) ein Killerargument gegen sich: Ein wachsender Anteil von CO2 in der Atmosphäre würde sich in den Ozeanen auflösen und es gäbe gar nicht mehr treibendes Gas in Luft. Dadurch angeregt

40     W. Hehl

und als Nebenprodukt der Forschungen zur Verteilung radioaktiven Fallouts bei den Atomwaffenversuchen im Ozean, untersucht er mit der C14/C12-Methode das Einbringen von CO2 in die Meere. Er stellt fest, dass es ein gepufferter Prozess ist. Die Aufnahme des Gases ins Meerwasser ist gebremst, oder vereinfacht ausgedrückt, 80 % des CO2, das in die Atmosphäre gebracht wird, bleiben dort. Die aufgenommenen 20 % des Gases verändern das Meer und die Grundlagen für das marine Leben. Es war nicht möglich, in den Jahrzehnten um 1950 bis 1970, ja bis 1980 schon deutlich die Wahrheit zu sehen, weder für Wissenschaftler noch für die Presse oder die Öffentlichkeit. Wissenschaftlich standen sich zwei globale Effekte gegenüber, beide mit fundamentalen physikalischen Grundlagen und für sich solide und überzeugend, aber mit entgegengesetztem Vorzeichen: • Aerosole, meistens kühlend wie Sulfataerosole, teilweise aber wärmend wie Russ, und zwar natürlich (vor allem durch Vulkane und Waldbrände), aber auch anthropogen (durch Industrie, Verkehr, aber auch einfache Haushaltsfeuerstellen in der dritten Welt). • Treibhausgase, vor allem Kohlendioxid und Wasserdampf, aber auch andere Gase wie Methan und Stickoxide, sowohl natürlich wie in grossen Mengen menschenverursacht durch fossile Brennstoffe. Dazu exotische Treibhausgase extrem starker Wirkung wie Fluorchlorwasserstoffe usw. Dazu kamen noch zu einfache Modelle mit zu wenig Rückkopplungen und ungenaue und widersprüchliche Messungen, ja sogar falsche Behauptungen. In der Öffentlichkeit und damit für die Presse gab es zwei verschiedene katastrophale Ausblicke: • Eine menschengemachte Eiszeit kommt mit der Vision von vordringenden Gletschern, zunächst härteren Wintern und schlechten Ernten (Abb. 1.18 links). • Die Erde wird eine Glutwüste, zunächst mit Trockenheit und ebenfalls schlechteren Ernten (Abb. 1.18 rechts). Für Wissenschaftler ist es menschlich, dass sie ihr eigenes Arbeitsgebiet für entscheidender halten. Aber es zeichnet sich in den nächsten Jahren deutlicher ab, dass eine globale Erwärmung wahrscheinlich wird. Noch sind die Temperaturänderungen im Bereich des Rauschens der Klimafluktuationen von Jahr zu Jahr und sind kein Beweis. Wissenschaftlich gedacht, ist es noch

1  Einleitung und Geschichtliches: Von der Wärmelehre …     41

Abb. 1.18  Die grosse Frage der Klimaforschung zwischen 1950 und 1980: Ist die Zukunft der Erde eine neue Eiszeit, eine Verwüstung durch Hitze oder bleibt das Klima wie es ist? Bild links: Antarktisches Meer. Bild rechts: Wüste in Namibia. Eigene Aufnahmen.

zu früh, grosse Aktionen politisch zu vertreten. Der Ozeanograph Roger Revelle war für manche der moderne „Vater der globalen Erwärmung“ und er war einer der ersten Warner vor einer vom Menschen hervorgerufenen globalen Erwärmung. Trotzdem schrieb er kurz vor seinem Tod im Jahr 1991: Die wissenschaftliche Basis für eine Glashaus-Erwärmung ist zu unsicher, um heute drastische Aktionen zu ergreifen.

Das ist wissenschaftlich und ökonomisch gedacht. Eine sehr proaktive Stimme in dieser Zeit war der Politiker und spätere Friedensnobelpreisträger Al Gore (geb. 1948); er schrieb 1992: Es sollte möglich sein, ein koordiniertes globales Programm zu etablieren mit dem strategischen Ziel, die innere Verbrennungsmaschinerie [d. h. Autos mit Benzin oder Diesel] zu eliminieren innerhalb von 25 Jahren. Al Gore, in Earth in Balance (Wege zum Gleichgewicht), 1992.

Aber Al Gore erschreckte die Leute; einen zeitgenössischen Einblick gibt etwa ein Artikel in Automotive News mit dem Titel Al Gore lernt, dass es nicht einfach ist, grün zu sein und dem Kommentar Al Gore scares the bejesus out of people – Al Gore erschreckt die Leute zu Tode (Stoffer 2000). Es wird gemäss der Abb. 1.14 erst um das Jahr 2000 der Fall sein, dass die Messwerte der Temperatur aus dem Rauschen deutlich herausragen. Für das Gefühl der Öffentlichkeit gibt es genauso verwirrende Nachrichten und grössere Fluktuationen der Meinungen und damit auch eine

42     W. Hehl

Art von Rauschen der Signale. Hier einige Nachrichten aus dieser Zeit zur Schwierigkeit der Meinungsbildung, noch bis 2015 aus dem Artikel State of the Climate, 10 years after Al Gore declared a planetary emergency, veröffentlicht auf der Klimaskeptiker-Website Wattsupwiththat.com. Zum Thema mehr und grössere wetterbedingte Naturkatastrophen: Der deutsche Versicherungsgigant Münchner Re meldet, dass die Verluste durch Naturkatastrophen 2015 niedriger waren als 2014 und die niedrigsten seit 2009.

Zum Thema schmelzendes Arktiseis: Es gibt heute [2015] mehr Eisbären denn je. In den 1960ern 5 000 Eisbären, heute 25 000 Eisbären.

Zum Thema Meeresströmungen: Mr. Gore sagte im Film, dass die Energieförderer [wie z. B. der Golfstrom] im Ozean stehen bleiben würden. Neue Nasa-Messungen der AtlantikZirkulation zeigen keine wesentliche Abschwächung in den letzten 15 Jahren. Die Daten deuten eher an, dass die Strömung in jüngster Vergangenheit schneller geworden ist.

Damit ergeben sich neben überzeugten Anhängern und Ablehnern einer globalen Erwärmung noch zwei Haltungen von Menschen. Die nüchternen Passiven und die Proaktiven. Die nüchternen Passiven ziehen aus der Situation den Schluss, dass nichts zu tun sei. Viele hielten alles für falsch oder wollten sowieso nie reagieren – weder beim sauren Regen noch beim Ozonloch und erst recht nicht beim (als Begriff) abstrakten Klima. Dies war auch noch die Haltung des ehemaligen US-Präsidenten Donald Trump. Hier seine flapsige Definition von Klima (nicht nur Wetter): „It'll get cooler, it'll get warmer, it's called the weather“, es wird kühler, es wird wärmer, es ist halt Wetter, 2011,

oder angesichts der kalifornischen Waldbrände. „It’ll start getting cooler. You just watch“, es wird schon kühler. Sie werden sehen, 2020.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     43

Natürlich können wir nicht leicht etwas gegen die Klimaänderung tun (s. u.), aber wir ändern sicher etwas am Klima der Welt. Heute sind wir sicher nahe an den bedrückenden Voraussagen von Al Gore aus dem Jahr 2005. Was wir tun hat Roger Revelle besonders gut ausgedrückt in einem Satz, den er schon 1956 gesagt und dann 1957 geschrieben hat und der heute genauso gültig ist: Die Menschen führen jetzt ein geophysikalisches Grossexperiment durch, das in der Vergangenheit nicht möglich gewesen wäre und das nicht wiederholt werden kann.

Es ist der berühmteste und meistzitierte Satz in der Geschichte der Klimaerwärmung. Wir werden das Zitat noch ein zweites Mal verwenden. Die Proaktiven zeigten eine Haltung, die in jedem Fall, ob globale Abkühlung oder Erwärmung, etwas gegen extreme Wetterereignisse wie Tornados und vorrückende Gletscher machen wollten. Sie fühlten sich durch die Diskussion selbst beunruhigt und alarmiert. Ein Artikel der New York Times 1971 vom Chemiker Eugene Guccione unterstellte den Klima-Wissenschaftlern, gerade diesen Trend zu fördern und solche Menschen zu verunsichern mit widersprüchlichen und verwirrenden Behauptungen über kommende Eiszeiten und globale Erwärmung. Es hätte auf keinen Fall einen Konsensus gegeben zu grossen staatlichen Massnahmen oder gar Ausgaben gegen eine Klimaerwärmung. Das Gesamtbild sah ein wenig aus wie in dem berühmten Gleichnis der vier Blinden, die einen Elefanten ertasten und jeder etwas anderes interpretiert (Abb. 1.19). Für die verschiedenen Grundhaltungen haben sich Jargon-Bezeichnungen ausgebildet: Coolist für eine Person, die nicht an die Erwärmung glaubt, sondern eher an das Nahen einer Eiszeit, Warmist oder Warmista (oder auch Warmther ) für einen Anhänger der globalen Erwärmung, Klima(erwärmungs)leugner (engl. Denier oder Denialist), der die globale Erwärmung leugnet, insbesondere die Verantwortung der Menschen dafür, Alarmist für jemanden, der übertriebene, unwirksame oder nicht sinnvolle Massnahmen gegen Klimaänderungen befürwortet. Meistens sind diese Begriffe negativ besetzt; so ist im Englischen die Bezeichnung denier wegen der Nähe zum Wort Holocaust denier (Holocaust Leugner) beinahe beleidigend. Eigentlich sollten Begriffe wie Coolist oder Denier historisch sein und nicht mehr vertreten, aber sie sind es noch nicht. Dafür ist ein neuer Begriff dazu gekommen, den wir noch erläutern werden

44     W. Hehl

Abb. 1.19  Das Gleichnis von den vier Blinden und dem Elefanten als Gleichnis zur Situation der Klimaforschung in der Zeit der Unsicherheit. Bild aus einer Werbung, 1916. Selznick Kimball Young, Wikimedia Commons, unbekannter Autor.

Climate Doomist, etwa Klimakatastrophen-Prophet. Der amerikanische Autor Jonathan Franzen ist wohl ein Vertreter dieser Haltung. Die gemässigte Richtung dieses Pessimismus fordert, nur gut überlegte Massnahmen zu treffen, für Nachhaltigkeit allgemein zu sorgen, aber keine oder jedenfalls keine schnelle Rückkehr zu vorindustriellen Klimata zu erwarten. Klimaleugner haben den wissenschaftlichen Konflikt zwischen Aerosolund Treibhausgas polemisch ausgenützt im Sinne von die wissen ja nicht, was sie tun. Der Klimatologe Thomas Peterson hat gezeigt (Peterson 2008), dass nie alle Wissenschaftler Coolisten waren; eher hatten die Medien die Eiszeitgefahr bevorzugt und diesen Eindruck erzeugt. Dazu hatte Peterson die wissenschaftlichen Arbeiten zur Klimaforschung der Jahre 1965 bis 1979 klassifiziert in coolistisch, neutral und warmistisch. 7 Arbeiten machten die Kühlungsaussage, 44 waren auf der Erwärmungsseite und 20 legten sich nicht fest. Es war, zumindest bis etwa 1995, nicht ehrenrührig für Wissenschaftler, die globale Erwärmung zu negieren. Wir werden diese Zeitabhängigkeit unten verallgemeinern: Wissenschaft ist, bis auf fundamentale physikalische Aussagen, eine Frage der Zeit. Es ist kein Argument gegen die Wissenschaftler. Die Presse verstärkt ihrer Natur gemäss diesen Effekt der Schwankungen; überraschenderweise wechseln sich die Vorzeichen der Schlagzeilen schon vor einem guten Jahrhundert ab. Hier eine Sammlung von Überschriften und Kernaussagen, die wir dem eingefleischten Leugner oder Denier und neuseeländischen Blogger John Ansell verdanken (Ansell 2011), coolistische Zitate in kursiver Schrift:

1  Einleitung und Geschichtliches: Von der Wärmelehre …     45

1895 Geologen denken, dass die Welt wieder gefriert. New York Times. 1902 Die Gletscher verschwinden … es verschlechtert sich langsam … das bedeutet letztlich ihre Vernichtung. Los Angeles Times. 1912  Prof. Schmidt warnt uns vor einer unkontrollierten Eiszeit. New York Times. 1923  Wissenschaftler sagen, dass arktisches Eis Kanada auslöschen wird. Chicago Tribune. 1923  Die Entdeckung der Veränderung in der Wärme der Sonne und die südliche. Ausdehnung der Gletscher … mögliche neue Eiszeit. Washington Post. 1924 McMillan berichtet von Anzeichen der neuen Eiszeit. New York Times. 1929 Kommt eine neue Eiszeit? Los Angeles Times. 1933 Amerikas längste Warmzeit seit 1776 – die Temperaturaufzeichnung mit einer 25-jährigen Zunahme. New York Times. 1933 Umfassender und beständiger Trend zu wärmerem Wetter … ändert sich das Klima? Federal Weather Bureau, USA. 1938 Globale Erwärmung, durch den Menschen mit Kohlendioxid verursacht, wird sich wahrscheinlich auf mehrere Arten segensreich für die Menschheit erweisen, neben der Versorgung mit Wärme und Energie. Royal Meteorological Society. 1938  Die Experten rätseln über 20 Jahre Temperaturanstieg. Chicago steht ganz vorn unter den Städten, die durch den geheimnisvollen Trend zu wärmerem Klima in den letzten 20 Jahren berührt werden. Chicago Tribune. 1939 Senioren, die behaupten die Winter seien früher härter gewesen, haben Recht. Die Wetterleute haben keinen Zweifel, dass die Welt wenigstens zurzeit wärmer wird. Washington Post 1952 Wir haben gelernt, dass die Welt im letzten halben Jahrhundert wärmer geworden ist. New York Times. 1954 Die Winter werden milder, die Sommer trockener. Gletscher weichen zurück, Wüsten dehnen sich aus. U.S. News and World Report. 1954  Die Wärme ist vielleicht abgeschaltet. Fortune. 1959 Berichte aus der Arktis unterstützen die Theorie weltweit steigender Temperaturen. New York Times. 1969 Das arktische Packeis wird dünner und der Ozean am Nordpol wird vielleicht offene See innerhalb einer oder zwei Jahrzehnten. New York Times. Die nächsten Zitate sagen alle Eiszeit voraus: 1974  Behalten Sie ihre langen Unterhosen an … das Schlimmste kommt noch. Washington Post.

46     W. Hehl

Besonders eindrucksvoll dies: 1975  Die Bedrohung durch eine neue Eiszeit steht jetzt neben der eines nuklearen Krieges als wahrscheinliche Ursache für Tod und Elend der Menschheit. New Scientist. Sein letztes „eisiges“ Zitat ist von 1979: 1979 Wie Amerika sich abkühlt – The Cooling of America. Times. Nach 1980 allerdings findet auch der Denier John Ansell keinen „eisigen“ Artikel und keine „coolistische“ Schlagzeile mehr, sondern es heisst jetzt etwa so: 1981 Die globale Erwärmung hat eine beinahe beispiellose Stärke. New York Times. 2001 Wissenschaftler zweifeln nicht mehr, dass die globale Erwärmung geschieht, und kaum jemand bezweifelt, dass Menschen zumindest teilweise dafür verantwortlich sind. Time. 2006 Machen Sie sich Sorgen. Viele Sorgen. Be worried. Be very worried. Der Klimawandel ist kein vages zukünftiges Problem – er verursacht schon jetzt Schäden am Planeten mit alarmierender Geschwindigkeit. Time. Alle weiteren Zitate in der Sammlung sagen Erwärmung voraus, allerdings klingen einige Auszüge opportunistisch (wohl um halbherzige Leugner zu überzeugen) wie diese Aussage: 1990 Wir müssen mitmachen mit dem Problem der globalen Erwärmung. Selbst wenn die Theorie falsch ist, werden wir das Richtige tun. Aussage des demokratischen Senators und Umweltaktivisten Timothy Wirth (geb. 1939). Noch heute gültig ist diese ausgeglichene und streng wissenschaftliche Sicht auf die globale Erwärmung: 1989 So haben wir schreckliche Szenarien zu bieten, machen dazu vereinfachte, dramatische Aussagen, und erwähnen irgendwelche Zweifel nur am Rande. … Jeder von uns muss die Balance finden zwischen ehrlich und effektiv zu sein, ich hoffe es geht beides.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     47

Stephen Schneider, Physiker. Gegen eine notwendige Balance und weniger korrekt-wissenschaftlich argumentierte der amerikanische Politiker und Beinah-US-Präsident Al Gore. Er ist publizistischer Umweltschützer und wegen seines Einsatz für die Bewusstmachung der globalen Erwärmung Friedens-Nobelpreisträger von 2007. Er sagte über die Kommunikation: 2006  Im Original „I believe it is appropriate to have an overrepresentation of factual presentations on how dangerous it is. …“ Übersetzt etwa: Ich glaube, es ist legitim die Darstellung der Tatsachen etwas zu überpräsentieren. Aus diesem Zitat vom 9. Mai 2006 in einem Interview mit dem amerikanischen non-profit Magazin GRIST spricht der Versuch, die träge Öffentlichkeit zu mobilisieren, sogar mit Informationen am Rande der Wissenschaftlichkeit. Dieses Zitat ging als das unbequeme Zitat in die Geschichte der Klimabewegung ein. Diese Haltung hat sicher vielen Wissenschaftlern nicht gefallen. Es kann sogar Desinformation sein, vielleicht hier in einer milden Form. Es ist beinahe, wie Einstein-Zitate für eine gute Sache zu erfinden (jedes zweite sogenannte Einstein-Zitat wird fälschlicherweise Einstein zugeschrieben). Wir versuchen, neutral-korrekt zu sein. Die Beendigung der unklaren Phase – Aerosol und Staub (Eiszeit) einerseits versus Kohlendioxid und die anderen Treibhausgase (Verwüstung) andrerseits –, also der Phase II in Abb. 1.14, geschieht durch das kräftige Ansteigen der CO2-Konzentration in der Luft, vor allem durch die weltweite schmutzige Verbrennung von Kohle. In den Jahrzehnten des chinesischen Aufbruchs als Industrienation sind es vor allem Kohlekraftwerke mit geringer Aerosol-Kontrolle gewesen. Aber gerade die schmutzige Verbrennung hat einen übergelagerten kühlenden Effekt auf die Erde ausgeübt, durch die Aerosole (ausser Russ) und damit durch die Wolkenbildung. Das CO2 bleibt Jahrhunderte, vielleicht Jahrtausende in der Atmosphäre, die Aerosole fallen schon nach wenigen Tagen oder Wochen aus – aber sie werden vielleicht immer wieder nachgeliefert. Allerdings mit jeder Reinheitsverordnung und mit der Umstellung auf nachhaltige Energiequellen weniger. Dieses Wechselspiel hat der Physiker, Astronom und Klimaforscher James Hansen 1990 als faustischen Handel bezeichnet, denn wir geniessen zunächst unter dem Schutz der Aerosole eine geringere Erwärmung, doch dann würden die fossilen Brenn- und Treibstoffe ausgehen, und eine gewaltige CO2-induzierte Erwärmung würde einsetzen. Ein faustischer Handel ist ein Teufelspakt, bei

48     W. Hehl

Abb. 1.20  Mephisto fliegt über die Stadt Wittenberg. Zum Gleichnis des faustischen Handels von James Hansen Lithographie von Eugène Delacroix. Quelle: Mephistepholes2, Wikimedia Commons, Delacroix.

dem jemand – wie der namensgebende Alchemist Johann Georg Faust (1466 oder 1480 bis 1541) – dem Teufel (er heisst hier Mephistopheles) seine Seele verkauft und dafür eine Zeit lang unbegrenztes Wissen und alle Vergnügungen erhält. Die Abb. 1.20 verwendet den durch die Luft fliegenden Teufel als Gleichnis für die Gefahr aus der Atmosphäre. Der Teufel fliegt wohl dort nach Wittenberg, um die Seele des Doktor Faust zu holen. Das Gleichnis vom faustischen Handel drängt sich noch klarer bei einem anderen Bereich auf, der nuklearen Energiegewinnung6. Auch ein Anhänger der Kernenergie muss zugeben, dass es gewissermassen faustisch ist: jetzt die Energie, danach langlebige Abfälle. Aber wir haben keine Wahl und wir werden es schaffen. Vielleicht werden einmal aus dem problematischen radioaktiven Abfall sogar wertvolle, einmalige Substanzen gewonnen werden.

6 Der

Begriff Energiegewinnung ist im Sinne des Satzes von der Erhaltung der Energie falsch, aber umgangssprachlich eben üblich. Wir verwenden ihn deshalb durchgehend.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     49

1.2.3 Die globale Erwärmung ist klar (Phase III) Global Warming ist nicht länger eine philosophische Gefahr, auch nicht eine Gefahr in der Zukunft, auch nicht länger überhaupt [nur] eine Gefahr. Es ist unsere Realität. Bill McKibben, amerikanischer Autor Umweltaktivist, geb. 1960, im Vorwort zu seinem Buch Eaarth, 2010.

Es ist offensichtlich, dass es vor etwa 1990 schwierig war, zu einer klaren wissenschaftlichen Meinung zur Zukunft des Klimas zu kommen. Das gilt natürlich erst recht für Medien und Laien, die aus psychologischen Gründen zur Vereinfachung und zur Vergröberung neigen. Mit einem Wir wissen es nicht lässt es sich schwer handeln oder einen Knüller-Artikel schreiben oder eine tolle wissenschaftliche Arbeit herstellen, die die Karriere fördert. In diesem Abschnitt wollen wir deutlich machen, dass die menschengemachte Erwärmung in vollem Schwung ist. Dazu sehen wir diese Grundpfeiler an: • • • •

Die Hockeystick-Kurve der langfristigen globalen Temperatur, die Keeling-Kurve, die Kurve des CO2-Gehalts der Atmosphäre, den weltweiten Gletscher-Rückgang bis hoch zum Himalaya, die Unwetter- und Katastrophenstatistik,

und von ganz anderer, epistemologischer Dimension • die Simulation des Weltklimas und dazu das heutige Gesamtbild.

Die Hockeystick-Kurve Die Welttemperatur vor tausend Jahren Das Hockeyschläger-Diagramm wurde von verschiedenen Seiten mehrfach auf Fehler überprüft. Die Ergebnisse von Mann et al. wurden damit mehrfach bestätigt. Wikipedia-Artikel Hockeyschläger-Diagramm, gezogen November 2020.

Verlängert man die Zeitachse (und die zugehörigen Messwerte) der Abb. 1.14 nach links in die Vergangenheit, so erhält man die erste der beiden berühmtesten Kurven der Klimaforschung, die Hockeystick-Kurve des Geophysikers Michael Mann (Abb. 1.21). 1998 hatte Mann mit zwei Kollegen die Temperaturen der letzten 600 Jahre zu rekonstruieren versucht,

50     W. Hehl

Abb. 1.21  Das Hockeyschläger-Diagramm der globalen Temperatur Die Temperaturen auf der nördlichen Hemisphäre über 1000 Jahre. Abbildung aus dem dritten Weltklimabericht von 2001, nach Mann, Bradley und Hughes, 1998. Bild: Nordhemispheric temperatures of the last millennium based upon Mann, Bradley, Hughes (1999), Wikimedia Commons, DeWikiMan.

1999 dann für das ganze vorhergegangene Millennium. Das wissenschaftliche Problem war, die verschiedenen möglichen Datenquellen sinnvoll zusammenzuführen mit der zugehörigen Gewichtung der Güte des Datentyps und der Menge der jeweilig verfügbaren Daten eines Typs und einer geografischen Region. Die verwendeten Datenquellen geben indirekt Aufschluss über die Temperaturen, es sind Stellvertreter oder Proxies. Im Schaubild sind die direkt gemessenen Werte (rot) und die indirekt ermittelten Temperaturen (blau) eingetragen. Natürlich sind die Messfehler auf dem langen Teil des Hockeysticks (grau) grösser geworden, dieser Stiel ist trotzdem insgesamt sicher. Indirekte Verfahren mit Proxies (Stellvertretern) sind auch sonst in der Wissenschaft bekannt, etwa in der Astronomie. Die Entfernung der Sterne in der „näheren“ Umgebung der Sonne – etwa bis zu einigen hundert Lichtjahren – kann direkt gemessen werden mit Triangulation wie auf der Erde. Bei grösseren Entfernungen kommen Proxy-Verfahren zum Zug, die im überlappenden Bereich, wo beide Verfahren sinnvoll sind, kalibriert werden. So folgt aus der Periodendauer bestimmter veränderlicher Sterne deren Helligkeit und damit deren Entfernung. Für die Temperaturmessung gibt es eine Reihe entsprechender indirekter Verfahren für die Zeit vor zuverlässigen Aufzeichnungen. Stellvertreter können z. B. sein die Analyse der Baumringe (Dentroklimatologie,

1  Einleitung und Geschichtliches: Von der Wärmelehre …     51

a)

b)

c)

Abb. 1.22  Verschiedene Verfahren zur Messung vergangener Klimabedingungen a) Baumringe. Bild: tree rings, Wikimedia Commons, Arnoldius. b) Warven (Sedimentschichten). Bild: baendertone, Wikimedia Commons, Grabenstedt. c) Korallen. Bild: Keppelbleaching, englisch Wikipedia, acropora.

Abb. 1.22 a), Sedimentenanalyse in Seen und im Meer, der sog. Warven (Abb. 1.22 b), die Analyse von Korallenskeletten (Abb. 1.22 c) und einige Techniken mehr. Baumringe liefern über die Breiten der Ringe, Dichte des Holzes und Verteilung von Isotopenverhältnissen eine Vielzahl von Informationen über das Klima zur Lebenszeit des Baumes wie Temperatur, Feuchtigkeit und Lichtverhältnisse. Diese Fülle ist ein zweischneidiges Schwert. Es macht die Analyse zu einer eigenen professionellen Wissenschaft. Die Zeitangaben sind relativ einfach zu erhalten, zuverlässig und mit anderen ähnlichen Bäumen gut zu vergleichen. Für unser Buchthema vom Klimawandel ist eine spezielle Randinformation aus den Baumringen von besonderer Bedeutung, die indirekten Aussagen zum Kohlendioxidgehalt der Luft der jeweiligen Zeit über den Düngungseffekt (Fertilizer Effekt) des Kohlendioxids. Mehr Kohlendioxid in der Luft wirkt wie eine Art von Düngemittel. Mehr Kohlendioxid in der Atmosphäre macht die Erde grüner (s. u. im Abschnitt CO2). Hier, bei der Messung der Temperatur, ist es ein Störeffekt. Die Baumring-Forschung hat festgestellt, dass seit Beginn des 20. Jahrhunderts Bäume besser wachsen (Gedalof 2010). Allerdings ist der Effekt viel zu gering, um ein Anwachsen des CO2-Gehalts der Luft zu verhindern. Er ist nur beschränkt wirksam und er sättigt sich, d. h. er geht nach längerer Einwirkung wieder zurück. Weitere Proxy-Methoden sind die Untersuchung von Bohrkernen aus dem Eis. Verschiedene Isotopenverhältnisse liefern die Temperaturen, etwa von Sauerstoff- oder Wasserstoffisotopen (Deuterium). Die im Eis enthaltenen Bläschen ergeben direkt den CO2-Gehalt. Die Variante der Verfahren mit tiefen Bohrungen ist schon kein richtiger Proxy mehr, denn sie misst direkt die Temperaturen in der Tiefe. Das Erdreich (oder auch Eis) leitet die Wärme relativ schlecht; die Wärme von der Oberfläche dringt in der Form langsamer, gedämpfter Wellen ins Erd-

52     W. Hehl

reich oder Eis ein. Aus der Folge der Temperaturen in wachsender Tiefe lässt sich mathematisch die Folge der Temperaturen an der Oberfläche zurückrechnen. Das Verfahren benötigt keine eigentliche Eichung, die Lösungen sind aber mathematisch nicht eindeutig. Verschiedene historische Temperaturwellen an der Oberfläche könnten zum gleichen Tiefenprofil geführt haben. Hier direkt aus einem Bericht: Der Erwärmung während der letzten 150 Jahre um etwa 1°C ± 0,2°C gingen einige kühlere Jahrhundert voraus. Davor hatte es um etwa 1000 n.Chr. herum eine warme Periode gegeben, die um etwa 1°C wärmer war als das späte 20. Jahrhundert. BASC, National Science Academy USA, 2006.

Aus dem gleichen Band: Ein Bohrloch im Eis der Antarktis zeigt, dass es um das Jahr 1 n. Chr. [ebenfalls] um etwa 1°C wärmer war als im späten 20. Jahrhundert.

An dieser Methode mit Wärmeleitung hätte Joseph Fourier seine Freude gehabt. Von ihm stammt ja die Grundgleichung hierfür mit Vorgedanken von Isaac Newton. Die Hockeystock-Kurve ist zu einem Mem geworden in doppeltem Sinn, zum einen als Synonym für die alarmierende Klimaerwärmung, zum andern allgemein als Bild für einen Vorgang, der lange Zeit vor sich hin dümpelt, dann zündet und es beginnt ein rapides Wachstum; positiv z. B. für die Umsatz- und Gewinnkurve eines Unternehmens. Die Originalkurve von Michael Mann wurde zu einem Politikum. Hier einige Schlagzeilen: Backing for ‚hockey stick‘ graph … a report requested by the US Congress concludes – Rückhalt für die Hockeystock-Grafik … zu diesem Schluss kommt ein vom US- Kongress angeforderter Bericht. BBC News, Juni 2006. The Hockey Stick: The Most Controversial Chart in Science, explained – Der Hockeystock, die konfliktreichste wissenschaftliche Grafik, erklärt. Die Klimaleugner haben alles in ihrer Macht stehende eingebracht, um die berühmte Klimagrafik zu widerlegen. Wir sagen, warum es nicht gelang. The Atlantic, Mai 2013.

Es ist eigentlich ein Insider-Streit mit komplexen Daten und statistischer Mathematik. Die Grafik macht alles klar (für die Gegner zu klar). Aber

1  Einleitung und Geschichtliches: Von der Wärmelehre …     53

der Klimatologe Mann hat sein Gesicht nicht verloren, die Kurve hat ihn vom kaum beachteten Wissenschaftler in den Brennpunkt der Politik (und der Anfeindungen) befördert. In der Zwischenzeit ist der Sachverhalt des Hockeystocks vernetzt und vielfach bestätigt (s. Eingangszitat). Die Kurve sagt nichts über die Ursache aus. Aber die Koinzidenz vom Kurvenknick und dem steilen Anstieg der Phase III parallel zum Aufkommen der technischen Zivilisation ist schlagend.

Die Keeling-Kurve Der Grundgehalt an Kohlendioxid in der Atmosphäre. Es scheint beinahe hoffnungslos zu sein durch solche Messungen zu zuverlässigen Schätzungen des atmosphärischen Kohlendioxid-Reservoirs und seinen zeitlichen Änderungen zu kommen. Anonymer Wissenschaftler auf Konferenz 1954.

Es war seit Eunice Foote und John Tyndall klar, dass Kohlendioxid im Wärmehaushalt der Atmosphäre eine wichtige Rolle spielen kann. Dazu kommt die Bedeutung des CO2 in der Photosynthese. 1779 hatte der niederländische Arzt und Botaniker Jan Ingenhousz (1730–1799) entdeckt, dass Pflanzen die schlechte Luft bei Sonnenlicht zu guter Luft verbessern. Dabei war mit schlechter Luft das Kohlendioxid gemeint, mit guter Luft der kurz zuvor entdeckte Sauerstoff. Damit war wohl schon Alchemisten klar, dass CO2 auch in der Luft ist. Ein einfacher chemischer Versuch mit Kalkwasser (der schwachen Lösung von gelöschtem Kalk in Wasser) zeigt es: Kalkwasser wird an der Luft trüb durch ausgefälltes Kalziumkarbonat. Der moderne Wunsch, den genauen Anteil des Kohlendioxids in der Luft zu bestimmen, ist eigentlich eine klare, direkte Aufgabe, aber sie erwies sich als schwierig. Die Genauigkeit der Messungen war ungenügend und die Messwerte zeigten grosse Schwankungen. Siedlungen, Industrie, Wälder und Parks waren störende Faktoren als CO2-Quellen und Senken, dazu kommen laufende Schwankungen durch Windströmungen und Windrichtung. Der amerikanische Chemiker Charles David Keeling (1928–2005) baute 1953 eine erste Messvorrichtung für CO2 in Luft mit hoher Messgenauigkeit, eine Art von Manometer. Eine Messung bedeutete einen halben Tag Arbeit. Damit entdeckte Keeling die tägliche Variation des CO2-Gehalts der Luft. Nachts ist der Gehalt grösser, am Nachmittag spielt sich ein konstanter Wert

54     W. Hehl

ein. Grund hierfür ist das Zusammenspiel von pflanzlicher Photosynthese und Luftvermischung durch Turbulenzen. Pflanzen produzieren tagsüber Sauerstoff und absorbieren Kohlendioxid, von dem nachts wieder etwa die Hälfte ausgeschieden wird durch den pflanzlichen Stoffwechsel. Nachts ist die bodennahe Luft eher ruhig, tagsüber entsteht mehr Luftbewegung und Durchmischung. Für systematische Messungen musste eine Methode entwickelt werden, die derartig geringe Konzentrationen CO2 (um 0,03 Vol.-%) kontinuierlich bestimmte. Auch musste ein idealer Ort für die zentrale Messstation gefunden werden. Die Methode verwendet die IR-Absorption, die wir schon kennen. Der ideale Ort ist Mauna Loa (Hawaii) auf 3400 m Höhe, in ungestörter Luft und umgeben auf Tausende Kilometer nur von Ozean. Dabei entstand die weltweit längste präzise Messreihe des KohlendioxidGehalts der Luft, ununterbrochen seit 1958 – und monoton wachsend. Abb. 1.23 zeigt diese Keeling-Kurve mit der Zitterbewegung der mittleren Monatswerte. Die Masseinheit in der atmosphärischen Physik und im Diagramm ist ppm (particles per million particles) oder Teilchen CO2 pro Million Luftteilchen7. Der Wert gibt die Anzahl der Moleküle CO2 an pro einer Million der Sauerstoff (O2)- und Stickstoffmoleküle (N2) in der Luftmischung. Der Beginn der Keeling-Kurve ist bei 315 ppm. Charles David Keelings messtechnische Belege des globalen Anstiegs der atmosphärischen Kohlenstoffdioxid-Konzentration waren der Ausgangspunkt für die heutigen großen Sorgen wegen der globalen Erwärmung. Es ist der wichtigste Umweltdatensatz des 20. Jahrhunderts. David Keeling ist der lebende Beweis, dass ein Wissenschaftler mit seinem Gewerbe die Welt verändern kann. Charles Kennel, Physiker, US National Academy of Sciences, Nasa Berater, 2005.

Einen Pferdefuss hat der grossartige Standort auf Hawaii: Mauna Loa ist ein aktiver Vulkan. Immer wieder hat es Ausbrüche gegeben, so z. B. 1984. Die Messungen werden bei Ausbrüchen durch vulkanische Gasschwaden gestört. Die Abb. 1.24 soll hier kritischen Fragen nach der Zuverlässigkeit der Messung zuvorzukommen. Sie demonstriert, dass solche Ausreisser deutlich aus dem Dauersignal herausfallen und aus der Mittelung herausgenommen werden können.

7 oder

auch μMol CO2 pro Mol.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     55

Abb. 1.23  Die Keeling-Kurve Der mittlere monatliche CO2-Gehalt der Luft. Daten von Pieter Tans (NOAA /ESRL) und Ralph Keeling (Scripps) vom 31.10.2020. Bild: Mauna Loa CO2 monthly mean concentration de, Wikimedia Commons, Delorme.

Eine recht direkte Methode, um historische CO2-Werte aus einer Zeit zu bestimmen, in der die CO2–Messung noch nicht möglich war, analysiert das Gas in Bläschen im Eis vergangener Epochen. Dies geschah vor allem mit Eisproben aus Grönland und der Antarktis, die bis zu 800 000 Jahre zurückreichen. Dazu kommen wieder (wie bei der Temperatur) Proxy-Methoden der indirekten CO2-Bestimmung, etwa mithilfe des organischen Stoffs Phytan, einem Abbauprodukt des Chlorophylls in fossilen Algen. Die Abb. 1.25 zeigt die CO2-Werte in der Luft während der letzten zweitausend Jahre mit den beiden Messbereichen. Die Werte für historische Zeiten sind in den Luftbläschen im antarktischen Eis und Firn gemessen,

56     W. Hehl

Abb. 1.24  Messreihe von Keeling. Eine vulkanische CO2-Schwade zieht vorbei. Daniel Harris, Anal. Chem. 2010, 82, 19. S. 7865–7870.

Abb. 1.25  Die atmosphärischen CO2-Konzentrationen der letzten 2000 Jahre, gemessen in ppm. Historische Werte aus Luftbläschen im antarktischen Eis (türkis), moderne Werte von einer Messstation in Tasmania (rot). Grafik: Capegrim, Commonwealth Scientific and Industrial Research (CSIRO), Australien.

in der Moderne direkt mit Instrumenten in der Station Cape Grim in Tasmanien. Die Kurve ähnelt dem Hockey-Stick der Temperatur. Mit dem Beginn der Industrialisierung steigt die Kurve relativ steil an. Im ersten Jahrtausend ist die Kurve flach bei etwa 280 ppm und steigt ab etwa 1800 an. Heute ist der Anstieg etwa 2,5 ppm pro Jahr. Der Anstieg korreliert

1  Einleitung und Geschichtliches: Von der Wärmelehre …     57

Abb. 1.26  Borsigs Maschinenbau-Anstalt Gemälde von Karl Eduard Biermann, 1847. Bild: Wikimedia Commons, Preussen Kunst und Kultur.

o­ffensichtlich mit dem Aufkommen einigermassen effizienter Dampfmaschinen sowie Grossindustrie und Eisenhütten (Abb. 1.26). Die Ähnlichkeit des Hockeysticks in Abb. 1.21 (die globale Temperatur) und der ähnlichen Kurve der Abb. 1.22 mit der CO2-Konzentration ist natürlich mehr als eine Korrelation. Das vom Menschen hervorgerufene CO2 ist ein Treibhausgas und damit auf der ursächlichen und zumindest mitverantwortlichen Seite. Das ist seit zwei Jahrhunderten bekannt. Wir haben damit die logische Kette: • Zunahme der globalen Temperatur der Erde parallel zur Industrialisierung, • Zunahme des Kohlendioxids in der globalen Luft parallel zur Industrialisierung, • Ursache der CO2-Zunahme ist die Industrialisierung, d. h. menschengemacht. Dies ist kein harter Beweis, dass die Klimaerwärmung durch den Menschen verursacht wird, aber es liegt angesichts der beiden Kurven und der Kenntnis der Physik auf der Hand. Zwischen den Jahren 1850 und 2018 wurden etwa 440 Mrd. Tonnen Kohlenstoff als Kohlendioxid in die Atmosphäre geschickt (in wissenschaftlichen SI-Einheiten 440 PetaGramm). Davon ist ungefähr die Hälfte noch

58     W. Hehl

heute in der Atmosphäre und als Treibhausgas wirksam (Friedlingstein 2019).

Die Gletscher ziehen sich zurück Gletscher, nehmt den Klimawandel gelassen. Wir werden Seen. Nach Visualstatements.net.

Dieses Wortspiel passt zum nächsten Beweis für den Klimawandel. Nach den beiden obigen Messkurven ist er hier für jedermann und jede Frau offensichtlich: Der Rückgang der Gletscher ist beinahe überall. Die Einschränkung beinahe überall gehen die Gletscher zurück kann auch bei globaler Erwärmung gültig sein. Ein Gletscher ist ein Integrator, der die verschiedenen klimatischen Einflüsse zusammen verarbeitet und über die Zeit mittelt. Mathematisch gesehen ist es eine Art von Faltung der Niederschlagsmengen (vor allem in der Form von Schnee) mit der Wärmeeinstrahlung, d. h. die gemeinsame Wirkung dieser beiden klimatischen Effekte. Für das Weiterbestehen, Wachsen oder Schwinden des Gletschers ist die Massenbilanz des Gletschers entscheidend. Dies ist der Unterschied zwischen • Aufbau (Akkumulation) durch Schneefall, Gefrieren von Regenwasser, Kondensation von Tau und durch Ansammlung von Triebschnee, und • Abbau (Ablation) durch Schneeschmelze, Sublimation (direkten Übergang in die Gasphase) und mechanischen Abbruch, bei Gletschern am Meer eindrucksvoll als Kalben. Von Messungen ist bekannt, dass die globale Erwärmung sowohl mit der Höhe (Rutgers, 2015) wie mit dem Abstand vom Äquator, also in Richtung Pole, zunimmt. Die besondere Zunahme der Erwärmung in Gebirgen ist nicht nur unangenehm für die Skitouristik durch den Schneemangel, sondern auch für die Wasserspeicherung und Wasserversorgung der umliegenden Gebiete. Der grössere Temperaturanstieg in polaren Gegenden, die sog. polare Verstärkung der globalen Erwärmung, hat vor allem zwei Ursachen. Das eine ist der Übergang von weissem, reflektierendem Eis zu offenem, dunklem Wasser, das mehr Wärme absorbiert, das andere der sich ständig verstärkende Fluss von Wärme in den höheren Schichten der Atmosphäre von der Äquatorregion zu den polaren Gebieten. Schon der Pionier Svante Arrhenius hat bereits 1801 eine derartige polare Verstärkung vorhergesagt.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     59

Abb. 1.27  Der Rückzug des Aletschgletschers Die Situation in den Jahren 1979, 1991 und 2002. Das Eis ist durch Kryokonit (Gletscherstaub) schwarz gefärbt. Aufnahmen: L. Albrecht/Pro Natura Zentrum Aletsch. Bild: Gletscherschmelze, Wikimedia Commons, Zuecho.

Ein Gletscher, der sich weder vergrössert noch verkleinert, ist mit Abbau (Ablation) und Aufbau des Eises (Akkumulation) im Gleichgewicht. Die Fläche eines Gletschers lässt sich i.A. in zwei Gebiete einteilen, in ein Gebiet, das im Jahresmittel eine positive Eisbilanz hat (das Nährgebiet ), und in ein Gebiet mit negativer Bilanz (ein Zehrgebiet ), das bei Gebirgsgletschern in tiefere Regionen reicht. Beide Bereiche werden durch eine Linie getrennt, bei der im Mittel genau so viel Eis schmilzt wie entsteht. Ist die gesamte Massenbilanz des Gletschers negativ, so zieht sich der Gletscher zurück; wenn sich kein neues Gleichgewicht mit ausgeglichener Massenbilanz von Ablation und Akkumulation einstellt, wird der Gletscher verschwinden. Vor allem kleinere Gletscher reagieren damit rasch auf verschiedene Wetterperioden; grössere Gletscher sind träger und zeigen klimatische Veränderungen an. Ein eindrückliches Beispiel in Europa ist der Schweizer Aletschgletscher (Abb. 1.27). So schreibt der deutschsprachige Wikipediaartikel: Um die Mitte des 19. Jahrhunderts erstreckte sich der Grosse Aletschgletscher noch rund 2,5 km weiter talabwärts. Aufgrund der allgemeinen Erwärmung seit etwa 1870 hat er besonders unterhalb des Konkordiaplatzes massiv an Volumen eingebüsst und sowohl an den Seiten als auch im Zungenbereich Flächen von mehreren Quadratkilometern freigegeben. Früher waren auch die Eisströme des Oberaletschgletschers und des Mittelaletschgletschers direkt mit dem Grossen Aletschgletscher verbunden.

60     W. Hehl

Abb. 1.28  Kryokonit auf Firn Aufnahme auf dem Teide (Teneriffa). Bild: Kryokonit, Wikimedia Commons, Curd W.

Hier bekommt man das Integral, die zusammengefasste Wirkung von Wärme und Niederschlag über etwa 150 Jahre, sozusagen vorgeführt: Der einstmalige, in der Neuzeit höchste Gletscherstand kann gut an den noch fast vegetationslosen Seitenmoränen abgeschätzt werden. Seit 1850 hat die Eisdicke um teilweise über 100 m abgenommen. Die Abb. 1.28 zeigt auch einen anderen Effekt, einen von vielen Teufelskreisen oder negativen Feedback-Schleifen bei der globalen Erwärmung: Die Gletscherzungen sind dunkelgrau und auf den Aufnahmen damit kaum auszumachen. Grund ist ein besonderer Flugstaub, auf Gletschern Kryokonit genannt. Die Vorsilbe Cryo rührt vom altgriechischen κρύος (krúos, eiskalt, frostig ). Es ist ein feiner Staub aus Steinabrieb und von organischem Material wie Bakterien und Russ. Der Ursprung des Materials kann weit entfernt sein – vulkanisch, aus der Landwirtschaft, aus Wüsten. Kryokonit enthält auch relativ viel radioaktives Material aus den Katastrophen von Tschernobyl und Fukushima und noch von Kernwaffentests. Die Abb. 1.28 demonstriert die thermische Wirkung. Die schwarzen Staubpartikel erwärmen sich und bilden kleine, beinahe regelmässig angeordnete Trichter mit Tümpelchen von Schmelzwasser. Darin können der Kälte angepasste Algen, Mikroben und Tierchen leben, etwa das berühmte Bärtierchen. Im Winter isoliert der neue Schnee die kleinen Seen vor der grössten Kälte. Insgesamt reduziert das Kryokonit die Rückstrahlfähigkeit des Gletschers (die Albedo) und verstärkt den Erwärmungseffekt der Sonne. Allgemein wird dies Eis-Albedo-Rückkopplung genannt (s. u.). Zwei Ergänzungen zum umgekehrten Vorgang des Abkühlens bzw. zur Asymmetrie der Gletschererwärmung.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     61

Allein aus dem Mechanismus des Gletscherauf- und Abbaus folgt: Selbst wenn sich das Klima augenblicklich zurückdrehen liesse, so würde die Umkehrung des Trends und ein neues Anwachsen der Gletscher Zeit brauchen. Die Wärme ist über das gute Jahrhundert schon tief in die Eismasse der Gletscher eingedrungen. Es wirkt wieder das Gesetz der Wärmeleitung von Fourier. Russ ist als schwarzer Körper eigentlich vollkommen symmetrisch. Schwarze Körper nehmen (per Definition) Strahlung maximal auf, aber sie strahlen auch maximal wieder ab. Aber dies nützt nichts bei Russ auf Schnee. Der Russ erhält Wärme von der Sonne mit etwa 6000°C Strahlungstemperatur und gibt sie weiter, beim Abkühlen ohne Sonne ist er nur wenige Grad wärmer als die Umgebung und als Abstrahler bedeutungslos. In lokalen Ausnahmesituationen können sich Gletscher auch heute ausdehnen, aber mit einem schwachen, vielleicht nur zufälligen Eisüberschuss durch mehr Niederschläge. Bei den Niederschlägen gibt es ja keinen global monotonen Trend. Weltweit gehen Gletscher zurück und das Eisvolumen nimmt ab. Laut der Datenbank des WGMS8 wurden 2004 insgesamt 442 Gletscher untersucht, davon dehnen sich 26 aus, 18 sind stationär und 398 ziehen sich zurück. Von den 26 vorrückenden Gletschern waren 15 in Neuseeland. Die Schweizer Gletscher-Kommission, die etwa 100 Gletscher beobachtet, berichtete 2009 von 81 Gletschern, die sich zurückzogen, zwei Gletscher hatten sich ausgedehnt und 5 waren unverändert. Einen besonderen Fall stellt die Antarktis dar, die für das Weltklima von grosser Bedeutung ist. Die Temperatur auf der antarktischen Halbinsel ist in den letzten fünf Jahren im Mittel um fünf Grad gestiegen und 87 % der Gletscher an der Westküste der antarktischen Halbinsel ziehen sich zurück. Durch Abbrüche entstehen dort die grössten Eisberge der Erde. Aber die Antarktis ist ein ganzer Kontinent mit einer Durchschnittshöhe von 2500 m, umgeben von Meer und einer Ringströmung. Der Südpol befindet sich auf 2835 m Höhe, der höchste Berg erreicht 4892 m. NASA-Messungen zeigen, dass sich die Eisdecke über dem Kontinent leicht verstärkt hat. Bei Niederschlägen in Regionen mit permanentem oder überwiegendem Frost ist dies plausibel, jedoch umstritten. Aber auch dies wäre eine Folge der globalen Erwärmung.

8 WGMS

bedeutet World Glacier Monitoring Service.

62     W. Hehl

Die Redewendung vom ewigen Eis gilt nicht mehr. Es ist traurig, die vom Rückzug eines Gletschers zurückgelassenen Schuttmassen zu sehen, wenn man die lichtblaue Welt des Eises gesehen hat. Island zelebrierte diese Trauer um verlorene 11 Mrd. Tonnen isländisches Eis und die Gefahr des Verschwindens für die 400 isländischen Gletscher mit einem symbolischen Begräbnis eines verschwundenen Gletschers, des Okjokull. 1890 hatte der Okjokull 16 km2 Eisfläche, 2012 noch 0,7 km2. 2019 fällt der Okjokull aus der Definition eines Gletschers: Eine Eismasse ist dann ein Gletscher, wenn sie unter ihrem eigenen Gewicht fliesst.

Aus einer Grabrede: „Das Verschwinden eines Gletschers kann man fühlen, man kann es verstehen, es ist recht eindrücklich zu sehen. Den Klimawandel kann man nicht jeden Tag fühlen, er geht in menschlichem Massstab so langsam vor sich, aber auf geologischer Skala ist es sehr schnell.“ Julien Weiss, Aerodynamiker und Teilnehmer an der Trauerfeier, 2019.

Es ist für Isländer, wie für Schweizer, wie für die ganze Welt traurig, überall Gletscher verschwinden zu sehen.

Katastrophen und Klimawandel Ein sich erwärmendes Klima kann stärkere Wirbelstürme verursachen, mehr Regen und Fluten, insbesondere Sturzfluten, kräftigere konvektive9 Stürme, längere und intensivere Waldbrand-Zeiten. Dazu kommen neue Ereignisse in Gebieten, in denen sie vorher nicht vorkamen, z. B. Wirbelstürme und Hagelzonen näher an den Polen, und Waldbrände kommen in Gebieten vor, die solche Feuer nicht kannten. Das Klima verändert die Versicherungslandschaft. Oder? Bericht Natur- und menschengemachte Katastrophen, Swissre Australien, April 2020.

9 Konvektiv heissen in der Meteorologie vor allem vertikale Strömungen. Daraus entstehen in feuchter Luft Unwetter mit Blitz, Donner und Hagel.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     63

Abb. 1.29  Ausgetrockneter See Bild: Dürre, Wikimedia Commons, Stefan Kühn.

Eine andere Beobachtung, die pragmatisch die globale Erwärmung demonstriert ohne dabei tiefe Wissenschaft oder gar ein Verstehen komplexer Zusammenhänge vorauszusetzen, ist die Häufigkeit von wetterbedingten Katastrophen. Katastrophen sind die dramatische Spitze der Wetterstatistik und als schlagende Einzelereignisse nicht zu leugnen und nicht weg zu diskutieren. Ein schönes Beispiel für Katastrophen wären Tornados – aber gerade Tornados zeigen kaum eine Veränderung ihrer Häufigkeit und ihre Bildung ist auch noch nicht gut verstanden. Anders steht es um die grossen tropischen Wirbelstürmen, den Hurrikans. Im Jahr 2020 gab es so viele tropische Wirbelstürme in der Karibik, dass sich die Liste der alphabetischen Namen der Welt-Meteorologie-Organisation erschöpfte und man zur Bezeichnung zu griechischen Buchstaben übergehen musste. Trotzdem ist hier die Beweislage noch nicht eindeutig. Die Verringerung des sauren Regens seit dem Einbau von Filtern in Kraftwerke (s. u.) könnte durch mehr Sonneneinstrahlung zur vermehrten Hurrikanbildung beitragen. Dazu trat in diesem Jahr das Wetterphänomen La Niña auf, das in unregelmässigen Abständen wärmeres Wasser bringt. Allerdings könnte man spekulieren, dass sowohl die Intensität der Hurrikane als auch deren Häufigkeit und das Muster von La Niñas durch die globale Erwärmung stiege. Eindeutig erkennbar ist der Klimawandel an der allgemeinen Häufung extremer Wetterereignisse. Dies gilt sowohl für die Statistik wie auch für die direkte Anschauung. So nehmen vor allem ausserordentlich heisse oder kalte Perioden, extreme Trockenheiten (Abb. 1.29), extreme Regen oder Schneefälle und auch grosse Waldbrände (Abb. 1.30) zu (Nat. Science etc., 2016).

64     W. Hehl

Abb. 1.30  Waldbrandrauch über San Francisco vom 9. 9. 2020. Bild: North Complex Smoke in San Francisco …, Wikimedia Commons, Christopher Michel. Mit freundlicher Genehmigung.

Extreme Kälteperioden werden seltener. Sehr eindrücklich für alle sind sie in den mittleren Breiten der Erde zu sehen am Beispiel des immer selteneren Zugefrierens von Seen mit der Ausnahme der Gebirgsseen. Es müssen lange, dunkle und windstille Frostperioden früh im Winter einsetzen, um z. B. den Zürichsee oder den Bodensee zur Seegefrörni zu bringen. Aufschlussreich und eine Art von negativer Visualisierung der globalen (oder mindestens der mitteleuropäischen) vergangenen Temperaturen sind die Jahre mit überlieferten Seegefrörni des Bodensees (Wikipedia, Seegfrörni des Bodensees ): • 875, 895 • 1074, 1076 • 1108 • 1217, 1227, 1277 • 1323, 1325, 1378, 1379, 1383 • 1409, 1431, 1435, 1460, 1465, 1470, 1479 • 1512, 1553, 1560, 1564, 1565, 1571, 1573 • 1684, 1695 • 1788 • 1830, 1880 • 1963 Naturgemäss ist der Anfang der Liste bis zum 13. Jahrhundert allerdings unsicher. Die Seeanwohner haben heute kaum noch Hoffnung, auf das

1  Einleitung und Geschichtliches: Von der Wärmelehre …     65

Abenteuer eines zugefrorenen grossen Sees. Die globale Erwärmung ist hier ins kollektive Bewusstsein der Menschen eingegangen. Für die mitteleuropäischen Seen bedeutet dies nicht nur Erlebnisverlust, sondern auch Änderung der Physik und Biologie. Ursache ist die Besonderheit des Wassers, bei 4°C die grösste Dichte zu haben. Bei allen anderen Temperaturen ist Wasser spezifisch leichter und noch leichter in der Eis-Phase. Dadurch schichtet sich das Wasser im Lauf des Jahres um, bei hinreichend kalten Wintern sogar zwei Mal. Die globale Erwärmung verringert so den Sauerstoffgehalt des Wassers und die Verteilung der Nährstoffe in Seen. Eine andere Art von Naturkatastrophen, die mit der Erwärmung zusammenhängen, sind Waldbrände; ihre steigende Häufigkeit ist schon aus den Nachrichten von Australien bis Kalifornien offensichtlich (Abb. 1.30). Allerdings werden Häufigkeit und Schwere von Waldbränden von vielen Faktoren bestimmt, natürlichen wie von Menschen gemachten. Als Grundeffekt bewirken höhere Temperaturen eine höhere Verdunstung, ergeben einen höheren Taupunkt für Feuchtigkeit der Nacht und führen zu trockeneren Böden. Allerdings sind Feuer auch natürliche Regenerationsmechanismen für die Vegetation. In manchen Regionen gibt es regelrechte Feuer-Zeiten, die sich naturgemäss im Laufe der Klimaänderung verlängern oder verschieben können, etwa wenn der Monsun sich hinauszögert. In bewirtschafteten Wäldern kann man die Wahrscheinlichkeit grosser Brände durch Steuerung der Menge des leicht brennbaren Materials in der Form von Gebüsch oder gefallenen Bäumen verringern. Dem Forstmanagement in Kalifornien wurde 2020 vorgeworfen, dass man es der Natur gestattet habe, grosse Mengen Brennstoff anzusammeln. Ob diese Anschuldigung gerechtfertigt ist, ist nicht so klar. Allerdings hat es seit 2010 fünf der heftigsten Feuerjahre in Kalifornien gegeben seit darüber Aufzeichnungen gemacht werden. Zu den menschlichen Zündeleien, die oft Auslöser von Bränden sind, kommt die Zunahme von Blitzen durch die globale Erwärmung. Das Eingangszitat stammt aus einer Industrie, die den Klimawandel professionell untersucht und für die der Klimawandel mit den verstärkten oder neuen Katastrophen zentral in ihrem Geschäftsmodell steht, der Versicherungs- und Rückversicherungsbranche. Die globale Erwärmung erhöht die Zahl der Schadensfälle, macht sie folgeschwerer, schafft neue. Es gibt eine neue Risikolandschaft und damit eine andere Geschäftswelt: Während die Wissenschaft noch in einem frühen Stadium ist, kann es sich die Versicherungsindustrie nicht leisten zu warten. Die Anzahl an Waldbränden und Hitzewellen sagt uns, dass etwas vor sich geht. Lucia Bevere, SwissRe Australien.

66     W. Hehl

Der Klimawandel als Experiment Die Menschheit hat ein großangelegtes geophysikalisches Experiment begonnen, das es in dieser Form weder in der Vergangenheit gab, noch in der Zukunft ein zweites Mal geben wird. Roger Revelle, amerikanischer Klimatologe und Ozeanograph, 1966.

Revelle hat den eindrücklichen Grundgedanken schon 1957 erwähnt. Allerdings ist das Wort Experiment auch noch 1966 von ihm im wissenschaftlichen, beobachtenden Sinn gemeint. Er hat dazu geschrieben, dass die CO2-Zunahme mehr Neugierde als Angst hervorrufen sollte, im Original should probably contain more curiosity than apprehension. Eine heutige populäre Kurzform ist: Wir haben keinen Planeten B. Zwei gemessene Kurven und eigene Erlebnisse machen es für jeden klar: Der globale Klimawandel ist im Gang. Auch der kausale Zusammenhang mit den menschlichen Aktivitäten ist mittlerweile offensichtlich – aber es ist doch zunächst nur eine Korrelation und eine höchst plausible Kausalität. Noch liesse sich ein exotischer Zusammenhang konstruieren, etwa eine Umkehrung wie zuerst ging die Temperatur aus natürlichen Gründen hoch, dann stieg das CO2 in der Luft oder der CO2-Gehalt stieg aus einem unbekannten natürlichen Grund, und dadurch stieg dann die Temperatur. Der erste Fall könnte etwa das Ende einer Eiszeit sein, der zweite Fall das Aufsteigen von Methan aus den Tiefen des Meeres. Beide Erklärungen sind nicht wahrscheinlich. Eiszeiten haben astronomische Ursachen in Änderungen der Erdbahn um die Sonne und laufen mit anderen, viel längeren Zeitkonstanten ab. Methan gibt es zwar in der Tiefsee, aber zu unserem Glück ist es bisher wohl verwahrt geblieben. Beide Bereiche sehen wir unten etwas genauer an. Die Kausalkette aus Industrialisierung, damit Erhöhung CO2 in der Luft und daraus Treibhauseffekt mit Klimawandel passt perfekt. Wir können sagen: Wir haben den Vorgang verstanden. Dazu definieren wir die Begebenheit des Verstehens zunächst so: Im Alltag verstehen wir einen Vorgang oder einen Prozess dann, wenn wir ihn in einem Modell abbilden können aus Bausteinen und mit Kombinationen dieser Bausteine, die wir verstehen.

Damit wird Verstehen zu einem Ergebnis von Erfahrung und Ausbildung.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     67

Die Grundlage und einfachstes Verstehen ist das Jäger- und Sammler-Verstehen. Im Sinne von: diese Spur im Sand bedeutet ein Beutetier, diese Stelle mit Pilzen besuche ich wieder, oder mit diesem Damm kann ich Wasser stauen. Die nächste Stufe des Verstehens ist, Gelerntes zum Modellbau der Welt zu verwenden, das vom Naiven abweicht oder sogar dazu im Widerspruch steht, und es zu akzeptieren. Aufgeklärt verstehen wir einen Vorgang oder einen Prozess dann, wenn wir ihn in einem Modell abbilden können, das alle Experimente erklärt.

Ein Beispiel ist die Frage zum obigen Damm: Wissen Sie, ob der Damm grösser sein muss, wenn dahinter ein grosser See drückt oder gar das Meer oder nur ein kleiner Teich? Das Verstehen im naiven Sinn ist hier beinahe immer falsch wegen des hydrostatischen Paradoxons. Der hydrostatische Druck hängt nur von der Tiefe ab und der Damm kann immer die gleiche Stärke haben. Physiker lernen diese Adaptation an Neues, Ungewohntes und Widersprüchliches über viele Experimente als ihr Berufsziel etwas physikalisch zu verstehen, auch wenn das naive Verstehen etwas Anderes sagt, z. B. dass Raum selbst sich krümmen kann, die Zeit von der Geschwindigkeit abhängt oder dass es echten Zufall gibt. Lernen geschieht in den Wissenschaften durch Experimente, die eine Hypothese bestätigen oder widerlegen sollen. Ein Experiment ist ein Vorgehen um eine Hypothese zu einem System zu untersuchen. Dazu muss man alle Freiheitsgrade festhalten, die nicht zu den Variablen der Hypothese gehören.

Der Effekt der Manipulation erlaubt dann die Feststellung einer UrsacheWirkung-Beziehung. Kindliche Beispiele zeigt ein Kupferstich aus dem 18. Jahrhundert mit spielerischen Experimenten von Kindern zur Vermehrung der Erfahrenheit durch den Trieb, allerlei zu versuchen, wie etwa die umgekehrte Flasche (wohl mit Wasser gefüllt) mit engem Hals (Abb. 1.31). Mit dem Klima der Erde ist dies nicht möglich. Die Fülle der Abhängigkeiten ist gross. Natürliche, zufällige und industrielle, alle sind im Klima der Erde verbunden. Die entscheidenden Grössen werden durch gewaltige Massen bestimmt, auch wenn es, wie bei den Treibhausgasen, nur um relativ

68     W. Hehl

Abb. 1.31  Experimente, 1774 Aus dem Elementarwerk mit den Kupfertafeln Chodowieckis von J.B. Basedow. Bild: Chodowieckis Basedow Tafel 12 d, Wikimedia Commons, Chodowieckis.

kleine Anteile geht. Im Sinne von Experimenten würde man sich wünschen, alle menschengemachten Einflüsse wären nie da gewesen. Dies ist der sog. kontrafaktische Referenzfall. Einige Beispiele kommen allerdings Experimenten nahe mit der Injektion von bestimmten Stoffen, dem Erkennen der Schädlichkeit, dann Verbot und Rückgang der schädlichen Wirkung. Solche Experimente hat die Moderne in einigen Fällen durchgeführt: • Tetraäthylblei: Das Antiklopfmittel erlaubte es, bessere Wirkungsgrade der Motoren zu erreichen. Das Problem: Sowohl die Produktion als auch der Massenverbrauch waren problematisch wegen der hohen Giftigkeit der Substanz und des entstehenden Bleis. Die Substanz wurde durch DreiWege-Katalysatoren ersetzt. • Saurer Regen durch Kohlekraftwerke. Das Problem: Der saure Regen war in den 1979er und 1980er Jahren der grosse Waldkiller, auch für weit entfernte Wälder. Der Einbau von Filteranlagen für Schwefel hat das Problem weitgehend gelöst. Die Filterung liefert als Produkt dazu grosse Mengen an Gips (Calciumsulfat), die als Material verwendet werden können und den Abbau von Gips in Steinbrüchen ersetzen.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     69

• Fluorchlorkohlenwasserstoffe (FCKW) als Kühlmittel. Das Problem: Hier hat sich die Gefahr der Öffentlichkeit etwas abstrakter gezeigt. Es waren bunte Schaubilder zur Konzentration der Ozonschicht in der Stratosphäre und die beunruhigende Nachricht vom Ozonloch. Man spricht von einem Ozonloch, wenn die Stärke der Schicht auf die Hälfte reduziert ist. Das Ozon in der Stratosphäre schützt vor UV-B-Strahlung, die Krebs erzeugen kann. Weltweit wurden die FCKW im Jahr 2000 verboten. Seit 2016 erholt sich das Ozonloch, d. h. die Ozonschicht wird wieder stärker. Damit ist das Ozon-Problem jedoch noch nicht abgehakt. Zum einen gibt es auch Ozon unten in der Troposphäre mit Aerosolbildung und Treibhauseffekt, zum andern sind auch einige der Ersatzstoffe für Kühlschränke nicht problemlos. Ausserdem gibt es auch natürliche Quellen aus dem Meer oder in Vulkangasen für Stoffe, die die Ozon-Schicht attackieren, so z. B. verwandte Stoffe mit den anderen Halogenen Chlor, Brom und Jod. Auch Pflanzen liefern einen schädlichen Beitrag, so erzeugen Kreuzblütler (Raps) mehrere Tausend Tonnen Methylbromid pro Jahr. Dazu gelangt auch Distickstoffmonoxid (Lachgas) mit ozonschädlicher Wirkung in die höhere Atmosphäre. FCKW, Ozon, Lachgas sind alles hocheffektive Treibhausgase, dazu unten in den Abschnitten Ozon und Fluorchlorkohlenwasserstoffe mehr. Vor einem halben Jahrhundert war die Bezeichnung Experiment der Menschheit für die globale Erwärmung noch ein hübsches Bonmot, heute ist es Ernst.

Simulationen und Modelle zum Verstehen Alle Modelle sind [irgendwo] falsch, aber manche sind nützlich10. George Box, englisch-amerikanischer Mathematiker und Statistiker, 1976.

Experimente sind eine analytische Methode, um etwas zu verstehen und zwar auch die inneren Kausalbeziehungen. Bei hinreichend komplexen Systemen oder Systemen, die nicht zerlegbar sind, ist dies nicht mehr möglich. Sowohl Komplexität wie enge Kopplung gelten für das Klima. Die Erdgeschichte ist ein einziger und einzigartiger Lauf, der sich nicht wiederholen lässt. Nur an anderen Planeten und Monden, die eine Atmosphäre haben,

10 Es

gibt zu diesem Zitat einen englischsprachigen Wikipedia-Artikel, s. Verzeichnis.

70     W. Hehl

können wir ein wenig mehr über Klimaphysik erfahren. Deren Klimata sind allerdings sehr verschieden vom irdischen. Die Venusatmosphäre hat beispielsweise tausend Mal mehr Kohlendioxid und Wolken aus Schwefelsäure oder der Saturnmond Titan eine Stickstoffatmosphäre und Methanwolken. Die Erde hat dazu die Menschen und die Industrialisierung. Bei komplexen oder zu komplexen Systemen hilft die konstruktive Methode. Man erschafft ein Modell, das dem Original auch im Detail möglichst ähnlich ist, beobachtet sein Verhalten und experimentiert damit. Es erlaubt, die kausalen Zustände und die Treiber der inneren Prozesse zu sehen und zu verstehen. Dies ist eine moderne Variante eines Leitspruchs des barocken Philosophen Giambattista Vico (1668–1744) aus dessen Werk Scienza nuova von 1725: Verum quia factum. Als wahr erkennbar ist nur das, was wir selbst gemacht haben.

Das Selbstmachen ist hier der Modellbau. Das Modell des Systems wird nach und nach erstellt mit dem Ziel, alle Charakteristiken und Einzelprozesse des Ganzen nachzubauen. Startet man das Modell mit bestimmten Bedingungen, so ist es, als ob diese Welt so funktioniere. Im Allgemeinen ist es ein Modell im Computer. Ich wage zu sagen, der digitale Computer kann alles modellieren, selbst Unscharfes, Menschliches und Zufälliges. Die Läufe eines Modells simulieren das System und sind Simulationen des Echten, eines Kraftwerks, des Gehirns, einer Seele (Psyche), des Wetters oder des Klimas. Ist man mit einem System zufrieden, das nur Antworten (OutputWerte) gibt wie eine Black Box, ohne die inneren Vorgänge nachzuahmen, sprechen wir von Emulieren und Emulation. Bei Modellen, deren Aufgabe es ist, einfach nur die richtigen Resultate zu liefern, gilt das Prinzip des Rasierers von Ockham (alles Unnötige zu entfernen) oder das Zitat nach Einstein, hier formuliert: Man mache ein Modell so einfach wie möglich, aber nicht einfacher.

Albert Einstein hat den Gedanken mehrere Male ähnlich formuliert. Bei der Simulation von komplexen natürlichen Vorgängen kommt es auch darauf an, die wichtigen Eigenschaften einzubeziehen und mitzusimulieren; es ist menschlich, von einem Effekt fasziniert zu sein und dafür anderes zu vernachlässigen. Der oben erwähnte George Box drückt dies so aus: „Es ist unpassend, sich über Mäuse aufzuregen, wenn Tiger herumlaufen.“ Allerdings lernt man erst später, was Maus und was Tiger ist!

1  Einleitung und Geschichtliches: Von der Wärmelehre …     71

Bei der Simulation – des Planetensystems, der Wetterberechnung oder des Weltklimas – geht man von einem Zustand aus und berechnet mithilfe aller laufenden Einwirkungen die Zustände des Systems ein wenig später, und dann wieder ein wenig später usf. Dies entspricht dem Lösen von Differentialgleichungen, die verschiedene Flüsse und Energiesätze ausdrücken. Es geht um die Bewegungen von Luft und Wasser (horizontal und vertikal), um die Bilanz der Strahlung von der Sonne und ins All, um die mechanischen Energien und Impulse, um die Ströme der relevanten Gase in der Luft, vor allem um den Weg des Wasserdampfs. Dies alles über Land, Wasser und Eis oder Schnee (McSweeney 2018). Ein funktionierendes Modell erlaubt dann auch zu verstehen, wie das System und seine Rückkopplungen funktionieren. Man lernt wer, wie oben gesagt, Maus und wer Tiger ist. Dazu kommt die Hauptaufgabe, die Zukunft vorauszusehen. Bei der Simulation des Klimas kommt ein fundamentales Problem dazu. Der Begriff Klima ist wissenschaftlich gesehen ein künstliches, mathematisches Konstrukt, obwohl er einer unmittelbaren menschlichen Vorstellung nachgebildet ist. Klima ist die Gesamtheit der zeitlichen Mittelwerte und der typischen Veränderlichkeiten der Wetterdaten einer Region. Die typische Zeitspanne für die Mittelung sind 30 Jahre, die räumliche Dimension der Mittelung kann auch die Erde als Ganzes sein.

Das Wort Klima kommt vom griechischen klinein mit der Bedeutung sich neigen. Es geht um die Neigung der Sonne. Aristoteles (384–322 v.Chr.) hatte in seiner Meteorologica die Weltkugel in 5 Zonen eingeteilt nach der Sonnenhöhe in diesen Breitenstreifen. Die Abb. 1.32 zeigt eine römische Version dieser Vorstellung von 5 Klimazonen vom römischen spätantiken Philosophen Macrobius oder Theodosius aus dem Anfang des fünften Jahrhunderts. Es ist erstaunlich, wie selbstverständlich in der Antike die Kugelgestalt der Erde war! Ein treffender prägnanter Spruch unter Meteorologen ist. Klima ist, was man erwartet, Wetter ist das, was man bekommt.

72     W. Hehl

Abb. 1.32  Die Klimazonen des Macrobius Ambrosius Theodosius Ausschnitt aus Macrobius, Commentarii in Somnium Scipionis. Dazu eine moderne Legende. Historisches Bild: Macrobius climatic zones, Wikimedia Commons, Copenhagen, Det Kongelige Bibliotek, ca. 1150 Erläuterndes Bild: Climatic zones and antipodes, Wikimedia Commons, Leinad-Z/John Hamer.

Wir wissen sofort, was mit mediterranem Klima oder sibirischem Klima gemeint ist. Aber (geo-) physikalische Grössen wie Klima und Klimamodelle sind von ganz anderem, indirekten Typus. Wir setzen als Definitionen fest: • Temperatur (an einem Ort) ist seit Newton und Kelvin recht klar, • Wetter ist eine Menge physikalischer (meteorologischer) Daten inkl. der stattfindenden Ereignisse in einem lokalen Gebiet zu einem Zeitpunkt, • Klima ist eine Menge über einen Zeitraum gemittelter physikalischer Daten und gemittelter Verhaltensmuster des Wetters in einem Gebiet, • Klimamodellierung versucht über längere Zeiträume hinweg, weitaus länger, als Wetterberechnung möglich ist, durch allgemeine Gesetze der Physik und durch geeignete Näherungen die gleichen Mittelwerte für die Menge der Daten wie in der Realität zu erreichen zu einem beliebigen Zeitpunkt, vor allem in der Zukunft. Klima ist damit bereits ein nicht-trivialer Begriff und Klimamodellierung als übergeordnete Aufgabe erst recht. Man muss Näherungen verwenden, durchsichtige und weniger klare, und dazu Parameter, also Hilfsgrössen, die man in der Software wählen kann, um das Simulationsprogramm in die gewünschte Richtung zu lenken. Warum dies trotzdem wissenschaftlich

1  Einleitung und Geschichtliches: Von der Wärmelehre …     73

Abb. 1.33  Zum Modell der Atmosphäre der Erde und der wesentlichen Einflüsse Geometrische Grundgitter einerseits und physikalische Teilprozesse andrerseits. Bild: Atmospheric Model Schematic, Wikimedia Commons, NOAA.

funktioniert, werden wir unten bei der Popperschen Forderung nach der Möglichkeit der Falsifikation einer Theorie erläutern. Abb. 1.33 illustriert die geometrische Grundlage der globalen Simulation. Es ist die Zerlegung der Erde zur Berechnung in Zellen in der Fläche und in der Höhe. Die Feinheit der Gitter bestimmt die numerische Präzision der Rechnung; allerdings wächst der numerische Rechenaufwand mit kleiner werdender Dimension rasch an. Historisch sind diese Einflüsse nach und nach in die Klimamodelle als Verfeinerungen aufgenommen worden. Zunächst das Grundproblem mit Kohlendioxid und Regen, dann kamen die Unterschiede über Land und Meer, die vulkanischen Aktivitäten, Aerosole und die Kreisläufe der beteiligten Substanzen dazu. Die Aufgabe ist von unglaublicher Komplexität:

74     W. Hehl

• Sehr viele Daten mit Ungenauigkeiten oder überhaupt fehlenden Werten machen das Ganze schon rechnerisch schwierig. • Viele der Prozesse hängen zusammen; eine Änderung in einem Prozess, etwa eine andere Windrichtung, verschiebt eine oder gar viele Grössen. • Es gibt Hilfsgrössen, die künstlich angepasst werden müssen um vernünftige Ergebnisse zu erhalten. Werte in den Zellen unterhalb der Auflösung werden parametrisiert, systematische Fehler werden korrigiert als Bias, als falsche Neigung eines Verfahrens. Biaskorrektur kann eine Zielgrösse verbessern, dafür andere physikalische Variablen verschlechtern. Es können sich sogar physikalisch unsinnige Zustände ergeben, z. B. viel Regen bei wenigen Wolken. • Es gibt Einflüsse, die man noch nicht erfassen kann, die zufällig sind. Andere sind einfach noch nicht verstanden. Einige Eigenschaften der wohlbekannten Wetterberechnungen sind ähnlich den Klimamodellrechnungen. Wettervorhersagen verwenden ebenfalls Gitter als Grundeinheiten und rechnen Schritt für Schritt auf Superrechnern die Wetterbedingungen weiter. Der Rechenfehler wächst etwa exponentiell mit der simulierten Zeit – nach etwa zwei Wochen Vorhersagezeit wird das Ergebnis meistens unbrauchbar. Zwar gehen auch Parameter in die Rechnung ein, etwa die Vegetation, Wasserflächen und Berge, aber doch ist die physikalische Situation beim Wetter um viele Grössenordnungen beschränkter und klarer als beim Modellieren des Klimas. Heute gibt es schon die Erfahrung vieler Generationen von Computerprogrammen zur Wetterberechnung und Hunderttausende von Wettersituationen sind berechnet und an der Realität kritisch überprüft worden. Anders ist es bei Klimamodellen. Dort sind viele Teile des Systems noch nicht stabil, die Beziehungen der Systemkomponenten untereinander variabel und das Gesamtsystem ist riesengross. Und es gibt nur eine einzige irdische Weltklimageschichte als Prüfung der Theorien und der Parameter. Nicht nur Klimamodelle haben Parameter, sondern die Einführung von Parametern, die man so anpasst, dass das Ergebnis sinnvoll ist, ist ein häufiges Verfahren. Es soll eine Theorie flexibel gestalten. Dies akzeptieren nicht alle Wissenschaftler als wissenschaftliches Verfahren. Es ist tatsächlich nur eine Notlösung. Hier ein berühmtes satirisches Zitat: Mit vier Parametern kann ich einen Elefanten anpassen, und mit einem fünften kann ich ihn mit dem Rüssel wackeln lassen. John von Neumann, ungarisch-amerikanischer Mathematiker, zu Enrico Fermi, italienisch-amerikanischer Physiker, 1953.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     75

Die Modellierung des Klimas ist eine Systemmodellierung, bei der es zunächst wesentlich ist, keinen Tiger zu übersehen. Das kann im komplexen System aus Physik, Chemie, Biologie und Menschen leicht geschehen. Ein Bereich jetziger Forschung ist z. B. die Biologie der Ozeane mit CO2 und Nährstoffen. Ein NASA-Bericht sagt: Es ist auf vielen Ebenen wichtig, die Prozesse der Phytoplankton-Verteilung in den Ozeanen zu verstehen und wie sie das Klima betreffen und vom Klima betroffen werden. Sie einzubeziehen in die globale Modellierung ist ein neues Gebiet und noch nicht verstanden… (NASA 2012). Die modernen Klimamodelle sind tendenziell korrekt, insbesondere zeigen sie, dass menschliche Einflüsse zumindest für die halbe globale Temperaturerhöhung der letzten 50 Jahre verantwortlich sind. Dabei gibt es auch Klimaeigenschaften, die besonders schwierig zu erfassen sind, etwa die Niederschlagsmengen oder die Verteilung des Wasserdampfs in der Höhe (Flato 2013). Sie sind Werkzeuge, um verschiedene Szenarien – sogar nukleare Kriege – durchzuspielen. Hier kann man das tun, was man mit der richtigen physikalischen Erde nicht tun kann, nämlich Experimente. Um die Wirkung des CO2 zu verstehen, kann man z. B. den CO2-Gehalt plötzlich künstlich erhöhen mit einer Schrittfunktion erhöhen und die Reaktion des Systems beobachten. Aber leider ist das Gesamtsystem von Atmosphäre, Erde und Ozeanen sehr, sehr komplex. Man kann zunehmend besser simulieren, aber noch nicht perfekt. Ein kurioses Zeichen dafür ist die verwendete Sprache zur Beurteilung von Ergebnissen von Modellrechnungen; man spürt den Wunsch nach wissenschaftlicher Korrektheit, aber es ist eine Sprache relativer (Un-) Sicherheit. In einem Bericht der IPCC, des Weltklimarats (Bindoff 2013) wird definiert: Wir haben in diesem Bericht folgende Ausdrücke benützt, um die beurteilte Wahrscheinlichkeit eines Ergebnisses anzugeben:

eigentlich sicher bei 99–100 % Wahrscheinlichkeit, sehr wahrscheinlich mit 90–100 %, wahrscheinlich 66–100 %, So wahrscheinlich wie unwahrscheinlich bei 33–66 %, wahrscheinlicher als nicht > 50–100 %, unwahrscheinlich 0–33 %, sehr unwahrscheinlich 0–10 %, ausserordentlich unwahrscheinlich 0–1 %

76     W. Hehl

Abb. 1.34  Nassim Taleb’s Beststeller Der Schwarze Schwan in der Entwicklung von Systemen. Bild: eigen.

Für den Grad der Vertrauenswürdigkeit eines Beweises wird verwendet begrenzt, mittel oder robust, und für den Grad einer Zustimmung niedrig, mittel oder hoch. Dazu kommt eine weitere prinzipielle Unsicherheit, die sich bei Modellen wie der Klima- oder der Erdbebenvorhersage zwangsläufig für die vorhergesagte Wahrscheinlichkeit von Events ergibt. Hier sind angegebene Wahrscheinlichkeiten prinzipiell problematisch, da sie im Modell selbst erzeugt werden und nur virtuell frequentistisch sind. Frequentistisch sind echte Wahrscheinlichkeiten, etwa wenn man oft würfelt, so häufig wie möglich, und die Frequenzen der Zahlen, also die Häufigkeit ihres Auftretens, aufzeichnet. Wahrscheinlichkeit ist bei Simulationen ein schwieriger, fiktiver Begriff! Auf ein anderes fundamentales Problem bei der Arbeit mit grossen Systemen hat der libanesisch-amerikanische Autor und Finanzanalytiker Nassim Nicholas Taleb (geb. 1960) hingewiesen und dafür das Bild vom Schwarzen Schwan erfunden (Abb. 1.34), zusammen mit einer ganzen Risiko-Philosophie für grosse Systeme (Taleb 2007). Dabei stammt die Metapher aus der Antike. Ein seltener Vogel, rara avis, ist etwa ein weisser Rabe oder gar ein schwarzer Schwan, der damals in Europa unbekannt war. Das erste Beispielsystem für Taleb ist das globale Finanzsystem mit dem Crash, der Weltfinanzkrise, ab 2007 mit dem Platzen der Immobilienblase

1  Einleitung und Geschichtliches: Von der Wärmelehre …     77

als unvorhergesehener schwarzer Schwan. Andere grosse Systeme mit einbrechenden Ereignissen sind etwa die globale Gesellschaft mit dem Auftreten der Covid-19-Pandemie oder das globale Klima mit der globalen Erwärmung. Damit definieren wir die Metapher zu: Ein schwarzer Schwan ist ein Ereignis [in einem komplexen System], das unerwartet ist, alles drastisch verändert, aber dessen Auftreten im Nachhinein eigentlich verständlich ist.

Die globale Finanzkrise war in diesem Sinn tatsächlich ein Paradebeispiel. Durch billige Kredite war das gesamte Kreditvolumen in den USA enorm angewachsen; als ein Anstieg der Kreditzinsen erfolgte, waren viele Verträge für die Kreditnehmer nicht mehr zu bezahlen. Durch die Vernetzung der Kredite und der Banken wurde das gesamte Finanzsystem der USA und der kapitalistischen Welt in die Nähe des Zusammenbruchs gebracht. Die Klimaerwärmung selbst ist schon lange als Möglichkeit erkannt. Nassim Taleb definiert dazu ein Ereignis vom Typ Grauer Schwan: Ein grauer Schwan ist ein Ereignis [in einem komplexen System], das nicht erwartet wird, aber doch als möglich bekannt ist und das alles drastisch verändert, aber eigentlich erst im Nachhinein verstanden wird.

Man kann die Metapher vom Schwarzen Schwan weiter führen in die Globale Erwärmung selbst. Für das reale Klima (und damit auch für die Simulation, das Virtuelle) wäre dies ein neuer Einfluss, von Menschen oder durch die Natur, der alles umstossen würde und die Gefahr entschärfen. Schwierige Gebiete und Bereiche für mögliche Überraschungen bei quantitativen Simulationen sind beispielsweise • die Übergänge von eis- oder schneebedeckten Flächen zu den freien grauen oder braunen Gebieten, die sich jetzt physikalisch und chemisch anders verhalten und ganz andere Gleichgewichte ergeben. Eine Variante ist das Problem von Schnee auf Eis mit Effekten wie Sublimation des Schnees, Winddrift und Vereisung. • die Strömungen in den Ozeanen mit der Dimension der Tiefe, • die Bildung, des Typs und der Ausdehnung von Wolken.

78     W. Hehl

Ein potenzieller grauer Schwan aus der Physik, unerwartet (für den Autor) und beinahe exotisch, ist die Wirkung des Erdmagnetfelds auf das Klima, z. B. über die Lösbarkeit von Kohlendioxid in Wasser (Pazur 2008): Schwache Magnetfelder von Erdfeld-Stärke können wichtige Eigenschaften von Meereswasser verändern. Wir haben festgestellt, dass sich die Löslichkeit von Luft in Meereswasser um 15 % vermindert wenn das Magnetfeld von ‚normal‘ (50 μT) auf 20 μT zurückgeht. Die CO2 Löslichkeit verringert sich doppelt so stark.

Der resultierende magnetische Effekt ist viel geringer als der normale CO2Effekt, aber er verstärkt die Auswirkung. Für die Erdgeschichte jedoch könnte der Effekt Bedeutung haben. All diese Veränderungen stossen dann ihrerseits wieder Rückkopplungen an, deren Wirkung sich ausbreitet. Überall entstehen Verknüpfungen und Selbstverstärkungen. Dazu kommen die vom Menschen (und der Politik gemachten) Änderungen am Klima durch Einbringen von Treibhausgasen (GHG) und Aerosolen, durch den weiteren Landverbau oder, vielleicht auch, durch künstliches Entfernen von CO2, mittels Geoengineering (s. u.). Die Ozeane sind ein kritischer Teil des gesamten Erdsystems und riesiges Reservoir an Energie, aber auch an CO2. Eigentlich müsste unser Planet Wasser statt Erde heißen. Denn immerhin bedecken die Ozeane mehr als 70 % seiner Oberfläche. Das Klima des Planeten wäre ohne den Einfluss der Weltmeere grundlegend anders. Eröffnung eines Artikels im Magazin Geolino von geo.de.

Auch Ozeane sind, sogar bis in tiefe Meeresregionen, empfindlich auf die Konvektion durch die Dichteanomalie des Wassers. Es entstehen Strömungen, die angetrieben werden durch Temperaturunterschiede, durch verschiedenen Salzgehalt und insbesondere durch frisches salzloses Wasser etwa von schmelzendem Eis. Die Ströme mischen sich, produzieren Schleifen und Wirbel. Die Abb. 1.35 zeigt die Komplexität der Aufgabe durch die Ausbildung von Wirbeln und Wirbelstrassen. Die grundlegenden Bewegungsgleichungen einer Flüssigkeit nach Navier und Stokes sind bekannt, aber es fehlen noch viele Grössenordnungen an Rechengeschwindigkeit und Speicherplatz der Computer, um mit brutaler Computergewalt die Bewegungen so fein berechnen zu können, dass keine künstlichen Parameter mehr gebraucht werden müssen (Fox-Kemper 2019).

1  Einleitung und Geschichtliches: Von der Wärmelehre …     79

Abb. 1.35  Eine Simulation der Nordatlantikströmungen mit Turbulenzen Bild: geomar, Kiel.

Abb. 1.36  Ozean und Wolken Zwei schwer zu handhabende Bereiche für die Klimasimulation. Hier Wolken über dem Atlantik, Salvador Bahia. Bild: Clouds over the Atlantic Ocean, Wikimedia Commons, Tiago Fioreze.

Ein weiteres Problemfeld sind die Wolken (Abb. 1.36). Die Wolken sind flexible Objekte, die sich schnell verändern und die in der Zusammenwirkung aus den kleinen Teilchen der Aerosole bestehen. Wassertröpfchen, Eiskristalle oder anderes ergeben Wolken, die durch unterschiedliche Luftfeuchtigkeit, Windgeschwindigkeit und Temperatur in den verschiedensten Typen existieren: Man unterscheidet 4 Familien, 10 Gattungen mit vielen Arten, Unterarten und Sonderformen, die ineinander übergehen. Der Effekt auf das Klima kann dazu positiv oder negativ sein, abhängig vom Eis oder Wassergehalt der Wolke. Schon die dynamische Simulation eines lokalen Wolkengebiets ist sehr aufwendig, denn sie muss feinmaschig erfolgen. Eine Ausdehnung der Simulation auf die Wolken der Erde ist bisher nur näherungsweise möglich mit Parametern oder Durchschnittswerten.

80     W. Hehl

Der Bericht des IPCC, des Klimarats der UN, konsequent, recht wörtlich übersetzt (Flato 2013): Die Klimamodelle von heute sind im Prinzip besser als ihre Vorgänger. Jedoch wird mit jedem Bit hinzugefügter Komplexität zwar vermutlich beabsichtigt, einen Aspekt des simulierten Klimas zu verbessern, aber es werden damit auch neue mögliche Fehlerquellen eingebaut, z. B. durch unsichere Parameter, und es entstehen neue Wechselwirkungen zwischen den Modellkomponenten, die, vielleicht nur zeitweise, das Modell verschlechtern in Bezug auf andere Klimaeigenschaften. Dazu bleibt, trotz des gemachten Fortschritts, die wissenschaftliche Unsicherheit über die Einzelheiten vieler Prozesse. Diese Aussagen sind nicht überraschend. Es sind die Gesetze der Weiterentwicklung sehr grosser Softwaresysteme (die Lehmanschen Gesetze). Sie heissen ganz allgemein (Hehl 2016): • Software wächst laufend in der Komplexität. • Das Wachstum des Systems muss mit dem Aufbau an Kompetenz im Team Schritt halten, vice versa. • Die Qualität eines Softwaresystems reduziert sich im Laufe der Zeit durch die vielen Änderungen, es sei denn, man macht besondere Anstrengungen zur Verbesserung. Die Wissenschaftler und die meisten Softwareentwickler grosser Systeme sind stolz auf jede weitere implementierte Funktion. Nach Lehman besteht die Gefahr, dass damit ein System technisch verschlechtert wird bis hin zum Kollaps. Da die Simulation eine Abbildung der Natur ist, kommen hier noch die Probleme von falschen oder richtigen Wechselwirkungen zwischen den Funktionen und Prozessen hinzu. Die Abb. 1.37 illustriert den Aufbau von der Grundsimulation aus mit zunehmender Funktionalität (und Parametern und Komplexität). Gleichzeitig wurden die Zellgrössen wie in Abb. 1.33 verkleinert und damit die horizontale und vertikale Auflösung erhöht und der Rechenaufwand immens gesteigert. Es gibt noch viel zu tun, um das Weltklima zuverlässig zu simulieren. Es geht darum, einen grossen Teil der Physik, Chemie und Biologie von Atmosphäre und Ozeanen und Erdoberfläche in Software zu giessen. Trotzdem sind die Weltklima-Simulationen auch heute ein starkes Indiz für den Klimawandel. Und weil wir nicht sicher absehen können, was unsere Eingriffe in die Natur auslösen, sollte man eher vorsichtig sein. Die globale Erwärmung ist hier ein grauer Schwan mit vielen grauen Schwänen im Schlepptau wie etwa dem globalen Anstieg des Meeresspiegels.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     81

Abb. 1.37  Illustration zur Entwicklung der globalen Klimamodelle seit 1970 Zuwachs an Funktionalität und Codeumfang der Systeme ist symbolisiert durch die zunehmende Zahl von Software-Töpfen und deren Anwachsen in der Folge der Berichte. Bild: 5th Assessment Report of the IPCC, Work Group 1, Graphics, Fig. 1.13.

Das Auftreten eines schwarzen Schwans, z. B. ein Asteroideneinschlag oder der Ausbruch des Yosimite-Vulkans oder das Auftauchen von Methanclathraten in grossen Mengen (s. u.) lässt sich damit nicht simulieren. Wir schliessen den Abschnitt zur Geschichte der Klimatologie mit dem Ergebnis einer der ersten Simulationen, die den Energiefluss bereits im modernen Sinn modellierte. Es ist die Arbeit der beiden Klimatologen Syukuro Manabe und Richard Wetherland aus dem Jahr 1967. Die rudimentäre Weltkarte in Abb. 1.38 zeigt die 1967 berechneten Temperaturänderungen bei einer angenommenen Verdoppelung des CO2-Gehalts der Atmosphäre. Die Trends der Skizze ähneln bereits sehr der realen Entwicklung bis heute! Diese Simulationen erreichten als erste Stabilität und überzeugten durch die Konsistenz der Ergebnisse. Ihre Veröffentlichung Das thermische Gleichgewicht der Atmosphäre bei gegebener Verteilung der relativen Feuchtigkeit wurde 2015 von Klimatologen zum historisch wichtigsten Artikel ihrer

82     W. Hehl

Abb. 1.38  Eine Modellrechnung von Syukuro Manabe Die grobe Weltkarte zeigt die Temperaturveränderungen in einer gekoppelten LandOzean-Simulation nach verdoppeltem Kohlendioxid-Gehalt. Bild: Earthobservatory.nasa.gov/blogs/Earthmatters und Stouffer und Manabe, Nature, 2017.

Disziplin gewählt. Mit dieser Arbeit lässt sich auch der Zeitpunkt festlegen, seit dem es unter den Wissenschaftlern eine Übereinstimmung gibt, dass eine gefährliche, menschengemachte globale Erwärmung existiert. Diese Rechnungen gehören aus heutiger Sicht zu den grossen Leistungen der Wissenschaft im 20. Jahrhundert. Eine der wichtigsten Personen, die überzeugt wurden, war der amerikanische Geochemiker Wallace Smith Broeker (1931–2019), der den Ausdruck Global Warming 1975 popularisierte und der zu einem der ersten Evangelisten für den Kampf gegen Klimawandel wurde. Das Jahr 1975 war dabei für die Vorhersage einer globalen Erwärmung recht mutig. Es ist ja nach Abb. 1.14 gerade das Ende einer kleinen globalen Temperaturabnahme gewesen. Sein berühmtestes Zitat: The climate is an angry beast and we are poking it with sticks. Das Klima ist ein gereiztes Tier und wir stupsen es immer mit Stöcken.

Er schreibt dazu: Durch das Einbringen grosser Mengen von CO2 in die Atmosphäre stochern wir im Klimasystem herum und wissen nicht, wie es reagiert. Interview in Columbia College Today, 2012.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     83

Das besondere Augenmerk von Wallace Broeker galt dabei plötzlichen, katastrophalen Änderungen im Klimasystem, etwa der Umlenkung einer ozeanischen Strömung. Seine Forschungen wurden sogar zur Grundidee eines Spielfilms in einer bis zur Absurdität gesteigerten Form: The Day after Tomorrow (kein deutscher Filmtitel verfügbar). Allerdings geht es um eine plötzliche Abkühlung. Der Klimawandel bringt das arktische Eis zum Schmelzen und süsst damit das Meer aus mit leichterem Süsswasser. Die warme Strömung kippt und es ergibt sich die Kältekatastrophe. Von einem ganz anderen Aspekt der Klimamodellierung berichtete der amerikanische Physiker und Klimatologe Stephen Schneider (1945–2010). Er schrieb von der Pionierzeit um 1970: „Es war absolut aufregend für mich, dass ich da sitzen konnte an der Tastatur eines Lochstanzers, einen Stapel von Lochkarten herstellen und in meinen Händen die Fähigkeit zu haben, die Erde zu simulieren, verunreinigt oder nicht.“

Dieses kosmische Gefühl der Macht des Modellierers über das Klima und über die Erde ist leider nur virtuell.

1.3 Geschichte auf den Punkt gebracht Ich habe keine Ahnung von den Ursachen. Aber das weiss ich: Es hat jetzt Wasser, wo früher Eis war. Admiral Thad Allen, US Küstenwache, 2010.

Wir haben den geschichtlichen Zugang zum Verstehen der globalen Klimaänderung und der zugehörigen Wissenschaft gewählt. Die Grundlagen der Wissenschaft von der Wärme beginnen überraschenderweise mit Isaac Newton, der neben Gravitation und Optik auch hier Fundamente gelegt hat mit einer Temperaturskala, mit einem Abkühlungsgesetz, mit einem ersten thermosolaren Brennofen. Den Glashauseffekt (gezeigt vom Schweizer Horace de Saussure in der Höhe der Alpen) verwendet der Schwede Svante Arrhenius zur ersten Modellierung der Erde mit und ohne Kohlendioxid und zur Klimavorhersage. Im Zeitgeist der Jahrhundertwende zum 20. Jahrhundert sieht man das Problem eigentlich im Verbrauch der Güter Kohle und Erdöl und im zur Neige gehen der Vorräte (es ist ja die Epoche der Wärmekraftmaschinen). Die globale Erwärmung wird als freundliche Verbesserung des Klimas für die nordischen Länder betrachtet.

84     W. Hehl

Es ist nicht leicht, die globale Erwärmung der Oberfläche der Erde zu messen. Es handelt sich um ein statistisches Problem und ein Messproblem. Dabei ist es historisch um 1940 zu einem bemerkenswerten systematischen Fehler gekommen. Die Messgenauigkeit der globalen Temperatur ist etwa so gross wie der Jitter, die Schwankung der gemessenen Temperatur von Jahr zu Jahr. Wir teilen den Zeitraum von 1880 bis heute nach dem Verhalten der globalen Temperatur ein: Leicht steigend bis etwa 1945, leicht fallend zwischen 1945 und 1975 und kräftig steigend ab 1975. Die Zeit bis 1945 (Phase I) ist die Zeit des Wachsens der Wissenschaft; eine Änderung des Klimas ist kein Thema. In Phase II ist der Trend eher eine Abkühlung trotz des wohlbekannten wärmenden Treibhauseffekts. Grund ist der wachsende Ausstoss von Aerosolen durch Industrie und Verkehr. Aerosole und ihre Wirkung sind durch mehrere globale Abkühlungen nach Vulkaneruptionen wohlbekannt und im kollektiven Gedächtnis. Die Öffentlichkeit und die Wissenschaft sind gespalten in zwei Lager, in Eiszeit kommt oder globale Erwärmung kommt, in Coolists und in Warmists. Die industrielle Entwicklung hat die Richtung geklärt. Der Einbau von Filtern in Kohlekraftwerke hat den Eintrag von Aerosolen reduziert. Nun dominiert der unmaskierte Temperaturanstieg und kommt nach 1975 eindeutig als Signal aus dem Rauschen heraus. Wir wollen klare Beweise, klar wissenschaftlich, aber auch für jedermann verständlich. Wir finden sie und betrachten: 1. Die Hockey-Stock-Kurve der Temperatur. Die modernen Temperaturmessungen konvergieren auf eine Kurve dieser Form. 2. Die Keeling-Kurve der Präzisionsmessungen des CO2-Gehalts der Luft. Die Korrelation von Temperaturanstieg, Kohlendioxid-Konzentration und Industrialisierung ist eindeutig, eine Kausalität mit dem menschengemachten CO2 als treibende Substanz ist de facto eindeutig. Es ist eben nicht möglich, die Geschichte der Welt zurückzusetzen und zur Prüfung den Vorgang der Industrialisierung jetzt nur CO2-frei mit, z. B., nur Wasserkraft, laufen zu lassen. Als weitere Argumente wählen wir aus, was für jeden auch ohne wissenschaftliche Messungen oder Methoden greifbar ist: 3. Der weltweite Rückgang der Gletscher, besonders schmerzhaft hier in der Schweiz.

1  Einleitung und Geschichtliches: Von der Wärmelehre …     85

4. Die weltweite Zunahme an Wetterkatastrophen, nicht nur erfahrbar durch die Nachrichten, sondern persönlich durch extreme Hitzetage oder durch das Nichtgefrieren von Seen. Die Punkte 3) und 4) sind Alltagswissen und werden beinahe jeden Tag bestätigt. Das Eingangszitat des Admirals, der eisfreies Wasser vorfindet wo es früher Eis gegeben hat, gehört auch in diese Kategorie unmittelbarer Erlebnisse. Zur wissenschaftlichen Bestätigung dient die Methode der Experimente. Dazu reduziert man alle Freiheitsgrade eines Systems bis auf einen bestimmten, zu untersuchenden. Dies geht nicht mit dem Klima der Welt. Die Menschheit hat schon grosse Teilexperimente gemacht: Tetraäthylblei im Benzin, saurer Regen und Fluorkohlenwasserstoffe waren (oder sind noch) solche Versuche. Zum besseren Verständnis komplexer Vorgänge und innerer kausaler Abläufe gibt es eine Methode: Es ist der Bau des betreffenden Systems – hier des Weltklimas – im Computer Wir betrachten dies als möglichen wissenschaftlichen epistemologischen Beweis: 5. Die Simulation des Weltklimas. Allerdings ist dies eine schwierige Aufgabe, schon im Umfang der Rechnungen, aber vor allem durch die Vielfalt der verschiedenen Beiträge in Luft, Wasser und Boden, die noch nicht alle erfasst sind, und die zusammenwirken und rückkoppeln. Dazu kommen prinzipielle Unschönheiten (im Gegensatz etwa zu Wetterberechnungen) wie Parameter, die gewählt werden können, und Modellneigungen oder Eigenarten (sog. Biases), die von aussen korrigiert werden. Die Aufgabe der Simulation ist unglaublich schwierig und niemals endend. Selbst der Wahrscheinlichkeitsbegriff, in dem Resultate angegeben werden, ist problematisch. Natürlich sind die gezeigten grossen Trends der Modellierung der globalen Erwärmung und die treibende Kraft des wachsenden menschenproduzierten Kohlendioxids korrekt, aber es gibt noch viel zu tun, um die Simulationen quantitativ zuverlässig zu machen. Aber die Argumente 1 bis 4 reichen vollkommen aus, um die (menschengemachte) Erwärmung zu beweisen.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung

Im Medienstreit um den Klimawandel bleibt die Wissenschaft auf der Strecke. Artikel in der ZEIT Flotte Kurven, dünne Daten von Stefan Rahmstorf, 2002. Im ersten Teil betrachteten wir die Zeit von Newton bis heute; in diesem Teil wollen wir einige Punkte vertiefen, zunächst die unten stehende Frage.

2.1 Wann ist eine Aussage (pseudo-) wissenschaftlich? Global warming? There is probably no other issue today about which so many hold such strong views with so little firsthand knowledge. Globale Erwärmung? Es gibt heute wohl keine andere Frage mit solch festen Ansichten bei so wenig eigentlichem Wissen. Aus Die Pseudowissenschaft der globalen Erwärmung, Hoover Institution, Bruce Berkowitz, 2001.

Die Skala der Wissenschaftlichkeit Der Gedanke an menschengemachte globale Erwärmung hatte zu Beginn des Verdachts – auch noch zur Zeit des Zitats – verständliche AkzeptanzProbleme mit einem wissenschaftlichen Hintergrund. Das Signal der kommenden Erwärmung ging noch im Rauschen der Schwankungen der jährlichen Messdaten unter, in den Variationen der Temperatur wie in der Häufigkeit der extremen Wetterereignisse. Wir definieren diesen damaligen © Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 W. Hehl, Klimawandel – Grundlagen und Spekulation, https://doi.org/10.1007/978-3-658-35541-8_2

87

88     W. Hehl

Zustand mit einer wissenschaftlichen Härte 0 oder neutral. Allerdings mussten schon damals die gewaltigen Mengen an CO2, die Jahr für Jahr für Energieversorgung und Verkehr in die Atmosphäre geblasen wurden, beunruhigen; das CO2 war ja schon seit mehr als zweihundert Jahren als Treibhausgas bekannt. Eine Beschreibung mit 0+ für den Grad der Wissenschaftlichkeit der Hypothese einer globalen Erwärmung ist wohl präziser, datiert auf das Jahr 2001. Die Abkühlung wäre dann entsprechend von der Wissenschaftlichkeit Grad 0–gewesen. Die Ebene 0 (neutral) ist die Ebene der Ideen, die kommen und gehen, aber nicht a priori unsinnig erscheinen. Beispiele solcher Vorstellungen, die denkbar waren, aber doch nur Ideen blieben, waren etwa der Gedanke, dass die Krater auf dem Mond alle vulkanischen Ursprungs seien, oder dass es tropische Wälder auf der Venus gebe. Wir verwenden zur Veranschaulichung des Grades der Wissenschaftlichkeit nicht nur die Begriffe wissenschaftlich oder unwissenschaftlich, sondern benützen eine Skala mit sieben Stufen: 3 positive, 3 negative Einstufungen und neutral (Tab. 2.1). Von der neutralen Stufe geht der Lebensweg einer Idee nach oben, in den Wissenschaftsbetrieb, nach unten in die Unwissenschaftlichkeit. Die Ebene +1 ist die Phase ernsthafter wissenschaftlicher Arbeit nach wissenschaftlichen Methoden. Wissenschaft im schwachen Sinn1 ist die systematische Untersuchung einer Gruppe von Phänomenen mit dem Ziel, sie in ein etabliertes kausales Netz einzubauen.

Im günstigsten Fall wird die Idee in die Wissenschaft integriert und damit etabliert wissenschaftlich. Die schwächste Form der Integration ist ein menschlicher Konsens, am besten durch eine Gruppe von Menschen, die verschiedene Thesen vertreten. Dafür dient im Forschungsbereich der Peer-Review, die Prüfung durch gleichrangige Wissenschaftler. Zur Skala der Wissenschaftlichkeit nun drei Beispiele aus der Geophysik. Das dritte Beispiel ist unser Hauptthema, die globale Erwärmung.

1 Zum

Attribut schwach siehe unten; der Kern der Physik ist starke Wissenschaft.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     89 Tab. 2.1  Die Stufen der Wissenschaftlichkeit nach Hehl (2012). Eine Skala als Hilfsmittel zur Einordnung von Ideen, Lehren und Nachrichten.

Härte Bezeichnung

Charakteristik

Beispiele

+3

Fundamental wissenschaftlich

Relativitätstheorie, viele physikalischen Konstanten

+2

Etabliert wissenschaftlich

Gemessen mit hoher Präzision, verifiziert, integriert im Grundsystem Gemessen (ev. mit niedriger Präzision), im System integriert

+1

Transient wissenschaftlich

0

−1

−2

−3

Entfernung der Planeten und Fixsterne, Evolution und Vererbung, Kontinentalverschiebung Leben auf anderen Planeten, Pulsar ist ein rotierender Neutronenstern (1970)

Theorie oder Vorschlag im wissenschaftlichen System, aber noch nicht erfolgreich integriert Neutral Kein Widerspruch, kein Besucher von anderen Planeten, kalte Fusion Gegenbeweis, kein offensichtlicher Unsinn (1989), Kontinentalverschiebung (in 1911) Vulkanischer Ursprung der Mondkrater (ca. 1920) Astrologie, Heilsteine, Ausserhalb der Wissen- Kein Beweis, keine Kartenlegen, Spukschaft harte Widerlegung, häuser, Spiritismus, aber ausserhalb der Hase Harvey etablierten Wissenschaft Zeitmaschinen, TeleKontra-wissenschaftlich Kein Beweis und in kinese, Homöopathie direktem Widerspruch zur etablierten Wissenschaft ‒ aber bei Bestätigung Nobelpreis! Hohlwelttheorie, Als falsch Falschheit allgemein Venus als Tropenabgelegt akzeptiert paradies, Eingeweide und Leberschau als Prophetie (Hepatoskopie)

Beispiel: Kontinentaldrift Ein Beispiel des Wegs einer kurios erscheinenden Idee durch die Stufen und damit zum Erfolg ist diese Theorie aus dem Bereich der Geowissenschaften, die Vorstellung einer Verschiebung der Kontinente. Der deutsche Meteorologe und Polarforscher Alfred Wegener (1880–1930) hatte 1911 aus der

90     W. Hehl

Ähnlichkeit der Konturen von Afrika einerseits und Lateinamerika andrerseits geschlossen, dass dies ursprünglich ein einziger Kontinent gewesen war (Pangaea), der zerrissen wurde und jetzt auseinander driftete (Wissenschaftsebene 0). Er war nicht der erste mit diesem Gedanken; der französische Geologe Antonio Snider-Pellegrini hatte bereits 1858 den Trennungsvorgang skizziert (Abb. 2.1). Wegener wurde für diese Idee von einigen seiner Kollegen ausgelacht! Viele der zeitgenössischen Geologen waren Fixisten, die an feste Kontinenten glaubten, im Gegensatz zu den wegnerschen Mobilisten (Krill 2011). Alfred Wegener konnte mit eigenen Arbeiten, etwa mit dem geologischen Vergleich von Afrika und Lateinamerika sowie der Fossilien auf beiden Seiten des Atlantiks, die Wissenschaftlichkeit auf die Stufe +1, transient wissenschaftlich, heben. Erst 50 Jahre später wurde die Kontinentaldrift gemessen und die Idee wurde zu einer Lehre der Stufe +2, etabliert wissenschaftlich. Auf dem Weg von der Idee zur etablierten Lehre gab es viele Wissenslücken, etwa warum bewegen sich Kontinente überhaupt? Auch Fehler schlichen sich ein. So hat Wegener das Auseinanderdriften der Kontinente für hundert Mal schneller gehalten als er wirklich ist. (Abb. 2.2,2.3,2.4und2.6

Abb. 2.1  Der Kontinentaldrift Die historisch erste Illustration des Auseinanderdriftens der Kontinente von Antonio Snider-Pellegrini, 1858. Bild: Opening of the Atlantic, Wikimedia Commons, geoz 2005.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     91

Abb. 2.2  Charles Darwin, 1869 Aufnahme: Julia Margaret Cameron. Bild: Charles Darwin 01, Wikimedia Commons.

Abb. 2.3  William Thomson, um 1890 Geadelt 1892 zum Lord Kelvin. Aufnahme: Dickinson, London. Bild: Lord Kelvin Photograph, Wikimedia Commons.

92     W. Hehl

Abb. 2.4  Karl Popper, ca. 1980 Wissenschaftsphilosoph. Bild: Karl Popper, Wikimedia Commons, LSE Library.

Beispiel: Die Temperatur im Erdinneren Im Zusammenhang mit dem Driften der Kontinente gab es eine Streitfrage, die man auch schon als einen Streit zwischen Coolists und Warmistas bezeichnen könnte: Wird das Erdinnere kälter oder gar wärmer? Es ist ein Zwist im 19. Jahrhundert von der intellektuellen Dimension der Global Warming-Frage im 20. Jahrhundert, aber natürlich ohne die pragmatische, ja lebensbedrohende Bedeutung. Es ist reine Wissenschaft. Zur Zeit von Wegener war die Vorstellung vom Innern der Erde recht einfach: Man war Coolist. Man dachte, die ursprünglich heisse Erde kühlt sich langsam ab. Dabei kann es höchstens Schrumpfungsprozesse geben und keine Verschiebungen. Mit der Formel von Fourier für die Wärmediffusion hatte Lord Kelvin (Abb. 2.2) um das Jahr 1869 die Zeit der Entstehung der Erde auf 24,1 Mio. Jahre berechnet, und war damit zum gefährlichsten Gegner von Charles Darwin (Abb. 2.3) geworden. Diese kurze Zeit hätte weder für die Geologie und ihre Zeitalter noch für die biologische Evolution ausgereicht (in Wahrheit sind es auch viel mehr, nämlich etwa 4,5 Mrd. Jahre)! Es war ein Streit zwischen Parteien von sehr ungleicher Art, Lord Kelvin als messender, rechnender und ausserordentlich selbstsicherer Physiker einerseits, auf der anderen Seite die nicht so sicheren Geologen und Biologen mit ihren Schätzungen. Die falsche Berechnung des Erdalters durch Lord Kelvin hätte beinahe die Evolutionstheorie Darwins begraben. Darwin schreibt, die kurze Zeitangabe des Lord Kelvin wäre für ihn eine der grössten Sorgen gewesen, one of his sorest troubles. William Thomson

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     93

wurde zum Lord Kelvin of Largs geadelt, Darwin nicht. Vielleicht ist es tröstlich, dass Kelvin nur ein kleines Flüsschen in Glasgow ist, an dem sich die Universität befindet, und dass sie beide in der Westminster Abbey neben Isaac Newton begraben sind. In das Weltbild des Physikers Lord Kelvin dringen mehrere schwarze Schwäne ein: Die Erde hat im Innern eine quasiflüssige Konvektionszone, dazu einen festen Kern, und vor allem erscheint die Radioaktivität – 1896 mit der Entdeckung des Henri Becquerel. Der radioaktive Zerfall wurde überhaupt nicht vorhergesehen, es war eine Zufallsentdeckung gewesen ohne theoretischen Untergrund, ein wahrer schwarzer Schwan des Nassim Taleb. Aber es ist der Beginn der Kernphysik, die die Physik und die Welt verändern wird. Die Erde enthält radioaktive Elemente, vor allem Uran, Thorium und ein radioaktives Kaliumisotop, die beim Zerfall Wärme erzeugen und die Abkühlung verlangsamen. Diese innere Wärme hält die Erdkruste lebendig, verursacht den inneren Dynamo der Erde und damit das schützende Erdmagnetfeld. Etwa die Hälfte der von der Erde abgestrahlten (und damit verlorenen) Energie ist Restwärme von der Entstehung der Erde, die andere Hälfte der Energie entstammt der inneren Radioaktivität. In unserer Betrachtungsweise mit wissenschaftlichen Härtegraden war Lord Kelvin um 1870 auf Niveau +1 (er dachte mit seiner Autorität schon +2 zu sein). Darwin war zu dieser Zeit sicher Ebene +1, heute ist seine Lehre etabliert +2. Die Rechnungen des Lord Kelvin sind jetzt Anekdoten der Wissenschaftsgeschichte (entsprechend -3), die Lehre der Evolution von Darwin ist auch heute der Kern der Biologie und Ebene +2 geblieben, sogar zu 2+ . Die langsame und gebremste Abkühlung des Erdinnern ist schon wieder ein unglaublicher Effekt zugunsten der Entstehung von Leben, ein Beispiel für das anthropische Prinzip. Alles im Kosmos und auf der Erde ist so eingerichtet, dass es zu uns und dem biologischen Leben in unserer Form mit Proteinen führt: Der Sterntyp der Sonne, der Abstand der Erde zu ihr, die chemische Zusammensetzung der Erde, der Aufbau einer Sauerstoffatmosphäre und eines Erdmagnetfelds, usw. Auch die Existenz des ungewöhnlich grossen Monds hat unsere Erde stabilisiert. Wir stehen am Ende einer solchen positiven Kette und zerhacken sie vielleicht gerade. Darüber unten mehr. Mehr als ein Beispiel: Die Globale Erwärmung Der Härtegrad einer Aussage hängt von der Zeit ab und vom Wissen der Menschen zu dieser Zeit. Ein besonders treffendes Beispiel ist unser Thema,

94     W. Hehl

der Klimawandel. Auch hier ist das Rating der Thesen, der Fragen und Antworten zur globalen Erwärmung eine Funktion der Zeit. Wir betrachten drei Epochen: die Beurteilung zu Beginn der Bewegung um 1896, den Stand um etwa 1975 in der Zeit der Unsicherheit, aber schon guter Technik, und die heutige Situation (2021). Wir haben drei zentrale Aussagen verschiedenen Typs: • Die durchschnittliche Temperatur der Erdoberfläche erhöht sich zurzeit. • Die Änderung der globalen Temperatur ist von menschlichen Aktivitäten verursacht. • Wir stehen vor einer globalen Erwärmung von gefährlichem Ausmass für die Menschheit. Die Arbeiten und Ideen von Svante Arrhenius um 1900 sind umfassend und seine Aussagen sind im Zeitgeist sinnvoll. Vieles ist gemessen und berechnet und im Kern korrekt. Nehmen wir die Ergebnisse von Arrhenius als Stand der Wissenschaft, so sind seine Betrachtungen gute Forschung der Zeit; die beiden ersten Aussagen sind transient wissenschaftlich +1. Die dritte Aussage, eine kommende Katastrophe, wäre eine mögliche Spekulation gewesen, also neutral oder Härte 0. Im Jahr 1975 ist die Frage des globalen Temperaturanstiegs nicht wissenschaftlich zu entscheiden. Es ist keine klare Entscheidung möglich zwischen Stillstand, Anstieg oder Abnahme. Aber es ist klar, dass CO2 ein Treibhausgas ist und dass in jedem Jahr mehr als 3 Mrd. t. (3 Gigatonnen) Kohle in die Atmosphäre gehen, das entspricht 11 Mrd. t. CO2. Globale Erwärmung und menschliche Verantwortung bleiben bei wissenschaftlich transient. Es tauchen Visionen von Klimakatastrophen auf, aber es sind Spekulationen, also hier noch Härte 0. Roger Revelle, der Vater der globalen Erwärmung und Balzan-Preisträger für Ozeanographie und Klimatologie, schrieb noch 1982 in den Briefen an den Herausgeber des Scientific American: Wir müssen zugeben, dass es beträchtliche Unsicherheit und Meinungsverschiedenheiten im Ausmass der klimatischen Effekte des gestiegenen atmosphärischen CO2 geben wird, solange der Trend der Erwärmung nicht das Niveau des Rauschens der natürlichen Klimafluktuationen deutlich übersteigt.

Aus heutiger Sicht ist die Erhöhung der Temperatur unbestritten (siehe auch Gletscher und Katastrophen als unabhängige Beweise) und +2. Die

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     95

kausale Herkunft ist nicht direkt nachweisbar, aber wird durch Simulationen und durch Korrelation mit dem menschlichen Ausstoss an CO2 dringend nahegelegt; eine 2– scheint angemessen. Nach den Klimasimulationen ist praktisch die ganze Temperaturerhöhung menschenverursacht. Für die Menschheit ist die Zukunft des Klimas lebenswichtig. Aber hier reduzieren wir die Sicherheit auf +1 – denn es geht um die Zukunft und es ist zweifelhaft, ob die Simulation umfassend und zutreffend genug ist, um sinnvoll zu bleiben. Die Simulationen haben ganz sicher einen beschränkten Gültigkeitsbereich. Dazu müssen alle Gesetze in der Zukunft ihre Gültigkeit bewahren (bei den physikalischen Gesetzen selbst kein Problem), aber auch alle Annahmen und vor allem die eingebauten Näherungen. Das ist ein prinzipiell bekanntes Problem. Die beiden Grundkurven der Klimaerwärmung, der Hockey-Stick der Temperatur und die Keeling-Kurve des CO2-Gehalts der Luft, sagen auch etwas zur Zukunft aus. Es geht um die Atmosphäre und um die Ozeane und damit um gewaltige Massen und um eingeleitete globale schwergewichtige Prozesse, inbegriffen die Umstellung der menschlichen Gesellschaft. Es ist eine wissenschaftlich gute Annahme, dass man zumindest kurzfristig linear extrapolieren kann. Aber es könnte auch Erkenntnisse geben, die alles umwerfen. Ein grosses Fragezeichen ist hier zum Beispiel die sogenannte Sättigung der Absorption, die von einigen randständigen, aber professionellen Physikern vertreten wird (Happer, 2020, s. u.). Das wäre ein heilbringender schwarzer Schwan der Klimatologie! Wie wissenschaftlich ist Klimamodellierung? Es gibt auch Stimmen, die grossen Teilen der Klimaforschung aus philosophischem Prinzip die Wissenschaftlichkeit absprechen, etwa im Sinn der Kriterien des österreichisch-britischen Philosophen Karl Popper (1902– 1994, Abb. 2.4). Popper betrachtet das System der Wissenschaft als wachsend mit neuen Experimenten und neuen Hypothesen, die immer wieder widerlegt oder falsifiziert werden. Die Möglichkeit, eine Aussage widerlegen zu können, bestimmt für Popper die Demarkationslinie zwischen Wissenschaft und Unwissenschaft. Seine berühmte Maxime ist: Insofern sich eine wissenschaftliche Aussage auf die Realität bezieht, muss sie falsifizierbar (widerlegbar) sein. Wenn sie nicht falsifizierbar ist, dann ist es keine Realität. Aus: Logik der Forschung, 1959.

96     W. Hehl

Dies ist prinzipiell ein guter Ansatz, allerdings nur für einfache und einzelstehende Fragen. Die Methode der Falsifikation nützt die Asymmetrie aus zwischen Wissenschaft und Unwissenschaft: In der Wissenschaft ist schon ein Test, der nicht bestanden wird, ein Problem. In der Unwissenschaft, etwa bei der Flachen Erde, betont man typischerweise einen Aspekt, z. B. man sieht keine Krümmung des Horizonts, und ignoriert schwierige Problemfälle wie Masten von sich nähernden Schiffen tauchen zuerst hinter dem Horizont auf oder bei einer Mondfinsternis sieht man einen runden Schatten. In der Klimaforschung haben wir gegenüber einer Falsifikations- oder auch einer Konfirmationsmethode drei grosse eingebaute Probleme: • Unsere Erde ist für uns einmalig. Wir können das Experiment nicht neu aufsetzen und wiederholen. • Die Erde ist für uns Menschen in der Handhabung sehr, sehr gross. • Das Klima ist ein komplexes System, d. h. ein enger, zusammenhängender und rückgekoppelter Verbund. Im System des irdischen Klimas und seiner Modellierung wirken die Energieströme der Sonne in den Meeren und der Atmosphäre und bewegen die Ströme von Stoffen wie Wasserdampf und Kohlendioxid. Alles ist komplex mit den globalen Wettermustern verbunden. Der bekannte Spruch sagt es: Wir haben nur eine Erde, wie haben keinen Planeten B.

Wir haben mit der einen Erde auch nur einen Zeitlauf vor uns, mit und auf ihr, nur das eine Experiment. Die Erde ist zu gross, um leicht mit ihr zu experimentieren. Das Einbringen von grossen Mengen von Kohlenstoff in die Atmosphäre ist ja auch kein eigentliches Experiment im Sinne eines Tests, der eine Hypothese durch einen willkürlichen, aber beendbaren Versuch bestätigen oder ablehnen will und dann wieder alles zurücklässt wie vorher. Die Wissenschaftlichkeit der Modellierung von Systemen aus vielen Komponenten ist ein bekanntes philosophisches Problem, wenn auch manchmal mit anderer Terminologie. So sprechen Philosophen oft von Systemen der Wahrheit oder Truth oder vérité – Wahrheit ist ein Begriff, der in der Physik nicht benützt wird. Der französische Physiker und Wissenschaftsphilosoph Pierre Duhem (1861–1916) schrieb zum System der Wissenschaft, aber passend auf ein eng gekoppeltes System wie ein Klimamodell:

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     97

Die Übereinstimmung mit der Erfahrung ist das einzige Kriterium der Wahrheit für eine physikalische Theorie [wie für ein Systemmodell]. Das einzige, was uns ein Experiment lehrt, neben all den unmittelbaren Voraussetzungen zur Vorhersage des Phänomens und zur Feststellung, dass es das Phänomen nicht gibt, ist, dass es mindestens einen Fehler gibt, aber wo der Fehler liegt, gerade das sagt das Experiment nicht. Ziel und Struktur. La théorie physique, son objet et sa structure, 1906/1914. Duhem war ein extremer Rationalist, der zu seiner Schande die Einsteinsche Relativitätstheorie als zu abstrakt ablehnte. Ähnlich skeptisch war er zu James Clerk Maxwell, dessen Werk heute als genialer Griff auf die Zukunft der Physik angesehen wird; Duhem fand es zu revolutionär. Trotzdem hat er mit seiner holistischen Sicht, d. h. mit seinem ganzheitlichen Systemgedanken, in der Wissenschaft Recht. Der Physiker Henri Poincaré hat ein eindrückliches und recht bekanntes Analogon formuliert: Man stellt die Wissenschaft [das Weltklimamodell] aus Tatsachen her, wie man ein Haus aus Steinen baut; aber eine Anhäufung von Tatsachen ist so wenig eine Wissenschaft, wie ein Steinhaufen ein Haus ist. Wissenschaft und Methode. Science et Methode. 1914/1905.

Wir können die obigen Aussagen an die Vorstellung der Klimamodellierung anpassen. Die enthaltene fundamentale Physik ist in sich sicher. Wachsend unsicher sind die Prozessannahmen, d. h. die Verbindungen, und die eingesetzten Näherungen. Aber der Simulierende hat einen grossen Vorteil gegenüber dem Forscher in der Realität. Er kann einzelne Effekte und Funktionen in der Software verändern, ja ganz herausnehmen, Verknüpfungen ändern und die Welt neu loslaufen lassen. Simuliert man rückwärts in die Vergangenheit bis zur Gegenwart und vergleicht mit den wirklich beobachteten Effekten, so erhöht sich das Vertrauen in die Güte der Simulation. Vielleicht das wichtigste Beispiel zeigt die Abb. 2.5, bei dem der menschengemachte Einfluss auf die Erdtemperatur einmal inbegriffen ist, ein andermal ausgeschlossen wird. Mehr Information zur Grafik in Knutson, 2017. Aber hier geht es nicht darum, ob die globale Erwärmung wahr ist (das haben wir bewiesen), sondern um die Frage, ob die Simulation wissenschaftlich ist. Was fehlerhaft und unwissenschaftlich sein könnte, wäre etwa • eine nicht-neutrale Implementierung eines physikalischen Effekts; • ein Fehler in der Auffassung oder der Implementierung eines Effekts; • eine noch nicht erkannte Wärmequelle oder Senke.

98     W. Hehl

Abb. 2.5  Gemessene und simulierte Temperaturen der Erdoberfläche Simulierte Aufspaltung der Temperaturerhöhung in einen anthropogenen und einen Naturteil. Gemessene Temperaturen nach NASA, menschengemachte und natürliche Beiträge nach NAC4. Bild: Global Temperature and Forces, Wikimedia Commons, Efbrazil.

Abb. 2.6  Die Erde als blasser Fleck Das Bild der Erde aus 6 Mrd. km Entfernung. Die Erde hat nur die scheinbare Grösse von etwa einem Achtel eines Pixels. Der Punkt der Erde ist in der Mitte des Bilds positioniert. Bild: Earth as Pale Blue Dot(7938153784), Wikimedia Commons, NASA Goddard Space Flight Center.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     99

Naturgemäss gehört Vertrauen zur Simulation. Vertrauen entsteht durch die Verwendung fundierter wissenschaftlicher Grundlagen, durch gute Kenntnisse von Physik, Chemie, Biologie und Systemprinzipien, und durch die fortwährende Kommunikation mit anderen Gruppen. Auch für die Wissenschaft mit Grosssimulationen und auch für die Wissenschaft vom Klimawandel gilt die Aussage des Astronomen und Autors Carl Sagan (1934–1996): [Wissenschaft] ist nicht vollkommen. Sie kann missbraucht werden. Sie ist ein Werkzeug, aber es ist das beste Werkzeug, das wir haben, selbst-korrigierend, immer weiter arbeitend, anwendbar auf alles.

Wissenschaft oder Pseudowissenschaft Ich bleibe dabei, es gibt viel mehr Wunder in der Wissenschaft als in der Pseudowissenschaft. Und dazu, was der Ausdruck auch bedeuten mag, hat die Wissenschaft den zusätzlichen Vorzug, und der ist nicht unbeträchtlich, wahr zu sein. Carl Sagan, amerikanischer Astronom und Autor, Schlussbemerkung bei einer CSICOP (Skeptiker) Konferenz, Pasadena, 1987.

Der früh verstorbene Carl Sagan hat eindrucksvolle Bücher geschrieben und schon vor mehreren Jahrzehnten mit seinen Worten den Nerv unserer Zeit getroffen. Eine Aktion von Sagan war die Anregung, die Kamera der Raumsonde Voyager I in etwa 6 Milliarden km Entfernung von der Erde (etwa 40-fache Erd-Sonnen-Entfernung) nach dem offiziellen Forschungsprogramm auf Sonne und Erde zu richten. Es entstand eines der gefühlvollsten Bilder der Menschheitsgeschichte (Abb. 2.6), es ist beinahe esoterisch. Der weissliche Punkt enthält unsere Erde mit allen Problemen. Die globale Erwärmung war von Anbeginn ein Streitfall zwischen Wissenschaft und Pseudowissenschaft. Zunächst vor allem war die Wissenschaft vom Klimawandel die erklärte Pseudowissenschaft; das obige Zitat vom Hoover Institute ist ein Zeugnis dafür. Der Artikel heisst direkt die Pseudowissenschaft der globalen Erwärmung. Heute sind die Positionen weitgehend umgekehrt und Artikel zu Pseudowissenschaft lauten etwa so: Acht pseudowissenschaftliche Behauptungen widerlegt durch echte Wissenschaftler. (Holland 2014).

100     W. Hehl

Mit der Skala der Wissenschaftlichkeit definieren wir Wissenschaft präziser: Wissenschaft im schwachen Sinn ist eine zusammenhängende Menge von Lehren der Ebene +2 und +1 zu einem Wissensgebiet.

Entsprechend lässt sich Pseudowissenschaft definieren: Pseudowissenschaft ist eine zusammenhängende Menge von Lehren mit mindestens einer wesentlichen Komponente der Ebene 0 und tiefer, aber insgesamt als Wissenschaft deklariert.

Die Möglichkeit einer Falsifikation ist zu schwach als Kriterium für Pseudowissenschaftlichkeit. Viele Anhänger von solchen Lehren behaupten, dass es die Falsifikation in und zu ihrer Lehre gibt und dass die Lehre sogar die Prüfung besteht. Ein Beispiel ist die Astrologie, sicher eine Pseudowissenschaft. Unser Liebesleben oder die Aktienkurse haben nichts mit dem realen Mond oder der realen Venus zu tun. Aber noch Galilei hielt es für eine bestätigte Wissenschaft. Er gab für Mediziner Vorlesungen in Astrologie und erstellte Horoskope für seine Kinder. Das häufige astrologische Argument, die Sterne geben nur Aussichten an und nicht feste Daten, ändert nichts. Es gibt auch keine kausale Beziehung der Planeten zu Wahrscheinlichkeiten. Auch hier wird kein Astrologe eine Falsifikation sehen. Dazu kommt ein ganzes Lehrgebäude mit repräsentativer Software, farbigen Diagrammen, mit Akademien und einem Gewerbe, das die Pseudowissenschaft komplettiert. Beim Vorwurf der Pseudowissenschaft bei den wissenschaftlichen Aussagen zur Erwärmung geht es nicht um eine eigenständige Pseudowissenschaft, sondern es geht um die Ablehnung der Behauptungen. Sowohl Klimawissenschaftler wie Klimawandel-Skeptiker werfen einander Unwissenschaftlichkeit vor. Das vorliegende Buch versucht als ehrlicher Makler die wissenschaftliche Seite zu demonstrieren. Wir haben fünf Hauptargumente ausgewählt: • Zwei wissenschaftliche Messungen (Hockey-Stock und Keeling-Kurve). • Zwei wissenschaftlich-handfeste Beobachtungen (Gletscher, extreme Wetterverhältnisse. • Die Simulation, die alles zusammenfasst und die Zukunft ergeben soll.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     101

Die Bewertung dieser Argumente gibt vier Mal eine +2, für die Simulation ein +1 bis +2. Damit ist die wissenschaftliche Seite geklärt. Aber für den Menschen ist es nicht so einfach, von einer angenehmen Meinung, dass alles gut sei, auf eine unbequeme Ansicht umzuschwenken. Es ist überhaupt nicht einfach, seine Ansicht zu ändern. Zu beobachten ist hier oft die Wirkung des soziologischen Planckschen Prinzips: Eine neue wissenschaftliche Wahrheit triumphiert nicht, indem sie ihre Gegner überzeugt und sie das Licht sehen lässt. Sondern dadurch, dass ihre Gegner schliesslich sterben und eine neue Generation aufwächst, die es kennt. Max Planck, deutscher Physiker, rückübersetzt, in der Wissenschaftlichen Autobiographie, 1950.

Hier sagt das Prinzip aus, dass die akzeptierte Meinung auch in der Wissenschaft nicht allein von der Wahrheit abhängt. Was die persönliche Meinung betrifft, ist sie oft eine irrationale Erscheinung, bestimmt durch die bisherige Identität. Es ist tröstlich, dass das Plancksche Prinzip, dessen Wirkung ja ein halbes Jahrhundert benötigen kann, auch Ausnahmen kennt. Die Darwinsche Evolution ist so eine Ausnahme gewesen. Die Akzeptanz der Kontinentalverschiebung war sogar schneller bei älteren Wissenschaftlern als bei jungen. Aber beim Klimawandel ist es anders: Viele Gallionsfiguren der Klimaskeptiker sind ältere, arrivierte Männer. Die Idee einer möglichen Klimaerwärmung gibt es seit 1896. Allerdings gibt es aus der Sicht der exakten Wissenschaften wie Physik und Chemie häufig eine Unschönheit in den Arbeiten zur globalen Erwärmung: Angaben sind unter dem Druck, präzise zu sein, von atemberaubender Genauigkeit (und ohne geschätzte Fehlergrenzen). Ein Zahlenbeispiel aus einem Buch zum Energieverbrauch (Hashimoto, 2019): Der Weltverbrauch an Primärenergie wuchs zwischen 1980 und 2015 um den Faktor 1,01861.

Diese Präzision ist nur rechnerisch, die zugrunde liegenden Zahlen des globalen Verbrauchs selbst sind wohl typisch eher nur auf das Prozent genau, und auch hier könnte man sagen der Verbrauch wuchs um etwa 2%. Wir geben hier Zahlenangaben deshalb auch häufig mit weniger Ziffern an als in der Literatur angegeben.

102     W. Hehl

Wissenschaft fundamental Das Wunder, dass die Sprache der Mathematik so für die Gesetze der Mathematik geeignet ist, ist ein wunderbares Geschenk, das wir weder verstehen noch verdienen. Eugen Wigner, ungarisch-amerikanischer Physiker und Nobelpreisträger, aus: Die unerklärliche Effizienz der Mathematik, 1960.

Noch eine kurze Erläuterung zur Wissenschaft der Härte +3: Hier geht es um den Kern der Physik und um Beziehungen und Messwerte höchster Präzision. Einige fundamentale Messungen (oder umgekehrt Definitionen) liefern Werte mit 15 oder gar 16 Stellen Genauigkeit! Mit dieser Genauigkeit werden auch Beziehungen über Dutzende von Grössenordnungen hinweg befolgt, im Kosmos im Grossen wie in der Welt der Elementarteilchen. Jede eventuelle neue Theorie kann das bisherige Gebäude nicht umwerfen, sondern nur ergänzen – so wie die Lehren Einsteins die Mechanik Newtons nicht falsch machten, sondern zu einem Grenzfall für nicht zu hohe Geschwindigkeiten und schwache Gravitationsfelder. Diese Genauigkeit rührt von der engen Verbindung von Physik und Mathematik her. Dies ergibt die wissenschaftlichen Fundamente in der Sicherheit +3: Wissenschaft im starken Sinn, d.  h. Ebene +3, ist die geschlossene mathematische Abbildung der Welt in beliebiger Genauigkeit (d. h. so präzise man messen kann) im Grossen, Kosmischen, wie im Kleinen, der Teilchenwelt.

Natürlich ist Mathematik vom Menschen gemacht, aber manche Mathematik ist fest mit der Natur verbunden – hier passt besser die Beschreibung entdeckte Mathematik als erfundene Mathematik. Umgekehrt folgen dann immer wieder Entdeckungen in der Natur aus der menschengemachten Mathematik heraus. Keine alltägliche Wissenschaft kann derartige Sicherheit erreichen, keine Wirtschaftswissenschaft und insbesondere keine Geisteswissenschaft. Zwar wird in diesen Wissenschaften auch Mathematik verwendet, aber sie ist nur äusseres Hilfsmittel und nicht Kern. Diesen Systemen geben wir im wissenschaftlichen Fall bestenfalls eine Härte von +2.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     103

2.2 Warum ist Sauerstoff kein Treibhausgas, Wasserdampf schon? Cyanobakterien, auch als blau-grüne Algen bekannt, haben vor 2,5 Mrd. Jahren begonnen, Sauerstoff in die Atmosphäre zu pumpen als Abfallprodukt der Photosynthese. Accuweather, globale Wetteragentur, 2020.

Wir haben schon gezeigt, dass der Begriff Treibhauseffekt eine schiefe Wortbildung ist und die Physik verdreht. Nur das Resultat, die Erwärmung, ist korrekt. Die Erwärmung erfolgt beim klimatischen Treibhauseffekt in der Gasatmosphäre selbst und dann beginnt der Prozess der Klimaänderung. Der Energiestrom von der Sonne kann viele Kilometer durch Luft hindurch gehen, ohne wesentlich geschwächt zu werden. Was ist beim Sauerstoff anders als bei Treibhausgasen, etwa dem Kohlendioxid? Dazu müssen wir uns ansehen, was Wärme in Materie bedeutet. Wärme ist Bewegung der kleinsten Teilchen der Materie, der Atome und Moleküle. In Festkörpern ist die mögliche Bewegung der Atome oder Moleküle ein Zappeln im Verbund mit den Nachbarn. Es wirkt so, als gäbe es zu den Nachbarn Federn, vor allem zu den nächsten Nachbarn. Die Atome oder Moleküle im Festkörper spannen und drücken die Federn bei der Zitterbewegung, je wärmer, desto heftiger. Anders bei Gasen: Hier sind die kleinsten Teilchen, Atome oder Moleküle, frei und fliegen durch den Raum, stossen sich unter normalen Bedingungen gegenseitig viele Millionen Mal in der Sekunde und prallen an Gefässwände und werden reflektiert. Je wärmer das Gas, je schneller das Chaos. Die mittlere Bewegungsenergie pro Atom oder Molekül wächst linear mit der Temperatur. Umgekehrt lässt sich damit die Temperatur definieren. Die Natur verteilt dabei die Energie im thermischen Gleichgewicht auf jede Bewegungsmöglichkeit (jeden Freiheitsgrad): • Ein einzelnes Atom hat drei prinzipielle Richtungen frei, es sind die Verschiebungen oder Translationen. Rotationen als System sind in sich sinnlos, da hier keine Bewegung der Kerne (die die Masse tragen) zu beobachten ist. Die Edelgase wie das Argon in der Atmosphäre sind Einzelatome. • Ein zweiatomiges Molekül hat dieselben drei Richtungen, dazu zwei Rotationsmöglichkeiten (um die Längsachse und senkrecht dazu als

104     W. Hehl

Hantel) und die Möglichkeit einer Schwingung der beiden Atome gegeneinander, als wären sie mit einer Feder verbunden. • Die wichtigen Atmosphärengase Sauerstoff (O2) und Stickstoff (N2) sind diatomar, aber auch z. B. Chlor (Cl2). • Dreiatomige Moleküle können in der Ruheposition entweder eine Linie bilden wie das CO2-Molekül oder der (nicht in der Atmosphäre enthaltene) Cyanwasserstoff HCN, oder sie bilden einen Winkel wie das Wassermolekül H2O. Die Erde strahlt zum einen sichtbares Licht ab, die Rückstrahlfähigkeit oder die sog. Albedo, das eigentlich noch Sonnenlicht ist und von einem Körper der Temperatur 6000 K stammt. Zum anderen ist die Erde ein warmer Körper mit 300±40 K Temperatur. Dessen Wärmestrahlung ist aber Infrarot. Deshalb ist das Verhalten der Gase in der Atmosphäre wichtig: Ist die Atmosphäre für infrarotes Licht durchlässig oder nicht? Entscheidend für mögliche Absorption sind die kleinsten Energiemengen, die ein Atom oder Molekül überhaupt irgendwie anregen können. Ein Photon sichtbares Licht hat etwa 1,6 (rotes Licht) bis 3,3 (violettes Licht) Elektronenvolt Energie. Beim für die Abkühlung der Erde wesentlichen infraroten Licht ist die Energie der Photonen etwa ein Zehntel bis zu einem Hundertstel davon. Mehr dazu unten. Solche Energien können noch keine Elektronenzustände ändern, aber sie können, wenn physikalisch erlaubt, die Moleküle zum Rotieren oder zum Schwingen bringen. Damit infrarotes Licht dies tun kann, braucht das Licht (das ja eine elektromagnetische Welle ist) einen elektrischen Hebel an den Molekülen. Die Moleküle müssen elektrisch zu spüren sein. Der Hebel liegt vor, wenn im neutralen Molekül die inneren elektrischen Ladungen etwas verschoben sind, also ein elektrisches Dipolmoment haben, oder sich bei der Schwingung oder Rotation verschieben und ein Dipolmoment entsteht. Das zweiatomige Sauerstoffmolekül (Abb. 2.7 a) kann sich zwar strecken und zusammenziehen, als wäre eine Feder zwischen den Kugeln. Die Eigenfrequenz ist bei etwa 75 TeraHz entsprechend 4,85 μm Wellenlänge, die Distanz im Mittel 121 Pikometer. Es behält aber ungestört seine Symmetrie und absorbiert deshalb nicht auf dieser Frequenz. Entsprechendes gilt für das Stickstoffmolekül N2. Beides sind keine Treibhausgase für die Erde. Anders das dreiatomige Wassermolekül (Abb. 2.7 b). Es hat zwei Bindungen mit einer Bindungslänge von 95.8 pm, die einen Schenkel mit dem Winkel 104,5°bilden. Der Schwerpunkt des Moleküls ist 6.6 pm vor dem Sauerstoffatom gelegen. Da die Sauerstoffseite des Moleküls elektrisch negativ ist und die Wasserstoffseite positiv (d. h. etwas mehr Elektron beim

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     105

a) O2

b) H2O

Abb. 2.7  Modelle zweiatomiger und dreiatomiger Moleküle a) Das Sauerstoffmolekül kann durch Dehnungen und Stauchungen der Doppelbindungen schwingen, als wäre eine Feder zwischen Kugeln.b) Das Wassermolekül hat zwei Streckschwingungen und eine Schwingungsform mit Biegungen der Schenkel. Die Länge der Wasserstoff-Sauerstoff-Bindungen beträgt 95.8 pm, der Winkel der Schenkel ist 104,5°.

Sauerstoffkern ist), können die Schwingungen leicht angeregt werden. Aus der Abbildung folgen drei mögliche Typen von Schwingungen: Ein symmetrisches Pulsieren der Wasserstoffatome, ein antisymmetrisches Hin-undHer, und ein Schwingen der Ärmchen, die symmetrische Biegeschwingung. Diese Schwingung ist am weichsten und absorbiert Infrarot von 6,30 μm Wellenlänge. Die anderen Moden liegen um 2,77 μm und 2,66 μm. Insgesamt ist Wasserdampf durch diese Schwingungen und durch die hohe Konzentration in der Luft, nämlich zwei bis drei Grössenordnungen höher als das CO2, das wichtigste Treibhausgas. Aber es verhält sich im System ganz anders als CO2, da der Wasserdampf in der Luft ja an sehr grosse Wasserreservoire eng gekoppelt ist, so an die Ozeane, an die Wolken mit Wassertröpfchen und Eiskristallen und an die Schnee- und Eismassen von Arktis, Antarktis und von den Gletschern – solange vorhanden. Hintergrundinformation

Noch ein Nachtrag zum Sauerstoff. Sauerstoff wirkt damit nicht als Treibhausgas, aber es gibt doch eine starke Absorption durch Sauerstoffmoleküle. Diese Absorption findet bei 60 GHz, also im Millimeterwellenlängenbereich statt, weit weg vom Maximum des irdischen Infrarots und damit weit weg von wesentlichen Klimabelangen.2 Die starke Absorption wird technisch ausgenützt, um gerade für dieses Band Nachrichtengeräte zu bauen. Die hohe Absorption bei dieser Frequenz schränkt die Reichweite der gesendeten Strahlung bewusst ein und macht die Übertragung hochsicher.

2 Ursache

sind Feinstrukturübergange im Grundzustand des Sauerstoffmoleküls.

106     W. Hehl

2.3 Kohlendioxid: Gift, Lebenskraft und Treibhausgas Alle Dinge sind Gift, und nichts ist ohne Gift; allein die Dosis machts, daß ein Ding kein Gift sei. Paracelsus Bombastus von Hohenheim, Schweizer Arzt (1493–1541), aus Die dritte Dimension wegen des Schreibens der neuen Rezepte, Septem Defensiones, 1538.

2.3.1 Kohlendioxid: Das freundliche Gas E 290 Kohlendioxid: Treibgas, Aufschäummittel, Extraktionslösungsmittel, Säuerungsmittel, Konservierungsstoff und Tiefgefriermittel. Aus: Lexikon der [Lebensmittel] Zusatzstoffe.

Kohlendioxid ist in mehrfacher Hinsicht Freund und Feind. Die irdischen Lebewesen, insbesondere wir Menschen, bauen sich aus Eiweissen auf, mit Proteinchemie. Über (andere) Tiere und Pflanzen beziehen wir es letzten Endes aus gasförmigem CO2. Das wesentliche, struktur- und vielfaltgebende Element des Lebens ist der Kohlenstoff; kein anderes chemisches Element erlaubt es, relativ leicht eine solche Vielfalt von Verbindungen zu bauen wie der Kohlenstoff. Es gibt Versuche, mit Hilfe von Mikroben aus CO2 synthetisch Proteine zu erzeugen als probiotische Nahrungsproduktion. Kohlendioxid ist unter normalen Bedingungen ein Gas. Unter -78,5°C wird es fest zu Trockeneis. Es sublimiert beim Erwärmen, d. h. es geht direkt in die Gasphase über. Kohlendioxid wurde als erstes bewusst beobachtet vom flämischen Naturforscher Johan Baptista van Helmont (1580–1644), der Holzkohle verbrannte und dabei die Entstehung eines Gases annahm, das er Waldgeist nannte (spiritus sylvestre) oder Gas (dieses Wort hat er auch erfunden nach der niederländischen Aussprache des griechischen Chaos). Bisher hatte es ja nur Luft gegeben, keine anderen reinen Gase! Und Luft wurde als grundlegendes Element angesehen. Daneben gab es noch ab 1766 Wasserstoff, die brennbare Luft, und dann ab etwa 1774 Sauerstoff, die Feuerluft. Der nächste Name für das CO2 war fixe (d. h. verfestigte) Luft. Da sich CO2 in Wasser löst mit säuerlichem Geschmack bei leicht antiseptischer Wirkung, hatte der englische Chemiker Joseph Priestley 1772 eine Produktionsanleitung geschrieben für die Imprägnierung von Wasser mit verfestigter Luft, ursprünglich in der Hoffnung, ein Medikament gegen Skorbut zu haben.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     107

Priestley war Mitentdecker des Sauerstoffs (O2) und Entdecker von Lachgas (N2O). Aber die Methode zur Herstellung von karboniertem Wasser bezeichnete er als seine glücklichste Entdeckung. Priestley wollte damit Geschmack und Wirkung von Mineralwasser nachahmen. So spricht eine Werbung vom Geist und den Tugenden des Wassers von Pyrmont, den Priestley in seinem CO2-Wasser nachbaue. Das Mineralwasser des norddeutschen Bads Bad Pyrmont war zu dieser Zeit in England berühmt – es war Lieblingswasser des britischen Königs Georg I. und wurde sogar von Newton empfohlen. 1780 nahm der deutsche Uhrmacher Jacob Schweppe (eigentlich Schweppeus) die Idee auf und entwickelte in Genf eine Vorrichtung zum industriellen Einbringen von CO2 in Wasser, d. h. zur Fabrikation von Sodawasser – es wurde der Beginn der Marke Schweppes. Die Abb. 2.8 zeigt die typische und berühmte Torpedo-Flasche von Schweppes für das Wasser und die Limonaden mit CO2 aus dem 19. Jahrhundert. 1870 kam das Indian Tonic Wasser von Schweppes dazu als (fiktives) Vorbeugungsmittel gegen Malaria. Den Höhepunkt der Karriere des CO2 bilden die Entdeckung und die Verwendung des Kohlendioxids im Champagner: „Champagner ist nur Wein. Was ihn besonders macht, ist die Karbonisierung [das Versetzen mit Kohlendioxid]. Der Tag, an dem man einen abgestandenen Champagner trinkt, ist ein trauriger Tag.“ Roberto Zenit, mexikanischer Physiker, Fluiddynamiker, 2018.

Eine traditionelle 0,75l-Flasche Champagner enthält etwa 9.5 g CO2. Der Druck ist bei 10°C Temperatur etwa 6 bar, sechs Atmosphären Überdruck. Es entweichen nach dem Öffnen insgesamt etwa 5 Liter CO2-Gas.

Abb. 2.8  Die Torpedo-Flasche von Schweppes Bild: Schweppes drunken bottle, Wikimedia Commons, ΛΦΠ

108     W. Hehl

2.3.2 Kohlendioxid: Das sanfte Gift „Wenn Sie in einen luftdichten Raum eingeschlossen werden, so sterben Sie eher an einer Kohlendioxid-Vergiftung, bevor Sie am Sauerstoffmangel sterben.“ Jaro of Quotes, Zitatensammlung.

Paracelsus hat bei dem Gehalt an Kohlendioxid in unserer Atemluft mit der Weisheit die Dosis macht das Gift Recht. Kohlenstoffdioxid ist kein Gift, ist nicht als giftig eingestuft, ist nicht wassergefährdend, geruchslos, nicht brennbar und zersetzt sich nicht an offenen Flammen zu giftigen Stoffen. Offensichtlich kann man ja Champagner trinken. In der Atmosphäre kommt, fundamental für das Klima, das CO2 zu etwa 0,04 Vol.-% vor, d. h. mit 400 ppm. Ab etwa 1400 ppm oder 0.14% CO2 gilt die Luftqualität eines Raums als schlecht. Der Arbeitsplatzgrenzwert, die obere Grenze für die ganztägige Arbeit in dieser Luft, liegt bei 5000 ppm oder 0,5 Vol.-%. Das im Blut gelöste CO2 aktiviert in geringer oder leicht gesteigerter Konzentration das Atemzentrum des Gehirns. Eine kleine Konzentration ist sogar lebensnotwendig zur Anregung und zur Steuerung des Atmens. Bei einer Wiederbelebungsmassnahme beatmet man den Patienten besser nicht mit reinem Sauerstoff, sondern mit einem SauerstoffKohlendioxid-Gemisch. Ab 5% CO2 in der eingeatmeten Luft verursacht es Kopfschmerzen und Schwindel, bei noch höheren Konzentrationen kommt es zur Bewusstlosigkeit, der Kohlendioxid-Narkose, und schliesslich zum Tod. Dies ist der Grund für die Einstufung als gefährlichen Stoff wie in Abb. 2.9. In den 50er Jahren des vorigen Jahrhunderts wurde es allerdings routinemässig als Narkosemittel für Menschen eingesetzt, vor allem in den USA.

Abb. 2.9  Warnschild Kohlendioxid Bild: Offizielles Zeichen der OSHA, der amerikanischen Administration für Sicherheit im Beruf.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     109

Diese medizinischen Zustände mit erhöhter CO2-Konzentration heissen Hypercapnia, etwa altgriechisch zu viel Rauch. Das Problem ist nicht mangelnder Sauerstoff, sondern die Unfähigkeit, das im Körper erzeugte Kohlendioxid genügend rasch loszuwerden. Ein Mensch erzeugt etwa ein Kilogramm CO2 mit knapp 300 g Kohlenstoff pro Tag. Die Aussage des obigen Zitats ist korrekt. Gefährlich wird Kohlendioxid hier auf der Erde durch seine Dichte: CO2 ist etwa 1,5 Mal so schwer wie Luft. Bei Gasen entscheidet die Masse der Teilchen direkt über die Dichte des Gases. Die Molmasse von CO2 beträgt 44 g/Mol, die Masse von Luft gemittelt über die Komponenten 28,9 g/Mol. Das Mol ist dabei eine bestimmte Anzahl von Teilchen; aus historischen Gründen definiert als die Menge von 6,022 x 1023 Teilchen, die sog. Avogadro-Konstante. Unter Normalbedingungen (0°C und 1 Atmosphäre) enthalten 22,4 Liter eines Gases diese Anzahl von Teilchen. Eine überraschende, für das Klima und das Wetter bedeutsame Beobachtung: Enthält Luft Wasserdampf, so wird sie leichter! Der Grund ist die geringe Molmasse von Wasser H2O von 18 g/Mol. Da CO2 schwerer ist als Luft, füllt es wie eine Flüssigkeit tiefer gelegene Räume aus. Dies geschieht vor allem in Weinkellern und Futtersilos, aber auch in Höhlen, den sog. Hundsgrotten. Die Abb. 2.10 zeigt die historisch

Abb. 2.10  In der Hundsgrotte Die Grotta del Cane bei Neapel. Der Führer zeigt den erstickten Hund. Aus L’air et le monde aérien von Arthur Mangin, 1865. Populäres Physik-Lehrbuch. Bild: Arthur Mangin 1865, Wikimedia Commons, Jules Désandré.

110     W. Hehl

bekannte Hundsgrotte bei Neapel aus einem populär-wissenschaftlichen Buch von 1865. Eine hübsche physikalische Methode zur Feststellung von CO2 z. B. in einem Weinkeller sind Seifenblasen. Die mit Luft gefüllten Blasen schwimmen auf dem See des dichteren Kohlendioxids und schweben auf der Grenzfläche von Luft und Kohlendioxid. Das Sterben ist sanft. Der Mediziner Neudert schreibt zum Sterben von ALS-Erkrankten3 und zum Ersticken am nicht ausgeatmeten CO2 in seiner Dissertation (Neudert 2004): Es hört dann der Patient in der tiefen Bewusstlosigkeit des Komas einfach auf zu atmen. Die Aufklärung über diese Vorgänge löst bei den Erkrankten – unserer Erfahrung nach – eine enorme Erleichterung aus.

2.3.3 Kohlendioxid und die Pflanzen Humboldt kann man als einen Begründer der Ökologie betrachten, weil er nicht die einzelne Pflanze, sondern die Pflanzengesellschaft, nicht das lokale Klima, sondern das Weltklima versucht hat zu begreifen. Hans Magnus Enzensberger, deutscher Schriftsteller, in einem Interview 2004.

Das anorganische Kohlendioxid in der Atmosphäre ist die wichtige Ausgangssubstanz, mit der Pflanzen die komplexen organischen Verbindungen aufbauen. Der Vorgang war (und ist) eigentlich ungeheuerlich: Aus Unbelebtem wie Kohlendioxid und Wasser entstehen Stoffe des Lebendigen. Bis in die Mitte des 19. Jahrhunderts wurde der Vorgang denn auch für unmöglich angesehen. Die feste Überzeugung war, dass alles Organische nur aus Organischem entstehen könne, weil es einen Lebensgeist gebe, den man nicht in der Retorte wie den Homunkulus des Faust bei Johann Wolfgang von Goethe erzeugen kann. Dabei hatte der niederländische Arzt und Botaniker Jan Ingenhousz schon 1779 in seinen Experiments upon vegetables, den Experimenten über Gemüse, festgestellt, dass Pflanzen im Sonnenlicht Sauerstoff (er nannte ihn dephlogistizierte Luft) abgeben und dazu Kohlendioxid (fixe Luft) aufnehmen, in der Nacht jedoch nur Kohlendioxid abgeben. Der einfache Versuch in der Abb. 2.11 aus einem Chemielehrbuch von 1840 demonstriert es. Die Pflanzen atmen im Licht Sauerstoff aus, der im Trichter hochsteigt und mit einer hell brennenden Flamme nachgewiesen werden kann. Damit hatte Ingenhousz die Photosynthese entdeckt. Es 3 ALS

ist die Amyotrophe Lateral Sklerose.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     111

Abb. 2.11  Historischer Versuch mit Pflanzen Die grünen Pflanzen im Trichter erzeugen im Sonnenlicht Sauerstoff. Aus Schule der Chemie, versinnlicht durch einfache Experimente, von Julius Stockhardt, Vieweg, 1840.

ist das Sonnenlicht, das die Photosynthese treibt und nicht die Wärme; er schrieb in den Experimenten mit Gemüse: Wenn es die Wärme der Sonne wäre und nicht das Licht, dann würde folgen, dass Erwärmen am Feuer genauso diese Luft produzieren würde wie die Sonne, aber das ist bei weitem nicht der Fall.

Die Entdeckung kann die Mainstream-Meinung bis in die Mitte des 19. Jahrhunderts nicht umstossen, dass Lebendiges nur aus Lebendigem entstehen könne, d. h. die Pflanzen nur aus dem Humus der Erde. Diese Lehre ist der Vitalismus. Die ersten Synthesen organischer Stoffe (Friedrich Wöhler entdeckt den Harnstoff 1828 und die Oxalsäure 1824) und die Erfolge mit künstlichem, anorganischem Dünger (Justus von Liebig 1840) werden den Vitalismus in der Chemie endgültig umstürzen. Organisches kann aus Anorganischem entstehen, und es entsteht vor allem aus Kohlendioxid. Als Nebenbemerkung die Beobachtung, dass sich anderthalb Jahrhunderte später eine derartige falsche Einschränkung wiederholt mit nur der Mensch kann denken, d. h. kein Computer kann das – nach der materiellen Seite und der Chemie nun auf der geistigen Seite und der Informatik. Hier ist ein Meilenstein die Arbeit des britischen Mathematikers Alan Turing von 1950. Wir sind als Gesellschaft noch mitten in der Auflösung dieses Anspruchs begriffen. Physikalisch-chemisch gesehen, bedeutet die Photosynthese der Pflanzen zunächst eine sogenannte Reduktion des Kohlendioxids, d. h., die CO2Moleküle erhalten Elektronen von anderen Substanzen und können danach

112     W. Hehl

kompliziertere Verbindungen aufbauen. Elektronenlieferant ist vor allem Wasser (H2O) aber auch andere Stoffe sind Geber von Elektronen, z. B. Schwefelwasserstoff (H2S), Wasserstoff (H2), zweiwertige Eisenionen (Fe2+) oder Nitritionen (NO2—) oder bereits vorhandene einfache organische Verbindungen, die letztlich auch aus CO2 gebildet werden. Es gibt viele Formen von Leben! Die Photosynthese mit Wasser liefert eine einfache summarische Reaktionsgleichung (hinter der allerdings recht komplexe Prozesse stehen) wie 6 mal CO2 und 6 mal H2O gibt 6 mal [C(H2O)] und 6 mal O2 . Dabei steht [C(H2O)] symbolisch für (wörtlich genommen Kohle und Wasser) Kohlehydrate, etwa für Glucose, auch Traubenzucker genannt. Die Feinstruktur des Photosyntheseprozesses ist dabei derart, dass der freigegebene Sauerstoff aus den Wassermolekülen stammt und nicht aus den CO2-Molekülen. Vom Gesichtspunkt der Bilanz der beteiligten Gase hat diese sauerstofferzeugende Photosynthese leider in den Pflanzen einen Gegenspieler, die Photorespiration oder Lichtatmung. Dabei verbraucht die Pflanze ihrerseits Sauerstoff und setzt unter Lichteinwirkung wieder Kohlendioxid frei, das schon gebunden war. Diese Photorespiration verschwendet Energie und stiehlt Kohlenstoff … es ist ein schwerer molekularer Fauxpas [der Natur]. Khan Academy, Artikel Respiration

Wenn die Pflanze die Blattporen schliessen muss wegen Trockenheit oder Hitze, dann steigt in der Zelle der Sauerstoffpartialdruck und damit die Neigung zur Sauerstoff-Respiration. Die Photorespiration der Pflanzen reduziert leider ihren Nutzeffekt bei der Dämpfung der globalen Erwärmung auf ungefähr die Hälfte; dies war kein Problem beim natürlichen Gleichgewicht von Temperatur und CO2-Gehalt in der vorindustriellen Zeit. Für die globale Erwärmung ist es bedeutsam, dass die Evolution drei Varianten von Photosynthese-Prozessen mit Sauerstoff als Ausscheidungsstoff entwickelt hat, die verschieden an die Klimabedingungen angepasst sind: • Die älteste Methode grüner Pflanzen und der Cyanobakterien ist der C3-Mechanismus der sog. Calvin-Pflanzen; es gibt ihn seit ungefähr zwei Milliarden Jahren. Die meisten Pflanzen der gemässigten und hohen Breiten verwenden sie. Beispiele sind die Nutzpflanzen Weizen, Roggen, Gerste, Hafer, aber auch Kartoffel, Sojabohne, Hanf und Reis. Bis auf wenige hawaiianische Baumartige sind alle Bäume der Welt C3-Pflanzen.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     113

Die Bezeichnung C3 rührt vom ersten festen Bindungsmolekül für das CO2. Es ist ein Molekül mit einer Kette von 3 Kohlenstoffatomen. • Der Prozess C4 ist später in der Evolution entstanden, vor etwa 30  Millionen Jahren, als Reaktion auf niedrigere Temperaturen, niedrigeren CO2-Gehalt der Luft bei hohem Sauerstoffgehalt. C4Pflanzen haben einen Zellmechanismus, um den CO2-Gehalt in der Zelle zu konzentrieren. Erst darauf setzt die Photosynthese wie bei C3 auf. Es sind vor allem die schnellwachsenden Nutzpflanzen wie Mais, Zuckerrohr und Sorghumhirse, aber auch viele hartnäckige Unkräuter. C4-Pflanzen sind überlebensfähiger bei Wasserknappheit, hohen Temperaturen und starker Sonneneinstrahlung. Die Bezeichnung C4 rührt ebenfalls vom ersten festen Bindungsmolekül für das CO2. Es ist ein Molekül mit einer Kette von 4 Kohlenstoffatomen. • Der Crassulaceen-Säurestoffwechsel (CAM) ist eine Variante des C4Prozesses. Die Aufnahme des CO2 ist hier auch noch zeitlich getrennt von der eigentlichen Photoreaktion – die Aufnahme findet nachts statt, in der Tageshitze können die Blattporen dann geschlossen sein. Pflanzen mit CAM-Stoffwechsel, sind typische Trockenpflanzen wie Agaven, Ananas, Kakteen und Weinreben, aber auch Orchideen – sie brauchen nur 5–10% des Wassers! Am effizientesten im Umgang mit Wasser sind die CAM-Pflanzen. Für diese Pflanzen in ariden Regionen geht es um das Überleben und nicht um den Gewinn an Biomasse. Am effizientesten in der CO2-Fixierungsrate (die Menge an Kohlendioxid pro Blattfläche, die jede Sekunde gebunden wird) und im Zugewinn an Trockenmasse (angesammelte Tonnen pro Hektar und Jahr) sind die C4-Pflanzen. In C3-Pflanzen tritt die Photorespiration besonders in warmen und trockenen Regionen auf. Optimal ist die Einrichtung einiger Pflanzen, die im Bedarfsfall umschalten zu können von C3 auf CAM, etwa bei zu hoher Erwärmung oder bei höherem Salzgehalt im Wasser. Eine gentechnische Forschungsrichtung versucht die Photorespiration zu reduzieren oder sogar C3-Pflanzen in den C4-Typ umzuwandeln, die kaum Photorespiration betreiben. Das Projekt C4-Rice von einem Forschungskonsortium unter Führung der Universität von Oxford (und gefördert durch die Bill-und-Melinda-Gates-Stiftung), hat sich die Aufgabe gestellt, das wichtige Nahrungsmittel Reis, normal ein C3-Gras, zu einer C4-Pflanze zu transformieren und damit die Erträge zu steigern.

114     W. Hehl

Das C4 Reis-Projekt ist eine der wissenschaftlichen Grossen Herausforderungen des 21. Jahrhunderts. The C4 Rice Project, c4rice.com.

Eigentlich sollte steigender Kohlendioxid-Gehalt der Pflanzenwelt helfen. Dies ist die Grundidee der Kohlendioxid-Düngung durch künstliche Erhöhung der CO2-Konzentration in der Luft von Treibhäusern oder auch im Wasser von Aquarien. Die Abb. 2.12 zeigt die prinzipielle Grundlage für die Abhängigkeit der Photosynthese vom CO2-Gehalt in einer schematischen Grafik. Da unsere Atmosphäre bereits 0,04% überschritten hat, ist der Spielraum für Pflanzen vom Typ C4 gering – sie sind schon optimiert für die CO2Aufnahme. Entsprechendes gilt für CAM-Pflanzen. Die Effizienz der C3Pflanzen hat dagegen seit dem Anstieg des Kohlendioxids zu Beginn der Industrialisierung bis heute merklich zugenommen. Die Photosynthese ist als chemische Reaktion auch temperaturabhängig; ungefähr gilt die Regel des niederländischen Chemikers und Nobelpreisträgers Jacobus Henricus van’t Hoff: Die Geschwindigkeit einer chemischen Reaktion verdoppelt sich, wenn sich die Temperatur um etwa zehn Grad Celsius erhöht. Allerdings ist ein möglicher positiver Effekt durch die Erhöhung der Welttemperatur begrenzt (man sieht schon die versengten und vertrockneten

Abb. 2.12  Aufnahmerate von CO2 Abhängigkeit der Aufnahmerate (Fixierung) von CO2 vom CO2-Gehalt der Luft bei C3 und C4 Pflanzen (schematisch). Grafik: Photosynthese CO2 Konzentration, Wikimedia Commons, Yikrazuul.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     115

Pflanzen vor sich!). Die bisher beobachteten Optima der Photosynthese der Pflanzenklassen sind: 15–25°C für C3, 30–47°C für C4 und 35°C für CAM Pflanzen. Nur Cyanobakterien haben ein höheres Optimum, nämlich 70°C! Eine weitere Erhöhung der Photosynthese der Pflanzen durch mehr CO2 in der Luft ist nicht eindeutig gesichert. Es gibt Experimente, die zeigen, dass eine mögliche Erhöhung sich nach einiger Zeit in eine Reduktion umwandelt, vor allem in der freien Natur ohne Düngung. Ein anderer hässlicher Nebeneffekt kann sein, dass sich zwar die Menge der Biomasse erhöht, aber dabei die Nutzqualität der Pflanze sinkt, etwa der Anteil oder die Qualität der Proteine. Die Liste der weiteren Abhängigkeiten des Wachstums neben der CO2- Konzentration und der Temperatur ist lang: Lichtmenge, Wasser, Salz-, Nitrat- und Phosphatgehalt des Bodens, dazu kommen artspezifische Begrenzungen wie z. B. die verfügbaren Wachstumspunkte der Pflanze (Wurzelspitzen, Blattspitzen oder Seitenknospen). Damit ergeben sich die Hauptaufgaben für die Zukunft zur Milderung der Wirkung der globalen Erwärmung auf die Biosphäre • Verringerung oder Unterdrückung der schädlichen Photorespiration, • Verbesserung der effektiven Photosynthese der Pflanzen, vor allem der Nutzpflanzen und wichtigen Träger des Aufbaus von Biomasse, durch Verbesserung der botanischen Systembedingungen mit Düngung und Zusatzstoffen, • Entwicklung von neuen, robusten biologischen Pfaden, d. h. photochemischen Prozessen jenseits von C3- und C4-Wegen, zur Erzeugung von Biomasse und Fixierung von Kohlendioxid. Dabei ist die Hoffnung, einen effizienteren photosynthetischen Prozess zu finden, der das Pflanzenwachstum anhebt und für Milliarden von Menschen Nahrung liefert. Zielsetzung des FutureAgriculture Projekts, Arren Bar-Even, Max-PlanckInstitut Potsdam. Leonardo da Vinci würde dies nicht gefallen und er würde das Vorhaben für sinnlos halten: Obwohl das menschliche Genie in verschiedenen Erfindungen mit verschiedenen Mitteln zu einem und demselben Ziel antwortet, wird es nie eine Erfindung weder schöner, noch leichter, noch kürzer als die der Natur finden, weil in ihren Erfindungen nichts fehlt und nichts überflüssig ist. Leonardo da Vinci, Künstler und Universalgelehrter, 1452–1519), in den Notizbüchern.

116     W. Hehl

So funktioniert die Evolution nicht. Die Evolution sucht Lösungen, die irgendwie funktionieren um zu leben und um das Lebensprogramm der Art über die Gene weiterzugeben. Es muss nicht die bestmögliche aller Lösungen für ein Teilproblem sein, es muss zum Weiterleben reichen. Ein Wissenschaftler hatte die Verbesserung und Erweiterung der Möglichkeiten der Natur in den Pflanzen schon lange vorhergesehen. Der italienische Chemiker Giacomo Ciamician (1857–1922) hielt 1912 auf einem Kongress der Chemie in New York (Abb. 2.13) einen zukunftsweisenden Vortrag Die Fotochemie der Zukunft. Der Vortrag muss damals sehr gewagt gewesen sein, auch heute ist er immer noch weitgehend futuristisch. Der Visionär Ciamician sah voraus, dass in der Zukunft Pflanzen mit Sonnenlicht Treibstoffe liefern würden, ja dass eine ganze Fotochemie synthetische Stoffe liefern würde. Schon 1912 will er die fossilen Brennstoffe durch Sonnenenergie ersetzen. Er hat die Vision einer Wirtschaft und Gesellschaft, die nicht auf Kohle und Erdöl, sondern auf Sonnenlicht und auf einer sanften, pflanzlichen oder pflanzenähnlichen Chemie basiert, auf Biotechnologie oder wie es heute heisst, einer Bioökonomie. Er dachte dabei nicht an eine bedrohliche globale Erwärmung durch Kohlendioxid wie Svante Arrhenius zu dieser Zeit, sondern seine Argumente für eine Veränderung waren der endliche Vorrat an Kohle und die Grobheit der industriellen Chemie. Er stiess sich an der Nicht-Nachhaltigkeit

Abb. 2.13  Der Tagungsband der Chemietagung von 1912 Bild: Bibliothek der Chemischen Fakultät der Universität Bologna.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     117

der Kohlewirtschaft und der damit gekoppelten, damals sehr erfolgreichen Kohlenteerchemie. Überhaupt missfielen ihm die harten Methoden der Chemie wie starke anorganische Säuren, scharfe Halogene, reaktive Metalle und starke Basen. Ciamician sieht auch schon, dass die Energiequelle Sonne praktisch unerschöpflich ist. Er rechnet die Sonne in virtuelle Kohle um und überschlägt, dass in den Tropen bereits ein Quadratkilometer Erdoberfläche an einem Tag das Energie-Äquivalent von mehr als 1000 Tonnen Kohle als Strahlungsenergie erhält (es sind eher 3000 Tonnen). Sein Traum ist es, mithilfe dieser Energie und mit modifizierter Pflanzenchemie flüssigen oder gasförmigen Treibstoff herzustellen. Er spricht die moderne Aufgabe zur Herstellung von Treibstoff mithilfe der Sonne ein Jahrhundert früher an: Mit geeigneten Katalysatoren sollte es möglich sein, Mischungen von Wasser und Kohlendioxid in Sauerstoff und Methan zu verwandeln, oder andere energieverbrauchende Prozesse durchzuführen.

Und In den trockenen Gegenden werden industrielle Kolonien aufgehen, ohne Rauch und ohne Schlote; ganze Wälder von Glasröhren werden sich über die Ebenen erstrecken und Glasgebäude. Giacomo Ciamician, italienisch-armenischer Chemiker, 1912.

Die Idee einer Ebene mit Glasröhren stammt vielleicht direkt aus der praktischen Erfahrung des Chemikers in seinem photochemischen Labor. Da es weder Halogenlampen noch Laser gab, war das Sonnenlicht die einzige Möglichkeit zum Experimentieren und das Labor befand sich auf dem Dach (Abb. 2.14). Heute gibt es tatsächlich schon Ebenen, die mit Empfängern von Sonnenlicht bedeckt sind, häufig in ariden Gegenden. Aber es sind keine chemischen Retorten, in denen komplexe chemischen Reaktionen ablaufen, sondern es ist einfache Physik mit dem Ziel der Erzeugung von elektrischem Strom. Es sind Felder mit Tausenden von Spiegeln, die Licht bündeln (Abb. 3.5) oder Flächen bedeckt mit Photovoltaik-Modulen, die direkt elektrische Leistung liefern (Abb. 3.4).

118     W. Hehl

Abb. 2.14  Das offene Labor für Photochemie der Universität Bologna mit den Chemikern Giacomo Ciamician und Paul Silber und vielen Probierkolben. Bild: Bibliothek der Chemischen Fakultät der Universität Bologna. Mit freundlicher Genehmigung.

2.3.4 Kohlendioxid als Treibhausgas in der Atmosphäre Wenn sich die Industrieländer der Luft als Endlager für das CO2 bedienen und den Entwicklungsländern ihre Lebensgrundlagen entziehen, dann müssen sie dafür einen Ausgleich leisten. Hans Werner Sinn, deutscher Wirtschaftswissenschaftler, geb. 1948.

Das Wort Endlager ist hier recht böse, denn so geht es nicht mit dem scheinbar unschuldigen, ungiftigen, unsichtbaren und geruchslosen Gas CO2 in der Atmosphäre. Es ist ein starkes Treibhausgas, nach dem Wasserdampf das zweitwichtigste in der irdischen Atmosphäre. Da der Wasserdampf mit den Ozeanen ja flüssige Nach- und Auffüllreservoire hat, an die der Wasserhaushalt und die Wolken ankoppeln und die die Menge des Wassers im Haushalt des Erdklimas flexibel machen, ist die Wirkung des Wasserdampfs mehr ein Folgeeffekt. Zur Grösse des CO2-Endlagers in der Atmosphäre und zum jährlichen Umsatz einige Zahlen (s. auch die Zahlentabelle im Anhang): Die Atmosphäre hält etwa 875 Mrd. t. (Gigatonnen) Kohlenstoff. Jedes Jahr werden ca. 210 Mrd. t. umgesetzt. Im Gleichgewichtsfall versenkt die

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     119

Natur gerade diese Menge und erzeugt sie andrerseits wieder. Der Anteil der Pflanzen am Kohlenstoff-Umsatz ist die Bindung von etwa 110 Milliarden Tonnen Kohlenstoff aus der Luft im Jahr, von denen allerdings die Hälfte wieder ausgeatmet wird. Aufschlussreich ist der Vergleich mit der von der Industrie eingebrachten Kohlenstoffmenge, nämlich zurzeit etwa 10 Mrd. t. Kohlenstoff pro Jahr. Man müsste die Vegetation um ein Fünftel verstärken, um den industriellen CO2-Eintrag zu kompensieren. Aber die Entwicklung geht in die andere Richtung: Nach der FAO werden auf der Erde jedes Jahr zurzeit etwa 10 Millionen Hektar Wald gefällt (das sind 100 000 km2) und 5 Millionen Hektar gehen verloren.

Die Abb. 2.15 gibt den Überblick über die weltweiten Abweichungen der CO2-Konzentration im Frühling 2013 vom Mittelwert 396,9 ppm dieses Jahres, gemessen etwa in der Mitte der Troposphäre, dem Hauptteil unserer Atmosphäre. Die Verteilung mit Schwerpunkt Nordhalbkugel ist typisch für

Abb. 2.15  Die globale Verteilung des Kohlendioxids in der Erdatmosphäre zu einem Zeitpunkt Die CO2-Konzentration gemessen in 5–9 km Höhe im April 2013. Bild: AIRS Projekt (Atmospheric InfraRed Sounder), NASA/JPL-Caltech.

120     W. Hehl

diese Jahreszeit, nachdem die Vegetation zurückgegangen oder abgestorben ist und Pflanzen und Böden Kohlendioxid freigegeben haben. Wir können die Menge des Kohlenstoffs in der Luft selbst berechnen über den Luftdruck und mit der Angabe des CO2-Gehalts in der Luft. Die Konzentration von 0,04 Volumen-Prozent entspricht 0,06 GewichtsProzent; beim Luftdruck bedeutet dies von der Luftsäule mit insgesamt 10 Tonnen auf den Quadratmeter entfallen 6 kg auf CO2 oder 1,6 kg Kohlenstoff – dies gibt für die Welt 835 Mrd. t. Kohle. Das Bild nach dem Gedanken von Svante Arrhenius in 1896 ist anschaulicher. Es wäre eine weltweite Schicht von 0,7 mm Kohle als Graphit oder knapp 0.5 mm Diamant. Oder als anderes Mass: Es würde eine etwa 3 m hohe Schicht erstickendes Kohlendioxidgas um den ganzen Erdball bedeuten, wenn es absolute Ruhe in der Atmosphäre gäbe! Der Treibhauseffekt von CO2 hat den gleichen Grund wie der Treibhauseffekt durch das Wasser (H2O), den wir schon verstanden haben. Das Kohlendioxid-Molekül ist elektrisch anfassbar und kann durch Sonnenlicht zu Schwingungen angeregt werden. Die Energie dieser Schwingungen geht dann in Wärme über. Die Abb. 2.16 illustriert das Kohlendioxidmolekül und damit die möglichen Grundschwingungen (Eigenschwingungen). CO2 ist ein lineares Molekül, bei dem die (blauen) Sauerstoffatome entweder aufeinander zuund wegschwingen können (symmetrisch) oder im Gegentakt jeweils nach links und dann nach rechts (antisymmetrisch); dies sind Streckschwingungen.

a)

Linear und gestreckt, symmetrisch. Keine Absorption im Infraroten.

b)

Linear und gestreckt, antisymmetrisch Unwesentliche Absorption. 14

c)

Beugung der Bindungen. Dieser Typ Schwingung macht einen grossen Teil des Treibhauseffekts aus.

Abb. 2.16  Das Kohlendioxid-Molekül Linear und gestreckt, symmetrisch. Keine Absorption im Infraroten.b) Linear und gestreckt, antisymmetrisch Unwesentliche Absorption. (Die asymmetrische Schwingung hat die Wellenlänge 4,3 μm.) Beugung der Bindungen. Dieser Typ Schwingung macht einen grossen Teil des Treibhauseffekts aus.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     121

Die für das Klima wichtige Schwingung ist die Beugeschwingung – die Bindungsärmchen gehen auf und zu. Bei dieser Beugung verschiebt sich die leicht positive Ladung des Kohlenstoffatoms gegen die leicht negativen Ladungen der Sauerstoffatome und das Molekül wird in der Bewegung elektromagnetisch anfassbar. Es beginnt zu schwingen, und zwar mit 20 TeraHz (2 x 1013 Hz) entsprechend infrarotem Licht mit 15 μm Wellenlänge.

2.4 Die Energiebilanz der Atmosphäre Modelle der Energiebilanz … sind in der wissenschaftlichen Welt sehr populär geworden, vor allem weil sie realistische Ergebnisse liefern ohne zu viel Computerzeit zu benötigen wie sie Modelle für das globale Klima sonst benötigen. G. C. Asnani., indischer Meteorologe, 1982.

Es ist klar, dass das globale Klima sehr komplex ist und damit auch eine überzeugende Computersimulation umfangreich sein muss. Die Computerzeit ist heute vielleicht nicht das Problem wie im Zitat von 1982, aber trotzdem können Simulationsaufgaben nach der Natur immer noch mehr Computerleistung brauchen. Die Physik stellt relativ einfache und dabei sichere Aussagen zur Verfügung durch den Satz von der Erhaltung der Energie. Wir betrachten die Energiebilanz der Erde zum einen und nehmen das Strahlungsgesetz des schwarzen Körpers zum anderen zu Hilfe. Wir wollen verstehen, wie Treibhausgase wie H2O und CO2 wirklich, d. h. im System, funktionieren. Der Energiesatz sagt aus, dass die Energie pro Sekunde, die die Erde von der Sonne (aus dem Weltall) erhält, gleich sein muss dem Energiebetrag, den die Erde jede Sekunde ins Weltall verliert. Ein Teil der Strahlung ist in unserer Näherung trivial: die Albedo, das direkt reflektierte Licht, das aus der Energiebilanz genommen werden kann. Eine hübsche und direkte Messung der Albedo der Gesamterde ist über die Helligkeit des Aschlichts des Mondes. Wenn der Mond nur eine schmale Sichel am irdischen Himmel, erscheint umgekehrt vom Mond aus gesehen die Erde nahezu als volle Scheibe und beleuchtet den Mond. Da die Erde viermal grösser am Mondhimmel steht als bei uns der Mond und dazu eine höhere Albedo hat, erhält der Mond eine etwa fünfzigmal höhere Beleuchtung. Dadurch wird der von der Sonne nicht beleuchtete Teil des Mondes als aschgrau schimmernd auf der Erde mit blossem Auge ­asichtbar

122     W. Hehl

im Erdschein. Die Messung von der Erde gibt ein Mass für die irdische Albedo, insbesondere für Änderungen durch Schwankungen in der irdischen Wolkendecke. Die Albedo der Erde ist im Mittel 0,306 oder 30,6% werden zurück gestrahlt. Im Einzelnen ist die Rückstrahlfähigkeit stark abhängig vom Grund, auf den das Sonnenlicht fällt. Eine Übersicht gibt die Tab. 2.2. Viele der Werte sind stark abhängig von weiteren Parametern, vor allem die Wolken vom Wolkentyp und die Wasserflächen von Beleuchtungswinkel und Wellengang. Dazu die mittleren Albedo-Werte verschiedener Himmelskörper. Die Rückstrahlung der Wolken und des Meers und ihre grosse Variabilität und ihre Variationen sind das vielleicht grösste Problem der Klimaberechnung. Zum Vergleich zur Erde listet die Tabelle den Grad der Rückstrahlung einiger Himmelskörper unseres Sonnensystems, mit dem lavadunklen Mond, der wolkenhellen Venus und dem eisigen Saturnmond Enceladus. Die Zwei-Hügel-Kurve in Abb. 2.17 verdeutlicht die Randbedingungen der elektromagnetischen Strahlung von der Sonne, den In-Strom, und zurück ins All von der Erdoberfläche, den Out-Strom. Die beiden Hügel sind Hüllkurven für die eingestrahlte Energie der Sonne (links) bzw. abgestrahlt von der Erde (rechts). Vor allem sichtbares Licht kommt herein, infrarote Strahlung geht hinaus ins All. Diese Kurven geben die maximale Strahlungsleistung an, die ein Körper durch Wärme bei einer bestimmten Temperatur allein abstrahlen kann (aber auch aufnehmen), aufgetragen über die Wellenlänge der Strahlung. Die zugehörige Masseinheit ist also Energie pro Zeit und strahlender Fläche, Watt pro m2. Es klingt etwas absurd, aber die Sonne wird damit, wie die Erde, als Tab. 2.2  Ungefähre Werte von Albedos von irdischen Oberflächen und von einigen Himmelskörpern. Entnommen dem deutschen Wikipediaartikel Albedo, gezogen Dezember 2020.

Material

Albedo

Material

Albedo

Frischer Schnee Alter Schnee Wolken Wüste Felder (unbestellt) Himmelskörper Merkur Venus Mars

0,8–0,9 0,45–0,9 0,6–0,9 0,3 0,26 Albedo 0,068 0,77 0,306

Rasen Wald Asphalt Wasserfläche >45° Neigungswinkel

0,18–0,23 0,05–0,18 0,6–0,9 0,05

Himmelskörper Jupiter Mond Enceladus

Albedo 0,343 0,11 0,99

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     123

In

Out

Abb. 2.17  Didaktische Grafik zum Vergleich der zur Erde einfallenden Strahlung (links) und der von der Erde emittierten Strahlung (rechts) auf der gleichen Abszisse. Die beiden Teilkurven sind in der Grafik willkürlich auf gleiche Höhe normiert. Bild: Atmospheric Transmission de, Wikimedia Commons, Robert A. Rohde/Global Warming Art project (Ausschnitt).

sogenannter schwarzer Körper betrachtet. Die beiden Kurven geben auch an, welche Strahlung für das Klima der Erde überhaupt wesentlich ist. Dieser Ausdruck schwarzer Körper wurde vom deutschen Physiker Kirchhoff im Jahr 1860 geprägt. Die idealisierte physikalische Realisierung ist ein schwarz ausgekleideter Hohlkörper; er ist mit Schwarzkörperstrahlung von der Temperatur der Wände erfüllt. Das Gesetz (d. h. die Form der Kurve wie die Hüllkurven in Abb. 2.17) wurde von Max Planck im Jahr 1900 gefunden und wenig später theoretisch hergeleitet. Allerdings musste Planck dazu Energiequanten einführen und eine neue Fundamentalkonstante der Natur, das Wirkungsquantum h (h von hilf ). Es ist der Beginn der Quantenphysik. Die Sonnenkurve bezieht sich auf einen Körper der Temperatur 5525 K, die Erdkurven sind drei Varianten für Erdtemperaturen von -63°C bis +37°C. Die Sonnenkurve wäre deshalb millionenmal höher; da es nur auf die Störungen ankommt, sind sie gleich hoch gezeichnet. Das Maximum der Sonnenstrahlung liegt im grünen, sichtbaren Bereich bei etwa 0,5 μm, das Maximum der Erdstrahlung nach aussen im Infraroten bei 8–13 μm. Hier die Einzelschritte des Mechanismus: 1. In das Spektrum der infraroten Strahlung graben sich an bestimmten Stellen Absorptionen durch Moleküle ein. Bei den Molekülen der Treibhausgase passt zu diesem Licht gerade dort eine Schwingung (oder eine Rotation oder ein elektronischer Übergang),

124     W. Hehl

dann absorbiert das Molekül das Quant und schwingt (oder rotiert oder ist angeregt). Eine Nebenbedingung dafür ist es, dass das Licht einen Hebel findet, um die Schwingung (oder Rotation) anzustossen; dazu braucht es eine Art (elektrische) Asymmetrie im Molekül. 2. Das Molekül gibt nach einiger Zeit das Quant allerdings wieder ab, typisch nach Millisekunden. Damit wäre der Glashaus-Effekt nicht erklärt, aber: 3. Das Molekül hat bis dahin Millionen Mal geschwungen und tausende von Stössen von den Atomen der umgebenden Luft erfahren. a. Bei den Stössen hat es Energie abgegeben als zusätzliche Wärme, b. und das Quant wird schliesslich in irgendeine Richtung abgegeben, und das Spiel wiederholt sich mit einem anderen passenden Molekül. Ein Entkommen dieser Strahlung von der Erde ist unwahrscheinlich und nur in den äusseren, kalten Schichten der Atmosphäre möglich. In der Abb. 2.17 sind es vor allem Wassermoleküle, die in breiten Banden absorbieren, dazu Kohlendioxid und das Ozon, der dreiatomige Sauerstoff. Im infraroten Licht gibt es vor allem zwei Fenster, durch die Strahlung auch aus der irdischen Atmosphäre ins All gelangen kann; es sind die beiden steilen Spitzen um 10 μm Wellenlänge, links und rechts von der OzonAbsorption, die zusammen das atmosphärische Fenster bilden. Im Wesentlichen gelangt nur dieses Licht ins All, nur darüber kann sich die warme Erde abkühlen. Das zweite, wichtigste Fenster von allen, ist das optische Fenster, das Fenster für sichtbares Licht. Hier bekommen die Pflanzen (und wir) ihr Licht, und hier gelangt die Albedo unseres Planeten als diffuse Reflektion wieder in den Weltraum. Die Physik des Klimas ist komplex, aber ein Idealfall lässt sich elementar berechnen, sofern man das Gesetz von Stefan-Boltzmann als elementar betrachtet (Brunetti 2015). Die Erde sei dazu zunächst ein Planet ohne Atmosphäre (Abb. 2.18). Das Gleichgewicht der Energieflüsse ist einfach: Der Strom ankommender Energie muss gleich dem Strom abgegebener Energie sein. Der ankommende Energiestrom ist das Licht der Sonne; es erreicht ungestört die Erdoberfläche. Die Albedo sei bekannt (d. h. die diffus ins All zurückgestreute Strahlung) und wird sofort abgezogen. Das nicht zurück gestreute Licht heizt die Erde auf. Die Menge der empfangenen Sonnenenergie ist durch die Querschnittsfläche der Erdkugel gegeben (Abb. 2.18 links) gegeben. Die Wärmestrahlung der aufgeheizten Erde wird über die gesamte Erdoberfläche abgestrahlt (Skizze rechts) – das ist diese Fläche mal vier! Dies bedeutet gleichzeitig die Bildung des Mittelwerts über Tag und

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     125

Abb. 2.18  Skizzen zur Bestrahlung der Erde und zur Abstrahlung von Wärme von der Erde Die Absorption von Sonnenlicht (links) erfolgt über den Querschnitt, die Emission von infraroter Strahlung (rechts) über die ganze Kugeloberfläche.

Nacht. Mit der eingestrahlten Energie von 1369 Watt pro m2 (dem Wert im Weltraum) und dem realen Albedo der Erde von 0.3 ergibt sich mit dem Stefan-Boltzmann-Gesetz die Temperatur von 255 K oder -18°C4. Wenn man, da ja ohne Atmosphäre, für diese fiktive Erde die Albedo des Mondes von 0.11 einsetzt, erhält man ca. -2°C mittlere Temperatur. Da die Sonne beim Mond zwei Wochen lange eine Seite aufheizt, ergibt die entsprechende Abschätzung auf der Sonnenseite des Mondes entsprechend die √2-fach höhere Temperatur von etwa 110°C (gemessenes Maximum ist 130°C). Die Abb. 2.19 symbolisiert die Stufen der Energiebilanzen in wachsender Komplikation: a) ohne Atmosphäre, b) mit Atmosphäre, aber ohne Treibhauseffekt, c) dazu mit Treibhauseffekt und d) mit Treibhauseffekt und mit Wolken. Den Trivialfall a) Planet ohne Atmosphäre haben wir oben gerechnet; nun analysieren wir die Fälle mit Lufthülle. Die Abbn. 2.19 b), c) und d) gehen etwas näher auf die Energiebilanzen ein. Die Grafik 2.19 b) stellt eine Erde dar mit transparenter Atmosphäre für das einfallende sichtbare und für das austretende infrarote Licht. Es gibt nur die früher erwähnte Streuung (nach Raleigh), die das Himmelblau ergibt (nicht eingezeichnet). In den Grafiken 2.19 c) und d) wirke in der Atmosphäre der Treibhauseffekt, der die Atmosphäre, wie in Abb. 2.17 demonstriert, für ganz bestimmte Lichtwellenlängen undurchlässig macht. Dies ist das Resultat des physikalischen Kernprozesses, bei dem Moleküle wie CO2 und H2O

4 Ohne

Albedo, d. h. mit einer Erde als schwarzem Körper, wären es +6°C (Lemke, 2003).

126     W. Hehl

a)

b)

c)

d)

Abb. 2.19  Vier Vergleichsfälle zur Klimamodellierung im thermischen (radiativen) Gleichgewicht (schematisch).

Abb. 2.19  b) Energiebilanz eines Planeten mit Atmosphäre ohne Treibhausgas

Abb. 2.19  c) Energiebilanz eines Planeten mit Atmosphäre und Treibhauseffekt

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     127

Abb. 2.19  d) Energiebilanz eines Planeten mit Treibhauseffekt und Wolken

Symbole: Sichtbares Licht

Infrarotes Licht mit Lücken im Spektrum

Infrarotes Licht

Infrarotes Licht mit Treibhauseffekt

Wasserdampf, Regen, Schnee

Abb. 2.19  Die Energiebilanzen der Atmosphäre in verschiedenen einfachen Modellen. Mithilfe der Abb. 2.20 versuchen wir eine Veranschaulichung.

Abb. 2.20  Ein Analogon zum Effekt der Treibhausgase Bei diesem Klavier fallen Tasten aus.

bestimmte Energien aufnehmen, für relativ lange Zeiten behalten und damit den Treibhauseffekt bewirken: Da durch die Absorption Resonatoren wegfallen für die Abstrahlung (zu sehen als Lücken im Spektrum), müssen die anderen Resonatoren, die Strahlungsenergie ins All schicken, deshalb stärker oszillieren, d. h. die Temperatur der Atmosphäre muss sich zum Erreichen des Gleichgewichts insgesamt erhöhen.

128     W. Hehl

Der Ausfall von Frequenzen wirkt wie eine teilweise Wärmeisolierung; die Lufthülle als Ganzes ist wie eine spezielle Art von Bettdecke. Gegeben sei ein Klavier. Der Klavierspieler bekommt die physikalische Aufgabe, mit allen Tasten Lärm zu erzeugen (so wie Johann Wolfgang Goethe es zum jungen Felix Mendelsson 1821 gesagt hat). Nun fallen aber nach und nach Tasten aus und können nicht mehr benutzt werden. Um den gleichlauten Lärm zu erzeugen, muss der unmusikalische Klavierspieler die anderen Tasten immer stärker anschlagen. (Kurioserweise erhält er auch auf der rechten Seite zur Belohnung eine oder mehrere hohe Tasten dazu). Die Gesamtheit der Prozesse der Abb. 2.19 d) bestimmt die Entwicklung des Klimas der Erde. Zum Verständnis des aktuellen Ablaufs und der Veränderungen im Klima – Erwärmung oder Abkühlung – ist aber das quantitative Verstehen der Energieflüsse notwendig. Einfach sind nur die Randbedingungen der Atmosphäre. Wir verwenden die Werte von Trenberth, 2009, leicht gerundet: • Hinein von oben: Einfallende Strahlung 341 W/m2, ganz überwiegend von der Sonne, • Hinein von unten: Der Wärmefluss aus dem Erdinnern, etwa 0.1 W/m2, • Hinein, entstehend in der Oberfläche der Erde: Die Wärmeaufnahme durch die Kohle- und Ölverbrennung ist – auf den m2 Erdoberfläche und die Sekunde bezogen –noch eine Grössenordnung kleiner, etwa 0,02 – 0,03 W/m2 , und andrerseits • Hinaus: Die abgehende elektromagnetische Strahlung ins Weltall, 102 W/m2 im sichtbaren und 239 W/m2 im infraroten Bereich. Dies ist die einzige Möglichkeit der Erde, Energie los zu werden. Über eine denkbare Komplikation durch Veränderungen der Sonnenstrahlung berichten wir im Abschnitt Astronomisches. Seit 1979 gibt es Instrumente im All, die die Sonnenstrahlung präzise messen. Wir wissen deshalb sicher, dass es zumindest in den letzten 40 Jahren keine Steigerung gegeben hat. Es geht um die irdische Energiebilanz. Die einfallende Energie ist über die ganze Erde, über das Jahr und über Tag und Nacht gemittelt 341 Watt pro m2, das ist nur 1/4 der Solarkonstante (der von der Sonne gelieferten Energie im Weltraum pro m2 normaler Fläche). Den Wärmefluss aus dem Erdinneren und die Abwärme aus der Verbrennung fossiler Energie können wir hier vernachlässigen. Die Albedo (79 W/m2 von den Wolken und 23 W/m2 von der Erdoberfläche) ist physikalisch wenig interessant, es ist ja nur diffus zurückgestreutes Licht.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     129

Allerdings werden vom sichtbaren Licht direkt 78 W/m2 in der Atmosphäre aufgenommen. Kritisch für die Energiebilanz ist die Physik der Wolken: • Von der Erdoberfläche zu den Wolken gehen 356 W/m2 infrarote Strahlung. • Von den Wolken werden 333 W/m2 als Gegenstrahlung zurück zur Erde geschickt. • Von den Wolken und von der oberen Atmosphäre gehen 199 W/m2 infrarotes Licht hinaus ins All. Ein infraroter Energiestrom von 40 W/m2 geht direkt von der Erdoberfläche ins Weltall. Dazu kommen zwei Energieträger, die im Wesentlichen keine Strahlungsenergie sind, sondern mechanische oder physikalisch-chemische Energie: • Durch Konvektion und Wärmeleitung gehen 17 W/m2 Energie buchstäblich in die Luft, • Wasser verdampft und bringt beim Phasenübergang 80 W/m2 Energie in die Atmosphäre (latente Wärme). Die Genauigkeit der Werte für die verschiedenen Teilflüsse ist recht verschieden, aber offensichtlich sind in der Abb. 2.19 d) die Wolken in Ausdehnung, Typ und Eigenschaften mit ihrer Variabilität ein grosses Problem. Die Energieflüsse zwischen Erde und Wolken gehen unter den Wolken in beide Richtungen. Der Gesamtfluss bedeutet eine Differenzenbildung, die zwei Unsicherheiten addiert. Die Oberseite von Wolken, die die Strahlung ins All abgibt, kann je nach der Höhe wärmer oder kälter sein. Hohe Wolken sind kalt und sie (und damit die Erde) werden nicht viel Wärme los nach aussen ins All. Damit können Wolken die Erde sowohl wärmen wie kühlen. Auch dies erhöht die Unsicherheit Dazu kommt die Abhängigkeit der Wolkenbildung von der Wirkung der Aerosole, natürlicherweise von Vulkanen oder menschengemacht von der Industrie oder von Waldbränden (natürlich oder menschengemacht). Die Vorgänge um Wolken sind in hohem Masse stochastisch, schwer zu fassen und nicht nur wegen des Umfangs der Aufgabe schwer zu simulieren. Vielleicht wird uns die Einführung von Verfahren der künstlichen Intelligenz hier weiter bringen (s.u.). Alle an der Klimaentwicklung beteiligten irdischen Systemteile nehmen bei der globalen Erwärmung Wärme auf. Hier sind die Ozeane das grosse,

130     W. Hehl

schwer zu durchschaubare Problem. Die gesamte Atmosphäre hat im Vergleich nur die Wärmekapazität wie die obersten 3,5 m des Ozeans.

2.5 Mehr Treibhausgase „Wir sollten nicht länger unseren Reichtum und Erfolg an der Grafik messen, die das wirtschaftliche Wachstum zeigt, sondern an der Kurve zum Ausstoss von Treibhausgasen.“ Greta Thunberg, Klimaaktivistin, geb. 2003.

Es klingt wie eine Spitzfindigkeit, aber man muss das wichtigste Treibhausgas von dieser Aufforderung ausnehmen oder jedenfalls gesondert betrachten: den Wasserdampf, also gasförmiges, unsichtbares Wasser (Hansen 2008). Wir haben schon gesehen, dass Wasserdampf durch seine Ankopplung an ein de facto unendlich grosses Reservoir einerseits und die Möglichkeit zur Wolkenbildung mit flüssigem oder festem Wasser (als Tröpfchen oder als Eiskristalle) andrerseits kein leicht fassbares Treibhausgas ist (Sherwood 2018). Während CO2 und andere Treibhausgase Jahre oder gar Hunderte von Jahren in der Atmosphäre bleiben, ist die mittlere Verweilzeit von Wasserdampf etwa zwei Wochen. Es ist erstaunlich, dass man Verweilzeiten von individuellen, aber perfekt identischen Teilchen von Atomen oder Molekülen überhaupt messen kann. Aber seit 1913 weiss man dank dem englischen Chemiker Frederick Soddy, dass das gleiche chemische Element in verschiedenen Arten auftreten kann. Seit den Atombombenversuchen in der Atmosphäre hat man Methoden, um radioaktive Atome in Luftproben zu verfolgen. Mit dem Massenspektrometer gelingt dies sogar allgemein bei allen Atomen. Wasserdampf hat einen starken positiven Feedback-Effekt im Klimasystem. Die Menge des Wasserdampfs ist direkt eine Antwort der anderen Treibhausgase. Es ist schwierig, den Einfluss von Wasserdampf zu messen – er lässt sich nur schwer von den Gesamtprozessen trennen.

2.5.1 Das Messen des Treibhauseffekts Der Strahlungsantrieb eines Treibhausgases hängt nichtlinear von seiner Konzentration ab. Deutscher Wikipedia-Artikel Treibhauspotential‘

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     131

Zwei Maße sind verbreitet, um die Treibhauswirkung von Gasen zu quantifizieren; beide sind nicht trivial und messen keine direkten, klaren physikalischen Grössen, sondern sie sind Systemeigenschaften, eingebettet in verschiedene Prozesse und schwierig zu fassen. • Der Strahlungsantrieb oder Radiative/Climate Forcing (RF) durch einen Stoff im Klima der Erde. Es ist die Änderung in der Energiebilanz mit dem Einbringen oder Vorhandensein dieses Stoffes oder dieser Massnahme in die Atmosphäre. Der Strahlungsantrieb ist positiv bei erwärmenden Faktoren, negativ bei kühlenden. Es ist die Angabe, wie eine bestimmte Massnahme (wie das Einbringen eines Stoffes) die Energiebilanz der Erde ändert. Das Erdklima muss (oder müsste) diese Änderung über die Abstrahlung kompensieren. Damit ist die zugehörige Masseinheit die der Energiebilanz, nämlich Leistung pro Fläche oder W/m2. • Das Treibhauspotential oder Global Warming Potenzial (GWP) eines Gases, bezogen auf die Wirkung von Kohlendioxid, d. h. CO2 hat per Definition den Wert GWP = 1. Die Wirkung des Strahlungsantriebs einer Substanz wird über einen bestimmten Zeitraum, z. B. über hundert Jahre hinweg, mit dem Effekt von Kohlendioxid verglichen. Die Wirkung eines Gases und die gemessenen Zahlenwerte hängen von weiteren Parametern ab, z. B. von der Höhe in der Atmosphäre, in der das Gas wirkt, und vom Zeitrahmen, in dem es aus der Atmosphäre wieder verschwindet. Wesentlich ist aber auch, welche Konzentration des gleichen Stoffes (und anderer Substanzen) schon vorhanden ist. Der Effekt ist nichtlinear! Dies vermutete schon der Pionier der Klimaerwärmung, Svante Arrhenius, im Jahr 1906. Seine Worte (er hat es selbst auf Deutsch mitübersetzt): Ein Sinken der Kohlensäuremenge der Luft auf die Hälfte ihres jetzigen Betrages würde die Temperatur um ungefähr 4° herabsetzen; ein Sinken auf ein Viertel um etwa 8°. Andererseits würde eine Verdoppelung des Kohlensäuregehaltes der Luft die Temperatur der Erdoberfläche um 4°, eine Vervierfachung sie um 8° erhöhen. Dabei würde ein Sinken des Kohlensäuregehaltes die Temperaturunterschiede zwischen den verschiedenen Teilen der Erde verschärfen, eine Erhöhung sie wieder ausgleichen.

132     W. Hehl

Die Vervierfachung des CO2-Gehalts gebe nur eine Verdopplung der Zunahme. Eine wichtige und fundamentale Eigenschaft ist die Nichtlinearität, die Abnahme der Wirkungszunahme gerade mit CO2. Es ist gleichbedeutend mit einer Frage, die die Zukunft der Erde entscheiden kann: Geht die Treibhaus-Wirkung des CO2 immer weiter mit der Anreicherung des Gases oder gibt es eine Sättigung? Die Antwort ist umstritten (nächster Abschnitt).

Eine einfache und sicher nur sehr beschränkt gültige Abschätzung des Antriebs von CO2 ist eine Formel mit langsamem, logarithmischem Anwachsen des Strahlungsantriebs mit zunehmender CO2-Konzentration und Erwärmung aus dem Jahr 1998 (Myrhe 1998). Die zugehörigen globalen Erwärmungen sind vergleichbar mit den Schätzungen von Arrhenius. Moderne Werte für die aktuelle Beeinflussung des Klimas durch CO2 sind etwa 1,6 W/m2. Die Schätzungen der zugehörigen globalen Erwärmungen sind vergleichbar mit den Schätzungen von Arrhenius! Wir betrachten die weiteren bedeutsamen Treibhausgase Methan, Lachgas, Ozon und die exotischen Fluorchlorwasserstoffe u.ä. Zum Vergleich vorab die Bedeutung der Stoffe für die menschengemachte Klimaerwärmung, die ungefähren virtuellen Erwärmungen der Erdoberfläche durch die folgende Stoffe, die Strahlungsantriebe: Kohlendioxid 2,0 Watt/m2, Methan 0,5 Watt/m2, Lachgas 0,2 Watt/m2, Fluorchlorkohlenwasserstoffe pauschal 0,15 Watt/m2 und Ozon etwa 0,4 Watt/m2. nach Butler, 2020, NOAA Annual Greenhouse Index, 2020.

2.5.2 Methan Methan – der böse Zwillingsbruder des Kohlendioxids Titel eines Artikels der Deutsche Welle, 2019.

Neben Wasserdampf und Kohlendioxid gibt es weitere Gase mit Treibhauswirkung. Wie oben gezeigt, ist es zunächst eine physikalische Voraussetzung für den Treibhauseffekt eines Gases, dass es Schwingungen (oder Rotationen) der Gasmoleküle gibt, an denen elektromagnetische Strahlung angreifen kann. Je grösser das Molekül, umso mehr interne Schwingungsmöglichkeiten existieren.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     133

Dazu muss die entsprechende Substanz hinreichend häufig in der Atmosphäre vorkommen. Hier ist, natürlich vorkommend wie menschengemacht, das Methan am wichtigsten. Die treibhaustreibende Kraft des Methans ist um den Faktor 28 grösser als bei Kohlendioxid, bezogen und gemessen über hundert Jahre (GWP = 28). Allerdings bleibt emittiertes Methan nur etwa 10 Jahre (ein neuerer Wert ist 12,4 Jahre) in der Atmosphäre – es wird zu Kohlendioxid und Wasser umgesetzt. Da die Konzentration des Methans relativ gering ist, spielt das zusätzliche CO2 keine grosse Rolle im Klima. Zu Beginn der Erdgeschichte waren Kohlendioxid und Methan die beiden Gase, die die Erde durch ihren Treibhauseffekt erwärmten. Das Kohlendioxid war zum Beispiel aus Vulkanen entwichen, das Methan war durch Mikroben aus Kohlendioxid und Wasserstoff entstanden. Solange in der irdischen Atmosphäre kaum Sauerstoff vorhanden war, war das Methan stabiler und konnte in höheren Konzentrationen vorkommen. Methan historisch [Die Chimäre] hatte sowohl den Kopf der Ziege wie des Löwen, dazu einen Schlangenschwanz. Alle Beschreibungen stimmen darin überein, dass sie Feuer aus einem oder mehreren ihrer Köpfe ausatmete. Beschreibung der Chimäre in hellenicaworld.com Greece Mythology.

Schon in vorwissenschaftlicher Zeit hatte es Phänomene gegeben, die von Methan verursacht waren, aber deren Grund nicht oder nur vage bekannt war und die deshalb als geheimnisvolle Erscheinungen galten. Methan ist ein brennbares und geruchsloses Gas, das mit Luft explosive Gemische bildet. Es ist leichter als Luft und ist Hauptbestandteil von Erdgas. Die Abb. 2.21 zeigt die Flammen, die seit der Antike aus dem Felsboden schlagen durch Risse und Kanäle im Fels. In der Antike galt es als Heiligtum der Chimäre mit dem ewigen Feuer der feuerspeienden Chimaira wie der Ort in der Antike hiess. Eine andere, ebenfalls seit langem bekannte Quelle von Methan sind Sümpfe und der Name dort ist Sumpfgas. Der italienische Physiker Alessandro Volta hat es 1776 im Schlamm des Sees Lago Maggiore entdeckt und zwei Jahre später rein hergestellt. Das Chemiebuch aus dem Jahre 1840 schlägt dem Studenten diesen Weg vor (Abb. 2.22): Man bohre einen Stab in den Schlamm eines Teiches ein und fange die emporsteigenden Luftblasen in einer darüber gehaltenen, mit Wasser gefüllten Flasche auf. ... das Sumpfgas ist aus unter Wasser zersetzten Pflanzentheilen entstanden.

134     W. Hehl

Abb. 2.21  Die Feuer von Chimaira (Türkei). Flammen mit brennendem Gas, vor allem mit Methan, schlagen aus dem Fels. Aufnahme Alexander Hoernigk. Mit freundlicher Genehmigung. Bild: commons.wikimedia.org/wiki/File:Chimaira_gas_fires_2004-12-24_11.55.10.

Abb. 2.22  Die historische Darstellungsweise von Methan als Sumpfgas Aus Schule der Chemie, versinnlicht durch einfache Experimente, von Julius Stockhardt, Vieweg, 1840, Abschnitt 586.

Der Name Methan rührt vom Stoff her, der chemisch zu Methan führen kann, dem zugehörigen Alkohol Methanol, früher Holzgeist oder Methylalkohol genannt vom altgriechischen méthy oder μέθυ für berauschendes Getränk und hylé oder altgriechisch ὕλη für Holz.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     135

Methan Quellen5 Das Beispiel von Volta und aus dem Chemieversuch zeigt den direkten Übergang von Methan in die Atmosphäre. In der Tat stammt das irdische Methan direkt oder indirekt aus dem Prozess der Methanogenese, der Erzeugung von Methan durch Mikroben. Es sind anaerobe Prozesse, also Vorgänge unter Ausschluss von Sauerstoff. Sauerstoff ist sogar für diese Prozesse schädlich. Aber wenige Zentimeter unter der Sedimentoberfläche der Gewässer gibt es keinen Sauerstoff mehr. Die Methanogenese entfernt die vorletzten Endprodukte des Abbaus organischer Materialien, etwa Wasserstoff, Sauerstoff oder schon einfache organische Verbindungen wie Ameisen- oder Essigsäure, Methanol oder Dimethylsulfid. Ohne Methanogenese würden sich solche Verbindungen ansammeln. Der Prozess baut auch das Treibhausgas CO2 ab – verwandelt es aber dabei in einen viel mächtigeren Klimatreiber, in Methan CH4. Es ergibt sich eine lange Liste von bekannten oder möglichen Methanquellen. Wir teilen ein in natürliche und anthrogene Quellen sowie in normale Quellen, die bekannt sind und eventuell mit der globalen Erwärmung leicht zunehmen, und in Quellen, die drohende Möglichkeiten sind. Die von verschiedenen Autoren angegebenen Mengen unterscheiden sich häufig für die gleiche Quelle; es sind keine elementaren physikalischen Grössen! Ein extremes Beispiel sind die Schätzungen für das Methan in den Böden des Permafrostes: Die gesamte im Permafrost der Nordhalbkugel gespeicherte Menge an Methan wird auf 7,5 bis 400 Mrd. t. Kohlenstoff (400 Gt C)6 geschätzt. Bildungsserver Klimawandel, Seite Klima, gezogen Dezember 2020.

Ein anderes Beispiel sind die Schätzungen oder Extrapolationen der Methanentwicklung der Feuchtgebiete der Erde pro Jahr – sie reichen von 115 Mio. t. in 1980 bis 237 Mio. t. heute; wahrscheinlich auch mit verschiedenen Definitionen von Feuchtgebieten, z. B. mit oder ohne Reisanbauflächen. Derartige Werte sind durch die Natur der Problematik nur unscharf definiert und sehr schwer und aufwendig zu bestimmen. Eine angewandte wissenschaftliche Methode ist es, die Emissionswerte von unten (bottom-up) zu rechnen, d. h. aus den Einzelbeiträgen und Modellannahmen, oder von oben 5 Um

konsistent zu sein, sind nahezu alle Methanzahlen aus einer Arbeit genommen, nämlich von Dlugokencky (2011). 6 Die Gewichtseinheiten sind nach der Norm Tausendereinheiten von Gramm, z. B. ist eine Tonne 1 Mg, eine Milliarde Tonnen sind 1 Pg (Petagramm).

136     W. Hehl

(top-down), z. B. durch regionale Messungen etwa mit Drohnen. Die Ergebnisse der Messungen haben den Vorteil, unabhängig von Modellannahmen zu sein. Die Differenz zwischen den beiden Werten ist dann ein (in sich auch unsicheres) Mass für die Unsicherheit. Nach diesem Eingrenzungsverfahren ergab sich nach dem Global Carbon Project (2020) die gesamte emittierte Methan-Menge pro Jahr im Jahrzehnt von 2008 bis 2017 zu 576 Mio. Tonnen top-down und 737 Mio. t. bottom-up gerechnet. Für das Einbringen des Methans gibt es eine etwas entschärfende Nachricht. Das CH4 bleibt im Mittel nur 9 Jahre in der Atmosphäre, nicht Hunderte oder gar Tausende von Jahren wie das CO2. Hier hat die Menschheit bessere Chancen, etwas zu revidieren als beim Grundproblem. Die schlechte Nachricht dabei: Das Methan verwandelt sich vor allem in das langlebige Treibhausgas CO2 und in Wasser, und dies oben in der Stratosphäre. Im Sinne der oben eingeführten Skala der wissenschaftlichen Härte ist die Treibhauswirkung des Methans eindeutig; wir werden unten die Physik dazu klarlegen. Auch sind viele der aufgelisteten Effekte etabliert und ebenfalls von wissenschaftlicher Härte +2. Die genaue Bedeutung und viele der quantitativen Angaben sind +1 (transient wissenschaftlich) oder gar nur 0 (also plausibel und im wissenschaftlichen Rahmen). Hier einige Quellen von Methan, zunächst natürliche Einträge, d. h. ohne die Einwirkung des Menschen: • Feuchtgebiete Diese liefern den grössten Beitrag an Methan für die Atmosphäre. Neuere Schätzwerte geben absolut etwa die Menge zwischen 102 und 182 Mio. t. CH4 pro Jahr in der Zeit von 2007 bis 2017 mit einem Mittelwert von 149 Mio. t. (Global Carbon Project, 2020), die in die Atmosphäre gelangen, das sind etwa 30–50% des gesamten Methans. Der überwiegende Teil kommt aus den feuchten Gebieten in den tropischen Zonen. Durch die erhöhte Temperatur und mit mehr Feuchtigkeit nehmen die Methanausscheidungen dieser Regionen durch die globale Erwärmung zu. Andrerseits gehen einige Flächen von Feuchtgebieten in Regionen wachsender Dürre zurück. Dies ist vielleicht eine gute Nachricht in den schlechten Nachrichten der Erwärmung und Ausdehnung der ariden und semiariden Gebiete. Die Reduktion der Niederschläge in diesen Regionen sollte die Ausdehnung der trockenen Gebiete vergrössern. Dies gilt auch, wenn die Waldrodungen am Amazonas und in Indonesien die feuchten Wälder in trockene Nutzflächen verwandeln. Die meisten der

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     137



­ euchtgebiete befinden sich in den Tropen; dies spiegelt sich in der VerF teilung der Methanemissionen über die verschiedenen geografischen Breiten in Abb. 2.23. Die Feuchtgebiete erzeugen weltweit etwa 150 Mio. t. CH4 pro Jahr. Termiten Die etwa 3000 Arten Termiten erzeugen Methan bei ihrer Verdauung und geben die Hälfte davon an die Atmosphäre ab. Es sind weltweit immerhin 20 Mio. t. CH4 Weitere Quellen sind Süsswasserseen, Pflanzen, wilde wiederkäuende Tiere und geologische Ausdünstungen, z. B. als Grubengas und wie in Abb. 2.21 direkt als buchstäbliches Erdgas.

Die Methan-Beiträge durch den Menschen rühren vor allem aus der Landwirtschaft mit der Nahrungsmittel-Produktion und der Abfallwirtschaft sowie aus dem Energiesektor: • Wiederkäuende Nutztiere weltweit Diese Tiere können Pflanzenmaterialien wie Zellulose aufschliessen, vor allem Kühe und Schafe. Die Abb. 2.24 zeigt das Wachstum der globalen Tierbestände und die Grössenordnungen der häufigsten Tierarten, insbesondere der wichtigsten, der Rinder. Auffallend ist der Anstieg der genügsamen Ziegen. Wiederkäuer haben ein inneres Ökosystem mit Bakterien, Urtierchen und Pilzen, mit dem sie verdauen und dabei Methan produzieren. Im Kuhmagen, dem Pansen, entsteht so mit Hilfe von Mikroben Methan. Das Methan aus der Gärkammer wird als Rülpser ausgestossen (und

Abb. 2.23  Die Verteilung der globalen Methanemissionen auf Breitenzonen Aus: Global Carbon Project, Global Methane Budget 2020.

138     W. Hehl

Abb. 2.24  Der globale Bestand an wiederkäuenden Nutztieren Quelle: Joint FAO/IAEA Programme, Belching Ruminants, a minor player in atmospheric methane, 2008.





nicht über den Darm, wie es häufig geglaubt wird). So entweichen bei einer gut genährten Kuh mehrere hundert Liter Pansengas pro Tag, davon 60% Kohlendioxid und 40% Methan. Das sind 20 bis 150 kg Methan im Jahr! Das Balkendiagramm der Abb. 2.25 vergleicht die Kuhhaltung in verschiedenen Ländern und zeigt den Unterschied zwischen Milchkühen und Schlachtrindern. Milchrinder werden, vor allem als Hochleistungstiere, intensiver gefüttert und scheiden mehr Methan aus. Die grobe Schätzung gibt für die etwa 500 000 Schweizer Kühe etwa 50 000 Tonnen CH4 – die halbe Milliarde indischer Kühe emittiert etwa 15 Mio. t. Es gibt dazu FuttermittelZusatzstoffe, die die Bakterienkulturen im Kuhmagen verändern, den Methanausstoss verringern (und die Milchproduktion erhöhen); mehrere Schweizer Start-up-Unternehmen entwickeln solche Mittel bzw. bieten sie an. Die Wiederkäuer der Welt schicken insgesamt etwa 80–90 Mio. t. CH4 pro Jahr in die Atmosphäre. Energieversorgung Erdgas, im wesentlichen Methan CH4, ist bei den Statistikern des Klimawandels beliebt. Da der Brennwert des im Methan enthaltenen Wasserstoffs praktisch klimaneutral ist, hat der Ersatz von Kohle- oder Braunkohlekraftwerken durch Erdgas den CO2-Ausstoss eines Landes erfreulich verringert. Aber es gibt vor allem bei der Produktion von Erdgas und als Nebenprodukt bei der Erdölförderung grosse Mengen von

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     139

Abb. 2.25  Vergleich der durch die Verdauung produzierten Methanmengen pro Rind und Jahr in verschiedenen Geografien. Quelle: scroll.in, indische Nachrichtenagentur/IPCC, Bovine burping and flatulence, 2020.

Methan, die entweichen. Dazu kommen Verluste durch Lecks bei der Verteilung. Wirtschaftlich machen den Unternehmen 1, 2 oder 3% Verlust nichts aus, aber für das Klima werden sie grosse Treibhaustreiber. Besonders starke Lieferanten von Methan sind die Anlagen zur Erdgasgewinnung durch das Fracking-Verfahren; Die chemische Signatur des Methan vom Fracking-Prozess findet sich in der Atmosphäre, sie zeigt auf den Schiefergasabbau als Schuldigen. Stephen Leahy, National Geographic, 2019.

Das geringere Verhältnis der Kohlenstoffisotopen C13 zu C12 im Methan verrät es. Da die Fracking-Anlagen sowieso an der Grenze wirtschaftlichen und ökologischen Sinns liegen, könnten weitere Auflagen das Ende der Technologie bedeuten. Der fossile Energiebereich liefert insgesamt im Jahresschnitt etwa 110 Mio. Tonnen Methan in die Luft. • Reisfelder Nach den Lehren der Methanausscheidungen aus Feuchtgebieten ist es offensichtlich, dass der Reisanbau ebenfalls eine Quelle von Methan ist. 90% des Reisanbaus der Welt erfolgt mit überfluteten Feldern, in denen methanogene, anaerobe Bakterien gedeihen. Die Felder sind für mehrere Monate künstliche Sümpfe. Reispflanzen scheiden auch über die Blätter

140     W. Hehl







Methan aus. Beim Austrocknen der Felder wir das im Boden gespeicherte Methan frei. Reis ist ein Hauptgetreide der Welt, 3,5 Mrd. Menschen essen Reis, für eine halbe Milliarde Menschen ist es sogar die Hauptnahrung. Eine Möglichkeit, den Methanausstoss zu reduzieren, ist die Reduktion der Überschwemmungszeiten. Methoden dazu werden entwickelt wie die madegassische Methode SRI, System of Rice Intensification. Neue Verfahren können leicht Nachteile haben, z. B. dafür mehr Lachgas (ein anderes Treibhausgas) entwickeln oder Herbizide brauchen. Die Reispflanzen gedeihen unter Wasser, Unkräuter dagegen nicht unter 5 cm Wasser. Das gibt noch Raum für Verbesserungen im Reisanbau mit weniger Umweltbelastung, aber noch mehr Nahrung für Menschen. Der Reisanbau liefert etwa 30–40 Mio. Tonnen Methan pro Jahr in die Atmosphäre. Abfall und Brände Das Verrotten organischen Materials auf Mülldeponien erzeugt im Deponiegas ebenfalls Methan. Die genaue Zusammensetzung der Gase hängt natürlich von der Art der deponierten Materialien ab, aber Methan ist i.A. der Hauptbestandteil. So entstehen aus einer Tonne Hausmüll etwa 100 m3 oder 70 kg Methan. Müllhalden und Methanerzeugung einerseits oder Müllverbrennung und CO2-Emission andrerseits sind die problematischen Alternativen für die Müllentsorgung. Die globale Schätzung an Methan aus diesen Quellen ist ungefähr 50 Mio. t., dazu noch einmal eine ähnliche Menge für brennende Biomasse, vor allem das Abbrennen zur Gewinnung von Ackerland, etwa 50–60 Mio. Tonnen jeweils pro Jahr.

Zieht man alle Flüsse von Methan in die Atmosphäre zusammen, so erhält man 500–600 Mio. Tonnen CH4 im Jahr. Der Gehalt an Methan in der Luft ist dabei relativ gering, er ist seit vorindustrieller Zeit mit etwa 750 ppb (Moleküle CH4 pro 1 Mrd. Luftmoleküle oder auch Nanomol pro Mol Luft) zu 1900 ppb angestiegen, das entspricht 4,5 Mrd. Tonnen Methan. Zur Veranschaulichung: 1 ppb bedeutet etwa 1 Fingerhut Flüssigkeit auf 10 Schwimmbäder verteilt oder 1 Weizenkorn in 100 Tonnen Weizen. Die Abb. 2.26 illustriert sehr falsch-farbig malerisch die weltweite Verteilung von Methan. In der Stratosphäre ist es sichtlich über den Tropen konzentriert. Vor allem das obere Bild mit den noch sichtbaren Methanwirbeln zeigt, dass sich Methan nicht sehr leicht vermischt; es ist not very well mixed, nicht leicht global verteilbar.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     141

Abb. 2.26  Methan in der Atmosphäre der Erde Die Verteilung in den niederen, bodennahen Luftschichten (Troposphäre) und in den höheren Schichten (Stratosphäre) im NASA Computermodell. Bilder: GMAO Chemical Forecasts and GEOS-CHEM NRT simulations Oben: ICARTT. Unten: NASA GSFC.

Damit sind die Quellen von CH4 im Prinzip bekannt. Auf der Skala der Wissenschaftlichkeit also sind sie im Konzept +2 (etabliert), allein die quantitativen Werte sind zum Teil unsicher und auf Niveau +1. Allerdings ist das Methan in der Luft verschiedenen chemischen Reaktionen ausgesetzt, etwa mit Lachgas und vor allem mit Ozon. Diese Koppelungen sind komplex und dabei wichtig für die Lebensdauer des Methans in der Atmosphäre und damit für das Klima. Aber es gibt zwei grosse Methan-Reservoire in der Welt, die bisher verschlossen waren, sich aber nun mit der globalen Erwärmung öffnen, ja sogar weit öffnen könnten – bis hin zur Katastrophe. Sie sind Niveau +1, vor kurzem aber eher noch 0, also wissenschaftlich-spekulativ gewesen: Grosse Mengen Methan sind in den Permafrostböden und in den Gründen der Ozeane gespeichert.

142     W. Hehl

Permafrost Es scheint, dass eine Erwärmung um wenige Grad Celsius ausreicht, um grosse Gebiete mit Permafrost zu destabilisieren und möglicherweise das Klimasystem zu beeinflussen. Jannik Martens, schwedischer Klimatologe, 2020.

Wenn in einem Gebiet der Erde die Temperatur unter null Grad bleibt, dann dringt die Kälte in den Boden ein (d. h. es wird dem Boden immer tiefer Wärme entzogen), es entstehen Gebiete, die dauernd gefroren sind: Permafrost. Die Abb. 2.27 ist eine Karte der Permafrost-Regionen der Nordhalbkugel der Erde. Auf der Nordhalbkugel sind es etwa 19–23 Mio. km2, die eine mittlere Jahrestemperatur von -2°C oder darunter haben und damit Permafrostregionen sind. Schnee isoliert den Boden und verhindert oder erschwert die Bildung von Permafrost in manchen Regionen, etwa im Nordwesten Norwegens, trotz tiefer Temperatur. In der Karte zeigt der Grad der Bläue an, wo sich zusammenhängender Permafrost befindet oder unzusammenhängende Gebiete oder isolierte Flecken oder sogar ein submarines Permagebiet am Meeresboden. Der Permafrost dringt in die Erde ein, bis die Temperatur einer Schicht gleich 0°C ist (Tab. 2.3). Dabei ist die zur Erdoberfläche abgeführte Wärme gleich dem Zufluss aus dem Erdinneren als Folge des geothermischen Gradienten (der Zunahme der Temperatur in Richtung Erdmittelpunkt). Dieser Gradient hat in geologisch ruhigen Gebieten etwa den Wert 25–30°C/km. Die thermische Leitfähigkeit von Erde oder Boden ist sehr gering; das Eindringen der jährlichen Kältewellen geschieht sehr langsam. Die Tab. 3 illustriert die berechneten Zeiten mithilfe der Messungen von Temperatur und Wärmeleifähigkeit der Proben in Ölbohrungen in Alaska (Pudhoe Bay). Es sind sehr lange Frostzeiten notwendig, um tiefen Permafrost zu erzeugen. Die grösste bekannte Basistiefe ist 1493 m in Sibirien. Bisher ging es im Permafrost also um lange Zeiten. Aber dies ändert sich in unserer Epoche. Die Abb. 2.28 zeigt eine kuriose Erscheinung in einer Übergangszone des Permafrosts, hier als physikalische Besonderheit erwähnt: die Bildung von Ringen aus Steinen. Es ist die vielleicht grossartigste Selbstorganisation in der unbelebten Natur, die in den langen Serien von Auftauen und Gefrieren im nicht zu harten Permafrost entsteht. Der Prozess sortiert die Steine nach Grösse und formiert die Kreise. Durch die globale Erwärmung taut der Permafrost auf, die Permafrostgebiete schrumpfen und entlassen Treibhausgase, vor allem ­Kohlendioxid

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     143

Abb. 2.27  Die Ausdehnung der Permafrost–Gegenden auf der nördlichen Halbkugel, terrestrisch und submarin Die Blauabstufungen bedeuten in abnehmender Bläue: Zusammenhängender, unzusammenhängender, sporadischer, isolierter und submariner Permafrost. Bild: Permafrost_NH, European Environment Agency (2017), aus: The Arctic environment. European perspectives on a changing Arctic.

Tab. 2.3  Die Zeiten, bis der Permafrost eine Tiefe erreicht Nach dem englischem Wikipedia-artikel Permafrost und nach Lunardini (1995). Gezogen 12/2020.

Zeitspanne des Entstehens

Tiefe des Permafrosts

1 Jahr 350 Jahre 3 500 Jahre 35 000 Jahre 100 000 Jahre 225 000 Jahre 775 000 Jahre

4,4 m 80 m 220 m 460 m 568 m 626 m 688 m

144     W. Hehl

Abb. 2.28  Steinringe auf Permafrost. Svalberg-Region auf Spitzbergen. Bild: Permafrost Stone rings NH, Wikimedia Commons, Hannes Grobe.

und Methan. Die Ansammlungen an Methan können sogar explosiv werden. Das entweichende Methan sammelt sich und wirft Hügel auf, die schliesslich explodieren und Krater in der Landschaft hinterlassen. Es entstehen neue (feuchte) Lebensgemeinschaften, die dunkler sind (eine niedrige Albedo haben), mehr Sonnenlicht absorbieren und das Auftauen weiter beschleunigen. Dazu kommen ganz praktische Probleme: Der arktische Permafrostboden enthält mineralische Substanz, Organisches und Eis miteinander vermengt. Schmilzt das Eis, so wird die bisher solide Struktur zerstört, Luft dringt ein und der Boden wird instabil. Menschliche Bauten, Gebäude oder auch Pipelines werden mit dem erweichenden Boden instabil und benötigen eine ganz andere Bauphysik. Das Entsprechende gilt in der Natur. Die Küstenkanten brechen ab, in der sibirischen Landschaft entstehen durch das Auftauen Tausende von Einbruchkratern, der grösste Krater ist der Batakajka-Megaslump in Jakutien, etwa 1000 mal 800 m gross und hundert Meter tief. So entstehen neue Landschaften mit vielen Tümpeln und Seen. Jedes Anbrechen der geschlossenen Permafrost-Schicht beschleunigt den Vorgang des Wandels. Eine Umkehrung ist schwer denkbar und wäre ein ganz anderer, langwieriger Prozess, z. B. über das Auffüllen der Teiche und Seen mit Sedimenten und ihre Trockenlegung. Hier einige Schätzungen der

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     145

Mengen von vorhandenem organischem Kohlenstoff in den Erdschichten als Ausgangsmaterial zur Entwicklung der Treibhausgase CO2 und CH4 (gerundete Werte aus Hugelius 2014): Tiefe

Organischer Kohlenstoff

Tiefe

Organischer Kohlenstoff

0 bis 0,3 m 0 bis 1 m

220 Mrd. t 470 Mrd. t

0 bis 3m Insgesamt

1 030 Mrd. t 1 300 Mrd. t

Ein ungünstiger Effekt beschleunigt das Auftauen der Permafrostregionen. Die globale Erwärmung ist in den arktischen Regionen am stärksten, sie ist hier doppelt bis drei Mal so stark wie im globalen Mittel. (Abb. 2.29). Aber vielleicht ist die kausale Beziehung umgekehrt und gerade die Erwärmung der subarktischen Sumpfgebiete und des auftauenden Permafrostes sind die Schuldigen? Es ist beides, nämlich die Rückkopplung des auftauenden Eises und der erhöhten Aufnahme von Strahlung (die verringerte Albedo). Ganz anders verhält sich die Antarktis. Während die Arktis ein Ozean ist, der von Kontinenten umgeben ist, ist die Antarktis ein Kontinent, den Ozeane umgeben. Dazu kommen vor allem ablandige Winde, der polare Vortex, der den antarktischen Kontinent von der Erwärmung der umgebenden, weit entfernten Landmassen abschirmen. Das antarktische Hochland mit 2500 m im Schnitt ist so hoch und so kalt, im Mittel -55°C, dass keine Phasenübergänge (kein Schmelzen von Eis, kein Regnen) zu erwarten sind. Übrigens hat bisher das Ozonloch die A ­ ntarktis

Abb. 2.29  Die Temperaturänderung der Erdoberfläche über etwa 50 Jahre. Nach dem NASA Goddard Institute for Space Studies, 2020. Bild: Change of Average Temperature, Wikimedia Commons, NASA Visualization studio, Erik Fisk.

146     W. Hehl

vor Erwärmung beschützt. Das (stratosphärische) Treibhausgas Ozon absorbiert an der Aussenkante der Atmosphäre Wärme und erhöht dort die Temperatur – das Ozonloch kühlt umgekehrt darunter liegende Bereiche. Wenn das Ozonloch sich verkleinert (weil man ja den Schutz des Ozons vor sengender UV-Strahlung haben möchte) und die globale Erwärmung weitergeht, dann wird auch der antarktische Kontinent in Gefahr sein. Klathrate und die teilwiderlegte Clathrate Gun Hypothesis Die Klathrat-Kanonen Hypothese schlägt vor, dass in geologischen Zeiträumen das marine Methanhydrat immer wieder geladen und entladen wurde. In den kalten Eiszeit-Intervallen wurde es angesammelt und nur durch Impulse von wärmerem Wasser an den Hängen der Kontinentalschelfs wieder aufgelöst. Dieser Mechanismus hätte die globalen Erwärmungsphasen verstärken und beschleunigen können. California State University, Geological Sciences, gezogen 12/2020.

Klathrate sind Einschlussverbindungen: Die Atome der Sorte A bilden einen Rahmen oder einen Käfig, der Atome (oder Moleküle) der Sorte B einschliessen kann. Das Wort Klathrat kommt vom lateinischen clatratus vergittert oder hinter Gittern. Die Abb. 2.30 zeigt das Bauprinzip am Beispiel des Einschlusses eines Methanmoleküls CH4 in ein Gitter aus Eis. Die Atome der Wassermoleküle – im Bildchen sind die Sauerstoffatome rot, die Wasserstoffatome grau – spannen ein Gitter auf in der Form von Dodekaedern mit

Abb. 2.30  Das Methanklathrat im Stäbchenmodell Ein eingebundenes Methanmolekül CH4 in einem Käfig aus Eis bzw. Wasser H2O (O-Atome rot und H-Atome grau). Bild: Inlay, Wikimedia Commons, Universität Göttingen, Kristallographie.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     147

Abb. 2.31  „Brennendes Eis“ Brennendes Methan aus Methanklathrat (Methanhydrat) Bild: Burning hydrate, Wikimedia Commons, US Naval Research.

inneren Hohlräumen. Es ergibt sich geometrisch eine seltsame Numerologie: Auf 4 Methanmoleküle kommen 23 Wassermoleküle! Das erste bekannte Klathrat, eine Verbindung von Chlor in Eis, war schon 1823 vom englischen Physiker und Chemiker Michael Faraday beschrieben worden. Der amerikanische Nobelpreisträger Linus Pauling hat es 1952 untersucht. Das Klathrat von Methan in Eis hatte sich zuerst als störender Brei in den Bohrlöchern von Erdgas, also gewöhnlichem gasförmigem Methan, bemerkbar gemacht. Die systematische Untersuchung begann in den 60er Jahren des vergangenen Jahrhunderts in Russland in Bohrungen im sibirischen Permafrost. Das Methan ist im Eis als Methanklathrat extrem komprimiert; bei Raumtemperatur ist es instabil und das Methan entweicht; aus 1 m3 Methanhydrat entweichen 164 m3 Methan und es bleiben 0,8 m3 Wasser zurück. Methaneis entsteht zum einen in den äusseren, kalten Bereichen des Sonnensystems aus Wassereis und Methan, aber auch auf der Erde in der Kälte und im tiefen Wasser unter dem Druck der Wassersäule etwa ab 200 m Tiefe und bei Temperaturen um 0°C bei bestimmten Bedingungen. Das eingelagerte Methan haben methanogene Bakterien oder besser Archaeen (früher Urbakterien genannt) aus organischem Material in Sedimenten erzeugt. Deshalb finden sich Methaneis-Lagerstätten in den Ozeanen an den Hängen der Kontinente im Schelf, den Sockeln der Kontinente im Meer,

148     W. Hehl

dort wo gerade die richtigen thermischen Bedingungen und geeigneter Druck herrschen. Daneben kommt es in Bohrungen im Permafrost vor, aber auch im Süsswasser des tiefen Baikalsees. Der Stoff Methaneis bildet graue bis gelbe Massen. Er hat eine leicht geringere Dichte als Wasser und würde, wenn er frei wäre, im Meer aufsteigen. Deshalb bindet er sich mit den Sedimenten, mit Sand und Gestein zu einem zementartigen Gemenge. Ohne diesen Halt, etwa bei einem untermeerischen Erdrutsch, wird es befreit und steigt auf. Dies wäre schon ein begrenzter Kanonenschuss, um das Bild der KlathratKanonen-Hypothese zu verwenden. Ein vereinzelter solcher Vorgang ist nicht ausschlaggebend für das Klima, aber was geschähe, wenn die Klimaerwärmung auf breiter Front Methanklathrate öffnete? Von einem einzelnen grösseren Ausbruch im Meer geht eine andere, begrenzte Gefahr aus. Das sich ergebende Gemisch aus Wasser und Methanblasen hat für Körper einen geringeren Auftrieb als Wasser. Ein Schiff an dieser Stelle könnte in einer auch ohne Wind tobenden See klaglos untergehen. Hier drängen sich die Gerüchte vom Bermudadreieck auf … Die Schätzungen der Menge des gesamten gefrorenen Brennstoffs gehen weit auseinander; bereits reduzierte Schätzungen der Menge sind zwischen 1000 und 5000 Mrd. t. (Gigatonnen) Methan oder 750 bis etwa 4000 Mrd. t. Kohlenstoff (worldoceanreview 2010). Zum Vergleich hierzu sind die bestätigten Kohlereserven der Erde etwa 1000 Milliarden Tonnen, die Erdölreserven und die Erdgasreserven sind geschätzte 220 bzw. 240 Milliarden Tonnen, zum besseren Vergleich ebenfalls in den Kohlenstoffmengen gemessen (Freude 2020). Die Zahlen der Methaneisvorkommen könnten die unsichersten sein in der ganzen Klima-Thematik. Jedenfalls geht es um riesige lagernde Mengen, die den Gedanken an eine Zeitbombe aufbringen. Hier einige typische Schlagzeilen aus letzter Zeit in der globalen Presse: Die gefürchteten Methanlager in der Arktis beginnen zu entweichen – Wissenschaftler warnen vor abruptem Klimawandel in der Zukunft. India Science News 29.10.2020. Das erste aktive Leck von Meeresgrund-Methan in der Antarktis entdeckt. The Guardian, 22. 8.2020. Grosse Mengen Methan lauern auf dem Meeresgrund und könnten die globale Erwärmung noch viel schlimmer machen. National Geographic, 17.12.2019.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     149

Seit einem Jahrzehnt gibt es drohende Schlagzeilen zum Methanhydrat, hier noch zwei historische Beispiele: Der Golfstrom taut das unterseeische Methan auf – was bedeutet dies für den Klimawandel? Carbonbrief, 25.10.2012. Methan und das Risiko einer Runaway globalen Erwärmung The Conversation, 26. 7.2013.

Die Runaway-Erwärmung ist das grösste Schreckgespenst, d. h. eine derartig starke Rückkopplung, hier mehr Methan, also mehr Wärme, damit mehr Methan usf. Dies ergäbe eine Venusianisierung, ein Davonlaufen bis zu einem lebensfeindlichen neuen Endzustand wie auf der Venus geschehen mit Kohlendioxid. Eigentlich hat es schon Perioden von Erwärmung der Erde und Ozeane gegeben, nämlich das Ende von Eiszeiten. Im Jahr 2017 hat ein Projekt deshalb eine Erwärmung in der Vergangenheit als Analogon zu unserer globalen Erwärmung verwendet und genauer untersucht. Dies gelingt über die Messung des radioaktiven Methangehalts in 11–12 000 Jahre alter Luft in antarktischen Eisbohrkernen; dies entspricht dem Ende der jüngeren Dryas-Eiszeit. Die Forscher Petrenko (2017) und Dyonisius (2020) finden praktisch kein fossiles Methan in der gespeicherten Luft, nur damalig frisches Methan aus den damaligen Feuchtgebieten. Ihr erfreulicher Schluss: „…die [damaligen] Erwärmungen sind vergleichbar mit der jetzigen, vom Menschen verursachten Erwärmung. Nach unseren Messungen erscheint es unwahrscheinlich, dass in naher Zukunft alte Kohlenstoffquellen grosse Mengen Methan in die Atmosphäre einbringen." Vasilii Petrenko, amerikanischer Geophysiker, 2017.

Während des Aufstiegs im Meer wird das Methan leicht von methanotrophen Bakterien zu Kohlendioxid oxidiert. Solange dieser Vorgang überwiegt, würde die ganz grosse Katastrophe ausbleiben. Kohlendoxid ist ja ein wesentlich schwächeres Treibhausgas als Methan. Die Physik des Methans und der Treibhauseffekt. „Was für Männer sind die Poeten, die von Jupiter als einem Menschen reden können, die aber schweigen, wenn er eine riesige rotierende Kugel aus Methan und Ammoniak ist?“ Richard Feynman, amerikanischer Physiker, in Vorlesungen über Physik I, etwa 1961.

150     W. Hehl

Dieses berühmte Zitat von Feynman betont die Schönheit der physikalischen Objekte an sich. Im solaren System der Planeten ist auch Methan dabei, vor allem auf Titan, dem grössten Mond des Saturn. Methan kommt dort als Gas in der Atmosphäre und als Flüssigkeit auf der Oberfläche vor, in grossen Seen und mit Methanstürmen. Für den Treibhauseffekt sind Schwingungen des Methanmoleküls notwendig, die Energien aus dem elektromagnetischen Spektrum herausnehmen. Dazu muss das Licht an eine Ladungsungleichheit ankoppeln können. Die Grundschwingung, bei der alle vier H-Atome auf das C-Atom zu- und fortschwingen, funktioniert deshalb nicht, der Schwerpunkt bleibt ruhig im Zentrum. Hier sind es die Schwingungsformen, die das Kohlenstoffatom gegen die Umgebung aus vier Wasserstoffatomen bewegen. Es ist eine antisymmetrische Streckschwingung, bei der sich das C-Atom im Tetraeder der vier Wasserstoffatome bewegt (Abb.2.32 a), zum anderen eine Scherschwingung (Abb. 2.32 b), bei der die Winkel der Bindungen sich öffnen und schliessen und das zentrale Kohlenstoffatom ein wenig wackelt. Wenn wir wieder das Bild von der Klaviertastatur verwenden, so fallen hier mindestens zwei Tasten aus, entsprechend den beiden Schwingungen. Es sind die Scherschwingung mit einer Absorption um die Wellenlänge 7,6 μm und die Streckschwingung um 3,3 μm. Um zu messen, wie stark die Absorption durch ein Gas erfolgt, haben wir oben das Global Warming Potenzial (GWP) eingeführt. Es ist das Mass für die Stärke einer Substanz als Triebkraft für den Treibhauseffekt, gemessen als Vielfaches der Wirkung von Kohlendioxid. Dies klingt nach einer ­einfachen

a)

b)

Abb. 2.32  Die beiden asymmetrischen Normalschwingungen des Methanmoleküls Sie machen Methan zum Treibhausgas. Die Längen der Bindungen sind 109 pm, die Winkel betragen 109°.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     151

und direkten Definition, ist es aber nicht. In der Wirkung als Treibgas kommen viele Aspekte zusammen: • Die Absorption von Licht (de facto im Infraroten). • Die Lage der Absorption(en) im Spektrum im Verhältnis zu den anderen vorhandenen Gasen. • Die Lebensdauer des Gases, auch in Wechselwirkung mit den anderen Stoffen in der Atmosphäre. Die Stoffe der Atmosphäre bilden ein Netzwerk von physikalischen und chemischen Prozessen. Am wenigstens betroffen sind die Edelgase wie Argon, Neon, Krypton und Helium. Bei der Bestimmung des relativen Treibhauspotentials GWP eines Gases kommen diese Effekte von zwei Seiten, denn das Referenzgas CO2 bringt auch seine speziellen Eigenschaften mit ein. Dies zeigt sich beim Vergleich von CH4 mit CO2. Methan hat in der Atmosphäre ein relativ kurzes Leben, im Mittel eine Halbwertszeit von neun Jahren, Kohlendioxid dagegen 300 bis 1000 Jahren. Das CO2-Molekül ist extrem stabil, deshalb bleibt es als solches lange bestehen (Archer 2008). Die globale Erwärmung ist mit einer Reihe asymmetrischer Prozesse verbunden, etwa dem Rückgang der Gletscher, dem Verschwinden des arktischen Eises und dem Tauen des Permafrosts. Diese Vorgänge lassen sich nicht nur schwer umkehren, sie verstärken sogar noch die Erwärmung. Die Stabilität des CO2Moleküls ist auch ein derartiges Problem: CO2 entsteht mit Sauerstoff leicht, aber das Molekül lässt sich nur schwer auftrennen.

Es löst sich im Wasser der Ozeane bis zum Gleichgewicht und zur Sättigung in (geologisch) kurzer Zeit, typisch in hundert Jahren. Aber es gibt auch Prozesse der Verwitterung und der Aufnahme im Boden mit Zeitkonstanten über Tausende von Jahren. Der Abbauprozess ist nicht so geradlinig und simpel wie beim radioaktiven Zerfall, sondern an Prozesse gekoppelt. Für sich allein (und ohne hochenergetisches UV-Licht) lebt ein CO2-Molekül praktisch ewig7, auch im Gemisch mit Sauerstoff und Stickstoff. Somit ist es klar, dass GWP keine geradlinige physikalische Konstante ist. Insbesondere hängt der gemessene GWP-Wert von der Zeitspanne ab, über die die Wirkung berücksichtigt wird. Die Wirkung eines hochaktiven Gases, das nach kurzer Zeit aus der Atmosphäre verschwindet, sollte nicht über lange 7 Die

Bindungsenergie der C-O-Bindung ist 2,94 eV.

152     W. Hehl

Zeiten gemittelt werden. Methan ist ein Beispiel hierfür. Über 100 Jahre wäre sein Potenzial GWP100 = 28, für 20 Jahre dagegen ist es GWP20 = 84 (s.u.). Angesichts der problematischen Definition und der schwierigen Messung ist es verständlich, dass in der Literatur verschiedene Zahlenwerte für die Treibhauspotentiale existieren. Die allgemein akzeptierten GWP-Werte publiziert der Intergovernmental Panel on Climate Change (IPCC  ) oder schlicht Weltklimarat. Der IPCC, die 1988 von der UNO und der Weltorganisation für Meteorologie gegründete politisch-wissenschaftliche Organisation, hat die Aufgabe, die wissenschaftlichen Grundlagen zu liefern für globale und lokale politische Entscheidungsträger. In einem beispielhaften Satz die typische zentrale Aussage des IPCC und der Wissenschaft vom Klimawandel: Die Aktivitäten des Menschen haben geschätzt etwa 1,0°C globale Erwärmung verursacht über das Niveau hinaus vor der Industrialisierung mit einem Wahrscheinlichkeitsbereich von 0,8°C bis 1,2°C. Es ist sehr wahrscheinlich, dass die globale Erwärmung zwischen 2030 und 2052 1,5°C erreicht, wenn sie so weitergeht. (Aussage recht sicher). Aus IPCC Schweiz: Die wichtigsten Aussagen aus der Zusammenfassung für Politiker und Entscheidungsträger, Juni 2019.

Eine zuverlässige Institution, wie es das IPCC ist, die solche Werte im wissenschaftlichen Konsens produziert, ist zu begrüssen. Die Vielfalt verschiedener Messergebnisse und Angaben hat den Vorteil, die inhärente Problematik unmittelbar zu sehen! Sogar das Treibhauspotential GWP einer Substanz wird zum Politikum, denn es bedeutet Geschäft, Verdienst oder Unkosten, etwa wenn man für das vernichtete oder nicht-produzierte CO2Äquivalent Geld erhält oder bezahlen oder die Produktion eines bestimmten Stoffes gar einstellen muss. Zum Treibhauspotential von Methan sagt die Tabelle im 5. Bericht (Fifth Assessment Report 2014) einen GWP100 = 28 über 100 Jahre an (im ersten Bericht waren es nur GWP100 = 21), verglichen über 20 Jahre dann GWP20 = 84. Der Grund für die Differenz ist, dass das Methanmolekül in der Natur weitaus weniger stabil ist als Kohlendioxid. Im Wasser und im Boden gibt es methanotrophe Bakterien, die Methan sozusagen fressen. In der Atmosphäre setzt sich Methan mit Hydroxyl-Radikalen (•OH) um, die aus Ozon, angeregtem Sauerstoff und Wasser entstehen. Hydroxyl-Radikale sind äusserst reaktiv und dadurch in der Atmosphäre kurzlebig und bestehen

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     153

nur für etwa eine Sekunde. Die •OH-Gruppen8 cracken dabei verschiedene Gase, neben Methan auch Kohlenmonoxid und Stickstoffdioxid und sogar Bakterien und Viren. Es wird auch als das Waschmittel der Atmosphäre bezeichnet – es bedeutet eine Art Selbstreinigung der Atmosphäre, denn •OH-Gruppen entstehen immer neu. Ein Nebeneffekt des Methanabbaus in der Atmosphäre ist die Entstehung von Wasser und Eis in der Tropopause, der Unterkante der sonst trockenen Stratosphäre. Es entstehen hochliegende Wolken, die den Treibhauseffekt verstärken (Pearce 2020). Dies trägt bei zum wohl undurchsichtigsten Kapitel der Klimatologie, der Entstehung und Wirkung von Wolken. Eine anschauliche Zusammenfassung des Effekts von Methan ist: Der Methan-Effekt wird durch die gemittelte Methankonzentration der letzten zehn Jahre bestimmt. Er verschwindet rasch, wenn die Emissionen reduziert werden. Im Gegensatz dazu bleibt die Erwärmung durch eingebrachtes CO2 über Tausende, ja Zehntausende von Jahren bestehen. Die Reduktion des CO2Ausstosses hat erste Priorität.

2.5.3 Lachgas Es ist ein süßlich riechendes Gas, das [ ] eine eigentümliche Erregung, ein besonderes Wohlbehagen im Körper und dann die Erscheinungen der Heiterkeit hervorruft, bis allmählich die Sinne schwinden. Brockhaus Enzyklopädie, Ausgabe 1894.

Lachgas ist ein kurioses, vielseitiges Gas. Es ruft eingeatmet eine merkwürdige Heiterkeit hervor, wurde oder wird noch als Narkosemittel eingesetzt und hat deshalb die Bezeichnung Lachgas oder gar Lustgas erhalten. Durch diese Eigenschaft und die Verwendung in der Zahnmedizin seit etwa 1800 hat das Distickstoffoxid schnell Berühmtheit erlangt, zunächst als Attraktion auf Jahrmärkten, in vielen Witzen oder auch im Film (Abb. 2.33), seit 1844 zur Schmerzlinderung oder zur Betäubung bei Zahnoperationen, 20 bis 26 Liter des Gases reichen für eine Narkose (Meyers Lexikon 1909). Es ist ungiftig, sogar unter dem Code E942 als Zusatz für Nahrungsmittel aller Art und ohne Mengenbeschränkung zugelassen. Die bekannteste Anwendung ist die Sprühsahne. 8 Der Punkt • vor (oder nach) dem OH ist Absicht; er deutet die freie chemische kovalente Bindung an. In diesem Sinn ist der • verantwortlich für die Agressivität des Hydroxyls.

154     W. Hehl

Abb. 2.33  Poster zum Film Lachgas (Laughing Gas). Stummfilm mit Charlie Chaplin in der Hauptrolle, Bild: Laughing Gas (Poster), Wikimedia Commons, Keystone Studios.

Chemisch ist Lachgas das Distickstoffmonoxid oder N2O, früher Stickstoffoxydul genannt. Allerdings ist die Bindung des Sauerstoffs an den Stickstoff nicht sehr stark, es wird leicht abgegeben. Lachgas brennt zwar nicht, aber es unterstützt Brände mit seinem Sauerstoff und ist dadurch feuergefährlich. Es wird sogar als Zusatz für Hochleistungsmotoren verwendet unter der Bezeichnung Nitro oder sogar als Sauerstoffträger. Die Dichte von Sauerstoff ist im Lachgas höher als in Luft, es muss nicht gekühlt werden wie etwa flüssiger Sauerstoff und ist in der Handhabung relativ ungefährlich (allerdings nicht für das Klima). Ansonsten sind seine physikalischen Eigenschaften recht ähnlich denen des Kohlendioxids. Zur Verwendung als Zusatzstoff für menschliche Nahrung bemerkt das Lexikon der Zusatzstoffe zum Lachgas als Nahrungsmittel: Als Lösungsmittel für Aromen [ist N2O] akzeptabel; die Verwendung eines Betäubungsmittels und Raketentreibstoffs in Sahnespray für den Hausgebrauch hat einen Beigeschmack an Dekadenz.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     155

Eine noch dekadentere Anwendung ist das eingeatmete Lachgas in der Drogenszene als leicht erhältliches Rauschmittel. Die Patronen mit Lachgas für Sprays sind eine Quelle, zum Teil gibt es bereits Ballone, die mit Lachgas gefüllt sind. Die Abb. 2.34 zeigt den Boden eines öffentlichen Geländes mit leeren Lachgaspatronen übersät. Bei weiter steigendender Verbreitung kann es durchaus zur Einschränkung des Verkaufs als Droge kommen. Der Ursprung des Klimaeffekts durch Lachgas in der Atmosphäre sind wieder Schwingungen, die durch infrarotes Licht oder Wärmestrahlung angestossen werden und schliesslich die Lichtenergie als Wärme verteilen. Das Stickstoffmolekül N2 ist zu symmetrisch und kann deshalb nicht von der elektromagnetischen Strahlung zum Schwingen angestossen werden, aber N2O sehr wohl. Die Abb. 2.35 zeigt drei Schwingungstypen (Normaloder Eigenschwingungen) des Lachgasmoleküls. Die dreifache Bindung zwischen den Stickstoffatomen ist angedeutet. Die niedrigste Energie benötigt die Beugeschwingung a), die höchste die Schwingung c), bei das mittlere (N-) Atom zwischen den Atomen schwingt. Experimente mit Zuckmückenlarven ergaben dann, dass das Lachgas von den Bakterien im Darm der Tiere gebildet wird. Die aus der Nahrung stammenden Bakterien finden im Darm keinerlei Sauerstoff vor und gehen deswegen zur sogenannten Nitratatmung über. Bei dieser Art zu atmen wird aus Nitrat Lachgas gebildet. Peter Stief, Mikrobiologe, 2009.

Abb. 2.34  Gebrauchte Lachgaspatronen auf einem städtischen Gelände Bild: Nitrous Oxide Whippits used recreationally by youngsters near Utrecht, Wikimedia Commons, Hansmuller.

156     W. Hehl

a)

b)

c)

Abb. 2.35  Normalschwingungen des Lachgasmoleküls N2ODie zugehörigen Wellenlängen der absorbierten Infrarotstrahlung sind 16,7 μm, 7,7 μm und 4,4 μm. Der Abstand der Stickstoffatome zueinander ist 0,11 nm, der der Stickstoff-Sauerstoffbindung ist 0,12 nm.

In den letzten Jahrtausenden, der Epoche des Holozäns, war die Konzentration von Lachgas in der Luft konstant etwa 270 ppb, d. h. es hatte 270 Lachgasmoleküle unter einer Milliarde Moleküle in der Luft. Das bedeutet, dass die Stickstoff-Prozesse der Natur ausbalanciert waren. Seit Beginn der Industrialisierung steigt die N2O-Konzentration linear an; heute misst man etwa 330 ppb Lachgasmoleküle, das bedeutet 0,000 033% Volumengehalt. Dieser NO2-Gehalt ist wesentlich geringer als der von CO2 von 0,04%, aber die Wirkung des Lachgases ist etwa um das Dreihundertfache stärker mit GWP100 = 265 und einer mittleren Verweilzeit von 116 Jahren, zehn Mal so lang wie Methan. Es wird geschätzt, dass im Jahr insgesamt etwa 17 Mio. t. N2O in die Atmosphäre gebracht werden. 57% des Lachgases rühren aus natürlichen Quellen, 43% sind vom Menschen verursacht, davon etwas mehr als die Hälfte durch die Landwirtschaft mit der weltweit zunehmenden Stickstoffdüngung (ScienceDaily vom 7. Oktober 2020). Insgesamt sind die Böden (bzw. die Mikroben in den Böden) die Quellen des Lachgases, natürliche Quellen sind vor allem die Tropen, anthropogen sind es die gedüngten Felder. Stickstoff in organischer Form ist für unsere Lebensform notwendig. Auf hundert Kohlenstoffatome, die eine Zelle aufnimmt, kommen 2 bis 20 Stickstoffatome für die verschiedensten Lebensfunktionen. Stickstoff ist Bestandteil der Bausteine des Lebens, der Aminosäuren für DNA, RNA und für die Proteine. Er ist in der Zelle Botenstoff oder Oxidationsmittel. Aber dies gilt nicht für den atmosphärischen Stickstoff. In der Luft sind etwa vier Millionen Milliarden Tonnen elementarer Stickstoff N2 vorhanden, bei dem das Doppelatom so fest verbunden ist, dass es biologisch nicht verwertbar ist.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     157

Hier irrte Justus von Liebig (1803–1873), der Begründer der mineralischen Düngung peinlicherweise. Er schrieb vollständig falsch: Stickstoff sei kein Bodenbestandteil, sondern ein Luftbestandteil und dem Boden nur geliehen. Was der Boden an einem Punkte verliere, gleiche die Luft, die überall sei, wieder aus. Darum kann die Unfruchtbarkeit unserer Felder nicht herrühren von einem Mangel an Stickstoff. Justus von Liebig, Theorie und Praxis der Landwirtschaft 1856.

Die fundamentale Bedeutung des Stickstoffs wusste man auch bei der Namensgebung nicht: die Bezeichnungen Stickstoff und azote (französisch) mit altgriechischem Anklang aus den Wurzeln a gegen und zoon lebendes Wesen betonen den Gegensatz zum lebensspendenden Sauerstoff. Die englische und altfranzösische Benennung nitrogen oder nitrogène rühren dagegen vom Stickstoff als Bestandteil von Salpeter und vom altgriechischen Wort nitron. Aber es gibt drei Wege, um den erstickenden Stickstoff in eine reaktionsfähige Form zu verwandeln (man sagt zu fixieren ): Physikalisch-natürlich, biologisch-natürlich und industriell. Es ist der Anfang komplexer Kreisläufe und Pfade vom trägen elementaren Stickstoff N2 zum Ammoniak NH3 und dessen Verwandten bis zum Nitrat, zu salpetriger Säure und Salpetersäure, HNO2 und HNO3 (Abb. 2.36). Der physikalische Pfad zum Aufschliessen des Stickstoffs sind z. B. Blitze, deren Energie diese feste Doppelbindung trennt. Lachgas ist Zwischen- und Nebenprodukt dieser Prozesse. Die grösste Bedeutung hat die Entstehung von Lachgas durch biologische Vorgänge, vor allem in der Landwirtschaft. Das Problem ist, dass die Entstehung des N2O eng mit der Nahrungsmittelproduktion zusammenhängt. Die globale Landwirtschaft ist für etwa 2/3 des Lachgases verantwortlich. Es ist die Ausweitung der bebauten Flächen, des Viehbestands und die Düngung mit stickstoffhaltigen Düngemitteln und mit der Gülle der Tiere (und der Menschen), die den Zuwachs an Lachgas bewirken. Während in Europa die Emission an Lachgas stagniert, steigt er in verschiedenen sich entwickelnden Ländern, z. B. in Brasilien und Indien durch steigenden

Abb. 2.36  Schema der Stickstoffprozesse in der NaturLinks elementarer, chemisch träger Stickstoff, rechts aktives und oxidierendes Nitrat (salpetrige bzw. Salpetersäure). Lachgas entsteht als Neben- bzw. Zwischenprodukt.

158     W. Hehl

Viehbestand und wachsende Gülle-Mengen als Hofdünger oder in China durch steigenden Verbrauch an Kunstdünger. Das Letztere gilt allerdings auch für die USA! Eine neuere Schätzung (Tian 2020) gibt sowohl von unten nach oben oder bottom-up (d. h. aus Einzelbeiträgen und Modellrechnungen) wie aus globalen Messungen top-down bestimmt die globalen Lachgas-Quellen und Senken (aus Sicht der Atmosphäre) an: Globale Lachgasemissionen mit 17,0 Mill. t Stickstoff /Jahr (12,2 bis 23,5) bottom-up, 16,9 Mill. t Stickstoff /Jahr (15,9 bis 17,7) top-down. Der menschenveranlasste Anteil davon ist 7,3 Mill. t Stickstoff/ Jahr (4,2 bis 11,4). Zur Einschätzung und Bewertung: Dies entspricht ungefähr 2 Mrd. t. CO2. Der entscheidende Treiber für die Zunahme von Distickstoffoxid in der Atmosphäre ist die Landwirtschaft. Die wachsende Nachfrage nach Nahrungsmitteln und nach Tierfutter wird die Distickstoffoxid-Emissionen weiter erhöhen. Es besteht ein Konflikt zwischen der Art, wie sich die Menschen ernähren, und der Stabilisierung des Klimas. Hangin Tian, Meeresbiologe, in Nature, 2020.

Lachgas ist damit insgesamt ein sehr natürlicher und naturnaher Stoff; heute allerdings auch ein industrielles Produkt und Nebenprodukt der industriellen Grossproduktion von Salpetersäure sowie als Abgas im Verkehr, in beiden Bereichen mit stark fallender Tendenz wegen besserer Kontrolle. Das grosse Klimaproblem des Lachgases sind die Lachgas-Emissionen in der Nahrungsproduktion und im Zusammenhang mit Pflanzen und Tieren, insbesondere mit Pflanzen. Ein Problem ist, dass Stickstoff zur Düngung unverzichtbar ist. Ein Beispiel aus jüngerer Zeit, in dem das N2O eine unrühmliche Rolle spielt, ist die Grossproduktion von Biotreibstoff, etwa Biodiesel oder Bioalkohol, z. B. aus dem Kreuzblütler Raps oder dem Süssgras Mais (Crutzen 2016). Beide Pflanzenbestände werden stark mit Stickstoff gedüngt und der gedüngte Boden erzeugt, je nach der Stärke der Düngung, Lachgas. Rechnet man die zugehörigen CO2-Äquivalente des N2O mit dem grossen Multiplikator des GWP aus, so könnte das Resultat die CO2-Ersparnis des fossilen Treibstoffs kompensieren. Zudem kam der Anbau der Pflanzen für Treibstoff in Verruf durch den sichtbaren Wettbewerb zur Nahrungsproduktion – Nahrung oder Treibstoff für die Welt? Der Biotreibstoff ist in dieser Form kein Erfolg aus Klimasicht.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     159

Die Düngung von Feldern lässt sich nur minimieren, aber nicht vermeiden: Ich denke, dass es schwerer sein wird, das Lachgas zu begrenzen als, zum Beispiel, die Kohlendioxid Emissionen. Es ist so, weil wir den Stickstoff brauchen, es ist ein wesentlicher Bestandteil des Proteins. Energie kann man aus anderen Quelle als Kohlenstoff bekommen, aber für die Nahrung gibt es nichts anderes als Stickstoff. Cindy Nevison, amerikanische Biologin, Universität Colorado. 2009.

Der Reisanbau ist ein besonderes Problem, hier mit Lachgas N2O wie schon beim Sumpfgas CH4. Reis ist das dritt- oder viertwichtigste Haupternährungsmittel in der Welt mit 755 Mio. t. in 2019 geerntet (Wikipediaartikel Reis); die Abb. 2.37 zeigt die Hauptsorten. Nur von den Pflanzen Zuckerrohr und Mais sind die Mengen grösser, nämlich 1900 bzw. 1000 Mio. t. jeweils. Die weltweite Produktion an Reis ist ungefähr gleich gross wie die von Weizen, nämlich 765 Mio. t. in 2019. Es ist vor allem die Hauptanbaumethode von Reis mit abwechselnder Bewässerung, die nebenbei Lachgas (und Sumpfgas) produziert. Dabei wird ein Drittel des Wassers verbraucht, das in der Welt für künstliche Bewässerung verwendet wird. Der Klimaeintrag des Reisanbaus (Sumpfgas und Lachgas zusammen) beträgt etwa 1900 Mio. t. langfristige CO2-Äquivalente (knapp und korrekt CO2 e100) entsprechend 600 Kohlekraftwerken (Environment Defense Fund 2018). Unangenehmerweise scheinen Massnahmen zur Verringerung des Methans die Tendenz zu haben, dafür den Lachgas-Ausstoss zu erhöhen. Das

Abb. 2.37  Reis Die vier Hauptsorten Brauner Reis, Roter Reis, Thai weisser Reis, Schwarzer Wildreis. Der Treibhauseffekt durch Reisanbau ist ein hartes Problem für die Menschheit. Bild: White, Brown, Red & Wild rice, Wikimedia Commons, Earth100.

160     W. Hehl

bedeutet einen dringenden Handlungsbedarf an besseren Anbaumethoden wie schon beim Methan als Treibhausgas erwähnt, aber mit besserem gemeinsamem Management von Düngung, Wasser, Lachgas- und Methanabscheidung. Das Lachgas wurde dabei bisher weniger beachtet als das Sumpfgas – aber es bleibt zehn Mal länger in der Luft. Eine unangenehme Beobachtung und Vermutung ist die Reaktion der Reispflanze und des Reisanbaus auf steigende Temperaturen (und stärkere Bewölkung); die Reisausbeute könnte reduziert werden. Es gibt derartige Analysen. Die wärmeren Nächte könnten die Atmung der Reispflanze erhöhen und dies würde die zum Wachstum benötigte Energie schmälern. Lachgas hat für das irdische Klima noch eine zweite grosse Bedeutung. Es ist nach der Reduktion der Fluorchlorkohlenwasserstoffe die gefährlichste Substanz für die Ozonschicht, die die Erdoberfläche und damit uns vor gefährlicher UVStrahlung schützt. In der Troposphäre, den niederen Luftschichten, ist Lachgas stabil, aber in der Stratosphäre wird es durch Licht zerlegt und es entsteht vor allem auch Stickoxid NO. Unter dem Einfluss des hochenergetischen UVLichts und in der verdünnten Atmosphäre laufen verschiedenste, aus Sicht der üblichen Chemie exotische Reaktionen ab, Reaktionen, die Ozon (O3) aufbauen oder, wie mit Distickstoffoxid N2O und Stickoxid NO, das schützende Ozon zerstören und abbauen zu normalem Sauerstoff O2. Wenn man die anthropogenen N2O-Emissionen eliminieren würde, dann wäre der Effekt viel grösser als bei den FCKWs, einzeln oder insgesamt. Robert Portmann, National Oceanic and Atmospheric Administration (NOAA), 2012.

Und: Wenn man die NO2–Emissionen begrenzen würde, so würde dies helfen, dass sich die Ozonschicht erholen könnte, und würde gleichzeitig die anthropogene Wirkung auf das Klimasystem verringern, das wäre ein ‚Win-Win‘ für das Ozon und das Klima. Akkihebbal Ravishankara, Colorado State Universität.

2.5.4 Ozon Schon früh ist bei Blitzschlägen ein eigentümlicher Geruch aufgefallen. Der Entdecker des Ozons im Labor war dann der deutsche Chemiker Christian Friedrich Schönberg im Jahr 1839. Schönbein bemerkte den gleichen Geruch bei der Elektrolyse von Wasser und nannte den Stoff Ozon vom

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     161

­altgriechischen ozein riechen. Hier eine Bemerkung von Schönbein von 1853, die ein Jahrhundert später offensichtlich wahr werden sollte: „Geneigt zu glauben, das atmosphaerische Ozon spiele im Haushalte der Erde eine wichtige Rolle, halte ich es fuer wuenschenswerth, dass moeglichst zahlreiche, sowie grosse Zeitraeume als bedeutende Laenderstrecken umfassende, untereinander vergleichbare Beobachtungen ueber die Veraenderungen des Ozongehaltes der Atmosphaere angestellt werden.“

Ozon ist nicht nur wichtig im Haushalte der Erde, sondern durch das Abschirmen von zerstörerischem UV-Licht von der Sonne sogar lebenswichtig für unsere Art von Biologie. Den Geruch kennt wohl jeder: Es ist der Geruch elektrischer Maschinen oder von der Höhensonne. Das erste Mal berichtete 1785 der niederländische Arzt und Naturforscher van Marum darüber. Er hat bei Experimenten, wohl mit seiner grossen Electriseermachine, bei elektrischen Funken über Wasser den Geruch registriert. Menschen können den Geruch schon bei 0,1 ppm Ozon in der Luft feststellen, manche Menschen schon bei 0,01 ppm; ab 0,1 ppm ist Ozon allerdings schon schädlich und greift das Lungengewebe an. Die Konzentration von 50 ppm über eine halbe Stunde eingeatmet schädigt Menschen stark, ja ist häufig schon tödlich. Ozon ist ein nahezu farbloses, in hohen Konzentrationen jedoch tiefblaues Gas, schwerer als Luft. Bei tiefen Temperaturen wird es zu einer tiefblauen Flüssigkeit, die zu einer schwarz-violetten Masse erstarrt. Flüssiges und festes Ozon können explodieren; dies ist ein Zeichen der Instabilität von Ozon, die eine wesentliche Rolle im Verhalten des Ozon in der Welt spielt. Um zu verstehen, welche Rolle(n) das Ozon in der Atmosphäre spielt und wie es sich verhält, muss man sich das Molekül ansehen. Das Element Sauerstoff kommt in zwei Formen vor, als gewöhnlicher Sauerstoff O2 auch Dioxygen oder Disauerstoff, oder als Ozon O3 mit drei gebundenen Sauerstoffatomen als Trioxygen, im Weltall auch als Einzelatom O. Das dreifache Sauerstoffmolekül zerfällt leicht und greift dabei viele Substanzen chemisch an (es oxidiert aggressiv). Dadurch ist es an der Luft selbst nicht beständig – unter ruhigen Laborbedingungen und in trockener Luft ist die Halbwertszeit etwa 25 Stunden, in Zimmerluft vielleicht eine halbe Stunde. Für den Treibhauseffekt sind wieder zunächst die Schwingungen zuständig, die infrarotes Licht absorbieren können. Die kleine Formel O3 legt eine perfekte Dreiersymmetrie und einen Dreierring nahe, aber das ist

162     W. Hehl

Abb. 2.38  Das Ozonmolekül (Potentialoberfläche). Bild: Ozone elpot 3D vdW, Wikimedia Commons, Benjah-bmm27.

nicht der Fall. Die Form des Moleküls ist stark gewinkelt mit einem Winkel von 117° zwischen den drei Sauerstoffatomen. Die Abb. 2.38 deutet die quantenmechanische Verschmierung der Elektronenwolken an. In der Abb. 2.39 ist diese Elektronenwolke durch ausgezogene und gestrichelte Bindungen jeweils zwischen den Atomen 1 und 3 skizziert. Es gibt keinen festen Ort für diese Elektronenpaare. Durch die gewinkelte Struktur des Moleküls sind die Schwerpunkte der positiven und der negativen elektrischen Ladung verschieden und alle drei Schwingungsformen können im Prinzip durch infrarotes Licht angeregt werden und können damit absorbieren. Abb. 2.39 a) ist die symmetrische Streckschwingung (9,1 μm, sehr schwach absorbierend), b) die asymmetrische Streckschwingung (10 μm, stark absorbierend) und c) die Biegeschwingung. (14,3 μm, schwach absorbierend). In der obigen, zentralen Zwei-Hügel-Kurve der Abb. 2.17 mit einfallendem Sonnenlicht und abgestrahltem (infrarotem) Erdlicht ist in der Tat im Bereich um 9 μm im Spektrum eine tiefe Lücke. Dies ist die Bedeutung des Ozons unmittelbar für unser Klima als Treibhausgas. Es ist vor allem die asymmetrische Streckschwingung mit etwa 30 TeraHz, die hier wirkt.

a)

b)

c)

Abb. 2.39  Die Schwingungen des Ozonmoleküls (schematisch) Alle drei Schwingungsformen können durch Licht angeregt werden und infrarotes Licht absorbieren.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     163

Aber Ozon hat noch eine zweite geophysikalische Bedeutung, die für das Leben direkt notwendig ist, nämlich die Abschirmung von hartem UV. Den historischen Beginn der UV-Physik haben wir bei Johann Wilhelm Ritter und der Entdeckung von UV-Licht gesehen. Der französische Physiker Alfred Cornu (1841–1902) hatte sich nach einer genauen Messung der Lichtgeschwindigkeit der atmosphärischen Optik zugewandt und 1878 festgestellt, dass das ultraviolette Sonnenspektrum jenseits von 300 nm abbricht, besonders stark und schnell bei niedrigem Sonnenstand. Es musste ein Effekt der Atmosphäre sein, der von der Länge des Lichtwegs durch die Luft abhing. Der auf der Erdoberfläche wahrnehmbare Teil ist in moderner Einteilung einmal UV-A (380– 315 nm) und dazu noch ein Anteil von UV-B, das von 315 –280 nm reicht. Das UV-C-Licht (280–100 nm) erreicht den Erdboden nicht. Im Jahre 1880 untersuchte der irische Chemiker Walter Hartley das Absorptionsspektrum des Ozons im Labor. Er fand starke Absorption bei etwa 265 nm und er schrieb sogar weitblickend (Stolarski 1989): Ist Ozon ein ständiger Bestandteil der höheren Atmosphäre, und wenn ja, in welchen Mengen ist er dort vorhanden?

Die zwei Welten des Ozons: Troposphäre und Stratosphäre Baumgartner stellte sich auf die Schwelle, blickte in die Tiefe. „Es ist sehr, sehr hoch“, sagte er. „Eine kleine Welt. Ich komme jetzt nach Hause.“ Dann sprang der Extremsportler in die Tiefe. DER SPIEGEL über den Rekordsprung Red Bull Stratos des österreichischen Extremsportlers Felix Baumgartner am 14. Oktober 2012 aus 39 km Höhe mit 1340 km/h.

Es war ein Sprung aus der oberen Stratosphäre (Abb. 2.40). Die Abbildung illustriert mit Troposphäre und Stratosphäre auch deutlich die beiden Wirkungsbereiche des Ozons. Ozon hat in diesen beiden geophysikalischen Ebenen ganz andere Haupteigenschaften. Allerdings wirkt es überall als Treibhausgas wie oben gezeigt. In der Troposphäre, damit auch in unserer Lebenssphäre, ist es vor allem das ‚böse‘ Ozon, mit den schon erwähnten gesundheitlichen Gefahren, das die Beziehung zum Ozon bestimmt. Allerdings hat das Ozon im Gesundheitswesen eine bewegte Geschichte. Bis etwa 1980 galt ozonreich als ein

164     W. Hehl

Abb. 2.40  Die irdische Atmosphäre und ihre idealisierten Temperaturen Bild aus Practical Meteorology, isbn 978-0-88865-283-6, Fig. 1.10 , University of British Columbia, Roland Stull, 2017. Mit freundlicher Genehmigung.

positives Attribut für die Werbung, hier in einem Prospekt der Tiroler Gemeinde Leutasch aus dem Jahr 1953: Die staubfreie, ozonreiche Luft und meist milde, durch ausgedehnte Waldungen geregelte Temperatur ist für Nervenleidende und Ruhebedürftige besonders geeignet, ein Jungbrunnen für alle Erholungssuchenden.

Heute redet man in solchen Flyern lieber von sauerstoffreicher Luft. Das ist nur ansatzweise korrekt, denn der Sauerstoff ist ein Wellmixed gas und die O2-Konzentration ändert sich nicht einmal in den Jahreszeiten, vom Sommer mit hoher Pflanzenaktivität zum Winter als Ruhezeit. Die Schwankungen sind für uns Menschen unmerklich und in der Grössenordnung von nur 20 bis 40 ppm bei dem totalen Gehalt von 21% oder 210 000 ppm Sauerstoff. Die negative biologische Wirkung des Ozons in der Oberflächenluft wurde andrerseits ab 1950 erkannt. Ozon als extrem starkes Oxidationsmittel erreicht die Tiefen der Lunge und schädigt das Gewebe (bis etwa 50 ppb O3 ist es nach der EU-Richtlinie unschädlich). Deutlich wird dies vor allem im Extremfall, nämlich als Hauptbestandteil des Sommersmogs oder Photosmogs. Das klassische Ereignis war der Sommersmog im Kriegsjahr

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     165

1943 in Los Angeles, an dem der Entstehungsmechanismus erkannt wurde. Aus dem Gasgemisch in der Luft von verschiedenen Stickoxiden, Kohlenwasserstoffen (unverbrannten Treibstoffresten) und Kohlenstoffmonoxid entsteht mit Sonnenlicht Ozon. Stickoxide sind allgemein Stickstoff-Sauerstoff-Verbindungen, abgekürzt NOx, wobei hier nicht das für den Menschen relativ harmlose Lachgas N2O gemeint ist, sondern vor allem das mindergiftige Stickoxid NO und das giftige Stickstoffdioxid NO2, ein braunes Gas, das sich mit Wasser in aggressive Salpetersäure umwandelt. Auf dem Land entstehen Stickoxide als Ozonvorstufe vor allem aus Böden. Eine bemerkenswerte Beobachtung ist es (oder war es, denn heute sind die Ozonkonzentrationen in der Luft allgemein niedriger), dass in den Städten, den Hauptorten der Erzeugung, die Ozonwerte niedriger waren als auf dem Land. In den Städten wird das Ozon durch die Verunreinigungen, die es in der Nacht oxidiert oder sozusagen verbrennt, wieder aufgebraucht. Ozon entfernt diese Kohlenwasserstoffe usw. aus der Luft und reinigt sie! Auf dem Land geschieht dies weniger und das Ozon kann sich ansammeln. Daher der Spruch die Stadt macht’s, das Land hat’s. In den letzten 30 Jahren sind die Vorläuferschadstoffe in der Luft weniger geworden – daher entsteht auch weniger Ozon. Und deshalb wird auch nur noch selten die sogenannte Informationsschwelle von 180 Mikrogramm Ozon pro Kubikmeter Luft – oder gar die Alarmschwelle von 240 Mikrogramm Ozon pro Kubikmeter Luft – des Umweltbundesamts erreicht. Die Folge: Es gibt kaum noch Ozon-Alarm im Radio. Im Mittel verbleibt Ozon rund 22 Tage in der bodennahen Luft und die mittlere Konzentration liegt bei etwa 30 ppb, also 30 Molekülen O3 pro Milliarde Luftmoleküle. Zum Vergleich dazu ist die Konzentration des Ozons in der Stratosphäre typisch 5 bis 10 ppm, also 5 bis 10 Ozonmoleküle auf eine Million anderer Luftmoleküle und über hundert Mal so gross. Es ist ein anderer Bereich der (Geo-) Physik. In der Stratosphäre ist es das ‚gute‘ Ozon. Im Jahr 1918 war es klar, dass Ozon irgendwo da oben das UV-Licht von der Sonne blockierte; im Absorptionsspektrum von Ozon im Labor passten immer mehr Einzelheiten (Banden) zum ankommenden Sonnenlicht. Der englische Physiker John Strutt, der spätere Lord Raleigh und Nobelpreisträger, versuchte in diesem Jahr in einem Geländeversuch quer über ein Tal direkt in normaler Luft die Absorption nachzuweisen. Vergeblich. Er schliesst daraus: … es muss da oben viel mehr Ozon geben als hier unten.

166     W. Hehl

Er hatte Recht, wie es die Abb. 2.41 zeigt; es gibt sogar eine etwas verschwommene Ozonschicht. Das Bildchen zeigt die Anzahl der Ozon-Moleküle in der Höhe in einer besonderen Einheit an, den DobsonEinheiten pro km. Dobson war zunächst ein Pionier der Ozon-Messung (George Dobson, britischer Physiker, 1889–1976). Jetzt ist es ein Messverfahren für Spurengase in der Atmosphäre, gesehen und gemessen von der Erdoberfläche aus, und dazu eine damit definierte Masseinheit. Für die Messung stellt man sich eine Luftsäule vor über einem Stück Boden, z. B. einem Meter im Quadrat (1 m2), die senkrecht hoch zum Zenit zeigt. Die Abb. 2.42 illustriert eine solche Säule in der wunderbaren Bläue der Atmosphäre, vom Boden bis ins All hinaus, z. B. bis 100 km Höhe. Der Dobson-Messwert ist dann die aufaddierte Menge des Spurengases in der ganzen Säule, gemessen z. B. als die Gesamtzahl der Moleküle dieses Gases, summiert von der dichten Luft am Boden bis sich die Atmosphäre im All verliert. Eine andere Veranschaulichung des Gehalts an einem Spurengas ist es, sich das Gas aus der ganzen Säule zusammengebracht zu denken zu einer Schicht über dem Boden. Als Masseinheit (ein Dobson oder DU) wählte man die Höhe von 0,01 mm oder 10 μm Gasschicht; das entspricht 2,687 x 1020 Molekülen des untersuchten Gases, Ozon oder auch z. B. Schwefeldioxid) über der Fläche. Auf der Nordhalbkugel ergeben die Messungen im Frühsommer Gesamtozonwerte von bis über 500 DU, im Herbst um 300 DU. Am Äquator sind die Werte niedriger, obwohl in den Tropen das meiste Ozon entsteht. Eine

Abb. 2.41  Ozon in der Stratosphäre Die Kurve gibt die Ozonmengen an, jeweils pro km Schichtdicke. In der Höhe. Die farbigen Balken zeigen die Eindringtiefe des jeweiligen UV-Lichts. Bild nach: Ozone altitude UV graph, Wikimedia Commons, NASA.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     167

Abb. 2.42  Dobsonsche Säule Illustration einer Dobsonschen Luftsäule an einer Aufnahme aus dem All. Bild: Image Science & Analysis Lab, NASA Johnson Space Center, ISS011-E-5487.

hochliegende Strömung in der Stratosphäre transportiert in Wellen Ozon aus den lichtreichen Äquatorregionen in die Polargebiete. Um es klar auszudrücken: Es sind absolut gesehen winzige Mengen Ozon, auch bei 500 Dobson Units. Die höchste relative Konzentration ist etwa 6 ppm in etwa 40 km Höhe, unter einer Million Luftteilchen sind 6 Ozonmoleküle – aber dort ist die Luft schon sehr dünn und der Luftdruck ist nur noch etwa ein Tausendstel des Drucks am Boden, die absolute Menge ist nicht mehr gross. Zum Vergleich: Die Atmosphäre als Ganzes entspricht einer Säule mit 760 Millionen DUs oder 8 km Höhe gegenüber 500 DUs bzw. 5mm. Trotzdem ist diese geringe Menge für uns lebensnotwendig; die Abb. 2.41 zeigt das Verschwinden des gefährlichen UV-C in der Stratosphäre mit der Auflösung des lila Balkens in der Ozonschicht. Sauerstoff und Ozon nehmen das UV-C und teilweise UV-B heraus und verwandeln es letztlich in Wärme. Dies hat nichts zu tun mit der Absorption durch angeregte Schwingungen als Treibhausgas, die wir oben gezeigt haben. Diese Wirkung kommt hinzu als Absorption von Infrarot-Strahlung von unten, von der Erde. In der Skizze der Abb. 2.43 a) wird die Aufspaltung des dimeren Sauerstoffmoleküls gezeigt; es entstehen zwei angeregte Atome, die in dem Grobvakuum der Stratosphäre eine verhältnismässig lange Zeit leben, bis sie z. B. mit Sauerstoff zu Ozon reagieren. Ozon O3 einerseits, normaler Sauerstoff O2 und aktive einzelne Sauerstoffatome stehen in einem Gleichgewicht, das von der geografischen Breite, der Temperatur und der Jahreszeit abhängt.

168     W. Hehl

a)

b)

Abb. 2.43  Sauerstoffatome und Moleküle in der Stratosphäre a) Die Zerlegung von Sauerstoffmolekülen durch UV-Licht. b) Das Gleichgewicht von Ozonerzeugung und Ozonvernichtung. Der Asterisk * deutet angeregte, reaktive Sauerstoffatome an.

O3 entsteht und vergeht wieder mit UV-Licht. Damit wird die Stratosphäre erwärmt. Bis in eine Höhe von 10 km fällt die Temperatur, von da an steigt sie beim höhergehen an wie Abb. 2.40 skizziert. In der Stratosphäre können auch exotische Moleküle merklich lange leben und es kann dadurch im irdischen Labor ungewohnte chemische Reaktionen geben; dazu gehören auch die Reaktionen, die das Ozonloch erzeugen. Ein Molekül fliegt am Boden etwa 68 nm im Mittel, bevor es mit einem anderen Molekül zusammenstösst, in 40 km Höhe dagegen etwa 0,1 mm, also 1500 Mal weiter, und ein angeregter Zustand lebt entsprechend länger. Besonders wichtig sind die Reaktionen geworden, die Ozon abbauen, und hier besonders unheilvoll die Reaktionen mit Katalysatoren. Ein Katalysator löst eine chemische Reaktion aus, die sonst unter den entsprechenden Umständen nicht ablaufen würde, Stoffe entstehen oder vergehen, und der Katalysator ist am Ende wieder da zur weiteren Verwendung. Nach dem obigen Bildchen mit der Bildung von O3 aus O2 und atomarem Sauerstoff O geht es darum, aktive Einzelatome von Sauerstoff zu eliminieren, bevor sie wieder O3 bilden können. Das kann in der Stratosphäre geschehen mit Katalysatoren wie • Hydroxyl Radikalen •OH aus Wasserdampf (natürlichen Ursprungs, indirekt auch anthropogen), • Stickoxiden NOx , die sich aus Lachgas N2O bilden (natürlichen oder künstlichen Ursprungs), vor allem aber • Chlorradikalen Cl• und in geringerem Ausmass Bromradikalen Br•, die sich aus natürlichen, aber vor allem aus künstlichen organischen Verbindungen bilden.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     169

Ein Chlorradikal in der Stratosphäre kann in seiner mittleren Lebenszeit von zwei Jahren so 100 000 Ozonmoleküle zerstören. Die Zunahme der künstlich direkt oder indirekt die Ozonschicht schädigenden Stoffe seit den 1970er Jahren hat erstens zu einer allgemeinen, globalen Abnahme des Ozon-Schutzschilds geführt, und zweitens zu kräftigen Ausdünnungen in der Stratosphäre der polaren Gebiete im antarktischen Frühling. Die Erscheinung am Südpol in der Antarktis ist das bekannte Ozonloch. Es war eine Überraschung, man hatte eine allmähliche Abnahme der Ozonschicht erwartet. Eine extreme Ausprägung des Ozonlochs zeigt die Abb. 2.44 im Dezember 2006, zum Beginn des antarktischen Sommers. Im antarktischen Winter in der extremsten Kälte von -80°C sinken die Luftmassen ab und erzeugen ein starkes stratosphärisches Tiefdruckgebiet, in das Luft einströmt und durch die Drehung der Erde (als scheinbare sog. Coriolis-Kraft) einen Windwirbel über dem Kontinent der Antarktis erzeugt. Der Wirbel (in der Antarktis im Uhrzeigersinn) hält in seinem Innern die Kälte gefangen. Es entstehen in der Polarnacht trotz der recht trockenen Luft Wolken aus Eiskristallen in der Stratosphäre, auf denen die Chemie sozusagen eingefroren wird. Erscheint die Sonne wieder, so werden die gespeicherten Stoffe befreit, die Ozonmenge wird kräftig reduziert bis zur Lochbildung und erst bis zum nächsten Winter wieder aufgebaut auf das normale Niveau des O3. Die ablaufenden photochemischen Prozesse [die zur Bildung des antarktischen Ozonlochs führen] sind komplex, aber gut verstanden. Englischer Wikipedia, Artikel ozone depletion, gezogen Dec 2020.

Abb. 2.44  Das Ozonloch über der Antarktis Die beobachteten gesamten Ozonmengen über der Fläche, gemessen in Dobson–Einheiten (DUs) am 6. 12. 2000. Bild: Largest ever ozone hole sept2000 with scale, Wikimedia Commons, NASA.

170     W. Hehl

Das Ozon ist natürlich nicht nur schutzwürdig, es ist ja trotzdem auch ein Treibhausgas. Eine umstrittene Literaturangabe für das globale Erwärmungspotential des Ozons selbst, z. B. zitiert auf Wikipedia und vielfach kopiert, ist ein GWP20-Wert zwischen 62 und 69. Die Klimamodelle müssen bei der Verringerung des Ozongehalts die Verkleinerung des ozonbedingten Strahlungsantriebs berücksichtigen oder umgekehrt bei der Verringerung des Ozonlochs die entsprechende Vergrösserung des Treibhauseffekts. Wir haben solche Vorgänge oben als faustischen Handel bezeichnet. Die Effekte des Ozons und die Wirkung der Stoffe, die die Ozonschicht schädigen, sind miteinander faustisch verschränkt: Wenn wir die so nützlichen Ozonkiller FCKW etc. vermeiden, tritt das Treibhausgas Ozon dafür in den Vordergrund.

2.5.5 Die Fluorchlorkohlenwasserstoffe, die nützlichen Ozonkiller CFCs sind [chemisch] sehr stabil. Das prädestinierte sie für viele praktische Anwendungen, z. B. als Kühlmittel, Schaumfüller und sogar in Aerosoldosen für Haarspray. Die Wissenschaftler haben jedoch bald entdeckt, dass die CFCs eine schwerwiegende dunkle Seite haben. Theconversation.com, aus dem Lehrtext Explainer, 2017.

Chemie der Kühlmittel u. ä. Eine oder mehrere verwandte Gruppen von gasförmigen Verbindungen müssen wir besprechen, weil sie für das Klima wichtig sind: Organische Verbindungen mit Halogenen, also Fluor, Chlor, Brom oder Jod, meistens relativ einfache Moleküle, die zum Teil aus der Natur kommen, aber vor allem vom Menschen grossindustriell hergestellt werden. Die Abb. 2.45 versinnbildlicht die vier Halogene Fluor als farbloses Gas, Chlor grünliches Gas, Brom als lila Flüssigkeit und Jod in der Form schwarz-violetter Kristalle. Sie sind in der praktischen Chemie wichtig, aber in der Klimatologie als Ozonkiller in der Stratosphäre gefährlich. Vulkane stoßen alljährlich 11 Mio. t. Fluor- und 3 Mio. t. Chlorwasserstoff aus, d. h. Fluor und Chlor kommen als Flusssäure bzw. Salzsäure in die Atmosphäre. Es existieren noch zwei weitere Halogene mit höherer Ordnungszahl, das seltene Astat und das künstliche und radioaktive Tenness. Beide haben keine praktische Bedeutung. Die organischen Verbindungen der Halogene werden in der Industrie wegen ihrer Haupteigenschaft verwendet, nämlich chemisch träge zu sein. Für die Hauptanwendung als Kältemittel sollten sie passende Siede-

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     171

Abb. 2.45  Die Halogene Proben der vier wesentlichen Halogene: Fluor (farblos), Chlor (grün), Brom (violett), Jod (schwarz-violett). Bild: Halogene, Wikimedia Commons, tomihahndorf.

temperaturen haben und dann beim Verdampfen viel Wärme (Enthalpie) aufnehmen, dabei möglichst ungiftig, nicht explosiv und nicht korrosiv sein. Die künstlichen Stoffe in der Industrie sind hier die Gruppen (Abb. 2.46): • CFC (Chlorofluorocarbons) oder Fluorchlorkohlenstoffe (FCKW) sind Kohlenwasserstoffe, bei denen alle Wasserstoffatome durch Halogene ersetzt wurden. Diese Gase sind besonders stabil. • HCFC  (Hydrochlorofluorocarbons) oder teilhalogenierte Fluorchlorkohlenwasserstoffe sind Kohlenwasserstoffe, deren Wasserstoff nicht insgesamt ersetzt wurde, • HFC (Hydrofluorocarbons) bestehen aus Kohlenstoff, Wasserstoff und Fluor. Konsequenterweise gehören als Grundlage dazu • HC (Hydrocarbons) oder Kohlenwasserstoffe, nur mit Kohlenstoff und Wasserstoff. Dazu hat die Chemie der Menschen (manchmal auch der Natur) eine Fülle von weiteren Kombinationen geschaffen von Kohlenstoff und allen Halogenen F/Cl/Br/I, z. B. den Stoff Halon, womit früher Feuerlöscher gefüllt wurden (Bromchlordifluor-Methan, genannt Halon 1211), das Methylchlorid CH3Cl und das Chloroform CHCl3 oder auch das Methylbromid CH3Br. Der Katalog der relevanten chemischen Stoffe im Bericht

172     W. Hehl

Abb. 2.46  Die historischen globalen Produktionsziffern der Fluor- (Chlor-) Kohlenwasserstoffe. Erklärung der Akronyme im Text. Bild: United Nations Environment Programme (UNEP), 2011: A critical link in protecting climate and the Ozone Layer.

Safeguarding the Ozone Layer (IPCC/TEAP 2005) umfasst etwa 140 Chemikalien! Wer die chemische Industrie als Schöpfer dieses Teufelszeugs anprangert, übersieht allerdings, dass auch die Natur ähnliche und bisweilen identische Verbindungen in großen Mengen herstellt. Gordon Gribble, amerikanischer Chemiker, 2005.

Dies ist natürlich kein grosser Trost und keine Entschuldigung, um die Natur aus dem dynamischen Gleichgewicht von Klima und Vegetation zu bringen. Aber es erinnert daran, dass Natur und künstliche Chemie eine Einheit bilden, für den Chemiker sind es alles Kombinationen von Atomen, für den Physiker alles durch elektrische Kräfte zusammengehaltene Strukturen – Chemie ist Physik mit massenhaften Teilchen mit geringer Energie von einigen Elektronenvolt pro Atom oder Molekül. Auch die Natur erzeugt derartige organische Verbindungen mit Halogenen, sogar in grösserer Vielfalt als die Industrie. Es gibt keine Teilung hier die gute Natur, dort die böse menschliche Technik. Der Chemiker Gordon Gribble zählt 2320 natürlich vorkommende organische Chlorverbindungen, dazu 2050 mit Brom, 115 mit Jod und 34 mit Fluor.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     173

Die Quellen der Natur sind vor allem marine Pflanzen, Plankton und Sumpfpflanzen (Gribble 2005). Dies ist nicht verwunderlich, denn die Grundstoffe wie Methan, Chlor, Brom und Jod sind ja weitgehend im Meer oder in Sümpfen vorhanden. Das Gas Methylchlorid (CH3Cl) ist die häufigste chlorhaltige Verbindung in der Atmosphäre. Es ist ein farbloses, leicht brennbares, schwach süsslich riechendes Gas, das in der Kälte mit Wasser schneeartige Massen bildet. In der Natur entsteht es aus Plankton in den Ozeanen, aus Kartoffelpflanzen und Nadelbäumen, im Bergbau etwa beim Abbau von Kalisalzen, beim Verbrennen von Biomasse, z. B. von Zuckerrohr, oder bei Waldbränden. Aus der Natur kommen etwa 4 Mio. t. im Jahr, dazu etwa 10 000 Tonnen von der Industrie. Zum Glück ist Methylchlorid nur ein schwach wirkendes Gas in Bezug auf die Zerstörung der Ozonschicht (und auch als Treibhausgas). Das giftige Gas Methylbromid (CH3Br) kommt ebenfalls in der Natur vor; in Landpflanzen und in Pflanzen in den Ozeanen. Eine ganz besondere natürliche Quelle sind die Kreuzblütler, insbesondere der angebaute Raps. Das Gas fand allerdings auch umfangreiche Anwendungen als Desinfektionsmittel und Pestizid. So wurde oder wird es zur Begasung von Containern im internationalen Warenverkehr verwendet, um Schädlinge zu vernichten, zur Fumigation. Methylbromid wirkt zwar schwach als Treibhausgas, aber es ist sehr potent in der Ozonschichtvernichtung. Es hat etwa 60% der Wirkung des (verbotenen) Gases CFC-11 oder Freon-11 oder CCl3F, das für die ozonschädigende Wirkung als Referenz gilt, ähnlich dem CO2 oder Kohlendioxid für den Treibhauseffekt. Zur Vollständigkeit der Liste der für die Atmosphäre wichtigen (einfachen) Moleküle noch zwei Verbindungen mit Schwefel, allerdings ohne Halogen (Abb. 2.47): Das Dimethylsulfid C2H6S (klarer H3C-S-CH3) und das Carbonylsulfid COS (oder näher an der Struktur OCS).

a)

b)

Abb. 2.47  Zwei schwefelhaltige Moleküle in der Atmosphäre Das Schwefelatom ist gelb. a) Dimethylsulfid, b) Carbonylsulfid. Das Kohlenstoffatom hat zwei Doppelbindungen.

174     W. Hehl

Es ist das Dimethylsulfid, H3C-S-CH3, das vor allem von Enzymen in den Ozeanen produziert wird. Es ist mit für den typischen Geruch des Meeres verantwortlich – und für den Mundgeruch und zum Teil den Geruch von Bier. Das Plankton der Ozeane gibt jedes Jahr etwa 30 Mio. t. an die Atmosphäre ab. Klimatisch ist es nicht direkt Treibhausgas, sondern es wird oxidiert zu Schwefeldioxid und schliesslich zu Schwefelsäure, die entweder selbst zu Tröpfchen wird oder sich an Teilchen anlagert. Es erzeugt Aerosole und damit Wolken, die letztlich ihren Ursprung in der Biologie haben. Eine ähnliche Wirkung hat das wenig bekannte Carbonylsulfid mit der so kurzen, prägnanten chemischen Formel COS. Es ist wie ein Mittelding zwischen dem Kohlendioxid CO2 und Schwefelwasserstoff H2S, in die es auch zerfallen kann. Es entsteht ebenfalls im Meer, aber auch in Vulkanen und sogar in manchen Käsesorten. Carbonylsulfid könnte bei der Entstehung des Lebens, bei der Entstehung komplexerer Moleküle eine Rolle gespielt haben. Etwa 3 Mio. t. Carbonylsulfid werden pro Jahr in die Atmosphäre eingebracht, davon 2/3 auf natürliche Art und Weise. Das Carbonylsulfid, das in die Stratosphäre gelangt, wird ebenfalls zu Schwefelsäure und Aerosol, also zum Stoff für Wolken. Kühlmittel und Klimawandel Als der Chemiker Thomas Midgley am 18. Mai 1889 zur Welt kam, rechnete wohl niemand damit, dass er als jener Mann in die Geschichte eingehen würde, der unserem Planeten im Alleingang mehr Schaden zugefügt hat als jeder andere zuvor. Aus: Thomas Midgley, der größte Umweltsünder aller Zeiten von Florian Freistetter, profil.at.

Thomas Midgley hat über 100 Patente angemeldet, aber mit 2 Erfindungen ist er in die Technik- und in die Geschichte des Klimas eingegangen. Der amerikanische Maschinenbauer, Chemieingenieur und Erfinder Thomas Midgley hat 1921 die Wirksamkeit des Tetraäthylbleis als Antiklopfmittel entdeckt. Schon die ersten Erfinder von Verbrennungsmotoren hatten festgestellt, dass heftige Stösse die Maschine ruinierten. Midgley testete Tausende von Benzinzusätzen. Die technisch beste und wirtschaftlichste (und nicht stinkende) Lösung war Tetraäthylblei. Mit dieser organischen und hochgiftigen Bleiverbindung liefen Verbrennungsmotoren besser: schneller und mit höherer Leistung. Aber bereits in der Produktion gab es

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     175

Tote durch Bleivergiftung, selbst der Erfinder Thomas Midgley litt später daran. Das Produkt wurde Ethyl genannt und damit der Name Blei vermieden (Abb. 2.48). Dazu kamen noch Zusatzstoffe zum Zusatzstoff, ebenfalls giftige sog. Scavenger (Ausräumer). Mit den Auspuffgasen wurden schliesslich Millionen Tonnen hochgiftiges Blei in die Atmosphäre und in den Boden gebracht. Die in den 1970er Jahren eingeführten Drei-Wege-Katalysatoren benötigten bleifreies Benzin; damit und mit dem wachsenden Bewusstsein der Bleivergiftung von Mensch und Umwelt wurde bleifreies Benzin angeboten und verbleites Benzin wurde z. B. seit dem Jahr 2000 in der EU verboten. Verbleites Benzin war nur beschränkt eine gute Idee gewesen. Die zweite grosse Pionierleistung von Thomas Midgley waren neue, bessere Kühlmittel für Kühlschränke (bzw. heute auch für Wärmepumpen, die inversen Vorrichtungen). Die Kühl- (oder Wärme-) Mittel verdampfen oder kondensieren und nehmen dabei Wärme auf bzw. geben Wärme ab. Die erste Generation an Kühlmitteln war giftig oder brennbar oder beides: Ammoniak, Schwefeldioxid, Methylchlorid, Äther oder Propan. Die Kühlschränke waren gefährlich und man stellte sie auf der Veranda auf. Midgley erhielt den Auftrag, bessere Stoffe zu finden. Der neuartige Stoff, den er fand, war das erste CFC (Chlorofluorocarbon), der erste FCKW (Fluorchlorkohlenwasserstoff) CCl2F2, genannt Freon-12. Er zeigte im Selbstversuch, dass dieser Stoff sogar eingeatmet werden konnte! Dazu traten ähnliche Stoffe und weitere Anwendungen, etwa Kunststoffe aufzuschäumen oder Spraydosen zu füllen. Diese FCKW, die Kühlmittel der zweiten Generation, waren geruchlos und ungiftig und hatten die gewünschten

Abb. 2.48  Amerik. Tankstellenschild für Tetraäthylblei als Antiklopfmittel. Bild: Ethyl Corporation Sign, Wikimedia Commons, Plazak.

176     W. Hehl

thermischen Eigenschaften. Aber sie entliessen Chlor und Brom in die Stratosphäre, zerstörten effizient die Ozonschicht und waren dabei auch noch äusserst effiziente Treibhausgase für lange Zeiten – ihre chemische Trägheit wirkte sich hier negativ aus. Das Freon-12 hat so den hohen GWP-Wert von GWP100 = 10 900 und eine mittlere Lebensdauer von 100 Jahren. Es ist ein 10 000mal stärkeres Treibhausgas als Kohlendioxid! Es folgten mehrere Dutzend verwandte Kombinationen der chemischen Formeln mit Halogen und Kohlenwasserstoff mit Handelsnamen Freon-x, R-x oder Halon-x, die letzteren mit Brom, aber vergleichbarem Potenzial zur Ozonvernichtung.9 Die Gefahr durch das Ozonloch wurde überraschend schnell von der Völkergemeinschaft akzeptiert, es gab ja überzeugende Messwerte. Im sog. Protokoll von Montreal wurde 1987 der Schutz der Ozonschicht international beschlossen und damit wurden die CFC-Kühlmittel verboten. Die ersten Ersatzstoffe sind HCFCs (Hydrochlorofluorocarbone). Anstelle eines der Halogenatome ist hier ein Wasserstoffatom geblieben, das die Festigkeit des Moleküls herabsetzt und damit die Moleküle zerbrechlicher macht, sodass sie kaum die Ozonschicht erreichen. Wie beim Treibhauseffekt wählte man hier ein Mass für die ozonzerstörende Kraft eine Referenz, hier ist es das Freon-11 (CHCl3) mit dem Abbaupotential oder Ozone Depletion Potenzial ODP von definitionsgemäss 1. Typische Werte für das Ozonabbaupotential der HCFCs sind noch ODP-Werte von 0.005 bis 0.2. Allerdings haben diese Gase dazu weiter Treibhauspotentiale GWP100 von bis zu 2 000. Die nächste Stufe der Entwicklung sind Verbindungen, die ganz ohne Chlor auskommen und damit einen verschwindenden ODP haben, sozusagen die 4. Generation, die HFC (Hydrofluorokarbone). Die Abb. 2.49 zeigt einen Zylinder des heute (noch) weitverbreiteten Kühlmittels 134a dieses Typs, mit ODP = 0 und GWP100 = 1430. Ab 2025 sind nur noch Kältemittel mit einem Global Warming Potenzial (GWP) von maximal 750 erlaubt. Vom ‚Phase-Down‘ ist auch das häufig eingesetzte Kältemittel R134a betroffen, das ab dem 1. Januar 2022 nicht mehr in gewerblich genutzten Kühl- und Gefriergeräte in den Verkehr gebracht werden darf. Aus: F-Gase Verordnung. Fieberhafte Suche nach Alternativen., datacenterinsider.de 9 Eine

ausführliche Liste findet sich z. B. im Assessment Bericht des Umweltprogramms der Vereinten Nationen (UNEP 2019).

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     177

Abb. 2.49  Ein Zylinder HPC 134a, eines gebräuchlichen Kühlmittels. Chemisch ist es Tetrafluoräthan. Bild: R134a Container, Wikimedia Commons, Wladimir Lobajew.

Ein möglicher Ausweg sind natürliche Kühlmittel, im Wesentlichen die Rückkehr zu den Kühlmitteln der allerersten Generation, nun mit moderner Technologie, z. B. mit hochpräziser Röhrentechnik und hochsensibler Sensorik. Es sind Stoffe wie Ammoniak (NH3) und Wasser (H2O) mit GWP = O und ODP = 0, oder Kohlendioxid (CO2) mit ODP = 0 und GWP = 1. Dazu gehört auch Methan (auch Naturgas genannt) und die weniger natürlichen Kohlenwasserstoffe wie die benzinartigen n-, i- und c-Pentan (C5H12) mit ODP = 0 und GWP von 3 bis 5. All diese Stoffe verbleiben nur kurz, vielleicht nur Tage, in der Atmosphäre. Als Randbemerkung der Nachtrag, dass Freon-12 (CCl2F2) auch von Vulkanen natürlich ausgestossen werden kann. Die Ozonschicht kehrt in diesem Jahrhundert wohl zurück; den bisherigen Erfolg des Phase Down, des Herunterfahrens der gefährlichen Stoffe, demonstriert die Abb. 2.50. Die effektive schädliche ODP-Wirkung ist drastisch heruntergegangen. Insgesamt ist das Ozonloch und seine Bekämpfung eine nahezu gute Geschichte, wie der Astronom Florian Freistetter zusammenfasst (Freistetter 2018): • Unsere Erde ist ein System, in dem bereits eine relative kleine Änderung durch uns Menschen unsere Lebensqualität beeinträchtigen kann, ja das Leben selbst gefährden. • Es ist möglich, durch eine globale, internationale Aktion den schädlichen Effekt zu reduzieren.

178     W. Hehl

Abb. 2.50  Die Emissionen wesentlicher ozonabbauender Gase in der Luft Die wichtigsten ozonzerstörenden Gase, in der Masseinheit Millionen Tonnen CFC-11 oder Äquivalente, über die Zeit. Bild aus dem Ozon Assessment Report von Unep (Unep 2019).

Allerdings betraf es bei der Ozonschicht nur die Änderung einer ganz speziellen Produktgruppe mit technischen Ersatzmöglichkeiten und einer Zeitkonstante von Jahrzehnten bis einem Jahrhundert. Die internationale Aktion holpert mit Staaten, die sich nicht an das Abkommen halten. Die zugehörige Theorie ist gut verstanden – 1995 erhielten der Meteorologe Paul Crutzen mit den beiden Chemikern Mario Molina und Frank Rowland den Nobelpreis für Chemie für die Aufklärung der ablaufenden Prozesse. Ein Schönheitsfehler des Schliessens des Ozonlochs ist es, dass damit auch ein Kühleffekt verloren geht. Der gesamte Klimawandel schafft Probleme, die sowohl qualitativ wie quantitativ um Grössenordnungen bedrohlicher sind und die mit einer Zeitkonstante von mehreren Jahrhunderten, ja einem Jahrtausend ablaufen. Der Erfinder Thomas Midgley hat aus heutiger Sicht kein Glück gehabt mit den zu seiner Zeit gefeierten Erfindungen Tetraäthylblei und Freon. Besonderes Pech hatte er mit seiner allerletzten Erfindung. Als er an Kinderlähmung erkrankt, konstruiert er sich eine Vorrichtung, um sich im Bett aufrichten zu können, und er erwürgt sich damit. Sein Vermächtnis hat er wohl zu seinem Glück nicht geahnt: Thomas Midgley hatte mehr Einfluss auf die Atmosphäre als jeder andere einzelne Organismus in der ganzen Erdgeschichte. John Robert McNeill, amerikanischer Historiker, geb. 1954. Er hatte einen Instinkt für das Schädliche oder Bedauerliche [the regrettable], der unheimlich war. Bill Bryson, amerikanischer Schriftsteller, geb. 1951.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     179

Verbleites Benzin und Chlorfluorkohlenwasserstoffe stehen auf der Liste des Time Magazins der 50 schlimmsten Erfindungen10.

2.6 Die Spektren, die vielleicht das Schicksal der Menschheit bestimmen: Sättigung oder nicht? Aus diesen Untersuchungen und Berechnungen geht klar hervor: erstens, dass höchstens ca. 16 % von der Erdstrahlung durch die atmosphärische Kohlensäure absorbiert werden, und zweitens, dass die Gesamtabsorption sehr wenig von den Veränderungen in dem atmosphärischen Kohlensäuregehalt abhängig ist, solange nämlich dieser nicht kleiner als 0,2 des jetzt vorhandenen ist. Knut Johan Ångström, schwedischer Physiker, 1857–1910.

Der Physiker Knut Ångström, Sohn des bekannten Physikers Anders Jonas Ångström, ist mit dieser vollkommenen Fehleinschätzung in die Geschichte der Physik und der Klimaforschung eingegangen. Die Temperatur der Erde hängt sehr wohl vom CO2 - Gehalt der Luft ab. Der Name Ångström (des Vaters) ist wohlbekannt durch die nach ihm benannte Längeneinheit 1 Å = 10-10 m. Der Vater war Astronom und der Begründer der astronomischen Spektroskopie. Er hat einen Atlas des Spektrums der Sonne veröffentlicht. Knut Ångström hatte seinen Assistenten, nur Herr Koch genannt, aufgefordert, die Absorption von Kohlendioxid experimentell zu überprüfen. Herr Koch mass die Infrarot-Absorption von CO2 in einer 30 cm langen Röhre bei Normaldruck und 2/3 dieses Drucks – und fand, dass alles absorbiert ist und dass es gleichgültig ist, ob es mehr oder weniger Gas in der Luft hat. Im Jargon der Spektroskopiker sei das CO2 gesättigt. Zur Erinnerung: Arrhenius hatte die Eiszeiten durch geringeren CO2-Gehalt erklärt. Ångström ist regelrecht hämisch zu seinem Vorgänger und Landsmann: Näher auf diese Theorie [den Treibhauseffekt] einzugehen, scheint uns nach dem Angeführten nicht nötig.

Das war ein Fehler. Er hat damit das grösste Problem der Menschheit im 21. Jahrhundert weggewischt. 10 TIME:

The 50 Worst Inventions, content.time.com/time/specials/packages/completelist/0,29569,1991915,00.html

180     W. Hehl

Das Problem, den Weg der elektromagnetischen Strahlung von der Sonne zur Erdoberfläche und zurück ins All zu verstehen, ist keine FreshmanPhysik. Aber es ist im Vergleich zu den dynamischen Gesamtproblemen des Klimas mit seinen grossen und kleinen Feedback-Schleifen, mit Wasser, Wolken und Eis, eine klare Aufgabe. Zunächst ist es ein Problem der Spektroskopie. Die Grundsituation zeigt die Abb. 2.51, bei welchen Wellenlängen (oder Frequenzen) eingestrahlte elektromagnetische Energie verschoben, absorbiert oder gestreut wird. In der Figur sind einige Molekültypen eingetragen, Wasserdampf und einige Spurengase. Wasserdampf ist nicht eigentlich ein Spurengas. Bei 30°C kann ein m3 gesättigte Luft 30 Gramm Wasser aufnehmen, also etwa 1,5% des Volumens (das ist zwei Grössenordnungen mehr als der Gehalt an Kohlendioxid in der Luft). Die Atmosphäre der Erde enthält mehr als zehn Billionen Tonnen Wasserdampf. Übrigens ist der Wasserdampfgehalt in der Luft über einer Salzlösung wie den Meeren bis zu einem Viertel niedriger als über trockenem Grund, die Salzmoleküle bzw. Ionen behindern das Übertreten von Wassermolekülen in die Dampfphase. Nach der Abbildung ist Wasserdampf der wichtigste Absorber und lässt eigentlich nur wenige offene Fenster für Strahlung. Allerdings gilt dies nur für die niederen Schichten der Atmosphäre, der Troposphäre. Die Stratosphäre ist weitgehend wasser- bzw. eisfrei. Die linke Seite der Abb. 2.51 mit Wellenlängen unter 1 μm betrifft die einfallende Strahlung, die rechte Seit um 10 μm die ausfallende, abgestrahlte Energie. Die Grundursachen haben wir ja schon gesehen, die dreiatomigen Atome können zu Schwingungen angeregt werden, deren Energie in Wärme übergeht. Die Fehler in den Gedanken des ersten Climate Deniers Knut Ångström sind dreifach (Pierrehumbert 2011): Der erste Fehler liegt in mangelndem Verständnis der Spektren der Spektroskopie. Eine Sättigung ist nahezu unmöglich. Die Absorptionslinien sind nur scharf bei geringem Druck oder schwachem Vakuum. Höherer Druck bedeutet viele Stösse der Moleküle untereinander; dies wirkt so, als wären es während kurzer Zeiten veränderte Moleküle und damit verbreitern sich die Spektrallinien und erhalten Ausläufer, die noch lange nicht gesättigt sind und Licht absorbieren. Die Röhren mit Gas des Herrn Koch waren zu kurz, die Absorptionsunterschiede zu klein, die Genauigkeit der Messung zu niedrig. Die Spektren sind in Wirklichkeit viel komplizierter und bestehen eigentlich aus vielen Linien um eine Schwingung herum. Zu einer Schwingung können noch Rotationen angeregt werden. Bei höheren Dichten kommen neue Linien dazu und der Absorptionsbereich

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     181

In

Out

Abb. 2.51  Die Gesamtabsorption, die wichtigsten Absorptionseffekte und die Streuung in der Atmosphäre Die linke Seite der Grafik betrifft einfallende Sonnenstrahlung, die rechte Seite ausfallende IR-Strahlung von der Erde ins All. Bild: Atmospheric Transmission de, Wikimedia Commons, Robert A. Rohde/Global Warming Art project.

wird grösser. Die genaue Berechnung der Absorption ist eine umfangreiche Rechenarbeit. Als Grundlage dienen Datenbanken mit gemessenen und berechneten spektroskopischen Daten; so enthält die Datenbank HITRAN2008 insgesamt 2 713 968 Spektrallinien von 39 Substanzen! Der zweite Fehler ist mangelndes Verständnis des Treibhauseffekts bei einer teilgesättigten Atmosphäre. Die wesentliche Region ist die hohe Atmosphäre, die Schicht, aus der die Strahlung ins All entweicht. Die Temperatur dieser Schicht bestimmt die ins All zur Kühlung abgestrahlten Energie. Diese Grenzschicht isoliert mit weiterem Treibhausgas de facto immer stärker. Die Abb. 2.52 illustriert den Effekt einer thermischen Isolation ganz allgemein. Die Temperatur zum kalten Reservoir hin sinkt, die innere Temperatur steigt. Also je kälter die Aussenfläche, desto weniger Abstrahlung gibt es vom Planeten, desto heisser ist es auf der Oberfläche und dabei erreicht umso weniger Sonnenenergie den Boden. Aber wenn das CO2 sogar so gesättigt ist, wie es sich Ångström vorgestellt hat – so wie es in der Tat auf der Venus der Fall ist – er würde sich trotzdem täuschen. Die Atmosphäre der Venus mag als Ganzes gesättigt sein, aber

182     W. Hehl

Abb. 2.52  Der differenzielle Treibhauseffekt Eine Erhöhung der Isolation reduziert die Aussentemperatur und damit auch die Abstrahlung und erhöht gleichzeitig die Temperatur auf der Erdoberfläche.

die Strahlung entweicht nur in den äusseren Schichten der Atmosphäre, die nicht gesättigt sind. So heiss die Venus auch ist, mit noch mehr CO2 würde sie noch heisser werden. Raymond Pierrehumbert, amerikanischer Geophysiker, geb. 1954. Interessant ist das Beispiel der Venus tatsächlich. Die äussere Oberfläche, die Tropopause der Venus in etwa 50 km Höhe, ist nur 20–30°C warm, die Venusoberfläche dagegen knapp 470°C heiss, heisser als die Oberfläche des Merkurs am Tag mit 430°C. Die dicke Isolationsschicht der Venusatmosphäre sorgt dafür, dass im Mittel nur ungefähr 0,8% der aufgenommenen Sonnenenergie auf der Venusoberfläche ankommen und dabei paradoxerweise diese hohe Temperatur erzeugen (Lemke 2003). Es ist extremer Treibhauseffekt wie in Abb. 2.52 erläutert. Zum Vergleich wird unsere Erde mit etwa 61% der eingestrahlten und nicht reflektierten Energie warm gehalten. Der dritte Fehler in der Argumentation von Knut Ångström ist seine Annahme, dass das Wasser – da in viel stärkerer Konzentration vertreten als das Kohlendioxid – sowieso alle infrarote Strahlung absorbieren würde. Aber dies ist nicht der Fall. Es gibt zum einen keine totale Überlappung der CO2-Absorption und der H2O-Absorption. Dazu erfolgt die entscheidende Abstrahlung ins All in der Stratosphäre, die sehr trocken ist. Der Wasserdampf ist tiefer in der Troposphäre, in und unter den Wolken, das Kohlendioxid reicht in ähnlichem Mischungsverhältnis von 0,04% mit den anderen Gasen der Luft wie am Boden nahezu 50 km hoch. Der Geophysiker Raymond Pierrehumbert, der diese drei Argumente liefert, betrachtet das Problem von einer höheren, allgemeineren Warte.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     183

Für ihn ist die Erdatmosphäre nur eine von vielen Planetenatmosphären, im Sonnensystem wie bei Exoplaneten. Es scheint wie beim Lernen einer Fremdsprache zu sein: Man sieht die Konstruktion der eigenen Sprache viel deutlicher. Der Ruhm des Pioniers bleibt bei Svante Arrhenius mit der allerersten Berechnung des Effekts des CO2 im Jahr 1896. Die erste moderne Computer-Berechnung mit der korrekten Bilanz der infraroten Strahlungen und Berücksichtigung der Absorptionen stammt von den beiden Klimatologen Richard Wetherald und Syukuro Manabe aus dem Jahr 1967. Diese Modellierung zeigte auch als erstes den Effekt der Ausdehnung der Atmosphäre nach oben und die Abkühlung nach aussen durch die globale Erwärmung unter der Atmosphäre wie oben erläutert und in Abb. 2.52 skizziert. Eine Sättigung der Absorption in der Erdatmosphäre durch Kohlendioxid ist nicht abzusehen, im Gegenteil. Bisher ist die Annahme eine logarithmische Abhängigkeit des Treibhauseffekts, d. h. eine recht langsame Zunahme mit der wachsenden CO2-Konzentration11 . Mit der Einbeziehung weiterer CO2-Bande berechnet man (Zhong 2013) ab einer Verdopplung des CO2-Gehalts (ab 800 ppm) sogar mit stärkerem, überlogarithmischem Wachstum. Auf jeden Fall erhöht Kohlendioxid, das der Atmosphäre weiter zugeführt wird, die globale Erwärmung weiter. Ein Gedanke zur erwünschten oder irgendwann möglichen Umkehrung des Trends steigender Kohlendioxid-Konzentration: Leider wird der Effekt bei eventuell fallender CO2- Konzentration ebenfalls nur logarithmisch abnehmen und damit recht langsam zurückgehen. Eine Schlussbemerkung noch zu einer Frage oder einem Zweifel, dem man immer wieder z. B. in Blogs begegnet: Wie kann eine so kleine Menge an Treibhausgas – nur 0.04 Volumen-% – das Klima beeinflussen? Es kann. Die Moleküle der Treibhausgase wie CO2 oder CH4 werden nur angerempelt und existieren lange weiter (Ozon O3 wird gespalten und neu gebildet). Das Kohlendioxid würde immerhin zusammengebracht unter Normalbedingungen eine drei Meter dicke Gasschicht um den Erdball ergeben. Der erste Klimaskeptiker, wenn man so will, Knut Ångström, dachte es umgekehrt bewiesen zu haben. Schon 30 cm Schicht an CO2-Gas wären gesättigt und es würde sich nichts mehr ändern …

11  Etwa

nach der Formel F = k · ln(c/c0) mit c und c0 die Konzentrationen an CO2 und dem Strahlungsantrieb F. Die Konzentration c0 ist die Referenz, k hat den Wert 5,35 Watt/m2.

184     W. Hehl

2.7 Aerosole und Wolken Eine [Planeten-] Atmosphäre ist eine Gasmischung aus Materie und Photonen. Raymond Pierrehumbert, Geophysiker, 2011. Der Einfluss der Aerosole auf das Klima ist eine der grössten Unsicherheiten in der Vorhersage des zukünftigen Klimas. Seoung-Soo Lee, koreanisch-amerikanischer Astronom und Physiker, 2011.

In der fundamentalen Definition der Atmosphäre durch den Atmosphärenphysiker Pierrehumbert muss noch die Materie etwas genauer spezifiziert werden: Es gibt monomolekulare oder gar monoatomare Materie wie O2, N2 , CO2 oder Ar (Argon) einerseits, aber auch grössere Agglomerate von Molekülen, die nicht chemisch gebunden sind, sondern schwächer, Schwebeteilchen oder Aerosolpartikel. Dies ergibt die Definition: Die in einem Gas schwebende Menge dieser Teilchen ist Aerosol.

Partikel in der Luft können biologischen Ursprungs sein, oder natürlichanorganisch, etwa von Vulkanen oder Wüsten, menschlich von z. B. gelegten Waldbränden oder menschlich-industriell von Kohlekraftwerken. Die Abb. 2.53 zeigt verschiedene Partikel im Grössenbereich von 10 bis 100 um. Die meisten Aerosolteilchen sind allerdings kugelförmig wie die Flugasche in der Abbildung oder wie Wolkentröpfchen und Regentropfen.

(i)

Abb. 2.53  Elektronenmikroskopische Aufnahmen verschiedener Aerosole Bilder (a) bis (h): Verschiedene Aerosolpartikel, meistens biologischen Ursprungs, im Rasterelektronenmikroskop. Einzelheiten in researchgate.net/publication/257108740 Quelle: Adriana Ipiña, Instituto de Física Rosario, Argentinien.Bild (i): Flugasche von einem Kohlekraftwerk, 2000 x vergrössert. Durchmesser 10–100 μm. Quelle: Fly Ash FHWA dot gov, Wikimedia Commons, US Department of Transportation.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     185

Ein Aerosol (gesprochen a-erosol) ist eine Lösung in Luft, eine Dispersion von flüssigen oder festen Teilchen in einem Gas. Es sind feine Tröpfchen (Nebel) oder feiner Staub (Schwebstaub). Die Problematik aus Sicht des Klimas ist die Vielfalt an Aerosolen in der Luft und damit die Vielfalt an Auswirkungen, sogar mit verschiedenem Vorzeichen des Strahlungsantriebs, kühlend oder wärmend. Die Partikel der Aerosole verändern sich leicht, wachsen durch Anlagerung, sind chemisch leicht reagierend. Dadurch ändert sich auch der Gesamtkörper des Nebels oder der Wolke. Die fantastische Vielfalt der Wolkenformen – obwohl alles aus Wasser H2O – und deren Dynamik am Himmel ist ein Hinweis. Die meteorologischen Fachausdrücke für die zugehörigen Erscheinungen sind • Lithometeore mit Schwebeteilchen, die nicht aus Wasser bestehen, etwa Rauchwolken und Sandstürme, • Hydrometeore aus Formen von Wasser, Wolken- und Regentropfen, Eiskristalle und Eisgraupel. Aerosole haben direkten und indirekten Effekt auf den Energiehaushalt der Erde, so streuen sie Sonnenstrahlung wieder ins All und erhöhen die Albedo, aber sie können auch Strahlung absorbieren. Dazu kommen indirekte Effekte, bei denen die Aerosole die Wirkung anderer Mitwirkenden im Klimaprozess verändern, z. B. die Stärke und Lebensdauer von Wolken. Es gibt eine ganze Reihe von gegeneinander laufenden Trends, die richtig erfasst werden müssen und a priori schlecht abzuschätzen sind: • Aerosole erwärmen die Atmosphäre und verringern die adiabatische Kühlung der aufsteigenden Luft mit zunehmender Höhe. D.h., es gibt weniger Wolken oder Wolken lösen sich auf. • Aerosole liefern Kondensationskeime für Eis- und Wasserwolken. Wasserdampf benötigt eine nicht-gasförmige Oberfläche, um zu kondensieren. Durch Aerosole können mehr kleine Wassertröpfchen entstehen, dies ergibt nicht nur die erwähnte höhere Albedo (der sog. Twoney-Effekt), sondern auch eine längere Lebensdauer der Wolken (Albrecht-Effekt). • Aerosole können die Niederschläge verringern, während die allgemeine globale Erwärmung sie verstärkt. Damit haben wir im 20. Jahrhundert mit der Entwicklung der rauchenden Industrie von den Aerosolen, die in die Luft gelangten, mit geringeren

186     W. Hehl

globalen Temperaturen sozusagen profitiert. Durch den Einbau der Filter in die Kraftwerke der ersten Welt wurde dieser Bonus (oder faustische Handel wie oben bezeichnet) zurückgeholt. Solange in den aufstrebenden Ländern noch Kohlekraftwerke gebaut werden, kann sich eine derartige Entwicklung wiederholen. Wir sehen drei Aerosole näher an: Russ, mineralischen Staub und Sulfataerosol. Nach verschiedenen Quellen bedeutet dies ganz grob die Mengen: • • •

8 Mio. t. Russ pro Jahr (Richard Kerr, Science, 2013), 1,8 Mrd. t. mineralischer Staub pro Jahr, 2/3 aus der Sahara, (Deutscher Wetterdienst, Lexikon Saharastaub ), 110 Mio. t. Schwefel pro Jahr um 2015 (Wenche Aas et al., Nature, 2019).

2.7.1 Russ Keine andere [Klimaschutz-] Massnahme könnte so schnell wirken. Die Russ-Emissionen stehen in ihrer Wirkung an zweiter Stelle nach Kohlendioxid als Ursache für die globale Erwärmung, aber ihre Effekte wurden in den Klimamodellen unterschätzt. Russ ist verantwortlich für 17% der globalen Erwärmung, mehr noch als Methan. Den Beitrag von Russ könnte man in 5–10 Jahren um 90% reduzieren mit aggressiven nationalen und internationalen Vorgaben. Marc Z. Jacobsen, amerikanischer Chemiker, 2011.

Jacobson (2010) geht in der Beurteilung der Bedeutung von Russ für das Klima sehr weit, aber moderne Arbeiten geben ihm prinzipiell Recht (Ulmer 2020). Russ sind die amorphen Teilchen, die bei unvollständiger Verbrennung von Kohlenwasserstoffen und ähnlichem organischem Material entstehen. Der Russ, der bei der Verbrennung fossiler Brennstoffe entsteht, etwa bei Diesel, Kerosin oder grober, nicht pulverisierter Kohle, enthält überwiegend elementaren Kohlenstoff in einer graphitähnlichen Form und ist schwarz (man kennt heute etwa 500 verschiedene Strukturen des Elements Kohlenstoff). Im Englischen wird dieser Russ als BC bezeichnet, als Black Carbon, wobei Carbon Black andrerseits das Material Russ als Farb- und Füllstoff bedeutet. Der schwarze Russ absorbiert Strahlung der verschiedenen Wellenlängen und wandelt sie direkt in Wärme um. Die primären Russpartikel, oft kugelförmig mit Durchmessern von 10 nm bis 100 nm, also nur so gross wie ein Tausendstel des Durchmessers eines menschlichen Haars, wachsen zusammen. Diese Partikel fügen sich zu unregelmässigen Ketten und

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     187

schliesslich zu Klumpen; die Abb. 5.54 illustriert den Anfang der Bildung von fraktalen Ketten, die schliesslich zu fraktalen Klümpchen führen. Fraktale Ketten wachsen in der effektiven Dimension über die Dimension eins hinaus, fraktale Klumpen werden dann zu de facto körperlichen Flächen der effektiven Dimension grösser als zwei. Das bedeutet grosse, chemisch und physikalisch aktive Oberflächen. Die Abb. 2.55 zeigt die zwei deutlichen Russfahnen eines US-Dieseltrucks aus dem Jahr 2008. Ähnlich oder noch eindrucksvoller sieht es bis heute bei Hochseeschiffen und deren Abgasen aus. Verursacher sind deren grosse mit Schweröl und Diesel betriebene Motoren.

Abb. 2.54  Ein Cluster aus Russteilchen Prinzipskizze eines frischen fraktalesken Russ-Aerosolteilchens. Durch weiteres Anlagern entstehen klumpenförmige Agglomerate. Bild: Nach einem Diagramm des Centre of Atmospheric Sciences, Universität Manchester.

Abb. 2.55  Ein US-Diesel-Truck ohne Partikelfilter Historisches Bild der Diesel-Russfahnen. Bild: Diesel smoke, Wikimedia Common, Environmental Protection Agency.

188     W. Hehl

Offensichtlich ist die Wirkung des schwarzen Russes unmittelbar ein Desaster für die weissen Eis-und Schneeflächen und deren Auftauen wie oben im Abschnitt Gletscherschwund und beim Kryokonit-Effekt beschrieben. Für den Himalaya wird geschätzt, dass die Klimawirkung von einfallendem Russ etwa dem Wärmeeffekt von Kohlendioxid entspricht. Die Klimatologen James Hansen und Larissa Nazarenko schreiben 2004: Der Russ-Effekt auf die Albedo von Schnee ist wohl für ein Viertel der beobachteten globalen Erwärmung verantwortlich.

Bei der Verbrennung vieler organischer Stoffe – von Bedeutung sind hier vor allem Biotreibstoffe und Biomasse – entstehen mehr chemisch komplexe weisse, graue oder braune Verbindungen als elementarer schwarzer Kohlenstoff. Es sind die primären organischen Aerosolpartikel. Weitere, sekundäre Aerosolteilchen entstehen dann in der Atmosphäre selbst. Die Chemie und die Physik dieser Partikel sind recht komplex. Es entstehen Hunderte von verschiedenen organischen Verbindungen, die meisten mit 6er-Ringen von Kohlenstoff, viele gesundheitsschädlich oder direkt kanzerogen. Chemisch verändern sie sich leicht oder reagieren mit anderen Stoffen in der Atmosphäre. Die Mengen, um die es geht, sind beträchtlich. Zu den 8 Mio. t. schwarzen Kohlenstoffs kommen 32 Mio. t. weißgraue Aerosole, davon 10 Millionen von Biotreibstoffen und 20 Millionen von Biomasse. Dabei umfasst Biomasse die biologischen Rest- und Abfallstoffe, die in der Landund Forstwirtschaft produzierten „Nicht-Nahrungsmittel“ sowie alle daraus abgeleitete Produkte. Fossile Materialien sind ausgeschlossen. Die schwarzen Aerosole haben dazu auch indirekte Auswirkungen auf das Klima via die Physik der Wolken. Aus Simulationen weiss man (Ulmer 2020), dass Russpartikel, die mit Ozongas in Kontakt kommen, dafür sorgen, dass es weniger tiefliegende Wolken gibt und damit mehr Strahlung den Erdboden erreicht; es wird wärmer. Ein etwas anderer Prozess geschieht mit Russpartikeln mit Sulfat oder Schwefelsäure. Hier bilden sich mehr Eiskristalle und damit werden die Zirruswolken optisch dichter und bessere Wärmeschutzschilder, weniger Wärmestrahlung entweicht ins All. Auch durch diese beiden Effekte macht Russ die Erdoberfläche wärmer. Für die spezifische Wirkung einer Substanz haben wir das Potenzial zur globalen Erwärmung eingeführt, das GWP. Es ist nur beschränkt möglich, die Wirkung von Russ als Stoff so zu messen. Die Definition ist sinnvoll für Stoffe, die in der Atmosphäre langlebig sind und sich leicht verteilen, also Wellmixed sind. Beides trifft für Aerosole gerade nicht zu. Für Russ gibt

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     189

es GWP-Werte in der Literatur, aber in geänderter Definition. Die Werte sind typisch im Bereich von 1000–100 000 und mit grossen Unsicherheiten behaftet (Jacobson 2010). Auch die Berechnungen für den Gesamteffekt von Russ gehen auseinander. Eine Untersuchung nimmt sogar an, dass Russ insgesamt eine Klimaauswirkung von 2/3 des Kohlendioxids hat. Aber es ist klar, dass der Russ-Effekt in der Liste der Klimaeffekte an dritter oder gar zweiter Stelle steht. Hier einige widersprüchliche Schlagzeilen dazu: Russ verursacht doppelt so viel globale Erwärmung als bisher gedacht. TheGuardian, 15. 1. 2013. Die Auswirkung von Russ ist übertrieben, sagt eine Studie. TheGuardian, 27. 9. 2014. Schwache Milderung der globalen Erwärmung durch eine Reduktion von Russ. Nature, 14. 3. 2019. Russpartikel haben mehr Einfluss auf die globale Erwärmung als angenommen.

Aber Russ ist nicht nur ein Klimaproblem, sondern auch ein Gesundheitsproblem durch die krebserregenden Zusatzstoffe und ausserdem ein praktisches Problem als Schmutz. Die Reduzierung von Russ in der Atmosphäre ist damit ein doppelter Gewinn für Klima und die Gesellschaft. Eine grosse Quelle von Russ sind Öfen mit Verbrennung; das Earth Institute der Columbia Universität schreibt 2016: Auf der Welt kochen drei Milliarden Menschen ihr Essen und heizen ihre Wohnungen durch Verbrennen von Biomasse oder Kohle in primitiven Öfen oder gar offenem Feuer. […] die besten strategischen Objekte um die RussEmissionen zu reduzieren sind in Asien die Ziegelbrenn- und die Koksöfen, sonst auf der Welt die Kochstellen und die Dieselfahrzeuge.

Einige der anthropogenen Russquellen wie europäische und amerikanische Dieselfahrzeuge sind bereits drastisch zurückgegangen – Mark Jacobson im Eingangszitat hat hoffentlich Recht.

2.7.2 Mineralische Aerosole „In der Sahara liegt der Sand so locker, daß heute da Berge sind, wo morgen Täler waren.“ Johann Georg August Galletti, deutscher Pädagoge, 1750–1828.

190     W. Hehl

Mineralische Aerosole aus der Sahara – Saharastaub – machen sich in Europa auch nördlich der Alpen durch spektakuläre Verfärbungen des Himmels als Morgen- oder Abendrot bemerkbar. Der Südföhn verfrachtet den Staub über die Alpen, der Schirokko bringt ihn über das Mittelmeer, ein Kaltluftvorstoss aus dem Norden hebt die Saharaluft an. Die Staubfahnen aus der Sahara werden auch nach Osten oder nach Westen verweht, mit dem Chamsin-Wind nach Osten, mit dem Passat der Tropen (in Guinea der Harmattan, über den Kanaren der Calima) nach Westen. In der Sahara entstehen hohe Bodentemperaturen und damit ausgeprägte thermische Turbulenzen, die den Staub aufwirbeln bis in Höhen von 5 km. Kühlt sich der Boden dann ab, entsteht eine Luftschicht, die nur grössere Staubpartikel als etwa75 μm durchdringen können und zu Boden fallen. Kleinere Partikel sinken nicht zu Boden sondern bleiben in der Luft. Ungestört können kleine Aerosolpartikel 6 Monate in der Luft bleiben, mit dem Wind werden sie dann nordwärts oder vor allem westwärts getragen: Eine grosse Saharastaub-Wolke verdunkelt den Himmel über Teilen der Karibik. Der Staub ist von Afrika über den Atlantik gelangt. Am Sonntag hat er Puerto Rico erreicht und seitdem Kuba und Teile Mexikos bedeckt. BBC News, 25. 6. 2020.

Die Abb. 2.56 zeigt die zurückgerechneten Wege des Sands (die Trajektorien) in einem malerischen Bild. Damit hat der Mineralstaub der Wüsten auch überregionale Wirkungen: • Die Albedo mit Staub in der Atmosphäre ist über Land erniedrigt (also dunkler), über dem selbst dunklen Meer dagegen höher. • Der Sand in der Luft erwärmt und glättet den Temperaturverlauf, so dass die Neigung zu Hurrikanen über dem Atlantik erniedrigt wird. • In der Sahara ist ein grosser Teil des Sands loses Material aus dem Boden eines ehemaligen Sees. Dazu kommt verwittertes Felsgestein – die Sahara hat auch Gebirge mit dem ehemaligen Vulkan Emi Houssi mit 3415 m Höhe als höchste Erhebung. Mit diesem Sand werden damit Millionen Tonnen wertvoller Düngestoffe wie Eisen und Phosphor äolisch (mit dem Wind) über Tausende von Kilometern transportiert, etwa ins Amazonasgebiet oder auf die iberische Halbinsel oder ins Meer. Die Mengen des aufgenommenen Sands hängen von der Festigkeit der Bodenoberfläche ab. Autos, die beim Fahren den Boden aufbrechen, erhöhen den Flugsand. Nach Jahren mit Regen ist der Boden fester und die

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     191

Abb. 2.56  Saharastaub überquert den Atlantik am 28. 6. 2018 Modellierung mit dem Goddard Earth Observing System Model (GEOS5). Bild: earthobservatory.nasa.gov/images/ 92358 /here comes the dust.

beförderten Mengen sind geringer. Die geschätzten in die Luft gelangenden Sandmengen sind insgesamt 1000 bis 3000 Mio. t., davon landen 450 Mio. t. im Ozean (Grassian Research). Die Nasa hat die über den Atlantik transportierten Sandmassen gemessen (NASA 2017). In den gemessenen Jahren verliessen 182 Mio. t. Sand den afrikanischen Kontinent, davon überquerten 132 Mio. t. den Atlantik bis zum 35. Längengrad West. 43 Mio. t. reisten weiter in die Karibik, 28 Mio. t. erreichten das Becken des Amazonas und düngten es mit 22 000 Tonnen Phosphor. Aerosole sind verbunden mit der Desertifikation (Wüstenbildung) der Trocken- und Halbtrockengebiete. 46% des Landes der Erde mit etwa 3 Mrd. Einwohnern sind derartige Gebiete am Rande von drohender ­Verwüstung. Die Abb. 2.57 zeigt die Trockengebiete der Erde in den vier Abstufungen von subhumid (zu trocken für Bäume), semiarid, arid und hyperarid. Sandstürme und Gewitter in den ariden Gebieten verwehen den staubigen Humusboden und verstärken den Wüstencharakter. Dazu treten die zwar seltenen, aber oft extremen Wetterereignisse mit Erosion durch Wasser. Für die globale Erwärmung ist es im Allgemeinen eine Verstärkung oder ein positiver Feedback: Die Verwüstung begünstigt die globale Erwärmung, die globale Erwärmung begünstigt die Bodenerosion. Es sind geschätzte 20 bis 200 Mrd. t. Material pro Jahr, die verschoben werden.

192     W. Hehl

Abb. 2.57  Trockengebiete der Erde in 1961 bis 1990 Bestimmt nach dem Verhältnis des aktuellen Niederschlags zur potenziellen Verdampfung an einem Ort. Karte aus : Feng, S. und Q. Fu, 2013. Expansion of global drylands under a warming climate. Atmos. Chem. J., Vol. 13., doi:10.5194/acp-1310081-2013. Bild: Drylands 1960–1990, Wikimedia Commons, Song Feng and Qiang Fu.

Die regionalen Klimaeffekte der mineralischen Aerosole, also Sand und Staub in der Luft, sind offensichtlich: • Die Sonnenenergie auf der Erdoberfläche wird reduziert, • die Temperatur der Luft erhöht, • die Wahrscheinlichkeit von Regen erniedrigt. Am dramatischsten sind die Aerosole in ihrer Wirkung in den Sandstürmen und in den angewehten und abgelagerten Hinterlassenschaften von Sand und Staub, den Sanddünen. Die Abb. 2.58 vermittelt einen guten Eindruck von der drohenden Gefahr. Selbst in einer hochtechnisierten Umgebung ist ein Sandsturm voller Gefahren; hier einige Ratschläge aus Dubai zum Verhalten bei zu viel Aerosolen: • Innen zu bleiben ist in etwa das Beste, was Sie tun können um einem Sandsturm zu entgehen. • Wenn Sie Ihr Auto im Freien parken, vergewissern Sie sich, dass es gut zugedeckt ist. Es ist auch eine gute Idee Ihren Swimming Pool draussen mit einer Plastikplane gut zuzudecken.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     193

Abb. 2.58  Ein Sandsturm kommt Ein Sandsturm in Al Asad, Irak, am 27. April 2005. Bild: Sandstorm in Al Asad, Iraq, Wikimedia Common, Corporal Alicia Garcia, US Marine Corps.

• Nach dem Sturm wird Ihr Heim eine gründliche Reinigung brauchen denn kleine Staubpartikel werden in all Ihren Sachen hängen. • Der Staub geht manchmal in Schränke und andere abgeschlossenen Räume durch winzige Öffnungen. Beim Reinigen, nicht die versteckten Plätze im Haus vergessen. Aus: How to deal with sandstorms in Dubai – Wie man sich in Dubai bei Sandstürmen verhält, auf Bayut.com. Insgesamt wird global durch die Erwärmung eine wesentliche Erhöhung der Niederschläge – Regen oder Schnee – erwartet; die grundlegende Physik12 gibt für jedes Grad globaler Erwärmung 7% mehr Luftfeuchtigkeit vor. Aber die Verteilung der Veränderungen in den Niederschlägen auf der Erde ist ungewiss; dazu diese Aussage des Klimatologen Benjamin Cook vom NASA Goddard Institute for Space Studies (Hausfather 2018): Die Frage von Trockenheiten in der globalen Erwärmung ist recht kompliziert. Während der Einfluss auf die Niederschlagsmengen recht unsicher ist, erwarten wir mit der Erwärmung, dass viele Gebiete der Erde mehr Trockenperioden der Böden haben werden und abnehmende Schmelzwasser- und

12 Es

ist die Clausius-Clapeyron-Gleichung für den Wasserdampf über flüssigem Wasser.

194     W. Hehl

Abflussmengen. Das wird insgesamt zu höherer Wahrscheinlichkeit und längerer Dauer von Trockenzeiten führen. CarbonBrief, Explainer: What climate models say about future rainfall, 2018.

Mehr Trockenzeiten werden mehr Aerosole bedeuten. Besonders eindrücklich waren die Staubstürme in den USA und in Kanada in den 1930er Jahren. Die grossen Ebenen wurden durch Umwandlung der Prärien in Weizenfelder zu „Staubschüsseln“. Die Abb. 2.59 zeigt ein Beispiel für den katastrophalen Schaden durch die verwehten Ackerböden. Heute ist die Wahrscheinlichkeit für heisse, lange Sommer und grosse Trockenheiten gestiegen und derartige Staubstürme sind eine weltweite Bedrohung, vor allem für die USA und für China. Dies gilt zunächst für die Landwirtschaft, aber indirekt auch für die Sicherheit der Nahrungsversorgung der Welt.

2.7.3 Schwefel und Sulfat-Aerosole Schwefelsäuretröpfchen in der Atmosphäre: Das sind die Bausteine der Kondensationskerne für Wolken, auf denen Wasserdampf kondensiert und daraus Wolken macht. Danish National Space Institute, The SKY Experiment, 2011.

Abb. 2.59  Amerikanischer Bauernhof nach Staubsturm (1936) Mit Staub bedeckter Hof in der Zeit der Dust Bowl (Staubschüssel). Bild: Dust Bowl Dallas South Dakota 1936, Wikimedia Commons, US Dept. Agriculture.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     195

Zunächst geht es in der Chemie des Schwefels in der Atmosphäre um das giftige Gas Schwefeldioxid SO2, dessen Geruch jeder kennt. Es ist der Geruch abgebrannter Zündhölzer oder von verbranntem Schwarzpulver. SO2 ist der Ausgangspunkt für schwefelhaltige Aerosole. Das Schwefeldioxid-Molekül SO2 (Abb. 2.60) ist analog dem Kohlendioxid-Molekül CO2 dreiatomig und gewinkelt und hat damit die gleichen Grundschwingungsmoden wie das Kohlendioxid: eine Biegeschwingung und zwei pulsierende Streckschwingungen. Dazu gehören als drei Grundfrequenzen 7,5 μm, 9 μm und 23,4 μm mit Absorptionen im infraroten Strahlungsbereich. In sauberer Luft über Land ist etwa 1 ppb (Teilchen pro Milliarde) SO2 enthalten. Trotzdem gilt Schwefeldioxid nicht als richtiges Treibhausgas, sondern es ist vor allem ein Gas, das Aerosole hervorruft, Schwebeteilchen, die Sonnenlicht reflektieren. Im Wesentlichen wird das Schwefeldioxid SO2 auf verschiedenen Wegen zu Trioxid SO3 oxidiert und daraus entstehen mit Wasser Tröpfchen konzentrierter Schwefelsäure. Es sind vor allem Kügelchen mit Durchmessern von 0,1 bis 1 μm, die einen weisslichen Dunstschleier bilden, der die Albedo erhöht und kühlt. Die Hauptquellen von SO2 in der Atmosphäre haben wir schon erwähnt: • Vulkanische Eruptionen, • Verbrennung fossiler Brennstoffe oder auch Biomasse, • Ozeanisches Phytoplankton via Dimethylsulfid, das zu SO2 oxidiert wird.

Vulkanische Eruptionen und Schwefeldioxid Grosse Vulkanausbrüche bringen viele Millionen Tonnen SO2 bei einem Ausbruch in die Luft, z. B. der Ausbruch des Pinatubo auf den Philippinen am 15. Juni 1991 mit etwa 20 Mio. t. SO2. Die chemischen und chemischphysikalischen Vorgänge sind durch die Vielfalt der Substanzen, die

Abb. 2.60  Das Schwefeldioxid-Molekül Ein dreiatomiges, gewinkeltes Molekül wie CO2 mit entsprechenden Schwingungen.

196     W. Hehl

zusammentreffen, komplex und nicht gut verstanden. So überziehen sich Russteilchen mit Schwefelsäure und reflektieren das Sonnenlicht und haben ganz andere Eigenschaften. Die Simulationen sind empfindlich auf kleine Variationen der Zusammensetzung und der physikalischen Bedingungen, die die Bildung der Aerosole und deren Oberflächen verändern und damit den Grad und die Art der Reflexion des Lichts und die Lebensdauer der Partikel in der Atmosphäre. Das Komitee IPCC schrieb 2001 (IPCC, 2001 und 2018): Die Unsicherheiten bezüglich der Wirkung der Aerosole bleiben gross und beruhen zum grossen Teil auf den Schätzungen der globalen Modellstudien, die man heute nur schwer bestätigen kann.

Allgemein gibt es (wohl auch heute noch) drei grosse Unsicherheiten in der Berechnung: • Die erwähnte Unsicherheit in den optischen und chemischphysikalischen Parametern der Aerosole, • die ungenaue Kenntnis der Menge und Verteilung der Einspeisungen der Ausgangsstoffe in die Atmosphäre durch die Natur wie durch den Menschen, • schliesslich die Übertragung der Aerosolphysik in die Auswirkung auf das globale Klima. In der unteren Atmosphäre, der Troposphäre, bleibt das SO2 nur wenige Tage. Es bildet Säuretröpfchen und verursacht den sauren Regen, oder es wird unmittelbar noch als Gas ausgewaschen. In der Stratosphäre beträgt die Lebensdauer der Aerosole viele Wochen und es gibt eine globale Abkühlung, wie wir aus der Geschichte der grossen Vulkanausbrüche direkt und schmerzhaft wissen. Wenn man die Verbrennung der fossilen Brennstoffe als das ganz grosse Experiment der Menschheit mit der Erde ansieht, so macht die Natur grosse Experimente mit der Erde (und uns) in Form der supergrossen Vulkanausbrüche wie Tambora, Krakatau und Pinatubo. Diese grossen Eruptionen mit vielen Milliarden Tonnen von Staub und Dutzenden von Millionen Tonnen Schwefeldioxid und Milliarden Tonnen Flugasche (Tephra) sind für das Klimasystem punktförmige Proben auf die Stabilität, jeweils grosse Stösse. Ein stabiles System kann die Wirkung der Stösse ausgleichen, im Gegensatz zu einem System in der Nähe eines Kipp-Punkts (Tipping-Points). Ersteres war bisher offensichtlich irgendwie immer der Fall …

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     197

Es gibt etwa 1500 aktive Vulkane, davon brechen etwa 50 bis 60 im Jahr mit kleineren Eruptionen aus und geben einen beständigen natürlichen Hintergrund an Schwefeldioxid in der irdischen Atmosphäre ab. Das Problem der Wolken Wolken sind flüchtige und wichtige Komponenten im ganzen Klimasystem. Sie sind massgeblich für das Strahlungsgleichgewicht und für den Wasserhaushalt des Planeten. Es gilt die Grundregel für den Effekt von Wolken: • Niedrige, wenige tausend Meter hohe Wolken kühlen eher, weil sie sehr viel Strahlung zurück ins All schicken. • Hohe, vor allem dünne, Wolken wärmen eher, sie wirken als TreibhausDecke. Dazu kommt der Unterschied in der Nacht: • Wolken halten die Wärme zurück, aber wo es aufklart, wird Wärmestrahlung ins Weltall abgegeben und es wird kälter. Wolken können sich auf kleinstem Raum schnell verändern, deshalb ist es schwer, ihr Verhalten in Klimamodellen zu erfassen. Die Albedo von Wolken hängt von der Grösse der gebildeten Tropfen ab: Wolken aus grossen Tropfen haben niedriges Albedo, Wolken aus kleinen Tropfen oder Eis sind heller. Das heisst, Wolken können Sonnenstrahlung abweisen (kühlen)oder helfen, Wärmestrahlung zu speichern (zu wärmen). Es ist naturgemäss viel schwieriger, das Zusammenwirken solcher gegenläufiger Trends zu verstehen als eindeutige Abläufe. Die Bildung von Wolken ist in diesem Sinne ein worst case mit mehreren gegenläufigen Effekten und dazu ein sehr wichtiger Fall. Eine Erhöhung der Wolkenalbedo im Prozentbereich würde schon die globale Erwärmung durch CO2 kompensieren. Mit dem Klimawandel resultieren Änderungen in der Bewölkung der Erde, die wiederum in sich widersprüchlich und gegenläufig sind. So wird es wahrscheinlich weniger tiefe Wolken in den Tropen geben, mehr hohe Wolken in den Subtropen und vielleicht mehr dicke Wolken in höheren Breiten. Wolken und Wolken-Feedback beim Wandel können noch nicht befriedigend modelliert werden. Wolken sind dabei zentral für die globale Erwärmung. Zu jedem Zeitpunkt ist die Erdoberfläche zu zwei Dritteln mit Wolken bedeckt.

198     W. Hehl

So schreibt der Autor Justin Gillis in den New York Times am 30. April 2012: Die Wirkung von Wolken auf den Klimawandel ist die letzte Bastion der [Klimawandel- ] Ungläubigen.

Das Bonmot eines Klimatologen zur Rolle der Wolken im Klimawandel zeigt, dass die Problematik noch heute gilt (Ceppi 2020): „Wie gross der Wolkeneinfluss wirklich sein wird, das bleibt in die Wolken geschrieben“.

Diese Unsicherheit ist fundamental: Wolken sind ein Kernproblem für die Klimatologie: Wolken, ihre Eigenschaften, die Prozesse der Entstehung und Unterdrückung und die Rückkopplungen im Klimasystem, vor allem mit den Ozeanen.

Verbrennung fossiler Stoffe und Schwefeldioxid Die Verbrennung der fossilen Brennstoffe ist das ganz grosse und gefährliche Experiment der Menschheit mit der Erde. Es ist Kohlenstoff, den die Erde in Millionen von Jahren angesammelt hat. Aber wir Menschen sollten aufhören, Kohle und Erdöl als Werte anzusehen. „Kohle ist gut für die Menschheit, Kohle ist gut für den Wohlstand, Kohle ist ein wesentlicher Teil unserer wirtschaftlichen Zukunft, hier in Australien und in der ganzen Welt.“ Anthony Abbott, geb. 1957, ehemaliger australischer Premierminister. 2014 bei der Eröffnung eines neuen Kohlenabbaus.

Dies ist ein berühmtes Zitat des Politikers – berühmt, weil gegen das global wachsende Verständnis des Abwendens von fossiler Energie im Allgemeinen und von Kohle im Besonderen. Dazu ist Australien ein weitgehend (zu 70%) semiarides und arides Land und damit besonders gefährdet bei globalem Klimawandel. Die Verbrennung fossiler Stoffe zur Energiegewinnung hat zwei Ebenen im Einfluss auf das Klima: Da ist zum einen die ganz grosse, aber doch eher intellektuelle Wirkung des zwangsläufig entstehenden Kohlendioxids, global

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     199

und bis zum Jahr 2000 nicht eindeutig belegbar. Und da sind zum anderen die Seiteneffekte durch beiläufig freiwerdende Stoffe, die in der Kohle ebenfalls für Millionen von Jahren eingeschlossen waren und jetzt frei werden und in die Luft gelangen. So etwa: • Radioaktive Stoffe, die Radioaktivität freisetzen, vor allem Verbindungen von Uran und Thorium. So werden im Jahr etwa 12 000 Tonnen Thorium und 5000 Tonnen Uran durch Kohleverbrennung freigesetzt (Molina 2013). • Schwefeldioxid mit lokaler und globaler Wirkung. Etwa 1% bis zu 5% des Gewichts von Kohle ist Schwefel. Die resultierenden tatsächlichen Schwefelmengen als Funktion der Zeit sind in Abb. 2.61 ersichtlich. Bis zur Gegenwart (hier das Jahr 2011) sind es die realen Schwefelemissionen, danach geschätzte Werte. Die lokale Säure-Wirkung des entstehenden Schwefeldioxids im Regen wurde in den 1980er Jahren durch abgestorbene Wälder drastisch

Abb. 2.61  Globale Schwefelemissionen in die Atmosphäre durch anthropogene Aktivitäten (Das Bild ist eine vereinfachte Fassung der Grafik Estimates of past and future SO2 global anthropogenic emissions, Wikimedia Commons, Sooooga.). Erfolgte Emissionen und Schätzung für die Zukunft (bezogen auf 2011).

200     W. Hehl

v­orgeführt. Es wurde unter dem Begriff Waldsterben eine Art Keule des Umweltschutzes und zum Auftakt der grünen Bewegung nördlich der Alpen. Die harte schädliche Auswirkung des sauren Regens in der Nähe etwa von Braunkohlekraftwerken ist unbestritten, genauso wie der grosse Nutzen des Einbaus von Filtern zur Rauchgasentschwefelung nach der Grossfeuerungsanlagenverordnung in Deutschland im Jahr 1983. Allerdings weiss man heute, dass es einerseits kein flächendeckendes Waldsterben gab (Viering 2016) und dass andrerseits auch heute der Wald leidet, z. B. an Trockenheit, globaler Erwärmung und Folgen daraus wie der Borkenkäferplage (Hecking 2015). Es mag dabei Bereiche und Verbrennungstechnologien geben, die schwerer vom SO2 zu befreien sind. Ein Beispiel ist die Schifffahrt, die bisher mit besonders schmutzigem Schweröl fuhr. Schweröl ist der schwerflüssige Rückstand bei der Erdölraffinierung; es ist so schwerflüssig, dass es vor der Verwendung aufgeheizt werden muss. Es enthält etwa 2% unbrennbare Anteile und etwa 4,5% Schwefel (übliches Heizöl nur etwa 1 ‰). Der unbrennbare Schlamm ergab früher, wenn er auf hoher See ausgebracht und geklappt wurde, die schwarzen Teerklumpen, die man an (Bade-) Stränden fand! Auf Satellitenbildern wurden 1965 ungewöhnliche Wolkenstreifen entdeckt. Es sind menschengemachte Wolken wie die bekannten Kondensstreifen der Strahlflugzeuge. Die Kondensstreifen der Jets entstehen vor allem aus den Wassertröpfchen der Verbrennung in der trockenen Höhenluft, die Spuren der Schiffe aus den Aerosolen, die sich aus den Russpartikeln und Schwefeldioxid bilden (Abb. 2.62). Die physikalische

Abb. 2.62  Spuren von Schiffen in der Atmosphäre mit gewöhnlichen Wolken. Satellitenaufnahme mit dem NASA/ MODIS Sensor am 4. 3. 2009. Bild: Ship Tracks, Wikimedia Commons, NASA.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     201

Grundlage, die Bildung von weissen Wolken aus Schmutz oder allgemein die Wolkenbildung mit Hilfe von Aerosolen, wurde 1974 vom irischen Physiker Sean Twomey (1927–2012) formuliert (und heisst nun TwomeyEffekt). Er entdeckte, dass anthropogene Schadstoffe als Aerosole die Albedo der Erde erhöhen können. Seit 2017 haben Kondensstreifen, obwohl von Menschen verursacht, die Stufe von echten Wolken erhalten. Nach dem Internationalen Wolkenatlas heissen solche Streifen • Cirrus Homogenitus – als frischer, originaler Wolkenstreifen, • Cirrocumulus Homomutatus – wenn sich die Wolkenstreifen nicht auflösen, sondern zart ausdehnen. Die Projektion der zukünftigen Schwefelemissionen in Abb. 2.61 ist realistisch und optimistisch – optimistisch in Bezug auf eine Reduktion als Schadstoff. Aber wir haben schon den faustischen Handel der Menschheit erwähnt, den der Physiker und Klimatologe James Hansen 1990 aufgedeckt hat. Das Wissensmagazin Scinexx schreibt so 2011 zum Zeitraum um die Jahrtausendwende: Chinas Schwefelemissionen bremsen Klimawandel. Das Schwellenland China hat das Weltklima trotz seiner hohen Treibhausgas-Emissionen nicht angeheizt, sondern sogar abgekühlt.

Wenn der Strom an Aerosolen, der die globale Erwärmung teilweise maskiert, verschwindet, kommt der Haupteffekt durch CO2 voll zur Geltung. China hat und hatte damit eine nationale Form des faustischen Handels. Die Elimination des SO2 hat eine Schattenseite. Es steht im Raum, den faustischen Handel noch künstlich weiter zu führen und Schwefeldioxid als Dämpfung der Erwärmung einzusetzen. Dazu mehr in den Kapiteln Kondensstreifen und Geoengineering.

Die Ozeane und Schwefeldioxid und die CLAW-Hypothese Der Ozean ist ein wesentliches Reservoir für Schwefel auf der Erde. […] Die natürlichen Ausdünstungen flüchtiger organischer Verbindungen, vor allem von Dimethylsulfid, transportieren Schwefel vom Ozean auf die Landflächen und betreffen die Chemie der Atmosphäre und das Klimasystem. The sulphur cycle, Stefan Sievert, Mikrobiologe, in Oceanography, Oktober 2011.

202     W. Hehl

Die Substanz Dimethylsulfid (DMS) entsteht in grossen Mengen bei dem Abbau von Phytoplankton, also toten Algen, durch Bakterien in Seen und im Ozean, vor allem in wärmeren Gewässern. In reiner Form ist das DMS eine leicht entzündliche, übelriechende, schon bei 37°C siedende Flüssigkeit. Sein Geruch ist typisch für das Meer, und auch typisch für Sea food. Anscheinend nimmt auch Plastikmüll im Meer den Geruch an und der Müll wird dann für Seevögel zu tödlicher Pseudo-Nahrung (Scinexx 2016). Das Wort Plankton kommt aus dem Altgriechischen und bedeutet das Umherirrende. Hier geht es um Phytoplankton, um pflanzliches Plankton, das für den Planeten Erde ein entscheidendes und wichtiges Element ist. Dazu einige (wahrscheinlich unsichere) Werte, die mit ihrer Grössenordnung aber die Bedeutung von Phytoplankton zeigen. Die Masse von Kohlenstoff, der von Phytoplankton jedes Jahr gebunden wird, wird auf 50 bis 500 Mrd. t. Kohlenstoff geschätzt. Davon sinkt eine zweistellige Milliardenzahl Tonnen auf den Boden der Tiefsee als Meeresschnee und könnte dort neue fossile Stoffe erzeugen. Dazu produziert das marine Phytoplankton etwa gleichviel Sauerstoff wie alle Landpflanzen. Das lebende Phytoplankton scheidet dabei das Methylsulfid mit aus. Phytoplankton besteht vor allem aus Kieselalgen; die Abb. 2.63 zeigt eine in den Ozeanen besonders wichtige (und besonders schöne) Spezies Emiliania huxleyi bzw. das zugehörige filigrane Kalkgehäuse. Die Alge ist nach dem britischen Biologen Thomas Henry Huxley benannt, der als Verteidiger der Evolutionstheorie Darwins bekannt ist. Algen vermehren sich gelegentlich extrem zu sog. Algenblüten. Emiliania huxleyi breitet sich so zu auf dem Meer zu Teppichen aus von vielen Tausenden von Quadratkilometern.

Abb. 2.63  Emiliania huxleyi Einzelliges Phytoplankton im Rasterelektronenmikroskop, 400 fach vergrössert. Bild: Emiliania huxleyi coccolithophore (PLoS), Wikimedia Commons, Alison R. Taylor

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     203

Insgesamt emittieren die Ozeane etwa 60 Mio. t. Dimethylsulfid, was 30 Mio. t. Schwefel pro Jahr entspricht. Phytoplankton mit Dimethylsulfid ist damit die grösste kontinuierliche natürliche Schwefelquelle. Durch den Wind entstehen kleine Luftbläschen, die beim Zerplatzen Meersalz und organischen Schwefel als Aerosol in die Atmosphäre entlassen. Die Schwefelverbindungen werden letztlich zu Schwefelsäure zersetzt und es resultieren wolkenbildende Aerosole. CLAW-Effekt In einem berühmten Artikel (Charlson, Lovelock et al. 1987), vor mehr als dreissig Jahren, wurde mithilfe des Dimethylsulfids des Planktons ein Bogen geschlagen von den Ozeanen zur Atmosphäre und zurück. Dies könne ein Regelkreis sein für das globale Klima, der sich selbst bremst (ein negatives Feedback) wie in Abb. 2.64 skizziert: Die Annahme ist, dass ein wärmerer Ozean mehr Plankton wachsen lässt und damit mehr flüchtiges Sulfid, daraus mehr Aerosol und mehr Wolken, eine höhere Albedo und letztlich Abkühlung des Ozeans. Das heisst, die Erwärmung würde kompensiert und korrigiert werden. Diese Ideen gingen unter der Bezeichnung CLAW (das sind die Initialen der Autoren der erwähnten wissenschaftlichen Arbeit) in die Geschichte ein. Anti-CLAW-Effekt Wenige Jahre später hat James Lovelock die These umgekehrt zur AntiCLAW-Hypothese und eine wesentliche neue Grundlage eingeführt. Die Erwärmung des Meereswassers führt zu einer Schichtenbildung und einer

Abb. 2.64  Der CLAW-Prozess Hypothese eines negativen Feedbacks steigender Ozeantemperatur nach Charlson et al., 1987.

204     W. Hehl

stärkeren Trennung des warmen Oberflächenwassers vom nährstoffreichen Tiefenwasser. Die erhöhte Temperatur schafft eine Barriere zwischen dem Phytoplankton im lichtdurchfluteten Wasser und Nährstoffen wie Phosphor und Stickstoff aus den tieferen Schichten. Dadurch wird weniger Dimethylsulfid erzeugt, weniger Wolken, mehr Sonne (Abb. 2.65). Es ist im Sinne des Prozesses positive Rückkopplung, in Richtung der globalen Erwärmung. Für Lebewesen mit Kalkhüllen kommt ein weiteres wachsendes Problem hinzu in der zunehmenden Versäuerung der Meere, der böse Zwilling der globalen Erwärmung (evil twin of global warming ). In der Luft ist das zugeführte Kohlendioxid chemisch träge, aber im Meer beeinflusst es den Aufbau und die Beständigkeit von Kalkschalen. Dies betrifft das wichtige kalkbildende Phytoplankton, die sog. Coccolithophoren, wie das Emiliania huxleyi in Abb. 2.63. Pauschal beobachtet man eine Abnahme des Phytoplanktons, vor allem in der nördlichen Hemisphäre. Dies gilt sowohl historisch wie in den letzten 30 Jahren. Historisch hat man das Phytoplankton indirekt gemessen durch das wohl einfachste wissenschaftliche Messinstrument überhaupt, das noch heute verwendet wird: die Secchi-Scheibe. Der Jesuit Angelo Secchi hatte seit 1865 eine Scheibe mit weissen und schwarzen Sektoren in Gewässer abgesenkt bis sie visuell verschwindet; mit der gemessenen Tiefe wird die Trübheit des Wassers gemessen. Damit hatten Seeleute seit dem 19. Jahrhundert

Abb. 2.65  Anti- CLAW-Prozess Hypothese, dass steigende Ozean-Temperatur weniger Plankton bedeutet und sich damit insgesamt ein negativer Feedback ergibt.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     205

unbeabsichtigt das Phytoplankton mitgemessen. Heute erfolgen globale Messungen mit Satelliten: NASA Studie zeigt, dass Phytoplankton im Ozean auf der nördlichen Hemisphäre abnimmt. NASA.gov, 23. September 2015.

Es ist unklar, ob CLAW oder Anti-CLAW so existieren und welcher Prozess jetzt und in Zukunft dominiert. Das prinzipielle Verständnis der Ozean-Atmosphäre-Vorgänge ist bei so gegenläufigen Konzepten schwer zu erlangen und erst recht quantitativ zu berechnen. Auch in der Atmosphäre allein gibt es im CLAW-Kreislauf gegensätzliche Möglichkeiten, die schwer zu fassen sind. Der erwähnte Twomey-Effekt der verstärkten Wolkenbildung kann nämlich auch umschlagen: Twomey-Effekt: Durch Aerosole entstehen mehr und kleinere Tröpfchen, so dass die Wolken mehr Sonnenlicht reflektieren (und die Erde abkühlen), Anti-Twomey-Effekt: Kleinere Tröpfchen verdampfen zugunsten grösserer Tröpfchen, die weniger reflektieren und leichter abregnen. Wir beschliessen das Kapitel mit einem Zitat aus 2007, das wohl immer noch gilt für diese Fragen: „Solange wir die biologisch-physikalisch-chemisch-dynamischenmikrophysikalischen Verbindungen nicht verstehen, die in der CLAWHypothese inhärent sind, sind wir auch nicht in der Lage, das Risiko des Klimawandels für die gekoppelten Systeme der Meere einzuschätzen oder geeignete Milderungs- oder Anpassungsstrategien zu erwägen.“ Greg Avers und Jill Cainey in The CLAW hypothesis: A review of the major developments, Environ. Chemistry, 2007, Vol. 4.

Neuere Arbeiten vermuten, dass der so klare und einfache CLAW-Prozess nicht in dieser Form existiert und dass die Ozean-Atmosphäre-Kopplung des Klimas wesentlich komplexer ist (Tegen et al. 2018). CLAW und AntiCLAW sind schlimmstenfalls nur Lehrstücke und historische Randnotizen.

2.8 Astronomie und Klimawandel Seit mehr als 40 Jahren beobachten Satelliten die Energieproduktion der Sonne. In dieser Zeit ist sie um weniger als 0,1% herauf oder herunter gegangen. NASA, Klima Blog, Post vom 6. September 2019.

206     W. Hehl

In diesem Sinn sieht es nicht so aus, als ob der Klimawandel von aussen, über die Sonne oder sonst aus dem Kosmos zu uns es käme. Er ist irdisch. Aber zur Klärung und zur Vollständigkeit drei denkbare Arten der Einwirkung von ausserhalb: • Änderungen des primären Energiestroms, der von der Sonne ausgeht, • Änderung der Bescheinung durch die Sonne durch geometrische Änderungen der Bahn der Erde, • Änderung der kosmischen Bestrahlung aus dem All und damit mehr oder weniger Bewölkung. Da die Sonne das Wettersystem auf der Erde antreibt, ist es natürlich, in der Sonne auch den Ursprung aller Änderungen zu vermuten. Aber die Sonne als kosmisches Objekt hat eigentlich als Ganzes eine ganz andere kosmische Zeitkonstante zur Beschreibung ihres Lebens als wir Menschen. Typische Zeiten für die Sonne als normaler Stern oder Hauptreihenstern sind eine Milliarde oder gar 10 Mrd. Jahre, für den Menschen als Einzelwesen etwa 100 Jahre und für das kollektive Gedächtnis der Menschheit ca. 10 000 Jahre.

2.8.1 Das Paradox der schwachen jungen Sonne Da die Sonne in den früheren Epochen der Erdgeschichte viel weniger Energie abgestrahlt hat und die Temperatur der Erde sowieso schon eigentlich unter null Grad sein müsste, wie konnte es flüssiges Wasser für die Evolution geben? Die Grafik der Abb. 2.66 zeigt die Schlüsselwerte der Sonne über 12 Mrd. Jahre, bezogen auf die heutigen Werte: Leuchtkraft, Radius und Temperatur der Oberfläche der Sonne. Der innere nukleare Prozess der Energieerzeugung ist für diese Zeit der Normalität im Gleichgewicht, das sich über geologische Zeiten hinweg ändert. Die Änderung ist dagegen in menschlichen Zeiträumen unmerklich, weniger als ein Millionstel Prozent pro Jahrhundert. Aber in der Gesamtsicht der Evolution ergibt sich ein klimatisches Problem, das 1972 die Astronomen Carl Sagan und George Mullen formuliert haben: Die Evolution braucht flüssiges Wasser.

Wohlgemerkt, niemand zweifelt an der Evolution. In dieser Vorzeit muss es auf der Erde jedoch sehr grosse Umwälzungen gegeben haben, für die

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     207

Abb. 2.66  Das Schicksal der Sonne Leuchtkraft, Grösse und Oberflächentemperatur der Sonne über ihren Lebenszyklus, bezogen auf heute. Bild: Solar evolution de, Wikimedia Commons, RJHall übertragen von User Kopiersperre.

der Begriff Klimawandel zu kurz greift. Es geht um die Entstehung unseres Klimas einschliesslich der heutigen sauerstoffhaltigen Atmosphäre in der frühen Erdgeschichte. Seit der Formulierung des Paradoxons gab es schon eine Vielzahl von Erklärungsversuchen, wie trotz der schwachen Sonne die Erdtemperatur genügend hoch hätte sein können. Dazu gehörten zum Beispiel die Vermutung extrem hoher Konzentrationen von verschiedenen Treibhausgasen wie Kohlendioxid CO2, Ammoniak NH3, Methan CH4 und/oder Carbonylsulfid COS in der Frühzeit der Erde. In einer neueren Arbeit (Charnay 2020) wird angenommen, • dass es mehr Treibhausgase CO2 und CH4 gab, • einen höheren Atmosphärendruck, • weniger und nur nahezu schwarze Landflächen (nur 2% Land und nicht 27% der Erde wie heute, da die Kontinente sich erst bildeten), • und weniger Kondensationskeime für Wolken (da noch keine biologischen Quellen dafür existierten).

208     W. Hehl

Dies zusammen habe das Paradoxon gelöst. Es scheint, dass genau der Effekt, der im Wesentlichen die schwache Sonne der Frühzeit kompensiert hat, uns in diesem Jahrhundert (und wohl länger) so grosse Probleme macht.

2.8.2 Schwankungen über historische Zeiten hinweg Als Mensch und als Wissenschaftler haben wir uns immer gewünscht, dass die Sonne besser ist als die anderen Sterne und besser, als sie wirklich ist. John Eddy, amerikanischer Physiker, 1931–2009. Nach ihm ist wahrscheinlich das nächste Sonnenfleckenminimum benannt.

In der Physik des Aristoteles war die Sonne eine ideale, silbrige, zeitunabhängige Kugel. Aber schon mit blossem Auge kann man grössere Sonnenflecken sehen, etwa bei Sonnenauf- und Untergang. Ein erstaunlicher Bericht über eine frühe Sonnenflecken-Beobachtung – ohne Fernrohr – stammt von Kepler. Er hatte eine Ritze im Dach als Camera Obscura benützt und das projizierte Bild der Sonne betrachtet, und dabei anstelle des erwarteten Merkur vor der Sonne Flecken auf der Sonne gesehen (Hehl, 2017). Mit dem Fernrohr wurde es dann klar: Auch die Sonne ist nicht ideal-perfekt. Es gibt Sonnenflecken, die einzeln oder in Gruppen über die Sonnenscheibe wandern. Die zugehörige Masseinheit für die relative Stärke des Phänomens ist die Wolf-Zahl oder Zürich-Zahl nach dem Zürcher Sternwartendirektor Rudolf Wolf (1816–1893). Es ist eine gewichtete Häufigkeit der sichtbaren Flecken und Gruppen von Flecken zu einer bestimmten Zeit. Die Abb. 2.67 zeigt den Verlauf der Sonnenaktivität seit der Einführung des Fernrohrs. Zwei Züge fallen an der Grafik sofort auf: a) Eine grosse Lücke mit ganz wenigen Sonnenflecken, die 1645 beginnt und bis etwa 1715 andauert. Die Lücke heisst Maunder-Minimum nach dem britischen Astronomen-Ehepaar Edward und Annie Maunder, und wurde von dem deutschen Astronomen Gustav Spörer 1887 entdeckt.13 b) Die Sonnenflecken treten etwa alle 11 Jahre gehäuft auf. Die Abbildung zeigt 24 dieser Zyklen als Spitzen im Schaubild (Schwabe-Zyklen nach dem Entdecker Heinrich Schwabe in 1843) mit der Zählweise No. 1 (dem Maximum um 1760) und dem Zyklus No. 24 heute.

13 Eponyme sind Bezeichnungen mit einem Personennamen. Sie sind häufig nicht nach dem allerersten Entdecker benannt. Man spricht im Jargon vom Gesetz von Stigler.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     209

Die Abb. 2.67 vermittelt den Eindruck, als sei die Sonne ein sehr veränderlicher Stern; dies ist nicht der Fall. Die Sonnenflecken sind zwar Zeichen von Prozessen im Inneren der Sonne, aber der resultierende Energiefluss ändert sich kaum. In der Graphik der Abb. 2.68 zeigt dies die Kurve der totalen einfallenden Energie auf eine Fläche in der Erdentfernung von der Sonne, der Solarkonstanten. Insbesondere sind die Messwerte seit 1978 Präzisionsmessungen von Erdsatelliten und gehören damit in den sicheren Kern von Daten in der Klimadiskussion, etwa von der Qualität der KeelingKurve für das CO2 in der Luft. Die Beständigkeit der Sonnenstrahlung zeigen die winzigen Oszillationen in der Graphik im Rhythmus der Maxima der Sonnenflecken. Die Schwankungen sind kleiner als 0,1% um den Wert von 1361,5 W/m2 (Solarkonstante), herum, und es gilt, vielleicht gegen die Intuition: Die abgestrahlte Leistung ist am grössten, wenn es die meisten Sonnenflecken gibt. Obwohl die Sonnenflecken um etwa 1000 bis 2000°C kühler sind als die etwa 6000°C der normalen Sonnenoberfläche, gleichen dies andere energiereiche Erscheinungen auf der Sonne wie Fackeln und Flares mehr als aus. Es gibt eine Vielzahl von zum Teil widersprüchlichen weiteren Ideen von kausalen Zusammenhängen zwischen Sonnenaktivitäten und Klima, z. B. dass Kälteperioden mit den grossen Minima der Flecken zusammenfallen, insbesondere das Maunder-Minimum mit der Kleinen Eiszeit. Die Kleine Eiszeit war eine Periode mit kühlerem Klima, nicht wirklich eine Eiszeit.

Jahre Abb. 2.67  Sonnenfleckenzahlen seit dem Jahr 1600 Die Sonnenfleckenrelativzahlen nach Wolf mit dem Maunder-Minimum und den Schwabe-Zyklen. Der Zipfel nach 1750 ist der Schwabe-Zyklus No 1, das Maximum beim Jahr 2000 ist Zyklus No. 23, das kleine Maximum bei etwa 2015 ist der Zyklus No. 24. Bild: Sunspot Numbers, Wikimedia Commons, Robert Rohde. Teil des Global Warming Art Projekts.

210     W. Hehl

Abb. 2.68  Temperatur und Sonnenaktivität (Gesamtstrahlung) Jährliche und über 11 Jahre geglättete Werte. Bild: Solar irradiance and temperature 1880 – 2018, Wikimedia Commons, NASA –JPL/ CalTech

Der Wikipediaartikel Little Ice Age zählt sieben mögliche Ursachen auf, darunter eine Reihe von Vulkanausbrüchen und geringere Strahlung von der Sonne. Es ist nicht klar, ob sie überhaupt als Eiszeit existierte. Es ist zu erwarten, dass die UV-Strahlung von der Sonne und der Sonnenwind, die Teilchenströme von der Sonne, stärkeren Schwankungen unterliegen. Dies könnte einen Einfluss auf z. B. die Wolkenbildung haben. Der Einfluss der Sonnenschwankungen ist gering. Aber die beobachteten mystischen Sonnenflecken waren zu verlockend und es wurden unzählige (falsche) Korrelationen zwischen Fleckenzahlen und regionalem Wetter oder gar mit dem globalem Klima vermutet. Es ist der typische Nährboden für (in diesem Kontext harmlose) Pseudolehren; hier Kommentare von zwei bedeutenden Klimatologen am Ende des 20. Jahrhunderts: „Wenn ein junger [Klima-] Forscher an eine Beziehung Sonne-Wetter denkt, so ist dies gleichbedeutend, sich als Scharlatan zu offenbaren.“ Hubert Lamb, englischer Klimatologe, 1913–1997. „Die behaupteten Verbindungen mit dem Wetter und Klima waren alle zweifelhaft und unglaubwürdig – aber die [Sonnenfleck-] Zyklen übten eine

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     211

hypnotische Anziehung aus, die alle möglichen Kreaturen aus dem Unterholz anzogen.“ John Eddy, amerikanischer Astronom,1931–2009.

Es waren Aussagen von der wissenschaftlichen Härte 0 oder -1. Die Präzisionsmessungen der Sonnenstrahlung jedoch sind wissenschaftlich solide. Sie sind vom Grad +2 und geben Sicherheit. Die kurzfristigen Schwankungen der Sonnenstrahlung sind zu schwach, um die globale Erwärmung zu erzeugen; unser Heimatstern Sonne ist zum Glück kein richtiger Veränderlicher. Es bleibt beim menschengemachten Klimawandel und damit bei uns als Verursacher. Versucht man die Kurve der Sonnenflecken zu extrapolieren auf den Schwabe-Zyklus No. 25 und weiter, so sieht es aus, als würden die Maxima immer schwächer werden. Dies könnte das Vorzeichen eines neuen grossen Minimums sein und unsere heutige Klimaerwärmung um Zehntelgrade abschwächen wie es wohl das Maunder-Minimum vor 400 Jahren tat. Das wäre wieder ein (kleiner) faustischer Handel, der ein wenig Zeitgewinn bringen würde. Aber insgesamt ist die Sonne in unserer Betrachtung des Klimas eine stabile Grösse.

2.8.3 Klimaschwankungen durch die Elemente der Erdbahn Nein, die Nasa glaubt nicht, dass der Klimawandel ALLEIN durch ‚Veränderungen der Erdumlaufbahn‘ verursacht wird. Correctiv.org, 25. 9. 2019.

Veränderungen der Erdumlaufbahn gibt es, man muss unser Sonnensystem dazu nur auf einer längeren Skala ansehen, über Tausende oder Hunderttausende von Jahren hinweg. Der Blick auf diese Erdvergangenheit ist geologisch und klimatisch die Analyse der Eiszeiten. Der französische Mathematiker Joseph-Alphonse Adhémar hatte als erster 1842 den Gedanken gehabt, dass die kurz vorher im Jahr 1837 vom Schweizer Botaniker und Geologen Jean Louis Agassiz wissenschaftlich ernsthaft postulierten Eiszeiten astronomische Ursachen hatten. Aber Adhémar konnte keinen überzeugenden Mechanismus angeben, seine Gedanken und seine Kenntnisse waren zu schlicht. Tiefer dringt der schottische Physiker und Astronom James Croll, ein Autodidakt, in die noch hypothetische Beziehung zwischen Himmelsmechanik und Klimatologie ein.

212     W. Hehl

1864 publiziert er seine Überlegungen: • Längere Winter durch langgestreckte Bahnellipsen führen zu viel Schnee, • es ändern sich die grossen Winde und Meeresströmungen, zum Beispiel der warme Golfstrom, • es gibt noch mehr Schnee und Eis. Es ist die Vorhersage eines positiven Feedbacks, positiv im Sinn der Verstärkung der Kälte hin zu einer Eiszeit. Seine Thesen lösen rege Diskussionen aus, aber sie sind zum Ende des 19. Jahrhunderts vergessen. Der serbische Bauingenieur und angewandte Mathematiker Milutin Milankoviç (1879–1958) befasst sich bereits zu Beginn des 20. Jahrhunderts mit dem möglichen Zusammenhang von Astronomie, der exakten Wissenschaft einerseits, und der Meteorologie oder besser Klimatologie, der beschreibenden Wissenschaft, andrerseits. Milankoviç schreibt: „… warum es niemand vor mir ernstlich unternommen hatte, eine mathematische Theorie des Klimas aufzubauen, war wohl der, dass man bei einem derartigen Versuch sofort auf eine ganze Reihe komplizierter Probleme stossen musste, die verschiedenen Gebieten der exakten Wissenschaften angehören, die damals voneinander scharf abgegrenzt waren.“ Kanon der Erdbestrahlung und seine Anwendung auf das Eiszeitproblem, Königlich Serbische Akademie, 1941.

Er spricht in seinem Kanon der Erdbestrahlung (Abb. 2.69) vom Zusammenbringen von Mathematik, Himmelsmechanik, Geologie und Physik. Bei der Berechnung der Zukunft des Klimas ist die Vielfalt der beteiligten Wissensbereiche heute noch viel grösser, etwa mit verschiedenen Bereichen von Biologie und Chemie und Ozeanographie, mitsamt den Wechselwirkungen und Rückkopplungsschleifen.

Astronomische Grundlagen Die für meine Theorie wichtigen Lehren der Himmelsmechanik betreffen die säkularen Störungen der Planeten und die Drehbewegungen der Erde. Kanon der Erdbestrahlung, 1941.

Um den Einfluss des Planetensystems auf das Klima zu verstehen, müssen wir uns etwas Astronomie, genauer Himmelsmechanik, ansehen. Dabei gibt

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     213

Abb. 2.69  Die Lehren des Milutin Milankoviç Titelseite des zusammenfassenden Werks von 1941. Bild: Milutin Milankovic Kanon, deutsche Wikipedia, unbekannt.

es ein prinzipielles Problem: Der himmelsmechanische Einfluss macht sich klimatisch nur über lange Zeiten in der Grössenordnung von Jahrtausenden bemerkbar, und das Interesse an der Wirkung erstreckt sich sogar über Jahrmillionen. Es sind verschiedene astronomische Effekte, die auch Änderungen im Klima bewirken können, in ungefähr wachsender Schwierigkeit der Erfassung: • die Exzentrizität der Bahnellipse, • die Kreiselbewegung der Erde, • die Neigung der Erdachse,

214     W. Hehl

• die Drehung der Apsiden (der Richtung der Ellipse im Raum), oder gar • die Neigung der Ekliptik in Bezug auf die Fixsterne. Das wissenschaftliche Problem ist, dass die Effekte von oben nach unten immer subtiler, immer langfristiger und komplexer werden. Aus Sicht der klassischen Himmelsmechanik sind dies alles Störungen. Es ist ein Vielkörperproblem, das ganze Sonnensystem wirkt zusammen. Die Exzentrizität ändert sich Die Umlaufbahn der Erde um die Sonne ist eine leicht exzentrische Ellipse (Abb. 2.70 a), zur Zeit etwa 1.6% gedehnt. In etwa 405 000 Jahren variiert die Exzentrizität von beinahe kreisförmig (0,005 %) bis auf 6,8 %, eine mittlere Periode für diese Variation sind etwa 100 000 Jahre. Für den Einfluss auf den Wärmehaushalt der Erde ist das 2. Keplersche Gesetz verantwortlich. Die Erde durchläuft den sonnennahen, warmen Bereich schneller, den sonnenfernen, kühleren Teil langsamer. Dadurch werden die Jahreszeiten (die durch die Präzession verursacht werden, s.u.) verschieden gewichtet. Die Länge des Jahres bleibt erhalten, da bei der Dehnung oder Stauchung der Ellipse der grosse Durchmesser erhalten bleibt. Zur Zeit durchläuft die Erde den sonnennächsten Punkt, das Perihel, im nördlichen Winter um den 3. Januar herum, den sonnenfernsten Punkt, das Aphel, im Sommer um den 5. Juli. Dies macht etwa 6,8% Unterschied in der Bestrahlung aus und dämpft den Unterschied der Jahreszeiten. In 11 000 Jahren wird es sich umkehren, was die Jahreszeiten auf der Nordhalbkugel extremer werden lässt. Wenn die Bahn hochgradig elliptisch ist, wird die Einstrahlung im Perihel 20–30 % höher als im Aphel – dies ergibt ein anderes Klima als heute. Ursache ist vor allem die (schwache) gravitative Einwirkung von Jupiter und Saturn. Präzession Die Präzession, genauer die Präzession des Frühlingspunkts oder die axiale Präzession, ist schuld, dass in ein paar hundert oder in tausend Jahren der physische Polarstern nicht mehr zum Nordpol zeigt und nicht mehr Polarstern ist. Die Erdachse beschreibt in 25 771.5 Jahren einen Kreis um eine Achse, die senkrecht auf der Ebene der Ekliptik steht (Abb. 2.70 b). Die Präzession bedeutet eine Verschiebung der Jahreszeiten gegenüber der Position der Fixsterne. Dies ändert zunächst nichts am irdischen Klima, ist

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     215

a) Elliptizität der Bahn Exzentrizität b) Kreiselbewegung der rotierenden Erde Axiale Präzession

a)

b)

c) Drehung der Ellipse Apsidiale Präzession d) Änderung in der Schiefe der Ekliptik

c)

d)

Abb. 2.70  Die wichtigen himmelsmechanischen Effekte auf das irdische Klima Bilder a), b) und d) Earthobservatory.nasa.gov, Artikel Milutin Milankovic, Robert Simmon, NASA GSFC. Bild c) Extrahiert aus dem gif: Precessing Kepler orbit 280frames, Wikimedia Commons, WillowW.

aber indirekt wichtig durch die Verschiebung des Zeitpunkts des Passierens von Perihel und Aphel, der sog. Apsiden. Ursache ist die gravitative Einwirkung der Sonne und des Monds auf den Wulst am Äquator der Erde. Die rotierende Erde weicht wie ein typischer Kreisel mit der Präzession aus. Apsidiale Präzession Die elliptische Bahn der Erde rotiert auch langsam als Ganzes. Die Abb. 2.70  c) skizziert den Anfang einer Rosettenfigur durch die Erdpositionen mit der ruhenden Sonne als Bezugspunkt. Die Bewegung ist ungleichförmig, aber ein voller Umlauf benötigt 112 000 Jahre bezogen auf die Fixsterne. Berühmt ist die apsidiale Präzession des Merkur: Ein kleiner fehlender und unverstandener Winkelbetrag von 43“ wurde zu einem wichtigen Pfeiler für die Allgemeine Relativitätstheorie Einsteins.

216     W. Hehl

Ursachen für dieses Weiterschreiten der Bahnellipsen, gemessen an der Drehung der Linie vom Perihel zum Aphel, der Apsidenlinie, sind vor allem die Einflüsse von Jupiter und Saturn, in geringerem Masse die Abweichung der Sonne von einer Kugel und auch Effekte aus der Allgemeinen Relativitätstheorie. Die Schiefe der Ekliptik ändert sich Die Schiefe der Ekliptik ist der Winkel zwischen der Rotationsachse der Erde und der Achse auf der Ebene der Ekliptik (die Bahn der Erde bzw. umgekehrt der Sonne von der Erde aus gesehen). Die Grösse des Winkels bestimmt die Ausprägung der Jahreszeiten. Wäre der Winkel 0°, so gäbe es gar keine Jahreszeiten, bei 90° würde die Erde sozusagen in der Ebene der Ekliptik rollen mit monatelangen dunklen Wintern und entsprechend langen vollbestrahlten Sommern, in den Übergangs-Jahreszeiten würde dafür jede Stelle der Planetenoberfläche beschienen14. Der heutige Winkel der Erdachse ist 23° 26‘ und schwankt nach den Berechnungen nur zwischen 22,1° und 24,5° periodisch über einen Zeitraum von 41 000 Jahren (Abb. 2.70 d). Nach einer sehr wahrscheinlichen Hypothese, der Giant Impact Hypothesis, war vor etwa 4,4 Mrd. Jahren ein Asteroid auf oder besser in die Erde geprallt und hatte mit seinem Impulsstoss die ursprünglich vermutlich kaum geneigte Erdachse gekippt. Dieser grosse Asteroid ist zwar nur eine Vermutung, aber er hat einen Namen: Theia, die Lichtgöttin und Tochter von Gaia und Uranus. Der beim Einschlag aus herausgeschleudertem Material entstandene Mond stabilisiert bis heute die Richtung der Erdachse im Raum und verhindert chaotisches Verhalten und sehr grosse Neigungen. Diese Stabilität und die gemässigten Jahreszeiten können ein Vorteil für die Evolution gewesen sein, da es dadurch selbst in Eiszeiten noch eisfreie Lebensräume gab. Die Bedeutung des Mondes für die Stabilität der Erde ist nicht unumstritten (Cooper 2015). Ein so relativ grosser Mond, wie die Erde ihn besitzt, ist wahrscheinlich ein recht seltenes Phänomen im All. Wenn ein derartig schwerer Mond unbedingt notwendig wäre für eine ruhige, lange Evolutionszeit auf einem Planeten, so wäre intelligentes Leben im All vermutlich viel seltener, wenn es überhaupt ausser uns noch intelligentes Leben gibt. Es ist eine Aufgabe für die Exoplaneten-Astronomen, auch nach grossen Monden zu suchen.

14 Unter

der Annahme, dass der Tag hinreichend kurz und das Jahr genügend lang ist.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     217

Ursache für die aktuelle Neigung der Erdachse ist also vor allem der Mond, für die weiteren kleinen Schwankungen sind die Kräfte verantwortlich, mit denen die anderen Planeten am Äquatorwulst der Erde angreifen. Die Änderung der Ekliptikebene im Raum In der Astronomie bezieht man viele Vorgänge im Planetensystem auf die Bahnebene der Erde, die Ekliptik. Aber diese Ebene ist nicht raumfest bezüglich der Fixsterne. Unsere Erde ist auch nicht das Mass aller Dinge im All. Es ist grundsätzlicher, eine Ebene zu konstruieren, die alle Planetenbahnen gewichtet und nach Drehimpuls in Grösse und Richtung berücksichtigt. Dabei trägt allein schon der Planet Jupiter durch seine Bahn 60% des gesamten Drehimpulses bei. Diese Gesamtebene ist die invariable Ebene des Sonnensystems in Abb. 2.71, die durch den gemeinsamen Schwerpunkt (das Baryzentrum) geht, der sich naturgemäss ganz in der Nähe der Sonne befindet. Gegen diese Ebene ist die Ebene der Ekliptik um etwa 1,6° geneigt mit einer Umlaufzeit von etwa 70 000 Jahren gegen die Sterne.

2.8.4 Milankoviç und das Klima, insbesondere die Eiszeiten Die Arbeiten von Milankoviç wurden früh von einigen anderen zeitgenössischen Forschern unterstützt … Aber erst 10 Jahre nach seinem Tod in 1958 wurde seine Theorie von der wissenschaftlichen Gemeinde ernsthaft betrachtet. Climate.nasa.gov, Features 27.2.2020.

Heute sind Milankoviç als Wissenschaftler und der Einfluss der Himmelsmechanik auf das irdische Klima im Prinzip akzeptiert. So kann der Energiefluss am gleichen Julitag über die Jahrzehntausende hinweg durch Bahnexzentrizität und Präzession immerhin zwischen 450 W/m2 und 550 W/m2 schwanken.

Abb. 2.71  Die Reihe der Planeten des Sonnensystems mit der invariablen Ebene Bild: Clear Science vom 16. September 2010. Mit freundlicher Genehmigung.

218     W. Hehl

Wir haben oben das Uhrwerk des Sonnensystems erfasst, die Frage ist: Wie stark sind damit die Ein- und Auswirkungen auf das Klima? Die Gesamtheit der astronomischen Abläufe ist eine recht zuverlässige Art von Zeitmaschine, die die Vergangenheit zeigt, aber auch in die Zukunft läuft. Die Theorie des Milutin Milankoviç war, dass diese astronomischen Effekte, vor allem die Schwankungen in der Bahnexzentrizität, eine Abkühlung der Nordhalbkugel verursachten und damit die Eiszeiten selbstverstärkend auslösten. Es war damit die erste (einigermassen) akzeptierte wissenschaftliche Theorie der Eiszeiten. Die Abb. 2.72 ist ein Schnappschuss aus einem computergenerierten Video, das die dynamische Ausdehnung der Alpengletscher in den letzten 115 000 Jahren zeigt. In der Computersimulation haben sich in diesem Zeitraum die Gletscher zehnmal ausgedehnt und wieder zurückgezogen (Seguinot 2018). Das Bild zeigt die Ströme von Eis, die sich vom Hochgebirge ins Mittelland ziehen und bei Zürich den Wohnort des Autors bedecken. Das Video illustriert eindrücklich, wie über 100 000 Jahre die Alpen wechselhaft stark vereist waren bei tiefer Temperatur, um sich in wenigen tausend Jahren vom Eis zu befreien bis auf die Gletscherreste, wie wir sie aus vorindustrieller Zeit oder auch heute kennen. Als Nebeneffekt der globalen Klimaveränderung zeigt das Video parallel zum Verschwinden des Eises das Wachsen des oberen Adriatischen Meers und die Entstehung der Lagune von Venedig.

Abb. 2.72  Beispiel der Eisbedeckung in den Alpen Die Ausdehnung der Alpengletscher im Bereich der Schweiz etwa vor 24 000 Jahren nach einer Simulation von Julien Seguinot et al. 2018. Bild: Stilles Bild aus dem Video Eiszeitsimulation macht Gletscherausdehnung sichtbar von J. Seguinot, ethz.ch/en/ news-and-events/eth-news/news/2018/11. Lizenz CC-BY-4.0.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     219

Es ist viel Bewegung in den historischen Klimadaten. Nach Milankoviç ist bereits die Sonnenbescheinung der Erde die Summe der obigen vielfältigen Effekte der Himmelsmechanik. Die Bescheinung ist eine verwickelte Kurve und nicht eindeutig aussagefähig; es ist die gelbe Kurve in der Abb. 2.73. Die untere Kurve gibt den zugehörigen Temperaturverlauf, berechnet aus den Lufteinschlüssen in Eiskernproben. Winzige Verschiebungen im Isotopenverhältnis von 16O und 18O in der Bläschenluft geben Rückschlüsse auf die Temperatur zur Zeit des Einschliessens. Der Effekt beruht darauf, dass Wasser mit leichten Isotopen etwas leichter verdunstet und damit die Isotopenkonzentration verschiebt. Eindeutig ist ein 100 000-Jahreszyklus zu erkennen; in diesem Sinn ist die Existenz dieses Milankoviç-Zyklus eine sichere Aussage der wissenschaftlichen Ebene +2. Wir sind heute nach Abb. 2.73 anscheinend am Ende einer Hochphase (Warmzeit) und dem Beginn einer neuen Eiszeit aus Sicht der ungestörten Natur der Erde und des Sonnensystems. Die Kurven der Abbildung sind aufschlussreich; kursiv gesetzt sind die nicht offensichtlichen, aber plausiblen Zusätze: 1) Aus der Kälte einer Eiszeit steigt die Temperatur an zu einer Warmzeit. 2) Die Meere erwärmen sich, Meeresströmungen werden ausgeprägter und das biologische Leben intensiviert sich.

Abb. 2.73  Klimaparameter der Erde der letzten 420 000 Jahre nach Eiskernbohrungen an der Wostok-Antarktisstation. Der 100  000  JahreMilankoviç-Zyklus ist klar ersichtlich. Die Temperatur ist über die Werte der 18O-Isotope als Proxy berechnet (und mit Hilfe der CO2- und CH4-Gehalte). Bild: Milankovic-Zyklen 2017, Wikimedia Commons, Xubor.

220     W. Hehl

3) Kurz danach steigen CO2- und CH4-Gehalt der Luft an. 4) Die Eisflächen schrumpfen. 5) Die kühlen Meeresflächen vergrössern sich und nehmen immer mehr CO2 auf: das Treibhausgas verschwindet. 6) Der CO2-Gehalt sinkt langsam, bis es zu einer Umkehrung des Trends kommt. Die Beschreibung kurz für die Zeit des Anwachsens der Biologie bedeutet hier typischerweise 1000 bis 2000 Jahre! Die Hauptspieler sind die Besonnung (als Auslöser), die Ozeane (als Energie- und CO2-Reservoire) und das CO2 (als Treibhausgas). Es ist schwieriger, die 100 000-Jahr-Periode selbst kausal zu erklären. Die physikalischen Klimadaten zeigen, dass die Schwankungen im Klima viel stärker sind als die direkten Variationen in der Intensität der Bescheinung durch die Sonne. Damit können die himmelsmechanischen Effekte vermutlich nur die Auslöser sein für Milankoviç-Zyklen, die das Klima grundlegend ändern, und nicht der Haupteffekt. Der Prozess ist ein Verstärker. Zum Ende einer Kalt- oder Eiszeit ist das Klimasystem in einem sensiblen Zustand mit hoher Bewölkung und sehr viel Eis auch in südlichen Breiten (bzw. auf der Südhalbkugel nördlichen Breiten). Es ist ein Kipp-Punkt. Kommen nun z. B. starke Exzentrizität, Perihelnähe und Jahreszeit passend für ein paar hundert Jahre zusammen, so löst sich die Bewölkung auf und das Eis schmilzt grossflächig. Eisberge transportieren grosse Mengen von Frischwasser, also leichteres Wasser mit geringem Salzgehalt, von der Antarktis in die nördliche Hemisphäre und die Meeresströmungen verändern sich (Lea 2021). Die Albedo von Land und Meer sinkt (die Erde wird dunkler), die Energieabsorption steigt. Es ergibt sich eine starke positive (selbstverstärkende) Rückkopplung. Die letzte Eiszeit endete vor etwa 11 700 Jahren mit dem Beginn des Holozäns, der jetzigen geologischen Epoche. Sinngemäss bedeutet es das ganz Neue. Es begann die wechselhafte jetzige Warmzeit. Vor etwa 200 Jahren hat die Industrialisierung durch den Menschen eingesetzt und hat den zu erwartenden Abschwung mit der gigantischen Emission von Treibhausgasen nicht nur gestoppt, sondern in eine weitere Erwärmung umgekehrt. Damit ist die Klimaentwicklung auf einen ganz neuen, unnatürlichen Pfad gesetzt worden. Die Menschheit hat unwissend ihre eigenen, neuen Rückkopplungen ausgelöst. Die Regeln für das Klima der Erde sind grundsätzlich geändert und es ist ein neues Spiel. Physik und Astronomie sind natürlich gleich geblieben, aber die Arbeitspunkte der Klimaprozesse

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     221

wurden, sind schon oder werden ganz anders. Dies ist eine grosse Veränderung, vor allem für alles Biologische und damit für uns. Wir lernen daraus: • Schnelle globale klimatische Vorgänge laufen in 1000 bis 2000 Jahren ab, • normale globale Veränderungen des Erdklimas benötigen leicht 100 000 Jahre. • Es gibt Kipp-Punkte, an denen das globale Klimasystem aus Geologie und Biologie nahezu instabil wird. • Bisher haben wir Glück gehabt und der Skandinavier Svante Arrhenius recht mit der Hoffnung: Der zusätzliche Treibhauseffekt ist dabei, den Anfang der Eiszeit für uns (und für Nordländer wunschgemäss) zu verhindern.

2.9 Stufen der Komplexität: Mit Beispielen auf den Punkt gebracht „Niemals gab es auf der Welt so viel Wissenschaft, um den Herausforderungen zu begegnen, die wir [auf der Welt] haben.“ Emmanuel Macron, französischer Präsident auf dem UN Klima-Aktionsgipfel 2019.

Wir haben aus der Vielfalt der wissenschaftlichen Grundlagen des Klimawandels bisher die wichtigsten Teilgebiete herausgegriffen. Insgesamt geht es um das Problem, in der grossen Unsicherheit der Informationsflut Sicherheit zu schaffen. Die Unsicherheit ist zum Glück bezüglich der grossen globalen Erwärmung heute in der Wissenschaft Geschichte, aber noch nicht in der Gesellschaft. Deshalb haben wir als Grundtatsachen eindeutige Fakten betont, die entweder unmittelbar einsichtig sind oder mit hoher Präzision gemessen werden. Die Grundpfeiler des Buchs sind etwa der Rückgang der Gletscher, die Zunahme extremer Wetterereignisse, die Hockeystick-Kurve der globalen Temperatur, die Keeling-Kurve des CO2-Gehalts der Luft und die antarktischen Eisbohrkernanalysen, die eine genaue Analyse der Vergangenheit ermöglichen. Die Präzisionsmessungen der Sonnenstrahlung zeigen seit einem halben Jahrhundert, dass die Sonne sich nur wenig ändert. Auch die Existenz des Treibhauseffekts als Fundament kann niemand bestreiten. Dies alles sind überzeugende Argumente und Messungen, die dem wissenschaftlichen Grad +2 entsprechen (akzeptiert, verifiziert und sicher).

222     W. Hehl

Wir haben die Hauptursache, den Treibhauseffekt, physikalisch verstanden bis hinunter in die Atome. Drei- (oder mehr-) atomige Moleküle fangen im Licht an zu schwingen und geben dann Wärme ab. Aber schon die Menge und Wirkung der verschiedenen Aerosole ist nicht voll verstanden. Die Abb. 2.74 listet die wichtigsten Beiträge zur Erwärmung (die Strahlungsantriebe) auf mit den Balken der erwarteten Fehlertoleranzen. Im Schaubild sind auch andere Gase, z. B. der Wasserdampf in der Stratosphäre und das Ozon. In der Grafik fehlt der Einfluss des Vulkanismus, vor allem durch die bei Ausbrüchen produzierten Aerosole; Vulkane sind zu wenig berechenbar. Wir haben ja oben, im Geschichtsteil, die Wirkung besprochen. Die grossen Vulkanausbrüche sind negative Spitzen im vorhandenen Treibhauseffekt, so der Pinatubo 1991 mit bis zu -3 Watt/m2 im Nachklang oder der Krakatau nach 1883 mit bis zu -3,6 Watt/m2. Natürlich haben sie jeweils nur für wenige Monate nach der Eruption in dieser Intensität die Erde gekühlt. Wir betrachten drei Stufen der Schwierigkeit zum Erfassen der globalen Erwärmung in der wissenschaftlichen Analyse: • Zunächst an zwei weiteren konkreten Einzelbeispielen, • darauf typisch die Problematik durch die Rückkopplung von Prozessen, • schliesslich noch einmal die Komplexität, die Notwendigkeit und die Bedeutung der zusammenfassenden grossen Simulation des Ganzen.

2.9.1 Einzelne Effekte als Beispiel für die Komplexität Der Klimawandel ist eines der dringenden Anliegen des 21. Jahrhunderts. Die Faktoren sind komplex, und je mehr wir wissen, desto komplizierter wird die Lage. Nathalie Mahowald, Physikerin, Cornell University.

Landnutzung und Klimawandel Der Balken Landalbedo in Abb. 2.74 misst den Effekt der historischen Änderung der Landnutzung durch Rodungen, Ackerbau und Bebauung (Deng 2014). Die resultierende Rückwirkung auf das Klima ist komplex und noch nicht gut verstanden (britannica 2021). Einerseits erhöht der Übergang von Wald zu Ackerfläche die Albedo des Landes (Wald etwa 0,05 – 0,15, Feld unbestellt 0,26 – 0.3), andrerseits transportiert der Wasserdampf (die Evapotranspiration der Pflanzen) latente

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     223

Abb. 2.74  Die Beiträge verschiedener von Menschen verursachter Effekte zur Klimaveränderung (Strahlungsantriebe) in Watt pro m2,, vereinfacht. Geschätzte Zahlenwerte und Fehlergrenzen nach IPCC 2013, Fifth Assessment Report. Es ist zu beachten, dass sich die Einzelbeiträge nicht einfach addieren lassen. Bild: Radiative Forcing 1750–2011, Wikimedia Commons, Femke Nijsse und Eric Fisk, übersetzt.

Wärme nach oben. Das Verdampfen kühlt den Boden, aber die Energie steckt im Wasserdampf und erwärmt die Atmosphäre bei der Kondensation in der Höhe zu Tröpfchen in den Wolken, die dadurch die Energie erhalten, um Wolkentürme zu bilden. Mehr Wolken erhöhen die Albedo und kühlen tagsüber, nachts wirkt die Wolkendecke als thermische Isolation und wärmt. Ein geschlossener Tropenwald erhöht den Wassergehalt von Erde und Bodenluft, er recycled sozusagen das Wasser. Nach der Rodung entsteht CO2, das zu Erwärmung führt. Die glattere Oberfläche der Erde nach einer Abholzung führt dazu, dass es weniger Wärmeaustausch zwischen Boden und Luft gibt, weniger Niederschlag von der Vegetation aufgenommen und weniger Wasserdampf emittiert wird. Das bedeutet, dass Aufforstungsmaßnahmen in den hohen Breiten den gegenwärtigen Erwärmungstrend verstärken, in den Tropen aber verringern würden. Eine umgekehrte Wirkung hat die Beseitigung von Wald: Sie wirkt in den Tropen erwärmend, in hohen Breiten abkühlend. Dieter Kasang, Bildungsserver Hamburg, Artikel Bodenbedeckung und Klima, gez. 02/2021.

224     W. Hehl

Eine gewagte Vermutung des Autors ist es, dass die tropischen (so angefeindeten) Palmöl-Plantagen mit hohen Bäumen und dazwischen und darunter Sträuchern und Grasbedeckung ein guter klimatischer Kompromiss sein könnten, allerdings nur wenn dafür nicht Regenwald gerodet wird! Zwischen den Bäumen können leicht Luftströmungen entstehen. Natürlich wäre ein intakter Regenwald insgesamt für die Natur wertvoller. Dies bedeutet nicht, dass in unseren Breiten die Wälder besser abgeholzt werden sollten. Die Wälder haben ja auch die Funktionen der Sauerstoffproduktion und der temporären Kohlenstoffspeicherung als Senken für CO2. Aber all diese gegenläufigen Trends – es gibt noch mehr – machen es unzweifelhaft mühsam, die Einflüsse zu verstehen und erst recht schwer, sie zu berechnen, geschweige denn, sie quantitativ vorherzusagen.

In unserer Informationsgesellschaft sind gegenteilige Botschaften wie es ist positiv, aber auch negativ ein Problem und erschweren eine klare politische Entscheidung zu finden und durchzusetzen. Der Prozess der Veränderung der Landnutzung hatte schon mehrere Jahrtausende vor unserer Zeitrechnung in den alten Kulturregionen wie China, Indien und dem Mittelmeerraum eingesetzt, hat sich aber in den letzten 200 Jahren drastisch beschleunigt und hält bis heute an. Die Landrodungen etwa im Amazonasbecken sind das bekannteste und dramatischste Beispiel. Als Randbemerkung sei die Folgerung erwähnt, dass die Umwandlung von alpiner Weidefläche zurück in Wald als Folge der Abschaffung von Kühen (wegen der Methanemissionen der Wiederkäuer) eine geringfügige geophysikalische Massnahme in Richtung Klimaerwärmung wäre: Wiesen haben eine Albedo von 12–30%, Nadelwald dagegen 5–12%. Die komplizierte Gesamtstruktur der Nadeln (oder des Laubs) ist ja optimiert zur Aufnahme der Sonnenenergie. Zum Vergleich: Bracher Ackerboden strahlt etwa 26% der Strahlungsenergie wieder zurück. Die geänderte Landnutzung ist ein wesentlicher Beitrag zum Klimawandel, sogar der historisch erste Eingriff des Menschen in das Klima überhaupt. In den letzten 300 Jahren wurden etwa 11 Millionen km2 gerodet. In der Neuzeit nehmen die nördlichen Wälder eher wieder zu, aber die tropischen Wälder verwandeln sich in Weiden und Ackerland mit grosser Bedeutung für das lokale und das globale Klima. Als Beitrag zum globalen Klimawandel steht geänderte Landnutzung (bezogen auf das Jahr 1750) in

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     225

der Strahlungsbilanz heute negativ, auf der Abkühlungsseite, mit etwa einem Zehntel des Betrags der Erwärmung durch Kohlendioxid. Die Analyse führt manchmal die Klimadiskussion in eine unerwartete Richtung. Die Folgen veränderter Landnutzung haben aber für die Politik eine entscheidende Bedeutung, etwa mit Waldrodungen für Viehherden, dem Anbau für Biotreibstoffe oder der Frage von nassem oder trockenem Reisanbau (s.o.).

Kondensstreifen Zu Beginn der Stand des Wissens 2005: Der Einfluss von Kondensstreifen auf das Weltklima fällt deutlich geringer aus als ursprünglich angenommen. … Danach fällt der Beitrag durch Kondensstreifen deutlich schwächer (Faktor drei) aus als 1999 vom IPCC abgeschätzt. … Wegen der großen Unsicherheit dieses Beitrages kann jedoch nicht ausgeschlossen werden, dass der Beitrag der luftverkehrsbedingten Zirren völlig unbedeutend ist. Aus Klimawirkung von Kondensationsstreifen deutlich geringer als erwartet – jedoch mehr Zirrenbildung durch Luftverkehr. Auszüge vom Innovations Report vom 1.1. 2005, innovations-report.de/fachgebiete/geowissenschaften/bericht-51060.

Quantitativ war die Einschätzung des Klimaeffekts durch die Luftfahrt zu dieser Zeit im Sinne des Schaubilds der Abb. 2.74 auf etwa 0,01 W/m2 und damit kaum sichtbar – und dies nach bestem wissenschaftlichen Jahr2005-Gewissen. Die Bestimmung des Klimaeffekts der Kondensstreifen zeigt besonders deutlich wie problematisch und schwierig es ist, zu einem zuverlässigen Ergebnis zu kommen (das man heute im Prinzip hat). Das Grundproblem ist wieder die Einschätzung der Klimawirkung von (Cirrus-) Wolken. Die Streifen entstehen durch Eiskriställchen in H2O-übersättigter kalter Luft aus dem Strahl der Turbinengase, bei niedriger Höhe auch aus Wassertröpfchen (Abb. 2.75). Bis zu einer Größe von etwa 100 Nanometern streuen die Kristalle kaum Licht, dann zunächst vorwiegend blaues Licht. Erst durch Anlagerung weiterer Wasserteilchen erreichen sie eine Größe, in der sie Licht unabhängig von dessen Wellenlänge streuen und hell weiß werden. Das und die restliche Abwärme erklären die charakteristische Lücke zwischen Triebwerken und Kondensstreifen wie in der Abbildung zu sehen.

226     W. Hehl

Abb. 2.75  Kondensstreifen hinter einer Douglas DC-8 Bild: DC-8 View from above, Wikimedia Commons, Jim Ross, NASA.

Für die Klimawirkung kommen einige kontroverse Trends zusammen: • Kondensstreifen können wie andere Wolken kühlen oder wärmen. Tagsüber kühlen die Wolken durch ihre Albedo und erhöhen die gesamte Albedo der Erde, nachts haben sie einen wärmenden Effekt als Isolation. Es ist schwer zu entscheiden, was überwiegt. • Die Auswirkung ist zunächst lokal und unregelmässig. Die erste Wirkung ist auf Streifen über den Flugstrassen beschränkt (typisch 0,5% des Himmels), die sind als schwache Cirrus-Wolken verteilen (bis zu 10% des Himmels). • Die Streifenbildung ist wetterabhängig und flughöhenabhängig. • Der Effekt ist zeitabhängig. Die primären Kondensstreifen bleiben einige Stunden sichtbar, die entstehenden dünnen Kondens-Cirren lösen sich über einige Tage auf oder gehen in die normale Bewölkung über. Das CO2 bleibt Jahrhunderte. • Die Wirkung der Stickoxide in den Abgasen ist besonders trickreich. Stickoxide sind selbst Treibhausgas, aber reduzieren vorhandenes Treibhaus-Gas Methan zu weniger schädlichem CO2. Die Klimaeffekte sind dabei von zwei Klassen, auch was die Komplexität der Einschätzung anbelangt. Einfacher zu fassen ist die Auswirkung des Kohlendioxids durch die Verbrennung des Kerosins. Der Flugverkehr erzeugt 2,4% der gesamten globalen CO2-Emissionen durch die Verbrennung fossiler Stoffe und Brandrodungen (EU Report, 2020). Diese Emissionen sind im Gegensatz zu den Aerosolen langlebig; seit 1940 sind gemäss diesem Bericht insgesamt 33 Mrd. t. CO2 durch Flugzeuge in die Atmosphäre entlassen worden.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     227

Die weiteren Auswirkungen (durch Wasserdampf, Stickoxide, Schwefeldioxid und Russ) sind schwerer zu quantifizieren und waren umstritten. Die moderne Schätzung ist, dass diese Beiträge zusammen doppelt so gross erwärmend sind wie der Effekt des CO2 der Turbinen. Die Klimawirkung der Cirrus-Trailer erwies sich nur halb so gross wie vermutet. Die Luftfahrt trägt damit etwa 4 – 5% zur globalen Erwärmung bei. Erst um 2020 war die Erforschung der Aerosole so zuverlässig geworden, dass der Luftfahrt begründete Restriktionen vorgegeben werden konnten. Das schwierige Verstehen aller Klimaeffekte des Flugverkehrs hat grosse wirtschaftliche und politische Bedeutung. An welchen Teilprozessen kann oder könnte man ansetzen, um weniger klimaschädlich zu fliegen? Der Grundprozess, die Verbrennung von Kohlenwasserstoffen, wird lange bleiben und der Klimaeffekt des CO2 kann wohl nur extern kompensiert werden. Aber Vorsicht bei Triebwerken, die weniger Kerosin verbrauchen: Diese könnten die Abgastemperatur verringern und damit die Bildung der Kondensstreifen begünstigen. Eine Verringerung der Aerosole hätte den Vorteil einer sofortigen, wenn auch kleinen, positiven Auswirkung auf das Klima. Der Klimatologe David Lee von der Manchester Metropolitan University und Leiter einer internationalen Studie berichtet von der Entwicklung der Wissenschaft von den Flugaerosolen: Über die letzte Dekade hat sich die Wissenschaft für diese [Luftfahrt-] Emissionen drastisch verbessert. Aber leider bedeutet bessere Wissenschaft nicht immer, dass die Unsicherheit weniger würde. Wir finden Neues, das wir vorher nicht wussten. Insideclimatenews.org vom 18.9.2020.

Diese Weisheit gilt wohl auch allgemeiner. Noch zwei Informationen zum Effekt der Flugaerosole. Historische Ereignisse zu Kondensstreifen Der Einfluss der Kondensstreifen kann beinahe zu spüren sein. In den Tagen um den 11. September 2001, nach den Anschlägen auf das New Yorker World Trade Center, war der kommerzielle Flugverkehr über den USA eingestellt. Ohne Kondensstreifen wurde die Spanne zwischen Maximaltemperatur am Tag höher und Minimaltemperatur in der Nacht eindeutig niedriger – um 1,1°. Von einem anderen historischen Luftfahrt-Experiment, mit mehr Luftfahrt als normal und damit mit umgekehrtem Vorzeichen, berichtet dieser Artikel:

228     W. Hehl

Am 11. Mai 1944 fliegen 1980 Flugzeuge nach Deutschland. Zeugen beschreiben, dass hinter den Flugzeugen der Himmel weiss wurde. Die Temperaturaufzeichnungen zeigen, dass die Luft leicht, aber eindeutig, kühler wurde. Aus: Die Kondensstreifen der Bomber im 2. Weltkrieg zeigen, wie die Luftfahrt das Klima beeinflusst. Scientific American, 7. Juli 2011.

Die Abkühlung durch Kondensstreifen ist allerdings nur ein kurzfristiger kühlender Effekt bei einer erwärmenden klimatischen Gesamtwirkung.

Das Gegenteil von Kondensstreifen Kurioserweise gibt es auch die gegenteilige Wirkung der Abgase der Flugzeugturbinen, nämlich nicht die Bildung von Wolken, sondern deren Auflösung. Die Abb. 2.76 zeigt die streifenförmige Auflösung einer Wolkenbedeckung etwa 10 Sekunden nach dem Durchflug eines Jets. Im Englischen gibt es dafür einen prägnanten Namen. Normale Kondensstreifen sind Contrails abgekürzt nach Condensations-Spuren, negative Streifen heissen Distrails nach dem Begriff Dissipation-Spuren. Solche Distrails haben wohl keine Auswirkung auf das Klima, da sie sich nicht verstärken und ausbreiten.

Abb. 2.76  Ein negativer Kondensstreifen Die Auflösung von Wolken durch ein Flugzeug, ein sog. Distrail. Bild: 10sec old Distrail in Hong Kong, Wikimedia Commons, Earth100.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     229

2.9.2 Rückkopplungen (Feedback-Prozesse) und Komplexität Es ist ein Teufelskreis – der Klimawandel verursacht eine Kaskade von Effekten, die noch mehr Klimawandel hervorrufen. Ohne die regulierende Wirkung negativer Rückkopplungen, würden sich positive Schleifen spiralig aus der Kontrolle bewegen und Änderungen hervorrufen, die sich nicht mehr ungeschehen machen lassen. Wie Rückkopplungen die Klimakrise verschlimmern, climaterealityproject, Januar 2020.

Rückkopplung bedeutet, dass die Veränderung einer Grösse A eine Grösse B verändert, und die Änderung der Grösse B wieder die erste. Positive Rückkopplung verstärkt die Veränderung, negative Rückkopplung schwächt sie ab. Beim Klimawandel ist positive Rückkopplung eigentlich klimatisch negativ, weil erwärmend, und negativ ist gut, da es ja ein kühlender Effekt ist. Mit positiven Rückkopplungen können sich Schwingungen ergeben, stabile Zustände, aber auch ein galoppierender Effekt, bei dem eine Grösse wächst und wächst, um schliesslich an eine andere Grenze zu stossen. Diesen Runaway-Effekt der Rückkopplung hört man direkt in der Tontechnik als schrilles Pfeifen, wenn das Mikrofon bei einer Veranstaltung justiert wird. Beim Klima des Planeten Venus ist genau dies geschehen mit dem CO2Gehalt der Venusatmosphäre, der Temperatur und dem Klima als Ganzem. Die Existenz von positiven (oder negativen) Rückkopplungen in einem System ist kein prinzipielles Problem – damit muss ein stabiles System existieren können und kann es auch. Auch die Tontechnik und das erwähnte Mikrofon können damit leben und vernünftig funktionieren; dazu muss die Verstärkung mit der Stärke der Signale abnehmen oder wenigstens konstant bleiben. In komplexeren Systemen kann das Davonlaufen durch einen gegenläufigen Effekt gebremst werden. Im Klimasystem gibt es grosse positive Rückkopplungen. So halten Wasserdampf, Eis und Strahlung die Welt physikalisch stabil und zusammen mit dem Wirken der biologischen Lebensformen auch lebensfähig für so empfindliche Lebewesen, wie wir Menschen es sind. Jedenfalls bisher. Die scheinbare obere Begrenzung: Die Wärmeabstrahlung Die ausgesandte Strahlung nimmt nach dem Gesetz von Stefan-Boltzmann (s.o.) stark zu mit steigender Temperatur und kühlt den Strahler ab. Egal, wie hoch die irdische Temperatur würde, irgendwann wird die Abstrahlung der Erde als Ganzes so gross, dass die Temperatur nicht mehr steigt, sondern

230     W. Hehl

mit der Sonnenenergie im Gleichgewicht steht. Allerdings gilt dies nicht unter der wärmenden Isolationsschicht. Die Stärke der Isolation bestimmt das Temperaturprofil im Gleichgewicht mit der von oben wie von unten eindringenden Energie. Die Bodentemperatur kann im Prinzip beliebig hoch werden bei entsprechender Isolation. Die Wasserdampf Rückkopplung Ein passendes Bild haben wir schon gezeigt: Wolken und Meer in der Abb. 1.36! Das Gas Wasserdampf ist der Stoff für den stärksten bekannten positiven Rückkopplungsprozess. Er spielt sich in den theoretisch grössten katastrophalen Grenzen ab: Einerseits Alles vereist, die Erde ist ein Schneeball, andrerseits Das Wasser ist alles verdampft, das UV-Licht hat die Moleküle zerlegt, der Wasserstoff ist ins All entwichen. In unserer Welt mit Seen und Ozeanen mit flüssigem Wasser • steigt mit erhöhter Temperatur die Aufnahmefähigkeit der Luft an Wasser (der Sättigungsdampfdruck), • damit entsteht mehr Wasserdampf, • mit mehr Wasserdampf in der Luft steigt dessen Treibhauseffekt, • die Temperatur erhöht sich usf. oder das Ganze umgekehrt! Dabei bleibt ein Wassermolekül im Mittel nur für Tage in der Luft und der Dampfgehalt ist stark veränderlich. Dies im Gegensatz etwa zu den Jahrzehnten des Methans oder den Jahrhunderten des Kohlendioxids. Das Wasser wechselt flexibel zwischen flüssig und gasförmig (und fest). Damit verstärkt der Wasserdampf den Effekt der anderen Treibhausgase. Man kann dies so interpretieren, dass Wasserdampf zwar 60% des Treibhauseffekts verursacht, aber dass seine Wirkung von den anderen Gasen gesteuert wird.

Das Balance-Spiel des Wassersdampfs würde enden, wenn alle Gewässer verdampft wären. Die Eis-Albedo Rückkopplung Die meiste [Sonnenenergie-] Absorption findet in den Tropen statt, wo dunkles, pflanzenbedecktes Land und dunkler Ozean überwiegen. Der

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     231

grösste Teil der Reflexion geschieht an den Polen der Erde mit den hellen Bedeckungen von Schnee und Eis. American Museum of Natural History, NY.

Die Rückkopplung betrifft auf die eine oder andere Art die Gesamtheit des Eises auf der Erde, auf Land, im Meer, im Permafrost oder in den Eiswolken, d. h. die gesamte sog. Kryosphäre (IPCC 2019). Dies ist eine offensichtliche, starke und wichtige Rückkopplung von globaler Bedeutung: • • • •

Wird es wärmer, so schmilzt Eis oder Schnee, es entsteht dunkler Boden oder dunkles Wasser, die Sonnenstrahlung wird stärker absorbiert, es wird wärmer, usf.

oder • Wird es kälter, so gefriert Wasser zu Eis oder Schnee, • es entsteht mehr hochreflektierende Oberfläche, • es wird kälter, usf. Aber der Erwärmungsvorgang kann weiter gehen und einen Punkt überschreiten, von dem an der Kältespeicher Eis verschwindet und zum Wärmespeicher flüssiges Wasser wechselt. In wenigen Jahren wird das arktische Polarmeer im Sommer eisfrei werdefester Form ansammeln kannn und der Balanceakt zwischen Schmelzen oder Gefrieren endet in den nordischen Sommern. Die positive Eis-Albedo-Rückkopplung ist auch vor allem der Grund, dass die polare Klimaerwärmung doppelt so gross ist wie der globale Durchschnitt (s. Abb. 1.36). Die Masse des antarktischen Eises ist dagegen grösser geworden, grösser als jemals seit dem Beginn der Aufzeichnungen. Der Grund ist, dass die Antarktis wie erwähnt ein abgeschlossener Kontinent mit Hochgebirge und dicker Eisdecke als Kältekern ist und trotz globaler Erwärmung noch einige Zeit Niederschläge fester Form ansammeln kann. Die natürliche Rückkopplung von Kohlendioxid in der Luft und der Biomasse „Ich erinnere daran, dass der größere Teil des Klimas nicht in dem Orte selbst, wo die Entholzung vorgeht, sondern viele hundert Meilen davon entfernt gemacht wird.“ Alexander von Humboldt, in einem Brief an Emil Rossmässler, 1858.

232     W. Hehl

Seit 1985, seit einem Buch des Germanisten Pierre Bertaux, wird Alexander von Humboldt, der Weltreisende und Naturforscher, als einer der ersten Ökologen angesehen. In diesem Zitat hat er recht: Wald (und überhaupt die Pflanzen) sind wichtig für das Klima, und die Auswirkungen der Biosphäre sind insgesamt global. Allerdings sind die Rückkopplungen komplexer, als er dachte. Erhöht sich die Kohlendioxid-Konzentration über Land, so wirkt dies primär wie eine Düngung für Pflanzen durch die Luft, wie wir bereits besprochen haben. Der Boden nimmt mit einigen Jahrzehnten Verzögerung ebenfalls daraus organische Verbindungen auf. Das verstärkte Wachstum kommt allerdings rasch an Grenzen durch begrenzte Nährstoffe und durch innere Gründe. Verstärktes Wachstum bedeutet dazu eine stärkere Entnahme von CO2 aus der Atmosphäre und damit eine negative Kopplung. Erhöht sich die Kohlendioxid-Konzentration der Luft über dem Ozean, so ist der Effekt zunächst chemisch-physikalisch. CO2 ist in Wasser gut löslich, bei 0°C sind es 3,3 g/l. Zurzeit nehmen die Ozeane mehr CO2 auf als sie abgeben (Abb. 2.77). Wichtig für die Auswirkung der globalen Erwärmung ist die rasche Abnahme der Löslichkeit des Kohlendioxids in Wasser mit steigender Temperatur, bei 20°C sind es nur noch etwa die Hälfte, nämlich 1,7 g/l. Das Meer wäre mit dem Volumen von insgesamt 1,33 Billionen km3 Wasser ein ausreichendes Reservoir. Probleme sind die CO2-Aufnahme an der Grenzfläche, der Meeresoberfläche, und der Transport in die Tiefe. Die Ozeanologen nennen die Transportprozesse von der Wasseroberfläche in die tieferen Wasserschichten Pumpen. Es sind vor allem die Löslichkeit

Abb. 2.77  CO2 in Luft und Wasser Der Verlauf von Kohlendioxid in Luft und Wasser und der Säuregrad (pH-Wert), gemessen in Mauna Loa, Hawaii. Bild: Oceanacifidication.noaa.gov

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     233

des Kohlendioxids, die im Ozean als Pumpe nach unten, zum Meeresgrund, wirkt, sowie biologische Prozesse, die Kohlenstoff als organisches Material (vom Phytoplankton) oder anorganische Kalkschalen (von Phytoplankton oder Muscheln) bis zum Grund befördern. Die Löslichkeit von CO2 in Wasser ist ausserordentlich hoch, etwa zweihundert Mal höher als die von Sauerstoff. Von Sauerstoff lösen sich nur 15 mg/l bei 0°C und 9 mg/l bei 20°C in Wasser. Die hohe CO2-Lösbarkeit ist hier positiv, hat aber einen Preis. Im Wasser ist es im Wesentlichen als Säure vorhanden, zu 91% als Hydrogenkarbonat- und zu 8% als KarbonatIonen; nur 1% ist gelöstes Kohlendioxid. Das Meerwasser ist an sich leicht alkalisch; durch weitere Aufnahme von CO2 versauert es (Abb. 2.77). Das ist schlecht für viele Meerestiere, vor allem für Organismen mit Kalkschalen. So ergibt sich die wichtigste positive Rückkopplung: Es gibt mehr Kohlendioxid in der Luft. Mehr Kohlendioxid löst sich im Ozean. Die Atmosphäre wird wärmer, die obere Schicht der Ozeane wird wärmer. Die Schichtung des Ozeans durch Wasser mit verschiedener Dichte wird stärker. Die Lösbarkeit von CO2 im Ozean sinkt. Von weiterem CO2 wird weniger aufgenommen, es bleibt mehr in der Luft, die Atmosphäre wird wärmer usf. Wir sind immer wieder erstaunt, wie rasch sich der Ozean erwärmt. Weitere Erwärmung bedeutet weiteren Anstieg des Meeresspiegels, denn wärmer werdendes Wasser dehnt sich aus, ein wärmerer Ozean wird grösser. Sarah Gille, Ozeanologin am Scripps Institute, 2014, auf climatecentral. org.

Die Ausdehnung des Meereswassers durch die Erwärmung ist heute der grösste Grund für die Erhöhung des Meeresspiegels, der zurzeit insgesamt 3,6 mm pro Jahr beträgt. Das Phänomen ist übrigens nicht einfach vorher zu sagen, denn die Wärme dringt nicht linear mit der steigenden Oberflächentemperatur der Erde in die Tiefen des Ozeans. Die natürliche Rückkopplung von Vegetation und Albedo „Vegetation ist das Werkzeug, das der Schöpfer benützt, um die Natur in Bewegung zu setzen.“ Antonie Lavoisier, französischer Chemiker, 1743–1794.

Die Rückstrahlfähigkeit von Pflanzen ist eine grundlegende Eigenschaft, die über die klimatische Funktion einer Region entscheidet. Besonders gross

234     W. Hehl

und wichtig ist der Unterschied zwischen Wald-, Wüsten- und Schneeflächen. Am dunkelsten ist Nadelwald mit Albedo 5–12%. Tropischer Wald strahlt 10–12% und Laubwald 15–20% einfallende Strahlung zurück. Die Erwärmung fördert i.A. den Waldwuchs und dessen innewohnende Feuchtigkeit stabilisiert die Region. Besonders intensiv ist das Zusammenwirken von Albedo-und Vegetation in den nördlichen Wäldern der Taiga, wenn niedriges Baumalbedo und hohes Schneealbedo aneinanderstossen: Die grünen Pflanzenoberflächen absorbieren Strahlung, die aufgenommene Wärme erwärmt die Luft, die erwärmte Luft schmilzt weiteren Schnee, es werden zusätzliche grüne Flächen freigelegt, usf. Die Abb. 2.78 zeigt die echten Waldgebiete der Erde, nämlich zusammenhängende Bereiche mit höheren Bäumen. Der Begriff Canopy in der Legende ist das englische Wort für Baumkrone, eigentlich aus dem Griechischen in der Bedeutung Couch mit Moskitonetz vom altgriechischen Wort kōnōps, Mosquito. Die Projektion der Karte, Boggs eumorphisch, ist flächentreu und gut geeignet zur Beurteilung von flächenhaften Effekten auf der Erdoberfläche. Die Karte wurde mit Hilfe von Satellitendaten, kombiniert mit Lasermessungen, erzeugt, um die in Wäldern gespeicherte Biomasse (und ihre Veränderung) zu bestimmen. Erstaunlich sind die geringen Waldflächen der Erde. Es sind vor allem der Tundra-Gürtel im Norden und einige grüne Flecken in den Tropen,

Abb. 2.78  Hohe Wälder auf der Erde Weltkarte in unterbrochener Boggs-Projektion mit Anzeige von Waldgebieten mit hohen Bäumen. Der Farbcode zeigt die Baumhöhe an. Bild: canopy height global homolosine, NASA Earthobservatory images, Jesse Allen und Robert Simmon.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     235

i­nsbesondere das Amazonasgebiet, der Kongo und Indonesien. Es ist gut, dass das Grün in Europa nicht abnimmt, sondern die Bewaldung eher wächst. Aber die grossen Gebiete sind gefährdet: die Tundren, weil durch die globale Erwärmung Landwirtschaft weiter im Norden möglich wird, und die tropischen Wälder, die als potenzielles Ackerland angesehen werden. Es ist nicht klar, wie dadurch die Gesamtalbedo der Erde und die Energie- und Kohlendioxidbilanzen beeinflusst werden. Um die Schwierigkeiten in der Beantwortung solcher Fragen noch mehr zu zeigen – und die Verwirrung trotzdem hoffentlich nicht zu steigern – hierzu zwei Schlagzeilen: Earth’s albedo in decline – die Albedo der Erde nimmt ab (Mai 2005).

Überschrift zum Artikel zu earthobservatory.nasa.gov/images/5484/earths-albedo-in-decline und The Earth lightens up – die Erde wird heller (Mai 2005).

Titel eines Beitrags in phys.org/news/2005-05-earth Die beiden Titel und ihre Arbeiten widersprechen sich nicht. Wir wissen, dass ab 1990 die Aerosole in der Luft durch den Einbau von Filtern abgenommen haben. Der NASA-Artikel beschreibt die Sicht auf die Erde von aussen. Etwa 30% des Lichts werden nach aussen, ins All, gestreut. Diese Albedo soll nach den Messungen zwischen 2000 und 2004 leicht abgenommen haben, die Erde wurde vom All aus gesehen dunkler. Dadurch erreichte mehr Sonnenenergie den Erdboden. Der Bericht in den Physik-Nachrichten bezieht sich auf die Energie, die auf die Erdoberfläche trifft. Wenn weniger ins All gestreut wird, wird der Energiefluss zum Boden stärker. Es wäre besser zu formulieren, dass es auf der Erde heller wird. Rückkopplung oder Gegenkopplung: Wolkenbildung und Änderung der Bewölkung durch den Klimawandel. Obwohl wir wissen, dass sie [die Wolken] einer der kritischsten Teile im globalen Klimasystem sind, sind Wolken immer noch die grösste Quelle von Unsicherheit, um die zukünftige Erwärmung der Erde vorher zu sagen. Bob Berwyn, InsideClimateNews, 11/2020.

236     W. Hehl

Wir haben schon mehrfach festgestellt, dass Wolken sowohl wärmen als auch kühlen können. Von unten gesehen sind Wolken wärmende Isolationsdecken, von oben kühlende Reflektoren. Damit hängt der Nettoeffekt von Wolken auf das Klima vom Wolkentyp und von der Höhe ab – und jetzt natürlich in Zeiten der Klimawandels, von den Veränderungen der Bewölkung der Erde. Diese Einflüsse sind erst deutlich geworden durch die Satelliten-Beobachtungen (Abb. 2.79). Ein derartiges Bild der Erde mit Blau, Weiss, Grün und Braun – vor allem Blau und Weiss – heisst ein Blaues- Murmel-Bild der Erde (Blue Marble). Die erste und eindrücklichste Blaue-Murmel- Aufnahme machte der Astronaut Harrison Schmitt am 7. Dezember 1972 auf dem Weg zum Mond, sie gilt als die Mona Lisa der Wiss enschaftsphotographie. Dazu ist der Prozess der Wolkenbildung mit dem Energietransport in der Atmosphäre und den Phasenänderungen des Wassers zwischen gasförmig, flüssig und fest recht komplex. Anschaulich wird die Komplexität der Wolken etwa beim Blättern durch den Internationalen Wolkenatlas cloudatlas.wmo.int oder in der Galerie der Cloud Appreciation Society – oder beim aufmerksamen Beobachten des Himmels. Die Wolkenbildung und ihr Einfluss sind auch recht verschieden in den tropischen Regionen mit hochreichenden Gewitterzellen oder den höheren Breiten mit tiefliegender Bewölkung. Wolken bedecken jeden Tag etwa 2/3 der Erdoberfläche (Abb. 2.79). Der Einfluss der Wolken insgesamt ist schwer zu bestimmen. Sie verändern sich rasch, haben verschiedene Höhen,

Abb. 2.79  Ein Blue Marble Bild der Erde mit Ozean, Land, Eis und Wolken Im Original ein hoch auflösendes Bild mit 8192 x 4096 Pixel der gesamten Erde. Der grösste Teil der Information stammt vom Sensor MODIS an Bord des Terra-Satelliten in 700 km Höhe. Die Wolken sind über drei Tage integriert. Bild: Land ocean ice cloud hires, Wikimedia Commons, NASA (Reto Stöckli, Robert Simmon et al.)

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     237

verschiedene äussere und innere Strukturen. Wolken haben vielleicht den wichtigsten Einfluss auf das globale Klima. Ihre Änderung infolge der globalen Erwärmung könnte der wichtigste Einfluss auf das globale Klima werden. Noch ist der Gesamteffekt der Wolken eine Kühlung der Erde, aber dies kann sich ändern. Eine Studie sagt voraus, dass es durch die globale Erwärmung weniger Eis in den Wolken geben wird: Das Eis in diesen Wolken macht sie heller und reflektierender, aber wenn es genug Erwärmung gibt, dann gibt es kein Eis mehr. … In diesem [neuen] Modell haben wir gesehen, dass es bei 3–4° Erwärmung kein Eis mehr gibt. Trude Storelvmo, Meteorologin, Universität Oslo.

Damit verlieren die Wolken teilweise den Kühleffekt (Berwyn 2020). Es ist eine zweite Eis-Albedo-Rückkopplung, jetzt in den Wolken. Nach der Simulation (Schneider et  al. 2019) zerfleddern die hochliegenden (kühlenden) Stratokumulus-Wolken bei sehr viel höherer CO2Konzentration und die positive Rückkopplung überwiegt; es wird noch wärmer. Dazu noch eine Beobachtung dieses Klimatologen von allgemeiner Bedeutung: Wenn die Stratokumulus-Decke einmal aufgebrochen ist, kommt sie erst wieder zurück, wenn die CO2-Konzentration merklich unter den Wert gesunken ist, bei dem die Instabilität begann. Tapio Schneider, Physiker, in Nature Geoscience, 25. 2. 2019.

Es ist ein Beispiel für die Asymmetrie vieler klimatologischer Vorgänge: Der Weg zurück ist schwieriger als der Weg hin. Vielleicht kann hier die unten diskutierte Verstärkung von marinen Wolken helfen, die Wolkendecke zu behalten, ja sogar zu vergrössern.

2.9.3 Simulation des Weltklimas als Ganzes Unsere Wissenschaft ist nicht vom Typ der wahren und präzisen Wissenschaften wie manche Probleme der theoretischen Physik oder Astronomie, besonders der Astronomie, es sind, um alles berechnen zu können und dann zu sagen, das Ergebnis sei absolut richtig. Michail Budyko, russischer Physiker und Klimatologe, Interview 1990.

238     W. Hehl

Das Klima der Erde zu berechnen ist der grosse Bruder der Berechnung des Wetters, insbesondere der Wettervorhersage. Die Aufgabe der Wettervorhersage ist dabei enger gefasst. Es ist die Extrapolation des gegenwärtigen Zustands der Atmosphäre mit allen Energie- und Materieflüssen in die Zukunft aufgrund der Gesetze der Physik, soweit hinaus in die Zeit wie möglich. Der norwegische Physiker Vilhelm Bjerknes hat 1904 als erster die zugehörigen Gleichungen (es sind Differentialgleichungen) für die Wettervorhersage formuliert und vorgeschlagen, die Gleichungen jeden Tag für die Vorhersage des Wetters zu lösen. Das war allerdings eine schwierige, grosse Aufgabe: „Richardson brauchte sechs Wochen für eine Vorhersage für sechs Stunden voraus – und sie war trotzdem falsch. Er erklärte, dass 64 000 menschliche Rechner mit Rechenschieber das Wetter gerade so schnell würden berechnen können, wie es ankam.“ Lewis Richardson nach BBC News, South Scotland, 2013.

Vor Einführung des Computers spielte die rechnerische Meteorologie keine Rolle. Bei einer heutigen Wetterberechnung führt der Computer insgesamt hunderte von Billionen, ja Billiarden mathematischer Operationen durch, um das virtuelle Abbild des Wetters zu bestimmen. Die Genauigkeit der Vorhersage verliert sich trotzdem nach etwa zwei bis drei Wochen im Chaos durch die Ungenauigkeiten der Daten und der Algorithmen, rechnerisch wie physikalisch. Bei Klimamodellen kommen zum Zustand und zur Entwicklung der Luftbewegungen noch weitere Abhängigkeiten dazu: die Atmosphäre als Ganzes mit molekularer Physik, der Ozean bis in die Tiefen, das Meereis, die Biosphäre auf Land und im Meer, sogar eventuell Sonnenphysik. Der Mathematiker und Physiker John von Neumann hatte die Idee, die Verfahren der Simulation von Atombombenexplosionen (sein Gebiet) auf zunächst die Wetterberechnung und dann die Berechnung des Klimas der ganzen Erde zu übertragen. Im Begriff des nuklearen Winters, der Klimakatastrophe durch eine grosse Anzahl von nuklearen Explosionen, kommen ja in der Tat beide Gebiete zusammen. Dabei erzeugen Kernwaffenexplosionen so viel Staub und Russ (d. h. Aerosole), dass die Temperatur der Erde drastisch sinken würde. Der Traum von Neumanns war es, Wetter und Klima aus den Grundlagen der Physik heraus zu berechnen, aus den First Principles. Es sind die Grundgleichungen der Hydro- und Thermodynamik, vor allem die sog. Navier-Stokes-Gleichungen für Strömungen, die sicher gelten, aber nur für die Berechnung von

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     239

e­ infachen Vorgängen geeignet sind. In der Praxis entfernt man sich von den reinen Grundgleichungen der Hydro- und Thermodynamik, dafür kommen neue Bedingungen für die Erfassung des Systems als Ganzes hinzu, etwa die Spektren der Gase, die Eigenschaften von Wasser, die Biologie zu Wasser und zu Land und viele Näherungen, oft mit einstellbaren Parametern. Arithmetische Klimamodelle Vor der Verwendung des Computers musste man sich, wie Svante Arrhenius, auf wenige Grundgleichungen beschränken, die man mit viel Rechenarbeit auf Papier, später mit Rechenmaschinen, löste. Trotzdem gab es in der Mitte des 20. Jahrhunderts einen – auch aus heutiger Sicht – unglaublich erfolgreichen zweiten Klimatologen ohne Computer, den Weissrussen Michail Budyko (1920–2001). Svante Arrhenius (Abb. 2.80 links) hatte sich Ende des 19. Jahrhunderts zwar mehr für die Eiszeiten interessiert, aber er hatte ausgerechnet, dass eine Verdopplung des CO2-Gehalts in der Atmosphäre eine Erhöhung der Erdtemperatur um 5 bis 6°C bedeuten würde (Erren 2006). Dieser Zahlenwert klingt bestechend modern, hat aber keine hohe wissenschaftliche Bedeutung. Arrhenius hatte zu viele Effekte nicht berücksichtigen können, wie z. B. die Einflüsse von Bewölkung, vom Wärmetransport durch Konvektion und von der Wechselwirkung von Wasserdampf und CO2.

Svante Arrhenius 1859–1927

Michail Budyko 1920–2001

Abb. 2.80  Zwei Pioniere der Wissenschaft vom Klimawandel Der Entdecker der klimatischen Effekte von CO2, Svante Arrhenius, und der Entdecker der Eis-Albedo-Kopplung und der Kipp-Punkte im irdischen Klima, Michail Budyko. Bilder: Wikimedia Commons, Arrhenius2, Photogravure Meisenbach, und englische Wikipedia, Mikhail Ivanovitch Budyko, www.philosophy.by.

240     W. Hehl

Michael Budyko (Abb. 2.80 rechts) forschte und rechnete mehr als ein halbes Jahrhundert später. Die wissenschaftliche Welt hatte Arrhenius längst zu den Akten der Geschichte gelegt. Der sowjetrussische Klimatologe machte 1971 eine Reihe von unerwarteten und unerhörten Vorhersagen. In einem Interview (Weart, 2018) erzählte er: „Anstatt allgemeiner Worte [als Schlussworte einer Konferenz von Klimatologen] präsentierte ich kurz eine Idee, die allen vollkommen unakzeptabel erschien: Die Idee, dass eine globale Erwärmung unvermeidlich war. … Das war eine Sensation, alle waren aufgeregt und auf den Sprecher böse.“

Die Grundhaltung der Menschen zu dieser Zeit war, dass das Klima der Erde unerschütterlich sei (von den Eiszeiten abgesehen). Es war irgendwie unbescheiden und ketzerisch zu vermuten, dass die Menschheit das Klima der Erde irgendwie ändern könne. Aber Budyko (und der amerikanische Meteorologe William Sellers) berechneten, dass relativ kleine Änderungen an sensiblen Punkten, den Tipping Points oder Kippelementen, dramatische Folgen im Klima haben können. Die Eis-Albedo-Rückkopplung war ein Beispiel. Im Jahr 1972 sagte Budyko mit einem einfachen linearen Modell, das nur die Physik entlang der Meridiane der Erde berechnete, den globalen mittleren Temperaturanstieg in 100 Jahren zu 2,25°C voraus, also für das Jahr 2020 gerade um 1°C oder ¼°C pro Dekade. Zum erstaunlichen Vergleich beispielsweise die Angabe des NASA Global Climate Report zum März 2020: Über das Ganze gemittelt, war die Temperatur der globalen Land- und Ozeanoberflächen der Erde im März 2020 um 1,16°C über dem Durchschnitt des 20. Jahrhunderts von 12,7°C. 1972 sagte Budyko für 2019 einen globalen Temperaturanstieg um 1°C voraus, dazu einen Rückgang des Eises in der Arktis um 50% – und für 2050 das totale Verschwinden des Eises. Im Jahr 2019 waren noch 46% des arktischen Eises von 1970 vorhanden! Sicher hatte Michail Budyko Glück mit etlichen Annahmen bei seinen Rechnungen und Vereinfachungen – aber seine Vorhersagen sind verblüffend präzise. Er ging noch mit einer anderen Aussage in die Geschichte der Klimatologie ein, die eine neue Technologie ankündigte. Er hatte die Idee, die erwartete globale Erwärmung mit Sulfat-Aerosolen zu mildern, mit der Emission von Schwefel. Diese Methode wird nach ihm eine Budyko-Decke genannt. Technologien zur bewussten Veränderung des Klimas heissen heute Geoengineering.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     241

Erstaunlich optimistisch ist Budyko insgesamt zu den Auswirkungen des zwangsläufigen Klimawandels. Im Spiegelinterview (Franke 1990) erwartet er positive Auswirkungen wie ein Ergrünen der Sahara, bessere Ernten und eine eisfreie Schiffsroute im Norden für die Sowjetunion. Diese Ideen entsprechen noch dem naiv-positiven Zeitgeist. Allerdings ist die eisfreie Route im Norden Russlands in Griffweite; die Zeiten im Jahr für Passagen ohne Eisbrecher werden immer länger. Computermodelle Die globale Temperatur bzw. ihre Zunahme ist zwar fundamental für die Erde, aber es ist nur eine unscheinbare Zahl, nur ein Skalar. Budyko sagte selbst (Weart 2018): Es ist theoretisch interessant, die mittlere globale Temperatur zu wissen, aber die Zahl hat praktisch nur wenig Wert. Wir sollten die Temperaturänderung in verschiedenen Regionen kennen, im Sommer und im Winter. Noch wichtiger, wir sollten die Änderung der Niederschläge kennen, denn der Niederschlag ist das empfindlichste im Klimasystem. Eine vergleichsweise kleine Änderung im Klima kann die Niederschläge beträchtlich verändern mit enormen Auswirkungen auf die Landwirtschaft und manche Industriezweige. Eine ganzheitliche und detaillierte Sicht können nur detaillierte und umfassende Klimamodelle im Computer leisten oder wenigstens zu leisten versuchen. The use of computer models runs right through the heart of climate science

beginnt ein Artikel im Web-Magazin Carbon Brief im Januar 2018 etwas dramatisch, Die Verwendung von Computer Modellen geht durch das Herz der Wissenschaft vom Klima.

Aber gleich ein anderes Zitat zur Modellierung des Klimas der Erde vom Astrophysiker und wissenschaftlichen Autor Ethan Siegel: Die Modellierung des Klimas der Erde ist eine der gewagtesten und kompliziertesten Aufgaben da draussen. Wenn wir doch mehr wie der Mond wären, da wären die Dinge viel einfacher. Ethan Siegel in Forbes.com, 15. 3. 2017.

242     W. Hehl

Die Temperatur der atmosphärelosen Erde haben wir ja schon selbst berechnet. Aber die Modellierung der wahren Erde ist schwieriger. Es beginnt bei der räumlichen Auflösung; Wolken als km3-grosse Blöcke anzusehen ist noch nicht sehr feinfühlig, aber wäre schon grossartig. Die Modellierung von Wolken ist eine Herausforderung. Wolken zeigen die ruhelose Macht der kreativen Transformation. … Wolken bewegen sich. Sogar eine kleine Wolke kann das Gewicht von 400 Elefanten an Wasser halten. Aber wie kommen die Elefanten – ich meine das Wasser – in die Höhe, und warum wurde eine Wolke daraus? Adam Frank, amerikanischer Astrophysiker, geb. 1962.

Die Erdoberfläche beträgt 510 Mio. km2 – bei 15 km Höhe sind dies (oder wären dies) mehr als 7 Mrd. Würfel. Dazu kommt die zeitliche Auflösung: Für jeden Würfel muss bei jedem Weiterschreiten der Zeit die Wechselwirkung berechnet werden. Aber das grosse Problem ist nicht die Fleissarbeit mit vielen Gitterpunkten, über die die Algorithmen und Rechenmuster, die sog. Stencils, laufen müssen; es ist die Schwierigkeit, das klimatologische, physikalischchemisch-biologische Wissen in mathematische Gleichungen umzusetzen. Insbesondere problematisch ist das komplexe Netzwerk von Prozessen in der Welt, die sich gegenseitig (und sich selbst) beeinflussen über viele Grössenordnungen räumlich und zeitlich hinweg, und die letztlich das Klima ergeben. Diese Prozesse müssen verstanden werden und mit ihren Querbeziehungen in Computercode umgesetzt werden. Einen Eindruck der Komplexität gibt die Abb. 2.81, eine Art informelle Mindmap oder Prozesskarte nach Al Gores Film Eine unbequeme Wahrheit von 2006. Positiv bedeutet eine Verstärkung des betreffenden Effekts, negativ eine Abschwächung. Die Grafik soll die Komplexität der internen Klimabeziehungen illustrieren – aber die Realität ist sicher komplexer. Hinter beinahe jedem Pfeil und Begriff stecken selbst komplexe Vorgänge und dazu kommen „dotted lines“, schwächere Querbeziehungen zu weiteren Veränderungen. Aufschlussreich ist auch die Entwicklung derartiger Vorstellungen vom System Erde. Dass das Klima der Erde ein System ist, hat der schon mehrfach zitierte Alexander von Humboldt gewusst, etwa wenn er die Wirkung des Abholzens der Wälder über viele hundert Meilen hinweg sieht oder schon 1850 von der Bedeutung der Wärmestrahlung spricht, von der

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     243

Abb. 2.81  Positive und negative Querbeziehungen im Klima Illustration der Vielfalt des Problems (2006). Bild: Gore inconvenient truth loops, Wikimedia Commons, Lee de Cola

Wärmestrahlung der Erdoberfläche gegen das Himmelsgewölbe, die wichtig […] für alle thermischen Verhältnisse, ja man darf sagen für die ganze Bewohnbarkeit unseres Planeten ist. In Kosmos. Entwurf einer physischen Weltbeschreibung, Cotta, 1850.

Das wohl erste grössere numerische Klimamodell überhaupt ist rein physikalisch ausgerichtet. Die Abb. 2.82, inspiriert vom amerikanischen Meteorologen William Sellers im Jahr 1969, zeigt einen Ausschnitt aus einer Arbeit in der Zeitschrift Science von 1975. Am nächsten an Biologie ist die Soil Moisture, die Bodenfeuchtigkeit, sonst ist alles Physik. Beide Diagramme sind Versuche, alle Klimavorgänge zu erfassen. Es sind Vorläufer von System-Diagrammen für den nächsten Schritt, die Modellierung des Klimas. Bei grossen Softwareprojekten würde man die Schemata für das Ganze wohl Frameworks nennen. Ein Framework ist allgemein ein erweiterbares Programmiergerüst für einen Aufgabenbereich. Für das Erdklima nennt man diese Netzpläne nach dem amerikanischen Meteorologen Francis Bretherton Bretherton-Diagramme, mit allen zu berücksichtigenden Aktivitäten, einschliesslich der menschlichen Eingriffe, und ihren Querverbindungen.

244     W. Hehl

Abb. 2.82  Kopplungen im Klimamodell 1969/1974 (Ausschnitt) Illustration nach W. D. Sellers, sowie W. Kellogg und S. Schneider in Science, 186, p. 1164.

Mit der weiteren Entwicklung der Analyse werden aus diesen Bildern Schaubilder, ähnlich wie bei anderen grossen Systemen, etwa bei • umfangreichen elektrischen Schaltungen und deren Verdrahtung, • den Betriebsmodellen grosser Unternehmen, etwa in SAP Modellierung, • allgemein grossen oder sehr grossen Softwareprojekten. Allerdings sind diese Grossprozesse von Haus aus digital oder dem Digitalen näher. Beim Klima sind die einzelnen Blöcke selbst riesige unscharfe Felder oder verbundene Untersysteme. Näher an einem Systembild für Software ist die Abb. 2.83. Zentral sind in diesem Diagramm aus dem Jahr 1999 die biologisch-geophysikalischen Blöcke, die Marine Biogeochemie und die Terrestrischen Ökosysteme. Das grosse Ziel ist es, eine virtuelle Maschinerie zu bauen, mit der man virtuelle Experimente machen kann, z. B. den Knopf einer einzelnen Grösse aufdrehen und die Reaktion des Ganzen zu sehen auf dieses Forcing, diesen äusseren Zwang. Und natürlich auch das grosse Experiment der Menschheit virtuell durchzuführen in verschiedenen Varianten.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     245

Abb. 2.83  Das Erdklima-System – ein simplistisches Modell (Ausschnitt) Bild aus Schellnhuber, 1999. In voller Grösse ist das Bild zu finden bei Nature.com/ articles/35011515/figures/2

Poincaré hat, wie oben zitiert, gesagt, dass Wissenschaft mehr ist als eine Anhäufung von Bausteinen. Entsprechend ist eine grosse Simulation mehr als eine Anhäufung von Software-Blöcken. Auch ein gut entworfenes Softwaresystem ist mehr als eine Anhäufung von Software. In der Praxis wird es leicht durch viele Änderungen doch zu einer historisch gewachsenen Ansammlung, die gerade so funktioniert. Softwarepakete auf Forschungsebene sind wohl häufig softwaretechnisch mehr von diesem Typ. Die grössten Simulationspakete sind in Tausenden von Arbeitsjahren geschaffen worden und haben den Umfang von 800 000 Zeilen Programm. Das ist im Vergleich zu anderen kommerziellen Systemen oder auch manchen Forschungssystemen noch nicht viel, Windows oder MacOS sind etwa 50 bis 100 Mal so gross, die Google Internet Services etwa 3 000 Mal grösser. Auch die CERN Software zum Large Hadron Collider ist hundert Mal grösser. Aber Grösse hat ein Problem. Das Verstehen der kausalen Ergebnisse wird schwerer, da immer mehr Codeteile und Faktoren zusammenwirken.

246     W. Hehl

Es ist das Dilemma des Wachstums der Systeme: Einerseits sind Simulation und Modellierung die Methode der Wahl (eigentlich ohne Alternative) um die Dynamik eines so komplexen Systems zu verstehen. Andrerseits scheint die wachsende Komplexität der Modelle das Verstehen zu gefährden. Gramelsberger et al,., in Philosophical Perspectives on Earth System Modeling, 2019.

Zum Verstehen im Sinne von menschlichem oder prinzipiellem Verstehen sind einfache Überlegungen besser – im Jargon sagt man Back-on-theEnvelope-Rechnungen, also improvisierte Kalkulationen auf einem Briefumschlag oder einer Serviette in der Cafeteria – oder einfache Extrakte von Ideen aus den grossen Simulationen. Eine Folge der Grösse der Aufgabe, die ganzen Erde zu simulieren, ist es, dass viele Klimamodelle existieren, in USA allein 7! Das IPCC betrachtet 29 verschiedene gleichberechtigte Modelle. Die Abb. 2.84 zeigt das Spektrum der Simulationen, die von 8 Modellen auf der Grundlage des gleichen Szenarios von Bedingungen berechnet wurden. Es gibt grosse Unterschiede, jedoch: Keine Sorge: Die globale Erwärmung selbst ist unumstritten und offensichtlich.

Abb. 2.84  Vorhersagen der globalen Erwärmung Die Berechnung mit verschiedenen Modellen auf der Basis des Szenarios SRES A2. Bezugspunkt ist die Temperatur im Jahr 2000. Bild: Global Warming Predictions, Wikimedia Commons, Robert Rohde/Global Warming Art Project.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     247

Es ist ein wenig wie mit der Vielfalt der Religionen15: Der Physiker und Meteorologe Chris Jones vom britischen Met Office Hadley Centre sagt pragmatisch (McSweeney, 2018): Wenn es nur ein Modell gäbe oder ein einziges Zentrum für die Klimamodellierung, dann verstünden wir viel weniger ihre Stärken und Schwächen.

Den Prognosen überlagern sich dazu die aus menschlicher Sicht unvorhersehbaren Zufälle, etwa eine Pandemie oder eine grosse Vulkaneruption. Bei rückwärtsgerichteten Testläufen der Modelle, also Läufen in die Vergangenheit, sog. hindcasts im Gegensatz zu forecasts, kann man die vergangenen Zufälle ja einbringen. Natürlich sind solche Rückwärts-Läufe zur Kalibrierung üblich. Wesentlich schwieriger als die Erfassung der globalen Temperatur ist die Erfassung von Niederschlägen und der Extremereignisse. Die mittlere Temperatur ist ja nur eine unscheinbare einzelne, dazu abstrakte Zahl. Ein Zehntel Grad Unterschied sieht harmlos aus, bedeutet aber für die Erde viel. Tendenziell werden durch die globale Erwärmung trockene Gebiete noch trockener (z. B. Mittelmeergebiete und Südafrika), feuchte Regionen noch niederschlagsreicher (vor allem in der Äquatorregion des Pazifik und in Arktis und Antarktis). Über Land ist die Veränderung besonders komplex. Die Projektion der Niederschläge ist schwierig. So schreibt der renommierte Carbonbrief (Hausfather, 2018): „In mindestens einem Modell zeigt die Welt ausserhalb der hohen Breiten und des tropischen Ozeans merkliches trockener werden an. Entsprechend findet man wenigstens auch ein Modell, in dem es nahezu überall nasser wird.“

Ein Beispiel für das Auseinanderlaufen von Projektionen der Niederschläge für verschiedene Modelle sind diese Vorhersagen aus dem Jahr 2018 für den Kontinent Australien bis zum Jahr 2100: • CMIP5 RCP8.5 multimodel (international) sagt nahezu keine Veränderung der Niederschläge über Australien voraus, • CSIRO-Mk3 (australisch) wesentlich weniger Niederschlag, typisch minus 20–40%, • FGOALS (chinesisch) dagegen bis zu +30% mehr.

15 Dieser

Vergleich mit der Religion stammt vom Autor, nicht von Chris Jones.

248     W. Hehl

Umschlagspunkte (Kipp-Punkte) Vielleicht noch schwieriger, aber gleichzeitig wichtiger als solche stetigen Wetterdaten, ist die Vorausschau nach Stellen in Klimasystem, die kritisch sind. Es sind Stellen im System, an welchen ein kleiner Eingriff, ein geringes Forcing, eine grosse Wirkung auslösen kann. Es ist eine Art von Umkippen, das oft nicht mehr oder nur schwer umkehrbar ist. Der Begriff Tipping Point (Umschlagspunkt) wurde vom kanadischen Autor Malcom Gladwell in einem Roman mit dem Titel Tipping Point – Wie kleine Dinge Großes bewirken können popularisiert: „Schauen Sie auf die Welt um Sie. Die Welt mag unbeweglich und unerschütterlich erscheinen. Aber sie ist es nicht. Der kleinste Stoss, gerade an der richtigen Stelle, und sie kann umkippen.“

Auf die Gefahr von Instabilitäten im Klima der Erde wies zuerst der deutsche Physiker und Klimatologe Hans Joachim Schellnhuber (geb. 1950) hin. Das Klimasystem ist mit den vielen regionalen und globalen Rückkopplungen voller innerer Nichtlinearitäten und es gibt eine grosse Anzahl von Möglichkeiten zu kippen. Einige haben wir schon besprochen, die Liste ist lang: • Eismassen, die das Klima puffern, können verschwinden. Das arktische Meereseis, auch grönländisches, tibetanisches oder westantarktisches Eis ist gefährdet, • aber auch Meeresströmungen können auf der Kippe stehen, sich verändern oder verschwinden, etwa die El Niño- Oszillation oder die vom Salzgehalt getriebenen Tiefenzirkulationen, • Luftströmungen können sich verändern, etwa der indische Sommermonsun oder die Jetströmungen der höheren Atmosphäre oder die Auflösung niederer Wolken, • Methan kann beschleunigt entweichen aus Meeren und aufgetauten Sümpfen, • Wälder können verschwinden, im Norden durch Trockenheit, in den Tropen durch Entholzung. Das Klima der Erde ist gegen kleine Störungen in Bezug auf diese Veränderungen nach unserer Erfahrung stabil. Aber auf den Weg gebracht und in der Nähe des Kipp-Punkts wird es gefährlich: Der Übergang in das neue System kann schleichend oder abrupt sein. Der Rückweg kann schwer sein oder nicht mehr möglich. Dazu kann ein Kipp-Punkt einen weiteren

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     249

Kipp-Punkt auslösen und damit eine ganze Kaskade bis zu einem neuen Zustand, gegebenenfalls zu einer unbewohnbaren Erde. All diese möglichen vielfältigen Gefahren haben wissenschaftliche, aber auch hohe politische Bedeutung. Die Simulationsmodelle sind der wissenschaftliche Weg im Sinne von Vertrauen durch Bauen, aber sie sind weder Theorie noch Experiment. Es ist eine eigene, interdisziplinäre Ingenieursdisziplin geworden mit eigenen Kniffs und Schulen. In den Anfängen der Geschichte von Computersimulationen vor 55 Jahren zeigten sich künstliche Erscheinungen, die in der Realität nicht existieren, dann beginnt etwa 1965 die simulierte Atmosphäre ähnlich auszusehen wie echt. Heute verstehen wir – nach vielen Tausend Computerläufen und Tausenden von Arbeitsjahren – viele Grundzüge des Klimas und seines Wandels. Wir sehen die Gefahren, aber es bleibt noch viel zu tun. Angesichts der Liste von drohenden Kipp-Punkten ist es ein Wettlauf mit der Zeit. Ein neues Werkzeug: Künstliche Intelligenz Es ist erstaunlich, bei wie vielen Aufgaben [im Klimaumfeld] die künstliche Intelligenz (KI oder AI) und das Maschinenlernen wichtige Beiträge liefern können. David Rolnick, kanadischer Informatiker, 2019.

Die Arbeit von David Rolnick et al. (2019) zählt dazu in der Klimainformatik 13 Bereiche, darunter etwa die weltweite Überwachung der Abgase von Kraftwerken mit fossilen Brennstoffen, die Überwachung des Zustands der Wälder und der Methanemissionen der Sumpfgebiete der Welt. Die Stärke der Künstlichen Intelligenz ist die Handhabung sehr grosser, auch vager, unscharfer Datenmengen mit Analysen, Mustererkennung und Folgerungen aus den Daten. Das Weltwetter (und damit das Weltklima) haben millionen- und milliardenfach stochastische und unscharfe Strukturen; die NASA-Bilder der Abb. 2.85 und 2.86 sind wunderbare Beispiele dafür: • Die unsichtbaren grossen Wirbelstrukturen in der Atmosphäre. Das Beispiel zeigt in einer recht hochauflösenden Simulation in Falschfarben die Bahnen von gerade erzeugten Kohlendioxidströmen und Wirbeln. Das Bild ist typisch für die nördliche Erdkugel im Winter. • Die Wolkenstrukturen der Erde. Im Bild typische hohe Wolkenmuster aus der Raumstation ISS über dem Pazifik.

250     W. Hehl

Abb. 2.85  Die Strömungen von CO2 an einem (nördl.) Wintertag in 2006 (Ausschnitt, simuliert) Schnappschuss aus einem Video des NASA Goddard Space Flight Center (Das volle Video befindet sich hier https://www.youtube.com/watch?v=x1SgmFa0r04). Die Region ist Mittelmeer und Afrika.

Abb. 2.86  Stratocumulus-Wolken über dem Pazifik mit typischem Muster Bild: NASA, Earth, Expedition 34, ISS.

Software mit Funktionen künstlicher Intelligenz lernt aus den gigantischen Datenmengen und erkennt Strukturen (etwa von Wolken) mit der Ausdauer des Computers weltweit bis hinunter in einem kleinen Massstab – oder produziert umgekehrt solche detaillierten Strukturen. Dazu müssen die Phänomene physikalisch nicht einmal verstanden sein – ein Vorteil für die Anwendung. Ein gutes Anwendungsgebiet sind die Wolken in ihrer Vielfalt und ihrer grossen Bedeutung für das Klima.

2  Ausgewählte wissenschaftliche Themen zur Globalen Erwärmung     251

Künstliche Intelligenz mit maschinellem Lernen und neuronalen Netzen kann helfen, Entwicklungen schneller zu erkennen, z. B. in der Wettervorhersage extreme Ereignisse vorauszusehen und beim Klima Kipp-Punkte zu finden. Es ist eine Chance, die immer grösser werdenden Rechenaufgaben bei der direkten Klimasimulation wirksam zu ergänzen (Jones 2018). Eine der ersten Anwendungen von Techniken der KI ist die Analyse der vielen existierenden Simulationsmodelle selbst. Man will sehen, welches Modell die internen Parameter am besten gesetzt hat.

3 Ausgewählte Technologische Themen zur Globalen Erwärmung

Die Technologie ist hier. Die Menschen sind bereit. Die Wissenschaftler haben gesprochen Progressive Firmen machen voran. Nun brauchen wir Regierungen, die handeln. Wir haben die Technologie, um jedem auf der Erde mit sauberer, erneuerbarer Energie zu versorgen. Die Lösungen, die wir für eine Carbon-Zero-Zukunft brauchen, existieren. Von verschiedenen WWF-Seiten, 2019 bis 2021.

Diese Aussagen sind sehr, sehr optimistisch. Es ist nicht so einfach, auch heute nicht. Die berühmte Greta Thunberg geht weiter (s. u.) und formuliert die Aufgaben weitsichtiger und realistischer. Die erste Diskussion im Sinn der obigen Zitate hat der Autor vor 40 Jahren als Ingenieur mit Studenten geführt. Die Ansicht der Studenten (um 1980) war, dass „die Industrie“ die Verwendung von Sonnenenergie absichtlich behindere. Dies war keineswegs der Fall, dazu ist die kapitalistische Industrie auch viel zu gespalten. Es erinnert an das (angebliche) Zitat nach Wladimir Iljitsch Lenin: Die Kapitalisten werden uns noch den Strick verkaufen, mit dem wir sie aufknüpfen.1

1 Die

Geschichte dieses Pseudozitats ist auf dem Blog Falschzitate ausführlich analysiert.

© Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 W. Hehl, Klimawandel – Grundlagen und Spekulation, https://doi.org/10.1007/978-3-658-35541-8_3

253

254     W. Hehl

Allerdings sollte dies später der Fall in den USA sein, wenn die alternativen Energien für die Unternehmen der fossilen Energiesparte eine Bedrohung werden. Aber die Entwicklung der Photovoltaik folgt den Gesetzmässigkeiten der Entwicklung einer neuen Basistechnologie. Um 1980 waren Solarzellen, die wichtigste Technologie für die KlimaZukunft, sowohl absolut zu teuer (mit etwa 200 $ pro Watt möglicher Leistung, das war gerade in der Raumfahrt akzeptabel) wie auch relativ zum Energieaufwand für die Herstellung. Die Energie für die Herstellung konnte damals die später gelieferte Sonnenenergie durchaus übersteigen. Es gibt viele Gründe, dass weitere Forschung und Entwicklung notwendig waren und noch heute notwendig sind, z. B. • Die Einführung von Technologien, die nicht nur Software sind, benötigt Entwicklungszeit. • Die Masseneinführung von Produkten, die nicht nur Software sind, von der Demonstration bis zum Massenprodukt, braucht Zeit. Es kann ein weiter Weg sein von der ersten Vorführung als Demo bis zur Verbreitung. • Das rasche Zurückgehen auf eine 0 %-Emissionsgesellschaft ist illusorisch (s. Pareto-Prinzip). Es gibt schwer zu verändernde Bereiche, etwa die Zementproduktion und die Stickstoff-Düngung in der Landwirtschaft. Und die Menschen selbst. • Es sieht so aus, als müsse man negative Emissionen in grossem Stil erzeugen, also CO2 aus der Atmosphäre bewusst entfernen. Solche NETs (negative emission technologies) in grossem Stil sind ganz neu. Diese Gründe liegen damit in den Gesetzen der Entwicklung merklich neuer Technologien und Produkte, den Gesetzen, wie sich Bereiche von Industrie und Gesellschaft verändern, und in den Wissenschaften des Klimas.

3.1 Das Pareto-Prinzip Das Paretoprinzip besagt, dass 80 % der Ergebnisse mit 20 % des Gesamtaufwands erreicht werden. Die verbleibenden 20 % der Ergebnisse erfordern mit 80 % des Gesamtaufwands die quantitativ meiste Arbeit. Definition Paretoprinzip im zugehörigen deutschen Wikipediaartikel.

Das Prinzip ist nach dem italienischen Mathematiker Vilfredo Pareto (1848–1923) benannt, der im Auftrag italienischer Banken die Verteilung

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     255

des Reichtums in Italien analysierte. Er registrierte, dass 20 % der Italiener im Besitz von 80 % des italienischen Grundes waren. Und er dachte, dass dies entsprechend in allen Ländern der Fall sei. Als Schlussfolgerung empfahl er den Banken, sich vor allem um die wohlhabenden Kunden zu kümmern. Der anschauliche Kern der Aussage ist die obige 80/20-Regel. Sie wird in Management-Kursen gelehrt, um ganz verschiedene Probleme optimal anzugehen. In der Softwareentwicklung ist es entsprechend typisch, dass 80 % der Fehlerberichte von 20 % der Bugs verursacht werden. In der Problematik des Klimawandels haben wir in der Tat eine Vielzahl verschiedener Probleme verschiedenen Gewichts, vor allem die Reduktion der Kohlendioxidemissionen, aber auch des Methans und der Stickoxide und mehr. Zu jedem Schadstoff gehören aber viele Tausend Quellen in verschiedener Hartnäckigkeit gegen Abschaffung oder Umwandlung. So sind hartnäckige und ergiebige Quellen von CO2 die Zementwerke (etwa 6 % des gesamten Ausstosses), der Flugverkehr (2,5 % des Gesamten) und Computer (2 % mit wachsender Tendenz). Hartnäckig werden auch die Methanausdünstungen der Sümpfe und Reisfelder sein. Dies führt zur Schlussfolgerung, dass es unrealistisch ist, in den nächsten Jahrzehnten auch nur für CO2 ein Null-Szenario zu erwarten. Das ParetoPrinzip ist eine Warnung an zu grossen Optimismus. Wir müssen Prioritäten setzen und zunächst die niedrig hängenden Früchte ernten; der Widerstand der nächsten Probleme wird immer grösser werden. Wir werden mit Lücken, also mit CO2- Quellen, leben müssen. Allerdings lässt sich und wird sich der CO2-Ausstoss durch die Energieproduktion drastisch reduzieren. Es wird im Sinne von Pareto aber auch hier Sachgebiete geben, die weiter stören und viel Arbeit und Forschung benötigen werden. Und die neuen Technologien werden ihrerseits Probleme hervorrufen, wie etwa der Bergbau von Lithium in grossem Stil. Ein Beitrag, der (vermutlich) bleibt, ist das von Menschen selbst ausgeatmete CO2. Es ist etwa 1kg pro Person und Tag, also zurzeit 3 Mrd. Tonnen CO2 pro Jahr. Eine wesentlich grössere Menge CO2 wird wohl nebenbei durch die lebenserhaltende Produktion zur Ernährung der Menschheit ausgestossen.

256     W. Hehl

3.2 Sonnenenergie Wenn wir 0,03 % des Sonnenlichts, das auf die Erde fällt, in [elektrische] Energie verwandeln könnten, dann könnten wir unseren ganzen Energiebedarf im Jahr 2030 decken. Ray Kurzweil, amerikanischer Futurist, TED Vortrag Februar 2005.

3.2.1 Photovoltaik Wir sind Sternenstaub, der das Sonnenlicht einsammelt. Carl Sagan, amerikanischer Astronom, 1934–1966.

Ray Kurzweil ist ein Unternehmer und optimistischer Futurist, der mit seinen Vorhersagen seit 1990 zur Informationstechnologie weitgehend Recht behielt (s. Wikipedia Predictions made by Ray Kurzweil ). Im zitierten Vortrag sagte er voraus, dass Photovoltaik billiger werde als fossile Energie mit dem Kipp-Punkt in wenigen Jahren und dass damit die Sonne etwa 2030 praktisch die Energiequelle der Welt sein würde. Für mehrere Jahrzehnte war die Photovoltaik (PV) die wohl teuerste Energiequelle. Kurzweil sah für die Photovoltaik-Zellen einen exponentiellen Preisverfall voraus (ähnlich dem Mooreschen Gesetz bei Computerchips) und ein exponentielles Wachstum des Marktanteils der Solarenergie mit Verdopplung alle 2 Jahre, ausgehend von 2 %. Die Abb. 3.1 zeigt den Verfall des Preises von Solarmodulen mit dem Anwachsen der Stückzahlen entsprechend dem technischen Fortschritt. Die Verbreitung der Photovoltaik-Zellen wird hier angegeben in installierter Spitzenleistung (in MWp). Dieser Preisverfall heisst – in Analogie zum berühmten Mooreschen Gesetz der Chiptechnologie (nach dem Unternehmer Gordon Moore von Intel) – hier das Gesetz von Swanson nach Richard Swanson, dem Gründer des Solartechnik-Unternehmens SunPower. Für Projekte mit günstiger Finanzierung und guten Lokationen ist Photovoltaik jetzt die preiswerteste Quelle elektrischer Energie der Geschichte. Internationale Energieagentur World Energy Outlook 2020.

Natürlich abgesehen von Blitzen in Gewittern! Die Technologie PV können wir nur bewundern. Damit ist die PV bereit, ein Hauptträger der Energieproduktion der Welt zu werden. Von nun an wirkt auch die wirtschaftliche Dynamik zugunsten der Photovoltaik.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     257

1976

2014

Abb. 3.1  Das Gesetz von Swanson Die Lernkurve der Technologie der Photovoltaik. Der Preis eines Solarmoduls abhängig von der Marktgrösse. Bild: Swansons Law, Wikimedia Commons, Delphi234

Vielleicht muss und kann man die ganze Natur und damit die Physik als ein Wunder ansehen. Aber ist es kein Wunder (der Physik)? Licht fällt auf ein Plättchen verunreinigtes Silizium, und ein elektrischer Strom fliesst.

Licht vom Atomreaktor Sonne in 150 Mio. km Entfernung wird verwandelt in elektrische Energie, die hier so vieles machen kann, zum Beispiel Computer laufen lassen oder Motoren antreiben.Die Wirkung des Lichts auf und mit Elektrizität, der sog. photoelektrische Effekt, kommt in drei Varianten: 1. Licht kann freie Elektronen aus Materie herausschlagen, 2. a) Licht kann im Festkörper Elektronen erzeugen und damit wird Strom besser geleitet und es werden Ladungen erzeugt, b) Licht kann im Festkörper freie Elektronen erzeugen und damit fliesst Strom. Der erste Effekt wurde 1886 vom Physiker Heinrich Hertz entdeckt und heisst korrekt äusserer Photoeffekt oder Hallwachs-Effekt. Der Effekt tritt z. B. auf, wenn Licht auf Metalle fällt (Metalle enthalten einen See an

258     W. Hehl

Abb. 3.2  Das erste Solar-Photovoltaik-Panel der Geschichte 1883 Vgl. die erste Solarzelle 1954. Quelle: Smithsonian Magazine, Bild: John Perlin, Historiker der Sonnenenergie. Mit freundlicher Genehmigung.

freien Elektronen). Die prinzipielle Erklärung dafür lieferte dann Einstein 1905 mit der Arbeit Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt, für die Einstein 1921 den Nobelpreis für Physik erhielt. Es war eine von fünf grossen Arbeiten Einsteins in diesem Jahr annus mirabilis gewesen mit Pionierarbeiten in vier fundamentalen Bereichen. Die Arbeit zum Licht begründete die Quantentheorie mit und war ein Meilenstein für die Theorie der Photovoltaik. Die Effekte in No. 2 sind innere Photoeffekte und treten bei Halbleitern auf, etwa Silizium, Germanium oder Galliumarsenid. Die erzeugten Elektronen verlassen den Festkörper nicht. Die Änderung der Leitfähigkeit wird zur Messung von Licht verwendet – in weiterem Sinn sind dies auch digitale Kameras mit ihren-Sensoren. Die Verwandlung des Lichts für die Energieversorgung der Welt (Effekt 2 b), der photovoltaische Effekt, ist ein Gottesgeschenk (der Physik). Eine Art von photoelektrischem Effekt hatte schon 1839 Edmond Becquerel (der Entdecker der natürlichen Radioaktivität) beobachtet. Er gilt damit als Entdecker des ganzen Gebiets der photoelektrischen Effekte. Eine nahezu unglaubliche historische Episode ist, dass es bereits im Jahr 1883 die erste Photovoltaik-Anlage auf einem Dach gab (Abb. 3.2).

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     259

Ein amerikanischer Erfinder, Charles Fritts oder Karl Fritz, hatte Platten mit Selen besprüht und mit Gold beschichtet und auf ein New Yorker Flachdach montiert. Er berichtete von kontinuierlichem, konstantem und ‚kräftigem‘ Strom. Seine Zellen hatten wohl 1–2 % Wirkungsgrad für die Umwandlung von Licht- in elektrische Energie. Seine Erfindung erstaunte (z. B. den deutschen Erfinder Werner von Siemens, dem Fritts ein funktionsfähiges Panel, ein Brett, schickte), versank als Kuriosität wieder im Vergessen. Es gab ja keinerlei Vorstellung, wie es funktionierte. Es war (und ist) wie oben gesagt, ein Wunder; die Platten ändern sich nicht, sondern liefern bei Sonne Strom ohne Ende. Das Wunder hat nichts mit Chemie zu tun, es ist Physik!

Das Potenzial der Sonnenenergie ist aber schon im Bewusstsein der Menschen. Starke Worte dazu stammen zwanzig Jahre nach dem ersten PVPanel vom amerikanischen Erfinder Thomas Edison (1847–1931). In einer Runde mit dem Autoproduzenten Henry Ford und dem Reifenhersteller Harvey Firestone sagte er (nach dem Quoteinvestigator, 2019) zum Thema Energieversorgung und Zukunft: „Wir [die Menschheit] sind wie Bauern, die ihren Holzzaun ums Haus niederreissen und als Brennstoff verfeuern, während wir die unerschöpflichen Quellen der Natur verwenden sollten – die Sonne, den Wind oder die Gezeiten … Wir leben wie illegale Landbesetzer, nicht wie die Besitzer.“ In der Diskussion votierte der Autoproduzent Ford für die Ausnützung der Gezeiten zur Energiegewinnung in Zukunft, der Reifenproduzent Firestone für die Windenergie. Aber Edison antwortete mit diesen so modernen Sätzen: Ich würde mein Geld auf die Sonne und auf Sonnenenergie setzen. Was für eine Energiequelle! Ich hoffe wir können sie in den Griff bekommen, bevor uns Öl und Kohle ausgehen. Thomas Edison in einer Diskussion mit Henry Ford und Harvey Firestone, 1910.

Der Grundeffekt für die moderne Variante der Photovoltaik wurde 1940 durch Serendipity entdeckt, d. h. durch etwas Gutes finden während man nichts oder etwas anderes sucht. Es geht um Stromerzeugung durch Licht an einer Grenze zwischen zwei Bereichen eines Halbleiters mit mehr bzw. weniger Elektronen. Die Entdeckung ergab sich bei einer Halbleiterprobe

260     W. Hehl

Abb. 3.3  Das Patent auf die erste produktfähige Solarzelle, 1954 Quelle: US Patent Office/ Smithsonian Magazine, 06/2013. Die Erfinder waren sich der Bedeutung für die Zukunft bewusst!

mit einem Riss; sie zeigte überraschend starken Strom unter Licht an und führte damit zum Prinzip moderner Photovoltaik. Der Riss hatte genau die notwendige Trennung der Ladungsträger bewirkt. Die erste brauchbare produktfähige photovoltaische Zelle wurde 1953 geschaffen. Drei Ingenieure von Bell Labs wollten ein Problem von Bell Telefonen lösen, eine unabhängige Stromversorgung für Telefone auf dem Land. Die Zelle hatte 6 % Wirkungsgrad. Die Abb. 3.3 zeigt das Patent, mit dem die Photovoltaik-Technologie offiziell begann. Damit wurde auch die Photovoltaik die grosse Hoffnungsträgerin. Der US News & World Report schrieb 1954: Brennstoff ohne Grenzen. Die Streifen können mehr Energie liefern als es die Kohle, das Öl und das Uran auf der Welt kann.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     261

Die New York Times schwärmt: Die Arbeit markiert eine neue Ära, die vielleicht zur Erfüllung einer der liebsten Träume der Menschheit führt, die Ernte der nahezu grenzenlosen Energie der Sonne für die Zivilisation.

In den letzten 70 Jahren wurde die Photovoltaik (PV) von der exotischen Technologie für den Weltraum zu einer Grossindustrie und einer Commodity, einem Alltagsartikel für das Eigenheim. Die grossen Themen der Übergangszeit, vor allem der letzten zwei Jahrzehnte, waren der Wirkungsgrad der Solarzellen und die Grundwerte der Energieproduktion im Vergleich der Technologien im Wettbewerb, die EROI (der energetische Erntefaktor) und der EPBT (die energetische Amortisation). Wirkungsgrad und Grössenordnung der Anlagen Der Wirkungsgrad von Solarzellen, das Verhältnis von empfangener Lichtenergie zu abgelieferter elektrischer Energie, startete mit 1 % bei Charles Fritts 1883 und erreicht mittlerweile etwa 47 %. Hohe Werte werden mit vielen verschiedenen technischen und physikalischen Tricks erreicht, z. B. mehrfache Absorptionen, beidseitige Beschichtungen, Konzentration von Licht usw. Es gibt auch materialbedingte physikalische Grenzen des Wirkungsgrads, die sog. Schottky-Queisser-Grenze. Aber von grösserer Bedeutung als das Erreichen des höchsten Wirkungsgrads sind die Kosten der Herstellung, die Lebensdauer und die Nebeneffekte (etwa benötigte Materialien und Umweltprobleme durch die Herstellung). Im Wesentlichen sind es ähnliche Prozesse wie bei der (energie- und umweltintensiven) Herstellung von Computerchips. Computerchips wiegen etwa 1 g und haben 1–2 cm2 Fläche pro Chip. Die jährliche Weltproduktion ergibt somit eine gesamte Chipfläche von einigen Dutzend Hektaren. Bei Solarzellen für die Welt geht es ins Gigantische. Dies macht die Abb. 3.4 deutlich, die eine PV-Anlage in Indien zeigt, zum Zeitpunkt der Erstellung (2016) die grösste Anlage der Welt mit einer Leistung von 648 MWpeak und einer Anlagenfläche von 10 km2. Zur beeindruckenden Sensor-Fläche kommen entsprechend grosse Mengen an Wechselrichtern zur Umwandlung des erzeugten Gleichstroms in Wechselspannung. Das Problem alternativer Technologien sind die Schwankungen der Leistung im Betrieb. Eine Wolke über dem Gelände schaltet ein grosses Kraftwerk mit mehreren Hundert Megawatt einfach ab.

262     W. Hehl

Abb. 3.4  Eine grosse Photovoltaik-Anlage Der Solarpark Kamuthi in Indien mit 648 MWpeak. Bild: KamuthiSolarPark, Wikimedia Commons, Financial Express.

Zwei Bemerkungen dazu: • Diese Anlagen tragen eine freundliche Bezeichnung wie Solarparks. Aber es sind heisse Gross-Industrieanlagen, die grössten der Welt. Und es ist absehbar (und notwendig), dass sie noch etwa 100 Mal grösser werden und damit sogar das Mikroklima verändern können. • Als Leistung von Anlagen wird üblicherweise eine Art von Spitzenleistung der Anlage in Wattpeak angegeben, standardisiert auf einen Lichteinfall von 1000 W/m2. In unseren Breiten ergibt dies im Jahr angesammelt gerade etwa 1000 kWh pro Quadratmeter. Dies entspricht über Tag und Nacht gemittelt 1/10 der fiktiven Spitzenleistung über die ganze Zeit. In den solar besten Gebieten der Erde ist dieser Mittelwert über das Jahr mehr als doppelt so gross. Der grösste Solarpark entsteht in den Vereinigten Arabischen Emiraten bei Dubai und wird eine nahezu acht Mal grössere Spitzenleistung haben. Die Grösse dieser Projekte ist beeindruckend, aber die Beispiele sollen auch die Grösse der Aufgabe klarmachen, die auf die Menschheit zukommt. Die globale Stromproduktion 2019 waren 26 700 TWh, das entspräche typisch 20 000 der Kamuthi-Anlage in Indien mit etwa 1,35 TWh pro Jahr und damit ganz grob 200 000 km2 Anlagenfläche. Vielleicht wird man dazu Seeflächen mit schwimmenden PV-Stromfabriken bedecken!

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     263

3.2.2 EROI (Energetischer Erntefaktor) und EPBT (Energetische Amortisation) Diese beiden Grössen dienen der Einschätzung verschiedener Technologien zur Erzeugung elektrischer Energie: Der energetische Erntefaktor (Energetic Return of Investment) gibt an, wievielmal der Prozess (das Produkt) die hineingesteckte Energie zurück liefert. Bei einem Wert kleiner 1 ist der Prozess eine Energiesenke, grösser 1 eine Energiequelle. Die energetische Amortisation (Energy PayBack Time) ist die Zeitspanne, innerhalb der ein Prozess (ein Produkt) die hineingesteckte Energie zurück geliefert hat.

Numerische Werte für die verschiedenen Technologien sind problematisch, die Veröffentlichungen ein Schlachtfeld. Es gibt objektive Probleme (z. B. über die Systemgrenzen. Was für Kosten gehören zu einem Prozess? Es gibt wirtschaftliche Gründe, weltanschauliche, zufällige, um Energiequellen besonders einzuschätzen. Selbst die ungefähren Positionierungen kritischer Technologien sind nicht unwidersprochen. Die Angaben zu Kernenergie, Windenergie und Photovoltaik in den Medien unterscheiden sich bis zu einem Faktor 10! Hydroelektrik (Wasserkraft) und Gaskraftwerke haben die unbestritten höchsten Erntewerte (zweistellig oder mehr), Wasserkraftwerke, weil die Strukturen so langlebig sind, und Gaskraftwerke, weil sie günstig zu erstellen sind. Aber schon Biogas hat einen niedrigen einstelligen Faktor von nur 2 bis 4. Kernkraftwerke sind im Bau recht teuer (und ihr Bau wird nicht billiger), aber langlebig. Ihr Erntefaktor hängt dann vor allem von der Güte des verwendeten Uranerzes ab (dem Gehalt an Uran). Von grossem wirtschaftlichem und ökologischem Interesse ist der EROIWerte von Erdöl je nach der Methode der Förderung und dem Typ der Quelle. Während das nahezu selbstfliessende Öl der klassischen Quellen einen zweistelligen EROI-Wert aufweist, werden die EROI-Werte bei den modernen Methoden und der Erschliessung auch minderwertiger Lagerstätten (etwa mit Fracking) immer kleiner und kommen immer näher an 1 heran. Man braucht immer mehr Energie, um Energie zu fördern. Es wird schon aus energetischen Gründen sinnlos, solche Energie zu fördern. Eine technisierte Gesellschaft benötigt hinreichend freie Energie (im tagtäglichen

264     W. Hehl

und im physikalischen Sinn). Der amerikanische Biologe Charles Hall (geb. 1943) gilt als Vater des EROI; er sagt (Bowles 2013): Da alles, was wir machen, von Energie abhängt, kann man nicht einfach mehr und mehr [Energie für die Energie] zahlen, und die Gesellschaft läuft. Unter einem bestimmten EROI [energetischen Erntewert] – ich schätze 5:1 oder 6:1 – funktioniert es nicht mehr.

Besonders umstritten war die Photovoltaik, die vor Jahrzehnten einen EROI kleiner als 1 hatte (mehr Energie zur Produktion benötigt als im Produktleben geliefert) und eine undefinierte Amortisationszeit EPBT. Aber seitdem sind die Technologien und die Produktionsprozesse um Grössenordnungen verbessert worden, vor allem ist die Menge der benötigten energiefressenden Grundstoffe (vor allem von Silizium) reduziert worden. Die Amortisationszeiten sind nach dem Photovoltaik Report der Fraunhofer-Gesellschaft von 2020 zwischen ½ und 1 Jahr, je nach Land. Damit ergeben sich bei 25 Jahren Lebensdauer entsprechend hohe zweistellige EROI-Werte. Die Zeit arbeitet weiter für die Photovoltaik; ihre Preis-Leistungswerte werden sich weiter verbessern. Wir erwähnen noch eine weitere zukunftsträchtige Variante der Ausnützung von Solarenergie: Die Solarthermie mit Lichtbündelung oder die Concentrated Solar Power (CSP). Wir haben eine (kaum bekannte) Vorläufertechnologie schon genannt, den Sonnenofen von Isaac Newton aus dem Jahr 1704. Aber nun nicht mit 7 Spiegeln, sondern mit Farmen von eventuell Tausenden von Spiegeln, die dem Lauf der Sonne nachgeführt werden und die Energie auf eine Dampfturbine konzentrieren. Die Konstruktion der Turbine ist extremer Maschinenbau, die Arbeitstemperatur soll so hoch wie möglich, die Kondensationstemperatur so tief wie möglich sein. Ansonsten ist die Technologie konventionell, aber das Konzept hat den Vorteil, dass aus einem Wärmespeicher heraus der Generator auch ohne Licht einige Zeit lang weiterlaufen kann. Die Abb. 3.5 zeigt das spanische Solarthermie-Kraftwerk PS10 mit 11 MW elektrischer Spitzenleistung. Das Kraftwerk im Sonnenbetrieb ist ein beeindruckendes Schauspiel, schon von weitem: Der Turmkollektor strahlt wie eine zweite Sonne am fernen Horizont. Die Abbildung ist übrigens durch die Sichtbarkeit von Lichtstrahlen auch ein schönes Beispiel des Tyndall-Effekts (s. o.).

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     265

Abb. 3.5  Ein solarthermisches Kraftwerk Die Anlage PS10 bei Sevilla in Spanien. Man beachte die sichtbaren Lichtbündel (Tyndall-Effekt). Bild: PS10 solar power tower2, Wikimedia Commons, affloresm.

Wenn man nur Wärme benötigt, etwa für chemische Prozesse, sind solarthermische Anlagen vorteilhaft, für die Stromerzeugung gewinnt eher die Photovoltaik.

3.2.3 Windenergie „Wir können die Winde nicht kontrollieren. Aber wenn ein günstiger Wind kommt, dann sind wir selbst schuld, wenn wir nicht Segel setzen und ihn ausnützen.“ Aristoteles (unbestätigt) und Boston Globe, 1876, nach dem Quoteinvestigator.

Die eigentliche Referenz oder Konkurrenz zur Photovoltaik ist die Windenergie mit den eindrucksvollen Windmaschinen. Windenergie ist heute in Europa die dominante alternative Energiequelle. 2020 lieferten in Deutschland Windmaschinen 132 TWh ab, die Solarzellen etwa 50 TWh (Fraunhofer News, 4. Januar 2021). Mit der alten grünen Energie Wasserkraft und der Biomasse zusammen erreichte Deutschland Ende 2020 gerade 50 % Anteil nachhaltiger Energie (trotzdem blieb es der grösste CO2-Produzent in Europa neben Polen). Wir werden unten allerdings der Energie, die mit Holzverbrennung gewonnen wird, die Nachhaltigkeit eher absprechen. Windmaschinen sind Grosstechnik und grossartige Ingenieurs-

266     W. Hehl

Abb. 3.6  Eine vertikale Windturbine Die grösste Windturbine der Welt mit vertikaler Achse in Cap-Chat, Kanada. Bild: Eole à Cap Chat en 2010, Wikimedia Commons, ChristianT.

arbeit; üblicherweise mit der Maschine in einer Gondel bis zu 140 m Höhe über dem Boden und mit Rotoren zu 25 t je Blatt. Das sind insgesamt mehrere Hundert Tonnen Gewicht. Die Abb. 3.6 zeigt eine Konstruktion mit vertikaler Drehachse. Windturbinen, ob horizontal oder vertikal, gehen mit ihren wachsenden Dimensionen in verschiedenen Materialeigenschaften an die Grenzen (oder sind es schon). Die Rotoren entnehmen der Luft die Energie. Die Spannungen in den riesigen Flügeln (bis zu 170 m Durchmesser) gehen an die Zerreissgrenze. Dazu sind die Rotorblätter verdrehbar, um sich auf verschiedene Windstärken einzustellen. Der Turm üblicher Windturbinen muss gewaltige Kräfte und Biegemomente aushalten. Der Generator verwandelt die Drehenergie in elektrischen Strom. Die Technologie des klassischen Elektrogenerators ist ins Extreme getrieben. Hier ist die Herausforderung, dass möglichst viel elektrische Energie erzeugt werden soll, obwohl der Generator sich recht langsam dreht. Dazu werden starke Magnete verwendet, vor allem Magnete aus Neodym und anderen Seltenerd-Metallen. Mit schlechterem Wirkungsgrad liessen sich auch Generatoren ohne Magnete bauen, aber da man um Türme zu sparen an die Grenzen geht, ist dies eine nicht-nachhaltige Unschönheit der Energieform:

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     267

Wir nehmen einen Durchschnitt von 171 kg Seltenerdmetall pro MegaWatt Windkapazität an. MIT Bericht, Environmental Science&Technology, Evaluating Rare Earth Availability, 2011. Im oben erwähnten Gespräch von Edison mit Ford und Firestone im Jahr 1910 fragte Harvey nach der Windenergie, ob es auch richtige Forschung für die Ausnützung der Windenergie gebe, denn. Windmühlen haben sich in Tausend Jahren nicht geändert. (1910).

Das ist seitdem geschehen, die Windmühlen sind gigantische HighTechSysteme. Die Windenergie scheint wesentlich schwergewichtiger zu sein als die flächenhafte Photovoltaik; der Hauptvorteil der Windenergie ist, dass man sie auf der ganzen Welt einsetzen kann und dass sie insbesondere (sogar erst recht) bei schlechtem Wetter elektrische Energie liefert und damit komplementär zur Stromproduktion der Photovoltaik ist. Allerdings können die Flügel bei kaltem, feuchtem Wetter vereisen, den Generator verlangsamen und den Wirkungsgrad verringern. Der energetische Erntefaktor ist ebenfalls zweistellig, wohl aber nicht so hoch wie bei Solarzellen. Die Windmaschinen sind grosser Maschinenbau, die Solarzellen Festkörperphysik und beides mit anspruchsvoller Elektrotechnik.

3.2.4 Der Wirkungsgrad von Physik und Biologie: Warum die Pflanzen nicht maximal arbeiten Vorsicht falsch: „Pflanzen und einige Bakterienarten können bis zu 95 Prozent des Sonnenlichts in chemische Energie verwandeln. Dem stehen die vergleichsweise geringen 20 Prozent gegenüber, die heute industriell gefertigte Solarzellen verwerten können.“ Der Standard, österreichische Zeitung, 13. Juni 2013.

Wie schlecht die Photovoltaik dargestellt wird, wie gut dagegen die Natur, etwa ein Wald als Energieträger und die Pellets zur Heizung! In dieser Nachricht ist etwas vollkommen schiefgelaufen. Wahrscheinlich hat der Autor einen Teilprozess der Photosynthese für das Ganze gehalten und er war ausserdem voreingenommen: Die Natur ist gut, die Technik schlecht. Für die Stromerzeugung aus Sonnenlicht ist es (zumindest heute) umgekehrt. Wir definieren den Wirkungsgrad oder die Effizienz:

268     W. Hehl Tab. 3.1  Ungefähre Flächendichten beim Anbau von Energiepflanzen. Die Werte stammen aus dem englischen Wikipediaartikel Biomass, gezogen 2/2021. Zuckerrüben Sojabohnen Raps Mais Riesenchinaschilf

0,02 W/m2 0,06 W/m2 0,12 W/m2 0,26 W/m2 0,40 W/m2

Zuckerrohr Pappeln Palmöl Pinien, Akazien etc. Eukalyptus etc.

0,5 W/m2 0,5 W/m2 0,6 W/m2 0,3–0,9 W/m2 1,2–1,5 W/m2

Der Wirkungsgrad eines Prozesses ist das Verhältnis der gelieferten Nutzenergie zur hineingesteckten Primärenergie. Nutzenergie ist vor allem elektrische Energie, Primärenergie ist z. B. Lichtenergie (bei der Photovoltaik) oder kinetische Energie (bei der Windkraft).

Ein anderes energetisches Beispiel ist der Wirkungsgrad eines Revolvergeschosses. Die energetische Effizienz ist hier die resultierende kinetische Energie dividiert durch die chemische Energie der Explosion (ungefähr 1/3). Den Wirkungsgrad von Photozellen haben wir schon diskutiert, bis zu 40 % im Labor. In der Aussenanlage erntet man effektiv 100 bis 200 W/m2 übers Jahr, das entspricht etwa 10 oder 20 % der Energie. Unser Beispiel, die Kamuthi-Anlage, verspricht einen Gesamtfaktor von 24 %. Anders bei Pflanzen. Hier geht es zunächst nicht um Elektrizität als Nutzeffekt, sondern um die Anlage chemischer Speicher, etwa mit Stärke, Ölen oder Zellulose. Ein grosser Teil des Lichts scheidet von Anfang an aus der Photosynthese aus, weil es reflektiert wird. Ein anderer Energieanteil wird nicht von den Chloroplasten absorbiert, sondern in inneren Prozessen verbraucht oder sogar in der Respiration wieder abgebaut. Natürlich ist auch die Photosynthese ein Wunder, aber die Tabelle 4 mit einigen wichtigen Energiepflanzen ist ernüchternd. Die Tab. 3.1 listet einige Energiepflanzen auf aus den gemässigten Breiten und aus den Tropen, für gute Böden wie für magere Randgebiete. Auch hier steht Palmöl weit oben auf der Liste. Die theoretischen Bestwerte für die Effizienz der pflanzlichen Photosynthese sind 4,6 % für Pflanzen vom Typ C3 und 6 % für C4-Pflanzen (Blankenship 2011). Die geerntete Energie ist um 1–2 Ordnungen geringer als die der Photovoltaik und sie ist chemisch noch gebunden. Die Photovoltaik liefert direkt die wertvolle elektrische Energie mit der man alles machen kann: Maschinen antreiben, aber auch Computer rechnen lassen und sogar chemische Prozesse erzwingen. Dafür sind die Anbauflächen für Pflanzen um viele Grössenordnungen grösser als die technischen Solarzellenflächen. Allein Australien verfügt über 1 Million km2 Eukalyptusbestand.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     269 Tab. 3.2  Grössenordnungen des Bedarfs elektrischer Energie Die Masseinheit ist Milliarden kWh oder TeraWattStunden (TWh). Nach verschiedenen Quellen

D USA Welt

Verbrauch insgesamt ca. heute

Bedarf e-Mobilität 2050

Bedarf Raumklima 2050

500 4 000 27 000

100 600 2 000

(1) (616) 8 400

Dazu bindet die natürliche Photosynthese das CO2 als Biomasse, wenigstens für eine Zeit. Insgesamt werden immerhin 0,1 % der einfallenden Sonnenenergie durch die Pflanzen der Erde in Biomasse verwandelt. Für die zusätzliche energetische Nutzung kommen vor allem landwirtschaftlich minderwertige Böden infrage – nach der FAO, der Food and Agriculture Organization, sind dies 35 Mio. km2. Sonst besteht die Gefahr, dass Energieproduktion und Nahrungsproduktion in Wettbewerb um den Boden treten. Energiepflanzen nehmen beim Wachstum CO2 auf, das sie bei der Energiegewinnung durch Zersetzung oder Verbrennung wieder abgeben, zumindest zum Teil. Damit kann die Klimabilanz bestenfalls Null sein. Allerdings benötigt der landwirtschaftliche Anbau heute fossilen Treibstoff, der also CO2 emittiert, und Düngemittel, die Lachgas N2O absondern. Roden von (Regen-) Wald, Aufbrechen von festen Böden oder Trockenlegen von Sümpfen sind klimatische Desaster: Wird in Brasilien eine Savanne [für den Zuckerrohranbau] gerodet, ist das Bioethanol aus dem geernteten Zuckerrohr etwa 1,4-mal klimaschädlicher als Benzin auf fossiler Basis, wächst Zuckerrohr hingegen auf vorher überweidetem Grasland, sinken die Treibhausgasemissionen um die Hälfte. Uwe Fritsche, Öko-Institut im deutschen Wikipedia-Artikel Kraftstoffe, gezogen 3/2021.-

Nach dieser Quelle hat die beste biologische Energie-Klima-Bilanz die Umsetzung von Strohabfällen in Ethanol gefolgt von Palmöl, das auf bereits kultiviertem Land gewonnen wird. Eine sehr schlechte Bilanz haben Alkohol aus Zuckerrohr auf ursprünglicher Savanne und Palmöl auf ehemaligem Regenwald.

270     W. Hehl

Abb. 3.7  Absorptionsspektren von Chlorophyll a und b Überraschenderweise ist die Absorption dort am niedrigsten, wo die Sonne am meisten Energie aussendet. Bild: Chlorophyll ab spectra-en, Wikimedia commons, Daniele Pugliesi/Motty.

Zurück zum Eingangszitat mit der falschen Aussage vom hohen Wirkungsgrad der Pflanzen-Photosynthese. Es gibt nämlich einen offensichtlichen, wenn auch nur scheinbaren Nachteil. Der grossartige und so wichtige Prozess der grünen Photosynthese ist nämlich von der Natur so designed (d. h. ist in der Evolution so entstanden), dass ausgerechnet der Bereich, in dem die meiste Energie im Sonnenspektrum verfügbar ist, für die Photosynthese vermieden wird. Beide Chlorophyll-Farbstoffe absorbieren kaum im Grün-Gelben, sondern rotes und blaues Licht (Abb. 3.7), deshalb bleibt Grün übrig und die Natur ist grün.

Bis vor kurzem war es vollkommen unklar, warum diese Lücke in der Absorption an der Stelle des Sonnenmaximums besteht, oder andres gesagt: Es war (oder ist) nicht klar, warum die meisten Pflanzen grün sind. Der amerikanische Physiker Nathaniel Gabor hat im Jahr 2020 einen Versuch zur Erklärung unternommen. Nach seiner Theorie ist es für den Mechanis-

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     271

mus ein Vorteil, das Maximum der Intensität an Sonnenstrahlung zu vermeiden. Damit gewinnt die Photosynthese Stabilität bei schwankenden Lichtbedingungen (Arp 2020). Die natürliche Photosynthese ist von der Evolution aus bestehenden oder machbaren Komponenten konstruiert worden als stabiler, funktionierender Prozess für die ganze Natur. Aber mit neuer Technologie könnte man es (excusez) besser machen. Wir definieren allgemeiner: Photosynthese ist ein chemischer Prozess, der Lichtenergie in chemische Bindungsenergie verwandelt. Sonderfälle sind Prozesse, die CO2 aufspalten und Kohlenstoff dadurch fixieren (wie die natürliche Photosynthese) und Prozesse, die Wasser mit Licht in Wasserstoff und Sauerstoff zerlegen.

Der im Geschichtsteil erwähnte italienische Chemiker Giacomo Ciamician hatte die Möglichkeit einer künstlichen Photosynthese geahnt, noch ohne den Druck der globalen Erwärmung. Für künstliche grüne Photosynthese mit dem Kohlendioxid der Luft existieren bereits Laborsysteme, aber sie haben das Problem, mit dem für die Extraktion geringen CO2-Gehalt der Luft zu arbeiten. Wesentlich einfacher und dabei höchst attraktiv ist die Synthese von Treibstoff direkt aus Wasser mit Licht. Der resultierende Treibstoff ist dann Wasserstoff H2 oder Wasserstoffperoxid H2O2 und bei der Erzeugung entsteht dazu erfreulicherweise Sauerstoff. All diese Verfahren konkurrieren mit chemischen Prozessen, die anstelle von Licht direkt Solarstrom als Energielieferanten verwenden, vor allem die Power-to-Fuel-Verfahren und die E-Brennstoffe oder E-Fuels: Elektrische Energie ist die wertvollste und sauberste Energieform im Vergleich zu den physikalischen Energieformen mechanisch, thermisch (das ist versteckte mechanische Energie) und chemisch (das ist versteckte elektrische Energie). Die wertvollste, weil man so viel mit ihr machen kann, vom primitiven Ohmschen Heizen2 bis zu chemischen Prozessen. Und die sauberste, weil sie praktisch nicht an Materie oder Materietransport gebunden ist.

2 Ohmsches

Heizen bedeutet mit Strom durch einen Widerstand Wärme zu erzeugen.

272     W. Hehl

Aber diese Grossartigkeit wird sich erst voll auswirken, wenn wir elektrische Energie im Überfluss haben! Der moderne Unternehmer Bill Gates sieht die Photosynthese im Vorteil wegen der Möglichkeit, die Energieträger als Flüssigkeiten zu erzeugen (und er zählt Wasserstoff dazu): „Wenn es funktionieren würde, das wäre magisch, denn mit einer Flüssigkeit hat man nicht das Problem von Batterien [die immer aufgeladen werden müssen]. Eine Flüssigkeit kann man einfach in einen grossen Tank füllen und verbrennen, immer wann man es braucht.“ Bill Gates im Interview mit Reuters, 2017.

Die Argumentation ist etwas einfach, aber in der Tat sind Batterien für elektrische Energie komplexer zu bauen als ein Tank, auch komplexer als ein Drucktank, und erreichen bei weitem nicht die Energiedichte von Brennstoffen. Die Energierelation, auf das gleiche Gewicht bezogen, ist.3 Li-Ionen-Batterie: Diesel/Benzin: Wasserstoff verhält sich wie 1: 47: 147.

Die Batterie-Industrie ist dabei, sich zu einer gigantischen und problematischen Grossindustrie zu entwickeln. Eine Wasserstoffindustrie ist eine einfachere Alternative. Der Wunsch von Bill Gates nach Flüssigkeiten oder leicht verflüssigbaren Gasen als Treibstoff kann im Prinzip mit den Energiequellen Licht oder Strom vielfältig erfüllt werden: mit den Gasen Wasserstoff, Methan und Ammoniak, den Alkoholen Methanol und Ethanol, mit Kohlenwasserstoffen wie Benzin und Diesel bis hin zu Pflanzenölen wie Raps- und Palmöl. Es sind viele Szenarien der Energieversorgung denkbar. Es sieht so aus, als wäre die einfachste und direkteste Methode, nämlich die Photovoltaik, am besten. Aber es geht ja nicht nur um Energieerzeugung, sondern auch um die Bereitstellung chemischer Grundstoffe für die Herstellung der Materialien, die die Welt benötigt.

3 Im System ist noch mit den Systemwirkungsgraden zu gewichten: 0,8–0,9 für die Li-Batterie, etwa 1/3 für Dieselmotoren und 0,6 für die H2-Brennstoffzelle.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     273

All diese Brenn- und Treibstoffe, dazu lebendiges Holz, sind (nahezu) klimaneutral, wenn sich der Kreis Erzeugung-Verbrauch schliesst, aber mit einem grossen Wermutstropfen. Ihr Kohlenstoff (ausser beim Ammoniak, der keinen Kohlenstoff enthält) kehrt in die Atmosphäre zurück. Es erinnert an die Photorespiration, in der die Pflanze bereits verfestigtes CO2 wieder freigibt. In der Photosynthese ist dies wahrscheinlich ein Verlust, der notwendig für die Funktion der Pflanzen selbst ist. Entsprechend erscheint das Verbrennen von Holz noch heute als wirtschaftlich, ja sogar noch als klimatisch positiv. Aber aus Sicht des Klimas sind es bedauerliche CO2Emissionen.

3.2.5 Der Übergang zur Null-KohlendioxidEnergiewirtschaft „Die Klimakrise ist doch schon gelöst. Wir haben schon die Tatsachen und die Lösungen. Alles was wir noch zu tun haben, ist aufzuwachen und [uns] zu ändern.“ Greta Thunberg, schwedische Klimaaktivistin, in einem TED Vortrag am 29. 12. 2020.

Greta hat (zum Teil) Recht: Wir verstehen vieles, aber die Lösungen sind nur auf dem Papier und nur im Kleinen da. Die Entwickler von Produkten wissen, dass es ein weiter Weg sein kann vom Demo-Objekt und Prototypen bis zum Produkt. Hier reden wir vom System der Erde. Wir reden hier auch nicht von der Lösung der Klimakrise, sondern vom Übergang zur Null-CO2-Gesellschaft oder, wie wir erläutert haben, zur Pareto-Gesellschaft mit nur noch 20 % der Klimagase und weniger. Das Wissen und der Stand der Technik sind um ein Vielfaches besser, als sie es um 1980 im meinem Gespräch mit dem Studenten X. G. waren. Die Lösungen müssten „nur“ umgesetzt werden in Infrastruktur, Industrie und Gesellschaft. Hier simplifiziert Greta: Der Zeithorizont für die Umsetzung ist mindestens ein halbes Jahrhundert – das wir nicht mehr haben. Und auch die heutigen Lösungen reichen sicher nicht aus. Greta hat mit dem Attribut nur noch untertrieben. Aber das Zitat ist selbst ein Buchtitel geworden. Wir betrachten die Photovoltaik als Hauptquelle zukünftiger Energie, weil sie im Betrieb so neutral, natürlich und skalierbar ist, vom Betrieb von Kinderspielzeug bis zu den grössten technischen Anlagen, die es je gab. Dazu hat der Autor in der Entwicklung von Produkten gelernt:

274     W. Hehl

• Bewegte Teile bedeuten Verschleiss und bringen Ärger (ein Computerspeicher ohne die rotierende Magnetplatte der Harddisk, nur mit Siliziumchips, ist besser). • Wenn eine Technologie mit dreidimensionalen Massen arbeitet, kann sie nicht gut skalieren, d. h. kleiner und effizienter werden. Die Solarzellen sind eigentlich Flächen – in manchen Technologien nur 1 μm dick (etwa bei Perowskit-Solarzellen). • Es ist ein Vorteil für das Ganze, wenn viele Untertechnologien gegeneinander in der Entwicklung konkurrieren, wie dies bei Solarzellen der Fall ist. Damit sind wir heute – je nach Land – in der ersten oder zweiten Phase der Umstellung des globalen Energiesystems: 1. Alternative Inseln (PV und Wind) mit wechselndem Energieaufkommen in einer beständigen, konservativen Energielandschaft (Kernkraft, Fossil, Wasser), die Probleme auffängt. 2. Eine Übergangszeit mit zunehmender Dominanz der alternativen Quellen. Das Netz der Verteiler muss sich den Änderungen voll anpassen. 3. Durchgehend nachhaltige Energieerzeugung. Zuverlässige Energieversorgung in der Wechselhaftigkeit ist eingebautes Prinzip. Dabei definieren wir nachhaltig: Ein Ressourcenverbrauch ist nachhaltig, wenn die Nutzung der Ressource keine spätere Generation gefährdet.

Damit wäre noch nicht der Status einer Null-CO2-Produktion der Welt insgesamt erreicht (es gibt ja noch mehr CO2-Quellen) und erst Recht noch nicht eine Lösung des Klimaproblems. Den grössten Teil des Stroms im Sinne von Pareto 80/20 nachhaltig zu erzeugen, scheint in den nächsten drei bis fünf Jahrzehnten machbar. Die Begründung dieser Aussage ist nicht der Glaube an den guten Willen der Nationen und ihrer Regierungen, sondern es ist ein positiver Tipping-Punkt der PV-Technologie. Die Kosten von nachhaltigem Strom sind einfach niedriger geworden als die von nicht-nachhaltigem fossilem Strom oder Atomstrom.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     275

a) Primärenergie

b) Elektrische Energie

Abb. 3.8  Quellen der Weltenergie. Die Verteilung auf verschiedene Träger um 2018/2019 Quelle: Englische Wikipedia, World Energy Consumption, Gezogen 02/2021. Nach BP Statistical Review of World Energy 2020 und IEA World Energy Statistics 2019.

Ein Wermutstropfen im Aufbau von immer mehr Photovoltaik ist die marktwirtschaftliche Veränderung im Strommarkt beim Übergang vom obigen Fall 1, noch wenig variabler Sonnenstrom bei überwiegend stabilem Strom, zum Versorgungssystem mit sehr viel installierter Photovoltaik in den Fällen 2 und 3. Im ersten Fall wird der Wert einer Photovoltaik-kWh bestimmt durch den klassischen hohen Strompreis der Umgebung, in den Fällen 2 und 3 bei schon viel vorhandenen Sonnenpanels mit Sonne über ganz Europa ist die kWh kaufmännisch nahezu wertlos, solange es keine günstige Speicherung gibt. Es gelten jetzt andere Systemerfordernisse. Die beiden Kreisgrafiken der Abb. 3.8 illustrieren die Grösse der Aufgabe. Es geht um den Ersatz der nicht-nachhaltigen Energie-Segmente für Kohle, Gas und Öl, und de facto auch von Nuklear, durch die neuen nachhaltigen Energien. Die Wasserkraft ist in Deutschland oder in der Schweiz nur noch beschränkt ausbaubar (Schünemann 2021). Weltweit gibt es weiteres Potenzial für die saubere Energie aus Wasserkraft – allerdings wird der Klimawandel die Wassermengen der Flüsse verändern, z. B. im Westen der USA oder in Südafrika verringern (Corley 2011).

276     W. Hehl

Eine Bemerkung zum relativen klimatischen Effekt von Kohle, Öl und Gas. Kohle ist nahezu reiner Kohlenstoff, Öl und Gas sind im Wesentlichen Ketten von Kohlenstoffatomen, an denen Wasserstoff angebunden ist. Je länger die Kette, umso geringer wird der Anteil Wasserstoff, umso dichter wird das Gas und umso schwerflüssiger das Öl. Nur der Kohlenstoff gibt Treibhausgas. Der Wasserstoff resultiert in Wasser, das wir ja i.A. nicht rechnen, weil es in das Gleichgewicht von Meer und Atmosphäre eingeht. Erdgas reduziert die CO2-Emission für die gleiche Menge elektrischer Energie gegenüber Kohle um die Hälfte – eine temporäre Verbesserung der Klimabilanz. Eine ähnlich grosse Verbesserung liesse sich erreichen, wenn alle Anlagen mit dem bestmöglichen Wirkungsgrad arbeiten würden. Diese beiden Verbesserungen sind wohl als Klimaschutzmassnahmen niedrig hängende Früchte. Die Grafiken umfassen (in 2019) • 584 ExaJoule oder 162 PetaWh an Primärenergie (das ist der ganze Energiebedarf für chemische Prozesse, Heizung, Stromerzeugung, usf.) nach der Abb. 3.8 a), • und 26,7 PetaWh an elektrischer Energie in der Abb. 3.8 b). Exa bedeutet dabei eine 1 und 18 Nullen, Peta eine 1 mit 15 Nullen. Mit den Zahlen in den Grafiken geht es im Prinzip um den nachhaltigen Ersatz von Schwarz, Ocker, Rot und Grau, also von 88 % der Primärenergie (d. h. des gesamten Energiebedarfs), und von 74 % des Strombedarfs der Welt. Für die solare Energieproduktion wählen wir zur Veranschaulichung wieder Kamuthi-Einheiten nach dem Solarpark in Abb. 3.4 mit der 10-km2Anlage und 1,35 TWh Energie pro Jahr bei installierten 648 MWp. Ein installiertes nominales GigaWatt (1 GWp) bringt etwa 2 TWh im Jahr in südlichen Breiten:4. Dann erhalten wir für die Ablösung der Primärenergie: 0,88 von 162 000 TWh oder 142 000 TWh entsprechend 105 000 Kamuthis mit 68 TWp, und für die elektrische Energieproduktion 0,74 von 26 700 TWh oder 20 000 TWh entsprechend 14 800 Kamuthis mit 9,6 TWp.

4 Kamuthi-Einheiten (für die nominale Leistung) und Anhui-Einheiten (für die Fabrik-dimensionen) sind keine offiziellen Einheiten, sondern dienen hier der Veranschaulichung.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     277

Wir haben zunächst keine Zunahme der benötigten elektrischen Energie angenommen. Selbst wenn ein grosser Teil der Anlagen verteilt sein wird auf kleine und mittelgrosse Anlagen, so sind es Werte von unfassbarer Grösse. Die belegten Flächen sind zwischen 100 000 und einer Million km2 mit niedriger Albedo, also wahrscheinlich mit höherer Aufnahme von Sonnenenergie als vorher. Dies kann zumindest das lokale Klima jeweils ändern. Aber die Gigantik geht weiter. Diese PV-Anlagen müssen in den nächsten drei Jahrzehnten kumulativ, nach und nach, produziert werden. Dazu verwenden wir Anhui-Einheiten. In Anhui in Ostchina ist für 2022 eine Gigafabrik zur Produktion von Photovoltaik-Modulen geplant, zehnmal so gross wie die heutigen grossen Werke. Sie soll schliesslich im Jahr Solarzellen im Umfang von 60 GWp produzieren, die in den nächsten Jahren jeweils 120 TWh im Jahr Energie liefern sollen. Für den Ersatz der heutigen Kraftwerke benötigt man insgesamt Anlagen mit Modulen mit 1200 Mal bzw. 160 Mal dem Jahres-Output dieser kommenden Gigafabrik. Die wirklich benötigte Solarzellen-Kapazität in 30 Jahren liegt wohl zwischen diesen Werten. Es wird grosse Bewegungen geben weg von fossilen Energien, etwa im Transportwesen, bei Heizungen und chemischen Prozessen, und hin zu elektrischer Energie. Man wird zwar viele Energiesparaktionen einleiten (solange es noch keinen Energieüberfluss gibt), aber es wird Bereiche mit weiter wachsendem Stromverbrauch geben wie die Informationstechnologien. Die Studie der deutschen Energy Watch Group mit der finnischen LUTUniversität folgert (Zimmermann, 2021): Insgesamt sollten bis Ende 2024 mindestens 107 Photovoltaik-Fabriken [vom Anhui-Typ] in Betrieb sein, damit die fossile Ära wirklich 2035 zu Ende geht. Nach heutigen Plänen wird es 2024 sieben davon geben; es bräuchte also noch weitere 100 …

Komplementär dazu eine Aussage des Unternehmers Elon Musk zum zugehörigen Speicherproblem, der Voraussetzung für umfassende Elektromobilität. In einem berühmten Gespräch mit dem Schauspieler Leonardo DiCaprio im Dokumentarfilm zum Klimawandel Before the flood (Vor der Flut) sagte Elon Musk 2016: Was wäre notwendig um die Welt nachhaltig zu machen, was für eine Art [von Batteriezelle] würde man brauchen? Man würde 100 Gigafabriken [für Batterien] brauchen.

278     W. Hehl

Es ist eine ganz andere Technologie als Photovoltaik, aber für die Elektromobilität eine weitere Bedingung, die zur Grundvoraussetzung tritt, überhaupt Energie zu haben. Werden wir 2025 die 100 Gigafabriken zur Solarzellen-Fabrikation haben? Werden wir 2025 die 100 Gigafabriken haben zur Batterieproduktion? Werden wir 2030 die 50 000 Gigasolaranlagen haben für die Energie? Die Antwort ist wohl: Not even close. Nicht näherungsweise.

3.2.6 Nachtrag: Die verflixte Kernenergie „Selbst wenn sie [die romantischen Grünen] recht hätten, was deren Gefahren angeht – und sie haben in diesem Fall unrecht – stellte die Nutzung der Kernkraft als eine sichere und verlässliche Energiequelle im Vergleich mit den realen Gefahren [der Klimaerwärmung ….] eine unbedeutende Gefährdung dar.“ James Lovelock, Wissenschaftler und Umweltaktivist, in The revenge of Gaia, 2007.

Der Autor ist schon vor 40 Jahren genau dieser Argumentation gefolgt und hat seine Studenten aufgefordert: „Demonstriert gegen Kohlekraftwerke, nicht gegen Kernkraftwerke“! Die Gefährdung durch ein explodierendes Kernkraftwerk ist ein Ereignis mit einer endlichen Wahrscheinlichkeit, die aber durch Technik und Management tief gehalten werden kann – die globale Erwärmung kommt sicher! Die Katastrophe von Tschernobyl vom 26. April 1968 machte alles zunichte. Sie entstand zwar durch ein geradezu geplantes Versagen (die Techniker hatten den Auftrag, gründliche Tests an der Grenze der Belastbarkeit zu machen). Dadurch wurde die Gefahr der verwendeten Technologie der ganzen Welt deutlich. Das Kraftwerk muss aktiv, mit externer Kraft, ausgeschaltet werden – und wenn dies nicht mehr geht, dann wird es gefährlich … Die Kernkraft und die verwandte Radioaktivität durchliefen verschiedene psychologische Stadien in der Öffentlichkeit: • Radioaktivität galt nach der Entdeckung als Wunder und Geheimnis, • dann auch als Wunderheilmittel, • nach dem 2. Weltkrieg, ab 1945 dominiert die tödliche Bedrohung durch die Atombombe,

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     279

• und ab etwa 1955 galt das Versprechen gewaltiger Energien mit der friedlichen Nutzung der Atomenergie durch Spaltung von Uranatomkernen. Den positiven Zeitgeist in den 50er Jahren des vorigen Jahrhunderts zeigt das Buch Mein Freund das Atom (Our friend the atom) mit dem Cover in Abb. 3.9. Dort heisst es im Umschlagstext: Muss das Atom wirklich nur eine tödliche Bedrohung sein…? Das Atom kann bester Freund und getreuester Diener der Menschheit sein – wenn der Mensch nur will. … wieviel Segen dem Menschen aus der gewaltigen Energie, die im Atomkern eingeschlossen ist, erwachsen kann, wenn er sie nur richtig anzuwenden versteht.

Das zweite grosse Gegenargument zur Kernenergie ist der entstehende langlebig radioaktive Abfall. Im Englischen spricht man vom NIMBY- oder Not-in-my- BackYard- (Nicht in meinem Hinterhof ) Geist– ein Problem, das psychologisch verständlich ist. Die Bewältigung des Abfallproblems ist ein negatives Beispiel für die nationale und internationale Zusammenarbeit. Anstatt einen sicheren Platz für radioaktive Abfälle pro Kontinent (oder am besten weltweit) zu suchen, sind Abfälle weit verstreut in provisorischen Lagern. Es ist kaum möglich, zentrale Orte zu finden.

Abb. 3.9  Unser Freund das Atom Walt Disney Buch zur Atomenergie mit Prof. Heinz Haber, 1958.

280     W. Hehl

Hier noch vier Argumente zur Kernenergie, die wohl kaum genannt worden sind: 1. Zugunsten: Die radioaktiven Abfälle enthalten Stoffe, die nur im Reaktor entstehen können. Diese sind ein Wert an sich, auch für künftige Generationen als Wertstoff. Ein Sonderfall und spezieller Wert ist das Beispiel des Elements Plutonium, das im Reaktor als Nebenprodukt entstehen kann – und mit dem sich Atomwaffen bauen lassen. Aber auch die übrigen Stoffe könnten (friedliche) Anwendungen finden, die heute noch nicht geahnt werden. 2. Zugunsten: Ein grosser Vorteil der Radioaktivität erwies sich psychologisch als ein Desaster. Es ist sehr einfach, selbst einzelne, atomare Zerfallsvorgänge nachzuweisen. Im Geiger-Müller-Zählrohr (für wenige 100 €) erzeugen die elektrischen Ladungen beim Zerfall im Lautsprecher ein geheimnisvolles und bedrohliches Knack-Geräusch. Aber schwache Radioaktivität mit einzelnen Zerfällen ist in der Natur und in unserer Umgebung (ja sogar in uns) weitverbreitet: Es gibt kosmische Strahlung, Felsradioaktivität durch Radon und sogar radioaktive Zerfälle im Gehäuse ihres Computers und man muss den Speicher des Computers dagegen absichern.5 3. Negativ, aber paradoxerweise auch zugunsten der Weiterverwendung: Mit der Inbetriebnahme des ersten Reaktors werden stark radioaktive Abfälle erzeugt und die Unschuld ist verloren. Man muss sich ab jetzt um die Problematik kümmern. Der Weg zurück ist schwer. 4. Negativ: Die Kernenergie ist nicht nachhaltig, da die Vorräte an spaltbaren Elementen (Thorium und Uran) auf der Erde beschränkt sind. In fernerer Zukunft sind ganz andere Anwendungen denkbar, die auch noch spaltbares Material benötigen würden. Aber die Kernenergie ist höchst effizient, dabei nützen wir nur einen winzigen Teil aus. Vergleichen wir drei 1000 MW – Kraftwerke mit ihrem Ressourcenbedarf: • So braucht ein 1000 MW Kohlekraftwerk pro Tag etwa 8 900 t Kohle oder 3,25 Mio. Tonnen im Jahr.

5 Der

Speicher wird durch einen fehlererkennenden Code geschützt.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     281

• Ein 1000  MW Kernkraftwerk benötigt etwa 74  kg Brennstoff (angereichertes Uran) pro Tag oder 27 t pro Jahr. • Das zugehörige (tropische) Sonnenkraftwerk umfasst etwa zehn Mal das Kamuthi-Solarkraftwerk der Abb. 3.4, also etwa bis zu 100 km2 Fläche. Das Kohlekraftwerk liefert Energie plus Kohlendioxid, das Kernkraftwerk Energie plus radioaktiven Abfall (plus Risiko), das Sonnenkraft liefert Energie, braucht Platz und einen Auffangspeicher oder eine Ersatzquelle für Energie für die Zeiten ohne adequate Sonneneinstrahlung. Die Geschichte von Unserem Freund, dem Atom, geht weiter: Die bisherigen Kernkraftwerke können nur einen kleinen Teil des Urans verwenden, das sich leicht spalten lässt, nämlich die Uranisotope U-235. Natürliches Uran besteht aber zu 99,3 % aus dem Uranisotop U-238 und nur zu 0,7 % aus U-235. Würde man zu fortgeschritteneren KernreaktorVerfahren übergehen, so könnte man mehr und mehr vom Energiegehalt durch Spaltung ernten, vielleicht dabei sogar sicherere Konstruktionsprinzipien verwenden. Die Effizienz wäre um zwei Grössenordnungen höher und das Verfahren würde den Grossteil des radioaktiven Abfalls selbst verbrennen. Hier einige (Primär-) Energien aus Kernspaltung von Uran: • In 1 kg natürlichem Uran sind etwa 165 MWh enthalten, wenn nur das leicht spaltbare U-235 gespalten werden kann. • In 1 kg wie üblich mit U-235 angereichertem Uran ist es typisch sieben Mal so viel, also 1150 MWh. • Wenn 1 kg natürliches Uran vollständig gespalten werden könnte, ergäbe dies etwa 23 GWh. Aus der Primärenergie Wärme kann etwa zu einem Drittel elektrische Energie werden. Zum Vergleich: Der jährliche Stromverbrauch eines Zweipersonen-Haushalts ist etwa 3 000 kWh. Damit ergibt sich die Kette der Energiedichten der verschiedenen Speichermethoden pro kg nun erweitert: Li-Ion-Batterie: Diesel: Wasserstoff: Atomreaktor (Natur-Uran) zu 1: 47: 127: 625  000.

Wenn das ganze Uran gespalten würde (was im Prinzip möglich wäre), wäre die letzte Zahl in der Kette 87 Mio.

282     W. Hehl

Abb. 3.10  Die erste thermonukleare Explosion Der Test mit Codenamen Ivy Mike am 1. November 1952. Bild: IvyMike2, Wikimedia Commons, National Nuclear Security Administration.

Die Kernphysik hat noch zwei weitere Energielieferanten in Bereitschaft. Zum einen ist es die Kernfusion, die Verschmelzung von leichten Kernen wie Wasserstoff zu Heliumkernen, und zum andern die vollständige Umwandung (Vernichtung oder Annihilation) von Masse in Energie nach der berühmten Einstein-Formel E = m x c2 (Energie ist gleich Masse mal Lichtgeschwindigkeit im Quadrat). Zur kompletten Verwandlung von Masse in Energie ist kein gangbarer industrieller Weg sichtbar, aber für die Kernfusion schon. Seit Jahrzehnten wird an der Möglichkeit der Verschmelzung der Kerne von Wasserstoff, Deuterium oder Lithium zu Helium gearbeitet. 1932 wurde die prinzipielle Möglichkeit der Fusion von Wasserstoff-, Deuterium- und Tritiumkernen vom australischen Physiker Mark Oliphant im Teilchenbeschleuniger entdeckt. 1938 gab es die ersten makroskopischen Fusionsexperimente. Die beiden amerikanischen Ingenieure Arthur Kantrowitz und Eastman Jacobs bauten den ersten magnetischen Torsionsring, um heisses Gas einzuschliessen und die Sonne nachzubauen. Ihre Vorrichtung war die ersten in einer langen Reihe immer teurer werdender Anlagen und sie waren die ersten, die scheiterten. 1952 dann die eindrucksvolle Explosion der ersten experimentellen Fusions-Bombe Ivy Mike, bei der Deuterium zu Helium verschmilzt. Die Abb. 3.10 zeigt die Magie der Energiequelle in der speziellen historischen Aufnahme.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     283

Trotz vieler Fortschritte ist eine mögliche praktische Nutzung einer Kernfusion noch Jahrzehnte entfernt. Es ist, wie der Klimatologe HansJoachim Schellnhuber sagte, eben eine atemberaubend komplexe Technologie, allerdings ohne die Gefahr einer Kernschmelze wie in Tschernobyl geschehen. Übrigens ist die Fusion kein direkter Nachbau des Sonnenfeuers. Das Feuer der Fusion von Wasserstoff in der Sonne brennt zu langsam, um auf der Erde verwendet zu werden. Auf der Erde verwendet man sozusagen astrophysikalisch vorprozessiertes Brennmaterial, die Elemente Deuterium, Tritium und Lithium, eine spezielle Fusionsreaktion ergibt sich mit Bor. Greifbarer als Fusion wären neue und weiterentwickelte Kernkrafttechnologien. Dafür fehlen die Zeit und die gesellschaftliche Akzeptanz. Allerdings gibt es gewichtige Stimmen, die die unangenehmen Nebeneffekte der Kernenergie geringer einschätzen als die bereits sichtbare gewisse Gefahr der Klimakatastrophe. Hier nochmals der Mitgründer der grünen Bewegung: „Was [die fossile Energie] ersetzt, ist, so hoffe ich, Kernenergie, aber vermutlich machen ‚sie‘ mit Erneuerbaren eine Weile herum, bis sie zur Kernenergie finden.“ John Lovelock im Interview mit dem Intelligencer, 2.10. 2019.

Dazu im gleichen Interview Aussagen, die kaum zu bestreiten sind: „Das grosse Bild ist so, dass alles so abläuft, wie von den Klimatologen vorhergesagt. Aber wie es genau weiter geht, hängt natürlich von allem Möglichen ab. Ich denke, wir können die Lebensdauer des jetzigen Zustands [des Weltklimas] mit Kernenergie verlängern. Aber wir sind an der Kante … Jeder weitere falscher Eingriff endet höchstwahrscheinlich in der Katastrophe.“ Hintergrundinformation

John Lovelock hat Recht, wir sind an der Kante, und eine Weiterführung und gar Verbesserung der Kernspaltungs-Technologien hätte uns eine oder zwei Dekaden wertvolle Zeit und die Energie gegeben, um unsere Energieinfrastruktur umzustellen. Die Umstellung benötigt eine gewaltige Energieinvestition. Aber dies ist heute vor allem in Deutschland und in der Schweiz unvorstellbar, es ist zu spät. Wir sind ausgestiegen, und dies ausgerechnet auf Druck der Umweltbewegung, allerdings nicht einer Klimaschutzbewegung. Als Nachtrag ist zu sagen, dass die Kernenergie global gesehen weiter im ungefähr gleichen Massstab verwendet wird (Nuklearforum Schweiz, 2020). In den USA steht Nuklearenergie 2020 an zweiter Stelle als Energielieferant für

284     W. Hehl

die Stromerzeugung, nach dem fossilen Erdgas und vor der fossilen Kohle. Im Januar 2021 arbeiteten 442 nicht-militärische Kernreaktoren auf der Welt mit der elektrischen Gesamtleistung von 392 GigaWatt, es sind 53 Kernreaktoren im Bau und weitere 98 Reaktoren sind geplant. Vermutlich sind viele Reaktoren darunter in Umgebungen, die nicht so stabil sind wie Mitteleuropa. Aus globaler Sicht bringt der mitteleuropäische Verzicht keine Verbesserung, weder an Sicherheit noch an positiver Wirkung für das Klima. Man kann höchstens argumentieren, dass dadurch eine grössere Akzeptanz in der Bevölkerung für teure, im Prinzip aber nachhaltige Umstrukturierungen erreicht wurde.

3.3 Die Dekarbonisierung der Infrastruktur „Unser Ziel ist es, die Art fundamental zu ändern, wie die Welt mit Energie umgeht.“ Elon Musk, amerikanischer Unternehmer, zu Michael Bloomberg, amerikanischer Unternehmer.

Diesen Wunsch hatte schon jemand früher, der Erfinder und Physiker Nicols Tesla (1856–1943). Tesla wollte die Energie drahtlos vertreiben und hatte dazu auf der Insel Long Island einen experimentellen Turm gebaut, auf dem ein Sender die Energie weltweit verteilen sollte. Heute wissen wir – es hätte nicht funktioniert. Tesla ging das Geld aus, das Bauwerk verfiel und der Turm, eine Kuriosität der Wissenschaftsgeschichte, wurde 1917 leider gesprengt. Heute geht es einerseits um die Infrastruktur der nachhaltigen Energieerzeugung, die wir eben besprochen haben, aber andrerseits auch um den nachhaltigen Verbrauch. Die Problematik betrifft das Transportwesen, die Wärmeerzeugung (Heizung) vor allem in gemässigten Breiten und die Kälteerzeugung (das Air Conditioning) in tropischen und subtropischen Gebieten. Kälteerzeugung und Wärmeerzeugung mit Wärmepumpen sind beide elektrisch und arbeiten weitgehend nach dem gleichen Prinzip6. Im obigen Interview geht es Elon Musk vor allem ergänzend zur photovoltaischen Stromerzeugung um eine umfassende Speichertechnologie für elektrische Energie, die die Schwankungen im Stromnetz puffern kann mit wechselnder Erzeugung und wechselndem Verbrauch von Minute zu Minute. Insbesondere benötigen auch mobile Systeme ohne eine leitende 6 Für die Kühlung können auch einfachere Systeme eingesetzt werden, z. B. Anlagen, die mit Verdunstungskälte arbeiten (adiabatische Kühlung).

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     285

Verbindung, also vor allem Elektrofahrzeuge, einen Energiespeicher mit möglichst hohem kWh/kg-Wert. Drahtlose Energieübertragung ist (oder wäre) möglich; es existieren dazu zwei Prinzipien: 1. Über geringe Entfernungen kann durch elektromagnetische Wechselwirkung Energie direkt (induktiv) übertragen werden. Beispiel ist die Ladestation für die elektrische Zahnbürste. Auch für Elektroautos ist eine drahtlose Kopplung möglich, mit einer Spule (und Leistungselektronik), die in die Fahrbahn unter dem stehenden Auto eingebaut sind. Leider gibt es hohe Energieverluste in der Form von Wärme. 2. Über grosse Entfernungen kann Energie gezielt übertragen werden, z. B. über einen gerichteten Licht oder Radiowellenstrahl (Laser- oder Maser), in Luft auch durch ein Bündel Ultraschall. Es gibt Überlegungen, so Energie aus dem Weltall auf die Erde zu übertragen.

3.3.1 Die Elektromobilität kommt beinahe von selbst Die Autobauer indes brauchen eine solche Schützenhilfe nicht. Der Trend weg vom Verbrenner, hin zum E-Fahrzeug ist unumkehrbar, selbst eine geringere Förderung würde nicht zum Strömungsabriss bei den Verkaufszahlen führen. Handelsblatt 8.11. 2020.

Der Artikel hat Recht. Die elektrische Motorentechnik ist viel einfacher als die von Verbrennungsmotoren. Die funktionierenden Vorgänge im Explosionsmotor sind Wunder der Ingenieurskunst in der beherrschten analogen Komplexität: die Vergasung und die Einspritzung, die kontrollierte Verbrennung, das Getriebe zur Anpassung der Drehzahl, die weitgehend saubere Verbrennung. Ein Motor hält in seinem Leben mehreren 100 Mio. Explosionen stand. Das soll nicht sagen, dass die ausgefeilten neuen Elektroautomotoren keine fortgeschrittene Technik wären. Aber ihr Vorteil ist, dass sie keine chemische Verbrennung beherrschen müssen, sondern mit elektromagnetischen Feldern arbeiten. Der Ursprung ist die Physik des Elektromagnetismus und am Anfang steht der Physiker Michael Faraday, der 1821 zeigte, wie man rotierende Magnetfelder erzeugen kann – aber es war nur eine physikalische PrinzipDemonstration. Die weitere Geschichte des Motors wird in verschiedenen Ländern noch heute verschieden erzählt. In Ungarn wird der ungarische Physiker und Benediktiner Ányos Jedlik (1800–1895) als Erfinder betrachtet. Er hat die Grundelemente zusammengebracht: Stator, Rotator

286     W. Hehl

und Commutator und vor allem Spulen zur Verstärkung des Magnetfelds. Allerdings hat er erst Jahrzehnte später publiziert. Der erste praxistaugliche Motor entsteht in Russland durch den deutsch-russischen Ingenieur Moritz Jacobi, der damit 1838 ein Boot antrieb – mit bis zu einem Kilowatt Leistung. Elektromotoren mit bester Leistung verwenden heute Permanentmagnete, um Elektroautos die grösstmögliche Reichweite zu geben. Höchste Leistung erbringen Magnete mit Seltenerdmetallen, etwa Samarium-Kobalt-oder Neodym-Legierungen, mit einem Verbrauch von etwa 5 kg Material pro Fahrzeug. Dies generiert das erste Umweltproblem bei der Herstellung von Elektroautos: Der Abbau von Seltenen Erden ist so schlimm wie es nur für die Umwelt sein kann. Wikipediaartikel Permanent Magnet Motor.

Allerdings gibt es auch preiswertere, schwächere Magnete wie Ferrite oder gar Elektromotoren ohne Permanentmagnete (Induktionsmotoren) mit passablen Leistungswerten. Andrerseits werden Seltenerd-Magnete auch bei vielen anderen Anwendungen weiter verwendet werden, auch innerhalb von Fahrzeugen, ob elektrisch oder anders angetrieben, von Klimaanlagen bis zu Lautsprechern. Das grosse Problem (oder die Herausforderung) ist die Batterie. Das Batterieproblem ist schuld, dass sich überhaupt geschichtlich die Verbrennungsmotoren dominant entwickeln konnten. Hier eine gute historische Analyse aus dem Jahr 1900: Als Motorfahrzeuge, welche ihre Energie zur Fortbewegung mit sich führen, machen sich zur Zeit drei Gattungen bemerkenswert, nämlich: durch Dampf bewegte Fahrzeuge, durch Oelmotoren bewegte Fahrzeuge und durch Elektrizität bewegte Fahrzeuge. Die erste Gattung dürfte voraussichtlich in Zukunft hauptsächlich für Wagen auf Schienen und schwere Straßen-Fahrzeuge in Betracht kommen, während das große Gebiet des weiten Landes von Oelmotorfahrzeugen durcheilt werden und die glatte Asphaltfläche der großen Städte wie auch die Straßenschiene von mit Sammlerelektrizität getriebenen Wagen belebt sein wird. Adolf Klose bei der Gründungsversammlung des Mitteleuropäischen Motorwagen-Vereins; Berlin, 30. September 1897.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     287

Nach Wikipedia waren um 1900 40 % der Autos in den USA dampfbetrieben, 38 % elektrisch und nur 22 % mit Benzin. Doch gerade elektrische Erfindungen brachten das Aus für das historische Elektroauto: der elektrische Anlasser und die elektrische Zündung. Dazu kam billiges Öl durch die entstehenden Grosskonzerne wie Standard Oil und Shell. Das Elektroauto blieb nur, wo elektrische Leitungen die Energie brachten wie bei Oberleitungs-Bussen, oder in Nischen wie Kleinfahrzeugen in Fabriken und Lagern. Die wichtigste Leistungsgrösse der Batterie ist die spezifische Energie, die gespeicherte elektrische Energie pro kg. Die bevorzugte Bezeichnung für die wieder aufladbare Batterie ist Akkumulator, der Sammler. Es sind physikalisch-chemische Produkte, bei denen eine elektrolytische chemische Reaktion in beide Richtungen laufen kann, hin und zurück. Der klassische Akku ist der Blei-Schwefelsäure-Akku, den der luxemburgische Ingenieur Henri Tudor praxistauglich machte und damit Strom von eine Wassermühle speicherte und damit sein Schloss Tudor-Rosport beleuchtete. Typische Werte für spezifische Energien sind, am unteren Ende, für BleiSchwefelsäure-Akkus 30–40 Wh/kg, und am oberen Ende Lithium-Ionen-Akkus mit 150 bis 265 Wh/kg. Die theoretische Obergrenze der Lithiumbatterie ist 406 Wh/kg.

Dazu kommen verschiedene Eigenschaften, last not least die Kosten. Hier interessiert die Umwelteinschätzung. Bleibatterien sind zwar giftig, aber sie werden zu 95 % recycelt und sind sehr zuverlässig. Selbst moderne Elektroautos haben zur Sicherheit einen Bleiakku, etwa wenn das grosse Batteriesystem abgeschaltet werden muss. Lithium-Ionen-Batterien sind aus Umweltsicht relativ grün (Armand und Tarascon 2008): Mit einem beschränkt verfügbarem Element (Kobalt), [möglicher] grüner Ersatz Mangan und Eisen, das wäre häufig und nachhaltig. Die LithiumChemie ist relativ grün, das Element Lithium ist häufig, aber die Chemie ist verbesserungsfähig.

Die Batterie ist recyclebar, aber mit zusätzlichen Energiekosten. Solange der Akku nicht selbst mit nachhaltiger Energie hergestellt wird, ist die CO2Bilanz nur relativ gut. Ein heutiger Wert ist etwa 60–100 kg CO2-Äquivalente pro kWh Batterie (Emilsson und Dahllöf, 2019). Der obere Wert

288     W. Hehl

Abb. 3.11  Der Salar von Uyuni in Bolivien Die Salzmischung enthält neben normalem Natriumsalz auch Kalium, Magnesium und Lithium. Bild: Salar Uyuni au01, Wikimedia Commons, Anouchka Unel.

entspricht schmutzigem Strom, der untere Wert wird bei nachhaltigem Strom in der Produktion erreicht. Das grosse, zweite Umweltproblem der Elektroautos ist der bisher nicht nachhaltige Rohstoff Lithium. Lithium als Element ist für Batterien durch seine Position im periodischen System der Elemente als leichtestes Alkalimetall einzigartig. Die nächste Generation von Batterien, die Feststoffakkus, werden noch mehr Lithium enthalten. In einem Interview 2009 sagte der chilenische Chemiker Guillermo Gonzalez angesichts der Verwüstung durch den Lithium-Abbau im LithiumDreieck der Länder Argentinien, Bolivien und Chile: „Dies ist keine grüne Lösung, es ist überhaupt keine Lösung“.

Die Lithium-Förderung kann die Landschaft zerstören und verbraucht viel Wasser – die Fundgebiete in diesen Ländern sind mit die trockensten der Welt! Die Gewinnung erfolgt entweder im Tagebau mit km2-grossen Erdtrichtern oder aus der Salzlösung von Salzseen. Eines der grössten Vorkommen auf der Welt ist der Salzsee von Uyuni in Bolivien (Abb. 3.11). Die Verwendung von Lithium ist heute nicht nachhaltig. Dazu kommt eine zukünftige wichtige Lithiumanwendung für die Kernfusion – und die Kernfusion funktioniert nur mit Wasserstoff (Deuterium und Tritium) und Lithium. Als Kuriosität sei hier vermerkt, dass Lithiumsalze eine psychopharmazeutische Wirkung haben und gegen schwere Depressionen ver-

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     289

ordnet werden; ein über hundert Jahre altes Lithium-Medikament (Togal) soll gegen Migräne helfen. Eine ernstere Beobachtung ist, dass Lithiumbatterien durch interne Bildung von spitzen Kristallen (Dendriten) zu Kurzschlüssen oder sogar zu Bränden zu neigen. Ein Elektroauto verwendet in der Batterie rund 10 kg Lithium, bei Tesla beispielsweise enthält ein 100 kWh-Akku etwa 17 kg bei einem Gesamtgewicht der Batterie von knapp einer halben Tonne. Damit reicht die Weltproduktion von 82 000 t im Jahr 2020 für etwa 8 Mio. Elektroautos. Zum Vergleich: Es gibt zur Zeit 1,4 Mrd. Autos, davon 1 Mrd. Personenwagen (und 8 Mio. Elektroautos). Die Produktion von Autos steigt dazu weltweit, auch noch bei den Verbrennern. Noch weitere wertvolle Metalle machen das Batteriesystem zu einem schwergewichtigen Konzentrat an nichtnachhaltigen Ressourcen aus aller Welt: Kupfer, Nickel, Kobalt und Mangan. Damit haben Elektroautos in dieser Technologie ein Wachstumsproblem. Elektroautos sind im Begriff, die Welt zu übernehmen, aber nicht mit Lithium aus dem Bergbau. Man benötigt andere Lithiumquellen oder den Ersatz des Lithiums durch ein nachhaltigeres Metall oder den Ersatz des Prinzips der chemischen, elektrolytischen Batterie durch etwas anderes. All diese drei Möglichkeiten sind angedacht: • Eine andere Lithiumquelle gibt es, das Meer. Es enthält etwa 180 Mrd. Tonnen Lithium. Zum Vergleich: Der Ozean enthält etwa 20 Mio. Tonnen Gold. Das Problem der Gewinnung aus dem Meer ist beim Lithium wie beim Gold die ungeheure Verdünnung. Lithium, das dem Natrium und damit dem Kochsalz nahesteht, ist allerdings gar nicht so selten. Das wäre nahezu nachhaltig. • Andere chemische Batterievarianten sind in den Labors, etwa Magnesium-Schwefel oder Aluminium-Ionen oder die Protonbatterie. Magnesium, Schwefel und Aluminium sind häufiger als Lithium. Lithium ist einwertig, Aluminium dreiwertig und liefert damit drei Elektronen pro Reaktion, Lithium nur ein Elektron. Die potenzielle Aluminiumenergiedichte ist dadurch sogar höher, nämlich 1060 kW/ kg. Die alternative Protonenbatterie ist eine organische Lösung ohne Mineralien. • Rein physikalische Batterien (allerdings mit viel Chemie) in der Form von Superkondensatoren. Es ist das Kondensatorprinzip ins Extreme getrieben (vgl. die alten Elektrolyt-Kondensatoren). Die Energiespeicherung findet im elektrischen Feld des Kondensators statt. Es gibt bereits Fahrzeuge, die mit Superkondensatoren arbeiten. Das ist nachhaltig.

290     W. Hehl

Der elektrische Antrieb ist zwar einfacher als der Verbrenner, so ist auch die Wartung wesentlich einfacher oder gar nicht nötig. Es gibt aber im Betrieb einen Bereich, in dem Verbrennungsmotoren einfach und effektiv sind: das Tanken im Vergleich zum Laden der grossen Batterie. Rein kalorisch hat z. B. Dieseltreibstoff die energetische Dichte 12 kWh/kg, etwa fünfzigmal so gross wie die der heutigen Lithiumbatterie – aber auf die Strasse kommen davon nur ca. 40 % im Vergleich zu etwa 80 % bei Batterieautos (mit Verlusten bei der Übertragung, in der Batterie, beim Laden und Entladen und in der Krafterzeugung). Allerdings sind die 20 % Verlust an elektrischer Energie als Energieverlust auch schmerzhaft, vor allem wenn der Strom konventionell mit fossiler Energie erzeugt wird7. Mit den Pumpleistungen der Tanksäulen (Abb. 3.12) für fossilen Treibstoff von 35 l pro Minute für Personenwagen, 130 l pro Minute für LKWs und dem Diesel-Brennwert von 38,6 MegaJoule/l8 ergibt eine einfache Rechnung: Beim Tanken erhält man Energieströme durch den Tankschlauch von beim PKW 22,5 MJ/sec oder 22,5 MegaWatt (MW), beim LKW 83,6 MegaWatt.

Bei einer Spannung von 220 V entspräche dies riesigen Strömen von 102 000 bzw. 380 000 Ampère. Zusammen mit der Einfachheit des Aufbewahrens dieser Energien im Tank (s. o. Bill Gates) ist dieser Aspekt unschlagbar. Eine Tanksäule ist ein mittelgrosses Kraftwerk. Umgekehrt benötigt Elektromobilität eine technisch ausgeklügelte Ladeinfrastruktur, um erträgliche Ladezeiten zu erhalten. Durch die Elektromobilität wird ein neuer Bedarf an elektrischer Energie unvermeidlich. Ein Elektroauto braucht etwa 0,2 kWh pro gefahrenem Kilometer. Bei etwa 10 000 im Jahr gefahrenen Kilometern benötigen 50 Mio. E-Autos9 etwa 100 Mrd. kWh, die Milliarde Autos weltweit würden also etwa 2 000 Mrd. kWh benötigen. Diese Zahlen sind zu vergleichen mit dem gegenwärtigen Gesamtverbrauch z. B. in Deutschland und in der Welt: 550 Mrd. kWh in Deutschland, 22 300 Mrd. kWh in der Welt. Es geht also um eine Erhöhung des Energiebedarfs von 10–20 %. 7  Die Verluste an reiner elektrischer Energie sind typisch dreimal höher zu bewerten als die an thermischer Energie, von der effektiv nur etwa 1/3 zu elektrischer Energie werden kann. 8 Der Energieinhalt von Diesel pro kg ist 45 MJ entsprechend 12,5 kWh. 9 In Deutschland hat es etwa 48 Mio. Autos, in der Welt etwa 1 Mrd..

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     291

Abb. 3.12  Eine klassische Benzinpumpe Das energiereiche Tanken und ein simpler Energiebehälter sind Stärken der fossilen Fahrzeuge. Bild: Alte Zapfsäulen 1X7A7980, Wikimedia Commons, Alexander Migl (Ausschnitt).

Allerdings sind insgesamt grosse Änderungen in der Struktur der Mobilität zu erwarten, auch und vor allem durch selbstfahrende Autos. Es wird Robotaxis geben, die rund um die Uhr fahren, und selbstparkende Autos, die den Stadtparkplatz nicht brauchen, weil sie selbsttätig vor die Stadt zum Parken fahren. Dazu kommen tankbasierende Antriebe, z. B. mit Wasserstoff oder künstlich geschaffenen Kohlenwasserstoffen (aus dem CO2 der Luft) mit neutraler Energiebilanz, vor allem für den Luftverkehr. Der Wasserstoffantrieb zeichnet sich schon heute ab als Technologie für grosse Fahrzeuge wie Lastwagen und Busse. Wasserstoff (H2) ist wohl die einfachste und sauberste chemische Substanz, perfekt integrierbar in die Natur. Er kann mit Strom aus Wasser hergestellt werden und wird mit Sauerstoff wieder zu Wasser. Der hohe Energieverbrauch für diesen Prozess (und die hohen Verluste) scheinen heute zugunsten der Batterietechnologie zu sprechen, aber dies ist zu kurzsichtig gedacht. Reale elektrische Energie hat ganz verschiedenen Wert, je nach dem Blickwinkel und dem Kontext:

292     W. Hehl

• Physikalisch: fest in kWh oder einem entsprechendem Mass, • Wirtschaftlich: variabel in €/kWh nach Angebot und Nachfrage. Bei Wetterlagen, die grossräumig Sonnenschein bringen (und dazu noch Wind), gibt es elektrische Energie im Überfluss und es sinkt der wirtschaftliche Wert, ja er kann sogar negativ werden. Dann sind die Produktion von Wasserstoff, der Transport und die Lagerung in Tanks unter hohem Druck, eine einfache und preiswerte Methode, die physikalische Energie zu speichern. Die Kosten für eine Batterie wachsen etwa mit dem Volumen der Anlage an, also der dritten Potenz der Grösse, die Kosten für einen Tank nur mit dem Quadrat (also der Fläche). Damit arbeitet die Zeit für Wasserstoff: Einerseits wird die Massenproduktion für effiziente Lithium-Ionen-Batterien durch wachsende Rohstoffknappheit schwieriger, andrerseits werden die Schwankungen der alternativen Energiequellen mit deren Ausbau immer grösser. Wasserstofftechnologien, sei es als Brennstoffzelle (die wieder Strom produziert), oder im angepassten Verbrennungsmotor werden immer vorteilhafter. Wenn Lithium zu teuer würde und keine nachhaltigere Batterietechnologie gefunden würde, dann könnte der nachhaltig erzeugte Wasserstoff der Hauptenergieträger werden. Im Rennen der Technologien zwischen Batterien oder Wasserstoff als Energieträger hat der Unternehmer Elon Musk den Batterieautos einen grossen Vorsprung gegeben, aber der Wunsch nach mehr Nachhaltigkeit und nach Skalierbarkeit in die ganz grosse Anzahl von Fahrzeugen könnte den Wasserstofftechnologien doch noch zum Erfolg verhelfen.

Der Übergang zur Elektromobilität braucht viele Innovationen. Aber in wenigen Jahrzehnten werden sich unsere wunderbaren, ausgefeilten Verbrennungs-Maschinen mit Kohlenwasserstoffen so romantisch anfühlen wie heutige Oldtimer, nämlich aus einer anderen Welt. Elon Musk, innovativer Unternehmer, sagte 2018 in einem Tweet: Der erste Schritt ist zu zeigen, dass etwas möglich ist; dann kommt das Wahrscheinliche. Und der englische Autojournalist Chris Harris prophezeite 2016 in einem BBC Interview: „Porsche ist die letzte Bastion von Autos für Benzinfanatiker. Wenn die anfangen, Elektroautos zu bauen, dann sehen Sie, dass sich die Welt wirklich ändert.“

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     293

Am 4. September 2019 wurde der erste voll batterieelektrische Porsche Taycan vorgestellt. Pikanterweise gab es einen allerersten Elektro-Porsche schon im Jahr 1900, sogar mit Allradantrieb, in der ersten Welle der Elektromobilität vor 120 Jahren.

3.3.2 Das Problem des Heizens und vor allem des Kühlens (HVAC) HVAC (Heating, Ventilation and Air Conditioning) ist im umfassenden Sinn ein System, das eine bestimmte Luftqualität erzeugt und aufrecht hält: Temperatur, Luftfeuchtigkeit, Reinheit und CO2-Gehalt. Die Raumluftkühlung ist die minimale Funktion.

Dem Heizen und Kühlen ist gemeinsam, dass Wärme gegen die natürliche Richtung des Wärmestroms transportiert werden muss. Aus mittel- und nordeuropäischer Sicht war das Raumklimaproblem bisher vor allem das Problem des Heizens; die amerikanische Journalistin Marsha Mercer schreibt 2019: Nur etwa 5 % der europäischen Haushalte haben Klimatisierung, im Vergleich zu 90 % der amerikanischen, nach einem Bericht der Internationalen Energiebehörde.

Heizwärme und Wärmepumpen Für Länder abseits der Tropen und Subtropen ist Heizen das grosse, traditionelle Problem, genauer das Heizen mit fossilen Brennstoffen und mit CO2- und Aerosolerzeugung. Heizen mit Erd- oder Biogas ist etwas klimafreundlicher – da es prozentual mehr Wasserstoff enthält als Öl: Je schwerflüssiger ein Kohlenwasserstoff ist, umso mehr Kohlenstoff enthält er bis schliesslich reiner Kohlenstoff entsteht – am andern Ende der Skala ist reiner Wasserstoff. Dazwischen gibt es Hunderte von Verbindungen aus Kohlenstoff und Wasserstoff. Die einfachste und CO2-freie Heizung ist die sog. Ohmsche Heizung. Jeder elektrische Widerstand, der von Strom durchflossen wird, ergibt Wärme, auch Joulesche Wärme genannt. Der Wirkungsgrad der Umwandlung von elektrischer Energie in Wärme sind wunderbare 100 % – aber wenn der Strom für den Heizwiderstand im fossilen Kraft-

294     W. Hehl

werk erzeugt wird, so ist der echte Wirkungsgrad nur 35–45 % und es gibt Kohlendioxid-Emissionen. Aber es gibt eine energetisch (meistens) viel bessere Lösung fürs Heizen, die Wärmepumpe. Die Wärmepumpe bringt durch einen physikalischchemischen Trick durch mechanische Arbeit (und die mit elektrischer Energie) eine Wärmemenge von einer niedrigen Temperatur auf eine höhere. Der Trick kann eine Temperaturerhöhung sein durch Kompression eines Gases, das dabei in eine Flüssigkeit übergeht. Das verwendete Gas hier ist eines aus der oben besprochenen Liste von Kältemitteln, früher ein Chlorfluorkohlenwasserstoff, heute einfach Kohlendioxid CO2, Isobutan (CH3)3CH oder Dimethyloxid H3C O CH3. Dies ergibt die. Wärmepumpe: Die entstehende Wärme heizt innen und wird von aussen geholt.

Beim Kühlschrank ist es genau umgekehrt. Die Wärmepumpe pumpt umso besser, je geringer die Temperaturdifferenz ist, i.A. ergibt etwa ein Teil elektrischer Energie die drei bis fünffache Menge an Wärmeenergie. Wird der Strom aus fossilen Stoffen erzeugt und damit Wärme über eine Wärmepumpe gewonnen, so ist dies energetisch ungefähr gleichwertig der direkten Wärmeerzeugung durch Verbrennen von Bio- oder Erdgas (der Wirkungsgrad von Gas in Bezug auf Verbrennung ist etwa 100 %10) – aber natürlich mit drei Mal mehr erzeugtem klimaschädlichem CO2. Mit nachhaltigem Strom betrieben haben Wärmepumpen vor allem den Vorteil, CO2-neutral zu sein; dies entspricht den Batterieautos. Dazu eine Überschlagsrechnung für den kommenden Mehrbedarf an elektrischer Energie nur für Deutschland. Nach einer Regel des Heizungsbaus benötigt ein Einfamilienhaus in Deutschland etwa 33 000 kWh thermische Energie im Jahr und es gab 2019 etwa 4,8 Mio. Ölheizungen und 7 Mio. Gasheizungen (bdew, 2020). Nimmt man den Übergang der Heizungen zur Nachhaltigkeit an mit benötigten sparsamen 10 000 kWh pro Jahr und Heizung, so sind dies in Deutschland etwa 120 Mrd. TWh Mehrverbrauch, ähnlich dem Zusatzaufwand für Elektromobilität. Dazu kommt allerdings noch ein gleich grosser Bedarf an Prozesswärme für die chemischen Reaktionen in der Industrie. 10 Rechnerisch kurioserweise sogar grösser als 100 %, wenn die Kondensationswärme des entstehenden Wassers hinzugerechnet wird.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     295

Kühlung und HVACs Die Klimaanlage, die grösste je gemachte Erfindung BBC News, 2017. Frage: Hat irgendetwas neben der multikulturellen Toleranz den Erfolg von Singapur ermöglicht? Antwort: Die Klimaanlage, air conditioning, das war für uns die wichtigste Erfindung, vielleicht eine Schlüsselerfindung der Geschichte. Sie hat die Natur der Zivilisation verändert und die Entwicklung der tropischen Länder ermöglicht. Interview mit Lee Kuan Yew, 1923–2015, dem Gründer des modernen Singapur, in 2009.

Die zuverlässige künstliche Kühlung begann im Jahr 1848 mit dem Patent einer Eismaschine vom amerikanischen Arzt John Gorrie. Seine Motive waren altruistisch. Er war der Ansicht, kühle Luft wäre die beste Medizin gegen tropische Krankheiten wie Gelbfieber und vor allem Malaria. Aber sein trauriges Schicksal ist grossartige, typische Industriegeschichte. Der Transport von Eis von Seen aus dem nordamerikanischen und kanadischen Winter in den südlichen Sommer war damals eine florierende Industrie. Die Lobbyarbeit dieser Eisindustrie machte seine Erfindung als unzuverlässig lächerlich und die künstliche kalte Luft wurde nicht als gesund, sondern als schädlich propagiert. Bemerkenswert ist seine Anmerkung zum Antrieb der Eismaschine: Der Kompressor kann durch Pferde, Wasser, windgetriebene Segel oder Dampfkraft angetrieben werden.

Bis auf den Dampf (und dessen Feuer) war alles nachhaltig! Die Erfindung der heutigen Klimaanlage geht auf den amerikanischen Ingenieur Willis Carrier zurück, der 1902 eine einfache Kühlvorrichtung für die Luft in einer Druckerei baute, wo die hohe Luftfeuchtigkeit das Papier wellte und die Drucke verdarb. Die New Yorker Börse war danach einer der ersten Kunden für die Anlage zur Behandlung von Luft. Aber es gab die Auffassung, dass es gegen den Willen Gottes war, die Umwelt kontrollieren zu wollen, berichtet Peter Liebhold, Historiker am Smithsonian Museum (Shah, 2019).

296     W. Hehl

Das ist ein Gedanke, der unsere ganze Umwelt anbelangt. Die Menschheit ist Schritt für Schritt in die Problematik gegen den Willen Gottes geglitten. Aber es scheint nicht sinnvoll zu sein, auf Abkühlung in heissem Klima zu verzichten, während man in kalten Gegenden genauso künstlich heizen darf! Den Durchbruch hatten die Klimaanlagen in USA zur Kühlung von Kinotheatern. Das von Carrier gegründete Unternehmen floriert heute noch als Carrier Global Corporation. Eine Renommierinstallation war die Klimaanlage für die Sixtinische Kapelle im Vatikan. Ohne Air Conditioning könnte man in den tropischen und subtropischen Ländern nur in den frühen Morgenstunden arbeiten. Für viele Regionen, auch in USA und Europa, sind schon jetzt Klimaanlagen die Voraussetzung für das Funktionieren einer normalen westlichen Lebens- und Arbeitswelt und letztlich für die Bewohnbarkeit. So gibt es heute bereits etwa 1,6 Mrd. Geräte für das Raumklima. Aber das Problem wird mit der globalen Erwärmung ernster, es geht nicht nur um das Wohlbefinden, sondern um das Überleben. Wenn es heiss und feucht wird, verdunstet der Schweiss auf der Haut nicht mehr und der Kühlmechanismus des Menschen versagt. Es ist die Verdunstung, die kühlt. Die Kühlung hört effektiv etwa bei 35°C Aussentemperatur und wassergesättigter Luft auf (Sherwood, 2010): „Nach wenigen Stunden [an oder jenseits dieser Kühlgrenze] stirbt man den Hitzetod, selbst wenn man nackt, im Schatten, tropfnass und vor einem grossen Ventilator stehen würde“. Steven Sherwood, australischer Klimatologe, 2010.

Bisher war dies erst bei wenigen Hitzewellen der Fall, etwa am Persischen Golf, in Indien oder in Pakistan. Durch die Klimaveränderung werden Klimaanlagen für weitere Gebiete der Welt lebensnotwendig. Dazu gehören auch der Osten der USA sowie von China (der Westen dieser Länder wird von Hitze und Trockenheit bedroht). Anders gesagt, ohne Technik werden weitere Gebiete der Erde ohne Technik unbewohnbar werden. Zur Kühlung, zum widernatürlichen Fluss von Wärme von Kühlem zu Wärmeren, werden drei Verfahren verwendet jeweils als Kreisprozesse: 1. Temperaturerhöhung durch Kompression eines Gases und Übergang zur Flüssigkeit. 2. Temperaturerhöhung durch Absorption von Wasser an einem Salz, 3. Temperaturerhöhung mit elektrischem Leiter oder Halbleiter.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     297

Abb. 3.13  Klimaanlagen für jeden Die Aussenmodule von Klimaanlagen in Hongkong im Jahr 2002. Bild: Aircon, Wikimedia Commons, DL5MDA/Götz. Mit freundlicher Genehmigung.

Die Wärme wird jeweils auf dem höheren Niveau nach aussen abgeführt, dadurch bleibt die Kälte im Inneren. Die verbreitetste Methode (all die Aussenboxen der Klimageräte in Abb. 3.13) ist die Methode 1, die Umkehrung der Wärmepumpe. Die Methode 2, Absorptionskühlung, wird bei grossen Kühlanlagen angewandt. Verwendet wird als Arbeitsstoff vor allem das stark wasseranziehende (hygroskopische) Salz Lithiumbromid (damit schon die dritte grosse Umweltanwendung des Elements Lithium). Absorptionskühler sind i.A. grosse Maschinen (und nicht einfach zu verstehen). Allerdings werden viele Absorptionskühler mit Verbrennung betrieben und nicht mit elektrischer Energie, so etwa Camping-Kühlschränke. Die dritte Methode verwendet den Peltier-Effekt und ist rein elektrisch. Elektronen strömen von einem Gebiet mit niedrigem Energieniveau zu höherem und kühlen dabei ihre Umgebung ab. Peltier-Kühler haben – wie die Photovoltaik – den Vorteil, dass sie keine bewegte Mechanik enthalten, aber sie sind bisher nur von geringer Grösse und mit geringem Wirkungsgrad der Umwandlung von elektrischer in Wärmeenergie.

298     W. Hehl

Das Klima-Problem der Klimaanlagen sind die gigantischen Stückzahlen und das erwartete Wachstum; man kann sagen die Kühlung der Welt die globale Erwärmung fördert. Hier die Schlagzeile einer indischen Zeitung: Air Conditioning ist die nächste grosse Bedrohung der Welt. Durch die Kombination von Bevölkerungswachstum, steigenden Einkommen, fallenden Gerätepreisen und der Urbanisation wird die Anzahl der global installierten Klimaeinheiten von den heute etwa 1,6 Milliarden bis zur Mitte des Jahrhunderts auf 5,6 Milliarden steigen. Bloomberg und The Economic Times, indische Zeitung, vom 30. 6. 2019.

Es fehlt in dieser Aufzählung die Triebkraft der globalen Erwärmung, die den Teufelskreis schliesst. Es ist eine positive Rückkopplung. Die Klimageräte erwärmen sowohl die Stadtviertel und den Raum zwischen den Hochhäusern wie die Erde als Ganzes. Schon heute ist der Energiebedarf der Klimageräte gross. Ein Mass hierfür ist z. B. ein Gerät mit 1,4 kW Verbrauch, das 9 h pro Tag für 4 Monate eingeschaltet ist, also 1500 kWh. Die USA verbrauchten in 2016 so 616 TeraWh elektrische Energie für Air Conditioning (von etwa 4 000 TWh insgesamt), die ganze Welt etwa 27 PetaWh (Tab. 3.2). 2050 wäre also der Verbrauch für das Raumklima extrapoliert damit voraussichtlich 8,4 PetaWh. Die Tabelle 5 fasst einige grobe Schätzungen der zusätzlichen Verbrauchswerte durch e Mobilität und Klimatisierung zusammen. Die Klimatisierung für Deutschland und die USA wird unverändert niedrig bzw. hoch angenommen. Es gibt noch die Hoffnung auf technische Innovation bei den Geräten zur Verringerung dieses zusätzlichen Energiebedarfs. Dieser Bedarf kommt zur Grundaufgabe dazu, auch die bisher fossil erzeugte elektrische Energie – etwa 2/3 der gesamten elektrischen Energie, also etwa 17 000 TWh – zu dekarbonisieren. Dahinter liegt die grosse Aufgabe, die Quellen der Primärenergie, die CO2 erzeugen, zu eliminieren.

3.3.3 Die Herstellung von Zement und Stahl als harter Kern Beton und Stahl sind die Baustelle der letzten Meile der Dekarbonisation. Einige Elemente des Klimawandels sind einfach und klar. Aber bei Gebäuden stossen Ingenieure und Politiker auf Hürden. Auch ein Haus mit Solarpaneln besteht aus Beton und Stahl, beides besonders hartnäckige Bereiche, wenn es um die Vermeidung von Emissionen geht.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     299

Dazu kommt als Schwierigkeit die Quantität, die riesige Menge dieser Produkte: Das einzige, was wir mehr brauchen [als Beton und Stahl], ist Wasser. Beide Zitate sind aus dem Fortune Magazine, From concrete to steel, how construction makes up the ‚last mile‘ of decarbonization. vom 16. 2.2021

Die Weltproduktion an Zement betrug 2020 4,1 Mrd. Tonnen, die Rohstahlproduktion 1,8 Mrd. Tonnen. Zement und Stahl sind Stoffe, die ganze Epochen geprägt haben (und noch prägen): Zement etwa die Zeit nach dem 2. Weltkrieg, Eisen und Stahl das Jahrhundert nach 1850. Das Besondere und Problematische an diesen Industrien ist, dass ihr Wert mit der Materie verknüpft ist. Während Photovoltaik durch die Fläche bestimmt wird und die Information durch eine winzige Zelle und Energie, geht es hier wirklich um Masse, Kräfte und Volumen und damit um grosse Mengen an Stoffen und Energien. Zement und Stahl sind dazu die Baustoffe für Grossprojekte wie Staudämme und Industrieanlagen. Die bisherigen Prozesse zur Herstellung sind eng mit Kohle verknüpft. Bei der Zementproduktion werden sehr grosse Mengen Gesteinsmischung auf sehr hohe Temperaturen erhitzt (1450°C, Gasflammen reichen nicht) und beim Brennprozess entsteht aus der chemischen Reaktion des Brennens zwangsläufig CO2: Es ist besonders tragisch, dass die Herstellung des Zements gerade den Prozess umkehrt, mit dem die Natur Kohlendioxid in Gestein während Jahrmillionen als Kalziumkarbonat aus den Schalen von Meerestieren gespeichert hat.

Es ist in gewissen Sinn trotzdem eine positive Umwelttechnologie. Im Drehofen (Abb. 3.14), auf Englisch im Kiln, verbrennen durch die hohen Temperaturen viele unangenehme oder gefährliche Abfälle sicher, etwa Autoreifen, Öle aus Müll oder gefährlicher Sondermüll, und die enthaltenen Schwermetalle werden im Zement gebunden. Aber es entstehen pro Tonne Zement 1,25 t CO2, das ergibt 5,2 Mrd. Tonnen im Jahr. Zur Verringerung des Kohlendioxid-Ausstosses durch die Produktion von Zement werden verschiedenste Möglichkeiten untersucht, etwa Mischungen, die ein Verringern der Brenntemperatur ermöglichen, weniger Kalk benötigen, sogar CO2 teilweise absorbieren, Schlacken einmischen oder alten Beton wiederverwenden. Aber die Festigkeit des klassischen Zements sollte erhalten bleiben.

300     W. Hehl

Abb. 3.14  Ein Zement-Drehrohrofen (englisch rotary kiln) Diese Brennöfen sind das Kernstück der Zementherstellung. Bild: KilnBZ, Wikimedia Commons, LinguisticDemographer.

Abb. 3.15  Ein Hochofen für Roheisen Die Hochofenanlage 2 im Landschaftspark Duisburg Nord. Bild: Landschaftspark Duisburg Nord, Wikimedia Commons, Ra’ike/Olei

Die Produktion des Stahls erzeugt pro Tonne 1,9 t CO2, das ergibt 3,4 Mrd. Tonnen insgesamt im Jahr: Wenn die Zementindustrie ein Land wäre, dann wäre es in Bezug auf CO2 mit den USA nach China auf zweiter oder dritter Stelle, gefolgt von dem Land Stahlindustrie und den EU. „If the cement industry were a country“, BBC News vom 17. 12. 2018.

Bei der Roheisenerzeugung (Abb. 3.15) wird dem Erz Kohle zugesetzt. Der Kohlenstoff liefert nicht nur die Prozessenergie, sondern er ist ein grundsätzlicher Teil der Chemie der Herstellung des Eisens aus dem Eisenoxid des Erzes. Auch bei der Stahlerzeugung entsteht bei den klassischen Verfahren CO2. Im Umfeld der ganzen Eisen- und Stahlproduktion gibt es viele moderate Verbesserungsmöglichkeiten, etwa den indischen Hlsarna-Prozess.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     301

Aber es zeichnet sich auch ein ganz anderes, treibhausgasfreies Verfahren zur Gewinnung von Roheisen ab, anstelle von Kohlenstoff mit Wasserstoff. Reduziert man das Erz mit Wasserstoff H2, so gibt es nur Wasser. Der Wasserstoff muss dazu natürlich in grossen Mengen, am besten durch Elektrolyse von Wasser, erzeugt werden. Würde man in der Zementindustrie beim gleichen Typ Zement und beim Eisen und Stahl beim gleichen Grundprinzip (Reduktion mit Kohle) bleiben, so würde man bis 2050 nur 30–40 % Verminderung am CO2Ausstoss haben. Drastische Änderungen und Innovationen sind gefordert (New Climate Institute, 2017). Dabei geht es um sehr grosse Energiemengen, die letzten Endes zusätzlich elektrisch geliefert werden müssen. Bisher hat die Zementherstellung etwa 11 000 TeraWh an fossiler Energie im Jahr gebraucht, die Eisen- und Stahlherstellung etwa 7 000 TeraWh (zur Erinnerung: Die Weltstromproduktion ist 25 000 TeraWh). Zum Vergleich: Die von Anfang an elektrifizierte Aluminiumherstellung, bekannt als grosser Stromverbraucher, liefert global 50 Mio. Tonnen zu 17 000 kWh pro Tonne, benötigt also etwa 1 000 TeraWh.

3.3.4 Computer, Bitcoin, Katzen, Licht und Klimawandel Computing ist nicht mehr nur mit Computerboxen. Es ist Leben. Nicholas Negroponte, amerikanischer Informatiker, geb. 1943.

Konsistente Zahlen für den Weltverbrauch sind bei der Computerindustrie besonders schwierig zu erhalten. Hier drei Gründe dafür • Der schnelle Fortschritt der Technologie (s. u. das Koomey-Gesetz), • das rasche Anwachsen von Geräte- und Anlagezahlen (durch den Rebound-Effekt), • die schwer zu bestimmenden Nutzzeiten der persönlichen Geräte. Viele elektrische Geräte, insbesondere PC, Laptop und mobile Computer (Telefone), benötigen nur teilweise die Spitzenleistungen. Wie bei anderen elektrischen Geräten gibt es umgekehrt einen beträchtlichen Energiebedarf durch Standby-Betrieb oder Leerlaufbetrieb, auch Vampir-Leistung genannt. Schätzungen sind 20–60 W pro Haushalt in den entwickelten Ländern, entsprechend etwa 200–500 kWh pro Haushalt und Jahr. Global gesehen verbrauchen diese Vampire ca. 50–100 TeraWh im Jahr oder etwa 2–4 ‰ der

302     W. Hehl

Abb. 3.16  Ein modernes Daten-Zentrum. Das Google-Data Center in Oklahoma, USA Datenzentren sind die Angelpunkte der modernen Informationsgesellschaft. Bild: Google Mayes County P0004991a, Wikimedia Commons, Xpd.

Weltproduktion an elektrischer Energie. Das hört sich wenig an, aber entspricht Kraftwerken der Leistung von 10 GW! Energieverbrauch der ICT Ein Beispiel, dass es eher auf das Verstehen von Trends ankommen muss als auf absolute, exakte Zahlen, geben die gefundenen Angaben, wieviel elektrische Energie die ICT-Branche verbraucht11. Typische Angaben sind 2 % oder 6 % oder 10 %: Computer, Datenzentren, Netzwerke und ähnliches verschlingen [gobble up] nahezu 10 % der elektrischen Energie der Welt – und die Zahl steigt. CNRS News, Laure Callioce, 23. 5. 2018.

Besonders spektakulär sind die Hyperscale-Datencenter, die seit etwa zwei Jahrzehnten entstehen. Sie beherbergen die Clouds der Daten und Anwendungen. Zur Reduktion der Kosten werden sie optimiert konstruiert, weitgehend mit eigener Software automatisiert, in riesigen Hallen mit Farmen von Computern und mit dem Stromverbrauch einer Stadt. Die Abb. 3.16 zeigt das grösste Datencenter der Welt in China in Langfang in 11 ICT ist Sammelbegriff für die Industrie der Informations- und Kommunikationstechnologien, also der Computerindustrie im weiteren Sinn.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     303

der Provinz Hebei. Es belegt 0,58 km2 Fläche und beherbergt die Internet-Daten der chinesischen Telekom. Der Energieverbrauch wurde nicht publiziert. Im Umkreis sind weitere 29 Datenzentren! Eine Vermutung: Die Gesamtlänge der verlegten Kabel in dieser Anlage würde um die Erde reichen. Nur die Hälfte der Energie wird für das Computing selbst verwendet – die andere Hälfte betreibt die Kühlung des Centers. Die beim Rechenbetrieb entstehende Wärme muss abgeführt werden. Letztlich wird die ganze Energie schliesslich nach dem Satz von der Erhaltung der Energie zu Wärme! Allein das Unternehmen Google betreibt etwa zwei Dutzend publizierte Datenzentren und eine Reihe interner Lokationen für die Absicherung der Daten (Wikipedia, Google data centers). Weltweit gibt es etwa 400 Hyperzentren und 7500 grosse Zentren im Jahr 2020 mit rasch wachsender Tendenz. Nach der Zurverfügungstellung von genügend Energie, möglichst von CO2-frei erzeugtem Strom wie es Google wohl für seine Zentren erreicht hat, ist das grosse technische Problem die Kühlung, von den einzelnen Prozessorenchips bis zum ganzen Zentrum. Die Anlagen gehen technisch in die Fläche (scaling out) mit vielen Fussballfeldern Platz und Hunderttausenden von Computern. Zur Reduktion des Kühlaufwands geht man auch in die Kühle (z. B. nach Island oder sogar ins Meer). Viele geschäftliche Gründe treiben den Trend hin zu Datenzentren und Cloud-Computing anstelle kleiner Unternehmens-Rechenzentren: weniger Kosten, immer verfügbar, leichtere Zusammenarbeit und besser Kontrollierbarkeit, auch was die Umweltaspekte anbelangt. Die IT war in den letzten 50 Jahren ganz prinzipiell von der Wirkung des Mooreschen Gesetzes getrieben, der Faustregel, dass die Komplexität der Schaltungen auf Computerchips etwa alle 18 bis 24 Monate verdoppelt werden kann12. Heute gibt es bis zu 100 Mio. Transistoren pro mm2 Chipfläche. Wichtig sind für die Energiebetrachtung noch zwei andere, verwandte Beobachtungen: • Seit etwa dem Jahr 2000 werden Computerchips immer heisser; bis dahin wurden die Transistoren gerade in dem Mass kleiner, dass die Gesamtzahl die gleiche Wärmeleistung abgab13. Seitdem ist die Kühlung der Chips und der Rechenzentren ein wachsendes Problem.

12 Die 13 Das

Regel ist nach Gordon Moore von Intel benannt, der sie 1965 ausstellte. Chipdesign folgte bis zum Jahr 2000 etwa der sog. Regel von Dennard.

304     W. Hehl

• Seit etwa 70 Jahren kann man mit der gleichen Menge Energie (z. B. 1 J) immer mehr rechnen. Früher hat sich die Rechenleistung pro Joule alle 1 1/2 Jahre verdoppelt, heute etwa alle 2 1/2 Jahre. Diese Faustregel heisst Gesetz von Koomey nach Jonathan Koomey, einem Ingenieur und Wissenschaftshistoriker. Für die Arbeit des Computers gibt es eine (umstrittene) untere physikalische Energiegrenze, die der deutsch-amerikanische Physiker Rolf Landauer 1961 aufgestellt hat. Es ist die minimale Energie, die für Rechenoperationen benötigt wird. Die Grenze hängt mit der thermischen Energie eines Atoms zusammen und verknüpft die physikalische Entropie mit der Informationsentropie – aber unsere Computer sind noch um einen Faktor von viele Millionen entfernt. Zwei Entwicklungen haben zusammenwirkt: Einerseits ist der Computer durch Moore und Koomey für Milliarden Menschen zugänglich geworden. Andrerseits wurden Millionen von neuen Anwendungen ausgelöst. Dies ist der Rebound-Effekt. Der Rebound-Effekt beschreibt den Anstieg des Energieverbrauchs als Folge der Verbesserung der Energie-Effizienz einer Technologie.

Bitcoin und Katzenvideos Der Computer hat ganz neue Welten eröffnet. Wer hätte noch vor 20, 30 Jahren gedacht, dass Katzenvideos, gestreamte Seifenopern und das Schürfen von mathematischem Geld in Kryptowährungen zur Grundlast des Computernetzwerks werden würden mit milliardenschweren Investitionen und Tausend(en) TeraWh elektrischer Energie im Jahr? Jeder Anstieg des Kurses von Bitcoin macht das energiefressende Schürfen attraktiver, das System ist auf global verteilten Servern, jede Transaktion wird auf ewig sequentiell gespeichert, es müssen immer schwierigere Aufgaben gelöst werden – die Kryptowährung ist eine Maschinerie zum Verbrauch von Energie. Wieviel Energie allein die Bitcoin-Währung verbraucht, ist nicht zuverlässig bekannt (schliesslich ist es eine Kryptowährung). Das Zentrum für alternatives Finanzwesen der Universität von Cambridge schätzte im Februar 2021 zwischen 45 und 445 TWh auf das Jahr bezogen (Rowlatt, 2021). Diese Energie kommt vor allem aus schmutzigen Energiequellen. Es ist auch nicht ohne weiteres möglich, den Schürf-Prozess mit Überschussenergie oder bei schwankender alternativer Energieversorgung erfolgreich durchzuführen, denn man benötigt eine gewisse Kontinuität.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     305

Abb. 3.17  Eine Bitcoin-Computerfarm auf Island Das Bild zeigt Rahmen mit Spezialcomputern für die mathematische Schürfung. Bild: cryptocurrency mining farm, Wikimedia Commons, Marco Krohn.

Allerdings ist es einfacher, mit einer Bitcoin-Farm an den Standort der günstigen Stromversorgung zu ziehen, als eine Volkswirtschaft zu verlegen. In der Computerfarm der Abb. 3.17 ist die Energie sauber. Das Foto zeigt eine Bitcoin-Farm auf Island, wohl mit sauberem geothermischen Strom oder sauberer Wasserkraft betrieben. Die Computer sind Spezialcomputer (ASICs), angepasst an die mathematische Aufgabe. Die Abwärme der Farm heizt das Treibhaus einer Gärtnerei. Das Bitcoin-Schürfen ist jedenfalls sauberer als die Aluminiumherstellung, die ebenfalls wegen des günstigen Stroms nach Island verlegt wurde, und das Produkt, die Anrechte auf Bitcoins, lassen sich leichter in alle Welt senden als die Aluminiumbarren. All diese Billionen Rechnungen, die es braucht um das System am Laufen zu halten, machen eigentlich keine nützliche Arbeit. … Sie werden nur sofort wieder fortgeworfen. Alex de Vries, Bitcoin Experte und Gründer von Digiconomic, in BBC News vom 27.2.2021.

Zu dem energetischen Aufwand für Kryptowährungen kommt noch die unglaubliche intellektuelle Energie von vielen Informatikern und Mathematikern, die in die Technologie und eigentlich in ein mathematisches Spiel gesteckt wird! Es ist spannend, ob eine Kryptowährung wirklich zu verwendbarem Geld werden kann. Bitcoin, so wie es ist, kann nur etwa 5 Transaktionen in der Sekunde durchführen und ist

306     W. Hehl

damit primär kein Bezahlsystem, sondern reine Spekulation. Aber natürlich kann man Finanzprodukte (Level 2-Produkte) darauf aufbauen, schliesslich sind viele der etablierten Funds auch Spekulation, wenn auch im Kern mit Unternehmen oder Rohstoffen als Fundament. Solange der Marktwert von Bitcoins so hoch ist oder gar weiter steigt (es gibt keine harte obere Grenze), haben die Bitcoin-Mineure ein Riesenbudget für Computer und Energie zu Verfügung und der Energiekonsum und der CO2-Ausstoss werden weiter steigen. Im Zug des Erfolgs von Bitcoin kommen weitere Kryptowährungen hinzu, auch solche, die versuchen mit weniger Energieverbrauch auszukommen. Es sind wohl schon tausend verschiedene Kryptowährungen. Aber grosser Aufwand und damit vor allem hoher Energieaufwand gehören zum Prinzip. Der virtuelle Wert besteht nur im unversehrten System. Erwartet man irgendwann einen Zusammenbruch des Bitcoin-Systems, etwa durch einen Hacker oder durch staatliche Eingriffe, so werden die Informationen wertlos und alle Computerarbeit ist nur diffuse Wärme. Dazu kommen weitere Anwendungen, die ebenfalls die Grundtechnologie der Kryptowährungen verwenden, etwa im Kunsthandel. Rasches Wachstum im Verbrauch wird auch eine neue, reale und nicht nur virtuelle Basistechnologie bringen, die ebenfalls viel Computerleistung benötigt, die künstliche Intelligenz und der Umgang mit grossen Datenmengen, mit Big Data. Diese Technologien aber sind Werkzeuge, die Werte erzeugen. Ähnlich grosse Energiemengen verbrauchen mit wachsender Tendenz auch leichte menschliche Anwendungen. Besondere menschliche Anwendungen, die wohl drei Viertel des Internet-Verkehrs beanspruchen, sind Katzenvideos, gestreamte Filme und Spiele. Diese Apps haben ihre positive Bedeutung für Menschen als Unterhaltung. Hier einige Schlagzeilen zu den Katzenvideos, die offensichtlich bei manchen Menschen das Symbol der Sinnlosigkeit sind: Katzenvideos gefährden die Umwelt aponet.de Wie virale Katzenvideos den Planeten erwärmen ourworld.unu.edu Wie Katzenvideos einen Klimawandel-Alptraum verursachen können Reuters.com

Katzen sind sozusagen zum Leittier des Internets geworden und Cats Content (Katzeninhalt) zum internationalen Internetphänomen. Es gibt auch Verteidiger der Faszination der Katzenclips

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     307

a)

b)

Abb. 3.18  Trends im Stromverbrauch im ganzen Sektor ICT a) im Jahr 2020 und b) in 2030 (geschätzt) Nach New perspectives on Internet electricity use in 2030 von Anders Andrae, Huawei. Endgeräte sind PC, Tabletts und Mobiles.

Nicht so schuldig [wie in der Presse berichtet]: Katzenvideos anzusehen ist mehr als nur Unterhaltung, es hebt die innere Energie der Zuschauer, macht positive Gefühle und verringert negative. Sciencedaily vom 16. Juni 2015.

Allerdings gibt es auch Aufforderungen, aus Umweltgründen überhaupt keine lustigen („sinnlosen“) Videos anzusehen – aber derartige Zwänge erzeugen ein sektiererisches gesellschaftliches Klima und lösen das ICTEnergieproblem nicht (Bitcoin-Surfen ist wohl eher rundum sinnlos, es sei denn, man betrachtet es, wie es die glücklichen Bitcoin-Besitzer tun, als Spiel). Die Schätzungen im Internet, was das Betrachten eines Katzenvideos insgesamt an Energie verbraucht, gehen um einen Faktor 100 auseinander. Entsprechendes gilt für das Streamen ernsthafter Unterhaltung (Kamiya 2020), aber auch für den Gebrauch von E-Mails. Etwas sicherer sind die gesamten Verbrauchswerte der ICT (Abb. 3.18). Die Grafiken zeigen die Energieverteilung auf die Systemkomponenten der ICT und deren erwartete Änderung (Andrea/Huawei 2020). Der schwedische Huawei-Ingenieur nimmt für 2020 den Gesamtverbrauch der Computerbranche ICT zu 2 000 TWh an, für 2030 zu etwa 3 000 TWh. Der Trend zu grossen Datenzentren geht weiter. Sie senden nicht nur Katzenvideos, sondern sie sind das Rückgrat von Wirtschaft und Gesellschaft. Sie sind der energiegünstigste Platz für die grossen Arbeiten und

308     W. Hehl

die grossen Datenspeicher. 60 % der Daten befinden sich in Datenzentren; 2021 enthalten alle Datenspeicher der Welt nach der Technologiefirma IDC etwa 8 Zetabytes oder 8 000 Exabytes an Daten14, pro Jahr kommen etwa 16 % dazu oder jeden Tag der Inhalt von 2 000 000 grossen Bibliotheken. Der grösste Teil der Speicher (Platten und Halbleiter) benötigt laufend Strom, nur Speicher mit Bändern bzw. Kassetten nicht. Die Endgeräte wie PC, Tabletts oder mobile Telefone werden weniger wichtig, die Datenübertragung umso mehr, vor allem im drahtlosen Bereich. Die technische Entwicklung geht weiter, Mooresches und Koomeysches Gesetz sind noch nicht am Ende, aber das Wachstum bekommt leicht andere Richtungen: • Die Systemleistung steigt weiter mit mehr Computerkernen auf dem Chip, • Die persönlichen Geräte werden für geringen Verbrauch in den Ruhezeiten optimiert. Aber die vielleicht beste Massnahme zum Energiesparen werden Verbesserungen in der allgegenwärtigen Software sein oder gar die Verwendung angepasster Hardware, wie es für Computerspiele und auch für BitcoinSchürfen geschieht. Dies gilt für solche Software, die für viele Benutzer ist und häufig gebraucht wird, z. B. für das Streamen oder für Funktionen der künstlichen Intelligenz, die – wie unser Gehirn – unscharf arbeiten können und dadurch viel weniger Energie verbrauchen. Die Reduktion des Verbrauchs an Energie für eine bestimmte Computerleistung wird weiter getrieben werden, aber es werden weiter neue und grosse Apps hinzukommen. Viel neue und intelligente Software wird benötigt werden, um die kommenden Umwälzungen der Infrastruktur zu bewältigen und den Verbrauch an Ressourcen zu optimieren. Die reale Welt, die Dinge in der Welt und die vielschichtigen Daten der Geografie, so wie die ganze Menschheit werden im Computer abgebildet.

14 1

Exabyte umfasst 1021 Datenbytes; eine grosse Bibliothek enthält etwa 1 Terabyte oder 1012 Bytes Information.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     309

Die Lichtrevolution mit LED Wenn man neben einer traditionellen Glühbirne steht und neben einer Birne mit LEDs (Light Emitting Diodes), dann fühlt und sieht man den Unterschied. Beide erzeugen die gleiche Menge Licht, aber die Glühbirne ist zu heiss zum Anfassen. All diese überschüssige Wärme ist vergeudete Energie. Department of Energy, USA, energy.gov, 2015.

Die Halbleiterphysik und die Halbleitertechnologie geben (zumindest) drei grosse und buchstäblich wunderbare Pfade in der Entwicklung der technischen Zivilisation vor: • • •

Für die Intelligenz: Die Entwicklung der Computerprozessoren und der Datenspeicher. Für die Energieproduktion: Die Möglichkeit und die Entwicklung der Solarzellen der Photovoltaik. Für das Licht: Die Möglichkeit und Entwicklung der Lichtdioden.

Diese drei Pfade folgen vier exponentiellen Wachstumsgesetzen, am mächtigsten die IT-Technologie nach den Gesetzen von Moore und Koomey. Die IT-Technologie wuchs seit 1965 über etwa neun Zehnerpotenzen. Dies war möglich, weil es gelang, die Elementarzelle der IT auf die Dimension von Nanometern hinunter zu drücken. Für die Photovoltaik ist es das Gesetz von Swanson, nach dem der Preis der PV-Einheiten in 50 Jahren um zwei bis drei Grössenordnungen gefallen ist. Die Leistungskurve der LED-Technologie zeigt eine Verbesserung über fünf Grössenordnungen, ebenfalls seit fünf Jahrzehnten. Der Leistungsparameter sind die sinkenden Kosten pro erzeugter Lichtleistung, den Lichtstrom. Die Abb. 3.19 zeigt das Gesetz von Haitz, benannt nach dem deutschamerikanischen Physiker Rudolf Haitz (1935–2015), Entwicklungsingenieur für LEDs beim Unternehmen Agilent (früher HP). Rudolf Haitz hat die Grafik im Jahr 1999 aufgestellt und vorausgesagt, dass LEDs die anderen Lichtquellen (Glühlampen und Plasmaröhren) an Effizienz überholen werden. Er hatte verglichen:

310     W. Hehl

Abb. 3.19  Das Gesetz von Haitz Die Leuchtkraft pro Modul steigt exponentiell, die LED-Kosten pro Lichteinheit (Lumen) fallen exponentiell. Bild: Haitz law, Wikimedia Commons, Geek3.

Die LED verhält sich zur Glühbirne wie der Transistor zur Vakuumröhre.

Natürlich sind diese vier „Gesetze“ nur Beobachtungen, die auch ein Ende finden werden. Die zugehörigen technologischen Weiterentwicklungen werden langsamer werden und deren Produktionskosten langsamer fallen. Insbesondere gibt es für die Ausbeute der Leuchtdioden (Licht pro elektrische Leistung, Lumen/Watt) eine physikalische Grenze. Nur eine andere Lichtquelle hat eine derartig gute Ausbeute, die NatriumdampfLampen – aber deren Licht ist einfarbig mit einem besonderen Gelb. LEDs liefern zehn Mal mehr Licht pro Watt als Glühlampen und haben die zwanzigfache Lebensdauer. Der schon erwähnte Ingenieur Jonathan Koomey erzählte dazu vor dem amerikanischen Kongress 2008 in einer Anhörung zum Thema Energiekrise und ihre Bewältigung den lehrreichen Witz: Ein Ökonom und ein Ingenieur gehen einer Strasse entlang. Der Ingenieur sieht eine 20 $-Note und sagt: „Schauen Sie, eine 20 $-Note!“ Der Ökonom sagt: „Das ist unmöglich. Wenn da eine 20 $-Note läge, dann hätte sie schon jemand aufgehoben.“

Die Episode soll sagen, dass das Energiesparen die einfachste alternative Energiequelle ist. Der Übergang von der Beleuchtung zu LEDs ist global in vollem Gang und bringt offensichtlich eine gewaltige Ersparnis an Energie,

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     311

gemäss Schätzungen noch etwa 40 % der alten Energierechnung auf System-

Abb. 3.20  Eine moderne Baumbeleuchtung mit LEDs Bild: LEDs light up the holidays, Wikimedia Commons, Robert Ashworth. Mit freundlicher Genehmigung.

ebene. Dies gilt allerdings nur im Sinn der obigen Episode durch Fortschritt durch Sparen. Dazu müssten die Anforderungen an die Beleuchtung gleich bleiben. Auch bei Leuchtdioden gibt es durch ihre neuen Eigenschaften einen Rebound-Effekt. LEDs kosten weniger und die Beleuchtung kann deshalb erweitert werden und sie können viel mehr als eine Glühbirne ersetzen. Abb. 3.20 demonstriert in einem kleinen Beispiel das Rebounding, eine moderne Weihnachtsbeleuchtung mit vielen bunten LED-Lämpchen. Es gibt etliche Installationen mit mehreren Millionen Lichtlein, jedes Jahr mehr. LEDs können leicht mit elektronischen Schaltung und Computern verbunden und z. B. zum Sparen abgeschaltet werden, wenn kein Mensch den Nutzen vom Licht hat. Oder sie werden für Shows verwendet werden oder für tageszeitgesteuerte Beleuchtung in Büros oder im ganz grossen Stil in Gewächshäusern. Die Lichtquelle kann sogar eine biegsame Folie sein und gleichzeitig ein strahlender Computerbildschirm oder ein grosses Bild an der Wand, jeden Tag ein anderes. Ein buchstäblich sichtbares Problem ist die Aussenbeleuchtung der Städte. Einige Städte sparen Energie durch die Einführung von LEDs, aber insgesamt nimmt die Beleuchtung der Welt zu. Die preiswerten LED-

312     W. Hehl

Leuchtmittel und die zunehmende Verstädterung haben dazu geführt, dass – aus Sicht der Astronomen und Tierfreunde und bewiesen durch Satellitenmessungen – die Lichtverschmutzung der nächtlichen Weltseite zugenommen hat. Der Physiker John Barentine von der International DarkSky Association sieht zwei Dinge bestätigt (Dvorsky 2017): Die Lichtverschmutzung geht weltweit weiter, und die Umstellung der Aussenbeleuchtungen von älteren Technologien auf LED hat nicht den erwarteten Effekt einer globalen Reduktion im Energieverbrauch gehabt.

LEDs sind eine grossartige Licht-Technologie, energetisch so sparsam, wie es die Physik erlaubt – und voller zukünftiger zusätzlicher Möglichkeiten, die den Verbrauch erhöhen können. Der Elektroingenieur Fred Schubert sagt dazu: Das wahre Potenzial der LEDs liegt in ihrer Fähigkeit zur Transformation der Lichttechnologie, mehr als sie nur einfach zu ersetzen. Phys.org News, Feb. 2019.

Zuerst kam (und kommt) das Ersetzen und das Energiesparen, aber dann kommt Neues, Unbekanntes, dazu und der Umgang mit Licht und unser Lebensstil ändern sich. Nur sparen gibt es nicht und der resultierende zukünftige Energieverbrauch für Licht ist schwer vorherzusagen.

3.4 Wälder und Äcker als Kohlenstoff-Senken und Quellen 3.4.1 Wälder und Klimawandel, Teil I Der philippinische Senat hat ein Gesetz verabschiedet, das zumindest einen Teil der verloren gegangenen Baumbestände wieder auffüllen soll. Demnach sind Schüler und Studenten zukünftig verpflichtet, zumindest zehn Bäume zu pflanzen, um ihren Abschluss zu erhalten. Trends der Zukunft.de, 3. Juni 2019.

Eine grossartige Aktion, auch pragmatisch-pädagogisch. Die waldbedeckte Fläche auf den Philippinen ist im letzten Jahrhundert von 70 % auf 20 % geschrumpft. Das Regierungsprogramm nimmt dabei realistischerweise an, dass nur 10 % der gepflanzten Bäume überleben werden.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     313

Abb. 3.21  Ein total gerodeter Wald Aus der Broschüre Clear Cut – Wood Pellet Production, the Destruction of Forests, and the Case of Environmental Justice. Bild: RachelCarson Council, Maryland, USA. Mit freundlicher Genehmigung

In Europa wachsen die Waldflächen eher an. Deutschland hat etwa auf 1/3 seiner Fläche Wald, in den letzten 10 Jahren hat die Waldfläche um 0,4 % zugenommen. In der Schweiz nahm der Wald vor allem in den Gebirgsregionen zu15. 91 % der Zunahme erfolgt über 1000 m Höhe (es verschwinden wohl Weideflächen). In Deutschland kommen auf einen Hektar Wald sieben Einwohner, in der Schweiz sechs, Österreich ca. zwei und Frankreich vier. Die Bereiche der Erde mit abnehmender Waldfläche sind vor allem das Amazonasgebiet, Südostasien und – weniger bekannt – der Südosten der USA: Der Verlust von geschlossenem Wald (forest canopy) ist weltweit am höchsten im Südosten der USA. William Moomaw, Wissenschaftler und Umweltpolitiker, 2019.

Die Abb. 3.21 demonstriert drastisch einen total gerodeten amerikanischen Wald (clear cut). Nach William Moomaw rodet die amerikanische PelletIndustrie grossflächig Wälder. Die Rodung erfolgt vier Mal schneller als am Amazonas. 15 s.

Schutzgemeinschaft deutscher Wald und Bundesamt für Umwelt, Schweiz.

314     W. Hehl

Die Aufforstung (Aforestation) und die Wiederaufforstung (Reforestation) haben viele Vorteile, vor allem lokal für die Region. Sie verhindern Bodenerosion und Wüstenbildung, erhöhen den Grundwasserspiegel oder schützen im Hochgebirge vor Lawinen. Allerdings gibt es viele dubiose Pflanzaktionen, die nicht nachhaltig sind: Viele Unternehmen werben damit, zu jedem gekauften Produkt einen Baum zu pflanzen. Allerdings sind viele dieser Baumpflanzaktionen wirkungslos. … [Es gilt] die Annahme, dass [bei einer bestimmten Gross-Setzaktion] bis zu 90 % der Setzlinge einfach vertrocknet seien. Deutschlandfunk Nova, 26. 1. 2021.

Beim Aufforsten kann man einiges falsch machen. Ort, Zeit und Pflanzen bzw. Bäume müssen zusammenpassen. Dies gilt im Kleinen und bei Einzelaktionen, aber auch im Grossen. Wälder haben für das Weltklima zwei globale Auswirkungen: • Sie bestimmen die Albedo der Landoberfläche, denn sie sind recht dunkel und nehmen viel Energie auf, • Wälder sind neben dem Ozean der grosse CO2-Speicher der Weltnatur. Die Wirkung der Waldalbedo haben wir schon besprochen im Abschnitt Landnutzung und Klimawandel. Wald mit dem komplexen Blätter- oder Nadeldach absorbiert sehr gut Sonnenstrahlung und die Bäume nehmen Kohlenstoff auf, oberirdisch und unterirdisch. In den Tropen fördert Wald die Wolkenbildung und übt damit trotz der geringen Albedo des Waldes selbst einen kühlenden Effekt aus. In den nördlichen Wäldern dagegen werden die Wälder wesentlich wärmer als Land ohne Waldbestand (llnl 2005). Die tropischen Wälder sind für das Klima in dieser Hinsicht eine Win–WinSituation; ihr Abholzen ist umso schmerzlicher.

Die Abb. 3.22 ist eine Bestandsaufnahme des globalen Waldes mit dem Integritätsindex FLII, dem Grade der Naturbelassenheit des Waldes16. Die

16 FLII

steht für Forest Landscape Integrity Index.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     315

Abb. 3.22  Die Wälder der Welt und ihre Naturbelassenheit Der Farbindex bedeutet tiefgrün (10) für geringe Modifikation durch den Menschen (Urwälder), braun (0) einen starken Eingriff. Das Bild wurde mit der Google Earth Machine erzeugt. Bild: Flii globe, Wikimedia Commons, Phnom Pencil.

Länder mit den grössten Urwäldern sind Kanada, Russland, Amazonasgebiet, die Guyanas, Zentralafrika und Neuguinea. Der Fachausdruck für die Speicherung eines Schadstoffs, den man damit aus einem Zyklus der Verwendung herausnimmt, ist Sequestration (vom lat. sequestare beschlagnahmen oder zum Aufbewahren geben ). Hier geht es um den Schadstoff (aber auch Lebensstoff) CO2: Kohlenstoff-Sequestration ist der natürliche oder künstliche Prozess, um Kohlendioxid aus der Luft zu binden und zu speichern.

Das Weltklima hat drei grosse CO2-Reservoire: die Atmosphäre (der wir CO2 entziehen wollen), die Ozeane (die zwar CO2 aufnehmen, aber damit versauern und ihre Biosphäre verändern) und die terrestrische Biomasse. Die Atmosphäre enthält heute etwa 870 Mrd. Tonnen Kohlenstoff, die terrestrische Biomasse etwa 2 400 Mrd., die Ozeane sogar geschätzte 38 000 Mrd. Tonnen.

316     W. Hehl

Die Wälder enthalten den grössten Teil des terrestrischen Kohlenstoffs (abgesehen natürlich von dem gigantischen versteckten CO2-Gehalt der Mineralien). Hier Schätzwerte (mit grosser Unsicherheit); detaillierte Angaben in Brack, 2019: Die Wälder enthalten etwa 900 Mrd. Tonnen Kohlenstoff in der Biomasse, etwa je zur Hälfte oberirdisch und unterirdisch. Zum Vergleich: Die Menschheit emittiert zurzeit etwa 12 Mrd. Tonnen Kohlenstoff pro Jahr in die Atmosphäre. Aber die Speicherung von Kohlenstoff aus der Luft durch einen Baum ist nur temporär. In der Wachstumsphase speichern die Bäume Kohlenstoff aus der Luft, nach dem Absterben geben sie ihn beim Verrotten als CO2 wieder frei. Es sind (nachgewiesen) vor allem die reifen und alten Bäume (Köhl et al. 2017), die Kohlenstoff binden, auch insbesondere Bäume im letzten Viertel ihres Lebens. Dies widerspricht der üblichen Waldstrategie, nach kurzen Perioden den Wald rigoros zu schlagen (Abb. 3.21) und (hoffentlich) neu zu pflanzen. Bis zu doppelt so viel Kohlenstoffspeicherung wird mit einem möglichst natürlichen Wald mit alten Bäumen erzielt. Der Umweltwissenschaftler William Moomaw nennt diese Strategie 2019 Proforestation: Proforestation bedeutet einen existierenden Wald so zu pflegen, dass er ein maximales Potential zur Kohlenstoffspeicherung hat.

Damit werden vor allem bereits existierende Waldflächen verdichtet, intensiviert und die Bäume länger am Leben gelassen. Das Pflanzen von Bäumen und Umnutzungen von Land zu Wäldern sind wohl meistens begrüssenswert, aber stehen eventuell in unangenehmer Konkurrenz zur Nahrungsgewinnung und gehen an unserem dringendsten Ziel, in den nächsten Jahrzehnten CO2 aus der Luft zu nehmen, vorbei. Nach Moomaw (Montaigne, 2019) sind es die Bäume im Alter von 70 bis 125 Jahren, die am meisten speichern – unglücklicherweise sind 70 Jahre die beste Zeit für das Sägewerk! Es ist das Ziel der Kohlenstoff-Sequestrierung, den Kohlenstoff aus der Luft chemisch beständig und stabil aufzubewahren, möglichst für immer, jedenfalls über die kritische Klimawandelzeit hinweg bis zum Ende des 21. Jahrhunderts. Die modernen Holz-Pellets (oder allgemein die Verbrennung von Biomasse) sind dagegen eine Methode, biologisch aufgefangenen Kohlenstoff so schnell wie möglich, automatisiert und in industriellem Massstab in den Kreislauf in der Atmosphäre zurück zu führen.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     317

Abb. 3.23  Holz-Pellets Pellets ermöglichen es, die Holzverbrennung zu automatisieren. Bild: Pellets hand, Wikimedia Commons, Tom Bruton.

Holzpellets (Abb. 3.23) werden in einem industriellen Prozess aus Holzabfällen oder richtigem, frischem Holz erzeugt (virgin lumber ). Bei der Herstellung wird Holz zerkleinert, unter Druck verformt und eventuell mit Zusätzen und Bindemittel wie Stärke oder Melasse versetzt. Die dazu benötigte Energie kann zwischen 3 und 17 % der Energie der Pellets betragen. Es entstehen kurze, trockene, angenehme Stäbchen, die das Kriterium von Bill Gates erfüllen: Pellets können getankt werden und die Zufuhr zum Brenner kann automatisch erfolgen. Allerdings benötigt man 2 t Pellets anstelle 1 Tonne Kohle für die gleiche Energiemenge. Dazu einige praktische Gefahren und Nachteile: Pellet Tanks können giftige Gase entwickeln, bei Wasserzutritt kann der Tank durch Ausdehnung explodieren, und Holzfeuerungen erzeugen heute mehr Feinstaub als Autos (alle drei Punkte nach Wikipedia vom März 2021). Dazu kommt, dass HolzPellets für das Klima nur pseudo-grün sind; sie sollten nicht als nachhaltig gerechnet werden. Das politische Problem mit Pellets ist die offizielle simplistische Sicht auf die Eigenschaften Erneuerbarkeit und CO2-Neutralität von Holz. Wald wächst nach und damit die Holzenergie – dazu braucht es ein Jahrhundert! Derart genutzter Wald ist nicht optimal für die Bewahrung von Kohlenstoff und für Bewältigung der Klimakrise nutzlos.

318     W. Hehl

Das durch die Verbrennung von Holz entstehende CO2 geht in dieser kritischen Zeit des 21. Jahrhunderts in die Treibhaus-Decke der Erde. Nimmt man bei etlichen Staaten, z. B. England und Deutschland, diese ­Biomassenenergie aus der Klimabilanz, so werden zwangsweise die Klimaziele noch weniger erreichbar. Noch einige pragmatische Bemerkungen. Der Grad an Nachhaltigkeit (oder Unnachhaltigkeit) von Pellets ist auch abhängig von der energetischen Umgebung. Pellets in einer Wirtschaft, die vor allem fossile Energie verwendet, sind relativ nachhaltig und noch vertretbar, da sie Fossiles sparen. Auch sind Pellets, die aus Abfallholz, das sowieso bald verrottet wäre, gewonnen werden, vertretbarer. Eingebettet in eine nachhaltige Energieinfrastruktur werden Pellets vollkommen unnachhaltig, unsustainable. Besser als Verbrennung sind damit die Alternativen: 1. Proforestation. Mehr Wald natürlich zu belassen und damit mehr ältere Bäume zu haben; damit wird der gespeicherte Kohlenstoff verdoppelt bis vervierfacht. 2. Geerntetes Holz nicht verbrennen, sondern in langlebige Produkte zu verwandeln wie Holzhäuser oder wenigstens in Holzdachstühle, 3. Geerntetes Holz nicht verbrennen, sondern gezielt aus dem Kohle-Kreislauf herausnehmen (Sequestration oder Carbon Capture) nur zu dem Zweck der Kohlenstoffbindung. Nur die Lösung 1) ist nachhaltig. Bis holzgenutzte Wälder, die man ab heute belässt, den natürlichen Zustand erreicht hätten, wären sie CO2-Senken. Das wäre gerade bis zum Ende des Jahrhunderts. Eine Schätzung ergibt, dass Wälder dadurch 4 % der jährlichen CO2-Emissionen aufnehmen könnten. Die Lösung 3) tut dem Holzfreund weh, aber sie hat das Potenzial, eine preiswerte low-tech-Methode zu sein zur Kohlenstoffbindung in grossem Massstab. Zu den Problemen mehr im Kapitel zur Umkehrung des Klimawandels.

3.4.2 Ackerböden und Klimawandel. Saving the climate from the ground up – Das Klima retten von Grund auf. Schlagzeile von Sciencedaily.com, 27. 10. 2020. How dirt could help save the planet – Wie Dreck helfen könnte, den Planeten zu retten. Titel beim Scientific American, 14. 3. 2021.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     319

Kiss the ground – Küsse den Boden. Dokumentarfilm, deutscher Titel Über Boden, Kohlenstoff und Klima, 2020.

Die Böden der Welt speichern viel Kohlenstoff. Das gilt für Waldböden, Grünland und besonders für Sümpfe und Moore. Natürlich auch für Ackerböden, die überdies die Ressource sind für die Produktion von Nahrung. Humus enthält bis zu 60 % Kohlenstoff. Der Aufbau von fruchtbarem Boden hat mit der Aufforstung von Wald das langsame Wachstum gemeinsam. In Deutschland dauert es 100 bis 300 Jahre, bis eine Bodenschicht von 1 cm entsteht (dw, 2017). In den obersten Bodenschichten in der Welt sind so mehrere tausend Milliarden Tonnen Kohlenstoff gespeichert, mehr als in der Luft und in der Vegetation der Welt zusammen. In den letzten Dekaden hat die Bodendegradation (Verschlechterung der Qualität der Böden) zugenommen. Drastische Zeichen dafür waren z. B. die Staubstürme in den Great Plains der USA in den 30er Jahren. Heute ist es das Fortschreiten der Wüsten, die Desertifikation in Afrika, Asien und Australien im Zeichen der globalen Erwärmung. Durch die intensive Landwirtschaft, in den industriell entwickelten Ländern oder durch Überweidung etwa in Afrika sinkt der Kohlenstoffgehalt der Böden. Es ist wiederum eine (im Sinne des Klimawandels) positive Rückkopplung: Bodenerosion, weniger Wasseraufnahme, weniger Pflanzenwuchs, erhöhte Bodenerosion. Entsprechend der Proforestation bei Wäldern gibt es auch für Böden eine Methode zur systematischen Erhöhung des Gehalts an Kohlenstoff, die regenerative Landwirtschaft. Regenerative Landwirtschaft umfasst Methoden, die den organischem Kohlenstoff im Boden systematisch erhöhen sollen.

Gehalt

an

Vor allem das Ausbringen von Pflanzenresten (das Mulchen) und von Holzkohlepulver ermöglicht das Gedeihen von Bodenmikroben und verstärkt die Humusschicht. Pestizide, die die Bodenflora stören, müssen vermieden werden. Es soll möglichst viel Grüngut wachsen (dann gibt es auch viele Wurzeln) und es soll nicht tief gepflügt werden und nur wenn wirklich notwendig. Die erhoffte Entwicklung ist eine Win–Win-Situation für das CO2Problem und für die allgemeine Gesundheit der Landwirtschaft:

320     W. Hehl

• Weniger CO2-Ausstoss, ja im Gegenteil mehr CO2-Sequestrierung im Boden. • Verstärkte Wasserbindung, erhöhte Produktivität und weniger Erosion. Die Bodenregeneration hat dazu politisch die emotionalen Vorteile der Natursympathie und der Lokalität der Massnahmen, d. h. ein Teil der Auswirkungen bringt sichtbare lokale Vorteile und verschwindet nicht nur in der globalen Anonymität.

3.5 Grosstechnische Kohlenstoff-Senken (Carbon Capturing) „[I] am donating $100 Million towards a prize for the best carbon capture technology.“ Ich spende 100 Millionen Dollar als Preis für die beste Technologie, um Kohlenstoff aus der Luft zu holen. Elon Musk, Unternehmer, auf Twitter am 22. 1. 2021.

3.5.1 Negative Emissionstechnologien (NETs) Beobachtet man die nahezu unveränderte Zunahme des CO2-Gehalts der Luft, so wird es deutlich, dass Energiesparen und Energieumstellung nicht reichen werden, um den Temperaturanstieg anzuhalten, geschweige denn umzukehren. Es werden aktive negative Emissionen von CO2 benötigt durch Negative Emissions Technologien (NETs) oder CO2-Sequestrierung. Mehr technische Ausdrücke sind Capture und Removal: CO2-Abscheidung und Speicherung (engl. Carbon Dioxide Capture and Storage, CSS) bedeutet die CO2-Abspaltung am Entstehungsort, etwa im Kraftwerk, und die anschliessende dauerhafte Einlagerung.

Derartige Verfahren werden verwendet, um existierende Kohlekraftwerke zu dekarbonisieren, auch um die Zementproduktion klimafreundlich zu machen. Solange ein grosser Teil der Energie für Stromerzeugung und chemische Prozesse aus fossilen Brennstoffen gewonnen wird, bietet die CO2-Abscheidung die Möglichkeit, die Verbrennung dieser Stoffe um etliche Grade umweltfreundlicher zu machen.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     321

Schwieriger, aber wahrscheinlich notwendig und langfristig interessanter ist das direkte Entziehen aus der Luft: CO2-Rückholung und Speicherung oder engl. CO2-Removal oder Direct Air Capture (DAC) ist das Zurückholen von Kohlendioxid aus der Atmosphäre mit sicherer Lagerung.

Hier enthält der Ausgangsrohstoff, die Luft, das Kohlendioxid ja nur sehr verdünnt in 0,04 Volumen%. Das bedeutet unweigerlich einen höheren physikalischen Aufwand. Der DAC-Prozess wirkt wie eine negative Emission, wenn dabei mit allen Neben- und Vorprozessen insgesamt mehr CO2 aus dem System und der Atmosphäre entnommen wird als produziert. Die Idee für diese Prozesse geht auf das Jahr 1999 und eine weitsichtige Arbeit des deutsch-amerikanischen Physikers Klaus Lackner zurück (Lackner 1999). Seine Titelfrage ist noch heute gültig: Carbon Dioxide Extraction from Air: Is it An Option? CO2-Extraktion aus der Luft: Ist dies eine Option? Lackner sah im Jahr 1999, dass fossile Energien noch einige Zeit Energiequellen bleiben würden und er wollte zum CO2-Ausstoss der Kohlekraftwerke ein Gegengewicht schaffen. Er erfasste schon damals die Gefahren des Treibhauseffekts durch CO2 in der Atmosphäre, die Versauerung der Ozeane und die Schwierigkeit, sich von fossilen Energien zu lösen. Für die Allgemeinheit sind noch heute beide Richtungen, CSS und DAC, weit weg vom Bewusstsein und scheinen skurrile Ideen zu sein. Man ist berauscht vom relativ raschen Anstieg der Wind- und der Sonnenenergie. Aber tatsächlich ist die produzierte elektrische Solarenergie 2021 um die 800 TWh, also knapp 3 %, die der Windenergie 1 500 TWh, etwa 5 % der Weltproduktion an elektrischer Energie (etwa 28 000 TWh). Es wird ein weiter Weg werden, um auf den halben CO2-Ausstoss (wie er um 1995 war) herunter zu kommen oder gar auf 1/3 wie im Jahr 1985. Die Entwicklung wird im Sinne der Pareto-Regel sein und es wird nach vielen einfachen Erfolgen auch schwer zu dekarbonisierende Anwendungen (und Länder)

322     W. Hehl

geben. Das Ziel von Nullemissionen oder Zerocarbon emissions, ist, wenn überhaupt, bis zum Jahr 2050 nur mit negativen Emissionen erreichbar. Beide Ausrichtungen von Kohlenstoff-Ausscheidung haben das Problem: Was tun mit dem abgesonderten Kohlendioxid? Power-to-Fuel oder e-Treibstoff Eine Möglichkeit, im Sinne der Vermeidung des Klimawandels etwas paradox, ist die Verlängerung des Prozesses als Power-to-Fuel zur Umwandlung des CO2 in synthetischen Treibstoff, sog. e-Fuel oder e-Treibstoff – und damit die Rückkehr des Kohlenstoffs in die Atmosphäre. Dies kann nur Sinn ergeben für Anwendungen, die sich schwer elektrifizieren lassen, wie etwa den Schiffs- und den Flugverkehr, und wenn nachhaltiger Strom im Überfluss vorhanden ist. Die folgenden Zitate aus dem deutschen Wikipediaartikel Power-to-Fuel (gez. März 2021) bringen es auf den Punkt: Würde man ein Auto mit solchem Treibstoff betreiben, so würde man sechsmal so viel Energie verbrauchen wie bei einem normalen Elektroauto, würde man für den Prozess Strom aus einem Braunkohlekraftwerk benützen, so wären die CO2-Emissionen um den Faktor 6 höher als bei einem Auto, das fossilen Dieselkraftstoff benützt.

In der Übergangszeit würden recycelte flüssige Kohlenwasserstoffe ermöglichen, die Infrastruktur weiter zu verwenden und den Übergang zu glätten. Verwandte Technologien gibt es seit 100 Jahren, etwa die Kohleverflüssigung, sozusagen Carbon Power-to-Fuel, für deren Entwicklung der deutsche Chemiker Friedrich Bergius 1931 den Nobelpreis erhielt. Dabei lieferte Kohle den Kohlenstoff und die ganze Energie für die Synthese, dazu kam Wasser, hoher Druck, hohe Temperatur und ein Katalysator. Zu Beginn der Entwicklung standen die Firmen Royal Dutch und BASF. Schliesslich sind in der Zeit zwischen 1935 und 1944 in Deutschland einige Millionen Tonnen solchen synthetischen Kohle–Benzins als Leuna-Benzin für die Kriegsmaschinerie hergestellt worden (Abb. 3.24). Heute geht es um Kohlenstoff aus Kohlendioxid, Wasserstoff aus Wasser und um viel, sehr viel elektrische Energie, entsprechend den oberen Vergleichen zu Power-to-Fuel. Der vielversprechendste e-Fuel hat allerdings nichts mit CO2 zu tun – es ist reiner Wasserstoff. Einfacher sind diese beiden Anwendungen, die allerdings das CO2 nur kurz speichern: Die Verwendung des CO2 aus der Luft für das Sprudeln von Mineralwasser und für die Luftdüngung eines Glashauses (wie im Kapitel Kohlendioxid besprochen).

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     323

Abb. 3.24  Leuna-Benzin- Logo Tankstellenlogo für synthetisches Benzin auf Kohlebasis, um 1930. Bild: Leunabenzin Logo, deutsche Wikipedia, Jbergner.

Weltneuheit: Coca Cola HBC verwendet CO2 aus der Luft um den Getränken die Perlen zu geben. BusinessGreen.com, Dezember 2018. CO2 wird in die Treibhausatmosphäre eingeleitet, um das Wachstum von Gemüse und Salaten um bis zu 20 % zu beschleunigen. Climeworks News, Oktober 2015.

Kohlendioxid aus normaler Luft (DAC) Naturgemäss sind diese klimaneutralen Anwendungen mit der Wiederverwendung von CO2 der Luft gute Marketing-Erfolge, aber dem jungen Schweizer Unternehmen Climeworks geht es eigentlich um permanente CO2-Rückholung (DAC) aus der allgemeinen Luft. Diese Absicht gehört streng genommen schon zu den Geoengineering-Methoden, die die Erde als ganzes System betreffen. Allerdings ist es eine passive Massnahme; eine engere Definition von Geoengineering, wie wir sie im nächsten Kapitel verwenden: Geoengineering ist eine Massnahme, die aktiv in das Klimasystem der Erde als Ganzes eingreift.

CO2-Abscheidung und Dauerspeicherung ist nicht mehr rein spekulativ wie viele andere Geoengineering-Ideen, sondern bereits in der Phase industrieller Prototypen bei mehreren neugegründeten Carbon Capture-Firmen.

324     W. Hehl

Abb. 3.25  Gebläse-Reihen der Direct Air Capture Anlage von Climeworks, Schweiz Die Anlage in Hinwil liefert CO2 für die Luftdüngung in einer Gärtnerei. Mit freundlicher Genehmigung von Climeworks. Copyright Climeworks, Zürich

Abb. 3.26  Ab- und Adsorption Die Typen der Aufnahme eines Stoffes. Skizze nach CO2Net/ Daniel Sutter.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     325

Abb. 3.27  Das Capture-Prinzip für Gase nach R.R. Bottoms, 1930 Die Erfindung beschreibt das heutige Prinzip und die bestgeeignete Stoffklasse für die Absorption: Organische Amine. Bild: US Patent 1 783 901.

Die Abb. 3.25 zeigt die Ventilatoren einer CO2-Rückholungsanlage des Unternehmens Climeworks, eines im Jahr 2009 gegründeten Spinoffs der ETH Zürich. Das Prinzip des Capturing ist einfach (Abb. 3.26). Entweder wird das störende Gas in einem Sorptionsmittel (dem Sorbens) physikalisch (etwa nur gelöst) oder chemisch (mit chemischer Anbindung) aufgenommen, man spricht dann von Absorption (vom lateinischen absorbere für verschlingen ). Erfolgt die Aufnahme nur an der Oberfläche, so spricht man von Adsorption (von lateinisch adsorbere für (an)saugen ). Angesichts der niedrigen CO2-Konzentration von 0,04 % sind grosse Luftmengen umzuschlagen – daher die grossen Ventilatoren: Für 1 kg CO2 etwa 300 000 m3 Luft. Die ab- oder adsorbierende Substanz muss deshalb eine grosse Affinität zu CO2 haben – der Erfinder R.R. Bottoms hatte schon 1930 das erste Patent dazu erhalten und die beste Stoffgruppe dafür gefunden, sog. organische Amine. Die Abb. 3.27 zeigt die Prinzipskizze aus dem Patent, das auch die Stoffklasse der Amine für die Gasreinigung einführt. Links wird die Luft durch den Ab- oder Adsorber geleitet, rechts im Desorber durch Erwärmen ausgelöst. Bei den Climeworks erfolgt die Ausscheidung als Schadstoff (negativ betrachtet) oder die Gewinnung als Produkt (positiv gesehen) des Kohlendioxids mit chemischer Adsorption. Das Verfahren ist nicht grundlegend neu. Seit 90 Jahren wird es für U-Boote verwendet, seit 50 Jahren in Raumstationen. Naturgemäss ist es schwieriger, CO2 in der grossen Verdünnung aus normaler Luft zu gewinnen als aus den Abgasen eines Brenners mit

326     W. Hehl

20 % CO2-Gehalt. Physikalisch ist es eine Entmischung der CO2-Moleküle von den anderen Molekülen in der Luft, zu der Energie benötigt wird. Das klassische physikalische Bild dazu ist ein kleiner Geist, der Maxwellsche Dämon, der diese Arbeit macht und dafür Energie benötigt. Die physikalisch minimal gebrauchte Energie ist nicht sehr hoch. Theoretisch kann man mit bescheidenen 1/8 kWh ein Kilogramm CO2 von 99 %iger Reinheit aus Luft gewinnen, die nach der Abscheidung noch 0,02 % CO2 enthält (Sutter, 2020). Der Rest der Aufgabe ist Technologie. Die Auslösung des Kohlendioxids kann mit mässiger Erwärmung und mit thermischer Energie erfolgen, z. B. mit der billigen Abwärme eines Industrieprozesses. Damit ist der Energieverbrauch des Verfahrens insgesamt mässig gross, nach Firmenangaben etwa 650 kWh elektrische und 2000 kWh thermische Energie pro extrahierter Tonne CO2. Zum Vergleich: Diese Tonne CO2 ist das Nebenprodukt bei der Verbrennung von 270 kg Kohle, die etwa 2 200 kWh thermische Energie abgaben. Damit hätte man (beim Wirkungsgrad von 1/3) gerade die benötigten 650 kWh Strom erzeugen können. Es sieht so aus, als müsste man die einst gewonnene Energie wieder aufwenden und sozusagen zurückgeben! Der Pionier der CO2-Abscheidung gegen globale Erwärmung, Klaus Lackner, verfolgt ein anderes Konzept mit einem zumindest journalistisch sehr attraktiven Bild: mechanische Bäume. Es sieht Wälder aus Millionen von baumähnliche Konstruktionen entstehen, die Kohlendioxid aufsammeln. Als künstlerische Illustration mechanischer Bäume zeigt Abb.  3.28 einige eiserne Bäume, die als árboles de la vida (Lebensbäume) Nicaragua verzieren. Man begegnet ihnen überall. Die Konstruktionen sind eine Aktion von Rosario Murillo, der Frau des Präsidenten. Die kohlendioxidsammelnden Bäume werden wohl eher offene Zylinder sein. Der Wind soll durch diese Bäume streichen, zwischen und über beschichtete Folien, die CO2 aufnehmen bis zur Sättigung. Dann werden die Folien abgenommen und in Kammern „abgeerntet“, d. h. abgewaschen und dann getrocknet zur Wiederverwendung. Eine naheliegende Frage ist, ob es nicht einfacher wäre, echte, natürliche Bäume zu pflanzen anstelle von Technik? Die Antwort ist ernüchternd. Nach verschiedenen Quellen speichert ein ausgewachsener Hartholzbaum im Mittel etwa 20–25 kg CO2 im Jahr, ein Eukalyptusbaum nahezu das Doppelte (USDA, 2019 und CO2Meter, 2021). Die Climeworks-Anlage auf Island entnimmt der Luft 4 000 t pro Jahr, also 11 t pro Tag. Eine solche Anlage oder ein künstlicher Baum nach

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     327

Abb. 3.28  Künstliche Bäume in Nicaragua Zur Illustration der Idee mechanischer Bäume. Bild: Trees of Life in Managua, eine öffentliche Kunstinstallation. Eigenes Foto.

Lackner sammeln Kohlendioxid im selben Masse wie 500 ausgewachsene Bäume. Natürlich haben organische Bäume unsere ganze Sympathie und bringen viel Gutes zusätzlich zur CO2-Speicherung, aber sie brauchen Land (mit Wasser und Düngestoffen) und Zeit zum Wachsen. Etwa ein Jahrhundert ist ein guter Zeitrahmen, um einen Waldorganismus wachsen zu lassen. Wiederaufforstung soll natürlich in grossem Stil geschehen. Eine gute Nachricht: Land zum Aufbau neuer Wälder, das nicht in Konflikt mit landwirtschaftlicher Nutzung steht, gibt es vor allem in 6 Ländern: Russland (151 Millionen Hektar), USA (103  Millionen), Kanada (78  Millionen), Australien (58 Millionen), Brasilien (50 Millionen) und China (40 Millionen). National Geographic, 4. Juli 2019. How to erase 100 years of carbon emissions? Plant trees – lots of them.

Diese 6 Länder haben so viel Potenzial, weil sie in ihrer Geschichte so viel abgeholzt haben. Ein Wermutstropfen ist eine Rückkopplung von der globalen Erwärmung. Durch die Erwärmung wird die Wiederaufforstung mit der Zeit schwieriger – in ein, zwei Jahrzehnten wird die dafür nutzbare Fläche um ein Viertel geschrumpft sein. Dazu verringern – wie oben erwähnt – Wälder im Norden oder in gemässigten Breiten je nach Art der

328     W. Hehl

Umnutzung die Albedo und erwärmen selbst zusätzlich. Wie schon erwähnt sind die vorteilhaftesten und klimatisch wertvollsten Gebiete die Tropen, ebenfalls nach National Geographic: Die besten Hotspots für Wiederaufforstung sind in Afrika; dies würde auch der bedrohten Tierwelt helfen und dies bei niedrigen Kosten und mit geringem Risiko.

In diesem Zusammenhang einige Zahlen: Nach einer Schätzung gibt es auf der Welt insgesamt 3 Billionen Bäume. Vor der menschlichen Zivilisation mit Feuer, Ackerbau und Schiffbau waren es wahrscheinlich doppelt so viele (Breyer, 2019). Jährlich gehen zurzeit etwa 15 Mrd. Bäume verloren. Und für Überschlagsrechnungen nützlich: Auf einem Hektar Land wachsen durchschnittlich 1 000 Bäume. Es war der Schüler Felix Finkbeiner, der im Jahr 2006 aufrief: Lasst uns in jedem Land eine Million Bäume pflanzen. Aber dies ist (oder wäre), wie wir heute wissen, um viele Grössenordnungen zu wenig. Um einen spürbaren globalen Einfluss zu haben, sollten es wohl eher eine Million mal eine Million Bäume sein. Diese Aufgabe ist sehr, sehr gross: Würde man jede Sekunde, 24 h lang, einen Baum pflanzen, so würde man dazu 31 500 Jahre benötigen. In der (freiwilligen) New Yorker Wald-Erklärung vom Jahr 2014 hatten sich etliche Länder verpflichtet, bis 2020 den Waldverlust zu halbieren und bis 2030 auf null zu bringen. Dazu die Realität in einer Schlagzeile von 2019: Fünf Jahre weltweiter Waldverklärung: Weltweiter Waldverlust auf Rekordniveau. Jährlich werden weltweit Wälder mit der Gesamtfläche von Großbritannien und Nordirland gerodet, vor allem tropischer Regenwald. Von dem Ziel, die globalen Waldverluste bis 2020 zu halbieren, ist die Menschheit weit entfernt. Sandra Kirchner im klimareporter.de, 3. Oktober 2019.

Es sieht so aus, als seien quasi-industrielle Verfahren in den nächsten Jahrzehnten die einzige Chance. Dabei reicht es nicht aus, einige Grossanlagen aufzustellen. Notwendig ist eine CO2-Abfang-Grossindustrie in der Dimension der klassischen Öl- und Kohleindustrien. Aber wir haben das Problem noch nicht gelöst: Wohin mit dem gesammelten Kohlendioxid, ohne es in die Luft zurückkehren zu lassen?

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     329

Dieses Rückkehrproblem stellt sich natürlich auch beim Wald und den irgendwann absterbenden Bäumen. Kreisprozesse sind zwar grossartig in ihrer Nachhaltigkeit, aber sie sind problematisch, wenn ein System weit weg vom Gleichgewicht, wie es unsere Atmosphäre ist (und immer noch stärker wird), zum Arbeitspunkt des Gleichgewichts zurückgeholt werden soll.

3.5.2 Die Endlagerung des Kohlendioxids (Sequestrierung) Die geologische Endlagerung Die sicherste Methode, aufgefangenes CO2 langfristig zu speichern, ist die Verwandlung in Stein. Es ist der Weg, wie die Natur viele Gebirge aus Karbonaten (Salzen der Kohlensäure) gebaut hat und es ist ungefähr die Umkehrung der Herstellung von Zement. Aber dazu benötigt man Gestein, das die richtigen chemischen Bauteile zugänglich hat, etwa Silikate von Magnesium, Calcium oder Eisen. Basaltfelsen enthalten zu einem Viertel ihres Gewichts die Oxide dieser Metalle. Kommt derartiges Gestein mit Kohlendioxid zusammen, so können sich Karbonate als mineralische Verbindungen der Kohlensäure bilden, die für immer beständig sind und das CO2 verwahren. Ein ideales Experimentierfeld dafür ist Island, das als ganze Insel auf einem Basaltplateau liegt. Hier hat die erwähnte CO2-Capture-Firma Climeworks in einer Pilotanlage aus der Luft Kohlendioxid gewonnen. Ein isländisches geologisches Unternehmen hat es mit viel Wasser als kohlensaure Lösung und unter Druck in bis zu 2 000 m Tiefe in den porösen Fels gepresst und damit zu beständigem Stein werden lassen. Das Verfahren ist geologisch nicht trivial, aber es gibt derartiges poröses und reaktives Gestein auf der Welt in grossen Mengen. Zufällig stehen sich damit in diesem Abschnitt zwei isländische umweltrelevante und unkonventionelle Projekte gegenüber: Das Bitcoin-Schürfen der Abb. 3.17, das elektrische Energie abfackelt und in mathematische Daten verwandelt, und ein CO2-Projekt in Abb. 3.29, das Kohlendioxid aus der Luft entfernt und zu Stein werden lässt. Natürlich gibt es viele andere geologische Speichermöglichkeiten von der Luft in den Boden, die wesentlich billiger sind: Speicherung unter einer dichten Gesteinsschicht, in porösem Gestein, in Salzwasser in unterirdischen Wasserreservoiren (Aquiferen). Die Herausforderung ist der hohe Anspruch an die Sicherheit der Speicher. Die schlimmste Vision ist der plötzliche

330     W. Hehl

Abb. 3.29  Die Direct Air Capture & Storage Anlage Orca von Climeworks mit unterirdischer Speicherung durch das Projekt CarbFix in Hellisheidi, Island. Mit freundlicher Genehmigung von Climeworks. Copyright Climeworks, Zürich.

Gasausbruch aus einem unterirdischen Speicher, sodass sich ein Tal mit dem farb- und geruchslosen, aber erstickenden CO2 füllen würde. Das geologische Einbringen von Kohlendioxid in oder unter Sedimentschichten entspricht technisch dem Umgang mit geothermischer Energie und dem bekannten Risiko von der (Aus-) Lösung von Spannungen als Erdbeben geringer Stärke. Zwei Speicherungsmöglichkeiten sind mit fossiler Energieerzeugung verbunden und deshalb nicht sehr beliebt bei den jungen Unternehmen: Man könnte CO2 in erschöpften Erdöl- und Erdgaslagerstätten einlagern oder in Kohlenflöze, die nicht mehr abgebaut werden. Ein Nebeneffekt kann sein, dass im Austausch mit dem eingepressten CO2 das Ölfeld damit noch einmal Erdöl und Erdgas abgibt und aus dem Kohlelager Methan entweicht. Das ist hässlich aus puristischer grüner Sicht, aber solange fossile Brennstoffe noch ein Wert sind, ist dies ein Anreiz, mit dem Einsammeln von Kohlendioxid zu beginnen. Die wissenschaftliche Sicht fasst die Gruppe indischer Wissenschaftler um die Chemikerin Vijeta Arora 2019 zusammen:

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     331

Die Speicherung von abgefangenem Kohlendioxid in geologischen Formationen ist eine der besten Strategien, um den CO2-Gehalt der Atmosphäre zu stabilisieren.

Und: Das Sammeln, Einholen und Speichern von Kohlenstoff[dioxid] ist eine neue Technologie, die entscheidend ist im Kampf gegen die globale Erwärmung und für die Reduktion von Treibhausgasen. Vijeta Arora, indische Chemikerin, in Sciencedirect vom Dez. 2019.

Ohne aktiven Entzug des Treibhausgases aus der Atmosphäre ist es unmöglich, in diesem Jahrhundert auf einigermassen Null CO2 herunterzukommen. Dass dabei der verpönte Begriff der Endlagerung auftritt, ist sachlich begründet und der Preis für die Bereinigung der Vergangenheit. Die Endlagerung durch Holz-Begräbnis Kohle wurde durch das Begraben von urtümlichen Pflanzen unter Luftabschluss gebildet, etwa in einem Sumpf oder Moor. Die vorgeschlagene Methode, Holz zu vergraben, ist eigentlich der erste Schritt in dem Prozess der Bildung von fossilem Brennstoff, nur drastisch beschleunigt durch aktives menschliches Handeln. Ning Zeng, amerikanisch-chinesischer Physiker, 2008.

Durch die kaum gelöste Frage der nuklearen Endlager ist der Ruf des Wortes Endlagerung bei vielen Menschen verdorben. Holz selbst ist eine sympathische Substanz und ein Begraben von Holz höchstens ein bedauerlicher Vorgang und nicht beängstigend. Es ist eine freundliche Methode, die Natur selbst das CO2 aufsammeln zu lassen und es dann für beliebig lange Zeit aus dem Kohlenstoffkreislauf heraus zu nehmen. Das Sammeln des Kohlenstoffs geht in den hunderten von Milliarden von Bäumen vor sich, aber die Rückkehr dieses Kohlenstoffs in die Luft muss zumindest verzögert werden. Bereits im Jahr 1976 hatte der berühmte theoretische Physiker Freeman Dyson (1973–2020) den Gedanken, die globale Erwärmung mit dem Pflanzen von zusätzlichen Bäumen zu bekämpfen. Er schrieb eine Arbeit mit der Antwort zur Frage:

332     W. Hehl

Können wir das Kohlendioxid in der Atmosphäre kontrollieren? Aus dem Abstrakt: Theoretisch kann man das CO2, das beim Verbrennen fossiler Brennstoffe entsteht, durch das Pflanzen von Bäumen kontrollieren. Mit quantitativen Schätzungen. Freeman Dyson, Institute for Energy Analysis, Oak Ridge, USA. Energy, 1977, Vol. 2, pp. 287–291.

Dyson beschreibt dazu den Aufbau einer Kohlenstoff-Bank mit Hilfe von neu gepflanzten Bäumen, um Zeit für die Umstellung auf erneuerbare Energiequellen zu bekommen. Es sind moderne Gedanken vor nahezu 50 Jahren! Allerdings ist der Physiker berühmt für extravagante Ideen. So sieht er bereits eine Strafsteuer für fossile Brennstoffe voraus, aber auch gentechnisch veränderte Pflanzen, die noch mehr CO2 aufsaugen und vor allem in dicken Wurzeln speichern würden, sozusagen CO2-fressende Pflanzen, wie die Presse es nannte. Die Idee, geschlagenes Holz gezielt als Kohlendioxidspeicher zu bewahren, kam im Jahr 2008 auf, fast zur gleichen Zeit in den USA beim Physiker Ning Zeng und in Deutschland durch den Chemiker Fritz Scholz. Holz ist eine lagerfähige, gebundene Form des Kohlenstoffs, die von der Natur preisgünstig geliefert wird und unter Luftausschluss dauerhaft gespeichert werden kann. Solches Holz ist nicht verschwunden und ist keine Gefahr. Es kann sogar später wieder ausgepackt und verwendet werden. Ning Zeng nennt dies Wood Harvest and Storage WHS, Holzernte und Holzspeicherung und zielt im ersten Schritt auf das tote Holz oder auf die Bäume ab, die die Biomasse nicht mehr vergrössern. Er schätzt, dass es global etwa 65 Mrd. Tonnen Kohlenstoff als totes Holz gibt, und jedes Jahr etwa 10 Mrd. Tonnen neu entstehen, die Hälfte davon in den Tropen. Im Vergleich dazu ist die jährliche Holzernte auf der Welt etwa 1 Mrd. Tonnen Kohlenstoff-Äquivalente. Holz ist ein Massengut. Fritz Scholz (Scholz, 2008) will das Holz ebenfalls sammeln, sogar gerade dafür wachsen lassen und in grosse Erdspeicher bringen. Die vom Braunkohletagebau zurückgelassenen Riesengruben wären beispielsweise als Speicher prädestiniert. Dazu gäbe es allein in Deutschland 1 Million Hektar Brachland für neue Bäume. Scholz betont, dass das aufbewahrte Holz nicht verloren ist, sondern ein Wert bleibt und verwendet werden kann, wenn bessere Technologien zur Verfügung stehen. Es ist nicht notwendig, alles Holz für Tausende von Jahren auszuschliessen, die wichtigste Zeit sind die nächsten hundert Jahre! Bauholz und Möbelholz sind ebenfalls gültige Lösungen. Nur sollten sie nicht nach 10 Jahren verbrannt werden.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     333

Die Verbrennung von Holz ist aus Sicht des Haushaltens mit CO2 so schädlich wie die Verbrennung des schlimmsten fossilen Brennstoffes, von reinem Kohlenstoff. Die Verbrennung einer Tonne Holz gibt 1,8 t CO2 und liefert 4 000 kWh Wärmeenergie; zum Vergleich gibt eine Tonne Kohle etwa 3,6 t CO2 bei 8 000 kWh thermischer Energie. Das heisst, man benötigt etwa 2 t Holz mit 3,6 t entstehendem CO2, um eine Tonne Kohle energetisch zu ersetzen und erzeugt dabei genauso viel CO2. Die schlimmste und schnellste Art, den im Holz gespeicherten Kohlenstoff wieder in die Luft zu bringen, sind Waldbrände. Hier ist es schon sehr blauäugig, sie als klimaneutral zu bezeichnen. Natürlich wären sie über lange Zeiten hinweg im Gleichgewicht mit der Natur – aber jetzt haben sich Wald und Siedlungsgebiete vermischt und man möchte nicht mehr auf diese Art und Weise, durch flächenhafte Brände in der Nachbarschaft, das Gleichgewicht herstellen. Die allererste Holzeinlagerung ist (oder wäre) das Einsammeln von totem Holz, das vor allem in mediterranen Wäldern (wie etwa in Kalifornien) zur Gefahr wird. Hierzu ein Zitat des ehemaligen USPräsidenten, der hier nicht ganz Unrecht hat: „Es geht um das Forst-Management. Merken Sie sich die Worte: Forst – Management“. Dann fügte er allerdings hinzu: „Ich denke, die Wissenschaft hat keine Ahnung“.

Donald Trump in Sacramento, Kalifornien, den 14. September 2020. Die Wissenschaft weiss es schon. Der Klimawandel macht die Trockenzeiten länger und heisser, starke Winde fachen die Feuer an. Forstmanagement mit Holzsammeln in den Wäldern und die zuverlässige Sequestrierung des Holzes wäre ein Win–Win von Sicherheit und CO2-Speicherung. Damit ist die Empfehlung: • Wälder von totem Holz befreien und das Holz sequestrieren. • Soviel Holz wie möglich langfristig verwenden. • Gezielt untaugliche (unproduktive) Bäume herausnehmen und sequestrieren. • Die guten Wälder sich auswachsen lassen (Proforestation). • Brachliegende Flächen womöglich aufforsten und das Holz sequestrieren. Dazu hier eine Vorschlagsliste von Bäumen: In den Tropen roter und grosser Eukalyptus, in der gemässigten Zone Monterrey Kiefer und Schwarzpappel, in den nördlichen Breiten die gemeine Fichte und die japanische Lärche.

334     W. Hehl

Abb. 3.30  Der Braunkohletagebau Welzow-Süd Derartige grosse Erdgruben sind Kandidaten für grosse Kohlenstoffsenken mit gesammeltem Holz. Bild: 20050521010DR Commons, Jörg Blobelt.

Welzow

Braunkohletagebau

Welzow-Süd,

Wikimedia

Mit freundlicher Genehmigung.

Zentral ist die Absicht, mit grossen Mengen von Baumholz Kohlenstoff-Banken einzurichten, sozusagen mit Bankfilialen in der ganzen Welt. Angesichts der Grösse des Problems (es geht um Hunderte oder Tausende von Millionen Tonnen Materie) sollten auch Grossbanken darunter sein. Die Abb. 3.30 zeigt einen typischen Kandidaten für einen sehr grossen zukünftigen Speicher. Es ist der Braunkohletagebau Wetzow-Süd mit einer Grube von bis zu 130 m Tiefe und 10 km Länge und bis zu 20 Mio. Tonnen entnommener Braunkohle pro Jahr. Das ist viel Platz für Holz. Holzspeicherung ist im Prinzip eine einfache und im Kleinen preiswerte Technologie, die leicht zu kontrollieren, zu unterbrechen oder sogar umzukehren ist. Zur Finanzierung und zur Marktentwicklung (und vielleicht zum Schutz) für das Nutzholz gehört ein entsprechendes politisches Geschäftsmodell. Das Verfahren ist allen Staaten leicht zugänglich, aber es wäre gerecht, wenn die reichen Verursacherstaaten einen grösseren Beitrag leisten würden. Allerdings gilt wieder, dass die tropischen und subtropischen Gebiete wichtiger sind für die Kohlenstoff-Produktion als die gemässigten Bereiche, deren Aufforstung eventuell sogar die klimatische Gesamtbilanz verschlechtert. Auch sollte kein Ackerland in Wald umgenutzt werden. Einer-

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     335

Abb. 3.31  Selbstgemachte Biokohle Bild: biochar, Wikimedia Commons, K.salo.85

seits soll es keine Konkurrenz zur Ernährung geben, und andrerseits könnte der Ackerboden mehr Kohlenstoff enthalten als der Waldboden. Kohlesequestrierung durch Pyrolyse (Biochar) Beim Karbonisieren können Sie die Verwandlung von Biomasse zu Torf, Braunkohle und Kohle, die in der Natur Jahrmillionen braucht, in ein paar Stunden erledigen. Markus Antonietti, Chemiker, Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Potsdam, 2008.

Das Erhitzen unter Luftabschluss beschleunigt den Vorgang. Die Kohlenstoffbindungen brechen auf, Zersetzungsprodukte lösen sich und es bleiben etwa 70 % des Kohlenstoffs als biologische Kohle, Biochar, zurück. Es ist der seit langem bekannte Prozess der Herstellung von Holzkohle, früher im Meiler des Köhlers, jetzt im Autoklaven. Holzkohle war der Stoff, mit dem man aus Eisenerz schon früh Eisen gewinnen konnte – mit Steinkohle war dies wegen der Verunreinigungen nicht ohne weiteres möglich. Noch heute ist Holzkohle ein verbreiteter Brennstoff für den Wald auch gerodet wird, etwa in Haiti und Madagaskar. Die entstehende Biochar (Abb. 3.31) ist chemisch sehr stabil und sehr porös, es gibt sogar hochgereinigte Pflanzenkohle für die Medizin als carbo medicinalis und als Nahrungszusatz die schwarze Lebensmittelfarbe E153. Die beiden Eigenschaften chemische Stabilität und Porosität machen die positive Bedeutung für die Umwelt aus. Pflanzenkohle wird in die Ackererde als Bodenverbesser eingebracht, meistens zusammen mit anderen (organischen) Stoffen wie Viehmist. Die chemische Stabilität macht es

336     W. Hehl

Bodenbakterien schwer, den Kohlenstoff umzusetzen und als CO2 wieder zu befreien. Mit der Pflanzenkohle entsteht insbesondere die mystische schwarze Erde Terra preta des Amazonasbeckens, die weltweit so etwas wie der heilige Gral der Bodenverbesserung ist. Die Porosität macht Biochar wasseranziehend, aufnahmefähig für Nährstoffe und zum Wohnplatz für Bodenmikroben, d. h. die Zugabe von Pflanzenkohle wirkt (meistens) wie Düngung. Kohlenstoff hat zwar als chemisches Element die weitaus grösste Zahl von Verbindungen (diese Fähigkeit macht es zur Grundlage des Lebens) und auch eine grosse Zahl von verschiedenen Formen als Element (Modifikationen) mit den Grundstrukturen Grafit (ebenenhaft), Diamant (räumlich) und dem Fulleren (ballförmig), aber sie sind chemisch sehr stabil. Die Stabilität der Pflanzenkohle und die Energiebilanz des PyrolyseProzesses macht sie zu einer CO2-Senke. Obwohl nur ein Teil der Biomasse karbonisiert wird, ist die Bilanz positiv. Die Verwendung von Sonnenenergie zur Pyrolyse wäre natürlich ideal! Es gilt ungefähr: Mit Pyrolyse in einer modernen Anlage lässt sich aus zwei Tonnen Grünschnitt so viel Pflanzenkohle gewinnen wie einer Tonne CO2 entspricht, d. h., effektiv wird der Luft eine Tonne CO2 entzogen. Ithaka-net, 2009, Sequestrierungspotential Grüngutpyrolyse.

Die Pyrolyse erscheint damit eine gute Ergänzung zur Verwahrung von Holz unter Luftabschluss (Wood Harvest and Storage) zu sein mit der Möglichkeit der Düngung von Äckern und Wäldern. Es ist eine naturnahe Methode und mit nur mässigem Einsatz von Technik (es ist Low Tech), die keine psychologische Technikabwehr hervorrufen sollte. Eine physikalische Warnung: Die oberste Oberflächenschicht sollte nicht schwarz werden, jedenfalls nicht über grosse Flächen – die Albedo würde sinken und die Düngung würde (global-klimatisch unerwünscht, aber vielleicht lokal erwünscht) wärmen. Wir haben damit drei Verfahren mit steigender Technizität (Tab. 3.3), die sich eigentlich gut ergänzen. Sie sind von verschiedener emotionaler Resonanz. Erstaunlicherweise erfuhr das erste, einfachste und natürlichste Verfahren der Holzaufbewahrung die grösste Kritik, etwa als waldfeindlich. Die Bedeutung des Waldes würde nicht verringert, sondern eher erhöht werden. Das Geschäftsmodell Wald würde verändert und die Zielsetzung verschoben mit dem Ziel sehr langfristiger CO2-Speicherung. Das grosse Problem ist der Paradigmenwechsel. Holz ist in unserer Kultur ein fundamentaler Wert, den man achtet. Die erste Generation

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     337 Tab. 3.3  Die Positionierung von drei Negativen-Emissions-Verfahren

Verfahren

Einfangphase

Speicherphase

Holzernte und Speichern (WHS) Pyrolyse Direct Air Capture (DAC)

Bio

Low Tech

Klein – gross – sehr gross

Bio High Tech

Medium Tech High Tech

Klein – gross – sehr gross Gross – sehr gross

Skalierbarkeit

von Umweltschützern war nicht nur gegen Kernenergie, sondern auch gegen Kohlenstoffspeicherung – man hatte Angst, diese Technologien der negativen Emissionen würden nur die Umstellung zu klimabewusstem Verhalten stören, ja bremsen. Endlager war dazu ein Un-Wort. Heute ist es deutlich: Es geht nicht ohne. Die Koexistenz von CO2-emittierenden und CO2-absorbierenden Technologien ist für die nächsten Jahrzehnte unumgänglich. Es gilt, was der Chemiker Fritz Scholz schon 2009 in einem Kommentar sagte. Der Prozess, Holz wachsen zu lassen und dann zu begraben, ist heute aus ökonomischer und ökologischer Sicht die einzig denkbare Lösung.

Als Ergänzung zeichnet sich noch die industrielle DAC-Lösung ab, etwa im Sinne der Anlagen von ClimeWorks, später in grosser Dimension. Aber diese Technologien sind von ganz anderer Komplexität als Holz zu sammeln und mit Erde zuzudecken und stecken erst in einer Pilotphase. Sie könnten allerdings zur grossen Investitions-Herausforderung in den nächsten zwanzig, dreissig Jahren werden.

3.6 Geoengineering-Ideen Gerade vor einem Jahrzehnt war jedes dieser Schemata als haarsträubend und hahnebüchen betrachtet worden. Manche sehen sie immer noch so an. Aber was vor zehn Jahren so schrullig klang, wird nun zu etabliertem Denken. Graeme Wood. The Atlantic, 2009.

Dieser Satz ist heute noch aktuell. Viele Ideen von GeoengineeringMethoden grenzen an Science Fiction. Dies gilt nicht für die bisher besprochenen Verfahren des Entfernens von Kohlendioxid aus der Luft, die Negativ-Emissions-Technologien. Sie sind realistische, bodenständige Methoden, die, wenn man sie einmal beendet, einfach auf das normale

338     W. Hehl

Nichtstun zurückfallen. Kein Nachbarland kann ein Unwetter oder eine schlechte Ernte darauf zurückführen.

3.6.1 Wir sind im Anthropozän Geoengineering ist eigentlich jegliche Technologie, die die Erde als Ganzes betrifft. Da die Atmosphäre unseren Planeten voll umschliesst, ist auch ein Kohlekraftwerk mit seinen Abgasen Geoengineering, d. h. die Welt mit Technik verändernd. Der Mensch hat, vor allem im Industriezeitalter der letzten 250 Jahre, mit seinen Technologien die Welt, ohne sich darüber klar zu sein, zu einer ganz anderen Erde gemacht. Der Meteorologe und Nobelpreisträger Paul Crutzen und der Biologe Eugene Stoermer haben in diesem Sinn im Jahr 2000 den Begriff des Anthropozäns popularisiert. Das Wort ist in Anlehnung an die jüngsten geologischen Epochen Pleistozän und Holozän gebildet und als deren Fortsetzung und neue Epoche der Erde (altgriechisch ἄνθρωπος ánthropos, ‚Mensch‘ und καινός ‚kainos, ‚neu‘). Das Anthropozän bezeichnet die Epoche der Geschichte der Erde, in der Menschen die physikalischen Parameter der Erde (einfach gesagt das Aussehen,) merklich verändert und bestimmt haben.

Ein sanfter Beginn ist etwa durch die Rodung der Wälder definiert, ein härterer Beginn durch die einsetzende Industrialisierung mit Dampfmaschinen, z. B. auf den Tag genau mit dem Patent von James Watt vom 5. Januar 1769. Klimatisch wird das Anthropozän deutlich mit der Erhöhung des Gehalts an CO2 in der irdischen Atmosphäre. Ein mehr spiritueller Startpunkt ist der 16. Juli 1945 mit dem ersten erfolgreichen Test der Atombombe in der Wüste von New Mexico! Ein Obelisk aus schwarzer Lava zeigt den Ort der Explosion an. Die Abb. 3.32 illustriert das Anthropozän mit einer Fotomontage von der Erde bei Nacht mit künstlicher Beleuchtung. Historisch war das Anthropozän schon früher geahnt worden. Vorreiter des Begriffs war der italienische Geologe und Priester Antonio Stoppani (1824–1891). Allerdings war Stoppani von der menschlichen Macht und der Zukunft begeistert: Eine neue Kraft regiert … die alte Natur verzerrt sich und flieht unter dem Stiefel dieser neuen Natur. Wir sind am Beginn einer neuen Ära, und doch, wie tief ist der Fussabdruck des Menschen schon auf der Erde! … Dieses

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     339

Abb. 3.32  Die nächtlichen Lichter der Erde Ein zusammengesetztes Bild zur Demonstration des Anthropozäns Die Erde bei Nacht, aufgenommen von Defense Meteorological Satelliten. Bild: Earth’s city lights by DMSP, 1994–1995 (large), Wikimedia Commons, Marc Imhoff/NASA GSFC, Christopher Elvidge/NOAA NGDC; Image: Craig Mayhew and Robert Simmon/NASA GSFC.

Geschöpf [der Mensch] ist für die Natur ein neues Element, eine neue tellurische Kraft, die in Stärke und Universalität nicht gegenüber den stärksten Kräften der Welt zurückstecken muss. Antonio Stoppani in Anthropozoic, 1873. Nach Turpin, 2012.

Stoppani sieht dies Anthropozoikum, wie er es nennt, als gottgewollt und berechtigt an direkt nach dem Bibelspruch aus dem ersten Buch Mose, Vers 1,28: Und Gott segnete sie und sprach zu ihnen: Seid fruchtbar und mehret euch und füllet die Erde und machet sie euch untertan … Die grossen Veränderungen der Welt durch den Menschen sind bisher „einfach so“ geschehen. Sie sind ein grosses Experiment ohne Plan und folglich auch ohne Plan B im Fall des Scheiterns.

3.6.2 Erste unerwartete Ankündigung des grossen Problems Aber jetzt mit dem steigenden Treibhausgas in der Atmosphäre wird es Zeit, bewusst zu handeln, wenn man zurück will oder es wenigstens versucht. Dabei wird es hoffähig, sogar aussergewöhnliche und ausgefallene Möglich-

340     W. Hehl

keiten ins Auge zu fassen. Das wohl erste Mal geschieht dies auf der grossen politischen Bühne bereits 1965. Wissenschaftler (u. a. die schon erwähnten Roger Revelle, Wallace Broeker und Charles Keeling) verfassen für den Präsidenten Lyndon B. Johnson ein Dokument, das heute noch gültig wäre (erstaunlicherweise oder leider), Johnson, 1965: Die klimatischen Änderungen durch den erhöhten CO2-Gehalt können für die Menschen schädlich sein. Dies [das CO2] wird die Wärmebilanz der Atmosphäre in einem solchen Mass verschieben, dass ausgeprägte Klimaänderungen auftreten können, die nicht mehr lokal oder auch nicht mehr national beherrscht werden können. Dann wird es sehr wichtig werden, Gegenmassnahmen zur Klimabeeinflussung zu kennen. Dies werden bewusste Eingriffe in andere Klimaprozesse sein. Bericht des President’s Advisory Committee, White House, 5. November 1965.

Die heute sichtbaren Probleme werden bereits aufgezeigt: Schmelzen des arktischen Eises, Meeresspiegel-Erhöhung auch durch die Erwärmung der Meere (das Wasser dehnt sich aus), Versauerung der Ozeane, Gase von Vulkanausbrüchen, aber auch der mögliche, beschränkt positive Effekt von verstärkter Photosynthese in Gebieten mit ausreichendem Wasser und Nährstoffen. Der Bericht ist ein erstaunlicher, professioneller Lehrtext zum Klimawandel. Damals Theorie, aber heute akzeptabel und jetzt mit der Ernsthaftigkeit des Erlebens oder Beinahe-Erlebens. Die bewussten Eingriffe, auf die der Präsident vorbereitet wurde, sind Geoengineering-Verfahren. Die Geoengineering-Methoden fallen in zwei, bzw. drei Klassen: 1. Reduktion des Treibhauseffekts durch CO2-Abbau, insbesondere durch direkte Entnahme aus der Luft (Direct Air Capture, DAC). 2. Änderung der Energiebilanz des Planeten durch Strahlungs-Management, durch 2 a) Erhöhen der Albedo, d. h. weniger Sonnenenergie wird aufgenommen,oder durch 2 b) Abschirmung schon im All. Die realistischsten und sanftesten Massnahmen zur Entnahme von Kohlendioxid aus der Luft haben wir schon gesehen, etwa Auf- oder Proforestation, das Sammeln von Biomasse und sie dann luftdicht verstecken oder luftdicht verkohlen, oder das direkte Sammeln von CO2 mit Technik aus der Luft in grossem Massstab. Eigentlich sind die Verfahren vom Typ 1 ledig-

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     341

lich Geo-Re-Engineering-Verfahren, die im Wesentlichen nur einen einzigen Parameter zurücksetzen, den CO2-Gehalt der Luft. Ein exotischer Vorschlag vom Typ 1 zur CO2-Entnahme aus der Luft ist eine Art künstlicher Verwitterung von Silikatgestein, etwa des grünlichen Minerals Olivin, das in grossen Mengen auf der Welt vorkommt und selbst keinen Kohlenstoff enthält. Bei der Verwitterung mit Wasser nimmt es das CO2 von aussen auf. Olivin verwittert in der Natur sehr langsam. Um den Vorgang zu beschleunigen, muss es fein pulverisiert werden. Man würde für eine Tonne fixiertes CO2 eine ganze Tonne gemahlenes Gestein benötigen. Die grosse zu bewegende und zu pulverisierende Masse macht das Verfahren buchstäblich zu schwer. Das Dokument der Berater von Präsident Lyndon B. Johnson von 1965 beschreibt bereits ein futuristisches Geoengineering-Projekt vom Typ 2 a), das grossflächige Verstreuen von kleinen, reflektierenden Partikeln über den Ozeanen. Sie sollen im Wasser schweben bleiben und Sonnenlicht reflektieren. Damit sollte die Albedo der Erde vergrössert werden. Allerdings ist der ganze präsidentielle Bericht ein halbes Jahrhundert lang in Vergessenheit geraten. Eine aus heutiger Sicht erstaunliche Beobachtung: Das Dokument enthält keinerlei Ermahnung oder Aufruf zum Einsparen von fossilen Brennstoffen! Dies hatte nicht zum faustischen Zeitgeist dieser Jahre gepasst. Der heutige Zeitgeist hat sich, denke ich, um 180° gedreht.

3.6.3 Beispiele zum Geoengineering: Aerosole in die Stratosphäre Der wohl bekannteste Vorschlag eines aktiven Geoengineerings ist eine moderne Version der Idee, die Albedo der Erde zu erhöhen, wie im Bericht der Präsidentenberater von 1965 angedeutet: Weisse, reflektierende Teilchen (Aerosole) in der Stratosphäre sollen die Albedo der Erde vergrössern (Typ 2a). Wir haben diese Idee schon im Zusammenhang mit dem weissrussischen Physiker Michail Budyko erwähnt. Er hatte entdeckt, dass das klimatische System in seinem einfachen rechnerischen Modell sehr empfindlich auf kleine Schwankungen im empfangenen Energiestrom reagierte. Dieses Verfahren Aerosol-Injektion in die Stratosphäre zur globalen Temperaturreduktion ist sozusagen der Natur abgeschaut. Die Menschheit hat dies schon mehrfach erfahren bei grossen Vulkanausbrüchen wie dem Tambora, dem Krakatau und dem Pinatubo (Abb. 3.33). Der Ausbruch

342     W. Hehl

Abb. 3.33  Der Vulkan Pinatubo vor der Eruption Der Ausbruch löst mit der Wolke aus Aerosolen ein globales Klima-Experiment aus. Bild: vulcanoPinatuboJune1991, Wikimedia Commons, US Geological Survey.

des Pinatubo im Jahr 1991 hatte 15 Mio. Tonnen Schwefeldioxid SO2 in die Atmosphäre injiziert (7,5 Mio. Tonnen Schwefel), die zu winzigen Tröpfchen Schwefelsäure wurden. Für zwei Jahre wurde die mittlere Temperatur der Erdoberfläche um etwa ein halbes Grad erniedrigt, die Temperatur in der Stratosphäre entsprechend um mehrere Grad erhöht.17 Somit hat die Natur genau das Experiment durchgeführt, das benötigt wurde, um die Wirkung der Technologie zu studieren. Diese AerosolInjektions-Methode ist immerhin realistischer als viele andere Ideen. Allerdings ist es noch nicht möglich, die Verteilung von Injektionen und ihre globale Wirkung zuverlässig im Computer zu simulieren. Ein Experiment würde wohl zuerst die lokalen Wettermuster stören und Trockenheiten oder Überschwemmungen hervorrufen. Gleichgültig, ob wirklich verantwortlich oder nicht, der Experimentator wäre der Schuldige. Bei einer Anwendung der Technologie würden sich wahre ScienceFiction-Szenarien ergeben. Hunderte von umgebauten Düsenflugzeugen mit grossen Spraydüsen, die laufend in der Luft wären (aber natürlich mit den Triebwerken auch CO2 erzeugen würden) oder, noch exotischer aber sparsamer, Stratosphärenballone in 20 km Höhe, die Schläuche halten, die vom Boden in die Höhe gehen. Am Boden wären Tanks mit z. B. Schwefelwasserstoff- (H2S) oder Schwefeldioxidgas (SO2), das nach oben gepumpt wird und am oberen Schlauchende in die Stratosphäre versprüht wird. Dazu

17 Wir

haben den Mechanismus dafür bei der Abb. 2.19 erklärt.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     343

Abb. 3.34  Geoengineering in Aktion Cartoon des Berliner Künstlers Henning Wagenbreth in der New York Times vom 24. Oktober 2007. Mit freundlicher Genehmigung des Künstlers.

war schon 2011 ein Feldversuch im verkleinerten Massstab geplant gewesen, der dann doch am Widerstand der Öffentlichkeit scheiterte sowie am Fehlen internationaler Vereinbarungen. Der schon mehrfach erwähnte Michail Budyko hatte schon in den Siebzigerjahren als Beginn vorgeschlagen, das Kerosin der Flugzeuge nicht zu entschwefeln, sondern im Gegenteil zu schwefeln. Der Cartoon des Berliner Künstlers Henning Wagenbreth demonstriert diese Technologie mit klimatologisch schwarzem Humor (Abb. 3.34). Allerdings würden mit dieser Geoengineering-Methode viele Millionen Tonnen giftiger Substanzen mit ungeklärten Auswirkungen bewusst auf die Biosphäre losgelassen werden! Dafür lässt sich wohl schwer ein Konsens finden. Eine derartige Massnahme sieht schon beinahe wie eine militärische Technik aus. Zusätzlich verbraucht das SO2 bei der Oxidation zu Schwefelsäure auch das schützende Ozon und würde dadurch das Ozonloch vergrössern. Die Liste der Besonderheiten und Nachteile ist noch viel länger: Da die Methode das Licht der Welt als Ganzes schwächt, bedeutet dies auch weniger Licht für die Photosynthese und weniger Energie für Solaranlagen. Zudem ist dieses Schwächen des Sonnenlichts nicht identisch mit dem Zurückdrehen des Treibhauseffekts. Die Tage wären ggfls. kühler, die Nächte dagegen blieben wärmer. Der Kühlungseffekt würde vor allem die

344     W. Hehl

tropischen Breiten betreffen, der Effekt auf den besonders gefährdeten Polarregionen wäre viel kleiner. Die Niederschläge auf der Welt würden sich wohl, wie nach Vulkaneruptionen, weltweit verändern. Nach der geschichtlichen Erfahrung wird Zentralasien trockener, Südasien feuchter, was die Klimamodelle noch nicht befriedigend erklären können (NSF, 2010). Besonders gefährlich wird es beim Aufhören; wir würden hier ja wieder einen faustischen Handel abschliessen. Da der Treibhauseffekt an sich nicht verändert wurde, käme die Erwärmung beim Beenden mit voller Wucht zurück. Es ist eine vielleicht überraschende Nachricht, wie relativ gering die Energiemenge ist, um die die von der Erde aufgenommene Sonnenenergie nur verringert werden muss. Es geht um die Kompensation des Strahlungsantriebs durch die Treibhausgase, also um 2,5 W/m2 im Vergleich zu den mittleren 348 W/m2, die die Erde von der Sonne insgesamt erhält. Man muss also weniger als 1 % der Sonnenenergie zusätzlich abwehren.

Die Kosten für eine derartige Injektions-Methode wären erschwinglich, im Bereich von etlichen Milliarden Dollar pro Jahr. Einer der Mega-Milliardäre unserer Zeit könnte die ersten Jahre der Durchführung finanzieren. Dies wird kaum geschehen; wir warten deshalb zwangsläufig auf den nächsten sehr grossen Vulkanausbruch.

3.6.4 Wolkenaufhellung auf dem Meer Es gibt noch eine Variante, die Albedo der Erde zu stärken, die chemisch sanfter ist und damit in der Umsetzung etwas realistischer: Wolkenaufhellung über dem Meer (marine cloud brightening). Auch dieses Verfahren ist vom Typ 2a), der Erhöhung der Albedo. Es ist die technische Intensivierung der Spuren der Schiffsrouten in Abb. 2.60. Es ist sehr beeindruckend, dass sich im Satellitenbild die Wege von Schiffen deutlich und lange in der Luft abzeichnen; die Abgase erzeugen breite Wolkenspuren. Dies war eine Überraschung, denn das Phänomen ist nur aus dem All sichtbar. Dies ist der Schlüsseleffekt für diese Methode. Die Kondensationskeime für die weissen Spuren, den Wolken, stammen aus den Abgasen, sonst fehlen sie in der klaren Seeluft. Wolken werden mehr benötigt denn je. Grosse, blendend weisse Eisflächen mit 90 % Albedo sind dabei, sich in offenen, dunklen Ozean verwandeln mit bis zu 94 % Wärmeabsorption. Besonders wichtig sind marine

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     345

Stratokumulus-Wolken. 20 % der Erde sind damit bedeckt und geben 30 % der gesamten Energie, die die Erde erhält, ins All zurück. Stratokumulus ist eine Gattung tiefer Wolken … Sie überziehen den Himmel in Form von grauen, grauweissen oder weissen Flecken oder Schichten mit dunklen Bereichen in schichtförmiger Anordnung von grösseren Ballen und Walzen. … Stratokumulus entstehen unterhalb einer Höhe von etwa zwei Kilometern. Aus diesem Grund bestehen sie vorwiegend aus feinen Wassertröpfchen [und nicht aus Eiskristallen]. Nach dem Wetterlexikon, wetteronline.ch.

Diese Wolken zu vergrössern und zu verstärken, das ist das Ziel eines seriösen und wohl auch machbaren Vorschlags vom englischen Atmosphärenphysiker und Poeten John Latham (Smedley, 2019). Dazu sollen von automatisierten Schiffen aus natürliche Kondensationskeime in die Luft gebracht werden: Meerwasser wird wie in Schneekanonen zerstäubt und die entstehenden mikroskopischen Salzkristalle bilden Wolkenkeime. Der führende Wissenschaftler für dieses Konzept ist der schottische Schiffsingenieur Stephen Salter (geb. 1938). Salter ist als Ingenieur berühmt für ein Verfahren zur Gewinnung von elektrischem Strom aus Wasserwellen. Die nach ihm benannte nickende Ente ist ein kleines Wellenkraftwerk. Die Abb. 3.35 zeigt

Abb. 3.35  Automatische Spray-Schiffe auf hoher See Konzeptstudie 2019 einer Flotte von Seewasser sprühenden Flettner-Schiffen nach Stephen Salter. Die Schiffe durchkreuzen selbsttätig die Weltmeere. Bild: Design Atelier John MacNeill, New Jersey. Mit freundlicher Genehmigung.

346     W. Hehl

seine Konzeptstudie von automatischen Segelschiffen mit Solarzellen, Stromerzeugung durch die Fahrt und Seewasser-Spraydüsen. Die Rotoren-Masten sind die Segel der Schiffe nach dem sog. Flettner-Prinzip, physikalisch dem Magnus-Effekt: Ein rotierender Zylinder im Wind erfährt eine Querkraft. Für Windflauten haben die Schiffe noch einen elektrischen Antrieb, der mit Strom von der Sonne oder aus Windenergie betrieben wird. Obwohl die Schiffe so nach Science Fiction aussehen, haben diese Flettner Schiffe eine gute Chance, die passenden Träger für diese Aufgabe zu sein. John Latham, Physiker, 2009.

Vorteile der Methode sind ihre Skalierbarkeit (man kann regional beginnen, etwa auch um ein Hurrikan-Gebiet zu entschärfen) und die einigermassen fassbaren Kosten (etwa 1 bis 2 Mio. $ pro Schiff). Durch die Nähe zur natürlichen Wolkenbildung ist das Verfahren relativ harmlos. Man kann auch sanft aufhören; nach wenigen Tagen wäre die Wirkung wieder fort. Zur globalen Besprühung würde man wohl mehr als 1000 solcher Klima-Jachten benötigen, etwa 100 Schiffe vielleicht für ein regionales Wolken- oder Nebelgebiet, wie es die Natur schon vor der kalifornischen, chilenischen oder namibischen Küste erzeugt. Wenn man mit den Schiffen die regionale Wassertemperatur senken würde, könnte man (eventuell) sogar das grosse Korallenriff schützen und Hurrikane abschwächen oder das Wetterphänomen des El Niño abschwächen. Bei diesem Verfahren ist das Risiko für die Umwelt gering, fraglich ist eher die Wirksamkeit. Ein grosses technisches Problem ist die Zerstäubung des Wassers. Insbesondere die Düsen sind eine extreme technische Herausforderung. Jeden Tag sollen aus dem aggressiven Salzwasser Trillionen Tröpfchen kleiner als 1 μm Durchmesser erzeugt werden. Die Physik von Wolken und deren Entstehung zu verstehen, ist vielleicht der schwierigste Teil der Klimatologie. Natürlich wäre es sinnvoll, damit zu experimentieren. Dafür würden auch konventionelle Schiffe genügen. Aber auch diese freundliche Methode der Verstärkung der Wolken ist verpönt. Konventionelle Umweltschützer befürchten, dass jegliche Geoengineering- Forschung den Druck zur Umwandlung in eine nachhaltige Energiewirtschaft vermindert. Für sie ist es abstossend, wenn die Forschungen an Geoengineering von der Öl- und Kohleindustrie gefördert werden. Aber für diese Unternehmen ist es ein natürliches post-fossiles Zukunftsgebiet. Die Ablehnung ist eine gefährliche emotionale Reaktion. Es wäre beim schwindenden arktischen Eis dringend geboten, neue weisse Flächen zu schaffen.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     347

Manches Institut, das Forschung im Umfeld von Geoengineering arbeitet, entschuldigt sich sogar danach für die Forschung und versichert: [Wir] haben weder die Absicht noch ein Interesse daran, mit dieser Studie den Weg für den kommerziellen Einsatz von Geoengineering-Massnahmen zu ebnen18. Man will die Unschuld nicht verlieren und nur beobachten. Forscher verfolgen solche Ideen dann in ihrer Freizeit. Aber wir sind schon mitten im grossen Experiment mit der Erde, zuschauen reicht nicht mehr. Die Bewölkung semi-natürlich zu verstärken wäre ein sanfter und vernünftiger Versuch. Eine ozeanische Variante der Aufhellung ist die Idee des Microbubbling, der Aufschäumung der Meere zu weissem Schaum. Dazu würde z. B. der Heckschaum der Schiffe aufgeschäumt und verstärkt werden. Allerdings wäre dazu viel Chemie notwendig, deren Unbedenklichkeit, vor allem in den benötigten Mengen, zweifelhaft ist. Es fehlt die Realitätsprüfung für diesen Vorschlag, sowohl für die Physik wie für die Chemie, ja sogar die Plausibilität. Eine weitere ozeanische Geoengineering-Idee ist als Effekt nachgewiesen und damit plausibel, aber nicht verstanden in ihrer möglichen biologischen Auswirkung: die Düngung der Meere.

3.6.5 Meeresdüngung „Give me a half a tanker of iron and I will give you an ice age.“ Man gebe mir einen halben Tanker mit Eisen, und ich gebe Euch eine Eiszeit. John Martin, amerikanischer Ozeanograph, Bemerkung in einem Vortrag 1988.

Hinter diesem Satz steht die Eisenhypothese. Das Wasser von etwa 20 % des Ozeans enthält zwar viele Nährstoffe, aber es sind trotzdem wüstenhafte Meeresregionen mit wenig Phytoplankton (Algen). Einer der Gründe ist das Fehlen von Eisen. Versuche mit einigen Tonnen von bis zu hundert Tonnen Eisensulfat verteilt auf bis zu 10 000 km2 Meeresfläche haben gezeigt, dass in der Tat Algenwachstum ausgelöst wird, und dies bereits in extremer Verdünnung bis hinunter zu 1 zu 100 Billionen. Üppiges Wachstum ist dann

18 Die Leiterin des Alfred-Wegener-Instituts nach dem Spiegel-Wissenschafts-Artikel vom 9. November 2010.

348     W. Hehl

Abb. 3.36  Frühlingsblüte in der Nordsee NASA Ocean Color Web, Gene Feldman. Bild:oceancolor.gsfc.nasa.gov/gallery/697.

eine Algenblüte, die man als natürliche Frühlingsblüte (Abb. 3.36) vom Satelliten aus recht deutlich sieht. Die ersten Versuche mit ozeanischer Eisendüngung stimmten sehr optimistisch. Man fand, dass das Verhältnis des eingesetzten Eisens zum zusätzlich aufgenommenen CO2 etwa 1: 5000 war. Ein theoretischer Wert ist, dass auf 1 Eisenatom 106 000 Kohlenstoffatome kommen können. Das würde in Massen ausgedrückt bedeuten, 1 kg Eisen (Fe) könnte 83 000 kg CO2 fixieren! In diesem Sinne ist der obige Ausspruch des Ozeanographen zu verstehen. Es ist ein mögliches Geoengineering-Verfahren vom Typ 1. Leider ist der Erfolg der Düngung nicht so simpel, es gehören auch hinreichend Stickstoff (N) und Phosphor (P) dazu sowie Silizium (Si). Dazu gibt es auch natürliche Beispiele von Düngung, etwa grosse Planktonblüten nach einer Vulkaneruption mit dem Ausstoss von Vulkanasche. Eine der wichtigsten und sozusagen natürlichen Eisenquellen ist übrigens die Schifffahrt! Im Zuge einer Düngung kann der Kohlenstoff erst dann als der Atmosphäre entnommen (sequestriert) betrachtet werden, wenn er längere Zeit auf dem Boden des Ozeans bleibt – in unserem Zeitrahmen mindestens ein halbes Jahrhundert. Leider sind noch viele Fragen offen. Was geschieht mit Regionen, die zuerst eisenarm sind und dann eisenreich werden? Wie verschieben sich die Arten des Phytoplanktons bei Düngung, könnten giftige Algen stärker zunehmen? Aber es könnte auch weitere Vorteile geben. Das Plankton, das nicht zum Boden gelangt, wird Nahrung für Kleintiere wie Krill und kleine Fische und verbessert schliesslich den Fischfang. Es gibt auch umstrittene Messungen, wonach in den letzten fünfzig Jahren die

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     349

Planktonmenge der Ozeane abgenommen habe – dem würde die Düngung entgegenwirken. Da die Düngung auf hoher See stattfindet, ist es ein Vorgang internationalen Seerechts. Es verbietet nach dem Londoner Protokoll vom 18. Oktober 2013 das absichtliche Dumping von irgendeinem Abfall oder anderer Stoffe (Stützel, 2019) – aber die Düngung ist ja kein Abfall, sondern wohl ein anderer Stoff und wäre in der Grauzone.

3.6.6 Ein Weltraumschirm Positiv ist, dass solche Sonnenschirme im Weltraum stationiert sind und deshalb die Umwelt am wenigsten stören. Aber negativ ist, dass sie die fortgeschrittenste Technologie zum Aufbau benötigen und deshalb untragbar teuer sind im Vergleich zu anderen solaren Geoengineering-Techniken. Govindasamy Bala, indischer Physiker, Interview mit Carbon Brief, 2018.

In diesem Kapitel Geoengineering und Weltraum herrscht Science Fiction. Science Fiction und Klimaänderung hat eine lange Tradition, die z. B. mit Jules Vernes Roman Sans dessus dessous beginnt. Dieser Roman, auf Deutsch Der Schuss am Kilimandscharo oder Kein drunter und drüber, schildert ein Klima- oder Geoengineering des Planeten durch Aufrechtstellen der Erdachse. Ziel ist die Jahreszeiten abzuschaffen und damit an die Kohlenschätze unter dem Eis des Nordpols zu kommen. Dazu soll ein gigantischer Schuss von einer gewaltigen Kanone abgefeuert werden. Der Rückstoss des Geschosses mit 180 000 t Eisen soll die bisher um 23 ½° geneigte Erdachse aufrichten. Jules Verne schildert eindrücklich die Grösse des Projekts und recht glaubhaft die Phasen der Psychologie eines solchen Vorhabens. • Zuerst Begeisterung: Der Nordpol würde erreichbar, das Klima wäre jetzt überschaubarer. • Aber dann wird ein Pferdefuss klar (im Roman): Die Erde ist ja an den Polen abgeplattet, dadurch würden sich die Meere verschieben und auch das Land, das über das Meer hinaussieht, und andere Gebirge würden entstehen. Entsetzen breitet sich aus, der Urheber des Plans kommt ins Gefängnis. • Das Projekt selbst am Kilimandscharo läuft jedoch planmässig. Die Abb. 3.37 illustriert die grossen Fabriken und Hochöfen für die Kanone sowie die Kanonenöffnung. Das Geschoss wird abgefeuert und wird zu

350     W. Hehl

Abb. 3.37  Gescheitertes Geoengineering bei Jules Verne Die Baustelle am Kilimandscharo mit den Fabriken und der Öffnung der Kanone. Buchillustration von George Roux zum Buch Sans dessus dessous, 1889. Bild: The Purchase of the North_Pole, Wikimedia Commons, George Roux 31.

einem kleinen Planeten – aber an der Richtung der Erdachse gibt es keine Änderung. • Der verantwortliche Wissenschaftler wird verspottet und gibt die Mathematik auf. Er hatte bei seiner Rechnung für die Stärke der Ladung die Einheiten Meter und Kilometer verwechselt und das Geschoss war (laut dem Roman) eine Trillion mal zu klein. Dabei hatte Jules Verne die Fabrik für das Geschoss grosszügig ausgelegt: 10 grosse Hochöfen stellen das benötigte Eisen für Kanone und Geschoss her. Um nicht zu dilettantisch und physikalisch falsch zu schreiben, hatte er für den Roman sogar einen wissenschaftlichen Berater. Ein Sonnenschirm für die Erde ist ein Geoengineering-Verfahren Typ 2 b. Der Vorschlag eines Schirms im All ist physikalisch möglich, aber nur schwer realisierbar. Eine gute Nachricht ist es wieder, wie bei allen Verfahren zum Dimmen der Sonne. Es reicht aus, die Einstrahlung um ein oder zwei Prozent abzuschwächen. Aber alles Übrige wird gigantisch. Für den Ort des Sonnenschirms (oder vieler Sonnenschirme) gibt es himmelsmechanisch nur eine Möglichkeit, die Positionierung um den Lagrange-Punkt  L1 herum. Im

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     351

Abb. 3.38  Die ausgezeichneten Punkte im Sonnensystem nach Lagrange Der Punkt L1 (grüner Punkt) ist die bestmögliche Position für eine Abschirmung der Erde (grauer Ball) vor den Strahlen der Sonne (gelber Ball). Bild: Lagrange points2, Wikimedia Commons, NASA/Xander89.

System von Sonne und Erde gibt es im Weltall fünf besondere Punkte, die sich mit der Erde mitbewegen, benannt nach dem französisch-italienischen Mathematiker Jean-Louis de Lagrange (1736–1813). Eine Bahn, die an der Sonne näher ist als die Erdbahn, wird schneller durchlaufen als die Erde umläuft. Nur ein Himmelskörper, der sich auf L1 befindet (grüner Punkt in Abb. 3.38) wird passend mitgezogen und Sonne, L1 und Erde bleiben auf einer Linie. Die Anziehungskräfte von Sonne und Erde auf den Probekörper und die Zentrifugalkraft heben sich ungefähr auf. Das grosse Problem ist, den Schirm oder die Schirme zum Punkt L1 zu bringen, der etwa 1,5 Mio. km von der Erde entfernt ist. Der Schirm ist gross und schwer, selbst als hauchdünne Folie. Die Abschätzung gibt mit Mylarfolie (mit 1,4 t pro m3) und 5 μm Dicke für eine Schirmfläche von 1 000 km mal 1 000 km bereits 7 Mio. Tonnen – damit wäre etwa ein halbes Prozent der Sonne für den Erdbeobachter verdeckt. Dazu kommt noch ein weiteres himmelsmechanisches Problem. Die Position L1 ist nicht ganz stabil. Um zu verhindern, dass ein Körper nicht abrutscht (es ist ein Potentialsattel) sondern dort bleibt, muss man die Bewegung dieser grossen Masse laufend korrigieren. Die Nutzlasten für den Spiegel sind in mehr als einem Sinn astronomisch, die Mengen an Treibstoff noch etwa 30 bis 40 Mal höher. Es funktioniert nicht! Noch eine kleine ungünstige Zugabe der Physik: Je dünner der Schirm oder Spiegel, desto mehr macht sich der eigentlich sehr geringe Lichtdruck

352     W. Hehl

bemerkbar. Auffallendes und reflektiertes Licht übt einen winzigen Druck auf die betroffene Fläche aus. Jeder km2 des Spiegels erfährt so etwa vier Newton Kraft von der Sonne weg nach aussen, zurück zur Erde getrieben. Der 1000  km  x  1000  km-Schirm wird mit 400  t Kraft nach aussen gedrückt. Dies müsste laufend mit Raketenrückstoss kompensiert werden. Das ist nicht vorstellbar.

3.6.7 Exotisches Geoengineering bleibt Idee, es fehlt Forschung. „Viele von uns haben gesagt, dass wir die Idee des Geoengineering nicht mögen. Wir müssen darüber nachdenken und lernen, wie wir gesunde Vorschläge von unwirksamen oder gefährlichen unterscheiden können.“ Ralph Cicerone, amerikanischer Physiker und Klimatologe, New York Times, 27. Juni 2006.

Auch heute ist keines der exotischen Verfahren dieses Kapitels vielversprechend. Wir klassifizieren ein Verfahren zur Klimarestauration als exotisch, wenn schon sein Funktionieren nicht plausibel ist oder seine Skalierbarkeit zweifelhaft oder schlicht unmöglich erscheint. Die Verfahren der grossen CO2-Senken des vorhergehenden Kapitels fallen ausdrücklich nicht darunter: nicht das Verstärken gesunden Waldes (Proforestation), nicht das langfristige Speichern oder Karbonisieren von verfügbarem Holz und vor allem nicht die grossindustrielle CO2-Versenkung DAC. Das letztere Verfahren sieht zwar futuristisch aus, aber es ist nicht exotisch. Es ist konsequente Ingenieursarbeit (und braucht naturgemäss Energie). Am ehesten vorstellbar unter den Exoten sind noch die naturnahen Verfahren der Düngung des Ozeans (Methode vom Typ 1) und der verstärkten Wolkenbildung mit Salzwasser (Methode Typ 2 a), vor allem weil sie Erweiterungen natürlicher Vorgänge sind. Die vielleicht bekannteste dieser Methoden ist das Einbringen grosser Mengen von Schwefelaerosolen in die Stratosphäre, d. h. die Nachbildung einer grossen Zahl grosser Vulkanausbrüche. Das Ergebnis sind Trillionen Tröpfchen von rieselnder konzentrierter Schwefelsäure, die nebenbei das Ozonloch vergrössern würden. Dies ist auch keine beruhigende Technologie! Aber selbst wenn die Verfahren erfolgreich eingesetzt würden, ist ganz allgemein nicht zu erwarten, dass das Klima weltweit wieder so wird wie vor der Industrialisierung und vor der Bevölkerungsexplosion.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     353

a)

b)

Abb. 3.39  Simulierte Klimaerwärmung allein und mit simuliertem Geoengineering Man beachte die quadratisch wachsenden Farbskalen. Bilder: Nowack et al., Atmos. Chem. Phys., 16, 4191–4203, 2016, doi:10.5194/acp-164191-2016. Lizenz CC BY 3.0. Das Bild b) ist auch auf Wikimedia Commons publiziert.

Die Auswirkungen aller Verfahren sind, wie auch die globale Erwärmung selbst, für die verschiedenen geografischen Breiten der Erde unterschiedlich. • Globale Erwärmung: Die polaren Regionen erwärmen sich schneller als der Rest der Erde, hauptsächlich weil das globale Wettersystem Wärmeenergie zu den Polen befördert. In der Arktis erniedrigt sich die Albedo durch das Schmelzen von Schnee und Eis. • Geoengineering der Strahlung: Die polaren Regionen bleiben wärmer, weil sich die Strahlenreduktion in den Tropen stärker auswirkt. Der sich ergebende Abzug von Wärme aus den polaren Gebieten ist schwächer als die erfolgte Aufnahme. Die Abb. 3.39 macht diese Effekte der Abhängigkeit der Wirkung von Erwärmung und Abschwächung von der geografischen Breite deutlich. Fig. a) zeigt die globale Erwärmung (die mittleren Temperaturen) in einer Simulation von vierfach erhöhtem CO2-Gehalt gegenüber dem vorindustriellen Stand. In Fig. b) wird die Erwärmung des Planeten entsprechend fiktiv durch eine Erniedrigung der Sonneneinstrahlung bekämpft. Es sei etwa ein geeigneter Schirm im Punkt L1, der die wirksame Solarkonstante entsprechend erniedrigt. Die Simulation zeigt: Die Temperatur sinkt, aber der Geoengineering-Effekt ist ungleich über die geographische Breite verteilt.

354     W. Hehl

Ohne eine neue Eiszeit wird es sehr schwer sein, verlorenes arktisches Eis dauerhaft zurückzuerhalten. Klima-Wiederherstellung bedeutet nicht, dass die Welt wieder die gleiche sein wird [wie vor der Industrialisierung]. Joeri Rogelj, belgischer Ingenieur und Klimatologe, geb. 1980.

Es gibt kein einfaches Heilmittel, keine Silberkugel (silver bullet); das ist der angelsächsische Ausdruck, wenn in einem Unternehmen ein übergeordneter Chef ein Machtwort spricht und einen Streit beendet. Beim Geoengineering wäre das Gegenteil vorauszusehen. Es würde Streit geben: Fehlender Monsun? Trockenheit in Europa? Unwetter? An allem wäre bei den betroffenen Menschen das Geoengineering schuld. Leider haben wir in den über 50 Jahren seit Präsident Johnson kaum Fortschritte mit diesen Ideen gemacht. Aber es wäre sinnvoll, die Methoden ernsthafter anzugehen und jeweils als ernsthafte Wissenschaft und Ingenieursaufgabe anzusehen. Das Problem des Klimawandels ist in der Zwischenzeit drängend geworden. Wir können nicht nur die Infrastruktur Schritt für Schritt umbauen und erwarten, dass das frühere Klima zurückkommt. Die technische Strategie sollte sein: 1. Umbau der Infrastruktur zur Abnahme der CO2-Emissionen, 2. Grosseinsatz der CO2-Sequestrierungsverfahren mit Naturholz oder direkt der Luft entnommenem CO2, 3. Vorbereitung von Not-Techniken, d. h. von Geoengineering, durch ernsthafte Forschung und Pilotprojekte. Es ist weitgehend akzeptiert, dass die Spar- und Umbaustufe 1 nicht ausreicht, um drastische Klimaänderungen zu verhindern. Die Methoden der Stufe 2 sind machbar und können sofort beginnen. Zur Stufe 3 gibt es keine akzeptable und verstandene Methode. Aber es könnte sein, dass sich eine Technik aus der Stufe 3 als ein rettendes Jahrhundert-Projekt entpuppt. Eine Voraussetzung zum sinnvollen Umbau der Infrastruktur ist eine hinreichende Versorgung mit fossil-freier elektrischer Energie. Diese Stufen von Massnahmen haben in verschiedenen Schichten und Gruppen der Gesellschaft ganz verschiedene Akzeptanz oder Ablehnung.

3  Ausgewählte Technologische Themen zur Globalen Erwärmung     355

Die extremen Parteien sind einerseits die Anhänger der Industrie fossiler Brennstoffe, andrerseits Menschen, die vor allem Natürlichkeit wollen. Die Herausforderung ist es, eine Umkehrung zu erreichen. Auch die Anhänger der Natürlichkeit sollten eine Anti-CO2-Industrie unterstützen. Noch eine Bemerkung zu den Kosten für die Forschung und den Bau von Projekten der Stufen 2 und 3. Es geht um riesige Grossprojekte von planetarer Dimension und um deren Vorbereitung. Es ist legitim, hier die Kosten in Bezug zu setzen mit den Militärausgaben der Welt. Die globalen Verteidigungsbudgets erreichten 2020 den Wert von 1 830 Mrd. Dollar, davon waren 750 Mrd. Dollar allein Ausgaben der USA. Daran gemessen werden milliardenschwere Ausgaben für das Klima der Erde und gar zur Frage von Leben und Tod doch auch sinnvoll und denkbar. Eigentlich wäre es fair, wenn die meisten Kosten der zu schaffenden Anti-CO2-Industrie von den Verursacherstaaten getragen würden.

4 Menschliches und Spekulatives zur Zukunft

4.1 Die Ethik des Erwärmens und des Abkühlens der Erde „Mein Punkt ist, es gibt immer noch Gott. Es ist so arrogant von den Leuten zu glauben, dass wir menschliche Wesen im Stande wären, das zu ändern, was er im Klima macht. Das ist für mich ungeheuerlich.“ James Inhofe, Republikanischer US Senator, geb. 1934, in einer Radiosendung in 2012.

Wir sind in der Tat nur kleine Menschen, aber zusammen und über insgesamt 200 Jahre haben wir etwa 2,3 Billionen Tonnen CO2 in die Atmosphäre geschickt (davon etwa die Hälfte in die Ozeane), d. h. mehr als 600 Mrd. Tonnen Kohlenstoff. Bei einer Last von 100 t pro Eisenbahnwaggon sind dies 60 Mio. Waggons und insgesamt 800 Mio. km Länge. Diese Kohle hat die Industrialisierung möglich gemacht, zunächst in England, Deutschland, den USA, überall und in den letzten Jahrzehnten in China. Diese Mengen sind nicht mehr von einzelnen Menschen handhabbar oder mit einzelnen Menschen zu vergleichen, sondern sie sind von planetarer Dimension. Es war auch kein ethisches Problem, Bodenschätze zu verwenden. Im Gegenteil, es war bis zur Mitte des letzten Jahrhunderts als Recht und Tugend angesehen worden. Ausnahmen waren Seiteneffekte wie die Luftverschmutzung, etwa in London im grossen Nebel von 1952, der Erbsensuppe (pea-fog), wie in der Abb. 4.1. © Der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 W. Hehl, Klimawandel – Grundlagen und Spekulation, https://doi.org/10.1007/978-3-658-35541-8_4

357

358     W. Hehl

Abb. 4.1  Der Preis für den industriellen Aufstieg Die grosse Luftverschmutzung des Jahres 1952 in London. Bilder: Piccadilly Circus in Pea Soup, en.wikipedia.org, unbekannt.

Abb. 4.2  Eine Interpretation der Mutter Erde Die Legende der Aataentsic im Jacques-Cartier-Park, Québec. Bild: Mother Earth The Legend of Aataentsic, Wikimedia Commons, Dennis Jarvis. Mit freundlicher Genehmigung.

Dieser Nebel führte zum Anhalten des Verkehrs, von Autos und Eisenbahnen, zum Stopp des öffentlichen Lebens und direkt zu 4 000 Toten durch den Rauch und das Schwefeldioxid der verbrannten einfachen Kohle aus Newcastle. Vier Jahre später wurde im Clean Air Act die schmutzige Kohle für Haushalte verboten. Allerdings hatte sie schon früher ihre Unschuld verloren; seit dem 13. Jahrhundert war in England der Rauch der einfachen Kohle schon als schädlich bekannt. Die ethische Grundhaltung zu fossilen Brennstoffen zeigt sich z. B. bei der Entdeckung neuer Öl- und Gasfelder. Es sind Erfolgsmeldungen über entdeckte Werte. Hier einige neuere Beispiele aus aller Welt:

4  Menschliches und Spekulatives zur Zukunft     359

Öl und Gasentdeckungen erreichen 2019 ein Vierjahreshoch in Guyana (11. 1. 2020). Die nächste gigantische Öl-Entdeckung der Welt könnte da sein (12. 1. 2020): In der Okavango Wildnis von Namibia und Botswana könnte das grosse Kavango-Becken mehr als 30 Mrd. Barrel Rohöl enthalten. Das Feld ist grösser als Belgien. Saudi Aramco entdeckt vier neue Öl und Gasfelder (27.12.2020). Kuwait sagt, dass zwei neue Ölfelder entdeckt wurden (4. 1. 2021), usf.

Sollte es nicht an der Zeit sein, die Lager an möglichen fossilen Brennstoffen eher als gefährliche Versuchungen zu betrachten, wie eine gefundene Flasche Whisky für den Alkoholiker? Bevor man das CO2 aus der Luft mühsam entnehmen muss, ist es doch am einfachsten, es gar nicht in die Atmosphäre zu schicken! Wir haben damit vier strategische Stufen bei der möglichen Bewältigung des durch die fossilen Brennstoffe hervorgerufenen Klimawandels, in lateinisch-englischen Bezeichnungen: 0) Preservation: Belassen fossiler Energieressourcen im Boden. 1) Mitigation: Verringerung der CO2- Produktion und des CO2-Gehalts der Luft. 2) Restauration: Wiederherstellung des alten Klimas so weit möglich. 3) Adaptation: Anpassung an das neue Klima. Die Ethik der Preservation fossiler Schätze ist eigentlich recht einfach, nämlich passiver Verzicht. Aber die aktiven Eingriffe erzeugen von Anfang an Unbehagen und Widerstand, auch bei Wissenschaftlern. Die Erde ist ein komplexes System mit schwer zu durchschauenden Wechselwirkungen. Während die industrielle Veränderung der Welt unbewusst geschah oder sogar in der Überzeugung, etwas Gutes zu tun (z. B. eine Eiszeit zu verhindern), wären Geoengineering-Massnahmen bewusst. Eine Grundidee des Widerstands ist das Konzept der Erde als Mutter Erde. Dies suggeriert die freundliche, tragende und menschliche Grundidee Mutter, die einen Fehler der Kinder vergibt und korrigiert. Eine Verstärkung und (Beinah-) Verwissenschaftlichung dieses Gedankens ist es, die gesamte Erde mit Klima, Geologie und Biologie als ein selbstregulierendes und dadurch stabiles System anzunehmen. Dies ist die Gaia-Hypothese des britischen Chemikers James Lovelock (geb. 1919); das Oxford Dictionary definiert das Stichwort Gaia Hypothese:

360     W. Hehl

Die von James Lovelock aufgestellte Theorie, dass die lebende Materie auf der Erde kollektiv die für den Fortbestand des Lebens notwendigen materiellen Bedingungen definiert und reguliert. Der Planet, oder besser gesagt die Biosphäre, wird somit mit einem riesigen, sich selbst regulierenden Organismus verglichen. lexico.com/Oxford University Press, übersetzt mit DeepL.

Zwei Grundgedanken (oder Wunschgedanken) entnehmen wir der GaiaHypothese: • Gaia hat alles für uns Menschen (und für den Rest der Natur) so eingerichtet. • dass der Planet Erde mit uns funktioniert. • Störungen im System werden von Gaia behoben. In der Tat haben sich viele astronomische, geologische und biologische Prozesse so entwickeln müssen, dass es uns Menschen gibt, wie es uns gibt. So hat astronomisch die Erde einen relativ schweren Mond, der uns stabilisiert, geologisch hat sie ein Gleichgewicht zwischen Vulkanismus und innerer Wärmeproduktion durch Radioaktivität, sodass eine hinreichend stabile Erdoberfläche entsteht, und biologisch hat sich z. B. der Sauerstoff der Luft vor etwa 2,4 Mrd. Jahren durch Cyanobakterien gebildet. Aber dies ist nur das wohlbekannte anthropische Prinzip: Je mehr ich das Universum erforsche und Einzelheiten von seinem Aufbau kennen lerne, desto mehr Beweise find ich, dass das Universum irgendwie gewusst haben muss, dass wir kommen. Freeman Dyson, englisch-amerikanischer theoretischer Physiker, 1923– 2020.

Der Physiker Dyson ist äusserst vielseitig; er beschäftigt sich erfolgreich mit Quantenphysik, Mathematik und Raketenantrieben, aber auch mit Astrophysik, Science Fiction, Klimaerwärmung und Evolution. Dieses Zitat ist eine geistreiche Umschreibung des anthropischen Prinzips. Das anthropische Prinzip sagt tautologisch (d. h. ohne neuen Inhalt), dass alles im Universum und in unserer Geschichte so sein muss, damit wir es beobachten. Wäre es nicht so, dann wären wir auch nicht da. Der zweite Gedanke ist die Definition eines stabilen vieldimensionalen Gleichgewichts. Aber stabil ist das System der Natur höchstens für kleine Störungen, jedenfalls nicht sicher für grosse Änderungen. Es gibt immer

4  Menschliches und Spekulatives zur Zukunft     361

wieder positive Rückkopplungen (positiv in Richtung mehr Störung), etwa in den Eiszeiten. Wir wissen auch, dass es Kipp-Punkte (Tipping points) gibt, an welchen die Rückkehr zum alten Zustand praktisch unmöglich ist. Im Klimasystem sind die Punkte allerdings nicht scharf, sondern verschmiert zu Bereichen und damit ist das Überqueren schwer zu bemerken. Vor allem gibt es das grosse Problem der Zeitkonstante. Die Zeitkonstante gibt die typische Reaktionszeit an, mit der ein Vorgang auf einen Anstoss reagieren kann. Die Zeitkonstanten der globalen Natur sind Tausende von Jahren, ja Hunderttausende. Das Industriezeitalter umfasst gerade zwei Jahrhunderte. Wenn wir Menschen langfristig denken, dann sind es nur fünf Jahre oder über eine Dekade. Eine menschliche Zeitspanne für Veränderungen ist eine Generation. Wir überfordern das System; so schnell kann die Mutter Erde nicht kompensierend reagieren. Das Vertrauen in es wird schon gut, das die Konzepte Mutter Erde und explizit die Gaia-Hypothese geben, ist ungerechtfertigt. Es sind irreführende Metaphern hart am Rande der Esoterik – wie James Lovelock selbst weiss. Eine freundliche Mutter Erde hat es nie gegeben. Seit der Erfindung des Feuers durch Menschen passt das Bild immer weniger – es sei denn, wir definieren alles Menschengemachte auch als Natur. Genau dies werden wir unten tun, wenn wir die Entwicklung insgesamt gesetzmässig ansehen. Unser heutiges Weltsystem mit 419 ppm Kohlendioxid und 7.9 Mrd. Menschen (beide Werte April 2021) ist extrem verschoben gegenüber dem vorindustriellen Zustand. Wenn es nicht gelingt, mit Einsparen und Umstellen die Welt zu restaurieren, dann sollten wir etwas Aktives tun können. Jedes Feuer in einem Kamin, jeder Atemzug verschiebt den Arbeitspunkt des Klimas ins Schlechte, warum soll es nicht erlaubt oder unethisch sein, aktiv entgegen zu arbeiten?

Es ist schwierig. Jede mögliche Geoengineering-Aktion bringt dem Akteur Verantwortung und erzeugt eventuell Ungleichheit und Konflikte, diesmal bewusst. Die globale Erwärmung ist allerdings auch voller Ungleichheit. Die reichen Verursacher haben eventuell weniger Nachteile als die armen Völker in den Tropen und an den Küsten. Unsere Situation ist insgesamt schwierig. Es zeichnet sich ab, dass die Umstellungsmassnahmen der Infrastruktur erstens nicht schnell genug gehen und zweitens nicht ausreichen, um eine dauernde Verschiebung des Weltklimas verhindern. Für die aktive Umkehrung des Trends haben wir die sanften Methoden wie Holz zu speichern oder CO2 abzufangen, aber keine stärkere oder direktere Methode, keines der exotischen Geoengineering-Verfahren überzeugt heute.

362     W. Hehl

Dazu kommt eine verbreitete ethische Sicht auf die Heiligkeit der Mutter Erde: „Wir können es uns nicht leisten unseren Planeten derart zu bedrohen, insbesondere wenn es einfache, gerechte und erprobte Lösungen zur Hand hat.“ Ben Powless, Mohawk Nation Canada, in Hands Off Mother Earth, etc. Group, April 2010.

Aber es gibt keine einfache Lösung, dies ist in der Dekade seither noch deutlicher geworden. Die Zeit läuft. Trotzdem gibt es eine starke und erfolgreiche Bewegung Hände weg von Mutter Erde (handsoffmotherearth.org). Diese Bewegung erachtet jegliches aktive Geoengineering des Teufels, für eine Ablenkung, für den Versuch, Geld zu machen, einfach für unethisch. Noch gibt es keine klare Antwort darauf. Aber auch die Gegner von Forschung und Entwicklung von Geoengineering müssen sich klar sein, dass sie Verantwortung tragen. Allerdings würde jeder Einstieg in aktives Geoengineering den Aufbau einer neuen Grossindustrie bedeuten in einer ganz anderen Gedanken- und Geschäftswelt als die Naturbewegung der Mutter Erde. Nach den Jahrzehnten der Skepsis an menschengemachter Klimaänderung haben wir nun die Skepsis, dass menschengemachte Gegenmassnahmen notwendig werden.

4.2 Die Psychologie des Klimawandels Der Klimawandel enthält keines der klaren Zeichen, die wir brauchen, um unseren angeborenen Sinn für Bedrohung zu aktivieren, und dies macht das Thema bemerkenswert offen für falsche Interpretation. George Marshall, britischer Autor und Umweltaktivist, geb. 1964. Im Buch Don’t even think about it, Bloomsbury, 2014.

Wir haben in diesem Buch von Beginn an die Phänomene des Klimawandels betont, die eindeutig sind, etwa die Keeling-Kurve für die Zunahme des CO2-Gehalts der Luft durch unsere Industrie (die allerdings den kausalen Zusammenhang mit der Erwärmung noch nicht beweist), die Hockey-Stock-Kurve der globalen Temperatur und insbesondere den Rückgang der Gletscher bzw. des Grönland- und des Arktiseises. Jeder Besuch eines Gletschers oder die Betrachtung eines Fotos vom öden Gletscherschutt, ob in der Schweiz oder im Himalaya, macht den Klimawandel klar, wenn auch vielleicht noch nicht als unmittelbare Bedrohung.

4  Menschliches und Spekulatives zur Zukunft     363

Der Gedanke an einen menschengemachten Klimawandel geht, wie im Teil 1 geschildert, auf Svante Arrhenius zurück, der sich allerdings auf die Erwärmung des schwedischen Klimas freute! Sein schwedischer Zeitgenosse Knut Ångström vernichtete die Idee der Erwärmung akademischphysikalisch. Er dachte, der Effekt des Kohlendioxids verschwinde hinter der Wirkung des Wasserdampfs. Aber ehrlich, wie sollte man bis etwa zum Jahr 2000 in der Zitterkurve der Temperatur der Erde (Abb. 1.21) zuverlässig eine Erhöhung sehen? Genau dies war die schon erwähnte korrekte Schlussfolgerung des amerikanischen Ozeanographen und Pioniers der Globalen Erwärmung, Roger Revelle im Jahr 1982: „Wenn die Klima-Modellierer Recht haben, werden wir ein eindeutiges Signal dafür [d. h. für die Stärke der klimatischen Effekte durch das CO2] in 10 oder 15 Jahren haben.“

Bis zum Jahr 2000 hatte man geologisch-wissenschaftlich eher den Eindruck, nur in einer Zwischen-Warmzeit zu leben, am Rande der nächsten drohenden Eiszeit. Für zwei Jahrzehnte, 1980 bis 2000, hatten die Menschen, die katastrophenfühlig waren, den Eindruck, man müsse handeln, man sei bedroht – aber man war sich nicht einig über das Vorzeichen: Abkühlung und Unwetter oder Hitze und Unwetter!

Damit haben wir die erste Ursache des Nichtglaubens: Legitime wissenschaftliche Zweifel. Diese Zweifel gibt es nicht mehr zum Status, aber sehr wohl zum Grad der Bedrohung unserer Zukunft und zur möglichen Restauration des Klimas. Dabei wissen wir leider, dass es auch bei sicheren Tatbeständen falsche und unsinnige Theorien gibt. Ein recht absurdes und treffendes Beispiel, peinlich für die Menschheit und besonders für USAmerikaner, ist der Glaube vieler Menschen, dass kein Mensch je auf dem Mond war, sondern die ganzen Mondlandungen Fake seien. Eine Umfrage des PC Magazins ergab 2019: Bei den 18–34-Jährigen glauben 18 % nicht daran, bei den 35–54-Jährigen sind es 8 % und bei den über 54-Jährigen noch 3 %. Dabei ist das Wort glauben ohnehin nicht angebracht; es geht nicht um zweifeln und glauben, bemannte Raumfahrt existiert. Aus der Perspektive dieser Skeptiker gibt eine spezielle, abseitige Ansicht ihnen den Anstrich von jemandem, der den Durchblick hat. Dazu gehört

364     W. Hehl

die Beobachtung, dass Menschen mit derartig queren Ansichten auch häufig zu anderen, ähnlichen Gedanken und unsinnigen Weisheiten neigen. Es ist ein ganzes Syndrom: Mondlandungs-Fake, die Erde ist flach, das CIA streut Chemtrails aus, Aliens sind unter uns, es gibt keine Pandemie und natürlich: Es gibt keinen Klimawandel! Allerdings sind wir in den letzten 50 Jahren durch mehrere alarmistische Wellen von wissenschaftlichen Warnungen gegangen, die zwar in Vergessenheit geraten sind, aber im Geist weiter in der Gesellschaft sind und die Tendenz zum Unglauben schüren. Die Aussagen des Club of Rome von 1972 über die baldige Erschöpfung von Reserven an Rohstoffen, von Bauxit bis Zink, waren im Ansatz gut gemeint und auch zeitgemäss wissenschaftlich. Zentral war der Wunsch nach nachhaltiger Wirtschaft und der (triviale) Hinweis, dass exponentielles Wachstum ganz allgemein über lange Zeiträume nicht möglich ist. Das machte schon die bekannte Weizenkornlegende (vermutlich des indischen Ministers und Brahmanen Sessa um 300 n.Chr.) klar – es gibt keine so grosse Ernte, wie auf den letzten Feldern des Schachbretts platziert werden sollten. Von 1972 aus gesehen, war ein ferner Zeithorizont für eine Dystopie, eine böse Zukunft, das neue Millennium, das Jahr 2000. Die auf der Rückseite des Hauptwerks Limits of Growth (Grenzen des Wachstums, Abb. 4.3) geschilderten schlimmen Aussichten waren z. B., recht wörtlich übersetzt: Wird dies die Welt, für die eure Enkel euch danken werden? Eine Welt, bei der die industrielle Produktion auf null gesunken ist. Wo die Bevölkerung katastrophal abgenommen hat. Wo Luft, Meer und Land unwiederbringlich verschmutzt sind. Wo die Zivilisation eine ferne Erinnerung ist. Das ist die Welt, die der Computer vorhersagt.

Konkret enthält das Buch viele Angaben darüber, wie lange noch wichtige, nicht-erneuerbare Ressourcen (wenn auch zu hohen Preisen) verfügbar sein werden (Meadows, 1972): Aluminium noch 55 Jahre, Kupfer 48 Jahre, Gold 29 Jahre, Silber 42 Jahre und Erdgas und Erdöl etwa 50 Jahre, also bis heute. Für Erdgas und Erdöl würden nach heutigem Verständnis und Verbrauch (2021) die Vorräte etwa wieder weitere 50 Jahre reichen; das ist gar nicht mehr so viel! Der geplante freiwillige Verzicht und der erzwungene Verzicht wegen erschöpfter Reserven zielen in die gleiche Richtung. Allerdings werden noch heute neue Erdöl- und Erdgasfelder auf der Welt entdeckt.

4  Menschliches und Spekulatives zur Zukunft     365

Abb. 4.3  Der Bericht des Club of Rome Titelseite der ersten Ausgabe 1972. Untertitel Ein Bericht des Club of Rome Projekts über die Zwickmühle der [heutigen] Menschheit. Bild: Anonym.

Der Bericht war zu dystopisch angelegt. Als die vorhergesagten Verknappungen in 2000 nicht eintraten, ergab sich das allgemeine Gefühl: Bei diesen Hiobsbotschaften der Wissenschaftler ist alles nicht so schlimm. Es ist für die Kommunikation des Klimawandels ein Desaster, genauso wie im Jahr 2006 das schon erwähnte Bekenntnis von Al Gore wenn er sagt, ich glaube, es ist legitim [für die gute Sache] die Darstellung der Tatsachen etwas zu überpräsentieren.

Nahezu unschuldig war die Klimawissenschaft an dem wohl grössten Informationsdesaster, dem Climategate im Jahr 2009. In diesem Jahr wurden über 1000 Emails aus einem Jahrzehnt Klimaforschung vom Server einer englischen Universität gestohlen und systematisch nach Aussprüchen untersucht, die Lügen aufdecken sollten. Zwei Zitate wurden herausgenommen und wurden berühmt: Ich habe gerade Mikes Natur-Trick genutzt […] um den Rückgang [der Temperaturen] zu verbergen. usw. sowie: Fakt ist, dass wir derzeit den Mangel an Erwärmung nicht erklären können – und es ist eine Farce, dass wir es nicht können. Nach dem deutschen Wikipediaartikel Hackerzwischenfall, gezogen April 2021.

366     W. Hehl

Die Begriffe Hacking, Tricks, Mangel an Erwärmung oder Farce lassen beim Publikum leicht die Alarmglocken klingeln. Aber sie sind Jargon und haben nichts mit einer Verschwörung der Wissenschaftler zu einer grossen weltumspannenden Klimalüge zu tun. Der Forscher bezieht das nicht erklären können des Mangels an Erwärmung auf die wohlbekannten jährlichen Schwankungen – der Forscher zweifelt den allgemeinen Wachstumstrend nicht an. Aber seit dem Climategate ist es wohl allen Klimatologen klar, dass sie in einem heissen politischen Umfeld arbeiten. Das Buch der Grenzen des Wachstums erwähnt auch vollkommen korrekt die Anreicherung des CO2 in der Luft durch die fossilen Brennstoffe. Im Zeitgeist wird gehofft: Wenn die Energiebedürfnisse der Menschheit eines Tages mit Atomenergie befriedigt werden anstatt mit fossilem Brennstoff, dann hört die CO2-Zunahme auf, hoffentlich bevor es [das CO2] ökologisch oder klimatologisch Effekt hatte. Ein Unterschied zur heutigen Analyse ist, dass man im Bericht die Gefahr nur in der direkt erzeugten Wärme sieht und nicht im Treibhauseffekt. Die heutige Annahme ist umgekehrt: Die TreibhausgasWirkung über die Zeit hinweg ist 100 000 Mal gewichtiger als die einmalig gelieferte Wärme. Der zweite Grund für die Nichtbeachtung des Klimawandels ist die scheinbare Harmlosigkeit. Beispiel ist die zentrale Grösse des Klimawandels, die globale Temperatur, also die mittlere Temperatur der Erdoberfläche. Sie ist ein nicht-trivialer, synthetischer, physikalischer Begriff, eine gewichtete Sammlung von vielen Einzelmessungen. Sie spielt in den offiziellen Bewertungen des Klimawandels, etwa durch das IPCC, das offizielle wissenschaftliche Konsortium zum Klimawandel, eine zentrale Rolle, aber sie ist eigentlich eine abstrakte Grösse. Eine Erhöhung um 1°C oder auch nur um 0,1° ist für die Erde eine gewaltige Energiemenge und eine grosse Veränderung, aber psychologisch ist sie un petit rien. – Was soll’s? Wir werden etwas südlicher, das ist doch kein Problem! – Die Bedrohung ist so sanft gefühlt, aber nicht heute, sondern übermorgen … wenn überhaupt. Es fehlt ein böses, menschliches Merkmal als Indiz der Gefahr. Der amerikanische Psychologe Daniel Gilbert (geb. 1957) drückt dies so aus (Gilbert, 2006): „Der globalen Klimaerwärmung fehlt ein (Schnurr-) Bart“ [um als Gefahr mit menschlichem Gesicht erkannt zu werden].

Ein dritter Grund liegt in der Langsamkeit der Veränderung und des Anwachsens der Signale für die Gefahr. Für uns Menschen ist die Veränderung langsam, für die Geologie schnell. In der Zeit zwischen 1980 und 2000 wurden die Kohlekraftwerke mit Filtern versehen, die Welt wurde

4  Menschliches und Spekulatives zur Zukunft     367

sauberer und mit weniger Aerosolen in der Luft um wenige Zehntel Grade unmerklich wärmer. Erst allmählich wurde es auch erwärmungsskeptischen Menschen klar, dass sich die Superlative wie der heissteste Monat seit Beginn der Aufzeichnungen oder die grösste Zahl von Hurrikanen pro Saison häuften. Aber trotzdem leben wir weiter, die Evolution hat uns so gemacht. Es erinnert an die (falsche) Fabel vom Frosch in heissem Wasser. Sie behauptet: Wirft man einen Frosch in kochendes Wasser, so springt er sofort heraus. Setzt man ihn hingegen in einen Topf mit kaltem Wasser, das man langsam zum Kochen bringt, so flüchtet er nicht, weil er die Temperaturveränderung kaum spürt. Bis es zu spät ist und der Frosch totgekocht. Die Geschichte wird oft verwendet, etwa in Managementkursen, aber sie ist biologisch falsch. Auch beim allmählichen Erwärmen springt der Frosch aus dem Gefäss. Beim Klimawandel wird die Erdoberfläche immer wärmer. Wir sind seit 20 Jahren dabei, es zu merken und wollen herausspringen. Vielleicht reicht es nicht aus, nur die Heizung schwächer zu stellen, vielleicht müssen wir das Wasser auch zusätzlich abkühlen. Der Psychologe Daniel Gilbert geht mit dem vierten Grund zur fehlenden Klimaakzeptanz noch tiefer. Es braucht eine Veränderung einiger Ideen in den bisherigen, gewachsenen Moral- und Wertevorstellungen, vor allem zugunsten der so unscheinbaren Atmosphäre. Wir sind (noch) nicht empört, ein neues Ölfeld zu entdecken oder ein gemütliches Kaminfeuer zu geniessen (Abb. 4.4).

Abb. 4.4  Gemütliches Feuer – ein nicht mehr ganz unschuldiger Wert Ein edler offener amerikanischer Rumford-Kamin. Bild: RumfordFireplaceAlc1, Wikimedia Commons, Alcinoe.

368     W. Hehl

Abb. 4.5  Die Evolution und die Psychologie des Klimawandels Aus dem Buch: Cranky Uncle vs. Climate Change. Bild: Skepticalscience.com, mit freundlicher Genehmigung von John Cook.

Der offene Kamin im modernen Haus sieht so nach Natur aus – aber Millionen von offenen Feuern zum Kochen in der dritten Welt sind ein Problem (das man auch mit Sonnenwärme lösen kann). Dabei soll auf keinen Fall das Kaminfeuer als Quelle von romantischer Stimmung verteufelt werden. Es geht um die grossen Klimamassnahmen, nicht um das Unterdrücken von Lebensfreude. Die Flugindustrie und die globale Touristik sind bereits betroffen von der Werteumstellung der Menschen (Stichwort Flugscham ) und kämpfen damit, noch eine ehrenhafte Begründung für ihre Existenz zu behalten. Daniel Gilbert drückt es wieder drastisch aus: „Es ist eine Tatsache, dass, wenn der Klimawandel durch Homosexualität verursacht werden würde oder durch die Sitte, kleine Kätzchen zu essen, dann würden Millionen auf den Strassen protestieren.“

Im Umweltschutz gibt es durchaus Vorgänge, die heftige emotionale Reaktionen auslösen, etwa ölverschmierte Vögel bei einer Ölkatastrophe oder plastikbedeckte (an und für sich) paradiesische Strände, aber das CO2 ist geruchlos und unsichtbar. Die Evolution hat uns nicht darauf vorbereitet. Dies drückt der Cartoon in Abb. 4.5 aus. „Man könne fast kein Problem entwerfen, das schlechter zu unserer zugrunde liegenden Psychologie passt“, sagt Anthony Leiserowitz, Direktor des YaleProjekts zur Kommunikation über den Klimawandel. Trotzdem gibt es Gefühle, die helfen (oder auch nicht). Eine Behauptung hierzu ist vom französischen Psychologen Nicolas Guéguen:

4  Menschliches und Spekulatives zur Zukunft     369

Um einen zweifelnden Freund von der globalen Erwärmung zu überzeugen, mach es an einem heissen Tag vor einigen toten Pflanzen. Nicolas Guéguen, französischer Verhaltensforscher, nach Laborversuchen, 2012.

Der Psychologe beruft sich dabei auf Experimente mit Studenten, die in zwei Gruppen nach ihrer Einstellung zur globalen Erwärmung gefragt wurden – eine Gruppe in einem Raum mit bis zu drei toten Pflanzen, die andere Gruppe mit grünen und lebendigen. Die Studenten mit toten Pflanzen im Raum waren wesentlich negativer (sozusagen gläubiger) in der Beurteilung der globalen Erwärmung. Die Änderung von Wertvorstellungen ist ein beinahe religiöser, missionarischer Vorgang, schliesslich definiert eine Religionsgemeinschaft ja gemeinsame Werte. Anhand der Einstellung zu einer Änderung der Werte typisieren wir die Menschen. Die Skala reicht von Klimaleugnern bis Ökofaschisten: • Klimaleugner: Leugnen vor allem eine Verantwortung der Menschheit für den Klimawandel. Wollen keine Änderung, sind oft verbunden mit fossilen Geschäften und dadurch geprägt und auch geistig festgelegt. • Ökofaschisten: Wollen die Änderungen mit Gewalt durchsetzen. Insbesondere wollen sie die Bevölkerung der Welt reduzieren, ob mit Krankheit oder nicht selbstbestimmter, nichtprivater Verhütung oder gar Kriegen. Der Begriff des Faschismus ist ausgehend vom historischen Bezug zu Hitler und Mussolini ausgedehnt auf eine allgemeine Haltung von Leuten, die ihre tragende Idee – eigentlich gedacht zugunsten von Menschen – gewaltsam und sogar mit Menschenopfern umsetzen. Der Schweizer Autor Marko Kovic (Kovic 2020) zeigt die Zusammenhänge auf, die in der politischen Landschaft zwischen den nationalistischen Faschismen und der Naturverehrung bestehen. Die Natur ist beim Ökofaschismus mehr die unberührbare Gottheit, und der Hauptgrund für die Probleme ist die Überbevölkerung. Es gibt umfangreiche psychologisch-soziologische Untersuchungen zu den Einstellungen der Bevölkerung, z. B. im deutschsprachigen Raum, in Australien und in den USA, mit Typologien der Haltungen, etwa in Global Warming‘s Five Germanys (Metag 2017). Da gibt es Alarmierte (alarmed), die nichts tun, Mitdenkende (concerned), die etwas tun wollen, Vorsichtige (cautious), die nichts tun wollen, Uninteressierte (disengaged), die zwar den Klimawandel bemerken, aber sich nicht für Umweltfragen interessieren und

370     W. Hehl

schliesslich die Zweifler (doubtful), die entweder nicht an den Klimawandel glauben oder zumindest nicht an menschliche Ursachen. Die menschliche Ursache des Klimawandels hart zu beweisen, so wie im Labor üblich, ist nicht möglich. Das beschreibt der Guardian vom 30. Dezember 2010 sehr richtig: Der einzige Weg, um mit 100 %iger Sicherheit zu beweisen, dass Menschen für die globale Erwärmung verantwortlich sind, wäre es, das Experiment mit zwei identischen Erden ablaufen zu lassen – einmal mit menschlichem Einfluss und einmal ohne. Das geht offensichtlich nicht, und so sprechen die meisten Wissenschaftler nicht von ‚absoluter Sicherheit‘. Nichtsdestotrotz, die Beweise sind jetzt äusserst stark.

Aber es gilt nun das umgekehrte Argument: Würde aus dem Nichts ein anderer Grund für die Erwärmung auftauchen, so hätten wir ein Riesenproblem, dies noch mit den Treibhausgasen zusammen zu verstehen! Aus der einen weltberühmten Hockeystick-Kurve der Abb. 1.21 sind viele ähnliche Kurven geworden (Abb. 4.6), die der Erfinder (oder Entdecker) der Kurve, Michael Mann, ein Hockey Team nennt. Sie zeigen, was sich alles aus der vorindustriellen Ruhe heraus synchron verändert hat – und kein Zufall sein kann. Wie überraschend verschieden die Psyche des Menschen von der rationalen Wissenschaft arbeitet, das zeigt die Auswertung einer Umfrage des unabhängigen Meinungsforschungs-Instituts Pew Research in USA (Abb. 4.7). Es geht um die Akzeptanz des menschengemachten Klimawandels. Die Balken zeigen den Grad des Glaubens an von wissenschaftlich Ausgebildeten zweier Lager, der konservativen Republikaner und der liberalen Demokraten, an den von Menschen erzeugten globalen Klimawandel. Es ist offensichtlich, dass die Zugehörigkeit zum Lager mehr formt als die Wissenschaft und Rationalität, wohl sogar mehr als ein naturwissenschaftlicher Doktortitel. Eine andere grosse psychische Kraft ist der Holier-than-thou-Effekt, der zwischen Personen und Gruppen eine abstossende und für die Entwicklung störende Kraft erzeugt. Das Collins-Wörterbuch definiert: Definition Holier-than-thou bedeutet als Adjektiv: abstossend fromm, scheinheilig, selbstgerecht. Als Substantiv ist es eine Person mit abstossender Frömmigkeit und von grosser Selbstgerechtigkeit. Collins Wörterbuch des amerikanischen Englischs.

4  Menschliches und Spekulatives zur Zukunft     371

Abb. 4.6  Überall zeigen Hockeystick-Kurven die Aktivität des Menschen an CO2-, N2O-, CH4- und SO2-Wirkungen in der Atmosphäre. Jeweils die Treibhauswirkungen, beim Schwefel direkt der Schwefelgehalt des Eises. Grafik aus dem Archiv des IPCC: IPCC-Bericht 2001, Synthesis Report 2–1. Bild: https://archive.ipcc.ch/ipccreports/tar/slides/02.01.htm.

Es ist damit eine Person gemeint, die die Werte einer sozialen Gruppe übertrieben zur Schau stellt. Ein Ursprung dieses Gefühls könnte in der Askese der frühen Mönche begründet sein, die sich sogar zum Wettbewerb unter den Mönchen entwickelt haben soll. Der Heiligste in der Gemeinschaft war derjenige, der am wenigsten ass – und eventuell dafür insgeheim gehasst wurde. Askese ist möglich, aber man muss sehen, dass es alle im gleichen Masse tun. Es darf niemand mogeln und niemand weniger oder mehr asketisch sein als man selbst. Die Akzeptanz der klimatischen Änderungen (der Glaube) und die neuen Wertvorstellungen des Umgangs mit der Natur (die Gebote) geben auch die Möglichkeit, der oder die Heiligste zu sein und bei den anderen Menschen den Holier-than-thou-Effekt auszulösen. Im Sinne dieses Effekts ist insbesondere die schwedische Klimaaktivistin Greta Thunberg (geb. 2003), Schülerin mit Asperger-Syndrom und vielfach ausgezeichnet für ihren Einsatz, eine Super-Heilige. Die Reaktion vieler Menschen macht Greta Thunberg zu einer der meist gehassten Personen auf der Welt. Der Ablehnungseffekt hat sogar ein klassisches Vorbild bei Shakespeare. Es ist ein Zitat, das gebildete Greta-Gegner benützen:

372     W. Hehl

Abb. 4.7  Die Akzeptanz des menschengemachten Klimawandels in USA in Abhängigkeit von der Ausbildung Das Denken in Lagern ist stärker als das Erfahren wissenschaftlicher Fakten. Die Akzeptanz in den jeweiligen Ausbildungs-Gruppen in Prozent. Grafik nach Umfragen des Pew Research Instituts, Washington, USA. Bild nach How Americans see the climate change and the environment in seven charts. pewresearch.org/fact-tank/2020/04/21.

„The lady doth protest too much, me thinks“ – Die Dame protestiert zu viel, denke ich. Aus Hamlet, 3. Akt, gesprochen von der Königin Gertrude. Hier einige Schlagzeilen aus der Weltpresse: Warum hassen die Leute Greta Thunberg? – Sie lässt sie alt aussehen. Stuff, Neuseeland. 20. 9. 2019. Warum hassen mache Leute Greta Thunberg so sehr? – Sie sagt ihnen, was sie nicht hören wollen. Metro, UK. 2. 10. 2019. Woher kommt der Hass auf Greta Thunberg? – Sie ist zu jung, zu unerfahren. Sie ist zu leidenschaftlich. Die Menschen haben Sorge vor Veränderung. Focus, Deutschland. 27. 9. 2019.

Oder besonders psychologisch interessant: Ich hasse Greta Thunberg – aber warum? Times International, UK. 25. 12. 2019.

4  Menschliches und Spekulatives zur Zukunft     373

Hass ist nicht berechtigt und ist auch keine Lösung. Es ist wichtig, die neuen Werte rational auszulegen und die Zukunft realistisch anzusehen und Massnahmen strategisch zu treffen. Vor allem zeichnet sich eine neue psychologische Aufgabe ab: Nicht mehr zu leugnen, dass es schon schlimmer ist als gedacht, und mit diesem Verständnis zu leben. Damit haben wir die vier Stufen des Klimawandels aus psychologischer Sicht und Beurteilung mit ungefähren Zeitabschnitten: 1. Unbedarft: 1896 bis 1980 Die Treibhauswirkung des Kohlendioxids ist bekannt. Sie wird als positiv angesehen (keine Eiszeit) oder als wahrscheinlich falsch ignoriert. Eher beruhigend. 2. Naiv: 1980 bis 2000 Katastrophenstimmung kommt auf, aber in der Öffentlichkeit ist es nicht eindeutig eine Erwärmung, bei den Wissenschaftlern schon. 3. Einfach: 2000 bis 2020 Teilung der Gesellschaft in Nichtstun (Denier) und Wenn wir aufhören mit fossiler Energie, dann wird alles gut (Warmisten). 4. Aktiv: 2020 bis 2100 Das Klima wird sich drastisch ändern, für die meisten Menschen verschlechtern. Dies, obwohl wir weitgehend mit fossiler Energie aufhören werden. Damit müssen wir leben und entsprechend handeln1. Diese vier Überzeugungen zum Klimawandel sind alle legal und akzeptabel – jeweils zu ihrer Zeit. Die dominierende Einstellung noch heute, 2021, ist die Stufe 3: Wenn wir (oder manchmal Ihr ) aufhörtet, CO2 zu produzieren, dann ginge alles Schlechte zurück und es würde wieder gut. Es ist wohl die Botschaft von Greta Thunberg und die Denkart vieler demonstrierender Jugendlicher. Aber es scheint heute klar, dass dies nur eine notwendige und nicht schon die hinreichende Bedingung ist, um eine ganz grosse Katastrophe abzuwenden. Das psychologische Akzeptanzproblem wird damit noch schwerer. Waren es bisher vereinfacht die Lager der Denier und der Warmisten, so kommen jetzt noch Pessimisten oder Schwarzmaler hinzu, die warnen, dass es nicht so leicht sei, wieder das gute, alte Klima wie früher zu haben. Das SlangWort dafür ist Doomist vom englischen Begriff doom für Verhängnis, böses Geschick. Die Doomisten wollen heute die grössten Heiligen im System sein und nehmen den Warmisten psychische Energie und Anhängerschaft

1  Die

Jahreszahl 2100 deutet spekulativ an, dass das Weltklima dann durch die Massnahmen der Menschheit einen neuen stabilen Systemzustand gefunden hat.

374     W. Hehl

weg. Umgekehrt wäre es unredlich und fragwürdig, das Wissen um die unangenehme Wahrheit zu verbergen – dass nämlich der Klimawandel noch lange weiter geht, obwohl wir hoffentlich dekarbonisieren. Die pragmatische kanadische Psychologin Meaghan Hadwyn gibt dazu in ihrem Artikel (Hadwyn, 2018) fünf Gründe an, Kindern die Wahrheit zu sagen, selbst wenn es schmerzt. Hier leicht angepasst für die Klima-Wahrheit: 1. Sie sollten es aus vertrauenswürdiger Quelle hören. 2. Das Verständnis sollte in vertrauenswürdiger Umgebung erfolgen. 3. Mit dem Wissen können sie die Vorgänge insgesamt besser verstehen. 4. Es ist der Anfang, um Wissen und falsche Aussagen zu unterscheiden. 5. Sie können wieder Vertrauen [zur Wissenschaft] haben. Dazu kommen die Ratschläge: Wenn man nicht darüber redet, gehen die Probleme trotzdem nicht fort. Machen Sie sich nichts daraus, dass Ihre Antwort nicht perfekt ist. Reden [schreiben] Sie weiter! Ein Glaubwürdigkeits-Problem bringen auch die gutgemeinten Appelle zum Handeln, die seit 30 Jahren sagen: Wir haben noch zehn (oder elf oder zwölf, oder auch fünf, ja sogar nur drei) Jahre Zeit, die Katastrophe abzuwenden, hier einige Beispiele: Wir sagen, dass wir in den nächsten 10 Jahren, wenn die Atmosphäre es weiter so ertragen muss, noch eine Chance haben, den Stabilisierungsprozess zu beginnen. Noel Brown, UN Environment Program, 30. 6. 1989, AP News. Wenn nicht in den nächsten 10 Jahren drastische Massnahmen getroffen werden, dann erreicht die Welt den Punkt ohne Wiederkehr. Al Gore in Al Gore macht den Sonnentanz, 2006, 21. 1. 2006. CBS News. Die Welt hat gerade etwas mehr als eine Dekade Zeit, um den Klimawandel unter Kontrolle zu bekommen, sagen UN-Wissenschaftler. The Washington Post, 8. 10. 2018. Von einigen Mitstreiter*innen höre ich immer wieder: ‚Wir haben nur noch zehn Jahre Zeit, um die Welt zu retten!‘ Wenig verärgert mich innerhalb der Klimaschutzbewegung so sehr wie dieser Satz. Frankfurter Rundschau, 20. 9. 2019.

4  Menschliches und Spekulatives zur Zukunft     375

„Es werden schon Witze gemacht: Déjà Vu – der Rio Klimagipfel war 1992. Damals schon sagten die Aktivisten, dass wir nur noch 10 Jahre hätten, um den Klimawandel in den Griff zu bekommen.“ Michael Mann, Forbes.com vom 8. 10. 2019.

Diese Appelle sind nicht mehr glaubwürdig (am ehesten der von 1989). Es gibt kein festes Datum, wir rutschen einfach weiter. Der Klimatologe Michael Mann, der Vater des Hockey Sticks und mitten in der wissenschaftlichen Klimapolitik, vertritt nicht das harte Schwarzsehen, etwa die Menschheit wird ausgelöscht, aber er hat Verständnis für den Doomismus und sagt (Watts 2021): Es ist eine natürliche Gefühlsreaktion. Gute Leute werden Opfer des Doomismus. Auch ich manchmal. Es kann helfen und Kraft geben, wenn man nicht hängen bleibt. Man braucht andere Menschen, die uns helfen, das Gefühl zu einem reinigenden [cathartic] Erlebnis zu machen. Michael Mann, amerikanischer Klimatologe, im TheGuardian, 27. 2. 2021.

Der wohl bekannteste Doomist ist der erfolgreiche amerikanische Schriftsteller Jonathan Franzen (geb. 1957). Franzen wird als Doomist von den klassischen Klimaaktivisten immer noch stark angefeindet. Sein für die alte Klimabewegung schlimmster Satz lautet, bewusst in der Vergangenheitsform des Konjunktivs: Der Klimawandel wäre ein schwer zu lösendes Problem gewesen. Mit andern Worten, wir sind daran gescheitert. Jonathan Franzen, amerikanischer Autor, in. Wann hören wir auf, uns etwas vorzumachen? 2020. rororo, Hamburg.

Insbesondere prangert er die Appelle seit 30 Jahren an, endlich die Ärmel hochzukrempeln und dann wird in 10 Jahren wieder alles gut sein. Wir haben in diesen letzten 30 Jahren so viel CO2 produziert wie in den 200 Jahren vorher. Die Fakten sind ganz anders, die Botschaft ist dieselbe geblieben. Sicher wirkt bei der Ablehnung der Person Franzen ein psychologischer Holier-than-thou-Effekt mit, aber es ist vor allem die Sorge der Klimaaktivisten, dass der Doomismus Hilflosigkeit bedeutet und Inaktivität bringt. • Hilflosigkeit, ja, aber: Wir können drastische Klimaänderungen nicht verhindern. Aber wir leben weiter. Und wir können kleine Erfolge erringen.

376     W. Hehl

• Inaktivität, nein. Eher mehr Aktivität, aber vielseitiger, optimiert und vorausschauend. Wir wollen die Infrastruktur der Welt sowieso dekarbonisieren. Aber wir müssen uns viel mehr um Kurzfristiges kümmern und uns auf Probleme vorbereiten, auf Brände, Überschwemmungen, Trockenheiten, Flüchtlingsströme. Und wir benötigen mehr Innovationen. Wir bezeichnen diese Haltung als Aktiven Doomismus, sozusagen ein abgeschwächtes oder aktives Schwarzsehen. Der Klimatologe Michael Mann nennt es polemisch Soft Doomism, also kein totales Verhängnis, aber doch Ausblick auf schwere, ungewisse Zeiten. Franzen hat dabei ein klassisches Vorbild in einer Komödie von Voltaire (1694–1778) mit einer verblüffenden Analogie. Voltaire schrieb sie gegen den naiven Optimismus des deutschen Philosophen (und genialen Mathematikers) Gottfried Leibniz, der glaubte, unsere Welt sei die beste aller Welten. Der Held der Komödie, Candide, sieht sich hilflos gegenüber der Schlechtigkeit der Menschen und gibt zum Schluss trotzdem oder deshalb den Rat, aktiv zu sein und zu arbeiten: Cela bien dit, […] mais il faut cultiver notre jardin. Gut gesagt, aber jetzt hat es Arbeit im Garten. Candide in der Komödie Candide ou l’optimisme von Voltaire, 1759.

Also bestellen wir den Garten und machen ihn sturmfest, so gut es geht!

4.3 Das Anthropozän: Anfang und mögliches Ende 4.3.1 Die Erde als Planet unter vielen Planeten Die menschliche Aktivität hat die Erde geologisch verändert und sie in eine neue Epoche gebracht, das ‚Anthropozän‘. Die meisten [hypothetischen anderen] Planeten mit einer fortgeschrittenen Zivilisation würden durch die Brennstoffe [ebenfalls] in einen katastrophischen Klimawandel laufen. Newscientist, Most alien civilisations risk fuelling global warming …, 6. 4. 2021.

Der Klimawandel ist ein globales Phänomen, aber ein Astronom oder Astrophysiker sieht dies noch allgemeiner, nämlich kosmisch, zumal jetzt schon mehrere tausend Planeten anderer Sonnen entdeckt und bestätigt

4  Menschliches und Spekulatives zur Zukunft     377 Tab. 4.1  Die astrobiologischen Klassen von Planeten. Positionierung von Planeten nach dem Status der Entwicklung der Biosphäre und der Zivilisation. Nach Climate change for aliens, Adam Frank, University of Rochester, 2017

Klasse

Typ

Beschreibung und Beispiel

I

Planet ohne Atmosphäre

II

Planet mit Atmosphäre, ohne Leben

III

Planet mit primitivem Leben

IV

Planet mit entwickelter Biosphäre, nicht im Gleichgewicht

V

Planet mit intelligenter Spezies und Biosphäre im Gleichgewicht

Sehr statisch. Bsp.: Merkur und Mond Die Atmosphäre verändert den Planeten Bsp.: Mars und Venus Der Planet wird durch eine dünne Biosphäre verändert. Wie die Erde vor 2,5 Mrd. Jahren, vielleicht auch wie der Mars Der Planet wird durch die umfangreiche Biosphäre einseitig, schwer oder nicht umkehrbar verändert. Wie die Erde heute Ein Planet ist mit seiner Biosphäre und seiner Zivilisation im grundsätzlichen Gleichgewicht Basis für eine langfristige Weiterentwicklung

wurden.2 Das Ergebnis ist eine Klassifikation der Planeten (Tab. 4.1) vom amerikanischen Physiker Adam Frank nach dem Stand der Entwicklung von hypothetischen Zivilisationen, insbesondere wie sie ihre benötigte freie (arbeitsfähige) Energie erhalten und wie sich ihre Biosphäre entwickelt (Frank 2017). Die Erde hat schon in ihrer Geschichte die Stadien II (kein Leben und eine Uratmosphäre aus Wasserstoff, Methan und vor allem auch Kohlendioxid) und Stufe III (anaerobes Leben und Aufbau der Sauerstoffatmosphäre) durchlaufen sowie eine lange Zeit von 2,5 Mrd. Jahren im Stadium IV bis hin zu uns und zum Anthropozän. Wir sind offensichtlich in diesem Konzept am Ende des Stadiums IV. Diese Stufe hat allerdings zwei mögliche Ausgänge: • Stufe V: Die Erdzivilisation und die ganze Biosphäre kommen in ein langlebiges Gleichgewicht des Planeten mit der Sonne. Aus der Welt mit der typischen Zeitkonstante von menschlichen Generationen wird

2 Am

14. 4. 2021 laut NASA genau 4 375 Exoplaneten.

378     W. Hehl

eine ­nachhaltige Welt, die in astronomischen Zeiten denkt. Die wesentliche Zeit wird durch den Fusionsreaktor Sonne bestimmt, der als Hauptreihenstern Milliarden Jahre zuverlässig Energie liefert. Aber es gibt auch diese Möglichkeit: • Stufe II: Rückfall in eine tote Welt mit Atmosphäre. Wenn der Rückfall mit Erhitzung und hohem CO2-Gehalt der Atmosphäre erfolgt, sprechen wir von Venusianisierung. Es gibt eine klare Anzeige, ob das Schicksal des Planeten eine Welt der Stufe V ist (Einstellung eines neuen Gleichgewichts mit uns Menschen und der biologischen Welt) oder die Stufe II (eine tote Welt mit totaler Dystopie): • Gelingt es der Menschheit, den Klimawandel mit biologischen und menschlich-technologischen Mitteln zu stoppen, dann kommt der Planet in die Stufe V. • Stoppt nur noch die Physik die Erwärmung (das erwähnte Gesetz von Stefan-Boltzmann), weil z. B. das pflanzliche Leben zurückgeht oder keine technischen Massnahmen getroffen werden, so droht der Rückfall auf Stufe II. Der Astrophysiker Adam Frank meint dazu (Frank 2017): Eine junge Zivilisation wie wir muss sich als Teil der Biosphäre betrachten. Wir gehören dazu, wir sind nur das letzte Experiment, das auf der Erde in der Evolution läuft. Wenn wir nicht aufpassen, geht es ohne uns weiter.

Die möglichen Schicksals-Pfade von Planeten mit dem Wechselspiel von Biosphäre und Zivilisation und durch die selbsterzeugten Veränderungen können sein: 1. Es überlebt eine immer kleiner werdende Population unter immer schlechteren Bedingungen. 2. Die Population überlebt im Gleichklang mit dem Planeten unter angepassten, würdigen Bedingungen. 3. Die Population verschwindet durch Übernutzung von Ressourcen und den entsprechenden lebensfeindlichen Auswirkungen komplett. Die Version 1 bedeutet eine dystopische Endphase einer Zivilisation, wie sie etwa in der Cyberpunk-Literatur gezeigt wird. Version 2 ist eine Utopie, eine positive Zukunft, allerdings mit grossen Umwälzungen. Die Grundlage, ein

4  Menschliches und Spekulatives zur Zukunft     379

Abb. 4.8  Kultfiguren auf der Osterinsel Die Geschichte der Osterinsel als Beispiel des Kollapses eines Systems. Bild: Eigen.

stabiles Energiesystem ohne fossile Energie, scheint möglich. Welche Form die zugehörige Gesellschaft haben wird, ist offen. Die Osterinsel und ihre Geschichte ist ein irdisches Modell für selbsterzeugte Vernichtung, wenn auch nicht über das Klima. Dafür aber sehr malerisch, ja mystisch, sozusagen über zu viel Spiritualität. Die Apokalypse der Zivilisation wurde durch den Ressourcenverbrauch für den Bau der grossen kultischen Figuren, der Moai in Abb. 4.8, hervorgerufen, begleitet von Abholzung und Hungersnöten. Die gewaltigen Kultstandbilder sind übrig geblieben. Sie schauen übrigens nicht aufs Meer hinaus, sondern mit einer Ausnahme in das Innere der Insel. Wir wissen heute, dass es allein in der Milchstrasse etwa 200 Mrd. Sterne gibt mit zwischen 10 und 20 Mrd. Planeten. Da drängt sich das Fermi-Paradoxon auf, eine Überlegung des italienischen Physikers Enrico Fermi von 1950: Wenn es so gigantisch viele Planeten gibt, sollte es dann nicht auch viele hochtechnische Zivilisationen geben? Warum haben wir keinen Kontakt mit anderen Planeten?

Der schwedische Philosoph Nick Bostrom (geb. 1973) sieht die Erklärung dafür in der Filterwirkung durch die Hürde des Übergangs von einer Zivilisation mit Raubbau an den Ressourcen ihres Planeten zu einer nachhaltigen Zivilisation. Wenn diese notwendige Transformation, die in astronomisch gesehen kurzer Zeit geleistet werden muss, zu schwierig ist, dann gibt es eben nur sehr wenige hochentwickelte Zivilisationen im All. Und umgekehrt würde es dann viele gescheiterte und intelligenzlose

380     W. Hehl

Planeten im All geben. Seit 50 Jahren gibt es das SETI-Projekt3, eine Suche nach extraterrestrischem Leben oder extraterrestrischer Intelligenz. Vielleicht sollte es ergänzt werden zu SEETI – Suche nach ausgelöschter (extincted ) extraterrestrischer Intelligenz. Das Leben auf der Erde musste schon lange vorher einen natürlichen, gefährlichen Übergang verkraften, das Ansteigen der Energielieferung durch die Sonne vom Zustand der jungen Sonne bis zur heutigen Stärke um nahezu ein Drittel (s. o.)! Zur Erinnerung: Unser heutiges Problem der globalen Erwärmung wird durch 1 % oder 2 % Strahlung zu viel verursacht. Die Erde zeigt uns, dass es unter den hunderten von Millionen Jahren der Entwicklung einer Biosphäre auf wenige hundert Jahre ankommt, ob der Übergang von der Stufe III und IV zur Stufe V (es ist die Version 2) gelingt, oder ob die Zivilisation dieses Planeten wieder verschwindet. Es sieht so aus, als wäre die Hürde eine notwendige gemeinsame globale (planetare) Aktion. Wenn sich diese Zivilisation des Problems zu spät bewusst wird, ist die Aktion vielleicht ein Geoengineering, das zum Überleben unerlässlich wird. Diese kosmische allgemeine Sicht soll keineswegs bedeuten, dass unsere Erde verdammt ist, durch den Klimawandel in eine niedere Stufe ohne Zivilisation zurück zu fallen. Auf keinen Fall sind Aussagen sinnvoll wie das wohlbekannte Wir haben nur noch 10 Jahre oder gar Es ist für alles zu spät. Unsere Stufe-IV-Existenz geht kontinuierlich weiter mit mehr und mehr Innovation einerseits und mehr und mehr Katastrophen andrerseits. Die neuen Grundtechnologien der Energieerzeugung, Wind und Photovoltaik, haben ein Kosten-Nutzen-Niveau erreicht, das sie zu den günstigsten Energielieferanten macht und die Gesetze des Kapitalismus nun in die Richtung der Transformation wirken lässt. Noch fehlen bessere, ressourcenschonendere Batterien und die Technologien zur Entfernung von CO2 im grossen Stil. Es gibt Hoffnung. Auf keinen Fall steht durch den Klimawandel eine Art von absoluter Apokalypse am Horizont, wie die klassischen Apokalypsen Nuklearkrieg oder Asteroideneinschlag es wären, also ein On und dann Off. Aber es ist nicht einfach, das Klima zu dekarbonisieren und die Umwelt nachhaltig zu machen.

3 SETI

steht für Search for Extraterrestrial Intelligence.

4  Menschliches und Spekulatives zur Zukunft     381

4.3.2 Eis, Wald, Wolken – es geht nicht so leicht zurück Der Rückzug der Gletscher [Grönlands] hat die Dynamik des gesamten Eisschildes in einen konstanten Verlustzustand gebracht. Selbst wenn das Klima gleich bliebe oder sogar etwas kälter würde, würde der Eisschild immer noch an Masse verlieren. Ian Howat, geb. 1968, amerikanischer Glaziologe.

Es ist nicht so einfach, den Klimawandel zurückzunehmen. Im Gegenteil, es gibt eine Reihe von positiven Effekten, positiv im Sinn, dass sie die Erwärmung weiter verstärken und verhindern, dass man sie leicht wieder abstellen kann. Einige dieser Effekte haben wir schon kennengelernt, etwa für das arktische und antarktische Eis die Eis-Albedo-Rückkopplung. Wenn das reflektierende und sich nicht erwärmende Eis schmilzt und zu dunklem Wasser wird oder zu dunklem Boden, gibt es einen Wärmeschub. Wenn die dicken Gletscher abschmelzen, kommt die Oberfläche in tiefere, wärmere Luft, und der Schmelzvorgang wird beschleunigt. Wenn mehr Wasser durch den Gletscher diffundiert und sich am Grund ansammelt, kommt mehr Wärme in den Gletscherkörper. Der Gletscher kann leichter rutschen, er schmilzt schnelle und gibt dunklen Untergrund frei. Wenn immer mehr Regen auf Schnee fällt, schmilzt der Schnee schneller. Im Anschluss an das arktische Eis haben wir den Auftauprozess des Permafrosts, der in Jahrhunderten entstanden ist und sich auch nicht ohne weiteres wieder regenerieren lässt. Er benötigt lange, sehr kalte Epochen für die Entstehung. Das Wesentliche ist, dass viele Teileffekte und Folgen der Klimaerwärmung nichtlinear sind, sich selbst verstärken und sogar nicht wieder verschwinden, wenn der ursprüngliche Auslöser zurückgeht. Die Erzeugung und der eventuelle Rückbau des Klimawandels sind sehr stark asymmetrisch. Die Erzeugung des Klimawandels geschah vor allem in den letzten Jahrzehnten, die Auswirkungen werden sich über Jahrhunderte bis Jahrtausende erstrecken.

Es ist eine Art umgekehrter Seneca-Effekt. Der römische Philosoph Seneca der Jüngere (4 v.Chr. bis 65 n.Chr.) hatte vom Reichtum gesagt: Das Wachstum schreitet langsam voran, während der Weg zum Ruin schnell verläuft.

382     W. Hehl

Die Verstimmung der Erde ging relativ schnell, die Erholung wird lange dauern, wenn sie überhaupt möglich ist. Wälder und Klimawandel, Teil II Eine oft gehörte und sehr natürlich aussehende Massnahme, den Klimawandel zurück zu nehmen, ist die grossflächige Aufforstung der Erde. Bäume sind nicht nur Sympathieträger, sondern nehmen auch CO2 aus der Luft, speichern es ober- und unterirdisch, und haben zusätzlich weitere positive Effekte wie Wasser zu verdunsten oder die Biodiversität von Tieren und Pflanzen zu unterstützen. Wir haben allerdings schon gesehen, dass der einzelne Baum gar nicht so sehr effizient im Speichern von CO2 ist, typisch 20 kg pro Jahr oder 180 kg in den ersten 25 Jahren des Lebens (Silberahorn). Es ist die grosse Zahl von Bäumen, die glücklicherweise speichert. Es sind etwa 3 Billionen auf der Welt und bereits 90 Mrd. in Deutschland. Zum Vergleich unsere menschlichen Leistungen (im Erzeugen von CO2): Etwa 20 Bäume kompensieren den Atem eines Menschen, 400 Bäume das gesamte Kohlendioxid eines deutschen Bürgers, 1500 Bäume einen Einwohner von Katar. Aufforstung ist eine Massnahme, die auch Klimawandel-Leugner und extreme Rechte akzeptieren können, aber für unser Ziel, den Klimawandel zu mildern, ist es überraschenderweise nicht immer so klar: Bäumepflanzen hilft nicht immer gegen Klimawandel. BBC Future Artikel von Michael Marshall, 26. 5. 2020. Mehr Bäume machen nicht immer einen kühleren Planeten, zeigt eine Studie. In einigen Teilen des Landes führt mehr Wald zu einer wärmeren Erde. ScienceDaily vom 12. 2. 2021. Wie können Wälder helfen, den Klimawandel zu bekämpfen? Bäume sollen die globale Erwärmung verlangsamen, aber es häufen sich die Beweise, dass sie nicht immer die Klimaretter sind. Nature.com vom 15. 1. 2019.

Aus Sicht der Klimabilanz haben neue, aufgeforstete Wälder ein grosses Problem: Die Albedo. Bäume sind von der Evolution im Prinzip als Fraktale konstruiert, um möglichst grosse Oberflächen zu bieten bei möglichst geringem Materialeinsatz. Vor allem in den gemässigten und nördlichen Breiten geht es dabei auch darum, möglichst viel Sonnenlicht aufzunehmen. Das leistet die Struktur mit Stamm, Ästen und Zweigen mit Blättern. Als Konsequenz haben (belaubte) Bäume eine niedrigere Albedo als unbebaute Flächen. Einige

4  Menschliches und Spekulatives zur Zukunft     383

ungefähre Rückstrahlfähigkeiten sind z. B. für Wald und für nasse Erde 0,07 bis 0,13 (also dunkel) für trockene Erde 0,22 bis 0,33, für felsige Wüste 0,27 bis 0,29 und bei trockenem Sand 0,38 bis 0,43 (etwa mittelgrau). Die entstehenden Strahlungsänderungen beim Aufforsten oder Abholzen sind damit ganz beträchtlich – und häufig in die falsche Richtung, anders als vermutet weiter wärmend beim Aufforsten, kühlend beim Abholzen! So empfängt die Erdoberfläche etwa 240 W/m2 Strahlung von der Sonne, eine Änderung der Albedo um 0,2 oder 20 % bedeutet 48 W/m2 mehr oder weniger. Der Effekt des ganzen CO2 in der Luft (das radiative Forcing oder der Strahlungsantrieb) ist zum Vergleich nur 1,5 W/m2. Die Speicherung des CO2 im Baum und in der zugehörigen Erde ist der offensichtliche Vorteil, aber dies kann für viele Aufforstungs-Szenarien den klimatischen Effekt nicht ins Positive drehen. Natürlich ist dies nur die physikalisch-chemische Seite des Waldes. Seine Werte sind viel mannigfaltiger. Er spendet Schatten für den Menschen, speichert Wasser und ist Heimat für viele Lebensgemeinschaften. Er sorgt für Biodiversität. So hat der Verlust der Wälder östlich des Mississippi den Planeten erwärmt, während der Waldverlust in den westlichen Rocky Mountains zu einem Nettokühl-Effekt geführt hat. Die Abb. 4.9 zeigt die Albedo der gesamten Landfläche der Erde und macht klar: Die Erfüllung des Traums, die Sahara zu bewalden, wäre klimatisch ein Desaster.

Ob eine Aufforstung dem Klima hilft, hängt davon ab, welcher Art der Änderung der Landnutzung ist, welche Bäume gepflanzt werden, wie die Albedo sich dabei ändert, ob dadurch eine Konkurrenz zur Nahrungserzeugung entsteht, ob genügend Wasser vorhanden ist, ob sich Wolken bilden. Es bleibt bei der Aussage: Das Wichtigste ist es, den gewachsenen Wald zu erhalten, zu pflegen und insbesondere den tropischen Wald zu schützen. Wenn möglich auch dort, in den Tropen, aufzuforsten. Und wenn Holz geschlagen wird, es aufzubewahren und nicht zu verbrennen. Eine weitere Hoffnung auf eine Dämpfung der globalen Erwärmung ist (war) die vermehrte Bildung von Wolken mit ihrer hohen Albedo durch den Klimawandel. Wir haben gesehen, dass Wolken sowohl wärmen wie kühlen können. Den Wolken-Klima-Feedback haben wir schon erwähnt. Die Rückkopplung ist allerdings ebenfalls positiv. Bei Erwärmung geht die Bewölkung (wahrscheinlich) zurück und die globale Erwärmung wird ­verstärkt. Nur Wolken, die aus einer Mischung von ­Wassertröpfchen

384     W. Hehl

Abb. 4.9  Die Albedo der Landoberfläche, gemittelt über den Monat Juli 2015 Nach Aufnahmen des NOAA/NASA Suomi NPP Satelliten. Die Sahara mit hoher Albedo und Grönland mit sehr hoher Albedo stechen hervor. Bild: Reflecting reflection suomi npp instruments aid monitoring earth’s albedo, National Environmental Satellite Data and Information Service, nesdis.noaa.gov.

und Eiskristallen bestehen, werden beim Erwärmen heller durch die zunehmenden kleineren Wassertröpfchen – bis alles Eis getaut ist. Dann entsteht ein starker positiver Effekt der Erwärmung. Die Bewölkung wird die globale Erwärmung nicht bremsen, aber vielleicht einen zusätzlichen Beitrag liefern. Allerdings gilt: Die Rückkopplungen im Klimasystem, an denen Wolken beteiligt sind, sind weiter eine grosse Quelle der Unsicherheit in den Vorhersagen der Modelle für die globale Erwärmung. Graeme Stephens, amerikanischer Physiker, Journal of Climate, Vol. 18, 2005.

Es ergibt sich die Kette von Folgen: Es ändern sich die Wassertemperaturen und die Meeresströmungen, somit die grossflächige Bildung und Verteilung der Wolken, vielleicht der Wolkentyp von Wolken aus Eiskristallen zu Tröpfchen, dadurch die Albedo der Oberfläche und die Isolationsfähigkeit der Bewölkung, somit die Wasser- und Landtemperaturen usf.

4  Menschliches und Spekulatives zur Zukunft     385

4.3.3 Die Zukunft der Erde In einem Theater brach hinter den Kulissen Feuer aus. Der Pierrot trat an die Rampe, um das Publikum davon zu unterrichten. Man glaubte, es sei ein Witz und applaudierte. Er wiederholte seine Mitteilung; man jubelte noch mehr. So denke ich mir, wird die Welt eines Tages untergehen. Søren Kierkegaard, dänischer Philosoph, 1813–1855.

Im Sinn dieser Parabel warnen die Klimatologen seit 50 Jahren vor dem Klimawandel; sie sind schon sehr oft vor die Vorhänge getreten und haben Feuer gerufen. Man applaudierte ihnen nicht. Man wollte lange nichts davon wissen, dass es zwei Realitäten gibt: Die komfortable, sorglose goldene Zeit wie etwa bis 1950 und eine wachsend bedrohliche Realität mit Erwärmung, Eisschmelze und Anstieg des Meeresspiegels.

Es musste so kommen Wir haben eine Zivilisation geschaffen, die wild entschlossen ist, sich selbst zu zerstören. James Dyke, englischer Erdwissenschaftler, auf theconversation.com, 24. 5. 2019.

In der allerersten Realität haben die Menschen die Erde als unendlich gross angesehen und mit ihren Stürmen und Jahreszeiten für unvergänglich. Dazu noch einmal der Senator James Inhofe von Oklahoma: Das Klima ändert sich und hat sich immer geändert und wird sich immer ändern. Es ist ein schlechter Witz zu glauben, dass Menschen so viel Macht hätten um das Klima zu ändern. Der Mensch ändert nichts. James Inhofe, amerikanischer Politiker und Senator, nach Abstimmung in 2015.

Diese Ansicht war die stabilste mögliche Haltung und gleichzeitig scheinbar moralisch überlegen. Eine zweite, andere und dynamische Stabilität gab der Glaube an die Gaia-Hypothese. Allgemein sollte das Leben die Welt durch seine Lebensvorgänge gleichzeitig zu seinem Vorteil verändern und dabei stabilisieren. Aber dies ist allgemein falsch. Insbesondere sind wir im Falle des CO2Gehalts der Luft zu weit gegangen. Wir sind nicht mehr im möglichen Auffangbereich.

386     W. Hehl

Während zwei Jahrhunderten haben wir fossile Materialien verbrannt, die zur natürlichen Entstehung Millionen Jahre gebraucht haben. Der Gründer der Gaia-Hypothese, James Lovelock, geb. 1919, ist heute extremer Doomist und Dystopist, der durch die globale Erwärmung das Ende der Welt in der alten, friedlichen Form um das Jahr 2100 erwartet. Auch der Gedanke an Gaia, an die Erde als Organismus, wenn auch nur als Metapher, war beruhigend und tröstlich. Vielleicht wäre es ja mehr als eine irdische Gesetzmässigkeit, sondern würde auch für Exoplaneten und extraterrestrisches Leben gelten. Aber in der dritten, der wissenschaftlichen Realität gibt es für das Leben keine beruhigende Sicherheit. Die Realität hinter dem Vorhang des Theaters ist ohne Gefühle. Es gilt die Gesetzmässigkeit der Evolution, ein Strom von Zufällen im Rahmen der Naturgesetze (Hehl, 2021). Die Vergangenheit ist sicher, auch mit allen noch so unwahrscheinlichen Vorbedingungen, die zu uns geführt haben (anthropisches Prinzip). Allerdings sind die Schritte der Entwicklung der Zivilisation aus der heutigen Sicht zurück recht gesetzmässig erfolgt: Von der ersten Kultivierung des Getreides um 12 000 v.Chr. im Nahen Osten, dem Beginn der Metallurgie mit Kupfer und Bronze etwa um 5 000 v.Chr. über die Dampfmaschine, Elektromotor, Kernenergie bis zur Photovoltaik und LED-Technologie. Jede Stufe der Entwicklung setzte auf den früheren Stufen auf. Entdeckungen und Erfindungen waren jeweils erst ab einer bestimmten Stufe möglich. Insbesondere ist die wichtige Rolle des Kohlenstoffs in der ganzen Evolution zwangsläufig. Der Grund ist letztlich die Vielfältigkeit der Kohlenstoffchemie, die Leichtigkeit der Bildung weiterer Kombinationen von Molekülen. Beim Vorhandensein von freiem Sauerstoff in der Atmosphäre war das Feuer als Verbrennung von kohlenstoffhaltigen Stoffen naheliegend. Schlimmer noch: Ein grosser Teil der organischen Welt ist eigentlich an Luft gar nicht stabil. Es wäre zwar möglich, eine Energieversorgung auf anderen Stoffen aufzubauen – etwa auf Schwefel – aber nicht komplexe Lebensformen. Mit der Zähmung des Feuers wurde der Teufel aus der Schachtel gelassen (Abb. 4.10). Die Entwicklung einer auf Dampfkraft basierenden Industrie war vollkommen zwangsläufig. Es gab kein Überlegen. Der Fortschritt wurde als einzige grosse Verbesserung angesehen. Die Ausnützung der Kernenergie war ebenfalls konsequent eine Weiterentwicklung, ermöglicht durch fortgeschrittene Physik (s. die Abb. 3.9). Die einzige sichtliche und nicht-zwangsläufige grössere Weichenstellung in der Geschichte der Technik war der Ausstieg einiger Länder aus der Kernenergie.

4  Menschliches und Spekulatives zur Zukunft     387

Abb. 4.10  Das Kohlendioxid des industriellen Zeitalters als Schachtelteufel Zeitgenössische Karikatur von König Leopold des II. von Belgien. Bild: The Royal Jack in the Box, Wikimedia Commons,

Dies geschah zum Entsetzen mancher Umweltschützer wie etwa dem grünen Gründervater James Lovelock. Der teilweise Ausstieg hat die Zeitachse der globalen Erwärmung vielleicht um eine Dekade in die Wärme hinein verschoben. Um zu demonstrieren, wie schwer es der klassischen Industriegesellschaft fällt, sich von der fossilen Energiewirtschaft zu lösen, verwenden wir noch einmal den EROI-Wert, den energetischen Erntefaktor, hier in einer verbreiteten grafischen Darstellung (Abb. 4.11). Für die verschiedenen Fördermethoden – von selbstsprudelnd bis gewaltsam extrahiert – ist der Prozentsatz der Energie einer Fördermethode, der für den Nutzer übrig bleibt, über dem EROI aufgetragen, dem Verhältnis der Nutzenergie zur Energie für die Gewinnung. Die Grafik zeigt, wie es schwieriger und immer energieaufwendiger geworden ist, die fossilen Energieträger aus dem Boden zu extrahieren. Es ist der Niedergang des energetischen Wirkungsgrads vom Jahr 1900 mit selbstsprudelnden Ölquellen von 50:1 oder mehr auf neu entdeckte Ölund Gasfelder von 30:1 bis hinunter zum scharfen Abfall für die moderne Gewinnung aus Ölschiefer mit nur 2:1. Dieses Fracking hatte trotzdem noch grosse wirtschaftliche und politische Veränderungen ausgelöst. Wenn man also aus politischen oder Marktgründen unbedingt weiter fossil bleiben will, wäre dies mühsamer, aber möglich. Es wäre energiewirtschaftlich denkbar, noch 200 Jahre weiter die Verbrennung von fossilen

388     W. Hehl

Abb. 4.11  Der Erntefaktor verschiedener Verfahren der Gewinnung fossiler Energie Die allgemeine Entwicklungsrichtung der Ölindustrie ist auf der Kurve von links nach rechts. Die Grafik basiert auf dem Konzept von Euan Mearns, Charles Hall und Nate Hagens mit eigenen Zahlen. Mit freundlicher Genehmigung. Nach Charles Hall, in: Joule, Vol. 1, 20. 12. 2017.

Kohlenwasserstoffen (und auch von fester Kohle) zu betreiben. Aber es ist offensichtlich die erste Massnahme zum Umbau der Wirtschaft und gegen den Klimawandel, fossile Energieträger im Boden zu lassen, im Werbespruch. Lasst fossile Energie fossil bleiben oder Keep fossil fuel fossilized!

Für den Flugverkehr und vielleicht auch für den Schiffsverkehr wird man wohl eine Lösung mit Kohlenwasserstoffen weiter verwenden müssen. Dies wird dann entweder noch fossiles Kerosin sein oder besser mit Hilfe von Sonnenenergie erzeugter e-Fuel. Ein besonderes Problem sind die Petrostaaten, die sich mehr oder weniger freiwillig von ihrem Reichtum lösen müssen. Ihre Schätze werden von einem Tag auf den anderen wertlos. Die Erwartung ist, dass sie dies so lange wie möglich herauszögern und weiter fossile Brennstoffe exportieren, aber ansonsten ihre Gesellschaft selbst so weit wie möglich mustergültig CO2-frei aufstellen. Die energetische Situation bei den erneuerbaren Energiequellen ist grundsätzlich verschieden, da die Ausgangsenergie (elektromagnetische Energie direkt von der Sonne, indirekt als kinetische Energie vom Wind) nahezu beliebig und frei zur Verfügung steht. Insbesondere bei Photovoltaik ist das Kosten-Leistung-Verhältnis immer besser geworden. Das bedeutet allerdings

4  Menschliches und Spekulatives zur Zukunft     389

nicht, dass diese Technologien problemlos sind, insbesondere wenn sie nicht nur gross, sondern planetarisch gross eingesetzt werden.

Wie geht es (wahrscheinlich) weiter? Chi vuol esser lieto, sia, di doman non c'è certezza – Wer fröhlich sein will, der sei es, über das Morgen gibt es keine Sicherheit. Lorenzo de‘ Medici, genannt il magnifico, der Prächtige, 1449–1492.

Es scheint, als habe der Renaissancefürst sein Gedicht Triumph des Bacchus, aus dem diese Zeile ist, auch für die Menschheit als Ganzes geschrieben. So heisst es zu Beginn des Verses: Schön ist die Jugend, frei von Sorgen, doch sie schwindet Tag um Tag. Die Zukunft des Planeten in Wechselwirkung mit uns Menschen wird durch eine Vielzahl von Beziehungen bestimmt, die schwer kausal zu fassen sind oder gar Zufall enthalten, wie z. B. politische und psychologische Reaktionen. Es ist schwierig, das klimatologische und physikalisch– chemisch-biologische Wissen in mathematische Gleichungen umzusetzen. Wir haben schon gezeigt, dass eine Vielzahl von Klimamodellen existiert, wahrscheinlich mehr als hundert, die jeweils einen Ausblick geben (eine Auswahl zeigt Abb. 2.82). Jedes dieser Modelle ist ein komplexes System und eine Art von Ingenieurswissenschaft. Die Ausblicke der Modelle selbst sind Wahrscheinlichkeitsverteilungen; dies illustriert die Abb. 4.12 an den Temperatur-Antworten. Die Kurven sind ein Ausschnitt aus einem IPCC Bericht und sollen hier nur die Schwankungsbreite der Ausblicke zeigen. Ein Prüfstein für Klimamodelle, sozusagen in Übungsbeispiel, ist die theoretische Frage: Wie sieht das globale Klima aus, wenn die Welt nettoNullemissionen erreicht hat und noch weitere 50 Jahre vergangen sind? Zehn Modelle sagen minimale Temperatur voraus, drei Modelle eine Abkühlung und zwei eine merkliche weitere Erwärmung. (Hausfather, 2021). Damit haben wir in den Projektionen der Zukunft mehrere Ebenen von Unsicherheit: • Angefangen bei den Unsicherheiten der Ausgangslage, • über die Annahmen für die Klimamodelle (sie sind nur Näherungen an die Natur) • bis zur Übertragung in Algorithmen und Programmcode (sie sind nur Näherungen an die physikalischen, realen Entwicklungen).

390     W. Hehl

Abb. 4.12  Statistische Langzeitvorhersagen verschiedener Klimamodelle (Ausschnitt) Mehr dazu im IPCC Bericht AR5 im Text zur Abbildung Box 12.2, Figur 2.

Die Reaktionen der Menschen und der Märkte sind sprunghaft und unsicher. Man versucht, dies durch verschiedene Szenarien zu erfassen als bedingte Vorhersagen (conditional forecasts). Die Simulation des Erdklimas ist insgesamt eine analytisch und numerisch unangenehme Aufgabe; viele zu erfassende Effekte können sich positiv oder negativ auswirken. Es gibt Einflüsse auf verschiedenste Phänomene, aber die möglichen Auswirkungen können gut oder schlecht sein,

sagt Hongbin YU, Physiker am NASA Goddard Space Center. Sein Beispiel ist der abnehmende Saharastaub (NASA, 2021/04), aber solche Sattelpunkte gibt es zuhauf im System. Abnehmender Saharastaub ist wohl für die Sahara selbst günstig, aber für das Weltklima ein positiver, also ungünstiger Feedback. Der Klimawandel erwärmt den Ozean, es gibt weniger Passatwinde und damit weniger Staub, dies bedeutet weniger Reflexion von Sonnenlicht, folglich mehr Erwärmung, usf. Wir haben schon gesehen, dass die Wissenschaft der Simulationen versucht, in der Ungewissheit der Vorhersagen so wissenschaftlich wie möglich zu sein, auch im Gebrauch der Wörter – aber exakte, zahlenmässige Aussagen zur Zukunft sind im komplexen Klimasystem wenig sinnvoll. Es gelten die Warnungen wie bei den Ausblicken, die eine Firma auf ihren Aktienkurs gibt. Sie sind als sogenannte Safe Harbor-Erklärung vorgeschrieben, etwa so:

4  Menschliches und Spekulatives zur Zukunft     391

Diese vorwärts-gerichteten Aussagen geben unsere jetzige Einschätzung zur Zukunft wieder. Sie enthalten Risiken und Unsicherheiten, die die wirkliche Entwicklung ernsthaft verändern können. Es wird geraten, sich nicht zu sehr auf die vorwärts-gerichteten Aussagen zu verlassen. Oracle-Erklärung im engl. Wikipedia-Artikel Forward looking statement.

Wir versuchen selbst vorwärts-gerichtete Aussagen oder Abschätzungen zu machen. Dazu definieren wir die kritischen Klimawandel-Zeiten T0, T1, T2 und T3. Definition T0 sei der Zeitpunkt, wenn der künstliche Strahlungsantrieb (d. h. die CO2Konzentration inkl. anderer Treibhaus-Gase) nicht mehr steigt. T1 sei der Zeitpunkt, wenn der künstliche Strahlungsantrieb weniger als 20 % des heutigen Werts ist. T2 sei der Zeitpunkt, wenn die Zunahme der globalen Temperatur endet. T3 sei der Zeitpunkt, wenn sich ein neues, nach der Erwärmung stabiles, insgesamt globales Gleichgewicht einstellt.

Es scheint recht sicher, dass der CO2-Ausstoss der Welt in wenigen Jahren (zur Zeit T0) zurückgehen wird. Die Grösse der Zeiten T1 bis T3 ist nicht trivial, denn sie bestimmen die Weiterexistenz der Zivilisation der Erde. Das Erreichen der Zeit T1 bedeutet, dass es die Menschheit geschafft hat, bis dann die Weltwirtschaft und Weltgesellschaft weitgehend umzustellen. Oft wird stattdessen hier die Zeit bis zum Erreichen von Netto-NullEmissionen genommen – aber dieser Begriff ist wohl eher ein Politikum und kein pragmatisches Ziel wie hier nach Pareto. Ziel muss es sein, die Temperaturzunahme noch bei mässiger Temperaturerhöhung zu beenden. Das Schicksal der Erde soll auch keine gemässigte Variante des Lebenslaufs der Venus sein – ein Verkochen der irdischen Ozeane würde ja auch schon ausreichen und alles Leben beenden. Unsere Schätzungen dazu sind für den Umbau der Erdinfrastruktur etwa 50 Jahre, dann mehrere Jahrzehnte bis die Zunahme der Erwärmung ausläuft und mehrere hundert Jahre, bis sich die Klimamaschinerie der Erde auf eine neue Arbeitsumgebung eingestellt hat (NASA, 2021). Das Kohlendioxid wird für Hunderte von Jahren in der Atmosphäre und in den Ozeanen bleiben. Von den Ozeanen wird es langsam, über mehrere tausend Jahre hinweg, in die Atmosphäre zurückkehren. Und es wird in dieser langen Zeit die Temperatur der Erde erhöhen. Dies ist unser grösster faustischer Handel. Schliesslich wird das CO2 im Gestein verwittern wie viele Milliarden Tonnen CO2 in früheren Epochen.

392     W. Hehl

Der langfristige Status der irdischen Klimamaschine und der Grad der Verschiedenheit von heute wird vom Ablauf des Auffangens der Erwärmung abhängen, insbesondere ob es gelingt, auch negative Emissionen einzusetzen (Stager, 2012). Es könnte sein, dass unsere pragmatische Definition 20 % Rest als Endziel nicht scharf genug ist, sondern 0 sein muss oder besser negativ, denn eine Null-Emissions-Gesellschaft ohne aktive NegativEmissions-Technologien erscheint schwer vorstellbar. Schon allein der Atem der Menschheit liefert nahezu 3 Mrd. Tonnen CO2 im Jahr. Der Ausdruck Zero-Emissions-Ziel ist wohl eher eine psychologische Marke. Das bedeutet, dass der Aufbau einer Carbon Capture-Industrie oder wenigstens Carbon Storage-Industrie unvermeidlich ist. Negative Emissionen müssen aus taktischen Überlegungen recht früh eingesetzt werden. Wenn man sich an eine eisfreie Arktis und an ein warmes Skandinavien gewöhnt hat, kann es sein, dass negative Emissionen auf konkreten Widerstand der vom Klimawandel Begünstigten stossen, nicht nur auf die diffuse Ablehnung von heute.

Was wir tun sollten „Ich bin Optimist, weil ich weiss, wozu Technologie in der Lage ist, und weil ich weiss, wozu Menschen in der Lage sind. Ich bin zutiefst inspiriert durch all die Leidenschaft, mit der vor allem junge Menschen die Lösung dieses Problems angehen.“ Bill Gates, Unternehmer, Schlussworte im Buch Wie wir die Klimakatastrophe verhindern.

Es ist heute klar, dass wir in grosse Veränderungen des Klimas hineinlaufen. Aber es liegt an der Menschheit und an der Definition des Wortes Katastrophe, ob die Katastrophe wirklich eintritt. Das Wort Katastrophe kommt aus der antiken griechischen Tragödie katastrophé und bedeutet die Umwendung, d. h. den Punkt, an dem sich das Schicksal des Helden zum Glück oder Unglück entscheidet. In diesem Sinn sind wir schon in der Katastrophe. Im modernen Sinn ist eine Katastrophe ein verheerendes Ereignis, etwa in der pragmatischen Definition eines Katastrophenschutzgesetzes: Eine Katastrophe ist ein Schadensereignis, das von den für die Gefahrensabwehr zuständigen Behörden mit eigenen Kräften und Mitteln nicht angemessen bewältigt werden kann.

4  Menschliches und Spekulatives zur Zukunft     393

Abb. 4.13  Das Hantel-Modell zur Bewältigung der globalen Erwärmung4 Es sind sowohl Massnahmen zur globalen Milderung notwendig (links) als auch Massnahmen mit lokaler/regionaler Wirkung (rechts). Beide Typen sind fachlich wie in der Motivation verschieden.

Mit den dramatischen Änderungen des Klimas, der ursächlichen Katastrophe, und zunehmenden katastrophalen Ereignissen als Folge muss sich die Infrastruktur der Erde ändern. Für diese Änderungen schlagen wir die Grundsätze vor: 1) Wir gewichten Massnahmen für das globale Klima nach der absoluten Effizienz für das Ganze, wirksam vor allem in den nächsten 30–50 Jahren. Es lohnt sich nicht, jedem CO2-Molekül nachzugehen. 2) Massnahmen gegen den globalen Klimawandel, die auch lokal positive Bedeutung haben, bekommen Priorität. Dazu gehören insbesondere Massnahmen zur Anpassung an klimatische Änderungen wie Staudämme und Bewässerungsanlagen (Adaptation). Die Abb. 4.13 illustriert in Form einer Hantel die beiden Typen von Massnahmen. Die globalen Massnahmen auf der linken Seite – wie Reduktion des CO2Gehalts der Luft um 2 ppm – sind für den Bürger in ihrer Wirkung abstrakt, die lokalen Aktionen wie eine Bewässerungsmassnahme sind in ihrem Nutzen eher greifbar. Beide Seiten zusammen erhöhen die Sensibilität für den Klimawandel. Für die zugehörigen zentralen Massnahmen zur Verringerung des Kohlendioxids im Kreislauf ergibt sich eine nahezu selbstverständliche Rangordnung: a) Bewahren von Kohlenstoff im Boden (Preservation), b) Verringern des CO2-Ausstosses in die Luft (Mitigation), c) Entnahme von CO2 aus der Luft (Carbon Capturing zur Restoration). 4 Das

Hantelmodell wurde nach dem Barbell–Modell von Nassim Taleb für Investitionen gebildet.

394     W. Hehl

Der erste Grundsatz, die Forderung nach Effizienz, soll unsinnige Ausgaben und Massnahmen vermeiden, die nur das Gefühl beruhigen und den Interessen einer Gruppe dienen, aber nicht dem Weltsystem. Ein Beispiel ist die Pelletindustrie als Quelle sog. nachhaltiger Energie. Die Wirkung globaler Klima-Aktionen ist oft unsichtbar und Vertrauenssache. Es widerspricht wirtschaftlich denkenden Menschen, eine Investition emotional zu tätigen, ohne den erwarteten Erfolg berechnen oder wenigstens einschätzen zu können. Hier geht es um sehr grosse Investitionen. Was benötigt wird, ist eine globale Strategie für diese Massnahmen zur Auswahl der optimalen Technologien in den Ländern je nach dem Stand der Entwicklung, dem Grad der Entwicklung ihrer Wirtschaft und ihrer Geografie. Die lokalen Massnahmen nach dem zweiten Grundsatz sind dagegen greifbar und verstärken die Bindung der Bevölkerung an alle Klimamassnahmen. Damit werden Menschen und Umwelt auf die kommende klimatische Neuordnung vorbereitet. Die Forderung nach Effizienz ist der allgemeine Wunsch nach Rationalität. Angesichts der Quasireligiosität mancher Umweltschutzideen besteht die Gefahr, dass radikale Ideen die Überhand bekommen, etwa der Kampf gegen jedes CO2-Molekül und damit das Carbon shaming, die Ächtung von Menschen für im globalen Massstab kleine oder anders sinnvolle Emissionen. Die entsprechende Haltung ist in religiöser Ausdrucksweise die Forderung nach kontrollierter Askese, weltlich nach wohlüberlegtem Verzicht. Der Verzicht ist sachlich zu begründen, sonst wird Umweltbewegung zu einer unmenschlichen Sekte und das Leben verliert unnötig Qualität. Die Psychologie des Verzichts und der Holier-than-thou-Effekt waren schon den frühchristlichen Mönchen bekannt, den Wüstenvätern des 3. Jahrhunderts n.Chr.: Sie legten sich nach Cassianus die Regel auf, nicht mehr als sieben Oliven täglich zu essen. Ass man sechs statt sieben Oliven, beging man eine Sünde des Stolzes, ass man acht, beging man eine Sünde der Völlerei. Gerald Katzbeck, österreichischer Theologe, 2012.

Der Klostergründer Pachomonius liess die Mönche sogar mit übergezogenen Kapuzen essen, damit keiner sehen konnte, wie viel (besser: wie wenig) der Nachbar ass! Als Rahmen für die Hebelwirkung der Massnahmen die Grössenordnungen: Die Schweiz umfasst ungefähr ein Promille der Erdbevölkerung und produziert etwa ein Promille des menschengemachten Kohlendioxids

4  Menschliches und Spekulatives zur Zukunft     395

der Welt, für Deutschland ist es ein Prozent der Menschen mit etwa 2 % des Ausstosses in 2019. Es geht nicht um das totale Vermeiden von CO2 in der Schweiz oder in Deutschland (das ist nicht möglich und nicht verhältnismässig), sondern weltweit geht es um die grossen Massnahmen. Es ist deprimierend, wenn man in den klimabewussten Ländern viel Geld ausgibt, ohne einen merklichen Endeffekt zu haben, sondern bestenfalls nichts verschlimmert. Hierunter fiele die teure Abschaffung der Kernenergie in Deutschland. Trotz viel Sonnen- und Windenergie steht der deutsche Bürger an Position 6 oder 7 der CO2-Emittenten der Welt. Die Abschaffung der Kernenergie, vor allem das Stilllegen laufender und funktionsfähiger Anlagen, verletzt aus Klimasicht den Punkt 1 der Massnahmen-Regeln. Kernenergie ist ein gewichtiger Brocken von vermiedenem CO2. Die Feststellung der Effizienz einer Massnahme ist oft nicht trivial. Der gefühlsmässig entscheidende Umweltschützer wählt leicht falsch, man muss professionell differenzieren: • Nicht jede grosse Waldpflanzung ist wirtschaftlich oder eindeutig globalklimatisch günstig, aber vielleicht aus lokalen Gründen sinnvoll. • Nicht überall ist der Übergang von Autos mit Verbrennungsmotor zu Elektro- und Batterieautos klimatisch und aus Umweltsicht heute zu empfehlen. Im sonnigen Kalifornien schlägt wohl nur die Produktion der Batterie negativ in die Umweltbilanz, aber in Staaten mit fossiler Stromerzeugung wird ein Umstieg in grossem Stil fraglich. (Wir haben ja schon gesagt, dass die Elektromobilität in der Akzeptanz ein Selbstläufer ist, aber die Aufgabe einer sinnvollen Steuerung fällt der Politik zu). • Nicht jedes Produkt ist so klimaneutral, wie es erscheint. Holzverbrennung ist nach unserer Definition nicht klimaneutral, weil der Baum-Nachwuchs unsicher ist und zu lange dauert. Es ist auch zweifelhaft, wenn ein physikalischer CO2-Ausstoss jetzt durch einen fraglichen Bewaldungs-Gutschein mit Effekt in Jahrzehnten ersetzt wird. • Nicht jede Anwendung, die CO2 erzeugt, ist gleich bedeutend oder gleich sinnvoll. Kohlendioxid entsteht bei der Produktion von Luxusgütern, aber auch beim Atmen. Es gibt 1,4 Mrd. Autos auf der Welt. Es ist für das Klima und für den Umweltschutz der Welt wichtig, dass der Umstieg nicht zu schnell erfolgt und wenn, dann mit möglichst optimaler Technologie. Schon 10 % der Anzahl der Autos durch Batterieautos zu ersetzen, wäre ein gigantischer Aufwand mit zusätzlich emittiertem CO2, mit viel verbrauchtem Lithium,

396     W. Hehl

Kobalt und Nickel und natürlich auch Kupfer, Aluminium und Stahl. Der Übergang zu Wasserstoff als Energieträger für die Mobilität ohne Batterie und nur mit Tank wäre viel einfacher und „grüner“. Vielleicht wird dies ja auch in einer zweiten Welle geschehen, aber dann mit einer zweiten, neuen Infrastruktur. Der Aufbau der neuen Infrastruktur der Welt braucht viel Energie. Dies ist ungünstig gerade in diesen kritischen Jahrzehnten am Ende der fossilen Ära, und die Energie sollte möglichst nicht fossil sein. Die neuen Systemkomponenten sollten möglichst nachhaltig sein und lange im Betrieb bleiben können. Der Umbau eilt, aber er muss optimiert und mit Bedacht durchgeführt werden.

Die neuen Technologien haben auch bereits ein hässliches Gesicht. Es bauen sich grosse Mengen an Abfall auf. Bei Windturbinen sind es die Flügel aus Verbundstoffen, bis zu 85 m lang und bis zu 25 t, die sich noch nicht befriedigend recyceln lassen; schliesslich sind sie ja gebaut um sehr beständig zu sein. Die Rechnung kommt an ihrem Lebensende, nach 20–25 Jahren. In Deutschland standen Ende 2020 30 000 Windenergieanlagen. Optimal sind Anlagen mit 3 Blättern. In USA gibt es schon grössere Mülldeponien für Turbinenflügel. Photovoltaik: PV-Panels haben ebenfalls eine Lebensdauer von 20–25 Jahren. Sie enthalten ins Glas eingebettet giftige Metalle, vor allem Cadmium, Tellur, Selen und Antimon. Bis 2030 könnten 2 bis 8 Mio. Tonnen dieses Materials anfallen, bis zum Jahr 2050 bis zu 80 Mio. Tonnen giftiger Abfall. Lithiumbatterien: Diese Batterien enthalten neben Eisen natürlich Lithium und auch Kobalt und Aluminium. Bis 2025 erwartet man etwa 700 000 t Batterien am Ende ihres Lebens, bis 2040 sogar 9 Mio. t. In all diesen Fällen wird sich noch eine Recycling-Industrie entwickeln müssen, damit diese Technologien wahrhaft nachhaltig werden. Askese als passive Tugend kann nur wenig helfen. Sie von armen Völkern zu erwarten, die zum Klimawandel nur wenig beigetragen haben, ist sogar unethisch. Sie ist kein Mittel die Menschheit zu retten, ja führt in ihrer extremen Form in ein Paradox. Für eine bessere Welt keine Kinder mehr zu haben, damit die nicht mehr vorhandenen Menschen nicht in einer dystopischen Welt leben müssen. Die Bewegung der Birth Strikers (wörtlich die Gebärstreikenden) nimmt die Dystopie schon voraus. Eine Schlagzeile im TheGuardian vom März 2019, kurz nach der Gründung der Bewegung,

4  Menschliches und Spekulatives zur Zukunft     397

beschrieb sie als die Frauen, die erst Kinder haben wollen, wenn der Klimawandel zu Ende ist. Das konnte nicht funktionieren. Und es funktionierte recht schnell nicht. Am 1. September 2020 löste sich die Vereinigung selbst auf. Der Verein war zum Symbol der Überbevölkerung und implizit von Rassismus geworden und sogar in die Nähe des Ökofaschismus gerückt worden. Der deutsche Philosoph Friedrich Nietzsche hatte schon 1887 in der Genealogie der Moral zu den asketischen Idealen geschrieben: Er [der menschliche Wille] braucht ein Ziel, und eher will er noch das Nichts wollen, als nicht wollen.

Die bisherige Entwicklung der Menschheit vom Feuer und Ackerbau bis zur Kernenergie und zur Photovoltaik sieht sehr gesetzmässig aus; es musste so kommen. In diesem Sinn war der Klimawandel auch kein Schwarzer Schwan des pragmatischen Philosophen Nassim Taleb. Seit 1896 hatte sich der Gedanke ja auch schon als Idee im kollektiven Wissen festgesetzt. Der Gedanke, dass die Industrialisierung auf der Grundlage der Verbrennung von Kohlenstoff und Kohlenstoffverbindungen erfolgen musste, hat auch eine ethische Bedeutung. Sie entlastet unsere Vorfahren von der technischen Grundschuld an der globalen Erwärmung. Es bleiben aber die Hässlichkeiten des unbedarften Raubbaus an der Natur im Sinne der Aufforderung Dominium terrae oder Macht Euch die Erde untertan: Als Gott den Menschen schuf, gleichsam als Abbild Gottes und Krone des göttlichen Schöpfungswerkes, da hauchte er ihm allein die Weisheit ein, damit er alles seiner Herrschaft und Botmäßigkeit unterwerfe (ut omnia imperio ac ditioni suae subiugaret) und alle Annehmlichkeiten der Welt genieße. De ira die 13, Lucius Lactantius, 250–320, Kirchenvater, übersetzt von A. Hartl.

In dieser Aufforderung ist nichts von der Gaia, der Mutter Erde, zu spüren. Es wurde schlicht die Berechtigung abgleitet, alle Lebewesen und die Erde selbst zu instrumentalisieren. Zu den Werkzeugen gehörten in der Form von Sklaverei sogar andere Menschen. Es ist eine bittere Einsicht, dass die Entwicklung der Technik beinahe nur positive Feedbacks ausgelöst hat, also selbstverstärkende Effekte der globalen Erwärmung. Die wichtigsten im Buch erläuterten Rückkopplungen, also Prozesse mit selbstverstärkendem Charakter, sind in der Tab. 4.2 gelistet.

398     W. Hehl Tab. 4.2  Kurze Liste von zwangsläufigen Feedback-Effekten bei globaler Erwärmung Positiv bedeutet weitere Verstärkung der Erwärmung, negativ deren Abschwächung. Der teilweise bessere Wirkungsgrad der Pflanzen ist der einzige grössere bremsend selbstverstärkende Effekt.

Effekt

Kurzerläuterung

 +   + 

Eis-Albedo-Rückkopplung Eis-Tröpfchen-Wolkenrückkopplung

 +   +   +   +   + 

Wasserdampf-Rückkopplung Verringerte Löslichkeit von Gasen Mehr natürliches Methan Mehr natürliche Stickstoffoxide Desertifikation

 + 

Mehr Klimaanlagen



Dünge-Effekt von CO2

Eis reflektiert 90 %, Erde 20 % Weisse Eiswolken vs. graue Wasserwolken Mehr Wasserdampf als Treibhausgas Verminderte CO2-Aufnahme im Ozean z. B. Auftauen des Permafrost Mehr Blitze Ausbreitung arider und semiarider Gebiete Durch höhere Temperatur und mehr Wohlstand Bessere Photosynthese (z. T., nur beschränkt)

Es sieht so aus, als gehörten die Entwicklung von neuen, alternativen Technologien, der begonnene Klimawandel und die zukünftige Anpassung daran ebenfalls zur gleichen, vorgegebenen Gesetzmässigkeit und sind Fortsetzung der unumgänglichen Dynamik der grossen Evolution. Der Klimawandel und die zugehörigen Veränderungen der Erde sind ein fester Bestandteil des Anthropozäns. Aber dies bedeutet natürlich nicht auch die Sicherheit, dass das Zeitalter des Anthropozäns ein gutes Ende nimmt. Eine natürliche Hilfe wäre eine Serie verheerender Vulkanausbrüche mit ihren kühlenden Staubwolken und Schwefelsäuretröpfchen. Aber trotz der kühlenden Wirkung könnte man solche Ereignisse wohl nicht als Glück bezeichnen! Es gibt eine gute Chance, dass die klimatische Zukunft zwar anders sein wird und der Wandel schwierig, aber nach der obigen Definition keine Katastrophe ist, wenn gilt: Wir werden mit eigenen Kräften und Mitteln den Klimawandel angemessen bewältigen.

4  Menschliches und Spekulatives zur Zukunft     399

Die grosse Gefahr ist, dass unsere natürliche Maschinerie, die das CO2 aus der Luft nimmt, nämlich die terrestrische und die maritime Pflanzenwelt, durch die globale Erwärmung zu schnell Schaden nimmt, um den Weltschaden durch die Effekte der Tab. 4.2 auffangen zu können. Deshalb sind proaktive technische Hilfen wie Sequestrierung und Entnahme von Kohlenstoff aus der Luft so wichtig. Es sind noch nicht alle benötigten Technologien da, und guter Wille genügt nicht. Wir können auch nicht warten und zusehen. Es reichen nicht 10 oder 20 Jahre, und dann würde wieder alles gut sein. Selbst nach dem Einstellen der grossen CO2-Emissionen wird die Erwärmung ohne aktives Gegensteuern (d. h. ohne Geoengineering) noch Jahrhunderte, ja Jahrtausende weitergehen. Der Klimatologe Michael Mann verwendete in einem Interview kürzlich das Bild der Autobahn: Die Diskussion um das Gradziel [1,5°Erwärmung] finde ich wenig hilfreich. Wenn ich auf einer Autobahn die Ausfahrt 1,5 verpasse, dann versuche ich, die nächste Ausfahrt 1,6 zu kriegen, oder die übernächste 1,7. Je schneller wir von der Autobahn herunterkommen, umso mehr Gefahren können wir abwenden. Interview mit der Sonntagszeitung, 25. April 2021.

Das ist korrekt, allerdings ganz herunter kommen wir von der Autobahn nicht mehr ohne nachzuhelfen – nicht mehr in tausend Jahren. Hier passt das Bild nicht mehr. Und am Horizont steht doch schon die Gefahr, dass die Autobahn für uns Menschen ins Nichts führt. Das Hauptthema der letzten zwanzig Jahre war, die Leugner von der Erwärmung zu überzeugen. Es könnte sein, dass die nächsten zwei Jahrzehnte der Versuch sein werden, die Reduktionisten und Naturalisten, die nur Emissionen reduzieren wollen und erwarten, dass es die Natur schon richten wird, von der Notwendigkeit zu überzeugen, Holz zu vergraben und zur aktiven Entfernung von Kohlendioxid aus der Atmosphäre eine ganze Industrie zu gründen. Als Schlussbild des Buchs wäre ein sehnsuchtsvolles paradiesisches Bild geeignet, etwa ein polynesischer Strand, oder ein beängstigendes dystopisches Bild, z.B. eine Szene auf der Venusoberfläche. Mein letztes Bild ist

400     W. Hehl

Abb. 4.14  Eine Kunstinstallation mit schmelzenden Eismenschen (Ausschnitt) Die brasilianische Künstlerin Néle Azevedo schafft Installationen mit Tausenden von Menschlein aus Eis. Ihr Schmelzen symbolisiert einerseits den Krieg, andrerseits die globale Erwärmung. Bild: Minimum Moment art installation by Néle Azevedo in Chamberlain Square, Birmingham UK, Wikimedia Commons, Xtinac75. Mit freundlicher Genehmigung der Künstlerin

eher zum Nachdenken (Abb. 4.14). Es sind die schmelzenden Eismenschen der brasilianischen Künstlerin Néle Azevedo (geb. 1950). Sie setzte in dieser Installation dabei etwa 5 000 kleine Eismenschen der Wärme der Sonne aus. Es ist eine sanfte, aber sehr treffende Metapher zum Klimawandel.

Liste besonderer Wikipedia-Artikel

Wikipedia-Artikel sind lebendig: Sie können von jedermann geändert werden, wenn auch unter der Aufsicht von Monitoren. Dadurch ändern sich Inhalte, aber sie werden ggfls. auch aktualisiert. Neben offensichtlich vorhandenen Wikipedia-Artikeln gibt es eine Anzahl von Artikeln mit nicht-trivialen, aber interessanten Gegenständen für unser Thema. Daher diese Liste. English Wikipedia. All models are wrong, gezogen November 2029. English Wikipedia. Apocalyptic and post-apocalyptic fiction, gezogen November 2029. English Wikipedia. Arctic Methane Emission, gezogen Dezember 2020. English Wikipedia. Artificial Photosynthesis, gezogen Dezember 2020. English Wikipedia. Atmospheric Methane, gezogen Dezember 2020. English Wikipedia. Attribution of recent climate change, gezogen Januar 2021. English Wikipedia. Bitcoin scalability problem, gezogen März 2021. English Wikipedia. Carbon cycle, gezogen Oktober 2020. English Wikipedia. Carbon dioxide in Earth's atmosphere, gezogen November 2020. English Wikipedia. Earth’s internal heat budget, gezogen Oktober 2020. English Wikipedia. Environmental aspects of the electric car, gezogen März 2021. Deutsche Wikipedia. Folgen der globalen Erwärmung, gezogen November 2020.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 W. Hehl, Klimawandel – Grundlagen und Spekulation, https://doi.org/10.1007/978-3-658-35541-8

401

402     Liste besonderer Wikipedia-Artikel

Deutsche Wikipedia. Gletscherschwund seit 1850, gezogen November 2020. English Wikipedia. Google data centers, gezogen März 2021. Deutsche Wikipedia. Hackerzwischenfall am Klimaforschungszentrum der University of East Anglia, gezogen April 2021. English Wikipedia. History of Climate Change Science, gezogen November 2020. Deutsche Wikipedia. Leugung der menschengemachten globalen Erwärmung, gezogen November 2020. English Wikipedia. List of the Volcanic Eruptions in the 20st century, gezogen November 2020. English Wikipedia. List of the Volcanic Eruptions in the 21st century, gezogen November 2020. Deutsche Wikipedia. Messstation Mauna Loa, gezogen November 2020. English Wikipedia. Newton Scale, gezogen Oktober 2020. English Wikipedia. Pale Blue Dot, gezogen November 2010. English Wikipedia. Planck’s Principle, gezogen November 2020. Deutsche Wikipedia. Photosynthese, gezogen November 2020. English Wikipedia. Predictions made by Kurzweil, gezogen Februar 2021. Deutsche Wikipedia. Seegfröni des Bodensees, gezogen November 2020. English Wikipedia. Solubility Pump, gezogen Februar 2021. English Wikipedia. World Energy Consumption. Gezogen Februar 2021.

Zahlen

Dies ist eine ungeordnete Sammlung von Zahlen, die für das Thema wichtig erscheinen. Zahlen suggerieren Sicherheit, die gerade im Bereich der Mengenangaben auf Systemebene nicht immer vorhanden ist. Auch etwas ungenaue Zahlen geben eine Grundlage für die Diskussion; sie sind nicht für die wissenschaftliche Arbeit gedacht. Der Text des Buches ist hoffentlich hilfreich, den Grad des Vertrauens einzuschätzen. 1 391 W/m2

ist die Solarkonstante

348 W/m2 1 Jahr

ein Viertel ist die mittlere empfangene Leistung hat 365,22 Tage oder 8765 h oder 31,55 Mio. Sekunden (oder etwa π × 107 s) Gesamte von der Sonne empfangene mittlere Energie (Leistung) Von der Erde absorbierte Energie (Leistung) Gesamtfluss der Wärme aus dem Innern an die Erdoberfläche (Leistung) Mittl. Fluss der Wärme aus dem Erdinnern pro m2 Erdoberfläche Mittel über den Kontinenten Mittel unter den Ozeanen Wärme durch Radioaktivität Restwärme von der Entstehung der Erde Oberfläche der Erde davon Land davon Wasser Wasser fällt aus der Atmosphäre jedes Jahr als Niederschlag, davon auf die feste Erde Niederschlag überall

173 PetaWatt 122 Petawatt 47 TeraWatt entsprechend 92 mWatt/m2, 71 mWatt/m2 105 mWatt/m2 15–41 TeraWatt 12–30 TeraWatt 510 100 000 km2 148 900 000 km2 361 200 000 km2 550 000 km3 107 000 km3 990 mm

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 W. Hehl, Klimawandel – Grundlagen und Spekulation, https://doi.org/10.1007/978-3-658-35541-8

403

404     Zahlen 500 nm

555 nm 507 nm 1 Tg (Tera Gramm) 1 Tg a−1 1 Pg (Peta Gramm) 1 Pg a−1 1 GWp installierte Photovoltaik 1 kWh 1 W, ein Jahr lang 1 kg Kohle 1 t Kohle

1 ppb Methan in der Atmosphäre 1875 ppb Methan 1 t Methan 1 g (2 g), 12 g, 16 g 16 g (32 g, 48 g), 18 g, 44 g, 14 g (28 g), 17 g 19 g (38 g), 28,949 g 8–10 Mrd. t 29–37 Mrd. t ca. 0.1–1 Mrd. t 440 Mrd. t 1 600 Mrd. t 220 Mrd. t 2,5 ppm/Jahr 3 210 Mrd. t 875 Mrd. t 1 069 Mrd. t ca. 240 Mrd. t ca. 220 Mrd. t 450 Mrd. t 1 650 Mrd. t 1 500 Mrd. t 5 500 Mrd. t

Wellenlänge des maximalen Energieoutputs von der Sonne, abhängig von der Sonnentemperatur zwischen 483 und 520 nm Wellenlänge der maximalen Empfindlichkeit des Auges (Tag), (Nacht) bedeutet 1 Million t (Tonnen), 1 Million t (Tonnen) pro Jahr bedeutet 1 Mrd. t (Tonnen) 1 Mrd. t (Tonnen) pro Jahr ergibt 1 TWh in gemässigten Breiten, 2 TWh in Äquatornähe ist 3,60 MJoule oder 1 MJ = 0,278 kWh ergibt 8,7 kWh entspricht 7 Megacal oder 29 MJ oder 8 kWh entspricht 3,667 t CO2 Das Verhältnis Kohlenstoff zu CO2 ist das ­Verhältnis der Atom- bzw. Molgewichte, ­nämlich 12 g : 44 g entspricht 2,78 Mio. t CH4 entsprechend 5,23 Mrd. Tonnen CH4 entspricht 0,75 t Kohlenstoff C Molekulargewichte von H (H2), C, CH4, O(O2,O3), H2O, CO2, N(N2), NH3 F(F2) von Luft Kohlenstoff werden pro Jahr (2020) freigesetzt (Verbrennung, Zementherstellung) entsprechend CO2 pro Jahr CO2 –Ausstoss pro Jahr der Vulkane Kohlenstoff von 1751–2018 Entsprechend Kohlendioxid Kohlenstoff davon noch in der Atmosphäre Jährliche CO2-Zunahme in der Atmosphäre Kohlendioxid insgesamt in der Atmosphäre (2018), entsprechend Kohlenstoff Kohlereserven1  auf der Erde, bestätigt Erdgasreserven Erdölreserven Kohlenstoff sind in der Vegetation der Erde gebunden, entsprechend CO2 Kohlenstoff im Boden, entsprechend CO2

1Der Begriff Reserve enthält eine doppelte Ungenauigkeit: erstens das Vorkommen und zweitens der förderungswürdige Anteil. Dieser ist ausserdem zeitabhängig.

Zahlen    405 38 000 Mrd. t 60 000 000 Mrd. t 440 Mrd. t 120 Mrd. t 220 Mrd. t 60 Mrd. t

ca. 1 kg 3 Mrd. t CO2 9,5 g 1 ppb CH4 in der Atmosphäre 1 900 ppb CH4 (2020)

Kohlenstoff sind als physikalisch gelöstes CO2 oder Hydrokarbonat im Meer Kohlenstoff sind im Karbonatgestein der Erde CO2 werden pro Jahr von den Pflanzen gebunden, entsprechend Kohlenstoff CO2 pro Jahr wird von Pflanzen wieder ausgeatmet entsprechend Kohlenstoff CO2-Ausstoss eines Menschen pro Tag Atem der ganzen Menschheit pro Jahr CO2 sind in einer Flasche Champagner enthalten entspricht 2,78 Mio. t CH4 entsprechen etwa 4,5 Mrd. t CH4

Glossar

Schlechte Terminologie ist der Feind von gutem Denken, gute Terminologie ist der Freund. ergänzt nach Warren Buffet, amerikanischer Unternehmer, geb. 1930Aerosol   die Dispersion von feinen Teilchen oder Tröpfchen in einem Gas. Albedo   das Rückstrahlvermögen einer diffus reflektierenden Oberfläche. Von lat. die Weisse. anthropisches Prinzip   die nahezu triviale Tatsache, dass alle Bedingungen zur Existenz des Beobachters vorhanden sein müssen. Anthropogen   von Menschen erzeugt. Vom altgriech. anthrōpos Mensch und- genēs verursacht. Anthropozän   Epoche der Erdgeschichte, in der der Mensch die Erde bestimmt. Apsidenlinie    die Linie einer Planetenbahn, die den sonnenfernsten und den sonnennächsten Punkt verbindet. Aphel   der sonnenfernste Punkt der Erdbahn oder Planetenbahn. Blue Marble   die Erde als Ganzes. Nach dem ersten Bild nach Carl Sagan. Canopy   die Baumkronen des Waldes. Nach der griech. Couch mit Moskitonetz. Carbon Capture   Technologien, die grosstechnisch CO2 aus der Atmosphäre entnehmen als chemische Substanz zur Weiterverarbeitung oder zur Speicherung. CLAW   eine hypothetische negative (d. h. freundliche) Rückkopplung der Klimaerwärmung im Meer. Dystopie   eine nicht wünschenswerte Aussicht. EROI   Erntefaktor, Energy Return on (Energy) Investment. EPBT   Energierücklaufzeit, Energy PayBack Time. faustischer Handel  Genuss eines Vorteils zulasten von einem grösserem Nachteil später. Geoengineering   Massnahmen, um das Klima der Erde als Ganzes zu beeinflussen, insbesondere aktive Eingriffe.

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 W. Hehl, Klimawandel – Grundlagen und Spekulation, https://doi.org/10.1007/978-3-658-35541-8

407

408     Glossar Haitzs Gesetz   Historische

Beobachtung beim Preiszerfall (Kosten pro Lumen) für LEDs, ein Faktor 10:1 pro Jahrzehnt. Nach dem deutsch-amerikanischen Physiker Roland Haitz. Halogene    die Salzbildner, vom altgriech. háls Salz und gennãn erzeugen. Die Elemente der 7. Hauptgruppe des periodischen Systems der Elemente, vor allem Fluor (Gas), Chlor (Gas), Brom (Flüssigkeit) und Jod (fest). Hindcasts   Testläufe eines Modells in die Vergangenheit, vgl. Forecasts. Hockeystick-Kurve    typische Kurvenform von Faktoren, die von der Industrialisierung abhängen, als Funktion der Zeit. HVAC   engl. Sammelbezeichnung für Klimatechnik mit Heizung und Lüftung. ICT    engl. Sammelbezeichnung für Informations- und Kommunikationstechnologien. IPCC   Intergovernmental Panel on Climate Change, deutsch Zwischenstaatlicher Ausschuss für Klimaänderungen. Wissenschaftliche Institution der UN. Joule   die Grundeinheit für die Energie im SI-System. Nach dem britischen Bierbrauer und Physiker James Joule. Keeling-Kurve   die Kurve der Zunahme des CO2 in der Atmosphäre, nach dem amerikanischen Chemiker Charles Keeling. Koomeys Gesetz   die Energieeffizienz von Computern wird alle 1,5 Jahre verdoppelt. Nach dem Wissenschaftshistoriker Jonathan Koomey. Kryosphäre   die Gesamtheit des Eises und der Gebiete mit dauerhaftem Eis auf der Erde. Vom altgriechischen krýos für Eiseskälte. kWp   umgangssprachliche Bezeichnung für die Spitzenleistung in KiloWatt, p steht für peak (Spitze). Lagrange-Punkte   fünf ausgezeichnete Punkte im System für einen dritten Körper, z. B. ein Raumschiff im System von Sonne und Erde. Mooresches Gesetz   die Transistordichte von Computerchips verdoppelt(e) sich etwa alle 1,5 bis 2 Jahre. Nach dem Ingenieur Gordon Moore. Milankoviç-Zyklus    langperiodische Änderungen in der Sonnenstrahlung aus der Dynamik des Sonnensystems heraus. Nach dem serbischen Mathematiker Milan Milankoviç. Mitigation   die Milderung der globalen Erwärmung. Vom lat. Mitigatio. Negative Emissionen (von CO2)   die Entnahme von CO2 aus der Atmosphäre. Ozon   dreiatomiges Sauerstoffmolekül, Formel O3. Von altgriechisch ozein riechen. Pareto-Regel   praktische Erfahrung, dass eine Problemlösung zunächst leicht, dann schwerer vor sich geht. Nach dem italienischen Mathematiker Vilfredo Pareto. Perihel   der sonnennächste Punkt der Erdbahn oder Planetenbahn. Permafrost   dauernd durchgefrorener Boden. ppm, ppb, ppt   Masseinheiten für verdünnte Gase. Die Zahl von Fremdmolekülen pro eine Million, Milliarde, Billion Luftmoleküle. Proforestation   Pflegetechnik für den Wald zur maximalen Kohlenstoff- Speicherung. Proxy   engl. Stellvertreter. Die indirekte Messung einer physikalischen Grösse durch eine andere, etwa die mittl. Temperatur durch die Jahresringe der Bäume.

Glossar    409 Pseudowissenschaft   eine

Lehre mit dem Anspruch einer Wissenschaft, aber ohne wissenschaftliche Grundlage. Rebound-Effekt   Erhöhter Verbrauch einer Ressource nach Verringerung des Preises. Gründe sind gerade der niedrigere Preis, aber auch neue Anwendungen. Rückkopplung   Feedback einer Grösse zum Eingang des Prozesses. Rückkopplung, positive   beim Klimawandel eine Rückkopplung, die die Erwärmung verstärkt. Runaway Klimawandel   eine globale Erwärmumg, die sich bis zur Katastrophe verstärkt. Russ   ein Pulver aus verunreinigtem Kohlenstoff. Sättigung   hier: eine bestimmte Frequenz der Strahlung ist voll absorbiert. Noch mehr absorbierender Stoff nützt nichts, es sei denn es wirkt ein anderer Effekt. Schwarzer Schwan   eine unerwartet auftretende Systemkomponente, die den erwarteten Systemlauf stark verändern kann. Sequestrierung   die Lagerung einer Ressource zur Nichtverwendung. Serendipity   ein unerwarteter glücklicher Fund. Das englische Wort ist auch im Deutschen üblich. Stochastisch   ist ein Ereignis mit Zufallskomponente. Strahlungsantrieb    die Änderung der Strahlungsbilanz der Erde durch einen bestimmten Stoff in seiner Konzentration, gemessen in Watt/m2. Swanson-Gesetz   der Preisverfall von Photovoltaik-Modulen mit dem Wachsen der Stückzahlen. Tephra   Fachausdruck für Flugasche, altgriech. τέϕρα tephra bedeutet Asche. Treibhauseffekt    Temperaturerhöhung durch eine Isolation. Beim Glashaus eine besondere Wand, in der Atmosphäre selbst kontinuierlich. Venusianisierung   Endstadium eines Klimawandels wie auf der Venus.

Literatur

Agassiz, Louis. 1866. Geological Sketches. Osgood, Boston, 1875, S. 208. Google Books. Andrae, Anders. 2020. New perspectives on Internet electricity use in 2030. Eng. and Appl. Science Letter 3: 19–21. https://doi.org/10.30538/psrp-easl2020.0038. Ansell, John. 2011. Out of the frying pan into the fridge: the hysterical record of climate change. johnansell.wordpress.com/2011/08/13. Archer, David. et al., 2008. Atmospheric lifetime of fossil fuel carbon dioxide. Ann Rev. Earth and Planetary Sciences. May 2009. https://doi.org/10.1146/annurev. earth.031208.100206 Armand, Michel, und Jean-Marie Tarascon. 2008. Building better batteries, Nature Vol. 451, 2008. https://zzz.physics.umn.edu/_media/classes/4960h/ buildingbetterbatteries.pdf Arora, Vijeta. 2019. Separation and sequestration of CO2 in geological formations. Materials Science for Energy Techn., Vol. 2. Dec. 2019. https://www. sciencedirect.com/science/article/pii/S2589299119301004 Arrhenius, Svante. 1896. On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground. Phil. Mag. and Journal of Science, Vol. 41, S. 237– 276. z. B. https://www.rsc.org/images/Arrhenius1896_tcm18-173546.pdf Durchsuchbare Kurzfassung: https://iopscience.iop.org/article/10.1086/121158/pdf. Arrhenius, Svante. 1907. Das Werden der Welten. Akademische Verlagsgesellschaft, Leipzig. z. B. https://archive.org/details/daswerdenderwelt00arrhuoft/page/n5/ mode/2up bdew. 2020. Entwicklung des Wärmebedarfs in Deutschland, Mai 2020. https:// www.bdew.de/media/documents/20200525_WaermeverbrauchsanalyseFoliens atz_2020_daQSUCb.pdf

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 W. Hehl, Klimawandel – Grundlagen und Spekulation, https://doi.org/10.1007/978-3-658-35541-8

411

412     Literatur

Berwyn, Bob. 2020. Seeing clouds clearly: Are they cooling us down or heating us up? https://insideclimatenews.org/news/10112020/clouds-cooling-climate-effects/ Bindoff, Nathaniel et al. 2013. Detection and Attribution of Climate Change, Report of the IPCC, https://www.ipcc.ch/site/assets/uploads/2018/02/WG1AR5_ Chapter10_FINAL.pdf Blankenship, et al. 2011. Comparing Photosynthetic and Photovoltaic Efficiencies and recognizing the Potential for Improvement. Science 322: 805–809. Bowles, Justin. 2013. One Reason We Struggle to Grow: Energy Return on Investment (EROI), Risk and Well Being, gezogen 2/2021. https://riskandwellbeing. com/2013/04/07/one-reason-we-struggle-to-grow-energy-returnon-investmenteroi/ Brack, Duncan. 2019. Forests and Climate Change. UN Forum on Forests. https:// www.un.org/esa/forests/wp-content/uploads/2019/03/UNFF14-BkgdStudySDG13--March2019.pdf Breyer, Melissa. 2019. How many trees are there in the world? https://www. treehugger.com/how-many-trees-are-there-world-4857515 Britannica. 2021. Land-use change. https://www.britannica.com/science/globalwarming/Land-use-change Brunetti, Michele, und Franco Prodi. 2015. The Climate System. https://www. researchgate.net/publication/282393775_The_climate_system Butler, James et al. 2020. The NOAA Annual Greenhouse Gas Index. https://www. esrl.noaa.gov/gmd/aggi/aggi.html Ceppi, Paulo, und Ric Williams. 2020. Why clouds are the missing in the climate change puzzle. TheConversation.com. https://theconversation.com/why-cloudsare-the-missing-piece-in-the-climate-change-puzzle-140812 Chandler, David. 2007. Climate Myths: Carbon Dioxide isn’t the most important. New Scientist, Mai 2007. https://www.newscientist.com/article/dn11652climate-myths-carbon-dioxide-isnt-the-most-important-greenhouse-gas/ Charlson, Robert, James Lovelock, Meinrat Andreae, und Stephen Warren. (1987). Oceanic phytoplankton, atmospheric sulphur, cloud albedo and climate. Nature Vol. 326, z. B. auf https://climate-dynamics.org/wp-content/uploads/2016/06/ charlson87a.pdf Charnay, Benjamin et al. 2020. Is the faint young sun problem for earth solved? Space Science Reviews, preprint https://arxiv.org/abs/2006.06265 Ciamician, Giacomo. 1912. The Photochemistry of the Future, Science Vol. 36, S. 385–395. z. B. https://www.gses.it/pionieri/ciamician-photochemistry.pdf CO2Meter. 2021. Could Global CO2 Levels be reduced by Planting Trees? https:// www.co2meter.com/blogs/news/could-global-co2-levels-be-reduced-by-plantingtrees Cooper, Keith. 2015. Earth’s moon may not be critical for life. Phys.org News, January 2015. https://phys.org/news/2015-01-earth-moon-critical-life.html Corley, Anne-Marie. 2011. The Future of Hydropower, IEEE Spectrum, https:// spectrum.ieee.org/energy/renewables/future-of-hydropower

Literatur    413

Emilsson, Erik, und Lisbeth Dahllöf. 2019. Lithium-Ion Vehicle Battery Production. IVL No C444. https://www.ivl.se/download/18.14d7b12e16e3c5c36271070/ 1574923989017/C444.pdf Erren, Hans. 2006. Arrhenius‘ greenhouse effect with a prism of salt – a historical review. http://www.kolumbus.fi/boris.winterhalter/KTH/HanErr.pdf EU Report. 2020. Updated analysis of the non-CO2 climate impacts of aviation. https://www.easa.europa.eu/sites/default/files/dfu/201119 ... Evans, Edward Payson. 1887. The Authorship of the Glacial Theory. North American review, Vol. 145, Juli 1887, z. B. https://archive.org/details/jstor-25101263/ page/n3/mode/2up Flato, Gregory et al. 2013. Evaluation of Climate Models. Report of the IPCC, Chapter 9. https://www.ipcc.ch/site/assets/uploads/2018/02/WG1AR5_ Chapter09_FINAL.pdf Foote, Eunice. 1856. Circumstances affecting the Heat of the Sun’s Rays. Am. Journal of Science and Arts, Vol. 22, S. 382–383. z. B. https://archive.org/stream/ mobot31753002152491#page/n1/mode/2up Fourier, Jean-Baptiste Joseph. 1824/1827. Mémoire sur les températures du globe terrestre et des espaces planétaires. z. B. http://www.wmconnolley.org.uk/sci/ fourier_1827/fourier_1827.html Fox-Kemper, Baylor et al. 2019. Challenges and Prospects in Ocean Circulation Models. https://www.frontiersin.org/articles/10.3389/fmars.2019.00065/full Frank, Adam. 2017. Climate change for aliens. University of Rochester, NY. https:// www.rochester.edu/newscenter/climate-change-aliens-261972/ Franke, Klaus. 1990. Zurück ins Paradies. Spiegel.de, 1.1.1990 Franzen, Jonathan. 2020. Wann hören wir auf, uns etwas vorzumachen? Rororo, Hamburg Freistetter, Florian. 2018. Sternengeschichten 291: Das Ozonloch. https://scienceblogs.de/astrodicticum-simplex/2018/06/22/sternengeschichten-folge-291-dasozonloch/ Freude, Dieter. 2020. Potenzial fossiler und atomarer Brennstoffe. Universität Leipzig. https://home.uni-leipzig.de/energy/energie-grundlagen/19.html Friedlingstein, Pierre et al. 2019. Global Carbon Budget 2019. Earth System Science Vol. 11, 4, S. 1783–1838. https://doi.org/10.18160/gcp-2019 Gedalof, Ze’ev, und Aaron Berg. 2010. Tree ring evidence for limited direct CO2 fertilization of forests over the 20th century. https://www.researchgate.net/ publication/251434687 Gilbert, Daniel. 2006. If only gay sex caused global warming. Los Angeles Times, 2.7.2006. https://www.latimes.com/archives/la-xpm-2006-jul-02-op-gilbert2story.html Global Carbon Project. 2017. Global Methane Budget Presentation, https://www. globalcarbonproject.org/methanebudget/20/presentation.htm Gramelsberger, Gabriele. 2019. Philososphical perspectives on Earth system modeling. JAMES 12: 1. https://doi.org/10.1029/2019MS001720

414     Literatur

Gribble, Gordon. 2005. Umweltgifte vom Gabentisch der Natur. Spektr. Wissenschaft, Juni 2005. https://www.spektrum.de/magazin/umweltgifte-vom-gabentisch-der-natur/837683 Hadwyn, Meaghan. 2018. 5 reasons you should tell children the truth even when it hurts, https://otherlifelessons.com/blogs/news/5-reasons-you-should-tellchildren-the-truth-even-when-it-hurts Hanley, Bill. 1974. Reid Bryson: University of Wisconsin Climatologist and Geologist. https://www.motherearthnews.com/nature-and-environment/reid-brysonzmaz76mazraw Hansen, Kathryn. 2008. Water Vapor Confirmed as Major Player in Climate Change. https://www.nasa.gov/topics/earth/features/vapor_warming Hashimoto, Koji. 2019. The future of energy consumption. Springer, Singapore. https://doi.org/10.1007/978-981-13-8584-1_6 Hausfather, Zeke. 2018. Explainer: What carbon models tell us about future rainfall. https://www.carbonbrief.org/explainer-what-climate-models-tell-us-aboutfuture-rainfall Hausfather, Zeke. 2021. Will global warming ‘stop’ as soon as net-zero is reached? Weforum.com. https://www.weforum.org/agenda/2021/05/explainer-will-globalwarming-stop-as-soon-as-net-zero-emissions-are-reached Hecking, Claus. 2015. Was wurde eigentlich aus dem Waldsterben? VdF-ETHZ, Zürich. Spiegel.de https://www.spiegel.de/wissenschaft/natur/umweltschutz-waswurde-aus-dem-waldsterben-a-1009580 Hehl, Walter. 2012. Die unheimliche Beschleunigung des Wissens.VdF-ETHZ, Zürich Hehl, Walter. 2016. Wechselwirkung. Wie Prinzipien der Software die Philosophie verändern. Springer, Heidelberg Hehl, Walter. 2021. Der Zufall in Physik, Informatik und Philosophie. Springer, Heidelberg Herschel, Friedrich Wilhelm. 1800. Experiments on the solar, and on the terrestrial Rays that occasion heat. Phil. Trans. Royal Soc. London, Vol. 90. S. 437–538. https://archive.org/details/philtrans08335277/page/n7/mode/2up Holland, Joshua. 2014. Eight pseudoscientific climate claims debunked by real scientists. https://billmoyers.com/2014/05/16/eight-pseudo-scientific-climate-claimsdebunked-by-real-scientists/ Yi, Huang, et al. 2014. Why logarithmic? Adv. Earth and Space Science, Nov. 2014. https://doi.org/10.1002/2014JD022466 Hugelius, Gustaf et al. 2014. Estimated stocks of circumpolar permafrost carbonBiogeosciences. Vol. 11, Issue 23. https://www.osti.gov/biblio/1392613 IPCC. 2007. Climate Change 2007: Working Group I. The Physical Science Basis. https://archive.ipcc.ch/publications_and_data/ar4/wg1/en/ch1s1-4.html IPCC. 2018. TAR Climate Change 2001, Chapter 6. Radiative Forcing. https://www. ipcc.ch/site/assets/uploads/2018/03/TAR-06.pdf IPCC, 2019. IPCC Sonderbericht über den Ozean und die Kryosphäre. https://www. de-ipcc.de/252.php

Literatur    415

IPCC/TEAP, 2005. Safeguarding the Ozone Layer and the Global Climate System. Cambridge University Press. https://www.ipcc.ch/report Jacobson, Mark. 2010. Short-term effects of controlling fossil‐fuel soot, biofuel soot and gases, and methane on climate, Arctic ice, and air pollution health. J. Geophys. Res. Vol. 115, https://doi.org/10.1029/2009JD013795 Johnson, Lyndon B. 1965. Restoring the quality of our environment. z. B. in https:// ozonedepletiontheory.info/Papers/Revelle1965AtmosphericCarbonDioxide.pdf Jones, Nicholas. 2018. Can Artificial Intelligence Help Build Better, Smarter Climate Models? e360.yale.edu Di., und Gerald Katzbeck. 2012. Sprich bei jeder Handlung, ich, wer bin ich? Dipl: Arbeit, Universität Wien Köhl, Michael et al. 2017. The impact of tree age on biomass growth and carbon accumulation capacity. journals.plos.org. https://doi.org/10.1371/journal. pone.0181187 Knutson et al. 2017. Detection and attribution of climate change. In: Climate Science Special Report: Fourth National Vlimate Assessment, Vol. I. US Global Change Research Program. https://doi.org/10.7930/J01834ND. https://science2017. globalchange.gov/downloads/CSSR_Ch3_Detection_and_Attribution.pdf Kovic, Marko. 2020. Der Aufstieg des Ökofaschismus. https://www.watson.ch/wissen/ gesellschaft%20&%20politik/488656839-der-aufstieg-des-oekofaschismus Krill, Allan. 2011. Fixists versus Mobilists in the Geology Contest of the century. http:// folk.ntnu.no/krill/fixists.pdf Lackner, Klaus et al. 1999. Carbon Dioxide Extraction From Air: Is it an option? Los Alamos UR 99–583, https://www.osti.gov/servlets/purl/770509 Lana, Arancha et al. 2011. An updated climatology of surface dimethylsulfide. https:// agupubs.onlinelibrary.wiley.com/doi/full/10.1029/2010GB003850 Lea, Robert. 2021. The missing link that triggered Earth’s ice ages. https://www. azocleantech.com/news.aspx?newsID=28645 Lemke, Peter. 2003. Einfache Energiebetrachtungen von realen und fiktiven Planeten. http://www.met.fu-berlin.de/~dmg/promet/30_12/Planetenenergie.pdf llnl. 2005. Models show growing more forests temperate regions could contribute to global warming. https://www.llnl.gov/news/models-show-growing-more-foreststemperate-regions-could-contribute-global-warming Lovelock, James. 2007. Gaias Rache, warum die Erde sich wehrt. Berlin: List-Ullstein Lunardini, Virgil. 1995. Permafrost formation time, CRREL report 95–8, https:// apps.dtic.mil/dtic/tr/fulltext/u2/a295515.pdf McSweeney, Robert und Zeke Hausfather. 2018. Q&A: How do climate models work? https://www.carbonbrief.org/qa-how-do-climate-models-work0 Matthews, Robin. 2013. Comparing historical and modern methods of sea surface temperature measurement. Ocean Sci. Vol. 9, S. 683–694. https://os.copernicus. org/articles Meadows, Donella et al. 1972. The Limits to Growth. Universe Books, New York. http://pinguet.free.fr/meadows72.pdf

416     Literatur

Molina, Christian. 2013. Uran: Erz ist nicht die einzige Quelle. https://www.ethlife. ethz.ch/archive_articles/130910_uranpeak_per/Uran-Erz_ist_nicht_die_einzige_ Uranquelle.html Montaigne, Fen. 2019. Why keeping mature forests intact is key to the climate fight. e360.yale.edu Myrhe, Gunnar et al. 1998. New estimates of radiative forcing due to well-mixed greenhouse gases, Geophys. Res. Letters, Vol. 25,. https://agupubs.onlinelibrary. wiley.com/doi/epdf/https://doi.org/10.1029/98GL01908 Myrhe, Gunnar et al. 2013. Anthropogenic and natural radiative forcing. IPCC, Climate Change, chapter 8, https://www.ipcc.ch/site/assets/uploads/2018/02/ WG1AR5_Chapter08_FINAL.pdf NASA. 2012. GMAO Ocean Biology and Biochemical Modeling, Description. https:// gmao.gsfc.nasa.gov/research/oceanbiology/description.php NASA. 2015/2017. NASA Satellite Reveals How Much Saharian Dust Feeds Amazon’s Plants. https://www.nasa.gov/content/goddard/nasa-satellite-reveals-how-muchsaharan-dust-feeds-amazon-s-plants NASA. 2021. Is it too late to prevent climate change? https://climate.nasa.gov/faq/16/ is-it-too-late-to-prevent-climate-change/ NASA. 2021/04. NASA Study predicts less Saharan dust in future winds, https:// climate.nasa.gov/news/3076 National Academies of Sciences, Engineering, and Medicine, 2016. Attribution of Extreme Weather Events in the Context of Climate Change. Nat. Acad. Press, Washington. https://doi.org/10.17226/21852 Neudert, Christian. 2004. Verlauf und palliative Behandlung in der Terminalphase bei Patienten mit Amyotropher Lateralsklerose, Diss. LMU München. https://edoc. ub.uni-muenchen.de/1890/1/Neudert_Christian.pdf New Climate Institute. 2017. Decarbonizing the global steel and cement sectors needs more than zero carbon fuels – now. https://newclimate.org/2017/10/27/ Norman, Joseph, Nassib Taleb et al. 2017. Climate models and precautionary measures. https://www.fooledbyrandomness.com/climateletter.pdf NSF. 2010. Volcanic Eruptions Affect Rainfall Over Asian Monsoo00n Region. https:// www.nsf.gov/news/news_images.jsp?cntn_id=118023&org=NSF Nuklearforum Schweiz. 2020. 2020: 442 Kernkraftwerke in Betrieb. https://www. nuklearforum.ch/de/fakten-und-wissen/kernkraftwerke-der-welt Pazur, Alexander, et al. 2008. Magnetic effect on CO2-solubility in sea water. AGUpubs. https://doi.org/10.1029/2008GL034288 Pearce, Fred. 2020. Why clouds are the key to new troubling projections on warming. https://e360.yale.edu/features Peterson, Thomas et al. 2008. The Myth of the 1970s Global Cooling Scientific Consensus. Am. Meteor. Soc., Sept. 2008. https://doi.org/10.1175/2008B AMS2370.1

Literatur    417

Petrenko, Vasilii. 2017. Minimal geological methane emissions during the Younger Dryas- Preboreal abrupt warming event. Nature 548. https://doi.org/10.1038/ nature23316 Pierrehumbert, Raymond. 2011. Infrared radiation and planetary temperatures. Physics Today, Januar 2011. https://doi.org/10.1063/1.3541943 Podbregar, Nadja. 2019. Wie lebensfreundlich war die Venus? https://www.scinexx. de/news/kosmos/wie-lebensfreundlich-war-die-venus/ Popper, Karl. 1935. Die Logik der Forschung – The logic of scientific discovery. Springer, Wien. https://edisciplinas.usp.br/pluginfile.php Quoteinvestigator. 2019. We should utilize Natural Forces. Tag: Edison. https:// quoteinvestigator.com/tag/thomas-edison Rasool, Ishtiaque, und Stephen Schneider. 1971. Atmospheric carbon dioxide and aerosols. Science 173. https://doi.org/10.1126/science.173.3992.138 Rolnick, David et al. 2019. Tackling climate change with machine learning. https:// arxiv.org/pdf/1906.05433.pdf Rowlatt, Justin. 2021. How Bitcoin’s vast energy use could burst its bubble. BBC News vom 21 (2): 2021 Rowlands, Peter. 2018. Newton. Innovation and Controversy. World Scientific Europe, Singapore Schellnhuber, Hans-Joachim. 1999. ‘Earth System’ and the second Copernican revolution. Nature, 402, C19-C22. https://www.nature.com/35011515 Scholz, Fritz. 2008. The Solution to the Global Carbon Dioxide Problem. https:// pubmed.ncbi.nlm.nih.gov/18702128/ Scholz, Fritz, und Ulrich Hasse. 2009. Reply to Comments on Permanent Wood Sequestration. Chemsuschem. https://doi.org/10.1002/cssc.200900095 Schünemann, Christoph. 2021. Wasserkraft. Regenerative-Zukunft.de http://www. regenerative-zukunft.de/joomla/wasserkraft Scinexx. 2018. Meeresvögel: Plastikmüll als Duftfalle. https://www.scinexx.de/news/ biowissen/meeresvoegel-plastikmuell-als-duftfalle/ Seguinot, Julien. et al. 2018. Modelling last glacial cycle ice dynamics in the Alps. https://tc.copernicus.org/articles/12/3265/2018/ Shah, Haleema. 2019. The Unexpected History of Air Conditioner. Smithson. Mag., 06/24/2019. https://www.smithsonianmag.com/smithsonian-institution/unexpectedhistory-air-conditioner-180972108/ Sherwood, Sven. 2010. Researchers find future temperatures could exceed livable values. Purdue University News Service, May 4, 2010. https://www.purdue.edu/ newsroom/research/2010/100504HuberLimits.html Simms, D.L., und P.L. Hinkley. 1989. Brighter than how many suns? Roy. Soc Hist. Science, Vol. 43,1. https://royalsocietypublishing.org/doi/pdf/https://doi. org/10.1098/rsnr.1989.0003 Simms, D.L., und P.L. Hinkley. 2001. David Gregory on Newton’s Mirror. Notes and Records of the Roy. Soc Hist. Science. Vol. 55.2. https://www.jstor.org/ stable/532094

418     Literatur

Smedley, Tim. 2019. How artificially brightened clouds could stop climate change. https://www.bbc.com/future/article/20190220 Smith, Arthur. 1920. John Tyndall. The Scientific Monthly, October 1920, S. 331– 340 Stager, Curt. 2012. What happens after global warming? Nature Education Knowledge 3 (10): 7 Stillinger, Frank. 1975. Theory and Molecular Models for Water. Ed. Prigogine. Wiley, New York. https://www.princeton.edu/~fhs/fhspapers/fhspaper79.pdf Stoffer, Harry. 2000. Al Gore learns it is not easy to be green. Automotive News, August 2000 Stolarski, Richard. 1989. History of the Study of Atmospheric Ozone. Nasa for our colleagues, https://acd-ext.gsfc.nasa.gov/People/Stolarski/history Stützel, Maximilian. 2019. Geoengineering als existentielles Risiko. jura.uni-freiburg.de Sutter, Daniel et al. 2020. CO2 Capture. CCS and the Industry of carbon-based ressources. https://ethz.ch/content/dam/ethz/special-interest/mavt/processengineering/... .pdf Taleb, Nassim Nicholas. 2007. The Black Swan. New York: Random House Tao, Jeff et al. 2006. Solar FAQs. https://www.sandia.gov/~jytsao/Solar%20FAQs. pdf Tegen, Ina, und Kerstin Schepanski. 2018. Climate Feedback on Aerosol Emission and Atmospheric Concentrations. Curr. Clim. Change Rep 4. https://doi. org/10.1007/s40641-018-0086-1 Tian, Hanqin et al. 2020. A comprehensive quantification of global nitrous oxide sources and sinks. Nature 586: 248–256. https://doi.org/10.1038/s41586-0202780-0 Trenberth, Kelvin. 2009. An imperative for climate change planning: tracking Earth’s global energy flux. https://www.wired.com/images_blogs/threatlevel/2009/11/ energydiagnostics09final.pdf Turpin, Etienne, und Valeria Federighi. 2012. A new element, a new force, a new input: Antonio Stoppani’s Anthropozoic, Wollon. Univ., Eispapers. https://ro.uow. edu.au/eispapers/2986 Tyndall, John. 1896. The glaciers of the Alps. Longmans, Gren, and Co, London. https://archive.org/details/glaciersalpsbeingtyndrich Ulmer, Simone. 2020. Russpartikel beeinflussen Erderwärmung. https://ethz.ch/de/ news-und-veranstaltungen/eth-news/news/2020/11/russpartikel-beeinflussenerderwaermung.html UNEP. 2019. Scientific Assessment of Ozone Depletion (2018). https://ozone.unep. org/sites/default/files/2019-05/SAP-2018-Assessment-report.pdf USDA. 2019. The power of one tree – the very air we breathe. https://www.usda.gov/ media/blog/2015/03/17/power-one-tree-very-air-we-breathe Viering, Kerstin. 2016. Was wurde aus dem Waldsterben? https://www.spektrum.de/ news/was-wurde-aus-dem-waldsterben/1402487

Literatur    419

Watts, Jonathan. 2021. Climatologist Michael Mann: Good people fail victim to doomism. I do sometimes. Amp.theguardian.com Weart, Spencer. 2018. The Discovery of Global Warming. American Institute of Physics. https://history.aip.org/climate/index.htm White, Jack. 2012. Herschel and the Puzzle of the Infrared. AmericanScientist, Vol. 100, No. 3. https://www.americanscientist.org/article/herschel-and-the-puzzleof-infrared Williams, Quentin. 1997. Why is the earth’s core so hot? Scientific American, Oct 6, 1997 Worldoceanreview. 2010. Methane Hydrate. https://worldoceanreview.com/en/ wor-1/energy/methane-hydrates/ Zeng, Ning. 2008. Carbon sequestration via wood burial. Carbon Balance Mgmt 2008. https://doi.org/10.1186/1750-0680-3-1 Zimmermann, Nils. 2021. How many solar panels do we need to save the climate? https://www.dw.com/en/how-many-solar-panels-do-we-need-to-save-theclimate/a-56020809

Stichwortverzeichnis

A

B

Abfall alternativer Technologien 396 Abkühlungsgesetz von Newton 5 Absorption Sättigung 95 von Gasen 15 Absorptionsspektrum 180 Aerosol 16, 38, 184 Aerosol-Injektion 341 Agassiz, Louis 20 Akku, Erfindung 19 Alarmist 43 Albedo 121, 190 Alpinismus 13 Amazonasgebiet 39 Ångström, Knut 179 Antarktis 61, 145 Anthropozän 338, 376 Anti-Twomey-Effekt 205 Arrhenius, Svante 24, 131, 183, 239 Askese 394 Aufforsten 314 Azevedo, Néle 400

Becquerel, Edmond 93, 258 Biochar 335 Biomasse 188, 269 Bitcoin 304 Boîte chaude (heisse Box) 9 Brennofen (Newton) 6 Broeker, Wallace 82 Bryson, Reid 39 Budyko, Michael 240, 241, 341, 343 C

Callendar, Guy Stewart 31 Carbon Shaming 394 Carbonylsulfid 173 Chamberlin, Thomas 31 Champagner 107 Ciamician, Giacomo 116, 271 Clarke, Arthur C. V CLAW-Effekt 203 Climategate 365 Climeworks 323

© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2021 W. Hehl, Klimawandel – Grundlagen und Spekulation, https://doi.org/10.1007/978-3-658-35541-8

421

422     Stichwortverzeichnis

Club of Rome 364 Coolist 43 D

Darwin, Charles 92 da Vinci, Leonardo 115 Denier (Denialist) 43 de Saussure, Horace-Bénédict 4, 9 Dimethylsulfid 173, 202 Dobson-Einheit 166 Doomist 44, 373 Duhem, Pierre 96 Düngung 157 Dyson, Freeman 331, 360 E

Edison, Thomas 259 e-Fuel 322 Einstein, Albert 70 Eisenhypothese 347 Eiszeit 20, 25 El Niño 32, 248, 346 Emission, negative 320, 336, 392 Endlager (CO2) 118, 329, 331 Energiebedarf der Welt 298 Energiebilanz der Erde 121 Energiegewinnung (Begriff) 48 Energieverbrauch der ICT 302, 307 EPBT (Energetische Amortisation) 263 Erdgas 138, 276 Erdumlaufbahn, Veränderungen 211 EROI (Energetischer Erntefaktor) 263, 387 Erwärmung, globale 49, 152 Experiment 67 F

Faraday, Michael 285 FCKW (Kühlmittel) 69 Feedbacks (Rückkopplungen) 397

Feuchtgebiet 135 Feynman, Richard 150 Fluor 37 Foote, Eunice Newton 12 Fourier, Joseph 1 Fracking-Verfahren 139 Franklin, Benjamin 37 Franzen, Jonathan IX, 375, 376 Freistetter, Florian 177 Fritts, Charles 259 G

Gaia-Hypothese 360, 385 Gates, Bill 272 Geoengineering 323, 337, 341, 362 Gesetz von Haitz 309 von Koomey 304 von Moore 303 von Swanson 256 Glashaus 4 Gletscher 58 Global Warming Potential (GWP) 131, 152, 176 Gore, Al 41, 47, 365, 375 Grad Newton 6 Graf Rumford (Benjamin Thompson) 8 H

Hall, Charles 264 Halogen 170 Handel, faustischer 47, 201 Hansen, James 47, 188 Hantelmodell 393 Hawking, Stephen 29 Herschel, Friedrich Wilhelm 10 Himmelblau 17 Hockeystick-Kurve 49 Högbom, Arvid 31 Höhensonne 19, 161 Holier-than-thou 370

Stichwortverzeichnis    423

Horn, Paul VII Hurrikan 63 HVAC (Heizen und Kühlen) 293 I

Ingenhousz, Jan 53, 110 IPCC 75, 80, 152, 196, 246, 389

Kohlenstoff-Bank 334 Kohleverbrennung 26 Kondensstreifen 200 Körper, schwarzer 122 Kovic, Marko 369 Kryokonit 60 Kühlmittel 175 Künstliche Intelligenz (KI) 249 Kurzweil, Ray 256

J

Jeans-Effekt 29 Johnson, Lyndon B. 340 Jungk, Robert 7 K

Kältemittel 170 Kälteperiode 64 Kältestrahlen 10 Kapnometer 17 Katastrophe 20, 63, 392 Katastrophismus 20, 22 Katzenvideos 306 Keeling, Charles David 53 Keeling-Kurve 54 Kernenergie 278 Kernfusion 282 Kipp-Punkt (Tipping Point) 196, 220, 248, 361 Klathrate 146 Klima (Definition) 71 Klimaleugner 369 Klimamodell 24 Klimaschutz VI Klimawandel 26 Klimawandel-Zeit, kritische 391 Klimazone des Theodosius 71 Kohlendioxid 12, 26, 47, 53, 55, 106, 120 Abscheidung 320 Rückholung 321 Kohlendioxidmolekül 120

L

Lachgas 153 Lackner, Klaus 321 Lagrange-Punkt 350 Landauer, Rolf 304 Landnutzung 222 Landwirtschaft, regenerative 319 LED-Technologie 309 Lehmansche Gesetze der Software 80 Lithium 288, 289, 396 Lord Kelvin (William Thomson) 3, 92 Lovelock, James 203, 278, 283, 359, 386, 387 M

Mach, Ernst 8 Magnetfeld 78 Mann, Michael 49, 375, 376, 399 Maxwell, James 12 Meeresdüngung 347 Messung (Temperaturanomalie) 32 Methan 132 Methaneis 146 Methylbromid 173 Methylchlorid 173 Microbubbling 347 Midgley, Thomas 174 Milankoviç, Milutin 212 Milankoviç-Zyklus 219 Mitchell, Murray 38 Molekül und Schwingung 103

424     Stichwortverzeichnis

Müllentsorgung 140 Musk, Elon 277, 284 N

Nephelometer 16 Newton, Isaac 5 Null-CO2-Gesellschaft 273

Priestley, Joseph 106 Prinzip, anthropische 93, 360 Proforestation 316 Proxy-Messung 50 Pseudowissenschaft 100 Pyrolyse 335 R

Ockhams Rasierer 70 Ökofaschist 369 Osterinsel 379 Ozean 78 und Kohlendioxid 39 Ozon 160 Ozone Depletion Potential (ODP) 176 Ozonloch 69, 177

Radioaktivität 93 Raps 69, 158, 173 Rebound-Effekt 304, 311 Regen, saurer 68 Reis 113, 139, 159 Revelle, Roger 39, 41, 43, 94, 363 Rinder 137 Ritter, Johann Wilhelm 18 Runaway-Effekt 29, 149 Russ 61, 186

P

S

Panspermie 24 Paradox von Olbers 3 Pareto-Prinzip 254 Pellets 313, 317 Permafrost 135, 142 Peterson, Thomas 44 Petrostaat 388 Phlogiston 8 Photoeffekt 257 Photorespiration 112 Photosynthese 110, 268, 271 Photovoltaik 254, 256, 258, 260, 264, 396 Pierrehumbert, Raymond 182 Plancksches Prinzip 101 Plankton 202 Poincaré, Henri 97 Popper, Karl 95 Power-to-fuel 322 Poynting, John Henry 30 ppb Veranschaulichung 140

Sagan, Carl 38, 99 Saharastaub 190 Salter, Stephen 345 Sauerstoff 103 Schellnhuber, Hans-Joachim 248 Schimper, Karl Friedrich 21 Schneider, Stephen 39, 83 Scholz, Fritz 332 Schwan, schwarzer (Definition) 76 Schwefel 173 Schwefeldioxid 35, 195 Schweppe, Jacob 107 Secchi-Scheibe 204 Seltenerdmetall 266, 286 Sequestration 315 Simulation 69 Skala der Wissenschaftlichkeit 88 Solarthermie 264 Sonne, Physik der 206 Spektrum (des Sonnenlichts) 10 Stahl 299

O

Stichwortverzeichnis    425

Stefan-Boltzmann-Gesetz 24 Stoppani, Antonio 339 Strahlung infrarote 11 ultraviolette 18 Strahlungsantrieb 27, 131, 132, 222 Strategie 354, 359 Stratosphäre 163 Sumpfgas 133 Systemwirkungsgrad 272

Venus 27, 182 Venus-Syndrom 28 Verbrennung fossiler Stoffe 198 Vernes, Jules 349 Verstärkung, polare 58 Vico, Giambattista 70 Volta, Alessandro 133 Voltaire 376 von Humboldt, Alexander 9, 110 Vulkanausbruch 195

T

W

Taleb, Nassim 76, 77 Tambora (Vulkan) 35 Tanken 290 Temperatur absolute 8 globale 32, 241, 366 Temperaturdefinition 8 Tephra 36, 196 Tetraäthylblei 68, 174 Thunberg, Greta 130, 253, 273, 371 Treibhauseffekt 4, 30, 125, 181–183 Treibhausgase 130 Trump, Donald 42, 333 Turner, William 36 Twomey-Effekt 201, 205 Tyndall, John 13 Tyndall-Effekt 13 Tyndallisierung 17

UV-C 167 UV-Strahlung 18

Wagenbreth, Henning 343 Wald 312, 382 Waldbrand 65 Wärme, dunkle 4 Wärmekonvektion 5 Wärmeleistung des Erdinnern 3 Wärmeleitung 3, 5 Wärmepumpe 294 Wärmestrahlung 5 Warmist 43 Wasserdampf 118, 130, 180 Wassermolekül 104 Wasserstoff 271, 282, 291 Wegener, Alfred 89 Weltraumschirm 349 Wetter 72 Windenergie 265 Windturbine 266, 396 Winter, nuklearer 38 Wirkungsgrad 267 Wissenschaft 88, 99, 100, 102 Wolken 79, 185, 197, 344, 383 Wolkenaufhellung (Meer) 344

V

Z

Vampir-Leistung 301 van Helmont, Johan Baptista 106

Zement 299 Zwei-Hügel-Kurve 122

U