Die Energiewende und ihre Modelle: Was uns Energieszenarien sagen können - und was nicht [1. Aufl.] 9783839431719

Our decisions around the transition to clean energy are based on energy scenarios. But how are these actually produced a

212 50 2MB

German Pages 170 [172] Year 2016

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Einleitung
Wie viele Szenarien brauchen wir? Eine wissenschaftstheoretische Kritik des Netzentwicklungsplans
Die Begründung relevanter Möglichkeiten durch idealisierte Modelle
Die Unterschätzung des Klimawandels Zum Einfluss nicht-epistemischer Werte auf die Klimamodellierung
Die Bürde des Möglichen. Zum verantwortlichen Umgang mit Unsicherheiten in Energieszenarien
Fehlschlüsse beim Argumentieren mit Szenarien
Epistemische Meta-Analyse. Ein konzeptioneller Vorschlag für die Analyse und den Vergleich von Szenarien
Autorinnen und Autoren
Recommend Papers

Die Energiewende und ihre Modelle: Was uns Energieszenarien sagen können - und was nicht [1. Aufl.]
 9783839431719

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Christian Dieckhoff, Anna Leuschner (Hg.) Die Energiewende und ihre Modelle

Christian Dieckhoff, Anna Leuschner (Hg.)

Die Energiewende und ihre Modelle Was uns Energieszenarien sagen können – und was nicht

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2016 transcript Verlag, Bielefeld

Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Printed in Germany Print-ISBN 978-3-8376-3171-5 PDF-ISBN 978-3-8394-3171-9 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

I NHALT

Einleitung Christian Dieckhoff und Anna Leuschner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Wie viele Szenarien brauchen wir? Eine wissenschaftstheoretische Kritik des Netzentwicklungsplans Christian Voigt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Die Begründung relevanter Möglichkeiten durch idealisierte Modelle Sebastian Cacean . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 Die Unterschätzung des Klimawandels Zum Einfluss nicht-epistemischer Werte auf die Klimamodellierung Anna Leuschner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 Die Bürde des Möglichen Zum verantwortlichen Umgang mit Unsicherheiten in Energieszenarien Eugen Pissarskoi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 Fehlschlüsse beim Argumentieren mit Szenarien Gregor Betz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 Epistemische Meta-Analyse Ein konzeptioneller Vorschlag für die Analyse und den Vergleich von Szenarien Christian Dieckhoff . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 Autorinnen und Autoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

Einleitung Christian Dieckhoff und Anna Leuschner

1 Energiemodelle und -szenarien in der Energiewende Um die Gefahren des anthropogenen Klimawandels möglichst gering zu halten, ist es notwendig, die Emission von Kohlenstoffdioxid und anderen Treibhausgasen in die Atmosphäre drastisch zu reduzieren. Da die weltweite Bereitstellung von Energie derzeit jedoch im Wesentlichen auf fossilen Energieträgern beruht, ist ein weitreichender Umbau der Energiesysteme mit dem Ziel einer Dekarbonisierung der Weltwirtschaft notwendig. In Deutschland wird dieses Projekt unter dem Schlagwort der „Energiewende“ verfolgt. Das bedeutet bisher vor allem den Umbau der Stromversorgung durch den Ausbau der erneuerbaren Energien und den Ausstieg aus der Nutzung der Kernenergie. Weil Wind und Sonne als wichtigste erneuerbare Energiequellen eine fluktuierende Einspeisung von Strom mit sich bringen, muss die Stromversorgung über den Ausbau der Erzeuger hinaus tiefgreifend umgebaut werden. So wird neben der Errichtung von Energiespeichern und der Laststeuerung eine Reihe von weiteren Optionen zur Flexibilisierung der Stromversorgung diskutiert. Auch wurde mit dem Ausbau der Stromübertragungsnetze begonnen und aktuell wird über den Ausstieg aus der Kohleverstromung diskutiert. Der Umstand, dass für ein Erreichen der Klimaschutzziele auch der Mobilitätssektor und die Wärmebereitstellung umgebaut werden müssen, gewinnt aktuell ebenfalls zunehmend Aufmerksamkeit. Die Energiewende erfordert also tiefgreifende und weitreichende Veränderungen, die nicht nur die Installation neuer technischer Infrastrukturen und eine angepasste Ausgestaltung der Energiemärkte bedeuten, sondern bis zu den individuellen VerbraucherInnen und ihren Verhaltensweisen reichen.

8 | Die Energiewende und ihre Modelle

Wie genau die Energiewende zu vollziehen ist, in welchem Tempo etwa welche Technologien ausgebaut werden sollen, ist jedoch nicht nur in der politischen Debatte, sondern auch in der breiten gesellschaftlichen Diskussion eine offene, kontrovers diskutierte Frage. Herausfordernd ist ihre Beantwortung nicht nur, weil eine kaum überblickbare Zahl unterschiedlicher Technologien für verschiedene Einsatzfälle diskutiert wird, sondern auch, weil der Einsatz der Technologien jeweils unterschiedliche normative Belange verschiedener Interessengruppen betrifft. Man denke etwa an den Kohleausstieg, der für die Erreichung der Klimaschutzziele als zentraler Schritt angesehen wird, gleichzeitig aber einen erheblichen ökonomischen und sozialen Wandel in den Kohlerevieren mit sich bringt. Hinzu kommt, dass wir es mit erheblichen epistemischen Unsicherheiten zu tun haben. So können wir heute beispielsweise nicht genau vorhersehen, wie sich die verfügbaren Technologien weiterentwickeln oder ob neue Technologien einen wesentlichen Beitrag zur Energieversorgung leisten können werden. Auch können wir nur grob abschätzen, wie sich zentrale Einflussgrößen auf das Energiesystem entwickeln werden. Man denke etwa an die zukünftig zu deckende Energienachfrage, deren Gesamthöhe, aber auch zeitliche Verteilung im Tages- oder Jahresverlauf, die maßgebliche Anforderungen an das zukünftige Energiesystem darstellen. Und mehr noch: Das technische Energiesystem ist mit ökonomischen und sozialen Strukturen eng verwoben, deren Wechselwirkungen wir größtenteils noch nicht genau verstehen. Um in dieser Situation politische und andere EntscheidungsträgerInnen wissenschaftlich zu beraten und die gesellschaftliche Debatte zu unterstützen, werden im Themenfeld der Energieversorgung seit den 1970er Jahren Energieszenarien erstellt. Solche Szenarien werden heute von wissenschaftlichen Instituten und Beratungsunternehmen im Auftrag von Ministerien, Unternehmen, Verbänden und anderen Organisationen in jährlich großer Zahl in Studien und Gutachten veröffentlicht. Das zentrale Werkzeug zur Erstellung der Szenarien sind Computermodelle, die unterschiedliche Ausschnitte der Energieversorgung aus verschiedenen Perspektiven repräsentieren. Dabei werden Energieszenarien nicht nur mit dem Zweck erstellt, nationales energiepolitisches Entscheiden zu unterstützen. Vielmehr sind Energieszenarien auch ein wichtiges Element der globalen Klimapolitik: Einerseits basieren die Klimaszenarien des Intergovernmental Panel on Climate Change (IPCC) unter anderem auf globalen und nationalen Energieszenarien – denn die Höhe der zu erwartenden Treibhausgaskonzentration ist zu einem wichtigen Teil durch die energiebedingten Emissionen bestimmt. Andererseits bestimmen die globalen Klimaschutzziele, die unter anderem mit Hilfe der Klimaszenarien bestimmt werden, maßgeblich die nationale Energiepolitik und gehen deshalb auch in die Energieszenarien ein.

Dieckhoff/Leuschner: Einleitung | 9

Die vielen verfügbaren Energieszenariostudien ähneln sich zwar, da sie allesamt mögliche Entwicklungen der Energieversorgung beschreiben, doch gibt es viele Unterschiede im Detail. Will man genauer verstehen, wie die Unterschiede in den Ergebnissen zustande kommen, stößt man schnell an praktische Grenzen, weil viele Studien nur ungenau beschreiben, welche Annahmen verwendet wurden und was für ein Modell genau im Einsatz war. Es ist also in der Regel nicht nachvollziehbar, wie genau bestimmte Ergebnisse zustande kamen. Und auch deren Interpretation und Verwendung bei der Begründung energiepolitischer Schlussfolgerungen in den Studien bleiben meistens unklar. Trotzdem werden sie zur Begründung weitreichender politischer Entscheidungen verwendet. Es stellt sich deshalb die Frage nach dem epistemischen Status von Energieszenarien. Und diese Frage betrifft nicht nur Energieszenarien und -modelle, sondern wird aktuell in der wissenschaftsphilosophischen Debatte unter anderem für ökonomische Modelle insgesamt und auch für die Klimamodellierung diskutiert. 2 Aufbau und Zielsetzung des Bandes Vor dem Hintergrund dieser Problemlage hat dieser Band zwei Ziele. Erstens soll ein konstruktiver Beitrag zur Energiewende geleistet werden. Die AutorInnen möchten mit ihren Analysen der Energie- und Klimamodellierung zur Klärung eines wesentlichen wissenschaftlichen Fundamentes der gesellschaftlichen Debatte und des politischen Entscheidens über die Umgestaltung des Energiesystems beitragen. Es soll für die hier verborgenen Herausforderungen sensibilisiert und über ihre Tragweite aufgeklärt werden. Darüber hinaus will der Band Vorschläge machen, wie diese Herausforderungen besser zu meistern sind, oder zumindest Hinweise dazu geben, in welcher Richtung nach Lösungen zu suchen ist. Das zweite Ziel des Bandes ist, zu den derzeit lebhaften philosophischen Debatten über Modelle und Szenarien sowie über die Rolle von Wissenschaft in demokratischen Gesellschaften beizutragen. Die Praxis der wissenschaftlichen Beratung im Bereich der Energie- und Klimapolitik dient hier als Fallbeispiel, um die philosophischen Fragen zu präzisieren und Antworten im Lichte konkreter wissenschaftlicher Praxis zu formulieren. Die Überlegungen sind deshalb auch für andere wissenschaftliche und praktische Felder relevant, in denen Modelle komplexer Realsysteme und große epistemische Unsicherheiten eine wichtige Rolle spielen. Die ersten drei Beiträge fokussieren auf zentrale methodologische Fragen, die den Prozess der Erstellung von Szenarien mittels Modellen betreffen. Zunächst wendet sich Christian Voigt den numerischen Annahmen zu, die für die exogenen Größen eines Modells bei der Berechnung eines Szenarios getroffen werden müssen. Genauer

10 | Die Energiewende und ihre Modelle

gesagt untersucht er die Herausforderung der Auswahl dieser Annahmen anhand des sogenannten Netzentwicklungsplans, dessen Grundlage Energieszenarien sind. Laut Energiewirtschaftsgesetz (EnWG) müssen diese Szenarien die gesamte „Bandbreite wahrscheinlicher Entwicklungen abdecken“. Voigt arbeitet in seinem Beitrag heraus, dass sowohl diese Vorgabe selbst als auch die Art und Weise, wie sie in der Praxis ausgelegt und mit den Szenarien zu erfüllen versucht wird, problematisch sind. Er zeigt auf, dass sich mit einigen wenigen Szenarien ein komplexer mehrdimensionaler Werteraum nicht abdecken lässt. Nachdem unterschiedliche Strategien für die Wahl der Annahmen diskutiert werden, kommt Voigt letztlich zu dem Schluss, dass mehrdimensionale Möglichkeitsräume nur durch dezidiertes Durchrechnen aller möglichen Annahmen vollständig erfasst werden können. Im nächsten Beitrag wendet sich Sebastian Cacean dem Problem unrealistischer Modellannahmen zu: Modelle realer Systeme – so auch Energie- und Klimamodelle – beinhalten mehr oder weniger starke Idealisierungen des realen Gegenstandes. Fasst man diese „unrealistischen“ Annahmen der Modelle als Aussagen über die realen Systeme auf, so sind diese streng genommen falsch, denn sie stehen im Widerspruch zu unserem Wissen über die realen Systeme. Wenn aber nur möglich ist, was nicht im Widerspruch zu unserem Wissen steht, so scheint es ausgeschlossen, mit idealisierten Modellen Möglichkeitsaussagen – und damit Energieszenarien – zu begründen. Dieses fundamentale methodologische Problem untersucht Cacean anhand eines einfachen physikalischen Modells und entwickelt unter Rückgriff auf den DDI-Ansatz von R.I.G. Hughes einen Vorschlag, wie es im Prinzip gelöst werden kann. Der dritte Beitrag widmet sich ebenfalls einer fundamentalen Herausforderung, die bei der Modellierung entsteht. Anna Leuschner untersucht den Einfluss nicht-epistemischer Werte in der Klimamodellierung. Dieser ist politisch relevant, weil der Erfolg von energie- und klimapolitischen Maßnahmen wesentlich von der Glaubwürdigkeit der wissenschaftlichen Begründungen abhängt – und diese wird von KlimaskeptikerInnen, die der Klimaforschung Alarmismus unterstellen, bezweifelt. Leuschner argumentiert, dass zwar nicht-epistemische Werte zwangsläufig Entscheidungen innerhalb der Klimaforschung und -modellierung beeinflussen und dabei in der Tat auch die Ergebnisse prägen. Sie stellt jedoch empirische Studien und historische Entwicklungen vor, die zeigen, dass die in den IPCC-Berichten bislang präsentierten Ergebnisse den Klimawandel und seine Folgen systematisch unter-, anstatt wie von KlimaskeptikerInnen behauptet, überschätzt haben. Die Informationen und Prognosen des IPCC sind, so Leuschners Schluss, insofern tatsächlich mit Vorsicht als klimapolitische Guidelines anzusehen, als sie tendenziell zu konservativ sind. Mit den übrigen drei Beiträgen schwenkt der Blick von der Erstellung auf die Verwendung von Szenarien in der Energie- und Klimapolitik. Eugen Pissarskoi un-

Dieckhoff/Leuschner: Einleitung | 11

tersucht im vierten Beitrag, wie in ausgewählten Energieszenariostudien für Deutschland die Ergebnisse energieökonomischer Modelle und vor allem ihre Unsicherheiten dargestellt werden. Er kommt zu dem Schluss, dass diese Darstellungsweise inadäquat ist, insbesondere weil nicht ausreichend kenntlich gemacht wird, dass für wesentliche Größen nur Möglichkeitsaussagen begründet werden können. Pissarskoi erkennt darin einen Anreiz zur Fehlinterpretation und zur Überschätzung der epistemischen Aussagekraft der Ergebnisse, und macht deutlich, weshalb dies in demokratisch verfassten Gesellschaften problematisch ist. Er argumentiert schließlich für eine Änderung der derzeitigen Darstellungspraxis und gibt Hinweise hierfür. Dem folgt der Beitrag von Gregor Betz. Er zeigt auf, dass das Argumentieren mit Szenarien anfällig für spezifische Fehler ist und analysiert typische Fehlschlüsse, die bei der Erstellung, der Interpretation und der praktischen Verwendung von Energieszenarien in politischen Entscheidungssituationen begangen werden. Probabilistische Fehlschlüsse quantifizieren Unsicherheiten ungerechtfertigterweise. Possibilistische Fehlschlüsse unterschätzen systematisch die Bandbreite von Möglichkeiten, vernachlässigen relevante Möglichkeiten oder stellen den Raum der Möglichkeiten übervereinfacht dar. Entscheidungstheoretische Fehlschlüsse berücksichtigen nicht die gesamte Bandbreite von Möglichkeiten in der Entscheidungsbegründung oder missdeuten Möglichkeitsbehauptungen auf charakteristische Weise. Betz illustriert diese Fehlschlüsse durch Beispiele vor allem aus der Energie- und Klimapolitik. Der Band schließt mit dem Beitrag von Christian Dieckhoff. Er setzt an der Herausforderung an, dass NutzerInnen von Energieszenarien heute mit einer schier unüberblickbaren Zahl solcher Studien konfrontiert sind. Um hier Orientierung zu bieten, werden sogenannte Meta-Analysen durchgeführt, die veröffentlichte Szenarien „vergleichen“ oder auch versuchen, „robuste Eigenschaften“ in ihnen zu identifizieren. Ausgehend von drei vorliegenden Meta-Analysen von Energieszenarien – darunter eine umfangreiche Analyse des IPCC – präzisiert Dieckhoff diese Zielsetzungen und geht der Frage nach, unter welchen Bedingungen sie erreicht werden können. Mit Blick auf das Vergleichen von Szenarien entwirft er das Konzept der epistemischen Meta-Analyse, mit dem unterschiedliche Wissensbestände der Szenarien explizit berücksichtigt werden. Er zeigt außerdem eine Reihe fundamentaler Herausforderungen bei der Identifikation robuster Eigenschaften auf und kommt zu dem Schluss, dass dieses Ziel für Systeme wie das Energiesystem nicht mit Meta-Analysen im bisherigen Format erreichbar scheint.

Wie viele Szenarien brauchen wir? Eine wissenschaftstheoretische Kritik des Netzentwicklungsplans Christian Voigt

1 Einleitung Aufgrund der Energiewende muss das deutsche Stromübertragungsnetz ausgebaut werden. Geplant wird dieser Ausbau im jährlich aktualisierten Netzentwicklungsplan (NEP). Das Energiewirtschaftsgesetz (EnWG) schreibt vor, dass diese Planung auf der Grundlage eines Szenariorahmens zu geschehen habe, der mindestens drei jährlich zu aktualisierende Zukunftsszenarien beinhalten muss, die das Energiesystem in zehn bis fünfzehn Jahren beschreiben. Diese Szenarien sollen die gesamte „Bandbreite wahrscheinlicher Entwicklungen“ des deutschen Energiesystems „abdecken“ (EnWg, 2005a, § 12a, Abs. 1). Aus wissenschaftstheoretischer Sicht ist sowohl diese Anforderung als auch die Auslegungspraxis der mit ihrer Erfüllung beauftragten Bundesnetzagentur (BNetzA) problematisch. Denn, so die Hauptthese dieses Aufsatzes, mit einigen wenigen Szenarien (im NEP 2011–2013 drei, im NEP 2014 vier) lässt sich ein komplexer mehrdimensionaler Werteraum nicht „abdecken“, ganz gleich welche Strategie der Szenariowahl man anwendet. Wie die folgenden Überlegungen zeigen werden, verlangt der Gesetzgeber von der BNetzA und den Übertragungsnetzbetreibern, das Unmögliche möglich zu machen. Im zentralen Abschnitt 5 dieses Aufsatzes wird für verschiedene Strategien der Szenariowahl überprüft, ob sie in der Lage sind, die Bandbreite wahrscheinlicher Entwicklungen abzudecken. Dabei zeigt sich, dass weder mit der Strategie der Bundesnetzagentur, noch mit anderen vergleichbaren Strategien der Szenariowahl die Band-

14 | Die Energiewende und ihre Modelle

breite wahrscheinlicher Entwicklungen abgedeckt werden kann. Dies liegt nicht an den Besonderheiten des Netzausbaus oder des deutschen Energiesystems, sondern ist ein grundlegendes methodologisches Problem der Szenariotechnik. Zuvor stellt Abschnitt 2 die gesetzliche Grundlage des Netzentwicklungsplans vor, Abschnitt 3 fasst zusammen, wie die BNetzA von 2012 bis 2016 versuchte, diese gesetzlichen Vorgaben zu erfüllen, und Abschnitt 4 klärt, wie genau diese gesetzlichen Anforderungen verstanden werden sollten. In Nailis (2014) wurde bereits starke Kritik an der Szenariowahl der BNetzA geäußert und ein methodologischer Alternativvorschlag präsentiert. Was aber bisher fehlt, ist eine systematische methodologische Auseinandersetzung mit der gesetzlichen Forderung, die gesamte Bandbreite wahrscheinlicher Entwicklungen abzudecken. Auch wenn die Methodik von Nailis (2014) in mancher Hinsicht große Vorzüge gegenüber dem bisherigen Vorgehen besitzt, kann auch sie dieser gesetzlichen Anforderung nicht gerecht werden (siehe Abschnitt 5.7). Diese methodologische Untersuchung erfüllt zwei Funktionen zugleich: zum einen leistet sie einen Beitrag zur Methodik der Szenariowahl generell und zum anderen hinterfragt sie kritisch den bisherigen öffentlichen Diskurs zur Netzentwicklungsplanung. Denn politische Diskurse über langfristige Großprojekte werden nur dann wirklich transparent und verantwortungsvoll geführt, wenn in ihnen die Grenzen der wissenschaftlichen Erkenntnis reflektiert und akzeptiert werden, statt die Öffentlichkeit mit dem Anschein von Wissenschaftlichkeit in falscher Sicherheit zu wiegen. 2 Die gesetzliche Grundlage des Netzentwicklungsplans Aufgrund des Ausbaus erneuerbarer Energien (insbesondere im Norden) und des Ausstiegs aus der Kernenergie (insbesondere im Süden), muss in Deutschland das Übertragungsnetz ausgebaut werden. Bevor der genaue Verlauf neuer Strecken im Planfeststellungsverfahren bestimmt werden kann, muss aber überhaupt erst einmal entschieden werden, wie groß der Ausbaubedarf insgesamt ist, und von welchen Anfangs- zu welchen Endpunkten neue Verbindungen gebaut werden müssen. Die Bundesregierung erstellt dazu mindestens alle drei Jahre einen „Bundesbedarfsplan“, der vom Bundestag genehmigt wird. Der „Bundesbedarfsplan“ basiert wiederum auf dem Netzentwicklungsplan (NEP), den die BNetzA der Bundesregierung übergibt. Der NEP entstand bisher jedes Jahr und entsteht zukünftig jedes zweite Jahr in mehreren Runden, in denen die von den Übertragungsnetzbetreibern produzierten Zwischenergebnisse zur öffentlichen Konsultation gestellt und von der BNetzA überarbeitet und genehmigt werden. Erster Schritt ist die Erstellung, Konsultation, Überarbeitung und Genehmigung des „Szenariorahmens“ des NEP. Im Szenariorahmen werden die Rahmenannahmen der zu simulierenden Zukunftsszenarien beschrieben,

Voigt: Wie viele Szenarien brauchen wir? | 15

aus denen dann im NEP der Ausbaubedarf und die einzelnen Ausbaumaßnahmen abgeleitet werden. Welche Anforderungen dieser Szenariorahmen erfüllen muss, ist im Energiewirtschaftsgesetz (EnWG, § 12a) festgelegt. Bis 2015 lautete die uns hier interessierende Anforderung folgendermaßen: „Der Szenariorahmen umfasst mindestens drei Entwicklungspfade (Szenarien), die für die nächsten zehn Jahre die Bandbreite wahrscheinlicher Entwicklungen im Rahmen der mittelund langfristigen energiepolitischen Ziele der Bundesregierung abdecken.“ (EnWg, 2005b, § 12a, Abs. 1; Hervorhebung CV)

Die Anforderung hat sich auch mit der Gesetzesänderung vom Dezember 2015 nicht auf für uns relevante Weise geändert.1 Die Herausforderung für die BNetzA besteht nun darin, Szenarien auszuwählen, die dieser Anforderung gerecht werden. 3 Die bisherige Vorgehensweise der Bundesnetzagentur (2011–2015) In den ersten drei Runden (in den Szenariorahmen von 2011, 2012 und 2013) beschränkte sich die BNetzA bei ihrer Szenariowahl auf das gesetzlich geforderte Mindestmaß: drei Szenarien A, B und C, die einen sogenannten „Szenariotrichter“ bilden sollten (vgl. Abbildung 1). Die zwei Extremszenarien A und C sollen dabei jeweils den untersten und obersten Rand dieses Trichters bilden (A: moderater Anstieg Steinkohle, niedriger Anteil erneuerbarer Energien, C: hoher Anteil erneuerbarer Energien), während das Basisszenario B in der Mitte des Trichters liegen soll (B: höherer Anteil von Erdgas und erneuerbaren Energien verglichen mit A) (Bundesnetzagentur, 2011, S. 2f., S. 36ff.; 2012, S. 2, S. 39ff.; 2013, S. 2, S. 42ff.). Laut der Genehmigungen decken diese Szenarien angeblich „die Bandbreite wahrscheinlicher Entwicklungen ab.“ (Bundesnetzagentur, 2012, S. 39; 2013, S. 42)2

1

Mit dieser Gesetzesänderung wird der Szenariorahmen nunmehr nur noch alle zwei Jahre erstellt. Zudem wurde der modellierte Zeitrahmen „flexibilisiert“, um eine Anpassung an die europäische Planung zu ermöglichen, sodass nun die Zukunft in zehn bis fünfzehn Jahren modelliert werden soll. Die Anforderung lautet nun so: „Der Szenariorahmen umfasst mindestens drei Entwicklungspfade (Szenarien), die für die mindestens nächsten zehn und höchstens 15 Jahre die Bandbreite wahrscheinlicher Entwicklungen im Rahmen der mittelund langfristigen energiepolitischen Ziele der Bundesregierung abdecken.“ (EnWg, 2005a, § 12a, Abs. 1; Hervorhebung CV)

2

In der ersten Runde hieß es noch: „Der Szenariorahmen stellt eine Bandbreite verschiedener wahrscheinlicher Entwicklungen dar.“ (Bundesnetzagentur, 2011, S. 34) Dies war zwar eine sehr viel treffendere Beschreibung des tatsächlichen Vorgehens, widersprach aber der

16 | Die Energiewende und ihre Modelle

Abbildung 1: Der „Szenariotrichter“, angelehnt an die Abbildung der BNetzA (Bundesnetzagentur, 2011, S. 36; 2012, S. 40; 2013, S. 43).

In der zweiten und dritten Runde verlangte die BNetzA von den Übertragungsnetzbetreibern zusätzliche Sensitivitätsanalysen für Szenario B: in der zweiten Runde für • diesetitem Absenkung des Nettostrombedarfs und der damit einhergehenden Absenkung der Jahreshöchstlast (Bundesnetzagentur, 2012, S. 3), • „die pauschale Beschränkung der eingespeisten Leistung auf je 80% der in den einzelnen Bundesländern installierten Leistung Wind onshore“ (Bundesnetzagentur, 2012, S. 4), • die „Regionalisierung der installierten Leistung Wind onshore, Wind offshore, Photovoltaik und Biomasse“ (Bundesnetzagentur, 2012, S. 4). In der dritte Runde wurden zwei weitere Sensitivitätsanalysen für Szenario B erstellt und zwar für • „die Auswirkungen einer Absenkung der installierten Offshore-Leistung“ (Bundesnetzagentur, 2013, S. 3)

gesetzlichen Anforderung, die eindeutig die Abdeckung der vollständigen und nicht irgendeiner Bandbreite forderte. In der Genehmigung für den Szenariorahmen 2015 wird die gesetzliche Anforderung zunächst zitiert. Nach Ausführungen zum Wahrscheinlichkeitskriterium wird dann lapidar behauptet: „Die vorgegebene Ausgestaltung der Szenarien wird diesen Anforderung [sic!] gerecht.“ (Bundesnetzagentur, 2014, S. 57)

Voigt: Wie viele Szenarien brauchen wir? | 17

• „ein Konzept für ein sich an konkreten Netzbelastungssituationen orientierendes Einspeisemanagement von Windenergieanlagen onshore“ (Bundesnetzagentur, 2013, S. 4). In der vierten Runde wurde auf weitere Sensitivitätsanalysen für Szenario B verzichtet. Stattdessen wurden nun zwei Varianten von Szenario B in den Szenariorahmen aufgenommen, sodass nun erstmals vier Szenarien für die Zukunft in zehn Jahren (und damit mehr als gesetzlich erforderlich) modelliert wurden: Variante B1 entsprach weiterhin dem bisherigen Szenario B. Variante B2 wurde zusätzlich durch die Nebenbedingung ergänzt, dass die CO2 -Minderungsziele der Bundesregierung in diesem Szenario erreicht werden müssen. Obwohl auch dies gesetzlich gefordert worden war, hatten die Szenarien die Erreichung dieses klimapolitischen Ziels bisher nicht als Zielbestimmung enthalten. Die erneute Bestätigung dieser Ziele durch die Bundesregierung machte deswegen eine Erweiterung des Szenariorahmens notwendig (Bundesnetzagentur, 2014, S. 57). In der fünften Runde wurde der Zeitrahmen des Szenariorahmens verändert: in den drei Szenarien A, B 2030 und C wurde nun die Zukunft in 15, statt in zehn Jahren modelliert, um den NEP mit der europäischen Planung zu harmonisieren (dazu war zuvor das EnWG geändert worden). Damit reduzierte die BNetzA die Zahl der Szenarien wieder auf insgesamt vier (zusammen mit dem Szenario B 2035) mit der Begründung, „da sie die Erstellung von mehr als vier Szenarien eher als Ausnahme ansieht.“ (BNetzA, 2016b, S. 70). In der Konsultation hatte die BNetzA erneut um Anregungen für zusätzliche Sensitivitätsanalysen gebeten (Bundesnetzagentur, 2016a, S. 18).3 In

3

Das EnWG verlangt neben den mindestens drei Szenarien für das Energiesystem in zehn Jahren (beziehungsweise seit 2015 zehn bis fünfzehn Jahren), auch noch mindestens ein Szenario für das Energiesystem in zwanzig Jahren (beziehungsweise seit 2015 fünfzehn bis zwanzig Jahren). Die Szenariorahmen von 2011 bis 2013 enthielten deswegen insgesamt vier Szenarien. Dabei wurde jeweils das Szenario B fortgeschrieben (sodass es im NEP 2012 z.B. ein Szenario B 2022 und ein Szenario B 2032 gab). In 2014 wurden beide Varianten von Szenario B fortgeschrieben, sodass der Szenariorahmen nun insgesamt sechs Szenarien enthielt. In diesem Aufsatz wird es nur um die Frage gehen, wie sich die wahrscheinlichen Entwicklungen des Energiesystems in zehn Jahren „abdecken“ lassen. Es wird also nur um die drei, beziehungsweise vier Szenarien für diesen Zeitraum gehen, weswegen von den zusätzlichen Szenarien hier nicht die Rede war. Alle hier vorgebrachten Kritikpunkte gelten aber natürlich umso mehr für die Modellierung der wahrscheinlichen Entwicklungen in fünfzehn (beziehungsweise zwanzig) Jahren, da hier die Bandbreite wahrscheinlicher Entwicklungen noch größer sein dürfte.

18 | Die Energiewende und ihre Modelle

der Genehmigung wurden letztlich jedoch keine weiteren Sensitivitätsanalysen mehr in Auftrag gegeben (Bundesnetzagentur, 2016b, S. III–IV). Die Vorgehensweise der Bundesnetzagentur ist in vielerlei Hinsicht wegweisend für die Öffentlichkeitsbeteiligung in großen deutschen Planungsvorhaben: • Der Gesetzgeber hat bewusst eine frühzeitige Beteiligung vorgesehen, um spätere Konflikte und Verzögerungen durch Proteste möglichst zu vermeiden und die Akzeptanz zu erhöhen. Bereits der Szenariorahmen wurde zur Konsultation gestellt, nicht nur die Modellierungsergebnisse, die aus diesen Rahmenannahmen abgeleitet werden. • Der Planungs- und Beteiligungsprozess ist iterativ angelegt, sodass es der BNetzA möglich ist, auf unvorhergesehene Entwicklungen zu reagieren und Korrekturen vorzunehmen. Zudem ermöglicht die Iterativität es der BNetzA, auf Einwände zu reagieren, die sie in der laufenden Runde aufgrund von Zeitund Ressourcenmangel unberücksichtigt lassen muss. Sie kann so die Arbeitslast auf mehrere Iterationen verteilen. • Dies führt zu einem intensiven, mehrjährigen Diskussionsprozess mit den Stakeholdern. Die BNetzA hat dabei Offenheit gegenüber Kritik und Bereitschaft zur Auseinandersetzung bewiesen. Auf die grundlegende methodologische Kritik von Nailis (2014), zu wenig Szenarien zu modellieren, reagierte die BNetzA z.B., indem sie diesen radikalen Alternativvorschlag in der nächsten Iteration zur Diskussion stellte. • Die BNetzA hat sich zudem bemüht, ihre Position in ihren Genehmigungen ausführlich darzulegen und zu begründen. Sie bemüht sich dabei auch um eine allgemeinverständliche Darstellung der komplexen technischen Überlegungen. • Zudem hat sie nicht nur online und schriftlich ihre Position dargelegt, sondern auch deutschlandweit eine Vielzahl von Informationsveranstaltungen veranstaltet, in denen sie der Öffentlichkeit Rede und Antwort stand. In all diesen Hinsichten fördert der Planungsprozess des Netzentwicklungsplans auf vorbildliche Weise die Qualität der fachlichen Diskussion, die Transparenz gegenüber der Öffentlichkeit und die Flexibilität der Planung gegenüber unvorhergesehenen Änderungen. Der Prozess soll hier also keineswegs rundum bemäkelt oder gar abgelehnt werden. Stattdessen wird es hier nur um einen spezifischen inhaltlichen Aspekt gehen, nämlich die Erfüllung der gesetzlichen Abdeckungsanforderung. Wie gezeigt werden soll, wird diese Bedingung durch die bisherigen Szenariorahmen nicht erfüllt.

Voigt: Wie viele Szenarien brauchen wir? | 19

Inwieweit dies der BNetzA anzulasten ist, ergibt sich aber daraus noch nicht: Erstens ist der gesetzliche Rahmen selbst von vornherein methodologisch problematisch und zu anspruchsvoll, wie sich im nächsten Teil zeigen wird. Zweitens verfügt die BNetzA nur über begrenzte Ressourcen und steht unter erheblichem Zeitdruck. Genau darauf weist sie auch selbst hin. In der Genehmigung des ersten Szenariorahmens rechtfertigte sie 2012 die Beschränkung auf drei Szenarien nicht nur, indem sie die „Abdeckung der gesamten Bandbreite wahrscheinlicher Entwicklungen“ behauptete. Sie argumentierte auch folgendermaßen: „Die Aufnahme von mehr als drei Szenarien in den Szenariorahmen ist nicht erforderlich. Es ist grundsätzlich geboten, die Anzahl der im Szenariorahmen zu genehmigenden Szenarien auf eine möglichst kleine Anzahl zu beschränken. Weiterhin ist dem Grundsatz zu folgen, lediglich so viele Szenarien in den Szenariorahmen aufzunehmen, wie es für die Ableitung belastbarere [sic!] Ergebnisse für den Netzentwicklungsplan erforderlich ist, dabei jedoch so wenige Szenarien wie möglich zu berücksichtigen. Entgegen der Forderung verschiedener Konsultationsteilnehmer werden folglich keine weiteren Szenarien aufgenommen. Für die Beschränkung auf eine möglichst kleine Zahl geeigneter Szenarien spricht ebenfalls, dass in den folgenden Prozessschritten (Markmodellierung, Netzberechnung etc.) hin zur Entwicklung eines Netzausbaubedarfs für alle aufgenommenen Szenarien umfangreiche Arbeitsschritte zu leisten sind. Die Aufnahme weiterer Szenarien führt in den nachfolgenden Arbeitsschritten zu einer Vervielfachung des Aufwandes. Dies kann mit hoher Wahrscheinlichkeit dazu führen, dass die gesetzliche Frist zur Vorlage des Entwurfs eines Netzentwicklungsplanes durch die Übertragungsnetzbetreiber nicht eingehalten werden kann. Die Aufnahme weiterer Szenarien wäre nur gerechtfertigt, wenn der zusätzliche Aufwand und die damit verbundenen Verzögerungen, zusätzlich gewonnene, relevante Erkenntnisse für die Ableitung eines Netzentwicklungsbedarfs ergeben würden. Dies ist nicht der Fall. Mit der in eine Nebenbestimmung aufgenommenen Verpflichtung zur Analyse von Variationen des Stromverbrauchs und der Jahreshöchstlast werden die wesentlichen von den genehmigten Szenarien abweichende [sic!] Entwicklungen inhaltlich abgedeckt (Vgl. hierzu II.E).“ (Bundesnetzagentur, 2011, S. 31)4

Diese Rechtfertigung der BNetzA basiert auf drei unterschiedlichen Argumenten: zusätzliche Szenarien sind i) nicht fristgerecht zu bewältigen und also unmöglich, bringen ii) keinen zusätzlichen Vorteil und sind also unverhältnismäßig, und werden iii) durch die erstellten Sensitivitätsanalysen bereits adäquat ersetzt und sind also nicht erforderlich oder überflüssig. Dieses Überflüssigkeitsargument wird in Abschnitt 5.6

4

Entsprechende Bemerkungen finden sich auch in Bundesnetzagentur (2012, S. 35) und Bundesnetzagentur (2013, S. 38f.). In der Genehmigung für den NEP 2015 fehlen diese Bemerkungen, da die BNetzA nun ja zusätzliche Szenarien in Auftrag gegeben hatte.

20 | Die Energiewende und ihre Modelle

dieses Aufsatzes widerlegt. Das Unverhältnismäßigkeitsargument basiert auf der einfachen Behauptung, bestimmte Szenarien würden keinen Erkenntnisgewinn bringen. Solche Behauptungen können in komplexen Systemen nicht getroffen werden, bevor man diese Szenarien modelliert hat, weil diese Systeme unvorhergesehene Dynamiken entwickeln können. Bleibt also das Unmöglichkeitsargument. Lässt sich die Forderung nach zusätzlichen Szenarien zurückzuweisen, indem man darauf verweist, dass ihre Berechnung die begrenzten Ressourcen übersteigen würden? Eine solche Argumentation ist unzureichend. Auch wenn Zeit und Geld für weitere Szenarien fehlen, erübrigt dies nicht die Frage, ob sich die gesetzlichen Anforderungen unter diesen Bedingungen überhaupt erfüllen lassen. Sollte dies nicht der Fall sein, dann bleibt nichts anderes übrig, als von diesen Anforderungen Abstand zu nehmen. Eine Strategie zu wählen, die das Ziel nicht erreicht, und dennoch so zu tun als würde man es erreichen, ist keine rationale Lösung. Der Verweis auf nichtideale Umstände aufgrund begrenzter Ressourcen kann also für die hier dargelegten Probleme kaum als Ausrede dienen.5 4 Auslegung der gesetzlichen Anforderung Bevor wir überprüfen können, ob das bisherige Vorgehen der BNetzA der gesetzlichen Anforderung entspricht, müssen wir aber zunächst klären, wie diese Anforderung genau zu verstehen ist. Was soll es heißen, dass die Szenarien „die Bandbreite wahrscheinlicher Entwicklungen abdecken“? Für eine Antwort brauchen wir zunächst ein genaues Verständnis, was überhaupt ein Szenario und was ein Szenariorahmen ist. Ein Szenario, das mit einem mathematischen Modell simuliert wird, besteht aus • den numerischen Annahmen für die exogenen Variablen (Eingangsvariablen), den Resultaten für die endogenen Variablen (Ausgangsvariablen), • dem mathematischen Modell selbst, das Beziehungen zwischen den exogenen und endogenen Variablen herstellt, • Modellparametern, mit denen diese Beziehungen angepasst werden können. Ein Szenariorahmen enthält für jedes simulierte Szenario die Werte für alle Eingangsvariablen des Modells. Er verortet so jedes Szenario in einem mehrdimensionalen

5

Natürlich reicht aber die methodologische Kritik allein nicht aus. Es muss auch geklärt werden, welche Auswege es gibt. Grundsätzliche Überlegungen dazu folgen im Fazit. Zunächst einmal aber müssen die Probleme selbst systematisch diagnostiziert werden.

Voigt: Wie viele Szenarien brauchen wir? | 21

Raum, dessen Dimensionen die exogenen Variablen des Modells sind. Mithilfe des mathematischen Modells und der Modellparameter (die wir im folgenden ignorieren werden) lassen sich diesen Eingangswerten dann Werte für die Ausgangsvariablen zuordnen. Die Hauptfrage dieses Aufsatzes lässt sich nun auch so formulieren: Welche und wie viele Punkte im Werteraum der Eingangsvariablen sollten wir wählen, um den gesamten Werteraum wahrscheinlicher Eingangs- und Ausgangswerte „abzudecken“? Doch diese Fomulierung ist immer noch etwas ungenau. Was heißt es, dass ein Szenario eine wahrscheinliche Entwicklung beschreiben soll? Auch wenn wir durchaus häufig im Alltag davon reden, dass etwas nicht nur möglich, sondern sogar wahrscheinlich sei, ist keineswegs klar, anhand welcher intersubjektiv überprüfbaren Kriterien wir entscheiden können, ob solche Aussagen denn auch wirklich stimmen. Nur wenn es solche Kriterien gibt, ist dieser Begriff nicht nur Teil der Umgangssprache, sondern genügt wissenschaftlichen Standards. Gibt es solche verlässlichen Kriterien? Gerade bei Aussagen über langfristige Entwicklungen in komplexen Systemen können wir nicht einfach auf der Grundlage von in der Vergangenheit beobachteten Häufigkeiten von Ereignissen statistisch auf die Wahrscheinlichkeit von zukünftigen Ereignissen schließen (wie z.B. bei einem fairen Würfel) oder einfach bisherige Tendenzen linear fortschreiben. Ebenso wenig können wir uns auf unsere Bauchgefühle oder die Bauchgefühle von ExpertInnen verlassen (auf „subjektive Wahrscheinlichkeiten“). Und auch Ergebnisse von Energiemodellen dienen (zumindest derzeit) nicht dazu, Wahrscheinlichkeitsaussagen, sondern nur dazu, Möglichkeitsaussagen zu rechtfertigen (Dieckhoff et al., 2014, S. 10ff.). Es herrscht hier die gleiche epistemische Unsicherheit wie bei Klimamodellen (Hillerbrand, 2009, 2014; Betz, 2007, 2010). Woher soll die Bundesnetzagentur also überhaupt wissenschaftlich begründete Wahrscheinlichkeitsaussagen über die Entwicklungen im deutschen Energiesystem in zehn oder zwanzig Jahren nehmen? Die gesetzliche Anforderung, solche wahrscheinlichen Entwicklungen abzudecken, müsste eigentlich von vornherein als unerfüllbar und methodologisch verfehlt zurückgewiesen werden. Doch natürlich hat die Bundesnetzagentur keine Wahl. Sie muss die gesetzliche Anforderung erfüllen. Kein Wunder, dass ihre Ausführungen zu der Frage, was denn „wahrscheinliche“ von „bloß möglichen“ Entwicklungen unterscheide, sehr vage und unbefriedigend bleiben. In der Genehmigung des ersten Szenariorahmens schrieb sie 2012 dazu folgende wenig weiterhelfende, weil größtenteils tautologische Erläuterung: „Maßstab für die Aufnahme eines Szenarios in den Szenariorahmen ist, dass es ‚wahrscheinlich‘ eintreten wird. Vor dem Hintergrund der Zielsetzung des Szenariorahmens als Grundlage für die Ableitung des Netzentwicklungsbedarfs ist ein Szenario als ‚wahrscheinlich‘ zu erach-

22 | Die Energiewende und ihre Modelle

ten, wenn es mit einer hinreichend hohen Realisierungswahrscheinlichkeit verbunden ist und somit das zu entwickelnde Stromnetz in der Zukunft den Anforderungen dieses Szenarios mit hinreichend hoher Wahrscheinlichkeit genügen muss. Eine Eingrenzung der als ‚wahrscheinlich‘ zu erachtenden Entwicklungen findet dabei durch das unter 4. behandelte Kriterium der Erfüllung der energiepolitischen Ziele der Bundesregierung statt.“ (Bundesnetzagentur, 2011, S. 34)6

Allein der letzte Satz liefert anwendbare Kriterien, bleibt aber ungerechtfertigt und unplausibel. Es ist keinesfalls von vornherein klar, dass die Erreichung politischer Ziele per se als wahrscheinlich oder dass ihre Nicht-Erreichung per se als unwahrscheinlich zu erachten ist. De facto hat sich die BNetzA auch nicht wirklich an dieses Kriterium gehalten, da sie ja in den ersten Runden (wie sie selbst zugesteht) die Erreichung der CO2 -Minderungsziele der Bundesregierung keinesfalls als wahrscheinlich behandelt hat (siehe Abschnitt 3). Dieses Kriterium zur Eingrenzung wahrscheinlicher Entwicklungen ist fragwürdig und bedürfte ausführlicher Rechtfertigung. Plausibler ist eine andere Interpretation der gesetzlichen Anforderung, nur Entwicklungen „im Rahmen der energiepolitischen Ziele“ zu berücksichtigen: Der Gesetzgeber fordert damit nicht, die Erreichung dieser Ziele für wahrscheinlich zu halten. Stattdessen sollen einfach nur Entwicklungen berücksichtigt werden, die unter der Voraussetzung wahrscheinlich sind, dass diese Ziele erreicht wurden (es geht also nur um „bedingte Wahrscheinlichkeiten“), ohne dabei über die Wahrscheinlichkeit oder Unwahrscheinlichkeit dieser Voraussetzung selbst irgendwelche Annahmen treffen zu müssen.7 Im konkreten Fall verwendet die BNetzA durchaus auch spezifischere Kriterien für die Wahrscheinlichkeit von Entwicklungen, die allerdings ungerechtfertigt bleiben. Um z.B. den wahrscheinlichen Bestand konventioneller Kraftwerke in zehn Jahren zu bestimmen, verwendet sie einfach den derzeitigen Bestand, eine durchschnittliche Laufzeit und bereits im Bau oder in der Planung befindliche Kraftwerke (Bundesnetzagentur, 2011, S. 39f.). An anderen Stellen scheint sie einfach das für wahrscheinlich zu halten, was von manchen oder den meisten für wahrscheinlich gehalten

6

Die entsprechende Stelle findet sich leicht gekürzt auch in (Bundesnetzagentur, 2012, S. 39; 2013, S. 42; 2014, S. 56; 2016b, S. 73).

7

Dieses Mißverständnis des EnWGs zeigt sich auch in der Genehmigung von 2016. Hier schreibt die BNetzA: „Ergänzend dazu [zu der einfachen Fortschreibung der aktuellen regulatorischen und gesetzlichen Lage] soll der Szenariorahmen 2017–2030 nach § 12a EnWG zugleich die Bandbreite wahrscheinlicher Entwicklungen in Bezug auf die mittel- und langfristigen energiepolitischen Ziele der Bundesregierung abdecken.“ (Bundesnetzagentur, 2016b, S. 73)

Voigt: Wie viele Szenarien brauchen wir? | 23

wird und wozu es bisher keine abweichende Meinung gibt.8 Oder sie scheint das für unwahrscheinlich zu halten, was sich schwer berechnen lässt.9 Aber warum sollte man gerade diese Kriterien akzeptieren, um wahrscheinliche von unwahrscheinlichen Entwicklungen zu unterscheiden? Um diese Kriterien zu rechtfertigen, müsste die BNetzA wiederum auf generellere Wahrscheinlichkeitsprinzipien zurückgreifen, die ihr nicht zur Verfügung stehen oder die ganz einfach unverlässlich und unplausibel sind.10 Die Demarkation beruht deswegen auf mehr oder weniger willkürlichen Setzungen. Doch diese Verrenkungen sind nur Symptome, und das grundlegende Übel liegt nicht im Vorgehen der BNetzA, sondern in den methodologischen Mängeln des gesetzlichen Rahmens selbst. Wir müssen an dieser Stelle über diesen Makel der Gesetzesgrundlage hinwegsehen, um uns auf die Frage der „Abdeckung“ eines Werteraumes durch Szenarien konzentrieren zu können. Für die weiteren Überlegungen spielt es zum Glück keine Rolle, dass eine Abdeckung des wahrscheinlichen Werteraums gefordert wird. Sie würden ebenso zutreffen, wenn es sich um einen Wer-

8

In Bezug auf den Stromverbrauch in 2020 schreibt die BNetzA: „Die Stellungnahmen aus dem Kreis der Konsultationsteilnehmer sind hinsichtlich der Erwartungen zur Stromverbrauchsentwicklung heterogen. Für die Vorgabe einer Entwicklung des Stromverbrauchs hat die Bundesnetzagentur darüber hinaus relevante wissenschaftliche Studien ausgewertet, über die im Folgenden ein kurzer Überblick gegeben werden soll [...]. Eine einheitliche und eindeutige Schlussfolgerung bezüglich der zu erwartenden Stromverbrauchsentwicklung kann aus den ausgewerteten Studien nicht abgeleitet werden. Als Grundtendenz zeigt sich aber, dass die überwiegende Zahl der Untersuchungen einen konstanten oder allenfalls moderaten Anstieg des Stromverbrauchs unterstellt oder prognostiziert und sich sinkende Verbrauchsannahmen stark an politischen Zielvorgaben orientieren. Ein auf dem Niveau von 2010 konstant verharrender Stromverbrauch ist daher aus Sicht der Bundesnetzagentur als wahrscheinliche Entwicklung im Sinne der Vorgaben des § 12a EnWG zu erachten und damit bei der Ausgestaltung der Szenarien zu berücksichtigen.“ (Bundesnetzagentur, 2011, S. 65)

9

Zum möglichen Einsatz von Load- und Demand-Side Managment (Smart Grid) schreibt die BNetzA z.B: „Beides sind mögliche aber gegenwärtig noch nicht wahrscheinliche Szenarien. All diese Maßnahmen beziehungsweise Entwicklungen lassen sich daher heute noch nicht quantifizieren. Weder eine gesicherte Verminderung der Netznutzung noch eine gesicherte Erhöhung der Transportkapazität lassen sich beziffern.“ (Bundesnetzagentur, 2011, S. 80)

10

Dies ist offensichtlich für die beiden zuletzt erwähnten Kriterien: Die Mehrheit hat keinesfalls immer recht, und auch wenn etwas nicht exakt berechenbar ist, kann es wahrscheinlich sein.

24 | Die Energiewende und ihre Modelle

teraum mit irgendeiner anderen Eigenschaft handeln würde, solange die Variablen bezüglich dieser Eigenschaft voneinander abhängen. Das Einfachste ist also, im Folgenden so zu tun, als sei mit der „Bandbreite wahrscheinlicher Entwicklungen“ im EnWG nichts anderes als die „Bandbreite relevanter Möglichkeiten“ gemeint, und anstelle von „wahrscheinlich“ einfach immer „möglich“ zu lesen.11 Aber auch wenn wir im Folgenden die genaue Bedeutung des Prädikats „wahrscheinlich“ offen lassen können, müssen wir eine Unklarheit beseitigen: Worauf genau wird dieses Prädikat angewandt? In der Genehmigung durch die Bundesnetzagentur klingt es häufig so, als ginge es nur darum, die Wahrscheinlichkeiten einzelner Annahmen im Szenariorahmen zu überprüfen. Aber die Eingangsvariablen eines Modells sind häufig nicht unabhängig voneinander; vielmehr hängt die Wahrscheinlichkeit eines Wertes oft davon ab, mit welchen Werten für die anderen Eingangsvariablen er kombiniert wurde. Gaspreise sind z.B. an Ölpreise gekoppelt. Hohe Preise für CO2 -Zertifikate verringern die Anreize, überhaupt neue Gaskraftwerke zu bauen.12 Ebenso kann sich der Ausbau von Kraftwerken einer Art (z.B. Windkraft) auf den Ausbau anderer Kraftwerksarten auswirken. Solche kausalen Zusammenhänge können manche Wertkombinationen für die Variablen des Szenariorahmens „unwahrscheinlich“ machen (oder unmöglich, gegeben unser Wissen über diese Zusammenhänge). Und solche Zusammenhänge müssen keineswegs immer linear sein (nicht alle

11

Dass etwas ‚möglich‘ sei, wird häufig so verstanden, dass es zumindest „denkbar“ sei. Dementsprechend erscheint der Begriff viel zu weit gefasst, um sinnvolle Planungen zu ermöglichen, und die Rede von „wahrscheinlichen“ Entwicklungen passender. Der Möglichkeitsbegriff kann aber auch sehr viel enger gefasst werden, und so verwende ich ihn hier. Es handelt sich dann um „relative“ oder „epistemische“ Möglichkeiten. Möglich ist etwas dann immer nur relativ zu einer Menge an Wissen, sei es unser logisches oder unser technisches Wissen. Die relevanten Möglichkeiten für die Planung des Übertragungsnetzes sind keinesfalls alle logisch denkbaren Möglichkeiten, sondern alle Möglichkeiten, die mit unserem gesamten derzeitigen Wissen widerspruchsfrei vereinbar sind. Dadurch können reine Fantasieszenarien, die physisch oder technisch Unmögliches voraussetzen, von vornherein ausgeschlossen werden. Zum Begriff „relevanter Möglichkeiten“ siehe Cacean (Abschnitt 2) in diesem Band.

12

Ein solcher Zusammenhang wird z.B. von der BNetzA in der Genehmigung für den NEP 2012 beschrieben: „Ob und welche Kraftwerksprojekte tatsächlich realisiert werden hängt neben den Investitionskosten und [sic!] insbesondere von den heutigen und zukünftigen Erwartungen der Kraftwerksbetreiber bezüglich der zukünftigen Entwicklungen von Brennstoffpreisen, CO2 -Zertifikatspreisen und Strompreisen ab.“ (Bundesnetzagentur, 2011, S. 42)

Voigt: Wie viele Szenarien brauchen wir? | 25

Beziehungen sind so simpel wie die Ölpreisbindung). Die Erhöhung der Energieeffizienz kann z.B. ab einem gewissen Punkt zu „Rebound“-Effekten führen, sodass der Energieverbrauch auf einmal wieder steigt, statt wie zuvor zu sinken. Wahrscheinlich oder unwahrscheinlich sind also aufgrund kausaler Abhängigkeiten zwischen den Variablen erst einmal immer nur ganze Szenarien, nicht einzelne Werte. Es kann mit einer „wahrscheinlichen Entwicklung“ nicht die Wertentwicklung einzelner Variablen gemeint sein, sondern nur die Wertentwicklung für alle Variablen zusammen. Die Rede von wahrscheinlichen Einzelwerten sollten wir also so verstehen, dass eigentlich von wahrscheinlichen Wertkombinationen die Rede ist: Wahrscheinliche Wertkombination: Eine Wertkombination für die exogenen Variablen eines Modells ist „wahrscheinlich“, genau dann wenn es wahrscheinlich ist, dass zum modellierten Zeitpunkt alle Werte zugleich in der Realität auftreten. Wahrscheinlicher Einzelwert: Ein Wert für eine exogene Variable eines Modells ist wahrscheinlich, genau dann wenn es eine wahrscheinliche Wertkombination für alle exogenen Variablen dieses Modells gibt, die diesen Wert enthält. Diese Interpretation ist etwas anderes, als die Rede von wahrscheinlichen Einzelwerten als eine von „bedingten Wahrscheinlichkeiten“ zu verstehen. Ein Wert für eine Variable kann „bedingt wahrscheinlich“ sein, unter der Bedingung, dass bestimmte Werte für die anderen Variablen des Modells eingetreten sind. Eine solche bedingte Wahrscheinlichkeit sagt aber noch gar nichts über die Eintrittswahrscheinlichkeit für diese Wertkombination insgesamt aus. Auch wenn ein Wert „bedingt wahrscheinlich“ relativ zu einer Wertkombination ist, kann er deswegen im hier verwendeten Sinne unwahrscheinlich sein. Im Kontext des Netzentwicklungsplans kann es nicht einfach nur um die Feststellung „bedingter Wahrscheinlichkeiten“ für Einzelwerte gehen. Denn dies könnte zu Planungen führen, die sich nach gänzlich unwahrscheinlichen Szenarien richten. Es muss um die Wahrscheinlichkeiten von Wertkombinationen gehen. Und diese Wahrscheinlichkeiten sind unbedingte, abgesehen von der gesetzlich geforderten Bedingung, dass die politischen Zielsetzungen erreicht wurden. Unsere Leitfrage muss umformuliert werden, damit das klarer wird. Sie lautet nun so: Welche und wie viele Punkte im Werteraum der Eingangsvariablen sollten wir wählen, um alle wahrscheinlichen Wertkombinationen von Eingangs- und Ausgangswerten „abzudecken“? Nun hängt alles daran, was es heißen soll, eine Wertkombination abzudecken. Ginge es um die Abdeckung von Werten einer einzelnen Wertdimension, dann wäre ein Wert einfach abgedeckt, wenn er entweder in einem Szenario des Szenariorahmens vorkommt oder wenn der Szenariorahmen sowohl ein Szenario mit einem höhe-

26 | Die Energiewende und ihre Modelle

ren als auch eines mit einem niedrigeren Wert enthält. Da es aber um die Abdeckung von wahrscheinlichen Wertkombinationen geht, reicht es nicht, einfach einen wahrscheinlichen Einzelwert an irgendeinem Punkt des Werteraums abzudecken. Denn die Wertkombination an diesem Punkt könnte unwahrscheinlich sein, während die Wertkombinationen, die sowohl diesen Wert enthalten als auch wahrscheinlich sind, unabgedeckt bleiben. Der durch die Szenarien eingegrenzte Werteraum muss alle Punkte mit wahrscheinlichen Wertkombinationen, nicht einfach nur alle wahrscheinlichen Einzelwerte umfassen. Aus der Forderung der „Abdeckung der Bandbreite wahrscheinlicher Entwicklungen“ lässt sich aber noch mehr ableiten: Man kann sie zusätzlich auch noch so verstehen, dass nur wahrscheinliche Entwicklungen abgedeckt werden sollen und keine unwahrscheinlichen Entwicklungen abgedeckt werden dürfen. Das tut die BNetzA, wenn sie ausdrücklich argumentiert, dass die modellierten Szenarien wahrscheinlich sind. Ginge es nur um die Abdeckung wahrscheinlicher Szenarien, so könnte man auch unwahrscheinliche Szenarien modellieren, die aber alle wahrscheinlichen Szenarien abdecken. Die Rede von der „Abdeckung“ ist also aus der Sicht der BNetzA auch exklusiv zu verstehen. Wir sollten zwei Abdeckungsbedingungen unterscheiden: Inklusion: Der „abgedeckte“ Werteraum sollte alle wahrscheinlichen Wertkombinationen enthalten. Exklusion: Der „abgedeckte“ Werteraum sollte keine unwahrscheinlichen Wertkombinationen enthalten. Die Bundesnetzagentur braucht eine Strategie der Szenariowahl, die gewährleistet, dass der Szenariorahmen beide Bedingungen erfüllt. 5 Warum einfache Strategien die gesetzliche Anforderung nicht erfüllen Gibt es eine einfache Strategie der Szenariowahl, die die Abdeckung wahrscheinlicher Entwicklungen (im inklusiven und exklusiven Sinn) garantiert und die sich dennoch nur auf wenige Szenarien beschränkt? Beginnen wir mit dem einfachsten aller Fälle, um das zu überprüfen: einem Modell mit nur einer einzigen Eingangsvariablen. Für diesen Fall entspricht die Strategie eines „Szenariotrichters“, wie er von der Bundesnetzagentur beschrieben wird, einfach folgender Regel: Extremwert-Regel: Verwende für jede Eingangsvariable des Modells den kleinsten und größten wahrscheinlichen Wert in einem Szenario als Eingangswert. Das ergibt im eindimensionalen Fall direkt zwei Szenarien in einem eindimensionalen Werteraum. Wenn wir die Zeitachse als weitere Dimension, und den gegenwär-

Voigt: Wie viele Szenarien brauchen wir? | 27

tigen realen Wert der Eingangsvariablen hinzufügen, erhalten wir einen zweidimensionalen Raum, in dem die drei Werte (der jetzige Wert, der zukünftige Minimal- und der zukünftige Maximalwert) mit etwas Wohlwollen wirklich eine Art „Trichter“ (ein Dreieck) bilden. Aber selbst in diesem simpelsten aller Fälle können wir uns nicht sicher sein, dass unser „Szenariotrichter“ die zwei Abdeckungsbedingungen erfüllt. Denn wir haben zwar den Raum wahrscheinlicher Werte für die Eingangsvariable, aber nicht notwendigerweise auch für die Ausgangsvariablen abgedeckt. Nehmen wir an, das Modell enthält nur eine einzige Ausgangsvariable, ordnet aber Eingangswerte auf nicht-lineare Weise Ausgangswerten zu (wie das z.B. bei Rebound-Effekten der Fall ist). Dann können wir uns nicht sicher sein, dass der kleinste wahrscheinliche Eingangswert notwendigerweise auch zum kleinsten, und der größte wahrscheinliche Eingangswert notwendigerweise auch zum größten wahrscheinlichen Ausgangswert führt. Es kann sein, dass wahrscheinliche Ausgangswerte „unabgedeckt“ bleiben, obwohl alle wahrscheinlichen Eingangswerte abgedeckt wurden und es kann sich dabei sogar um Extremwerte handeln. Allein an der Aufgabe, die erste Abdeckungsbedingung auch für die Ausgangswerte zu garantieren, scheitern schon alle im Folgenden vorgestellten Strategien der Szenariowahl. Speziell für unser Beispiel, die Netzentwicklungsplanung, könnte es allerdings sein, dass das Energiesystem so einfach gestrickt ist, dass das Modell mit linearen Zusammenhängen zwischen Eingangs- und Ausgangsvariablen auskommt. Nehmen wir einmal an, dass das der Fall ist. Selbst dann würde die Befolgung der ExtremwertRegel nicht die Erfüllung der zwei Abdeckungsbedingungen garantieren. Und zwar deswegen nicht, weil wir es nicht nur mit einer einzigen Eingangsvariablen zu tun haben. Wie der Rest dieses Abschnittes zeigen wird, sind – sobald wir es mit mehr als einer Eingangsvariable zu tun haben – einfache Auswahlstrategien wie die ExtremwertRegel nicht einmal in der Lage, die Abdeckung aller wahrscheinlichen Eingangswerte zu garantieren. 5.1 Erste Strategie: Zwei Extremszenarien Gehen wir also zum zweit-einfachsten Fall über: einem Modell mit zwei Eingangsvariablen. Erneut können wir die Extremwertregel anwenden. Wieder reichen zwei Extremszenarien (in van Notten et al. (2003, S. 433) auch „Kontrastszenarien“ oder „periphere Szenarien“ genannt), um für jede Variable jeweils den kleinsten und größten wahrscheinlichen Wert zu berücksichtigen. Das Problem ist aber nun, dass es unterschiedliche Arten gibt, diese Regel zu befolgen. Denn nun stellt sich die Frage, wie wir die Minimal- und Maximalwerte der zwei Wertdimensionen miteinander kombinieren sollen.

28 | Die Energiewende und ihre Modelle

Wir könnten einfach folgende weitere Regel befolgen: Sortier-Regel: Sortiere die Extremwerte für die Eingangsvariablen in kleinste und größte wahrscheinliche Werte und kombiniere jeweils alle diese Minimal- und Maximalwerte in zwei Szenarien. Haben wir damit die gesamte Bandbreite wahrscheinlicher Wertkombinationen für die Eingangsvariablen abgedeckt? Stellen wir uns den schlimmsten Fall vor (siehe Abbildung 2): Die kausalen Abhängigkeiten zwischen den zwei Variablen sind äußerst komplex und der Raum wahrscheinlicher Wertkombinationen sieht deswegen aus wie eine karibische Insellandschaft (oder ein Schweizer Käse). Es gibt „Inseln“ mit Flächen wahrscheinlicher Wertkombinationen, die Löcher unwahrscheinlicher Wertkombinationen enthalten und deren Grenzen konkav oder konvex gebogen sind. Ein solch „karibischer“ Werteraum mag unrealistisch erscheinen. Aber erstens gibt es, wie gesagt, auch in der Realität komplexe Zusammenhänge zwischen unterschiedlichen Eingangsvariablen. Und zweitens gilt: Wenn wir uns sicher sein wollen, dass unsere Strategie der Szenariowahl die zwei Abdeckungsbedingungen erfüllt, gleichgültig wie der Raum wahrscheinlicher Werte strukturiert ist, muss unsere Auswahlstrategie gegen alle Möglichkeiten gewappnet sein. Wie schneidet nun unsere Sortier-Regel in einem solchen Fall ab? Abbildung 2 zeigt das Ergebnis. In den zwei Extremszenarien A und C sind jeweils größte und kleinste wahrscheinliche Werte gebündelt. Offensichtlich ist eine solche Szenariowahl vollkommen verfehlt, wenn alle Inseln wahrscheinlicher Wertkombinationen abgedeckt werden sollen (erste Abdeckungsbedingung). Sie erfüllt aber auch nicht einmal die zweite Abdeckungsbedingung, weil die Linie zwischen den beiden Szenarien auch Löcher unwahrscheinlicher Wertkombinationen kreuzt und weil A und C selbst unwahrscheinlich sind. Fügen wir wieder die Zeitdimension hinzu und zeichnen wir im resultierenden (nun dreidimensionalen) Werteraum auch die beiden gegenwärtigen Werte der Eingangsvariablen ein, ergibt sich keinesfalls ein dreidimensionaler „Trichter“. Es bleibt bei einem flachen Drei- oder Viereck, das zum modellierten Zeitpunkt überhaupt keine Fläche, sondern nur eine Linie innerhalb des Werteraums „abdeckt“. Von einem „Szenariotrichter“ zu sprechen, erweist sich schon im zweit-einfachsten Fall als vollkommen irreführend: Die Sortierung von Minimal- und Maximalwerten in zwei Extremszenarien kann niemals einen mehrdimensionalen Werteraum abdecken. Mithilfe der Trichter-Metapher so zu tun als sei die Szenariowahl im mehrdimensionalen Werteraum so einfach wie im eindimensionalen Werteraum ist keine harmlose Ver-

Voigt: Wie viele Szenarien brauchen wir? | 29

y

C

y-max

B

y-min

A

x x-min

x-max

Abbildung 2: Die grauen Flächen stellen die Wertkombinationen der Variablen x und y dar, die „wahrscheinlich“ sind. Alle Kombinationen, die außerhalb dieser Fläche liegen, sind „unwahrscheinlich“. Die grau gestrichelten Linien markieren die gerade noch wahrscheinlichen Extremwerte von x und y (jeweils Maximum und Minimum). A, B und C sind drei „Szenarien“, die zusammen einen „Szenariotrichter“ bilden, weil jeweils die Minimal- und Maximalwerte in den Extremszenarien A und C kombiniert wurden. Diese Wertkombinationen sind aber selbst unwahrscheinlich und können die Fläche wahrscheinlicher Kombinationen nicht abdecken.

30 | Die Energiewende und ihre Modelle

einfachung zuliebe der Anschaulichkeit. Es ist ein grober Fehlschluss, mit dem nur allzu leicht Augenwischerei gegenüber der Öffentlichkeit betrieben werden kann.13 5.2 Zweite Strategie: Best- und Worst-Case-Szenarien Es mag offensichtlich erscheinen, dass die obige Sortierregel naiv und inadäquat ist. Wie aber wird dann in der Realität vorgegangen, wenn man Extremszenarien bildet? Häufig werden die Extremwerte danach sortiert, welche Kosten oder welchen Nutzen man sich von ihnen erwartet, also so: Evaluative Sortier-Regel: Wähle entweder a) die Wertkombinationen für die Eingangsvariablen, die für sich genommen am besten und am schlechtesten sind, oder b) die Wertkombinationen, die mutmaßlich zu den besten und zu den schlechtesten Ausgangswerten führen. Im Fall des Netzentwicklungsplans könnte man also z.B. folgendermaßen vorgehen: Wenn wir Option a) wählen, könnten wir im ersten Szenario besonders hohe Kapazitäten für erneuerbare Energien und besonders niedrige Kapazitäten für Kohlekraftwerke mit einem besonders niedrigen Energiebedarf kombinieren (wenn wir das für am Besten halten) und das im zweiten Szenario umkehren (wenn wir das für am Schlechtesten halten). Wenn wir Option b) wählen, könnten wir die Werte miteinander kombinieren, die mutmaßlich zu einem besonders großen und zu einem besonders kleinen Ausbaubedarf führen. Oder wir könnten die Werte jeweils miteinander kombinieren, die mutmaßlich zu besonders viel und besonders wenig Treibhausgasemissionen führen. Oder wir könnten die Werte jeweils miteinander kombinieren, die mutmaßlich zu besonders hohem und besonders niedrigem Wirtschaftswachstum führen. Ist das besser, als die nicht-evaluative Sortier-Regel anzuwenden? Unsere neue Strategie ist in mehrerer Hinsicht eher noch problematischer: Wie man schon an den Beispielen sieht, kann es erstens mehrere unterschiedliche relevante Bewertungsmaßstäbe geben, die miteinander in Konflikt stehen können und die sich auch nicht immer direkt auf die Modellergebnisse anwenden lassen (vielleicht gehören die Treibhaus-

13

Die Rede von „Szenariotrichtern“ ist keinesfalls eine Eigenart der Übertragungsnetzbetreiber oder der BNetzA. Es handelt sich um einen gängigen Begriff in der Literatur zur Szenariotechnik. Vgl. z.B. von Reibnitz (1987, S. 30), Mißler-Behr (2013, S. 4) oder Wilms (2006, S. 78, S. 294, S. 361). Eine ähnliche Abbildung wie in den Genehmigungen der BNetzA findet sich auch im deutschen Wikipedia-Eintrag zur Szenariotechnik (Wikipedia, 2016). Am Beispiel des NEP wird deutlich, dass diese Darstellungstradition mehr Missverständnisse erzeugen kann als sie beseitigt.

Voigt: Wie viele Szenarien brauchen wir? | 31

gasemissionen gar nicht zu den direkten Modellergebnissen, sondern müssen unter Einsatz weiterer Modelle abgeleitet werden). Es ist keinesfalls klar, wie man die Bewertungen gemäß dieser unterschiedlichen Wertmaßstäbe aggregieren kann. Zweitens ist nicht einsehbar, warum die „besten“ und „schlechtesten“ Werte gerade die sein sollten, mit denen sich alle wahrscheinlichen Wertkombinationen abdecken lassen. Schließlich hat die Wahrscheinlichkeit von Wertkombinationen nichts mit ihrem Wert für uns zu tun. Wenn wir Option b) wählen, ist schließlich drittens nicht gesichert, dass unsere Vermutungen, welche Eingangswerte in Bezug auf unsere Wertmaßstäbe zu Extremwerten führen werden, auch wirklich zutreffen (erneut tritt das Problem auf, dass komplexe Systeme sich auf nicht-lineare und unvorhersehbare Weise verhalten können). Aber nehmen wir einmal kontrafaktisch an, dass es nur einen relevanten Bewertungsmaßstab gibt, der sich direkt auf die Modellergebnisse anwenden lässt, dass die Eingangswerte linear mit den Ausgangswerten zusammenhängen und dass es einen systematischen Zusammenhang zwischen Bewertung und Wahrscheinlichkeit von Wertkombinationen gibt. Selbst in diesem Fall besitzt die Strategie immer noch alle Mängel der Extremszenarien-Strategie; denn diese Mängel treten ja, wie Abbildung 2 zeigt, allein schon deswegen auf, weil man sich auf nur zwei Szenarien beschränkt. Ganz gleich, nach welchen Kriterien man diese beiden Szenarien auswählen wird, man wird niemals gewährleisten können, dass alle wahrscheinlichen Wertkombinationen im mehrdimensionalen Werteraum der Eingangsvariablen abgedeckt wurden. 5.3 Dritte Strategie: Zwei Extremszenarien, plus Referenzszenario Im Szenariorahmen werden aber auch gar nicht nur zwei, sondern drei Szenarien ausgewählt, und dies ist auch die übliche Vorgehensweise: zwei Extremszenarien (oder „Best-Case-“ und „Worst-Case-Szenarien“) und ein „Referenzszenario“, „Trend-Szenario“, „Baseline-Szenario“, „Basis-Szenario“ oder „Business-As-UsualSzenario“ (van Notten et al., 2003, S. 433). Das dritte Szenario soll meist entweder eine „mittlere“ Entwicklung darstellen (wie im Fall des NEP) oder es stellt die Entwicklung dar, die sich ergibt, wenn alle Rahmenbedingungen so bleiben, wie sie gegenwärtig sind. Im „Szenariotrichter“ der BNetzA wird dieses mittlere Szenario durch einen besonders dicken mittleren Pfeil visualisiert. Dies ist irreführend, weil es suggeriert, dass dem mittleren Szenario eine methodologisch besondere Rolle zufällt. Das ist aber nicht der Fall: das mittlere Szenario ist nicht „wahrscheinlicher“, nur weil es in der Mitte liegt. Mittlere Werte können durchaus unwahrscheinlicher sein als extrem hohe oder niedrige Werte.

32 | Die Energiewende und ihre Modelle

Hilft uns das dritte Szenario bei der Erfüllung der gesetzlichen Anforderung? Die Ergänzung eines dritten Punktes im Werteraum der Eingangsvariablen erlaubt es prinzipiell, eine Fläche abzudecken. Dies wird allerdings genau dadurch nicht erreicht, dass wir einfach die „mittleren Werte“ für das dritte Szenario wählen, wie es in Abbildung 2 geschieht. Dann wird weiterhin nur eine Linie im zweidimensionalen Raum gezogen. Gehen wir aber einmal davon aus, wir könnten diesen dritten Punkt frei wählen. Ganz gleich, wo wir ihn hinsetzen: Wir werden in unserem Beispiel niemals alle wahrscheinlichen Wertkombinationen erfassen. Und solange Szenarien A und C bleiben, wo sie sind, werden wir auch weiterhin unwahrscheinliche Wertkombinationen mit abdecken. Dass im Netzentwicklungsplan drei, statt nur zwei Szenarien für den angeblichen „Szenariotrichter“ verwendet werden, macht die Sache also nicht viel besser. Wie schon beschrieben, wurde in der vierten Runde des NEP der Szenariorahmen um ein viertes Szenario ergänzt. Aber dieses vierte Szenario B2 enthält dieselbe Wertkombination für die Eingangsvariablen wie Szenario B1. Es unterscheidet sich nur dadurch, dass eine zusätzliche Nebenbestimmung aufgenommen wurde, die die Zuordnung von Lösungswerten für diese Eingangswerte im Modell verändert. Das zusätzliche Szenario führt nicht dazu, dass ein größerer oder auch nur ein anderer Werteraum für die Eingangsvariablen abgedeckt werden kann und also bleiben alle hier beschriebenen Probleme bestehen. 5.4 Vierte Strategie: Permutation der Extremszenarien Wie könnte man nun die Szenariotrichter-Strategie des Netzentwicklungsplans ändern, sodass sie den Unterschied zwischen einem eindimensionalen und einem mehrdimensionalen Werteraum nicht länger ignoriert? Man könnte auf folgende Idee kommen: Permutations-Regel: Wähle alle Wertkombinationen aus, die sich aus wahrscheinlichen Extremwerten zusammensetzen lassen. Statt wie vorher zwei Kombinationen der Extremwerte aus allen möglichen Kombinationen auszuwählen, nehmen wir nun einfach alle solchen Kombinationen in den Szenariorahmen auf. Wie Abbildung 3 zeigt, nehmen wir damit weiterhin in Kauf, dass wir auch unwahrscheinliche Wertkombinationen auswählen und abdecken. Denn nicht alle Extremwert-Kombinationen sind wahrscheinlich, und immer wenn es mehrere Inseln gibt oder eine Insel Löcher oder konkave oder konvexe Grenzen aufweist, ist die Exklusions-Bedingung verletzt. Immerhin können wir mit dieser Strategie aber nun gewährleisten, dass alle wahrscheinlichen Wertkombinationen abgedeckt sind. Die Inklusions-Bedingung ist erfüllt. Dafür benötigen wir aber in realistischen Fällen auch sehr viel mehr als nur drei

Voigt: Wie viele Szenarien brauchen wir? | 33

y y-max

D

C

y-min

A

B

x-min

x

x-max

Abbildung 3: Bei A, B, C und D handelt es sich um alle möglichen Kombinationen der wahrscheinlichen Extremwerte von x und y. Diese Wertkombinationen decken zwar die Flächen wahrscheinlicher Kombinationen ab, sind aber selbst alle unwahrscheinlich und decken auch große Flächen anderer unwahrscheinlicher Wertkombinationen ab. Szenarien, weil wir es mit mehr als nur zwei Eingangsvariablen zu tun haben. Selbst im Fall von nur zwei exogenen Variablen hätte man es bereits mit vier, im Fall von drei Variablen bereits mit acht, im Fall von vier Variablen bereits mit 16 Szenarien zu tun und so fort. 5.5 Fünfte Strategie: Wahrscheinliche Szenarien mit extremen Aspekten Um die Abdeckung unwahrscheinlicher Wertkombinationen zu reduzieren, könnte man nun nach allen wahrscheinlichen Wertkombinationen suchen, in denen zumindest ein Extremwert vorkommt. So hätte man gewährleistet, dass die ausgewählten Szenarien selbst alle wahrscheinlich sind und auch weniger unwahrscheinliche Szenarien abdecken. Die Strategie lautet nun also so: Extreme-Aspekte-Regel: Wähle alle wahrscheinlichen Wertkombinationen aus, die für mindestens eine Eingangsvariable einen wahrscheinlichen Extremwert enthalten. Abbildung 4 zeigt, was das in unserem zweidimensionalen Beispiel bedeuten würde. Wir benötigen in diesem speziellen Fall erneut vier Szenarien. Das ist aber nicht immer so. In einem zweidimensionalen Raum wahrscheinlicher Wertkombinationen mit vielen „Ausbeulungen“ könnte es sehr viel mehr Wertkombinationen geben, die diese Kriterien erfüllen. Und auch wenn in unserem Beispiel die Zahl der Szenarien gering bleibt, erweist sich die Auswahlstrategie keinesfalls als Erfolg: Weil es mehre-

34 | Die Energiewende und ihre Modelle

y

D

y-max C A

y-min

x

B x-min

x-max

Abbildung 4: Bei A, B, C und D handelt es sich um alle wahrscheinlichen Wertkombinationen, in denen mindestens ein Extremwert vorkommt. Mit diesen Extremszenarien kann die Fläche wahrscheinlicher Szenarien nicht vollständig abgedeckt werden. Weil außerdem die Flächen wahrscheinlicher Wertkombinationen ein „Loch“, eine „Insel“ und eine konkave „Beule“ aufweisen, werden erneut auch Flächen unwahrscheinlicher Wertkombinationen abgedeckt.

re Inseln gibt und weil eine dieser Inseln eine konkave Grenze und ein Loch besitzt, werden weiterhin auch unwahrscheinliche Szenarien mit abgedeckt. Und weil die Inseln konvexe Grenzen besitzen, bleiben wahrscheinliche Wertkombinationen außen vor. Beide Abdeckungsbedingungen sind also weiterhin verletzt. 5.6 Sechste Strategie: Ergänzung durch Sensitivitätsanalysen In Studien mit wenigen Szenarien wird manchmal versucht, der Komplexität des untersuchten Gegenstandes durch zusätzliche Sensitivitätsanalysen Herr zu werden. Da zwischen den verschiedenen Szenarien häufig mehr als nur eine Variable variiert wird, ist es schwer, aus den Ergebnissen herauszulesen, welcher Faktor welchen Einfluss auf das Ergebnis hatte. In einer Sensitivitätsanalyse werden deswegen zumindest in einem Szenario für eine Variable verschiedene Werte eingesetzt, um so mehr über den Einfluss dieser Variable auf das Gesamtsystem zu lernen.14

14

Saltelli et al. (2008) bieten folgende Definition für den Begriff der „Sensitivitätsanalyse“ an: „The study of how uncertainty in the output of a model (numerical or otherwise) can be apportioned to different sources of uncertainty in the model input.“ (S. 1)

Voigt: Wie viele Szenarien brauchen wir? | 35

y

B’’

y-max

C

B

y-min

B’

A x-min

x x-max

Abbildung 5: Neben den Extremszenarien A und C wurde in diesem Fall für das Referenzszenario B in B’ und B” eine Sensitivitätsanalyse für die Extremwerte von y vorgenommen. Auch diese Strategie kann weder alle wahrscheinlichen Wertkombinationen abdecken, noch alle unwahrscheinlichen Wertkombinationen ausschließen.

Wie in Teil 2 beschrieben, hat die BNetzA in der zweiten und dritten Runde des NEP insgesamt fünf Sensitivitätsanalysen in Auftrag gegeben. Alle diese Analysen wurden für dasselbe Szenario (das Basisszenario B) angestellt. Auf diese Weise hat die BNetzA versucht, „wahrscheinliche Entwicklungen“ mit abzudecken, die durch die bisherigen drei Szenarien nicht eingefangen werden konnten. Können durch eine derartige Strategie die Schwächen des angeblichen „Szenariotrichters“ ausgeglichen werden? Abbildung 5 zeigt einen solchen Ansatz für ein Modell mit nur zwei Eingangsvariablen. In der Tat kann durch die zusätzliche Sensitivitätsanalyse (B, B’ und B”) ein sehr viel größerer Raum abgedeckt werden als nur durch die drei Szenarien A, B und C. Das Ergebnis gleicht dem von Strategie 5: Es werden weder alle wahrscheinlichen Entwicklungen abgedeckt, noch alle unwahrscheinlichen Entwicklungen ausgeschlossen, aber dennoch passt die abgedeckte Fläche besser auf den Werteraum wahrscheinlicher Wertkombinationen als in den Strategien 1–4. Das muss aber natürlich nicht so sein, sondern ist der besonderen Form dieses Werteraums in unserem nur zweidimensionalen Beispiel geschuldet. Sobald wir es mit mehr Variablen zu tun haben, wird die Untauglichkeit dieser Methode zu Zwecken der „Abdeckung“ sehr viel deutlicher als in unserem Beispiel. Denn da nur eine Variable variiert wird, kann auch nur in diese Dimension hinein der abgedeckte Raum aufgespannt werden. In allen anderen Dimensionen bleibt es

36 | Die Energiewende und ihre Modelle

bei der durch A, B und C gezogenen Linie (vgl. Abbildung 2). Enthält das Modell viele exogene Variablen, ist eine einzelne Sensitivitätsanalyse zur Abdeckung der Bandbreite wahrscheinlicher Entwicklungen nur ein Tropfen auf einen heißen Stein. Weil Sensitivitätsanalysen erstens im Fall des Netzentwicklungsplans nur in einem Szenario und nicht über alle Szenarien hinweg angestellt werden und zweitens nur für eine Variable oder einige wenige Variablen und nicht für alle Variablen angestellt werden, können sie eine Abdeckung aller wahrscheinlichen Entwicklungen nicht gewährleisten. Werden sie zu diesem Zweck angewandt, handelt es sich um halbherzige Lösungen. Stattdessen sollten sie nur für den Zweck eingesetzt werden, zu dem sie auch gedacht sind: nicht zur vollständigen Abdeckung eines mehrdimensionalen Werteraums, sondern zur Untersuchung der kausalen Rollen einzelner Größen im System. Was wäre, wenn man alle Variablen in allen Szenarien systematisch variieren würde? Die abgedeckte Fläche entspräche dann der Fläche in Abbildung 3, zumindest wenn man in allen Szenarien dieselbe Bandbreite von Werten für die Variablen einsetzt und dadurch auch unwahrscheinliche Extremszenarien durchrechnen würde. Anders wäre es, wenn man für alle Szenarien alle Variablen systematisch durchvariieren würde und dabei berücksichtigen würde, dass nicht alle wahrscheinlichen Einzelwerte beliebig zu wahrscheinlichen Wertkombinationen zusammengesetzt werden können. Mit dieser Methode hätte man wirklich den gesamten Raum wahrscheinlicher Wertkombinationen abgedeckt. Aber natürlich würde es sich nicht länger um „Sensitivitätsanalysen“ im eigentlichen Sinne handeln. Stattdessen hätte man nun nicht länger unter allen wahrscheinlichen Szenarien einige wenige ausgewählt, sondern ganz einfach alle von ihnen in den Szenariorahmen aufgenommen und den gesamten Werteraum durchgerechnet. Nach all den Misserfolgen mit einfacheren Strategien der Szenariowahl scheint dies wirklich die einzig Erfolg versprechende Strategie zu sein, um die gesamte Bandbreite wahrscheinlicher Entwicklungen abzudecken. Die Frage ist aber, ob eine solche Strategie überhaupt machbar ist. 5.7 Siebte Strategie: konsistente, kontrastreiche und intuitive Szenarien Nailis (2014) kritisierte das Vorgehen der BNetzA bereits stark. Allerdings nicht dafür, dass die Szenarien die Bandbreite wahrscheinlicher Entwicklungen nicht abdecken. Stattdessen wurde unter anderem kritisiert, dass die Szenarienbildung eine „Blackbox“ sei, dass auf Konsistenz höchstens „implizit“ geachtet werde und dass am Ende die Planung nur auf Grundlage des Referenzszenarios geschehe, statt auch die anderen beiden Szenarien zu beachten (Nailis, 2014, S. 8f.). Nailis selbst geht in seinem eigenen Vorschlag sehr viel systematischer vor: Zunächst werden Einflussfaktoren identifiziert und ihre gegenseitigen Abhängigkeiten bestimmt. Dann werden un-

Voigt: Wie viele Szenarien brauchen wir? | 37

terschiedliche „Projektionen“ (Prognosen) für diese Einflussfaktoren unterschieden, wobei sich allerdings auf nur jeweils zwei beschränkt wird und keine Extremwerte gewählt werden. Es gehe nicht um einen „Stresstest“, sondern darum, „eine realistische Bandbreite der möglichen und wahrscheinlichen zukünftigen Entwicklungen“ (ebd., S. 22) darzustellen. Diese unterschiedlichen Ausprägungen werden dann zu Szenarien kombiniert. Aus der unüberschaubaren Vielzahl der möglichen Kombinationen wird nun nach drei Kriterien ausgewählt: nach Konsistenz (die auf Grundlage der zuvor bestimmten Abhängigkeiten überprüft wird), nach Kontrastreichtum und nach Plausibilität aus Sicht von ExpertInnen (ebd., S. 6, S. 35). Die Kriterien werden so lange angewandt, bis schließlich nur noch vier Szenarien übrig bleiben. Dieses Vorgehen hat viele Vorteile: Es ist transparenter, systematischer und besser gerechtfertigt als das Vorgehen der BNetzA. Es nimmt zumindest seinen Ausgang von allen möglichen Kombinationen der für wahrscheinlich gehaltenen Werte, auch wenn es diese Vielzahl letzten Endes stark reduziert. Und es berücksichtigt den Unterschied zwischen für sich genommen wahrscheinlichen Einzelwerten und wahrscheinlichen (konsistenten) Wertkombinationen. Doch trotz all dieser Vorteile erfüllt auch dieses Vorgehen nicht die gesetzlichen Vorgaben und ist methodologisch nicht einwandfrei. Erstens wird die Zahl der untersuchten Eingangswerte von vornherein eng beschränkt, sodass Extremwerte nicht berücksichtigt werden. Aufgrund der in Abschnitt 4 genannten Probleme bleibt die Auswahl zwischen „wahrscheinlichen“ und „unwahrscheinlichen“ Möglichkeiten intransparent und ist epistemologisch letztlich nicht zu rechtfertigen. Für unwahrscheinlich gehaltene Entwicklungen mit möglicherweise katastrophalen Folgen werden so von vornherein ignoriert, was die Anwendung des Vorsorgeprinzips unmöglich macht. Zweitens ist von vornherein vorausgesetzt, dass am Ende nur wenige Szenarien übrig bleiben dürfen, ganz gleich wie komplex das abzubildende System ist. Diese Zahl der Szenarien entscheidet sich nicht systematisch danach, wie viele Szenarien benötigt werden, um die „gesamte Bandbreite wahrscheinlicher Entwicklungen“ abzudecken. Stattdessen geht es nur darum, dass sich die Szenarien „stark genug voneinander unterscheiden“ und dass sie aus der Sicht von ExpertInnen „intuitiv plausibel“ erscheinen. Letzteres ist problematisch, weil sich die Intuitionen von ExpertInnen in Bezug auf langfristige Entwicklungen im Energiesystem keinesfalls als verlässlich erwiesen haben. Ersteres ist problematisch, weil in komplexen Systemen mit nicht-linearen Zusammenhängen auch kleine Veränderungen in den Eingangswerten zu großen Veränderungen in den Ausgangswerten führen können. Die geringe Zahl der Szenarien, der Verzicht auf Extremszenarien und die fehlende Auseinandersetzung damit, was es bedeuten würde, die gesamte Bandbreite, statt nur eine Bandbreite wahrscheinlicher Entwicklungen abzudecken, führen dazu, dass

38 | Die Energiewende und ihre Modelle

der vorgeschlagene Ansatz die inklusive Abdeckungsbedingung nicht beachtet und also nicht beanspruchen kann, alle wahrscheinlichen Szenarien abgedeckt zu haben. Wie ist es mit der exklusiven Abdeckungsbedingung? Zwar werden alle inkonsistenten Szenarien bei der Szenariowahl ausgesiebt. Das heißt aber nicht, dass die gewählten Szenarien keine inkonsistenten und also unwahrscheinlichen Szenarien mit abdecken. Der Raum wahrscheinlicher Wertkombinationen kann Löcher oder konkave Kurven aufweisen, die durch die gewählten Szenarien mit abgedeckt werden. Das mag aus Sicht der AutorInnen kein großes Problem sein, weil sie sowieso nicht an die Erfüllung der gesetzlichen Vorgaben aus dem EnWG gebunden sind. Für die BNetzA ist diese Strategie deswegen aber kein Ausweg aus der hier diagnostizierten Misere. 6 Fazit Fassen wir noch einmal die Ergebnisse zusammen: Die „gesamte Bandbreite wahrscheinlicher Entwicklungen“ abdecken zu wollen, ist zunächst einmal methodologisch unseriös, weil es keine wissenschaftlichen Methoden gibt, die Wahrscheinlichkeit von Ereignissen in komplexen Systemen für die ferne Zukunft zu ermitteln. Es ist nur möglich, relevante Möglichkeiten zu identifizieren. Unabhängig davon lässt sich bei komplexen Modellen die Bandbreite wahrscheinlicher (oder möglicher) Entwicklungen nicht durch die Beschränkung auf Extremszenarien abdecken, weil nicht voraussehbar ist, welche Eingangswerte extreme Ergebniswerte erzeugen. Soll nur die gesamte Bandbreite wahrscheinlicher Eingangswerte abgedeckt werden, so reichen zwei Extremszenarien schon bei zwei exogenen Variablen nicht mehr aus. Auch die Hinzunahme eines mittleren Referenzszenarios oder die Auswahl von Best-Caseund Worst-Case-Szenarien ist ungeeignet, diese Probleme zu beseitigen. Alle Szenarien zu berücksichtigen, die sich durch die beliebige Kombination von Extremwerten ergeben, ist häufig inadäquat, weil diese reinen Extremwertkombinationen häufig selbst unwahrscheinlich sind oder unwahrscheinliche Kombinationen mit abdecken. Würde man stattdessen alle wahrscheinlichen Szenarien berücksichtigen, in denen mindestens ein Minimal- oder Maximalwert vorkommt, würde man sich zwar weniger unwahrscheinliche Wertkombinationen einhandeln, dafür aber auch weniger wahrscheinliche Wertkombinationen. Die Hinzufügung von Sensitivitätsanalysen führt zu ähnlichen Mängeln. Dieses Instrument ist für die Untersuchung der kausalen Rolle einzelner Faktoren entwickelt worden und sollte nicht zweckentfremdet werden. Systematischere Methoden der Szenariowahl, die auf Interdependenzen achten und aus allen möglichen Wertkombinationen inkonsistente Kombinationen aussortieren, können das Problem ebenfalls nicht lösen, wenn sie am Ende mithil-

Voigt: Wie viele Szenarien brauchen wir? | 39

fe zusätzlicher Kriterien so lange Szenarien aus der Szenariovielfalt aussieben, bis nur noch einige wenige übrig bleiben. Sind das alle Möglichkeiten der Szenariowahl, folgt daraus: Solange die „Abdeckung“ nicht dazu führen soll, dass extreme Ergebniswerte unberücksichtigt bleiben, unwahrscheinliche Entwicklungen als wahrscheinlich oder wahrscheinliche Entwicklungen als unwahrscheinlich behandelt werden, lässt sich die Anforderung, die „gesamte Bandbreite wahrscheinlicher Entwicklungen“ abzudecken, nicht durch die Auswahl einiger weniger Szenarien erfüllen, ganz gleich welche Strategie der Szenariowahl man verwendet. Diese Abdeckung würde in Wahrheit erfordern, alle wahrscheinlichen Wertkombinationen zu überprüfen. Dieses Ergebnis bleibt auch dann bestehen, wenn sich zeigen sollte, dass dies praktisch nicht machbar ist. Hinzu kommt, dass die Werte des Szenariorahmens sich gar nicht auf wissenschaftlich seriöse Weise als wahrscheinliche Entwicklungen, sondern nur als relevante Möglichkeiten rechtfertigen lassen. Eine Demarkation von wahrscheinlichen und unwahrscheinlichen Entwicklungen führt letztlich immer zu intransparenten Adhoc-Entscheidungen, die rationaler Kritik unzugänglich sind. Ein systematisches und transparentes Vorgehen würde deswegen erfordern, die gesamte Bandbreite aller relevanten Möglichkeiten abzudecken. Diese Erkenntnisse sind keinesfalls nur von „rein philosophischem Interesse“. Aus drei Gründen sind sie von hoher praktischer Relevanz. Erstens: Eine mangelhafte Methodik der Szenariowahl, die wichtige relevante Möglichkeiten (oder „wahrscheinliche Entwicklungen“) ignoriert, kann zu gravierenden Fehlplanungen führen. Dasselbe gilt für eine Methodik, die sich nach unmöglichen („unwahrscheinlichen“) Entwicklungen richtet. Zweitens: Selbst wenn wir Glück haben und die methodologischen Mängel nicht zu Fehlentscheidungen führen, sondern rein zufällig alles glattgeht, werden die methodologischen Mängel im Entscheidungsprozess die demokratische Legitimität der Entscheidungen beeinträchtigen. Die Rechtfertigungen dieser Entscheidungen setzen nämlich fälschlicherweise voraus, die Entscheidungen ließen sich methodologisch einwandfrei aus dem wissenschaftlichen Zukunftswissen ableiten und dadurch legitimieren. Die durch diese Schein-Wissenschaftlichkeit geschaffene Akzeptanz für die Entscheidungen basiert auf Fehlinformation und kann also keine legitimierende Funktion im politischen System erfüllen.15

15

Auch einfache generelle Disclaimer, die davor warnen, Szenarien als deterministische Voraussagen misszuverstehen, können diese Rechtfertigungslücke weder beheben, noch reichen sie aus, um eine kritische Debatte über Unsicherheiten zu ermöglichen. Denn damit wird ja nur gefordert, dass man nicht einzelne Szenarien für sich betrachten sollte, sondern

40 | Die Energiewende und ihre Modelle

Drittens: Es bleibt zu hoffen, dass diese Mängel der Öffentlichkeit auf lange Sicht nicht verborgen bleiben. Zumindest kritische ExpertInnen in Forschungsinstituten oder Nichtregierungsorganisationen sind sich schon jetzt ihrer bewusst, wie Nailis (2014) gezeigt hat. Langfristig könnte aber dieses Bewusstsein eines epistemologischen Legitimationsdefizits in der Öffentlichkeit zu Vertrauensverlust und Zynismus führen, sowohl gegenüber dem demokratischen Entscheidungsprozess als auch gegenüber dem Wissenschaftsbetrieb. Auch dies sind gravierende Schäden, die nicht nur PhilosophInnen interessieren sollten. Welche praktischen Konsequenzen sind also aus diesen methodologischen Überlegungen zu ziehen? Wie in Abschnitt 3 dargelegt, sind der Planungsprozess und die Rolle der BNetzA in diesem Prozess in vielerlei Hinsicht vorbildlich. Die methodologische Kritik sollte nicht dahin gehend missverstanden werden, dass hier gegen den Prozess an sich argumentiert werden würde. Zudem gilt es, wie ebenfalls bereits betont, die institutionellen Zuständigkeiten und beschränkten Ressourcen der BNetzA nicht außer Acht zu lassen. Es kann also auch nicht darum gehen, alle methodologischen Mängel direkt der BNetzA anzulasten. Mindestens aber sollte die BNetzA ihre Methode systematischer und grundlegender reflektieren und rechtfertigen, als sie dies bisher tut. Der einfache Verweis auf den „Szenariotrichter“ reicht nicht aus, um die Erfüllung der gesetzlichen Anforderung methodologisch zu rechtfertigen. Darüber hinaus sollte die Praxis der Netzentwicklungsplanung aber ganz einfach nicht im direkten Konflikt mit dem Wortlaut des EnWG stehen. Es gibt zwei Möglichkeiten, um das zu verhindern: Wenn es bei der gesetzlichen Anforderung bleiben soll, dann muss sich die angewandte Methodik ändern. Soll es bei der angewandten Methodik bleiben, so muss sich die gesetzliche Anforderung ändern. Während im ersten Fall die BNetzA gefragt ist, muss im letzteren Fall der Gesetzgeber in Aktion treten. Denn in diesem Fall müsste das EnWG geändert werden, sodass nur noch das gefordert wird, was auch geleistet werden kann: die Modellierung einiger weniger Entwicklungen, von denen wir wissen, dass sie keinesfalls die gesamte Bandbreite wahrscheinlicher Entwicklungen abdecken. Und es dürfte nicht länger gefordert werden, dass diese Entwicklungen wahrscheinlich zu sein haben, sondern nur, dass es sich um relevante Möglichkeiten handelt. Das gesetzlich zu fordern, entspräche zwar der bisherigen Praxis der BNetzA, sodass diese in Bezug auf den Szenariorahmen so weitermachen könnte wie bisher. Es wäre aber schwierig, auf der Grundlage solch beschränkter und unsicherer Erkenntnisse den Netzausbau transparent, systematisch und verantwortungsvoll zu rechtferti-

nur im Kontext eines Szenarien-Ensembles. Die hier geäußerte Kritik bezieht sich aber auf die Betrachtung solcher Ensembles und wird also durch diese Disclaimer nicht abgedeckt.

Voigt: Wie viele Szenarien brauchen wir? | 41

gen und zu planen. In Bezug auf diese Rechtfertigungslücke wäre die BNetzA vor erhebliche Herausforderungen gestellt. Stellt sie sich diesen Herausforderungen offen, dann könnte sie nicht mehr behaupten, dass ihre Entscheidung auf wissenschaftlich solidem Fundament stehe oder sich mehr oder weniger direkt aus den wissenschaftlichen Erkenntnissen ableiten lasse (gegeben die politischen Zielsetzungen). Gegenüber Alternativvorschlägen oder den Einwänden der Stakeholder könnte die getroffene Wahl der Szenarien kaum mehr argumentativ überzeugend verteidigt werden. Bleibt also die erste Option: Was das EnWG in seiner derzeitigen Form erfordert, wäre die systematische Variation aller Variablen, sodass alle mit unserem derzeitigen Wissen zu vereinbarenden (und in diesem Sinne „möglichen“) Wertkombinationen als Szenarien in den Szenariorahmen aufgenommen werden. Das Gesetz könnte unverändert bleiben (auch wenn es methodologisch sauberer wäre, die Rede von „wahrscheinlichen Entwicklungen“ ganz zu streichen und nur noch die Untersuchung „relevanter Möglichkeiten“ zu fordern). Aber die ModelliererInnen hätten nun sehr viel mehr Arbeit als zuvor, weil sehr viel mehr Szenarien als nur drei oder vier berechnet werden müssten. Ebenso wäre die Auswertung der Modellierungsergebnisse aufwändiger als zuvor. Dieser Aufwand lässt die erste Option unrealistisch erscheinen. Die Zeit drängt und die Ressourcen sind begrenzt. Wie sollten die BNetzA und die Übertragungsnetzbetreiber diese Aufgabe bewältigen können? Während die zweite Option ein Rechtfertigungsproblem hat, weil sie nicht alle Möglichkeiten abdeckt, besitzt die erste Option ein Machbarkeitsproblem, eben weil sie alle Möglichkeiten abdeckt. Vor diesem Dilemma gibt es kein Entkommen. Es zu verleugnen und so zu tun, als könne man alle relevanten Möglichkeiten mit nur drei, vier Szenarien abdecken, ist keine Lösung. Zumindest dies sollte die BNetzA offen eingestehen, ohne die Öffentlichkeit länger in falscher Planungssicherheit zu wiegen. Danksagung Dieser Text wurde mehrfach in verschiedenen Vorfassungen in der LOBSTER-Forschungsgruppe präsentiert und diskutiert. Für die intensive Diskussion und die vielfachen Anregungen möchte ich mich bei allen TeilnehmerInnen bedanken, insbesondere bei Gregor Betz, Sebastian Cacean und Christian Dieckhoff. Literatur Betz, Gregor (2007): Probabilities in Climate Policy Advice: A Critical Comment. In: Climatic Change 85 (1), S. 1–9.

42 | Die Energiewende und ihre Modelle

—— (2010): What’s the Worst Case? The Methodology of Possibilistic Prediction. In: Analyse & Kritik 32 (1), S. 87–106. Bundesnetzagentur (2011): Genehmigung des Szenariorahmens für den Netzentwicklungsplan 2012 - Az.: 8121- 12/Szenariorahmen 2011. —— (2012): Genehmigung des Szenariorahmens für den Netzentwicklungsplan 2013 - Az.: 6.00.03.04/12-11- 30/Szenariorahmen 2012. —— (2013): Genehmigung des Szenariorahmens für den Netzentwicklungsplan 2014 - Az.: 6.00.03.05/13-08- 30/Szenariorahmen 2013. —— (2014): Genehmigung des Szenariorahmens für den Netzentwicklungsplan 2015 Az.: 6.00.03.05/14-12- 19/Szenariorahmen 2025. —— (2016a): Begleitdokument Szenariorahmen 2030. —— (2016b): Genehmigung des Szenariorahmens für den Netzentwicklungsplan 2017 Az.: 8573-1-1/16-06-30/Szenariorahmen 2017-2030. Dieckhoff, Christian, Hans-Jürgen Appelrath, Manfred Fischedick, Armin Grunwald, Felix Höffler, Christoph Mayer und Wolfgang Weimer-Jehle (2014): Zur Interpretation von Energieszenarien. München: Deutsche Akademie der Technikwissenschaften. EnWg (2005a): Energiewirtschaftsgesetz vom 7. Juli 2005 (BGBl. I S. 1970, 3621), das durch Artikel 2 Absatz 3 des Gesetzes vom 21. Dezember 2015 (BGBl. I S. 2498) geändert worden ist. —— (2005b): Energiewirtschaftsgesetz vom 7. Juli 2005 (BGBl. I S. 1970, 3621) in der Fassung vom 26.07.2011 BGBl. I, S. 1554. Hillerbrand, Rafaela (2009): Epistemic Uncertainties in Climate Predictions: A Challenge for Practical Decision Making. In: Intergenerational Justice Review 9 (3), Issue Topic: Climate Change and Intergenerational Justice, S. 95–101. —— (2014): Climate Simulations: Uncertain Projections for an Uncertain World. In: Journal for General Philosophy of Science 45 (1), S. 17–32. Mißler-Behr, Magdalena (1993): Methoden der Szenarioanalyse. Wiesbaden: DUV. Nailis, Dominic (2014): Methoden der Netzentwicklung – Methodischer und quantitativer Vorgehensvorschlag zur Weiterentwicklung der Planung des Übertragungsnetz-Ausbaus. Online: https://www.agora-energiewende.de/file admin/Projekte/2013/methoden-der-netzentwicklung/Agora _BET_Methoden_der_Netzentwicklung__Final_Vorabfassung. pdf. Saltelli, Andrea, Marco Ratto, Terry Andres, Francesca Campolongo, Jessica Cariboni, Debora Gatelli, Michaela Saisana und Stefano Tarantola (2008): Global Sensitivity Analysis: The Primer. Hoboken, NJ: John Wiley & Sons.

Voigt: Wie viele Szenarien brauchen wir? | 43

Van Notten, Philip W., Jan Rotmans, Marjolein B. van Asselt und Dale S. Rothman (2003): An Updated Scenario Typology. In: Futures 35 (5), S. 423–443. Von Reibnitz, Ute (1987): Szenarien – Optionen für die Zukunft. Hamburg: McGrawHill. Wikipedia (2016): Szenariotechnik. Page Version ID: 150051494. Wilms, Falko E. P. (2006): Szenariotechnik: Vom Umgang mit der Zukunft. Bern: Haupt. Alle zuvor genannten Internetadressen waren am 18.08.2016 erreichbar.

Die Begründung relevanter Möglichkeiten durch idealisierte Modelle Sebastian Cacean

1 Einleitung Die Umgestaltung des Energiesystems stellt unsere Gesellschaft vor große Herausforderungen. PolitikerInnen müssen über weitreichende Maßnahmen entscheiden, um anvisierte ambitionierte Ziele zu erreichen, wie beispielsweise die Dekarbonisierung unseres Energiesystems. Für eine rationale Entscheidungsfindung ist es sicherlich wünschenswert, bedingtes prognostisches Wissen über die Zukunft zu besitzen. Wüssten wir mit Sicherheit, wie die Folgen unserer Handlungsalternativen aussähen, sollten wir, vereinfacht ausgedrückt, diejenigen Maßnahmen ergreifen, mit denen unsere Ziele erreicht werden und die vergleichsweise wenig negative Nebenwirkungen besitzen. Aufgrund der hohen Komplexität des Energiesystems ist unser Zukunftswissen jedoch viel beschränkter. Wie sich die Zukunft in Abhängigkeit von heutigen Entscheidungen entwickelt, hängt selbst von Dingen ab, über die wir weder prognostisches noch probabilistisches Wissen besitzen. Das heißt allerdings nicht, dass die nächstbeste Alternative einer rationalen Entscheidungsfindung der Münzwurf ist. Energieszenarien, erstellt mit Hilfe komplexer Modelle, sollen EntscheidungsträgerInnen Handlungsorientierung bieten, indem sie mögliche Auswirkungen bestimmter Entscheidungen aufführen. ModelliererInnen heben bewusst hervor, dass ihre Szenarien nicht als Prognosen missverstanden werden sollten, und verstehen sie grob als Beschreibung unseres Energiesystems zu einem festen Zeitpunkt in der Zukunft oder als Beschreibung eines Entwicklungspfades hin zu einem festen Zeitpunkt in der

46 | Die Energiewende und ihre Modelle

Zukunft, von denen jeweils behauptet wird, dass sie möglich sind.1 Gemäß diesem Selbstverständnis entspricht einem Energieszenario also eine Möglichkeitsaussage über eine zukünftige Entwicklung beziehungsweise über einen zukünftigen Zeitpunkt. An diese grobe Beschreibung der Rolle von Energieszenarien schließen sich zwei wichtige Fragen an. Zum einen die Frage nach der Rolle der entsprechenden Möglichkeitsaussagen bei der Entscheidungsfindung und zum anderen die Frage nach dem Verhältnis zwischen den Möglichkeitsaussagen und den Modellen, mit deren Hilfe die Szenarien erstellt werden. Im Folgenden gehe ich bezüglich dieser beiden Fragen davon aus, dass einerseits im Kontext von Energieszenarien typischerweise der Anspruch erhoben wird, mit Hilfe von Modellen die entsprechenden Möglichkeitsaussagen zu begründen, und dass andererseits mit Hilfe der Möglichkeitsaussagen Handlungsempfehlungen begründet werden (vgl. Abbildung 1).2 Um zu prüfen, ob man diesem Anspruch überhaupt gerecht werden kann, sollte man versuchen, sich bezüglich der folgenden beiden Fragen Klarheit zu verschaffen: 1. Kann man mit Modellen Möglichkeitsaussagen begründen und, wenn ja, unter welchen Bedingungen? 2. Kann man mit Möglichkeitsaussagen Handlungsempfehlungen begründen und, wenn ja, unter welchen Bedingungen?

1

Typische Formulierungen finden sich meist in den Einleitungen. Beispielsweise die Ausführungen in der Energy Roadmoap 2050 der Europäischen Kommission: „The Commission has carried out an analysis of possible future developments in a scenario of unchanged policies [...] The Reference scenario is a projection, not a forecast, of developments in the absence of new policies [...]“ (EC, 2011, S. 13, Hervorhebung SC). Leider wird dieser Anspruch nicht immer konsequent durchgehalten und es passiert, dass trotz solcher Erläuterungen in diesen Berichten dann doch wieder stärkere Aussagen an anderen Stellen formuliert werden. Vgl. die Ausführungen von Pissarskoi in diesem Band.

2

Dieser Anspruch ist nicht alternativlos. Ein bescheidenerer Anspruch wäre es, Modelle dazu zu benutzen, Szenarien lediglich zu formulieren, ohne dass mit den Modellen die entsprechenden Möglichkeitsaussagen gleich begründet werden. Sie hätten dann erst einmal hypothetischen Charakter (vgl. Betz, 2010, S. 97–98). Ebenso könnte man davon absehen, die Rede von Handlungsorientierung gleich so stark zu interpretieren, dass damit die Möglichkeit der Begründung von Handlungsempfehlungen gemeint sein soll. Konsequenterweise muss man dann jedoch alternative Erläuterungen angeben, was unter ‚Handlungsorientierung‘ zu verstehen ist.

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 47

Modell begr¨ undet

M¨ oglichkeitsaussage begr¨ undet

Handlungsempfehlung Abbildung 1: Zweifacher Begründungsanspruch

Diese methodologischen Fragen sind nicht nur von akademischem Interesse. Der unterstellte Begründungsanspruch orientiert sich an der gängigen Praxis der Energiesystemmodellierung3 im Kontext der Politikberatung. Viele Studien werden von EntscheidungsträgerInnen in Auftrag gegeben und mit der Intention erstellt, Handlungsorientierung für die politische Praxis bereitzustellen. Oft werden in den Studien selbst Handlungsempfehlungen unter Rückgriff auf Modellierungsergebnisse formuliert. Für die Beantwortung dieser beiden Fragen scheint es unumgänglich zu sein, die Rede von Möglichkeiten angemessen zu präzisieren. Der Begriff der Möglichkeit ist so vage, dass je nach Interpretation desselben die Fragen in die eine oder andere Richtung beantwortet werden können. Im Kontext von Energieszenarien ergibt sich nun die folgende Spannung: Präzisiert man den Möglichkeitsbegriff derart, dass es zumindest prinzipiell möglich ist, mit den Möglichkeitsaussagen Handlungsempfehlungen zu begründen, ist nicht mehr klar, wie man diese Möglichkeitsaussagen mit Hilfe der verwendeten Modelle begründen kann. Eine positive Beantwortung der zweiten Frage führt also dazu, dass man in Schwierigkeiten gerät, die erste Frage positiv zu beantworten. In diesem Text soll diese Spannung erst erläutert werden, um sie dann anschließend aufzuheben. Ich gehe dabei folgendermaßen vor: Auf die zweite Frage kann im Rahmen dieses Textes nur indirekt eingegangen werden. Im zweiten Abschnitt

3

Der Terminus „Energiesystemmodellierung“ soll hier keine Einschränkung auf bestimmte Energiemodelle (beispielsweise auf Energiesystemmodelle) implizieren. Er wird in diesem Text einfach als Oberbegriff für die Modellierung unseres Energiesystems verstanden.

48 | Die Energiewende und ihre Modelle

unterbreite ich einen Explikationsvorschlag des Möglichkeitsbegriffs, der anspruchsvoll genug ist, sodass es zumindest möglich ist, Handlungsempfehlungen mit den entsprechenden Möglichkeitsaussagen zu begründen. Als möglich gilt in diesem Zusammenhang, was konsistent mit unserem relevanten Hintergrundwissen ist. Im Mittelpunkt dieses Textes steht die erste Frage, die Gegenstand der Abschnitte 3–6 sein wird. Versteht man Möglichkeiten als relevante Möglichkeiten, ergibt sich das folgende Problem. Aufgrund der Komplexität unseres Energiesystems bilden Modelle, mit deren Hilfe Energieszenarien erstellt werden, unser reales Energiesystem stark vereinfacht und verzerrt ab. Es sind in der Regel idealisierte Modelle. Unter idealisierten Modellen verstehe ich im Folgenden Modelle, die Annahmen für die Ableitung von Modellergebnissen benutzen, die auf das intendierte Zielsystem nicht zutreffen und oft als kontrafaktische Modellannahmen bezeichnet werden.4 So wird beispielsweise in vielen ökonomischen Modellen die Annahme des vollkommenen Wettbewerbs benutzt, und Agenten werden häufig unter der Annahme der vollständigen Voraussicht modelliert, oder es wird davon ausgegangen, dass sie ihren Erwartungsnutzen maximieren. Diese Annahmen treffen in ihrer Allgemeinheit auf die Wirklichkeit sicherlich nicht zu. Solche Modelle benutzen also Annahmen, die streng genommen falsch sind und von denen wir wissen, dass sie falsch sind. Sie sind damit nicht konsistent mit unserem relevanten Hintergrundwissen und somit nicht einmal möglich. Wie kann man nun unter Rückgriff auf Annahmen, die nicht einmal möglich sind, Möglichkeitsaussagen begründen? In Abschnitt 3 führe ich dieses Problem weiter aus, um dann in Abschnitt 6 eine Lösung anzubieten.5 Kern der Lösung ist die strikte Un-

4

Der Begriff der Idealisierung wird in der Literatur verschiedentlich differenziert und präzisiert. Einen Überblick liefern Frigg und Hartmann (2012). Die hier vorgeschlagene Verwendungsweise mag selbst noch recht vage erscheinen. Für die im Text zu besprechenden Probleme ist es allerdings nicht notwendig, weitere Differenzierungen oder Präzisierungen vorzunehmen. Wie in Abschnitt 3 erläutert wird, ist für alle in diesem Sinne idealisierten Modelle fragwürdig, ob sie relevante Möglichkeiten begründen können.

5

Die hier diskutierte Lösung ist eine zu Betz (2015) alternative Lösung des Problems. Im Kontext der Begründung von Möglichkeitsaussagen greift Betz Sugdens (2009) Ansatz der glaubhaften Welten (credible worlds) auf und unterscheidet zwischen perfekten und unperfekten glaubhaften Welten. Perfekte glaubhafte Welten sind Welten, die konsistent mit dem sind, was wir über unsere Welt wissen. Eine zu einer perfekten glaubhaften Welt unperfekte unterscheidet sich darin, dass sie diese Konsistenzeigenschaft nicht teilt, aber zumindest einige Dinge in ihr gelten, die auch in der zu ihr perfekten glaubhaften Welt der Fall sind. Stark idealisierte Modelle sind aufgrund der falschen Modellannahmen keine perfekten glaubhaften Welten. Aber unter bestimmten Bedingungen stellen sie zumindest unperfekte

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 49

terscheidung zwischen Modell und Zielsystem, wie sie im DDI-Ansatz von Hughes (1997) beschrieben wird, welcher in Abschnitt 4 vorgestellt wird. Dieser Ansatz wird in Abschnitt 5 erweitert und anschließend derart in Begründungsschemata übertragen, dass das in Abschnitt 3 erläuterte Problem aufgelöst wird. 2 Szenarien als relevante Möglichkeiten Der Szenariobegriff wird in unterschiedlichen Kontexten unterschiedlich verwendet und ist zum Teil recht vage. Darüber hinaus wird zwischen vielen unterschiedlichen Arten wie beispielsweise normativen, explorativen und Zielszenarien unterschieden. Im Kern wird unter einem Szenario die Beschreibung eines Wirklichkeitsausschnitts einer möglichen Zukunft verstanden beziehungsweise die Beschreibung eines möglichen Zukunftspfades. Im Kontext von Energieszenarien beschränkt sich der betrachtete Wirklichkeitsausschnitt auf unser Energiesystem. Gemäß dem so verstandenen Szenariobegriff gibt es also für jedes Szenario eine ihm entsprechende Möglichkeitsaussage über die Zukunft, beispielsweise der Form „Im Jahr x ist es möglich, dass p.“ In diesem Abschnitt soll es darum gehen, zu explizieren, was genau unter „möglich“ im Gegensatz zu „unmöglich“ zu verstehen ist. Die Differenzierung unterschiedlicher Szenariotypen ist für die hier betrachteten Fragen von untergeordneter Bedeutung. Es soll auch nicht der Anspruch erhoben werden, dass die Explizierung alle Verwendungsweisen des Szenariobegriffs abdeckt. Vielmehr ist das Vorgehen motiviert durch den oben angedeuteten zweifachen Begründungsanspruch und die mit ihm verbundenen Fragen: Wie muss die Möglichkeitsrede im Zusammenhang mit Szenarien verstanden werden, sodass man mit Hilfe dieser Möglichkeitsaussagen Handlungsempfehlungen begründen kann (zweite obere Frage) und wie können solche Möglichkeitsaussagen mit Hilfe von idealisierten Modellen begründet werden (erste obere Frage)? Wie und unter welchen Bedingungen man wirklich dem Anspruch gerecht wird, Handlungsempfehlungen mit Möglichkeitsaussagen zu begründen, ist nicht Gegenstand dieses Textes.6 Aber auch ohne diese Frage im Detail zu

glaubhafte Welten dar und können somit trotz starker Idealisierungen benutzt werden, um Möglichkeitsaussagen zu begründen, so die Idee. Die in Abschnitt 6 vorgestellte Lösung ist mit der von Betz vorgestellten konsistent. Auf die Unterschiede beider Vorschläge kann in diesem Text nicht eingegangen werden. 6

Eine systematische Auseinandersetzung mit dieser und weiteren Fragen der Handlungsbegründung geben Hansson und Hirsch Hadorn (2016). Auf die vielfachen Schwierigkeiten der Handlungsbegründung mit Möglichkeitsaussagen geht Betz in diesem Band ein. Die

50 | Die Energiewende und ihre Modelle

beantworten, kann man Anforderungen an die Explizierung des Möglichkeitsbegriffs ableiten, deren Erfüllung notwendig sind, um überhaupt einem solchen Begründungsanspruch gerecht werden zu können. Aus dem Anspruch, Handlungsempfehlungen unter Rückgriff auf Möglichkeitsaussagen begründen zu können, ergibt sich eine erste Anforderung an die Explikation des Möglichkeitsbegriffs. Er sollte nämlich derart stark sein, dass nicht von vornherein ausgeschlossen wird, dass sich die Mengen der möglichen Konsequenzen der jeweiligen Handlungsalternativen irgendwie unterscheiden. Abstrakt kann man sich die Notwendigkeit dieser Anforderung folgendermaßen klar machen. Will man eine bestimmte Handlung aus einer Menge von Handlungsalternativen als die empfehlenswerte begründen, muss man diese Handlung als empfehlenswerter im Vergleich zu ihren Alternativen auszeichnen. Soll diese Begründung nur auf Grundlage der Abschätzung der Handlungskonsequenzen erfolgen und sind uns lediglich die möglichen Konsequenzen der Handlungsalternativen bekannt, weil uns sichere Vorhersagen der Handlungskonsequenzen nicht vorliegen, muss sich die zu begründende Handlung bezüglich ihrer möglichen Konsequenzen von ihren Alternativen unterscheiden. Andernfalls ist sie bezüglich ihrer möglichen Konsequenzen nicht anders zu beurteilen als ihre Alternativen.7 Eine unmittelbare Konsequenz dieser Anforderung ist, dass mit „möglich“ nicht allein „denkbar“ oder „vorstellbar“ gemeint sein kann. Denkbare oder vorstellbare Konsequenzen unterscheiden sich sicherlich nicht unter den unterschiedlichen Handlungsalternativen. Der Möglichkeitsbegriff sollte also so expliziert werden, dass nicht alle denkbaren Zukünfte auch möglich sind. Insbesondere darf, gegeben eine Handlungsoption, nicht jede vorstellbare Konsequenz möglich sein. Auf der anderen Seite sollte der Möglichkeitsbegriff in folgender Weise nicht zu stark sein. Szenarien werden in Kontexten verwendet, in denen die Unsicherheiten so groß sind, dass man weder Prognosen noch Eintrittswahrscheinlichkeiten für

im Zusammenhang mit Szenarien diskutierten Entscheidungsprinzipien setzen meist die vollständige Kenntnis des Möglichkeitsraums voraus. Die damit verbundenen methodologischen Schwierigkeiten im Zusammenhang der Modellierung werden von Dieckhoff und Voigt in diesem Band diskutiert. 7

Weit weniger abstrakt wird die Notwendigkeit dieser Anforderung, wenn man spezifische Entscheidungskriterien betrachtet, die konkret angeben, wie man Handlungsempfehlungen begründet unter Rückgriff auf mögliche Konsequenzen der Handlungsalternativen. Ein mögliches Entscheidungsprinzip wäre eine Variante des Vorsorgeprinzips wie von Gardiner (2006) formuliert, welches die Handlungsalternativen durch die Betrachtung ihrer schlimmstmöglichen Konsequenzen vergleicht. Für spezifische Einsetzungen dieses Prinzips in politikrelevanten Kontexten vgl. Betz und Cacean (2012, S. 32–35, S. 42, S. 64).

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 51

langfristige Entwicklungen gut begründet angeben kann.8 Stellt Rede von Möglichkeiten durch die Präzisierung des Möglichkeitsbegriffs nur eine verklausulierte Form der Angabe von Wahrscheinlichkeiten oder gar Prognosen dar, muss die Explizierung dementsprechend als inadäquat zurückgewiesen werden. Eine zweite Anforderung verlangt demnach, dass die Explizierung nicht auf die Gleichsetzung mit einem quantitativen oder qualitativen Wahrscheinlichkeitsbegriff hinausläuft.9 Der auf Isaac Levi (1980, S. 2–5) zurückgehende Begriff der relevanten Möglichkeit kann beiden Anforderungen gerecht werden. Dabei wird erst einmal der Begriff der relativen Möglichkeit eingeführt: Eine Aussage der Form „p ist möglich relativ zur Aussagenmenge M “ ist genau dann wahr, wenn p logisch verträglich mit M ist, d.h. genau dann, wenn die Negation von p nicht aus M abgeleitet werden kann. Damit lassen sich nun je nach Auszeichnung der Aussagenmenge M ganz unterschiedliche Möglichkeitsbegriffe einführen, die auch unserem alltäglichen Sprachgebrauch entsprechen. So kann man zum Beispiel von physikalischen Möglichkeiten sprechen, also Dingen, die logisch verträglich mit unserem Wissen über physikalische Gesetzmäßigkeiten sind. So ist beispielsweise ein perpetuum mobile erster Art zumindest denkbar, also begrifflich möglich, jedoch physikalisch unmöglich, weil nicht verträglich mit unseren akzeptierten Theorien aus der Physik. Mit Hilfe der relativen Möglichkeiten kann nun der Begriff der relevanten Möglichkeit eingeführt werden: Eine Aussage der Form „p ist relevant möglich in einem Kontext K“ ist genau dann wahr, wenn p relativ möglich zu dem relevanten Hintergrundwissen des Kontextes K ist.10

8

Betz (2010, Abschnitt 2) argumentiert, dass es Fälle gibt, in denen wir keine gut begründeten Wahrscheinlichkeiten angeben können, und zeigt, dass dies für viele Modelle in den Klimawissenschaften zutrifft. Auch der Rückgriff auf bayesianische Methoden oder ExpertInnenmeinungen (expert elicitation) löst dieses Problem nicht (vgl. auch Betz, 2007).

9

Hierunter fallen abgeleitete qualitative Wahrscheinlichkeiten und nicht abgeleitete. Während abgeleitete qualitative Wahrscheinlichkeiten quantitative voraussetzen und mit ihrer Hilfe qualitative einführen, beispielsweise die Definition von „sehr wahrscheinlich“ als „90–100% wahrscheinlich“, gilt das für letztere nicht. Sie stellen eine Präzisierung der umgangssprachlichen Rede von „x ist wahrscheinlicher als y“ dar, die nicht voraussetzt, dass es entsprechende quantitative Wahrscheinlichkeiten gibt. Sie müssen allerdings bestimmten Bedingungen genügen, sodass sich diese Relation durch eine quantitative Wahrscheinlichkeit repräsentieren lässt (vgl. Suppes et al., 2007, Kapitel 5).

10

In ähnlicher Weise greifen Betz (2010, S. 91; 2015, S. 195) und Dieckhoff (2015, S. 49) Levis’ Vorschlag auf, um den Begriff der Möglichkeit im Kontext possibilistischen Zukunftswissens zu explizieren.

52 | Die Energiewende und ihre Modelle

Die wichtige Anschlussfrage, was denn das relevante Hintergrundwissen im Kontext der Energiesystemmodellierung sei, kann an dieser Stelle nicht zur Gänze beantwortet werden, und ich beschränke mich auf einige allgemeine Bemerkungen, die Antwortmöglichkeiten zumindest andeuten. Diese Frage ist erst einmal keine spezifische Herausforderung des hier vorgestellten Ansatzes, sondern stellt sich gleichermaßen in vielen anderen Situationen, wie beispielsweise der Begründung von Prognosen. Diese werden ebenso wie Möglichkeitsaussagen über die Zukunft unter Rückgriff auf unser relevantes Hintergrundwissen begründet. Der Kontext der Energiesystemmodellierung zeichnet sich nun einfach dadurch aus, dass unser relevantes Hintergrundwissen derart beschränkt ist, dass sich keine langfristigen präzisen Prognosen daraus ableiten lassen und wir uns darauf beschränken müssen, Aussagen darüber zu treffen, welche Zukünfte zumindest verträglich mit dem Hintergrundwissen sind. Die eben formulierte Frage kann nun auf mindestens zweierlei Weisen verstanden werden. So kann man fragen, ob es ein Kriterium gibt, welches relevantes von irrelevantem Wissen unterscheidet. Also welche unserer vielen heterogenen Wissensbestände sollen in die Menge des relevanten Hintergrundwissens aufgenommen werden und welche nicht? So besitzen wir allgemeine Wissensbestände wie die der Naturwissenschaften, der Ökonomie und der Sozialwissenschaften, aber auch sehr spezifische Wissensbestände, wie beispielsweise das Wissen meiner Mitmenschen über meine Präferenzen und äußeren Eigenschaften. Ein erster Vorschlag bestünde einfach darin, das gesamte Hintergrundwissen als relevant auszuzeichnen. Je größer das relevante Hintergrundwissen, desto mehr können wir als unmöglich ausschließen, und je mehr wir als unmöglich ausschließen können, desto besser.11 Das gesamte Hintergrundwis-

11

Versteht man ein Hintergrundwissen als eine Menge von Aussagen, kann der Vergleich eines Hintergrundwissens mit einem zweiten bezüglich seiner Größe grob folgendermaßen verstanden werden: Ein Hintergrundwissen HW1 ist größer als ein Hintergrundwissen HW 2 , wenn jede Aussage, die aus HW 2 folgt, ebenso aus HW1 folgt und es darüber hinaus mindestens eine Aussage gibt, die aus HW1 folgt, aber nicht aus HW 2 . Mit der so eingeführten partiellen Ordnung folgt bereits, dass mit einem zu HW 2 größeren Hintergrundwissen HW1 mehr ausgeschlossen werden kann. Eine Aussage kann auf der Basis eines Hintergrundwissens genau dann ausgeschlossen werden, wenn ihre Negation aus dem Hintergrundwissen folgt. Folgt nun die Negation einer Aussage aus HW 2 , folgt sie laut Voraussetzung ebenso aus HW1 . Damit kann alles, was auf Basis von HW 2 ausgeschlossen werden kann, ebenso auf Basis von HW1 ausgeschlossen werden. Es existiert laut Voraussetzung darüber hinaus mindestens eine Aussage, die aus HW1 folgt, jedoch nicht aus HW 2 . Damit kann die Negation dieser Aussage auf Basis von HW 1 ausgeschlossen wer-

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 53

sen ist jedoch allein aufgrund seiner Größe und Komplexität für einzelne Personen oder Institutionen nicht überschaubar. Es ist aber auch nicht notwendig, das gesamte Hintergrundwissen als relevant auszuzeichnen. Ohne hier ein präzises Kriterium angeben zu können, ist klar, dass nicht alles Wissen relevant im hier betrachteten Kontext ist. So ist beispielsweise ein Wissen um die Farbe meiner Kleidung sicherlich irrelevant für die Begründung von Handlungsempfehlungen im Kontext der Gestaltung unseres Energiesystems. Neben der Abgrenzung relevanten Wissens von irrelevantem kann man nun noch ganz allgemein fragen, unter welchen Bedingungen eine Aussage als Teil unseres Hintergrundwissens zählt. Wie sicher oder gut begründet muss eine Aussage sein, damit sie zum Hintergrundwissen zählt? Ohne die Frage angemessen beantworten zu können, kann man zumindest festhalten, dass ein Explikationsvorschlag zwei Intuitionen berücksichtigen muss, die in Konkurrenz zueinander stehen. Einerseits sollte das Hintergrundwissen möglichst gut begründet und sicher sein. Je sicherer das Hintergrundwissen, desto sicherer die Aussagen, die daraus abgeleitet werden, beziehungsweise desto sicherer die dazu relativen Möglichkeiten. Auf der anderen Seite sollte das Hintergrundwissen, wie oben schon angedeutet, möglichst groß sein. Will man nun auf Nummer sicher gehen, beschränkt man das relevante Hintergrundwissen auf sehr sichere Aussagen, also beispielsweise auf mathematische Definitionen und Theoreme. Relativ dazu lässt sich allerdings nicht sehr viel ausschließen. Insbesondere werden sich dann die Mengen der möglichen Handlungskonsequenzen nicht mehr zwischen Handlungsalternativen unterscheiden. Wie oben erläutert, wird damit nicht mehr klar, wie man überhaupt Handlungsempfehlungen auf diese Weise begründen kann und wird dementsprechend dem zweifachen Begründungsanspruch nicht gerecht. Zum Wissen sollte man also auch Aussagen zählen, die weniger sicher sind als mathematische Theoreme. Will man also viel aus dem Hintergrundwissen ableiten, beziehungsweise relativ zu ihm viel ausschließen, muss man unter Umständen das Hintergrundwissen auf Aussagen ausdehnen, die weit weniger als maximal sicher sind. Damit deutet sich nun an, unter welchen Umständen der hier verwendete Möglichkeitsbegriff der oben formulierten ersten Anforderung genügt – also der Anforderung, dass der Möglichkeitsbegriff nicht derart expliziert werden sollte, dass sich die Mengen möglicher Handlungskonsequenzen allein aufgrund der Explikation

den, jedoch nicht auf Basis von HW 2 . Die Intuition, dass es besser ist, mehr ausschließen zu können als weniger, kann hier nicht weiter präzisiert werden. Das würde darauf hinaus laufen, den hier angedeuteten Relevanzbegriff selbst zu präzisieren und ihn zu benutzen, um diese Intuition entsprechend einzugrenzen.

54 | Die Energiewende und ihre Modelle

nicht zwischen den Handlungsalternativen unterscheiden. Dafür sollte das relevante Hintergrundwissen möglichst groß sein, also insbesondere nicht nur begriffliche oder mathematische Wahrheiten beinhalten und gleichermaßen nicht für den Kontext völlig irrelevante Wissensbestände beinhalten. Im Kontext der Energiesystemmodellierung zählen zum relevanten Hintergrundwissen neben akzeptierten physikalischen Theorien sicherlich ebenso technisches und ökonomisches Wissen. So mag beispielsweise für eine Investitionsentscheidung im Energiesektor die Frage nach der Möglichkeit der zukünftigen Verfügbarkeit der Kernfusion als alternativer Energiequelle von Relevanz sein. Hier fragt man sicherlich nicht allein nach der physikalischen Möglichkeit von Kernfusion, sondern auch nach technischer Machbarkeit und ökonomischer Rentabilität entsprechender Kraftwerke. Ob im spezifischen Kontext das Hintergrundwissen wirklich in der Lage ist, mit Hilfe bestimmter Entscheidungsprinzipien Handlungsoptionen als geboten beziehungsweise empfehlenswert auszuzeichnen, kann weder an dieser Stelle noch im Allgemeinen beantwortet werden. Ob sich nämlich die Mengen möglicher Handlungskonsequenzen zwischen den Handlungsalternativen unterscheiden, hängt sehr stark vom spezifischen relevanten Hintergrundwissen und der spezifischen Handlungssituation ab. So ist nicht ausgeschlossen, dass der derzeitige Wissensstand über unser Energiesystem und seine Interaktionen mit anderen Systemen derart beschränkt ist, dass dies nicht der Fall ist. Wie steht es nun um die zweite Anforderung? Legt man sich mit dem Explikationsvorschlag nicht auf einen zu starken Möglichkeitsbegriff fest – also einen, bei dem die Rede von Möglichkeiten im Zusammenhang mit Szenarien doch nur eine verklausulierte Rede von Wahrscheinlichkeiten darstellt? Das ist nicht der Fall. Offensichtlich handelt es sich nicht um eine quantitative Wahrscheinlichkeit, da mit dem Begriff der relevanten Möglichkeit keine numerischen Angaben gemacht werden. Ebenso wenig handelt es sich um eine qualitative Wahrscheinlichkeit.12 3 Die possibilistische Herausforderung Nachdem ich im letzten Teil einen Explikationsvorschlag für den Möglichkeitsbegriff unterbreitet habe, werde ich in den nächsten Abschnitten auf das Verhältnis zwi-

12

Da mit elementaren Aussagen der Form „p ist relevant möglich im Kontext K“ keine numerischen Angaben gemacht werden, könnte es sich nur noch um eine nicht abgeleitete qualitative Wahrscheinlichkeit handeln. Auch wenn der Begriff der relevanten Möglichkeit zweistellig ist, können die entsprechenden elementaren Aussagen schwerlich interpretiert werden als „x ist wahrscheinlicher als y“ (zum Begriff der qualitativen Wahrscheinlichkeit vgl. Fußnote 9).

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 55

schen Modell und Szenario eingehen. Ich will der Frage nachgehen, ob man mit Hilfe idealisierter Modelle, Szenarien oder, um genauer zu sein, die entsprechenden Möglichkeitsaussagen begründen kann. Wie sich herausstellen wird, ist die Einlösung des entsprechenden Begründungsanspruchs mit einem Problem verbunden, welches Betz (2015) als possibilistische Herausforderung (possibilistic challenge) bezeichnet und prägnant zusammenfasst: „Climate models don’t give us probabilistic forecasts. To interpret their results, alternatively, as serious possibilities seems problematic inasmuch as climate models rely on contrary-to-fact assumptions: why should we consider their implications as possible if their assumptions are known to be false?“ (Betz, 2015, S. 191)13

Um die Tragweite dieser Herausforderung einschätzen zu können, soll das Problem in diesem Abschnitt präzisiert werden. Dazu beschreibe ich erst, wie Szenarien mit Hilfe von Modellen erstellt werden. Diese Beschreibung übertrage ich in Begründungsschemata, die auf einer abstrakten Ebene verständlich machen sollen, wie man mit Hilfe von Modellen überhaupt Aussagen über Zielsysteme begründen kann. Der mit der possibilistischen Herausforderung einhergehende Einwand wird sich anhand eines solchen Begründungsschemas präzisieren lassen. In den darauf folgenden Abschnitten 4–6 stelle ich dann den DDI-Ansatz von Hughes (1997) vor und benutze ihn, um die Begründungsschemata dieses Abschnitts derart anzupassen, dass der Einwand entkräftet wird. Im Kontext der Energiesystemmodellierung werden Modelle erstellt, um unser Energiesystem angemessen zu repräsentieren. Dabei werden relevante Größen des Energiesystems im Modell abgebildet. Bei mathematischen Modellen tauchen quantitative Größen wie beispielsweise Brennstoffpreise oder die Energienachfrage als exo- oder endogene Variablen im Modell auf. Das Modell wiederum soll kausale oder andere Abhängigkeiten zwischen diesen Größen adäquat repräsentieren. Bei mathematischen Modellen werden Abhängigkeiten beispielsweise in Form linearer Gleichungssysteme sowie diverser Randbedingungen repräsentiert. In einem Modelllauf werden dann getroffene Annahmen bezüglich der exogenen Variablen auf Werte für die endogenen Variablen abgebildet. Der Modelllauf soll damit zeigen, was im Ziel-

13

Betz beschränkt sich in seiner Darstellung auf die Klimamodellierung. Das Problem stellt sich jedoch gleichermaßen im Kontext der Energiesystemmodellierung. Es kann allgemein als Problem für die Begründung relevanter Möglichkeiten mit Hilfe idealisierter Modelle verstanden werden. Wie im Zitat formuliert, ist der entscheidende Punkt die Existenz kontrafaktischer Modellannahmen.

56 | Die Energiewende und ihre Modelle

system unter den gemachten Annahmen über exogene Variablen und kausale Zusammenhänge passieren wird. Auf dieser abstrakten Ebene wird der Modelllauf demnach benutzt, um einen komplexen Satz der Form „Wenn p, dann q.“ zu begründen. Der Platzhalter ‚p‘ im Antezedens des Satzes steht dabei für eine komplexe konjunktive Zusammenfassung der im Modelllauf gemachten Annahmen über exogene Variablen und Parameter sowie über kausale Abhängigkeiten im Zielsystem. Der Platzhalter ‚q‘ im Konsequenz steht für das Modellergebnis – also für spezifische Werte der endogenen Variablen im Zielsystem. Damit deutet sich an, wie mit Hilfe des WennDann-Satzes, eine Aussage über das intendierte Zielsystem begründet werden kann. Wüssten wir, dass die gemachten Annahmen p auf das Zielsystem zutreffen, dürften wir aufgrund des gewonnenen Wenn-Dann-Satzes darauf schließen, dass ebenso q im Zielsystem der Fall ist. Schematisch lässt sich das folgendermaßen in Form des ersten Begründungsschemas14 darstellen: 1. p gilt im Zielsystem. 2. Wenn p, dann q. (Nachgewiesen durch den Modelllauf.) 3. Also: q gilt im Zielsystem. Dieses Begründungsschema ist so allgemein, dass es auch den Fall der Begründung konkreter Prognosen über ein Zielsystem abdeckt. Im Kontext der Energiesystemmodellierung sind langfristige Prognosen oder deren probabilistische Abschwächungen aufgrund der auftretenden Unsicherheiten nicht möglich. So können wir von vielen der gemachten Annahmen über die exogenen Variablen überhaupt nicht sicher sein, ob sie auf das Zielsystem zutreffen und wissen höchstens, dass sie möglicherweise zutreffen, und zwar im oben explizierten Sinne einer relevanten Möglichkeit. Man denke beispielsweise an eine Modellierung, in die die Ölpreisentwicklung der kommenden dreißig Jahre als exogene Variable eingeht. Da man im Kontext der Energiesystemmodellierung jedoch lediglich relevante Möglichkeiten begründen möchte, mag

14

Es handelt sich um ein Begründungsschema, weil die im Schema auftauchenden Buchstaben ‚p‘ und ‚q‘ Platzhalter für Aussagesätze sind und nicht selbst Aussagen. Erst durch Ersetzung der Platzhalter durch Aussagesätze wird aus dem Begründungsschema eine Begründung in Form eines Arguments. Im Folgenden spreche ich häufig von Instanziierungen der Begründungsschemata und meine damit eine solche Ersetzung der Platzhalter durch Aussagesätze. Um umständliche Formulierungen zu vermeiden, spreche ich oft verkürzt von Aussagen p, q, p∗ und q ∗ anstatt von Platzhaltern, sowie von Sätzen, Prämissen und Konklusionen der Begründungsschemata anstatt von Satzschemata. Gemeint sind dann immer entsprechende Instanziierungen der Platzhalter und Satzschemata.

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 57

die folgende Anpassung des ersten Schemas vielversprechend sein. Was im Modelllauf als Ergebnis für die endogenen Variablen berechnet wird, ist relevant möglich, da die gemachten Annahmen selbst relevant möglich sind. Schwächen wir Prämisse 1 und die Konklusion des ersten Begründungsschemas entsprechend ab, ergibt sich das zweite Begründungsschema, welches einen ersten Erläuterungsversuch darstellt, wie man eine relevante Möglichkeit unter Rückgriff auf Modellergebnisse begründet:15 1. Es ist relevant möglich, dass p im Zielsystem gilt. 2. Wenn p, dann q. (Nachgewiesen durch den Modelllauf.) 3. Also: Es ist relevant möglich, dass q im Zielsystem gilt. Wie im ersten Schema ist die zweite Prämisse der durch den Modelllauf nachgewiesene Wenn-Dann-Satz. Weil man von mindestens manchen Annahmen in p allerdings nur weiß, dass sie relevante Möglichkeiten darstellen, weiß man ebenso von deren Konjunktion nur, dass sie höchstens relevant möglich ist, was in der ersten Prämisse ausgedrückt ist.16 Zusammengenommen scheint damit aber zumindest begründet zu sein, dass das Modellergebnis q selbst eine relevante Möglichkeit darstellt – ausgedrückt in der Konklusion des Schemas. Instanziierungen17 dieses Schemas stellen im folgenden Sinne sogar gute Begründungen für Möglichkeitsaussagen dar: Es sind

15

Das Schema ist zugegebenermaßen sehr abstrakt und vernachlässigt viele für andere Kontexte wichtige Unterscheidungen. Beispielsweise ist völlig offen, welche Möglichkeitsaussage es letztendlich ist, die einem bestimmten Szenario entspricht. Um einen Spezialfall anzudeuten: Handelt es sich bei dem Szenario um die Beschreibung eines einzelnen möglichen Zustandes in der Zukunft und bei dem Modell um ein statisches, welches exogene Annahmen eines bestimmten Zeitpunktes auf Werte endogener Variablen desselben Zeitpunkts abbildet, ist das Szenario wohl die konjunktive Zusammensetzung der Modellergebnisse q mit den Konjunkten p1 , ..., pn von p, welche die Werte der exogenen Variablen beschreiben. Die dem Szenario entsprechende Möglichkeitsaussage lautet also „Es ist relevant möglich, dass p1 , und ... und pn und q“.

16

Dass sie zusammengenommen selbst relevant möglich sind, ist nicht allein dadurch sichergestellt, dass einige für sich allein genommen relevant möglich sind, und muss unabhängig nachgewiesen werden. ModelliererInnen sind sich dieser Tatsache allerdings bewusst und führen entsprechende Konsistenzprüfungen durch (vgl. die Bemerkungen von Dieckhoff in diesem Band).

17

Zum Begriff der Instanziierung vgl. Fußnote 14.

58 | Die Energiewende und ihre Modelle

deduktiv gültige Argumente. Sind im Falle einer Einsetzung in das Schema die Prämissen des Arguments wahr, so ist auch die Konklusion wahr.18 Wie sich jedoch leicht einsehen lässt, ist im Fall idealisierter Modelle die erste Prämisse falsch. Idealisierte Modelle sind Modelle, die für die Ableitung von Modellergebnissen Annahmen benutzen, die auf das intendierte Zielsystem nicht zutreffen.19 Der Platzhalter ‚p‘ im obigen Schema stand nun gerade für die Konjunktion aller im Modelllauf gemachten Annahmen über das Zielsystem. Damit ist mindestens ein Konjunkt von p falsch und dadurch ebenso die ganze Konjunktion p. Wissen wir, dass es sich um idealisierte Modelle handelt, wissen wir damit auch um die Falschheit von p. p ist damit nicht mehr verträglich mit unserem relevanten Hintergrundwissen – also relevant unmöglich. Damit ist die erste Prämisse des zweiten Schemas im Falle idealisierter Modelle falsch. Das anhand des Begründungsschemas identifizierte Problem stellt für die Begründung relevanter Möglichkeiten ein ernsthaftes Problem dar.20 Wäre diese Art der Begründung die einzig mögliche, würde die Identifizierung von falschen Modellannahmen einen Pauschaleinwand darstellen. Die mit einem Begründungsschema zusammenhängende Begründungsstrategie kann man allgemein folgendermaßen beschreiben: Die Wahrheit des zu begründenden Satzes wird auf die Wahrheit anderer Sätze zurückgeführt. Diese Begründung gelingt allerdings nur dann, wenn die Prämissen wahr sind und in einer begründenden Beziehung zur Konklusion stehen. Sind also eine oder mehrere Prämissen falsch, ist die Begründung defizitär, und gerade das wurde für die Begründung relevanter Möglichkeiten durch idealisierte Modelle gezeigt. Es

18

Streng genommen muss dafür die zweite Prämisse lauten „Es ist relevant notwendig: Wenn p, dann q.“, wobei eine Aussage r genau dann relevant notwendig ist, wenn ihre Negation relevant unmöglich ist, also r aus dem relevanten Hintergrundwissen logisch folgt. Für das Konditional der zweiten Prämisse kann man davon ausgehen, dass dies der Fall ist. Dieses Konditional soll mit dem Modelllauf nachgewiesen werden. Gelingt dies, kann es zum relevanten Hintergrundwissen hinzugefügt werden.

19

Genau so wurde der Begriff des idealisierten Modells in Abschnitt 1 eingeführt. Damit bedarf diese Behauptung keiner weiteren Begründung. Für spezifische Modelle muss dann natürlich begründet werden, dass sie in dieser Weise idealisierte Modelle sind. Man darf allerdings davon ausgehen, dass wohl fast alle in der Praxis benutzten Modelle solche Idealisierungen enthalten. Das gilt selbst schon für die einfachsten in den Naturwissenschaften benutzten Modelle.

20

Betz beschreibt dieses Problem unter der Bezeichnung „Fehlschluss der Modellgläubigkeit“ und teilt die Einschätzung, dass es sich um ein ernst zu nehmendes Problem handelt (vgl. Betz in diesem Band, Abschnitt 4.6).

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 59

kommt darüber hinaus gar nicht darauf an, wie gravierend die gemachten Idealisierungen sind. Allein dass wissentlich falsche Modellannahmen vorliegen, macht die diskutierte Begründung defizitär. Man muss sich also fragen, ob es überhaupt möglich ist, relevante Möglichkeiten durch idealisierte Modelle zu begründen. Dass man in Bezug auf die Lösung dieses Problems optimistisch sein darf, zeigt die Übertragung dieses Problems auf das erste Schema. Ebenso wie im zweiten Schema wird die erste Prämisse des ersten Schemas falsch, wenn das Modell Idealisierungen enthält. Da das erste Schema nun den Fall der Begründung von Prognosen abdecken soll, entstünden ähnliche Probleme für prognostische Modelle, die von Idealisierungen Gebrauch machen. Nun beinhalten die meisten Modelle Idealisierungen ihrer Zielsysteme, und trotzdem lassen sich mit Hilfe vieler dieser Modelle erfolgreich gut bestätigte Prognosen über ihre Zielsysteme ableiten. Diese Übertragung des Problems motiviert damit eine Lösungsstrategie, welche in den folgenden Abschnitten umgesetzt wird. Gelingt es, eine Erklärung dafür zu finden, wie man mit Hilfe idealisierter Modelle Prognosen begründen kann, kann man versuchen, die entsprechende Lösung auf die Begründung relevanter Möglichkeiten zu übertragen. Diesen Abschnitt abschließend sollen noch zwei andere Lösungsstrategien besprochen werden, die im Kontext der Energiesystemmodellierung zu keinem erfolgreichen Ergebnis führen. Zum einen könnte man davon Abstand nehmen, die Möglichkeit von q mit Hilfe des Modells zeigen zu wollen, und sich darauf beschränken, nur das in der zweiten Prämisse ausgedrückte Konditional mit dem Modell zu begründen. Das Modell zeige eben nur, was passieren würde, wenn seine Annahmen zuträfen und nicht mehr. Auch wenn dieser bescheidenere Anspruch in anderen Kontexten legitim ist und interessante Einsichten ermöglichen kann, beispielsweise bei rein mathematischen Betrachtungen, ist er im Kontext der Energiesystemmodellierung, die in der Politikberatung eine handlungsorientierende Rolle spielen soll, nutzlos. So ist völlig unklar, wie man aus Wenn-Dann-Sätzen, von deren Vordersätzen man weiß, dass sie auf das Energiesystem nicht zutreffen, irgendwelche Handlungsempfehlungen ableiten kann. Dem oben formulierten Begründungsanspruch kann man mit dieser Strategie also nicht mehr gerecht werden. Eine zweite Strategie nutzt die Relativität des eingeführten Möglichkeitsbegriffs aus. Ob etwas relevant möglich ist, hängt davon ab, was als relevantes Hintergrundwissen ausgezeichnet wird. Sicherlich ist es beispielsweise in einem bestimmten Sinne möglich, dass ökonomische Agenten ihren Erwartungsnutzen maximieren. Wenn wir das relevante Hintergrundwissen nur entsprechend eingrenzen, wird dies auch relevant möglich. Obgleich dies das Problem lösen würde, ist es wiederum im Kontext der Energiesystemmodellierung keine adäquate Lösung. Denn wie weiter oben ausgeführt, sollte es das Ziel sein, das relevante Hintergrundwissen so stark zu erweitern,

60 | Die Energiewende und ihre Modelle

dass man Handlungsempfehlungen begründen kann, ohne dass die damit verbundenen Irrtumsrisiken zu groß werden oder man für das Entscheidungsproblem irrelevantes Wissen mit aufnimmt. Die Frage, ob die für die Ableitung der Modellergebnisse benutzten Modellannahmen wahr oder falsch sind, ist sicherlich eine relevante Frage. Wissen wir also, dass einige der Modellannahmen falsch sind, sollte dieses Wissen Teil des relevanten Hintergrundwissens sein. Eine entsprechende Einschränkung des Hintergrundwissens ist damit keine adäquate Lösung des Problems. Ähnlich wie die erste Strategie, dem Problem zu begegnen, scheitert auch die zweite am intendierten Begründungsanspruch. An dieser zweiten Strategie zeigt sich die in der Einleitung erwähnte Spannung, die sich aufgrund des zweifachen Begründungsanspruches ergibt. Sollen die den Szenarien entsprechenden Möglichkeitsaussagen informativ genug sein, um damit Handlungsempfehlungen begründen zu können, muss das relevante Hintergrundwissen angemessen groß sein. Dies wiederum führt jedoch dazu, dass nicht klar ist, wie man die entsprechenden Möglichkeitsaussagen mit Hilfe idealisierter Modelle begründen kann, weil, wie oben erläutert, die entsprechenden Begründungen defizitär sind. Es ist damit schwierig, beiden Begründungsansprüchen zugleich gerecht zu werden. 4 Der DDI-Ansatz Im letzten Abschnitt wurde ein relativ einfaches Bild der Rolle von idealisierten Modellen im Kontext der Energiesystemmodellierung dargestellt. Es ist daher nicht abwegig, zu vermuten, dass ein anspruchsvolleres Verständnis der Modellierungspraxis helfen kann, das dort beschriebene Problem zu lösen. Der DDI-Ansatz von Hughes liefert ein differenzierteres Bild der Modellierungspraxis, und wie sich mit seiner Hilfe einsehen lässt, ist die Vernachlässigung der Unterscheidung zwischen Modell und Zielsystem verantwortlich für das im letzten Abschnitt dargestellte Problem. Nachdem in diesem Abschnitt der DDI-Ansatz vorgestellt sein wird, wird er in den nächsten Abschnitten benutzt, um mehrere zum zweiten Begründungsschema alternative Schemata zu formulieren. Diese werden dann zeigen, wie sich relevante Möglichkeiten begründen lassen. Der DDI-Ansatz von Hughes stellt einen Begriffsapparat bereit, um unterschiedliche Komponenten bei der Modellierung in der Physik angemessen zu beschreiben. Gemäß diesem Ansatz kann man unterscheiden zwischen Denotierung, Demonstration und Interpretation.21 Beim Denotieren werden Elementen des Zielsystems Elemente des Modells zugeordnet. Bei mathematischen Modellen werden typischerwei-

21

Entsprechend ergibt sich das Akronym „DDI“ aus den jeweiligen Anfangsbuchstaben.

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 61

Zielsystem

Denotierung

Modell

Zielsystemelement

Modellelement Demonstration

Interpretiertes Ergebnis

Modellergebnis Interpretation

Abbildung 2: DDI-Ansatz

se Größen des realen Zielsystems repräsentiert durch entsprechende Variablen und Parameter im abstrakten Modell. Die Demonstration ist eine Komponente des Modellierens, die unabhängig vom Zielsystem durchgeführt werden kann. Modelle besitzen üblicherweise ein Eigenleben und sind Objekte, die selbst Gegenstand der Untersuchung sein können. Ziel der Demonstration ist es, etwas über das Modell zu erfahren. Hat man Elementen des Zielsystems Elemente im Modell zugeordnet, möchte man herausfinden, wie sich das Modell unter dieser Zuordnung verhält. Liegt beispielsweise bei mathematischen Modellen eine Beschreibung des Modells in Form eines Differentialgleichungssystems vor, versucht man diese Gleichungen unter den gegebenen Randbedingungen zu lösen. Handelt es sich um real existierende Skalenmodelle, wie sie beispielsweise in Windtunnelexperimenten verwendet werden, versucht man herauszufinden, welche Eigenschaften diese Modelle besitzen. Bei der Energiesystemmodellierung entspricht die Demonstration einem Modelllauf, bei dem herausgefunden werden soll, welche Werte die endogenen Variablen annehmen, wenn man bestimmte Annahmen bezüglich der kausalen Abhängigkeiten und bezüglich der Werte exogener Variablen sowie weiterer Parameter des Modells trifft. Die Ergebnisse dieser Tätigkeit werden passenderweise Modellergebnisse genannt und müssen in einem letzten Schritt wieder in Beziehung zum Zielsystem gebracht werden. Im letzten Schritt der Interpretation werden, ähnlich wie bei der Denotierung, Elemente des Modells Elementen des Zielsystems zugeordnet. Besteht beispielsweise die Demonstration darin, einen bestimmten Funktionswert durch die Lösung einer Differentialgleichung zu bestimmen, muss dieses Modellergebnis interpretiert werden als eine Aussage über das Zielsystem.

62 | Die Energiewende und ihre Modelle

Ein einfaches Beispiel soll illustrieren, wie man die Unterscheidungen auf einen konkreten Fall anwenden kann. Betrachten wir als Zielsystem ein reales Fadenpendel, also eine an einem Faden mit einer Länge von l∗ befestigte Masse, die zum Zeitpunkt 0 mit einer Winkelauslenkung φ∗0 losgelassen wird und dann in einer Ebene um ihren Ruhepunkt schwingt. Nehmen wir weiter an, dass uns die Winkelauslenkung zu einem konkreten Zeitpunkt t∗ interessiert. Das verwendete Modell wird durch die folgende einfache Bewegungsgleichung mit den Konstanten φ0 , l, g, der unabhängigen Variable t und der abhängigen Variable φ für die Winkelauslenkung beschrieben. s

φ(t) = φ0 cos

l t g

!

(1)

Das Modell unterscheidet sich in diesem Beispiel vom Zielsystem unter anderem darin, dass Letzteres etwas real Existierendes ist, während das Modell etwas Abstraktes ist, das durch die Bewegungsgleichung beschrieben wird. Im Zielsystem gibt es beispielsweise Dinge, die man anfassen kann. Für das Modell gilt das nicht. Im Schritt der Denotierung werden den Konstanten l und φ0 die Werte der entsprechenden Konstanten l∗ und φ∗0 , g der Wert der Erdbeschleunigung und der unabhängigen Variable t der Wert t∗ zugeordnet. Der Schritt der Demonstration besteht in diesem einfachen Fall im Ausrechnen des Funktionswertes φ(t∗ ), der im Schritt der Interpretation als die Auslenkung des realen Pendels zum Zeitpunkt t∗ interpretiert wird.22 Bevor ich diese Beschreibung des Modellierens wiederum in ein Begründungsschema übertrage, sollen einige Bemerkungen mögliche Missverständnisse vermeiden. Auch wenn obige Beschreibung eine bestimmte Reihenfolge nahelegte, ist diese nicht zwingend. Welche der drei Tätigkeiten wann ausgeführt wird, lässt der Ansatz offen. Man könnte beispielsweise unabhängig von möglichen Zielsystemen Modelle untersuchen, um dann anschließend passende Zielsysteme zu suchen, die durch das Modell adäquat repräsentiert werden. Der Ansatz lässt ebenso völlig offen, welche Dinge denotiert beziehungsweise interpretiert werden, und es muss nicht für alle Entitäten im Ziel- beziehungsweise im Modellbereich eine Entsprechung geben. So kann es Größen im Zielsystem geben, die durch nichts im Modell denotiert werden, und gleichermaßen kann es Entitäten im Modell geben, die nicht interpretiert werden.

22

Das Beispiel lässt sich anspruchsvoller ausbauen, wenn man als Startpunkt der Demonstration nicht gleich die Bewegungsgleichung verwendet, sondern die Differentialgleichung des mathematischen Pendels. Dann würde auch die Kleinwinkelnäherung dieser Differentialgleichung durch den harmonischen Oszillator mit der entsprechenden Lösung der so abgeleiteten Differentialgleichung mit zum Schritt der Demonstration zählen.

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 63

Auch wenn sich Hughes in seiner Beschreibung auf physikalische Modelle beschränkt, ist der Ansatz so allgemein formuliert, dass er sich auf beliebige Fälle anwenden lässt, in denen mit Hilfe eines Modells etwas über ein Zielsystem herausgefunden werden soll. Der große Anwendungsbereich könnte allerdings ebenso als Kritik interpretiert werden. Welchen Nutzen hat ein Ansatz, der so vage und offen formuliert ist? Er gibt keine Auskunft darüber, unter welchen Bedingungen ein Modell eine adäquate Beschreibung eines Zielsystems liefert oder in welcher Beziehung Modell und Zielsystem stehen müssen. Auch wenn der Ansatz diese Fragen nicht beantwortet, stellt er einen adäquaten Begriffsrahmen zur Verfügung, diese Fragen anzugehen. So wird strikt zwischen Modell und Zielsystem unterschieden und mit den Komponenten der Denotierung und Interpretation auf eine Dimension aufmerksam gemacht, die in der Modellierungspraxis häufig nur implizit bleibt. Die Reichweite dieses Ansatzes wird sich vor allem in den nächsten Abschnitten zeigen. Wie sich herausstellen wird, ist die konsequente Berücksichtigung der Trennung zwischen Modell und Zielsystem in der Lage, das in Abschnitt 3 beschriebene Problem zu lösen. 5 Der DDI-Ansatz als Begründungsschema Bevor der im letzten Abschnitt vorgestellte DDI-Ansatz im nächsten Abschnitt benutzt werden soll, um das in Abschnitt 3 erläuterte Problem in Angriff zu nehmen, sollen in diesem Abschnitt die dafür notwendigen Vorbereitungen getroffen werden. Dafür wird der DDI-Ansatz erweitert, indem ich ihn in ein Begründungsschema übertrage, in welchem die Unterscheidung zwischen Modell, Zielsystem und Zuordnungsfunktion explizit wird. Wie sich dann in Abschnitt 6 herausstellen wird, sind diese vielleicht als selbstverständlich erscheinenden Unterscheidungen in der Lage, das weiter oben identifizierte Problem zu lösen. Während Hughes in seinem Ansatz unter Denotierung eine Abbildung von Elementen des Zielsystems auf Elemente des Modells versteht und unter Interpretation eine Abbildung in die umgekehrte Richtung, wird es sich für die Formulierung der Begründungsschemata als vorteilhafter erweisen, sie als Abbildungen von Aussagen auf Aussagen zu verstehen. Im Folgenden soll demnach unter Denotierung eine Abbildung verstanden werden, die Aussagen über das Zielsystem (Zielsystemaussagen) auf Aussagen über das Modell (Modellaussagen) abbildet, und unter Interpretation eine Abbildung, welche Modellaussagen auf Zielsystemaussagen abbildet. Das Fadenpendel soll erneut benutzt werden, um diese kleine Veränderung zu illustrieren und zu zeigen, wie ein Begründungsschema formuliert werden kann, welches die Einsichten des DDI-Ansatzes explizit berücksichtigt. Interpretieren wir das Beispiel also so, dass mit Hilfe des entsprechenden Modells und unter Kenntnis be-

64 | Die Energiewende und ihre Modelle

Denotierung u ¨ ber D

Zielsystem

Zielsystemaussage p*

Modell

Modellaussage p Demonstration

Zielsystemaussagen q*

Modellaussage q Interpretation u ¨ ber I

Abbildung 3: Reinterpretation des DDI-Ansatzes

stimmter Annahmen über das Zielsystem begründet werden soll, dass die Auslenkung des Pendels zu einem zukünftigen Zeitpunkt t∗ einen bestimmten Wert annimmt. Es soll also eine Vorhersage über das Zielsystem begründet werden. Über das Zielsystem wissen wir, dass das Fadenpendel mit einer Länge von l∗ zum Zeitpunkt 0 mit einer Winkelauslenkung von φ∗0 losgelassen wird und dass die Erdbeschleunigung 9.81m/s2 beträgt (Prämisse 1). Genau diese konjunktive Aussage wird nun über die Denotierungsabbildung D auf eine Aussage über das Modell abgebildet, welche angibt, dass die entsprechenden Variablen beziehungsweise Konstanten dieselben Werte annehmen (Prämisse 2). Durch den Schritt der Demonstration wird nun gezeigt, welchen Funktionswert φ unter diesen Annahmen annimmt (Prämisse 3). Die Aussage über den Funktionswert wird über die Interpretationsabbildung I wiederum auf eine entsprechende Aussage über das reale Pendel abgebildet (Prämisse 4). Dies soll insgesamt begründen, dass die reale Auslenkung des Pendels zum Zeitpunkt t∗ dem berechneten Funktionswert entspricht (Konklusion). 1. Das reale Pendel hat die Länge l∗ , eine Ausgangsauslenkung von φ∗0 zum Zeitpunkt 0 und die Erdbeschleunigung beträgt 9.81m/s2 . 2. Die Aussage „Das reale Pendel hat die Länge l∗ , eine Ausgangsauslenkung . . .“ wird unter D abgebildet auf „Für das Modell beschrieben durch Gleichung 1 gilt: l = l∗ , φ0 = φ∗0 , t = t∗ und g = 9.81m/s2 .“

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 65

3. Wenn für das durch Gleichung (1) beschriebene Modell gilt, dass l = l∗ , φ0 = q φ∗0 , t = t∗ und g = 9.81m/s2 , dann gilt für dieses Modell φ(t∗ ) = ∗ l∗ ∗ φ0 cos . gt ∗ 4. Die Aussage  das durch Gleichung 1 beschriebene Modell gilt: φ(t ) = q ∗ „Für ∗ l ∗ .“ wird unter I abgebildet auf die Aussage „Das reale Fadenφ0 cos gt

pendel hat zum Zeitpunkt t∗ eine Auslenkung von φ∗0 cos

q

l∗ ∗ gt



.“

∗ 5. Also: Das  Fadenpendel hat zum Zeitpunkt t eine Auslenkung von q ∗reale ∗ l ∗ φ0 cos . gt

Abstrahiert man von diesem konkreten Beispiel, lässt sich die Begründung folgendermaßen beschreiben: Eine Aussage p∗ , welche etwas über das Zielsystem aussagt und von der behauptet wird, dass sie wahr ist (Prämisse 1), wird über D abgebildet auf eine Modellaussage p (Prämisse 2). Im Schritt der Demonstration wird gezeigt, dass unter der Annahme p ebenso die Modellaussage q gilt (Prämisse 3). Die Aussage q wird nun über die Interpretationsabbildung I auf eine Aussage q ∗ über das Zielsystem abgebildet (Prämisse 4), was insgesamt zeigen soll, dass q ∗ im Zielsystem gilt (Konklusion). Als drittes Begründungsschema: 1. p∗ gilt im Zielsystem. 2. D(p∗ ) = p. (Denotierungsabbildung) 3. Wenn p, dann q. (Gezeigt durch Demonstration.) 4. I(q) = q ∗ . (Interpretationsabbildung) 5. Also: q ∗ gilt im Zielsystem. Instanziierungen dieses Schemas stellen allerdings defizitäre Begründungen dar. Ob nämlich q ∗ unter den in den Prämissen formulierten Annahmen auf das Zielsystem zutrifft, hängt stark davon ab, ob das gewählte Modell mit den entsprechenden Zuordnungsfunktionen D und I bezüglich der Vorhersage q ∗ empirisch adäquat ist, was in keiner der Prämissen ausgedrückt ist.23 Man könnte für ein beliebiges Zielsystem und beliebiges Modell die Abbildungen D und I so einführen, dass eine wahre Aussage p∗ über das Zielsystem gemäß D auf eine Aussage p abgebildet wird, von der gezeigt wird, dass q aus ihr folgt, wobei q wiederum auf eine falsche Aussage q ∗

23

Der Begriff der empirischen Adäquatheit wurde von van Fraassen (1980) geprägt. Ein Modell oder eine Theorie gilt dabei als empirisch adäquat, wenn das, was sich mit dem Modell oder der Theorie über beobachtbare Phänomene in der Welt ableiten lässt, wahr ist.

66 | Die Energiewende und ihre Modelle

über das Zielsystem abgebildet wird. In diesem Fall wären alle Prämissen des instanziierten Schemas wahr, die Konklusion jedoch falsch. So wissen wir beispielsweise von realen Fadenpendeln, dass das beschriebene Modell relativ zu den im Beispiel verwendeten Abbildungen D und I nicht empirisch adäquat ist, wenn die Ausgangsauslenkung recht groß ist oder der zukünftige Zeitpunkt t∗ hinreichend weit in der Zukunft liegt. Ist also im obigen Argument der Wert für die Ausgangsauslenkung oder der Zeitpunkt t∗ hinreichend groß, entspricht die Auslenkung des realen Pendels nicht mehr dem berechneten Funktionswert. Die entsprechende Konklusion ist also falsch, obwohl die Prämissen wahr sind. Für die Schemata 1–2 gilt zumindest, dass Instanziierungen derselben deduktiv gültige Argumente sind, also die Wahrheit der Prämissen die Wahrheit der Konklusion garantiert. Dem dritten Schema fehlt diese begründende Beziehung zwischen den Prämissen und der Konklusion. Dieser Mangel lässt sich jedoch leicht beheben, indem man eine weitere Prämisse ergänzt, welche explizit aussagt, dass das Modell relativ zu den Abbildungen D und I eine empirisch adäquate Beschreibung des Zielsystems darstellt. Diese Prämisse muss also zum Ausdruck bringen, dass in einem Zielsystem q ∗ gilt, falls (i) p∗ im Zielsystem gilt, (ii) p∗ unter D auf die Modellaussage p abgebildet wird, (iii) gilt, dass q, falls p, und (iv) die Modellaussage q durch I auf q ∗ abgebildet wird. Damit ergibt sich das vierte Begründungsschema: 1. p∗ gilt im Zielsystem. 2. D(p∗ ) = p. (Denotierungsabbildung) 3. Wenn p, dann q. (Gezeigt durch Demonstration.) 4. I(q) = q ∗ . (Interpretationsabbildung) 5. Für alle p∗ , q ∗ , p, q: Wenn (i) p∗ , (ii) D(p∗ ) = p, (iii) wenn p, dann q und (iv) I(q) = q ∗ , dann gilt q ∗ .24 (empirische Adäquatheit) 6. Also: q ∗ gilt im Zielsystem. Bevor dieses Schema angepasst wird, um das in Abschnitt 3 erläuterte Problem zu lösen, sollen einige Bemerkungen die Unterschiede zum ersten Schema sowie die Rolle der unterschiedlichen Prämissen verständlicher machen.

24

Streng genommen ist die Formulierung der fünften Prämisse formal unzulänglich. Die Allquantifizierung sollte eingeschränkt werden auf die jeweiligen Definitionsbereiche von D und I. Darüber hinaus sind p, p∗ , q und q ∗ in den anderen Sätzen des Schemas Platzhalter für Sätze, hier jedoch gebundene Satzvariablen. Eine entsprechende Anpassung ist leicht durchzuführen, vermindert jedoch die Lesbarkeit des Schemas.

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 67

Zur dritten Prämisse: Ähnlich wie in diesem Schema, findet sich im zweiten Schema ein Wenn-Dann-Satz (Prämisse 2), der durch den Modelllauf nachgewiesen wird. Dort wurde er allerdings noch als Aussage über das Zielsystem interpretiert, die angibt, was im Zielsystem passieren würde (Modellergebnis), wenn die im Modelllauf gemachten Annahmen auf das Zielsystem zuträfen. Der entsprechende Wenn-Dann-Satz im vierten Schema (Prämisse 3) ist ebenso eine Aussage, die mit Hilfe des Modells im Schritt der Demonstration nachgewiesen werden soll. Als Konsequenz der strikten Trennung zwischen Modell und Zielsystem ist sie allerdings keine Aussage über das Zielsystem, sondern lediglich eine über das Modell und damit unabhängig vom intendierten Zielsystem wahr oder falsch. Im Pendelbeispiel war es lediglich eine Aussage darüber, welchen Funktionswert die obige Gleichung annimmt; von ihrer Wahrheit kann man sich unabhängig von der Betrachtung realer Pendel überzeugen. Zur fünften Prämisse: Neben der Übertragung des DDI-Ansatzes in ein Begründungsschema ist es gerade die Ergänzung der fünften Prämisse, welche diesen Ansatz erweitert. Sie wurde eingeführt, um sicherzustellen, dass Instanziierungen des Schemas deduktiv gültige Argumente darstellen. Wird diese Prämisse in Instanziierungen des Schemas wahr, kann das Modell als empirisch adäquate Beschreibung des Zielsystems bezeichnet werden. Die explizite Formulierung empirischer Adäquatheit in Form der fünften Prämisse zeigt, dass empirische Adäquatheit und damit die Wahrheit der fünften Prämisse nicht nur vom Modell und von dem intendierten Zielsystem abhängen, sondern ebenso von den Abbildungen D und I. Ob das Modell bei gegebenen Abbildungen D und I eine empirisch adäquate Beschreibung des Zielsystems liefert, ist eine Frage, die durch Beobachtungen entschieden werden muss. Zur zweiten und vierten Prämisse: Die zweite und vierte Prämisse drücken explizit aus, wie zwischen Zielsystem und Modell durch D und I abgebildet wird. In der Modellierungspraxis werden diese Abbildungen eher implizit als explizit eingeführt. Natürlich werden sie nicht beliebig eingeführt. Ein wichtiges Ziel der Modellierung besteht gerade darin, Modelle für Zielsysteme zu finden, bei denen sich Abbildungen D und I finden lassen, sodass die fünfte Prämisse wahr wird – sich D und I also derart einführen lassen, dass das Modell eine empirisch adäquate Beschreibung des Zielsystems liefert. Der Freiraum, der durch die unterschiedliche Wahl der Abbildungen D und I bei gegebenem Modell und Zielsystem besteht, soll durch die erneute Verwendung des Pendelbeispiels illustriert werden. Wie bereits bemerkt, ist das durch Gleichung 1 beschriebene Modell für große Ausgangsauslenkungen und hinreichend weit weg liegende Zeitpunkte nicht empirisch adäquat, wenn D und I so eingeführt werden, wie weiter oben angedeutet. Es ist jedoch möglich, für dasselbe Zielsystem und dasselbe Modell D und I derart einzuführen, dass das Modell empirisch adäquat ist.

68 | Die Energiewende und ihre Modelle

Eine Möglichkeit besteht darin, die Definitionsbereiche von D und I von vornherein auf kleine Auslenkungen und nahe Zeitpunkte einzuschränken, also beispielsweise Zielsystemaussagen über große Ausgangsauslenkungen und über hinreichend weit weg liegende Zeitpunkte erst gar nicht auf Modellaussagen abzubilden. Aber selbst eine solche Einschränkung der Definitionsbereiche macht das Modell noch nicht empirisch adäquat. Die weiter oben am Beispiel beschriebenen Abbildungen könnte man als Identitätsabbildungen bezeichnen. Die Werte der Konstanten und Variablen des Modells entsprachen den Werten der entsprechenden Größen des realen Pendels. Aufgrund verschiedener Idealisierungen, wie beispielsweise der Vernachlässigung der Luftreibung und Elastizität des Fadens, treffen die mit Hilfe des Modells abgeleiteten Aussagen streng genommen nicht zu, sondern höchstens näherungsweise. Es ist aber nicht schwer, eine zur Identitätsabbildung alternative Interpretationsabbildung I zu finden, sodass das Modell empirisch adäquat wird. So könnte man, anstatt den berechneten Funktionswert im Schritt der Interpretation der Auslenkung direkt zuzuweisen, die Abbildung I so wählen, dass auf ein Intervall um den berechneten Funktionswert abgebildet wird. Eine alternative Formulierung der vierten Prämisse des obigen Arguments wäre demnach: Die Aussage „Für das durch Gleichung 1 beschriebene Modell gilt: φ(t∗ ) = φ∗ 0 cos

q

l∗ ∗ t g ∗





wird unter I abgebildetq auf die Aussage „Das reale Fadenpendel hat zum Zeitpunkt t eine l∗ ∗ ∗ t ± ∆.“. Auslenkung von φ0 cos g

Ist ∆ 6= 0, handelt es sich wirklich um eine andere Interpretationsabbildung und ist ∆ groß genug, ist das Modell – relativ zu D und der alternativen Wahl der Interpretationsabbildung – eine empirisch adäquate Beschreibung des Zielsystems. 6 Ein Lösungsvorschlag Während im letzten Abschnitt der DDI-Ansatz in ein Begründungsschema überführt worden ist, ohne dass damit geklärt worden ist, wie relevante Möglichkeiten mit Hilfe idealisierter Modelle begründet werden können, soll in diesem Abschnitt eine Lösung für das in Abschnitt 3 dargestellte Problem formuliert werden. Dazu wird das Begründungsschema des letzten Abschnitts in drei weitere überführt, welche zeigen, wie mit Hilfe idealisierter Modelle relevante Möglichkeiten begründet werden können. Die Anpassungen basieren dabei auf genau der gleichen Strategie, die schon verwendet wurde, um das zweite Schema durch Anpassung des ersten zu gewinnen. Die in Abschnitt 3 verwendete Strategie der Prämissen- und Konklusionsabschwächung führte zu einem Schema, welches als defizitär zurückgewiesen worden war, weil die erste Prämisse des Schemas im Fall idealisierter Modelle allein aufgrund idealisierender

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 69

Modellannahmen falsch wird. Durch die explizite Trennung von Modell und Zielsystem führt die gleiche Strategie, angewendet auf das vierte Begründungsschema des letzten Abschnitts, zu Schemata, die dieses Defizit nicht aufweisen. Es lassen sich drei Fälle unterscheiden. Der erste Fall beschreibt eine Situation, in der unser Wissen bezüglich mancher oder vieler Werte bestimmter Größen des Zielsystems stark beschränkt ist; wir wissen über diese lediglich, dass sie relevante Möglichkeiten darstellen. Nehmen wir beispielsweise an, dass die exakte Ausgangsamplitude des Fadenpendels unbekannt ist und wir nur wissen, dass sie sich in einem Intervall um den Wert φ∗0 befindet. Damit können wir nicht ausschließen, dass die Ausgangsamplitude φ∗0 beträgt. Es ist daher relevant möglich, dass sie φ∗0 beträgt. Schwächen wir die erste Prämisse des vierten Schemas entsprechend ab, lässt sich immer noch die gleichermaßen abgeschwächte Konklusion begründen. Abstrahierend vom Beispiel ergibt sich damit das fünfte Begründungsschema:25 1. Es ist relevant möglich, dass p∗ im Zielsystem gilt. 2. D(p∗ ) = p. 3. Wenn p, dann q. 4. I(q) = q ∗ . 5. Für alle p∗ , q ∗ , p, q: Wenn (i) p∗ , (ii) D(p∗ ) = p, (iii) wenn p, dann q und (iv) I(q) = q ∗ , dann gilt q ∗ . 6. Also: Es ist relevant möglich, dass q ∗ im Zielsystem gilt. Der entscheidende Unterschied zum defizitären zweiten Schema ist der folgende. Dort tauchte die in gleicher Weise abgeschwächte Prämisse „Es ist relevant möglich, dass p im Zielsystem gilt.“ auf. Im zweiten Schema ist p jedoch eine konjunktive Aussage bezüglich aller im Modelllauf gemachten Annahmen, insbesondere auch über die gemachten Idealisierungen, die dort als Aussagen über das Zielsystem interpretiert worden sind. Da das Wissen über die Falschheit dieser Aussagen zum relevanten Hintergrundwissen zählt, ist die erste Prämisse des zweiten Schemas allein aufgrund gemachter Idealisierungen falsch – unabhängig davon, um was für Idealisierungen es sich handelt. Deshalb erschien es fragwürdig, ob man mit Hilfe idealisierter Modelle überhaupt relevante Möglichkeiten begründen kann. Für das fünfte Schema gilt das

25

Ähnlich wie im zweiten Schema sollte in diesem die relevante Notwendigkeit der Prämissen 2–5 gelten, damit Instanziierungen des Schemas deduktiv gültig sind (vgl. Fußnote 18).

70 | Die Energiewende und ihre Modelle

nicht. Hier müssen die Idealisierungen nicht als falsche Aussagen über das Zielsystem interpretiert werden. Vielmehr können sie als wahre Aussagen über das Modell verstanden werden. Damit wird die erste Prämisse dieses Schemas auch nicht aufgrund gemachter Idealisierungen automatisch falsch. Es ist sicherlich instruktiv, sich genauer klar zu machen, wo und wie Idealisierungen in diesem neuen Bild auftauchen. Betrachten wir die im Pendelbeispiel vernachlässigte Luftreibung. Durch die Trennung von Modell und Zielsystem muss diese Idealisierung nicht mehr als Aussage über das Zielsystem interpretiert werden. Sie schlägt sich im Modell darin nieder, dass es im Modell gar keine Größen gibt, auf die Aussagen über die Luftreibung im Zielsystem abgebildet werden können. Dass das Modell die Luftreibung vernachlässigt, kann also als Aussage über die Abbildung D oder ebenso als Aussage über das Modell interpretiert werden und ist dann keine falsche Aussage über das Zielsystem, sondern eine wahre Aussage über D und das Modell. Selbst wenn die idealisierenden Modellannahmen für die Ableitung der Modellergebnisse explizit benutzt werden, treten sie nicht als falsche Aussagen über das Zielsystem im Schema auf. Sie gehen dann nicht in die erste, sondern in die dritte Prämisse ein. Ähnlich wie schon im ersten und zweiten Schema kann im fünften Schema p als Konjunktion aller gemachten Modellannahmen interpretiert werden, die für anspruchsvollere Modelle recht komplex sein kann. Gehen nun idealisierende Annahmen in die Ableitung der Modellergebnisse q ein, treten diese Annahmen explizit im Vordersatz p der dritten Prämisse des fünften Begründungsschemas auf. Hier ist p nur eben nicht mehr als falsche Aussage über das Zielsystem zu verstehen, sondern als wahre Aussage über das Modell. Die Rede von falschen Modellannahmen kann mit Hilfe des DDI-Ansatzes demnach folgendermaßen verstanden werden: Gemeint ist damit, dass in das Modell Annahmen eingehen, die, wenn man sie als Aussagen über das Zielsystem interpretiert, falsch sind. So interpretiert gehen sie jedoch nicht unbedingt als Prämissen in die Begründung relevanter Möglichkeiten ein, wie durch das letzte Begründungsschema gezeigt worden ist. Neben dieser ersten Art von Abschwächung, die man im diskutierten Beispiel als Parameterunsicherheit interpretieren könnte, lässt sich in ähnlicher Weise die fünfte Prämisse abschwächen.26 So lassen sich Fälle denken, in denen wir so wenig über das

26

Im Prinzip lassen sich neben den Prämissen 1 und 5 auch die anderen in ähnlicher Weise abschwächen. Aber das scheint für den betrachteten Kontext von untergeordneter Rolle zu sein. Die Prämissen 2 und 4 sind Aussagen über Abbildungen, die explizit oder implizit im Modellierungskontext eingeführt werden. Sie sollten daher hinreichend sicher sein. Prämisse 3 ist eine Aussage über das Modell, die durch den Modelllauf nachgewiesen werden soll.

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 71

Zielsystem wissen, dass wir einerseits nicht wissen, ob ein bestimmtes Modell bei gegebenen Abbildungen D und I eine empirisch adäquate Repräsentation darstellt, wir es andererseits aber ebenso wenig ausschließen können. Die empirische Adäquatheit stellt dann immerhin eine relevante Möglichkeit dar. Die Abschwächung der entsprechenden Prämisse führt zum sechsten Begründungsschema: 1. p∗ gilt im Zielsystem. 2. D(p∗ ) = p. 3. Wenn p, dann q. 4. I(q) = q ∗ . 5. Es ist relevant möglich, dass für alle p∗ , q ∗ , p, q gilt: Wenn (i) p∗ , (ii) D(p∗ ) = p, (iii) wenn p, dann q und (iv) I(q) = q ∗ , dann gilt q ∗ . 6. Also: Es ist relevant möglich, dass q ∗ im Zielsystem gilt. Der dritte Fall beschreibt eine Situation, in der die beiden Unsicherheiten des ersten und zweiten Falls zusammen auftreten. Ist sichergestellt, dass empirische Adäquatheit und die gemachten Annahmen über Wertzuweisungen bestimmter Größen des Zielsystems zusammengenommen eine relevante Möglichkeit darstellen, lässt sich immer noch die entsprechende Konklusion begründen.27 Im siebten Begründungsschema ist dies ausgedrückt in der vierten Prämisse: 1. D(p∗ ) = p. 2. Wenn p, dann q. 3. I(q) = q ∗ . 4. Es ist relevant möglich, dass p∗ im Zielsystem gilt und dass für alle p∗ , q ∗ , p, q gilt: Wenn (i) p∗ , (ii) D(p∗ ) = p, (iii) wenn p, dann q und (iv) I(q) = q ∗ , dann gilt q ∗ . 5. Also: Es ist relevant möglich, dass q ∗ im Zielsystem gilt.

27

Es reicht nicht aus, die erste und fünfte Prämisse des fünften Begründungsschemas für sich allein abzuschwächen. Das so entstehende Schema wäre nicht deduktiv gültig. Das liegt daran, dass es sein kann, dass für zwei Aussagen p, q gilt, dass p relevant möglich ist und dass q relevant möglich ist, nicht jedoch deren Konjunktion. Dass beide zusammen relevant möglich sind, muss daher explizit behauptet und gegebenenfalls begründet werden.

72 | Die Energiewende und ihre Modelle

Die in diesem Abschnitt vorgestellten Schemata 5–7 lösen das in Abschnitt 3 identifizierte Problem. Die dort erarbeiteten Begründungsschemata konnten nicht klar machen, wie man mit Hilfe idealisierter Modelle Möglichkeitsaussagen über Zielsysteme begründen kann, weil allein aufgrund der idealisierenden Annahmen in solchen Modellen Instanziierungen dieser Schemata immer falsche Prämissen aufweisen. Instanziierungen der Schemata 5–7 besitzen nicht zwingend falsche Prämissen im Fall idealisierter Modelle. Selbst wenn man die Aussage p wie noch im ersten und zweiten Schema als Konjunktion aller im Modelllauf gemachten Annahmen interpretiert, wurde diese Aussage in diesem Abschnitt als wahre Aussage über das Modell interpretiert und nicht als falsche Aussage über das Zielsystem. Darüber hinaus wird in keiner der Prämissen der Schemata 5–7 die Wahrheit von p beziehungsweise von „Es ist relevant möglich, dass p.“ behauptet, wie das weiter oben im ersten und zweiten Schema der Fall war. Das zeigt, dass es möglich ist, mit idealisierten Modellen relevante Möglichkeiten zu begründen. Man kann also dem in Abschnitt 1 erläuterten impliziten Begründungsanspruch in der Energiesystemmodellierung gerecht werden. Dass die entsprechenden Modelle von Idealisierungen Gebrauch machen, stellt den Begründungsanspruch nicht ohne Weiteres in Frage und kann damit nicht als uneingeschränkter Einwand gelten. Gleichsam darf die Reichweite der hier vorgestellten Entgegnung der possibilistischen Herausforderung nicht überschätzt werden. Allein, dass es möglich ist, relevante Möglichkeiten mit idealisierten Modellen zu begründen, zeigt nämlich nicht, dass Idealisierungen unproblematisch sind. Anders ausgedrückt: Allein dass Prämissen der Schemata 5–7 im Fall idealisierter Modelle nicht automatisch falsch werden, zeigt nicht, dass sie wahr sind. Sie können weiterhin falsch sein, was sicherlich stark von der Art der Idealisierung abhängt. Unter welchen Bedingungen es wirklich gelingt, relevante Möglichkeiten mit solchen Modellen zu begründen, bleibt im Rahmen des hier vorgestellten Vorschlags erst einmal offen. Will man die hier erarbeiteten Schemata für diese Fragen fruchtbar machen, müsste man untersuchen, unter welchen Bedingungen die entsprechenden Prämissen wahr werden und wie sie begründet werden können. Im Zentrum einer solchen Untersuchung stünde sicherlich die Frage, wie die Prämisse der empirischen Adäquatheit beziehungsweise ihrer relevanten Möglichkeit in spezifischen Fällen zu begründen ist. Diese wurde hier nur eingeführt, um sicherzustellen, dass Instanziierungen der Schemata in einem gewissen Sinne gute Begründungen darstellen.

Cacean: Die Begründung relevanter Möglichkeiten durch idealisierte Modelle | 73

7 Fazit Der Energiesystemmodellierung liegt implizit oft ein doppelter Begründungsanspruch zugrunde. Die benutzten Modelle sollen Energieszenarien als relevante Möglichkeiten begründen, die dann wiederum im Kontext der Politikberatung benutzt werden sollen, um Handlungsempfehlungen zu begründen. In Abschnitt 2 wurde der Begriff der relevanten Möglichkeit so weit expliziert, dass es zumindest möglich ist, mit den entsprechenden Möglichkeitsaussagen Handlungsempfehlungen zu begründen. Dann ist allerdings nicht mehr klar, wie idealisierte Modelle diese Möglichkeitsaussagen begründen können. Idealisierende Annahmen, interpretiert als falsche Aussagen über das Zielsystem, sind relevante Unmöglichkeiten. Entsprechende Prämissen der vorläufigen Begründungsschemata in Abschnitt 3 wurden dadurch allein aufgrund der Idealisierungen falsch – ganz unabhängig davon, um welche Art von Idealisierung es sich handelt. In den Abschnitten 5 und 6 wurden weitere Begründungsschemata erarbeitet, welche die Allgemeinheit dieses Einwands entkräften. Idealisierende Annahmen wurden unter Rückgriff auf den DDI-Ansatz nicht mehr als falsche Aussagen über das Zielsystem, sondern als wahre Aussagen über das Modell interpretiert. Dadurch sind Prämissen der Schemata 5–7 nicht allein aufgrund gemachter Idealisierungen falsch. Die Reichweite dieser Entgegnung ist allerdings begrenzt. Auch wenn gezeigt worden ist, dass relevante Möglichkeiten mit Hilfe idealisierter Modelle begründet werden können, bleibt offen, ob und unter welchen Bedingungen die in der Energiesystemmodellierung benutzten Modelle diese Leistung wirklich erbringen. Danksagung Dieser Text wurde am 6.11.2015 auf einem AutorInnenworkshop der LOBSTERForschungsgruppe des KIT besprochen. Die vielen Hinweise haben deutlich zur Verbesserung des Textes beigetragen, wofür ich mich bei den TeilnehmerInnen bedanken möchte – inbesondere bei Christian Dieckhoff und Eugen Pissarskoi. Literatur Betz, Gregor (2007): Probabilities in Climate Policy Advice: A Critical Comment. In: Climatic Change 85 (1), S. 1–9. —— (2010): What’s the Worst Case? The Methodology of Possibilistic Prediction. In: Analyse und Kritik 1, S. 87–106.

74 | Die Energiewende und ihre Modelle

—— (2015): Are Climate Models Credible Worlds? Prospects and Limitations of Possibilistic Climate Prediction. In: European Journal for Philosophy of Science 5 (2), S. 191–215. Betz, Gregor und Sebastian Cacean (2012): Ethical Aspects of Climate Engineering. Karlsruhe: KIT Scientific Publishing. Online: http://www.ksp.kit.edu/ index.php?link=title_info&oldTitleID=1000028245. Dieckhoff, Christian (2015): Modellierte Zukunft. Energieszenarien in der wissenschaftlichen Politikberatung. Bielefeld: transcript. EC, European Commision (2011): Energy Roadmap 2050 (Part 1). Online: https: //ec.europa.eu/energy/sites/ener/files/documents/sec_ 2011_1565_part1.pdf. van Fraassen, Bas C. (1980): The Scientific Image. Oxford: Oxford University Press. Frigg, Roman und Stephan Hartmann (2012): Models in Science. In: The Stanford Encyclopedia of Philosophy, hrsg. von Edward N. Zalta. Online: http://pla to.stanford.edu/archives/fall2012/entries/models-sci ence/. Gardiner, Stephen M. (2006): A Core Precautionary Principle. In: The Journal of Political Philosophy 14 (1), S. 33–60. Hansson, Sven Ove und Gertrude Hirsch Hadorn (Hrsg.) (2016): The Argumentative Turn in Policy Analysis. Reasoning About Uncertainty. Cham: Springer. Hughes, R. I. G. (1997): Models and Representation. In: Philosophy of Science 64, S. 325–36. Levi, Isaac (1980): The Enterprise of Knowledge: An Essay on Knowledge, Credal Probability, and Chance. Cambridge, Mass: MIT Press. Sugden, Robert (2009): Credible Worlds, Capacities and Mechanisms. In: Erkenntnis 70 (1), S. 3–27. Suppes, Patrick, R. Duncan Luce, Amos Tversky und David H. Krantz (2007): Foundations of Measurement I: Additive and Polynomial Representations. Mineola und New York: Dover Publication. Alle zuvor genannten Internetadressen waren am 18.08.2016 erreichbar.

Die Unterschätzung des Klimawandels Zum Einfluss nicht-epistemischer Werte auf die Klimamodellierung Anna Leuschner

1 Einleitung Komplexe Systeme wie das Klimasystem zu modellieren birgt viele Schwierigkeiten methodologischer und theoretischer Art; der Grund sind epistemische Unsicherheiten, die sowohl die Datenlage als auch kausale Zusammenhänge betreffen. Diese Unsicherheiten lassen Spielräume bei der Modellwahl zu, sodass ein Einwirken nichtepistemischer (z.B. politischer, moralischer oder ökonomischer) Werte auf die Konstruktionen der Modelle möglich wird. Dies wird oft von sogenannten KlimaskeptikerInnen als Beleg dafür beansprucht, dass die Ergebnisse der Klimaforschung, die in den Sachstandsberichten des Intergovernmental Panel on Climate Change (IPCC) präsentiert werden, nicht glaubwürdig sind. So wird auf Basis der Modellunsicherheiten mitunter geltend gemacht, dass gar nicht bewiesen sei, dass anthropogener Klimawandel stattfinde, oder, weniger extrem, dass die Modelle beziehungsweise die WissenschaftlerInnen hinter den Modellen systematisch den Klimawandel und seine Folgen übertrieben. In diesem Beitrag möchte ich zunächst (Abschnitt 2) die Unsicherheiten in der Klimaforschung kurz darstellen und zeigen, dass hierauf der Einfluss nicht-epistemischer Werte bei der Modellwahl zurückzuführen ist. Trotzdem liegt ausreichend empirisches Wissen vor, das die von den Modellen angezeigten Trends zuverlässig bestätigt. Allerdings belegen diverse Studien, wie ich in Abschnitt 3 zeigen werde, dass die Modellergebnisse den Klimawandel systematisch verzerren, ihn jedoch nicht, wie von SkeptikerInnen behauptet, über-, sondern vielmehr untertreiben. Dies erklärt sich zum einen aus der allgemeinen Tendenz von

76 | Die Energiewende und ihre Modelle

WissenschaftlerInnen, bei ihrer Arbeit zurückhaltend zu verfahren, zum anderen aber auch aus dem enormen gesellschaftlichen Druck, unter dem die Klimawissenschaft steht. Ich komme daher in Abschnitt 4 zu dem Schluss, dass die Ergebnisse in den IPCC-Berichten zuverlässig Klimawandeltrends angeben, aber insofern mit Vorsicht als politische Guidelines genutzt werden sollten, als sie tendenziell zu zurückhaltend sind. 2 Epistemische Unsicherheiten und nicht-epistemische Werte in der Klimamodellierung Es gibt viele Bereiche des globalen Klimas, die nur unzureichend bekannt sind, was schlicht an der Größe und Komplexität des Klimasystems liegt; darunter fallen z.B. ökologische und ökonomische, geologische und physikalische Zusammenhänge. Ich möchte zwei Bereiche beleuchten, die oft in der Diskussion sind, wenn es um die Glaubwürdigkeit der Klimaforschung geht: die Temperaturdaten, mit denen die Modelle nicht nur eingangs gespeist, sondern anhand derer die Modelle auch gemessen werden, und die physikalischen Grundlagen, die die Modellkonstruktion bestimmen. So gibt es hinsichtlich der globalen Durchschnittstemperatur seit 1900 Wissenslücken, was schlicht daran liegt, dass die Temperaturaufzeichnungen der Messstationen partiell sind; das Netz der Aufzeichnungsorte ist zwar immer engmaschiger geworden, doch bleibt der relevante Datensatz notwendigerweise lückenhaft. Dies ist insofern problematisch, als die Klimamodelle, deren Ergebnisse in die IPCC-Berichte aufgenommen werden, sich dadurch qualifizieren müssen, dass sie die Temperaturkurve von 1900 bis zur Gegenwart annähernd genau simulieren können. Nur wenn diese Rekonstruktionsleistung erbracht wird, werden die Prognosen eines Modells im IPCC-Bericht berücksichtigt. Die Lücken im Temperaturverlauf müssen folglich geschlossen werden, was sich nicht immer durch bloßes Inter- oder Extrapolieren erreichen lässt. Mitunter werden hier feiner aufgelöste, lokale und folglich sehr zuverlässige Wettermodelle eingesetzt, die dann sogenannte Reanalyse-Daten bereitstellen, welche die verfügbaren Messdaten ergänzen. Unvollständige regionale Datensätze können so durch die Aussagen von Wettermodellen aufgefüllt werden. Aufgrund der fehlenden Beobachtungsdaten beruht die Temperaturkurve, die für die Evaluation der Modelle benutzt wird, also zum Teil auf Reanalysedaten aus Wettermodellen. Hieraus ergibt sich das methodologische Problem, dass die Reanalysedaten (bewusst oder unbewusst) auf solche Weise konstruiert werden können, dass sie bestimmte Erwartungen bestätigen, indem sie bereits einen bestimmten Trend indizieren. Das kann beispielsweise geschehen, wenn die jeweiligen Wettermodelle entsprechende Datensätze oder Annahmen über das physikalische Verhalten bestimmter re-

Leuschner: Die Unterschätzung des Klimawandels | 77

levanter Klimagrößen enthalten, und wird insbesondere dann problematisch, wenn diese Daten oder Annahmen ebenfalls in den zu testenden Klimamodellen Verwendung finden, denn dann liegt eine Zirkularität im Testverfahren vor. Hierauf haben insbesondere Betz (2006, S. 112) und Parker (2011) hingewiesen, die von modellbeladenen Daten (in Anlehnung an theoriebeladene Beobachtungen) sprechen. Physikalische Annahmen über atmosphärisches Verhalten beispielsweise, sind in den Wettermodellen oftmals dieselben wie in den Klimamodellen. Modellbeladene Daten können deshalb, wie Betz und Parker zeigen, kein wirklich unabhängiges Testen von Klimamodellen ermöglichen:1 „This raises the worry that the fit between [...] data sets and simulations of past climate [... is] artificially inflated“ (Parker, 2011, S. 587). Zwar lässt dieses prinzipielle methodologische Problem nicht den klimaskeptischen Schluss zu, dass die Klimamodelle ganz und gar willkürlich konstruiert werden können, denn erstens sind Wettermodelle gut testbar, zweitens schließen Reanalysedaten lediglich Lücken in den Beobachtungsdatensätzen, und drittens können auch solche Annahmen, die in beiden Modelltypen (Wetter- und Klimamodellen) gemacht werden, isoliert getestet werden (Leuschner, 2015, S. 369–370). Doch zeigt der Fall der Reanalysedaten, wie (nicht-epistemische) Wertannahmen die Klimamodellierung – trotz umfangreicher Testverfahren – unbemerkt beeinflussen können: wenn bestimmte (nämlich nicht-epistemische) Annahmen sowohl in den Modellen gemacht werden als auch durch die Daten transportiert werden, die zum Testen eben dieser Modelle dienen sollen. Das Problem ist allerdings noch schwerwiegender, denn die physikalischen Grundlagen, die die Modellkonstruktion bestimmen, unterliegen Unsicherheiten über die Funktionsweisen des Klimasystems, was sich z.B. an Feedbackmechanismen durch Wolken oder Permafrostböden gut verdeutlichen lässt: So ist unklar, wie genau die globale Erwärmung Wolken oder Permafrost beeinflusst, ob in einer Weise, die die Erwärmung reziprok beschleunigt oder umgekehrt verlangsamt; darüber hinaus ist unklar, in welchem Ausmaß (wie stark, wie schnell) diese Feedbackmechanismen – seien sie positiver oder negativer Art – den Klimawandel jeweils beeinflussen (Bony et al., 2006). Entsprechend bleibt die Konstruktion der Modelle hinsichtlich bestimmter Parameter recht willkürlich, was bei starken Abweichungen mitunter schlicht durch ad hoc-Anpassungen ausgeglichen werden muss (Parker, 2011, S. 587f.; Lenhard und Winsberg, 2010, S. 257).

1

Dieses Problem betrifft nicht nur Reanalysedaten, sondern auch normale empirische Rohdaten, welche bei der Aufbereitung zu verwendbaren Daten interpretiert, verglichen und systematisiert werden müssen; Daten sind somit, wie Lloyd (2012) zeigt, immer selektiv und theoriebeladen.

78 | Die Energiewende und ihre Modelle

Auch hier zeigt sich wieder das Problem, dass die verwendeten Klimamodelle allesamt dieselben Lücken aufweisen, dieselben Vereinfachungen enthalten und dieselben Idealisierungen vornehmen können, wie Parker verdeutlicht: „[... I]n general, the possibility should be taken seriously that a given instance of robustness in ensemble climate prediction is, as Nancy Cartwright once put it, ‚an artifact of the kind of assumptions we are in the habit of employing“‘ (Parker, 2011, S. 591). Dies ist nicht zuletzt deshalb problematisch, weil die modernen Klimamodelle alle von denselben Urmodellen der 1950er Jahre abstammen (Lenhard und Winsberg, 2010; Masson und Knutti, 2011). Es kann also sein, dass bestimmte, mitunter vielleicht falsche Wertannahmen schon damals gemacht worden sind und seither unbemerkt von Modell zu Modell weitergegeben werden. Dies können auch nicht-epistemische Wertannahmen sein. Angesichts dieser methodologischen Probleme stellt sich die Frage, inwieweit man den Modellergebnissen überhaupt trauen kann. Vielfach werden hier sogenannte Ensemble-Studien ins Feld geführt: Dabei wird versucht, eine möglichst große Bandbreite von Klimamodellen zusammenzubringen, sodass bestimmte Gleichungen oder Parameterwerte, die sich zwar unterscheiden, allesamt aber im Bereich des Möglichen liegen (d.h. dem Wissensstand nicht widersprechen), berücksichtigt werden. So werden die Rechenergebnisse der Modelle verschiedener Universitäten und Forschungszentren miteinander verglichen. Ergebnisse solcher Ensemble-Studien sind entsprechend Bandbreiten möglicher Klimaentwicklungen (Parker, 2011, S. 582). Diese Bandbreiten möglicher Entwicklungen, wie sie durch die IPCC-Berichte prominent geworden sind, werden als robust angesehen, wobei Robustheit hier allerdings lediglich meint: zuverlässig, gegeben den derzeitigen Wissensstand (Leuschner, 2015). Und so können auch die Ensemble-Studien das gerade beschriebene Problem nicht aus der Welt schaffen, denn die zusammengeführten Modelle können auf den gleichen impliziten Annahmen beruhen und somit denselben, verzerrten Trend indizieren. Anders formuliert: Die durch die Ensemble-Studien geschaffene theoretische Pluralität ermöglicht zwar einen Überblick über globale Klimatrends, allerdings nur hinsichtlich des als gesichert geltenden Wissensstands, und dieser kann von geteilten, impliziten (nicht-epistemischen) Wertannahmen geprägt sein.2 Bislang habe ich nur argumentiert, dass (nicht-epistemische) Werte den Rechtfertigungskontext der Klimamodellierung (z.B. die Dateninterpretation und Modell-

2

Darüber hinaus erfordert die Interpretation und Einordnung der Ensemble-Ergebnisse wiederum ExpertInnenmeinungen, die von (nicht-epistemischen) Werten geprägt sein können (Biddle und Winsberg, 2010, S. 180).

Leuschner: Die Unterschätzung des Klimawandels | 79

konstruktion) beeinflussen können. Doch könnten nicht auch andere als nicht-epistemische Werte dafür herangezogen werden, die epistemischen Unsicherheiten und die daraus resultierende Modellunterbestimmtheit zu überbrücken? Wenn das so wäre, dann wäre ein notwendiger Einfluss nicht-epistemischer Werte auf den Rechtfertigungskontext nicht gegeben. Parker schlägt vor, dass die Lücken, die durch die epistemischen Unsicherheiten entstehen, nicht unbedingt mittels nicht-epistemischer Werte, sondern auch mittels „pragmatischer Faktoren“ geschlossen werden könnten: „Must their choice then either be arbitrary or determined by social values? No. Pragmatic factors can also fill the gap. For instance, the scientists might already have in hand some computer code for process P but not for processes Q, R, or S. Or they might judge that it will be much easier to incorporate P than to incorporate Q or R or S, given past choices in model building. Or they might be experts on P but have much less understanding of Q and R and S. Or it might be that a leading modeling group incorporated P for reasons like those just identified, and now it is seen as de rigueur for state-of-the-art climate models to include P. And so on.“ (Parker, 2013, S. 27)

Dies wirft allerdings verschiedene Probleme auf. Zum einen muss, selbst wenn eine Entscheidung im Modellierungsprozess pragmatisch nach Handhabbarkeit getroffen wird, dieser Entscheidung eine andere zugrunde liegen, nämlich die, dass es situativ gerechtfertigt ist, auf Basis rein pragmatischer Gründe Entscheidungen zu treffen. Eine solche Rechtfertigung erfordert aber ein Abwägen gegenüber (nicht-epistemischen) Werten. Zum anderen können, wie schon erwähnt, bestehende Modelle oder Modellteile bereits in der Vergangenheit von (nicht-epistemisch) wertbasierten Entscheidungen beeinflusst worden sein und folglich (nicht-epistemische) Werte unbemerkt transportieren (Winsberg, 2012, S. 127; Lenhard und Winsberg, 2010); wenn ein solches Modellteil dann aus pragmatischen Gründen übernommen wird, werden auch die darin enthaltenen (nicht-epistemischen) Wertannahmen mitübernommen. Zusammengefasst zeigt dies, dass sich der (nicht-epistemische) Werteinfluss aus der Klimamodellierung letztlich aufgrund der epistemischen Unsicherheiten und daraus folgenden Modellunterbestimmtheit nicht eliminieren lässt. Doch muss man sich vor Augen halten, dass hierbei lediglich Details der Ergebnisse betroffen sind – die groben Trends (die Erwärmung, der Meeresspiegelanstieg, die zunehmenden Dürren und Überschwemmungen) sind klar, nicht zuletzt weil sie auch durch die Befunde vieler anderer klimawissenschaftlich relevanter Forschungsbereiche wie z.B. diverser Bereiche der Biologie und Umweltwissenschaften, Geologie oder Paleoklimatologie bestätigt werden. Diese Trends dürfen folglich als zuverlässig gelten und werden dann durch die Modelle als Bandbreiten möglicher Entwicklungen (gegeben den Wissensstand) angegeben. Unsicher ist jedoch (in verschiedenem, von den jewei-

80 | Die Energiewende und ihre Modelle

ligen epistemischen Unsicherheiten abhängigem Maße), wo genau die Ränder dieser Bandbreiten anzusetzen sind. Die nicht-epistemische Beeinflussung des Rechtfertigungskontexts der Klimaforschung führt hier insofern zu Problemen, als von den Ergebnissen viele gesellschaftliche Interessen betroffen sind. So wird der Klimaforschung oft von konservativer Seite vorgeworfen, sie neige zu hysterischen Warnungen. Es könne ja sein, dass anthropogener Klimawandel stattfinde, doch sei dies sicher nicht so schlimm. Den ForscherInnen wird somit unterstellt, sie seien in einer Weise links-ökologisch motiviert, die ihre Forschungsergebnisse in alarmistischer Weise verzerrten. Inwiefern dies zutrifft, wird im Folgenden untersucht. 3 Nicht-epistemische Werte in der Klimamodellierung: Konsequenzen Im Gegensatz zum vielfach behaupteten Alarmismus der Klimaforschung finden sich seit einiger Zeit vermehrt Anzeichen dafür, dass die Klimaprognosen des IPCC den Klimawandel und seine Folgen systematisch unter-, nicht überschätzen. Dies zeigen zum einen empirische Studien, die die Prognosen vergangener IPCC-Berichte im Lichte neuer Erkenntnisse ausgewertet haben, zum anderen die stetig wachsende Zahl der Berichte von KlimaforscherInnen; diese beklagen, ihre Forschung unter politischem Druck sowie Repressionen und Drangsalierungen durch organisierte Klimaskepsis nicht mehr frei und unbeeinflusst ausführen zu können sowie zu einer Unterschätzung ihrer Ergebnisse zu neigen, um sich zu schützen (Biddle und Leuschner, 2015; Lewandowsky et al., 2015). Zu den empirischen Studien zählt beispielsweise eine Untersuchung, die die Vorhersagen des dritten Sachstandsberichts zu Temperaturentwicklung, Meeresspiegelanstieg und der atmosphärischen CO2 -Konzentration mit aktuellen Beobachtungsdaten abgeglichen hat und dabei zu dem Ergebnis kommt, dass der Bericht nichts übertrieben und einige Klimawandelfolgen (z.B. den Meeresspiegelanstieg) sogar unterschätzt hat (Rahmstorf et al., 2007). Eine Untersuchung des United Nations Environment Programme’s Climate Change Science Compendium, in der mehr als 400 Fachpublikationen ausgewertet wurden, kommt ebenfalls zu dem Schluss, dass die Entwicklung der atmosphärischen CO2 -Konzentration sowie verschiedener Klimawandelfolgen (unter anderem wieder des Meeresspiegelanstiegs) schwerwiegender seien als im vierten Sachstandsbericht des IPCC angenommen worden war (UNEP, 2009). Dasselbe zeigt ein Bericht des U.S. National Research Council; die bislang in den IPCC-Berichten angenommenen CO2 -Emissionen seien zu zurückhaltend gewesen:

Leuschner: Die Unterschätzung des Klimawandels | 81

„CO2 concentrations from fossil fuel burning and other sources are projected to increase from 2005 levels of 379 ppm to about 440 ppm by 2030 [...], committing the planet to additional warming. These projections are based on estimates that CO2 emissions in China increased at an annual rate of about 3 to 4 percent during the past 10 years [...], but a subsequent provincebased inventory concluded that emissions actually increased at a higher rate of about 10 to 11 percent [...]. For comparison, total fossil fuel emissions from the United States increased by about 11 percent over the entire 10-year period. Emissions from a number of other developed countries were also higher than agreed-to targets. These disparities between projected and actual emissions underscore the large uncertainties inherent in projecting CO2 and other greenhouse gas emissions, particularly beyond a decade. The Intergovernmental Panel on Climate Change (IPCC) projections may have been too conservative in other cases as well. For example, [... t]he retreat of summer Arctic sea ice and snow extent [...] and melting of the Greenland and Himalayan-Tibetan glaciers [...] may also be larger and faster than predicted.“ (NRC, 2009, S. 11–13)3

Diese stetige Unterschätzung des Klimawandels und seiner Folgen zeigt sich bildlich an der Entwicklung des sogenannten „burning embers“-Diagramms. Es illustriert die Risikoeinschätzungen für fünf zentrale Risikogruppen des Klimawandels (nämlich (i) Risiken für einzigartige und bedrohte Ökosysteme, (ii) Häufigkeit und Schweregrad extremer Wetterereignisse, (iii) die globale Verteilung von Klimawandelfolgen, (iv) die ökonomischen und ökologischen Gesamtfolgen des Klimawandels und (v) irreversible, großskalige und abrupte Brüche) durch das IPCC. Dieses Diagramm, welches im dritten Sachstandsbericht eingeführt worden war (IPCC, 2001, WG II, SPM, 5), wurde 2009 in einer Veröffentlichung der Proceedings of the National Academy of Sciences of the United States aktualisiert (Smith et al., 2009) und im fünften Sachstandsbericht des IPCC nochmals überarbeitet und auf den neuesten Stand gebracht (IPCC, 2014, WG II, ch. 19, S. 1073–1074). Die Abbildungen 1 und 2 zeigen die drei Diagrammversionen in ihrer historischen Reihenfolge. Für diese kontinuierliche Unterschätzung der Risiken gibt es sicherlich verschiedene Gründe. Zunächst ist wichtig zu beachten, dass die Entwicklung der Risikobeurteilung zu einem Großteil schlicht der Verbesserung des Wissensstands über die betroffenen Sozial- und Ökosysteme geschuldet ist.4 Allerdings impliziert dies, dass das, was als Wissensstand zählt, durchgängig (zu) zurückhaltend angesetzt war, was vermuten lässt, dass negative Befunde tendenziell vernachlässigt worden waren. Dies mag an einer grundsätzlichen Neigung von WissenschaftlerInnen liegen, in ihrer Ar-

3

Weitere Studien, die diesen Trend bestätigen, finden sich bei Brysse et al. (2013).

4

Dies betonen auch Smith et al. (2009).

82 | Die Energiewende und ihre Modelle TAR (2001) Reasons For Concern

Updated Reasons For Concern 5

Large Increase

Negative for Most Regions

Net Negative in All Metrics

Higher

5 Risks to Many

Large Increase

Negative for Most Regions

Net Negative in All Metrics

High

4

4

3

3 Future

2

Risks to Some

Increase

Negative for Some Regions; Positive for Others

Positive or Negative Market Impacts; Majority of People Adversely Affected

2

1

Very Low 0

Risks to Some

Increase

Negative for Some Regions; Positive for Others

Positive or Negative Market Impacts; Majority of People Adversely Affected

1

Increase in Global Mean Temperature above circa 1990 (°C)

Risks to Many

Low 0 Past

Risks to Unique and Threatened Systems Fig. 1.

Risk of Extreme Weather Events

Distribution of Impacts

Aggregate Impacts

-0.6 Risks of Large Scale Discontinuities

Risks to Unique and Threatened Systems

Risk of Extreme Weather Events

Distribution of Impacts

Aggregate Impacts

-0.6 Risks of Large Scale Discontinuities

Risks from climate change, by reason for concern—2001 compared with updated data. Climate change consequences are plotted against increases in

global mean temperature (°C) after 1990. Each column corresponds to a specific RFC and represents additional outcomes associated with increasing global mean Abbildung 1:colorDie erste Version aus dem Sachstandsbericht IPCC (links) temperature. The scheme represents progressively increasing levels ofdritten risk and should not be interpreted as representingdes ‘‘dangerous anthropogenic interference,’’ which is a value judgment. The historical period 1900 to 2000 warmed by ⬇0.6 °C and led to some impacts. It should be noted that this figure addresses only how risks change as global mean temperature increases, not how risks might change at different rates of warming. Furthermore, it does not und ihre Aktualisierung (rechts) in Smith et al. (2009, S. 2). address when impacts might be realized, nor does it account for the effects of different development pathways on vulnerability. (A) RFCs from the IPCC TAR as described in section 1. (B) Updated RFCs derived from IPCC AR4 as supported by the discussion in section 2. (Reproduced with permission from Climate Change 2001: Impacts, Adaptation and Vulnerability. Contribution of Working Group II to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Figure SPM-2. Cambridge University Press.)

beitupdate zurückhaltend zu‘‘burning verfahren (Brysse al., 52013, S.An327). °C by 2100. increaseEntsprechend in GMT ⬎5 °C by 2100bevorwould of the RFCs and the embers’’ figure derived et exceed from the recently released IPCC AR4 and subsequent literature. have even more adverse effects within each RFC than has been zugen WissenschaftlerInnen ohnehinwithtendenziell The final section compares the earlier representation the analyzed. falsch-negative gegenüber falschupdated version. The right side of Fig. 1 tracks the updated 5 RFCs against in GMT 1990. positiven Fehlern.5 Allerdings kann dies denincreases Trend, denabove Klimawandel und seine FolThe IPCC TAR and Reasons for Concern. Fig. 1 Left replicates the Risk to Unique and Threatened Systems. This RFC addresses the genversion zu unterschätzen, sicher wie Brysse et al. ebenfalls feststelof the ‘‘burning embers’’ diagramnur that teilweise was offered aserklären, potential for increased damage to or irreversible loss of unique figure SPM-2 in the Summary for Policymakers of the contriand threatened systems, such as coral reefs, tropical glaciers, lenbution (2013, S. 333). Faktor scheinen die gesellschaftlichen Bedingungen of Working GroupEin II toweiterer the TAR (4). IPCC AR4 endangered species, unique ecosystems, biodiversity hotspots, projected a range of 1.1 °C to 6.4 °C increase in GMT from 1990 small island states, and indigenous communities. to 2100 (5) based ondie 6 IPCC Special Report on Emissions – insbesondere klimaskeptischen Anfeindungen – zu sein, denen KlimawissenScenarios (SRES) nonmitigation scenarios (6). Although uncerRisk of Extreme Weather Events. This RFC tracks increases in tainty in the response of the climate system to increasing schaftlerInnen ausgesetzt sind (Brysse et al.,extreme 2013; Freudenburg und Muselli, 2010; events with substantial consequences for societies and greenhouse gas concentrations contributes to this very broad natural systems. Examples include increase in the frequency, spread in projections of increase in GMT, the magnitude of Lewandowsky et al., 2015; Medimorec und Pennycook, 2015). Die Berichte vieler intensity, or consequences of heat waves, floods, droughts, future emissions driven by alternative development pathways wildfires, or tropical cyclones. plays a comparable role. The assessed ‘‘likely range’’ (66–90%) KlimaforscherInnen Richtung. of global temperature increaseweisen by 2100 forin thediese lowest emissions Distribution of Impacts. This RFC concerns disparities of impacts. scenario (SRES B1) is 1.1 °C to 2.9 °C, whereas the likely range Some regions, countries, populations face greater harm forSo the highest (SRES A1FI) is 2.4 °C to 6.4 °C. Since die sind scenario KlimawissenschaftlerInnen, öffentlich vomandanthropogenen Klimafrom climate change, whereas other regions, countries, or pop2000, the trajectory of global emissions is above the highest SRES scenario The observed temperaturesprechen, change, reflect-einem immensen Druck durch organisierwandel und (5). seinen Gefahren ing the response to date of the climate system to historical is also at the top of the projected range of temperature te emissions, Verleumdungen und Anfeindungen fossiler Energielieferanten und konincrease (7). The temperature increases in Fig. 1 go up to 5 seitens °C §

§It

although, as the IPCC projects, the increase in GMT could 2 of 5 兩 www.pnas.org兾cgi兾doi兾10.1073兾pnas.0812355106

5

is recognized that vulnerability can also be partly a function of the expected rate of climate change, but this assessment focuses on the magnitude of change. These magnitudes are, however, projected to occur over time frames that imply rates of change that are very likely to exceed the abilities of natural and human systems to adapt completely.

Smith et al.

Begeht man einen falsch-negativen Fehler, weist man eine Annahme fälschlich zurück, bei einem falsch-positiven Fehler akzeptiert man sie fälschlich. Im hiesigen Kontext würde das bedeuten, dass z.B. der Annahme, der chinesische CO2 Ausstoß sei in der letzten Dekade nicht etwa um 10 bis 11, sondern lediglich um 3 bis 4 Prozent angestiegen, ein falschnegativer Fehler zugrunde liegt.

Leuschner: Die Unterschätzung des Klimawandels | 83

Abbildung 2: Die aktuelle, überarbeitete Version des Diagramms aus dem fünften Sachstandsbericht des IPCC (2014, Fig19-4). Es ist zu beachten, dass die Baseline geringfügig geändert worden ist (von 1990 zu 1986–2005). Interessant ist insbesondere, dass nun eine weitere Kategorie („very high risk“) eingeführt werden musste, die durch die Farbe Lila symbolisiert wird.

84 | Die Energiewende und ihre Modelle

servativer PolitikerInnen ausgesetzt (Oreskes und Conway, 2010).6 Dieser soziale Druck schreckt einzelne ForscherInnen davon ab, sich unbefangen zu äußern, und beeinträchtigt damit insgesamt die freie wissenschaftliche Diskussion. So werden bestimmte Hypothesen nicht oder nur in abgemilderter Form veröffentlicht: KlimawissenschaftlerInnen geben immer häufiger an, dass sie sich im Zweifel lieber etwas zurückhaltender äußern, um so möglichen Anfeindungen vorzubeugen (Biddle und Leuschner, 2015; Lewandowsky et al., 2015). Ergänzend dazu haben Medimorec und Pennycook (2015) eine linguistische Vergleichsstudie vorgelegt, in der sie zeigen, dass sich das IPCC in seinen Sachstandsberichten im Gegensatz zum „NIPCC“ (Nongovernmental International Panel on Climate Change), einem vom konservativen Think Tank „Heartland Institute“ herausgegebenen Bericht, durchgängig sehr vorsichtig und zurückhaltend äußert. Dies lege, so Medimorec und Pennycook, nahe, dass die politische Kontroverse über den Klimawandel eine eher vorsichtige Positionierung auf Seiten der Klimawissenschaft fördere, wohingegen das Lager der KlimaskeptikerInnen zur Aggression tendiere (Medimorec und Pennycook, 2015, S. 597 und S. 603). Abschließend ist zu sagen, dass auch eine gegenteilige Reaktion auf diesen sozialen Druck möglich ist. So haben de Melo-Martín und Intemann (2013) darauf hingewiesen, dass KlimawissenschaftlerInnen ebenso dazu tendieren könnten, den Klimawandel und seine Folgen zu überschätzen, um nicht von ihren KollegInnen der Klimaskepsis bezichtigt zu werden (de Melo-Martín und Intemann, 2013, S. 232). Diese Möglichkeit scheint plausibel und illustriert die Komplexität der epistemischen Konsequenzen, die die organisierte Klimaskepsis haben kann. Die empirischen Studien weisen jedoch allesamt darauf hin, dass die Klimaforschung insgesamt zur Unter-, nicht zur Übertreibung des Klimawandels und seiner Folgen neigt: „[There is] significantly stronger support for the testable prediction [...] that far from overstating the degree of change that is likely, scientific consensus statements such as those provided by the IPCC are more likely to understate the actual degree of climate disruption taking place“ (Freudenburg und Muselli, 2010, S. 489–490).

6

Dies betrifft insbesondere die USA, zunehmend jedoch auch Kanada, Großbritannien und Australien.

Leuschner: Die Unterschätzung des Klimawandels | 85

4 Fazit und Ausblick Es ist gezeigt worden, dass (nicht-epistemische) Werte die Klimaforschung und speziell die Klimamodellierung aufgrund empirischer Unterbestimmtheit zwangsläufig theoretisch und methodologisch beeinflussen. Dies wird problematisch, wenn die Forschungs- und Modellierungsergebnisse dadurch so verzerrt werden, dass relevante mögliche Entwicklungen unbeachtet bleiben. Dass viele der in den IPCC-Berichten präsentierten Ergebnisse tendenziell zu zurückhaltend sind, deutet an, dass die in der Klimaforschung und -modellierung gemachten Wertannahmen eine Tendenz zur Untertreibung des Klimawandels und seiner Folgen hervorbringen. Als Ursachen hierfür sind zum einen die allgemeine wissenschaftliche Tendenz zur Zurückhaltung, zum anderen die besondere gesellschaftliche Situation der Klimawissenschaft identifiziert worden. Dieser Befund wirft schließlich die Frage auf, welche normativen wissenschaftlichen und politischen Konsequenzen daraus gezogen werden sollten. Angesichts der Tatsache, dass viele der in den bisherigen IPCC-Berichten präsentierten Klimaprognosen durchgängig zu zurückhaltend gewesen sind, ließe sich zum einen fragen, ob nicht WissenschaftlerInnen besser gegen Anfeindungen wissenschaftsfeindlicher Lobbygruppen geschützt werden können – und zwar nicht nur, um ihre persönlichen Grundrechte zu wahren, sondern auch, um die Forschungsfreiheit zu schützen. Zum anderen stellen sich Fragen nach der Qualität der Sachstandsberichte als klimapolitische Informationsquellen. Beispielsweise wurde lange Zeit mehrheitlich das 2°-Ziel als „fokaler Punkt“ in der Klimapolitik angenommen (Jaeger und Jaeger, 2010), obwohl stets umstritten war, ob der wachsende globale Energiebedarf sich derart drosseln lässt, dass die 2°Marke eingehalten werden kann. Zugleich zeigt sich angesichts der hier diskutierten Probleme, dass zur Einhaltung des 2°-Ziels offenbar deutlich mehr Treibhausgasemissionen reduziert werden müssten, als die bisherigen, zurückhaltenden Ergebnisse nahegelegt haben (man denke allein an die systematische Unterschätzung der CO2 -Emissionen). Doch selbst wenn es möglich sein sollte, das 2°-Ziel zu erreichen, stellt sich angesichts der hier erörterten Probleme weiterhin die Frage, wie sinnvoll das 2°-Ziel überhaupt ist (man denke allein an die systematische Unterschätzung des Meeresspiegelanstiegs). So wurde zunehmend von ÖkologInnen und betroffenen indigenen Völkern ein ehrgeizigeres 1,5°-Ziel und eine entsprechend angepasste Forschungsagenda gefordert (AOSIS, 2016; Schrader, 2014); dieses Ziel ist nun ins Übereinkommen von Paris der UNFCCC aufgenommen worden (UNFCCC, 2015). Die hier erörterten Probleme sollen nicht grundsätzlich klimapolitische Zielvorgaben wie eine Erwärmungsgrenzmarke in Frage stellen. Allerdings sollten die Er-

86 | Die Energiewende und ihre Modelle

gebnisse in den IPCC-Berichten insofern mit Vorsicht als politische Guidelines bei der Zielsetzung genutzt werden, als sie tendenziell zu zurückhaltend sind. Danksagung Teile dieses Aufsatzes entstammen früherer Arbeiten, insbesondere Leuschner, 2015 und Biddle & Leuschner, 2015. Weitere Teile entstanden ebenfalls in Kooperation mit Justin Biddle. Ich danke Christian Dieckhoff, Stefan Gärtner, Philip Kitcher und Torsten Wilholt für Diskussionen über verschiedene Punkte dieses Aufsatzes. Literatur AOSIS, The Alliance of Small Island States (2016): AOSIS SBSTA Statement zur UNFCCC Climate Change Conference, May 2016, Bonn, Germany. Online: http://aosis.org/documents/climate-change/. Betz, Gregor (2006): Prediction or Prophecy? The Boundaries of Economic Foreknowledge and Their Sociopolitical Consequences. Wiesbaden: Deutscher Universitäts-Verlag. Biddle, Justin und Anna Leuschner (2015): Climate Skepticism and the Manufacture of Doubt: Can Dissent in Science Be Epistemically Detrimental? In: European Journal for Philosophy of Science 5 (3), S. 261–278. Biddle, Justin und Eric Winsberg (2010): Value Judgements and the Estimation of Uncertainty in Climate Modeling. In: New Waves in Philosophy of Science, hrsg. von P. D. Magnus und J. Busch, S. 172–197. Basingstoke: Palgrave Macmillan. Bony, Sandrine, Robert Colman, Vladimir M. Kattsov, Richard P. Allan, Christopher S. Bretherton, Jean-Louis Dufresne, Alex Hall, Stephane Hallegatte, Marika M. Holland, William Ingram, David A. Randall, Brian J. Soden, George Tselioudis und Mark J. Webb (2006): How Well Do We Understand and Evaluate Climate Change Feedback Processes? In: Journal of Climate 19, S. 3445–3482. Brysse, Keynyn, Naomi Oreskes, Jessica O’Reilly und Michael Oppenheimer (2013): Climate Change Prediction: Erring on the Side of Least Drama. In: Global Environmental Change 23 (1), S. 327–337. de Melo-Martín, Inmaculada und Kristen Intemann (2013): Scientific Dissent and Public Policy. In: EMBO Reports 14 (3), S. 231–235. Freudenburg, William R. und Violetta Muselli (2010): Global Warming Estimates, Media Expectations, and the Asymmetry of Scientific Challenge. In: Global Environmental Change 20, S. 483–491.

Leuschner: Die Unterschätzung des Klimawandels | 87

IPCC (2001): Contribution of Working Group II to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Online: http://www.grid a.no/publications/other/ipcc_tar/. —— (2014): IPCC Working Group II Contribution to AR5. Online: http://www. ipcc.ch/report/ar5/wg2/. Jaeger, Carlo und Julia Jaeger (2010): Three Views of Two Degrees. In: Regional Environmental Change 11, Suppl. 1, S. 15–26. Lenhard, Johannes und Eric Winsberg (2010): Holism, Entrenchment, and the Future of Climate Model Pluralism. In: Studies in History and Philosophy of Modern Physics 41 (3), S. 253–262. Leuschner, Anna (2015): Uncertainties, Plurality, and Robustness in Climate Research and Modeling. On the Reliability of Climate Prognoses. In: Journal for General Philosophy of Science 46, Extra Issue: Climate Science, hrsg. von E. Winsberg, S. 367–381. Lewandowsky, Stephan, Naomi Oreskes, James S. Risbey, Ben R. Newell und Michael Smithson (2015): Seepage: Climate Change Denial and Its Effect on the Scientific Community. In: Global Environmental Change 33, S. 1–13. Masson, David und Reto Knutti (2011): Climate Model Genealogy. In: Geophysical Research Letters 38 (8), S. L08703. DOI: 10.1029/2011GL046864. Medimorec, Srdan und Gordon Pennycook (2015): The Language of Denial: Text Analysis Reveals Differences in Language Use Between Climate Change Proponents and Skeptics. In: Climatic Change 133, S. 597–605. NRC, National Research Council (2009): Restructuring Federal Climate Research to Meet the Challenges of Climate Change. Washington, DC: The National Academies Press. Oreskes, Naomi und Eric Conway (2010): Merchants of Doubt. New York: Bloomsbury Press. Parker, Wendy (2011): When Climate Models Agree: The Significance of Robust Model Predictions. In: Philosophy of Science 78 (4), S. 579–600. —— (2013): Values and Uncertainties in Climate Prediction, Revisited. In: Studies in History and Philosophy of Science 46, S. 24–30. Rahmstorf, Stefan, Anny Cazenave, John A. Church, James E. Hansen, Ralph F. Keeling, David E. Parker und Richard C. J. Somerville (2007): Recent Climate Observations Compared to Projections. In: Science 316, S. 709. Schrader, Christopher (2014): Hier sind Drachen. Wie Wissenschaft und Politik eine Erwärmung um zwei Grad als Grenze zum gefährlichen Klimawandel definiert haben. In: Süddeutsche Zeitung, 6./7. Dezember 2014, S. 37.

88 | Die Energiewende und ihre Modelle

Smith, Joel B., Stephen H. Schneider, Michael Oppenheimer, Gary W. Yohe, William Hare, Michael D. Mastrandrea, Anand Patwardhan, Ian Burton, Jan CorfeeMorlot, Chris H. D. Magadza, Hans-Martin Füssel, A. Barrie Pittock, Atiq Rahman, Avelino Suarez und Jean-Pascal van Ypersele (2009): Assessing Dangerous Climate Change through an Update of the Intergovernmental Panel on Climate Change (IPCC) “Reasons for Concern”. In: Proceedings of the National Academy of Sciences 106 (11), S. 4133–4137. UNEP, United Nations Environment Program (2009): Climate Change Science Compendium 2009. Online: http://www.unep.org/compendium2009/. Winsberg, Eric (2012): Values and Uncertainties in the Predictions of Global Climate Models. In: Kennedy Institute of Ethics Journal 22 (2), S. 111–137. UNFCCC, United Nations Framework Convention on Climate Change (2015): Adoption of the Paris Agreement. Proposal by the President. COP21 Konferenz der United Nations Framework Convention on Climate Change. Online: http://u nfccc.int/documentation/documents/advanced_search/ite ms/6911.php?priref=600008831. Alle zuvor genannten Internetadressen waren am 18.08.2016 erreichbar.

Die Bürde des Möglichen Zum verantwortlichen Umgang mit Unsicherheiten in Energieszenarien Eugen Pissarskoi

1 Einleitung und Motivation der Leitfrage Energieökonomische Modelle dienen einem praktischen Zweck. Sie bieten Unterstützung bei der politischen Gestaltung von energieökonomischen Systemen. Die Fähigkeit zu einer gerichteten Einflussnahme auf das Energiesystem hat gegenwärtig – aufgrund von klimapolitischen Zielerklärungen und der sich daraus ergebenden Aufgabe der Dekarbonisierung der Energieversorgung – eine hohe politische Relevanz. Ergebnisse energieökonomischer Modelle enthalten Aussagen über politisch relevante Größen: über zukünftige Energiepreise, über die Menge von Treibhausgasen, die dabei emittiert werden, über Beschäftigungseffekte etc. Solche Erkenntnisse sind nicht nur politisch relevant, sie sind auch moralisch bedeutsam. Von der Gestaltung von Energiesystemen hängt es ab, wer zu welchen Preisen Zugang zu Energie und darauf basierenden Dienstleistungen haben wird. Letztere sind nötig, um grundlegende menschliche Bedürfnisse zu befriedigen. Es scheint also, dass Ergebnisse energieökonomischer Modelle die interessierte Öffentlichkeit dabei unterstützen, eine begründete Meinung über die Ausgestaltung eines gerecht verfassten Energiesystems auszubilden. Das Wissen darüber, dass ein auf eine bestimmte Art und Weise ausgestaltetes Energiesystem gewisse Konsequenzen in normativ relevanten Größen (wie z.B. Treibhausgasemissionen oder Energiepreisen) haben wird, erlaubt es, das jeweilige Energiesystem normativ zu beurteilen. Wenn beispielsweise die Konsequenzen aus moralischen Gründen abgelehnt werden, lässt sich daraus schlussfolgern, dass auch das entsprechend verfasste Energiesys-

90 | Die Energiewende und ihre Modelle

tem, in dem sich diese Konsequenzen einstellen werden, aus moralischen Gründen abgelehnt werden soll. Damit suggerieren Ergebnisse energieökonomischer Modelle, dass es möglich sei, aus ihnen Aussagen darüber abzuleiten, wie das Energiesystem gestaltet werden sollte, damit politisch oder moralisch relevante Größen des Energiesystems sich so entwickeln, wie es gesellschaftlich gewünscht wird oder moralisch gerechtfertigt ist. In der politischen Praxis dienen Modellergebnisse dazu, moralisch relevante Thesen über die Gestaltung des Energiesystems zu rechtfertigen und moralisch relevante Handlungen zu begründen oder gar zu veranlassen. Und sie werden dazu genutzt, zur Legitimität energiepolitischer Entscheidungen beizutragen. Einige Arbeiten zeigen allerdings, dass die Interpretation der Ergebnisse von (energie-)ökonomischen Modellen nicht trivial ist (z.B. Betz, 2008; Dieckhoff, 2015; sowie die Beiträge in diesem Band). Vielfach lassen sie sich nicht als deterministische oder probabilistische Prognosen über die zukünftige Entwicklung von politisch relevanten Größen interpretieren. Vielmehr sollen Ergebnisse zahlreicher energieökonomischer Modelle als Beschreibungen möglicher Entwicklungen von modellierten Größen des Energiesystems aufgefasst werden. Demnach generieren die energieökonomischen Ergebnisse einen geringeren epistemischen Mehrwert, als es gemeinhin erscheint. Wenn dieser Befund wahr ist – nämlich dass energieökonomische Modelle lediglich mögliche zukünftige Entwicklungen beschreiben – was hat das für Implikationen für die Praxis der wissenschaftlichen Politikberatung in demokratisch verfassten Gesellschaften? Ist dieser Befund nur von theoretischem Interesse oder folgen daraus Konsequenzen für die wissenschaftliche Politikberatung? Diese Fragen werde ich in diesem Text diskutieren. Zunächst werde ich vorstellen, wie in ausgewählten wissenschaftlichen Studien zur zukünftigen Energieversorgung Unsicherheiten in den Ergebnissen dargestellt werden (Abschnitt 2). Im darauf folgenden Abschnitt 3 werde ich diskutieren, welche Unsicherheiten in den Ergebnissen dieser Studien tatsächlich bestehen. Das wird verdeutlichen, dass es zwischen der Darstellung der Unsicherheiten in den Studien und ihrem tatsächlichen Vorhandensein Diskrepanzen gibt. Dies wird mich zu der Diskussion der Frage führen, wie die Diskrepanzen in der Darstellung der Unsicherheiten zu beurteilen sind (Abschnitt 4). Ich werde argumentieren, dass diese Diskrepanzen einen Anreiz zur Missinterpretation der wissenschaftlichen Ergebnisse darstellen und dass sie daher aus einem demokratietheoretischen und einem moralischen Grund unterlassen werden sollten. Und ich werde eine Überlegung diskutieren, die gegenwärtige Praxis der unklaren Darstellung der Unsicherheiten zu rechtfertigen. Gegen diese Überlegung bringe ich einen Einwand vor.

Pissarskoi: Die Bürde des Möglichen | 91

Im letzten Abschnitt (5) werde ich Vorschläge unterbreiten, was sich in der Praxis energieökonomischer Politikberatung ändern sollte, um die Ideale wissenschaftlicher Politikberatung nicht zu verletzen. 2 Modellergebnisse in der wissenschaftlichen Politikberatung Führen wir uns zunächst vor Augen, wie Ergebnisse energieökonomischer Modellierung in an die interessierte Öffentlichkeit gerichteten Berichten präsentiert und interpretiert werden. Für die Diskussion ziehe ich vier Studien heran, die typische Beispiele wissenschaftlicher Politikberatung darstellen: Kirchner und Matthes (2009), Schlesinger et al. (2010), Knopf et al. (2011) und Schlesinger et al. (2014). Schlesinger et al. (2014) erstellen laut Selbstbeschreibung eine „Referenzprognose“ für die energiewirtschaftliche Entwicklung in Deutschland bis zum Jahr 2030. Schlesinger et al. (2010) sowie Knopf et al. (2011) sind Studien, in denen die Wirkungen der Laufzeitveränderung der Kernkraftwerke in Deutschland auf ökonomische Größen (Energiepreise, Treibhausgasemissionen etc.) untersucht wurden. Kirchner und Matthes (2009) präsentieren ein Szenario für die Energieversorgung Deutschlands, in dem die Treibhausgasemissionen bis zum Jahr 2050 um 95% im Vergleich zum Niveau von 1990 reduziert werden. Alle Studien erwähnen – meist in den Einleitungsabschnitten – ausdrücklich, dass sie Szenarien modellieren. Selbst in dem Bericht, in dem eine „Referenzprognose“ modelliert wird, erläutern die AutorInnen mit Hilfe einer Graphik, dass in dem Bericht Ergebnisse einer Szenario-Analyse präsentiert werden, welche bedingte Aussagen generiere (Schlesinger et al., 2014, S. 40). In allen Studien werden ausgewählte Annahmen der jeweiligen Szenarien dargelegt, insbesondere diejenigen, die die Unterschiede zwischen den Szenarien verdeutlichen. Die Abbildung 1 präsentiert beispielhaft, wie die Unterschiede in zentralen Annahmen zwischen den Szenarien veranschaulicht werden. Zu den jeweiligen Szenarien präsentieren die Berichte numerische Ergebnisse für die relevanten abhängigen Variablen (z.B. Energiepreise, Treibhausgasemissionen). Die Ergebnisse werden tabellarisch präsentiert und ausgewählte Ergebnisse graphisch veranschaulicht (siehe Abbildungen 2 bis 4).

Verstärkter Ersatz durch Verstärkter Ersatz durch

Ersatztechnologien

92 | Die Energiewende und ihre Modelle

Ausstieg 2015 - Kohle

Ausstieg 2020 - Kohle

KE: Ausstieg 2015

KE: Ausstieg 2020

Fossile Kraftwerke: Schwerpunkt Kohle

Fossile Kraftwerke: Schwerpunkt Kohle

Ausstieg 2015 - Gas

Ausstieg 2020 - Gas

KE: Ausstieg 2015

KE: Ausstieg 2020

Fossile Kraftwerke: Schwerpunkt Erdgas

Fossile Kraftwerke: Schwerpunkt Erdgas

Ausstieg 2022

Ausstieg 2038

KE: AtG2002

KE: AtG2010

Fossile Kraftwerke: Kohle und Gas

Fossile Kraftwerke: Kohle und Gas

Laufzeit der Kernenergie

Sensitivitäten Forcierter Ausbau ern. Energien Demand-Side-Management Geringere Energieeffizienz Höhere Brennstoff- und CO 2-Preise weniger dez. Kraft-Wärme-Kopplung

Abbildung 1: Darstellung der Annahmen in Knopf et al. (2011, S. 19, Abbildung 5).

Abbildung 2: Darstellung der Modellergebnisse für Endverbraucherpreise in vier Szenarien (Sz I A, Sz II A, Sz III A, Sz IV A). Die Szenarien unterscheiden sich im Wesentlichen durch die Dauer der Kernkraftwerkslaufzeiten voneinander. Quelle: Schlesinger et al., 2010, S. 131, Abbildung 3.2.3.3-3.

Pissarskoi: Die Bürde des Möglichen | 93

5555

5555 555

5505

5505

5555

555

Abbildung 3: Darstellung der Modellergebnisse für Stromgestehungskosten in der WWF-Studie für das Dekarbonisierungs-Szenario. Quelle: Kirchner und Matthes, 2009, S. 243, Tabelle 5.3-46. 25.0

22.5

22.5

22.2

2.4

2.4

2.7

6.9

6.9

6.4

21.4

Haushaltsstrompreis [ct/kWh]

20.0 15.0 10.0 5.0

3.5 4.9

0.0 Ausstieg 2015 - Gas

Ausstieg Ausstieg 2020 - Gas 2022 Haushalte 2020

Großhandel

EEG

Ausstieg 2038

Endkundenpreis

Abbildung 4: Darstellung der Modellergebnisse für die Strompreise für Haushaltskunden für das Jahr 2020 (in Preisen von 2007) in vier Szenarien. Quelle: Knopf et al. 2011, S. 30, Abbildung 16.

94 | Die Energiewende und ihre Modelle

Abbildungen und Tabellen bedürfen jedoch einer Interpretation, d.h. einer expliziten Artikulation der in ihnen enthaltenen Erkenntnisse. Die Interpretation dieser Graphiken beziehungsweise der numerischen Angaben in den Tabellen wird nicht immer explizit und nicht immer eindeutig artikuliert. Schlesinger et al. (2010) schreiben beispielsweise, die Abbildung 3.2.3.3-3 (hier Abbildung 2) zeige die Endverbraucherpreise in den Szenarien im Zeitverlauf. Bei der Zusammenfassung der Aussagen ihrer Studie drücken sich die AutorInnen vorsichtiger aus. Sie treffen keine quantitativen Angaben, behaupten lediglich: „Längere Laufzeiten der Kernkraftwerke wirken auf CO2 -Preise und Strompreise entlastend.“ (Schlesinger et al., 2010, S. 10).

Substantiellere Aussagen treffen hingegen beispielsweise Knopf et al. (2011): „[Für private Haushalte wirkt sich] der Ausstiegszeitpunkt aus der Kernenergie nur in geringem Maße auf die Strompreise aus. [...] Die maximale Differenz zwischen einem Ausstieg 2015 und 2038 liegt bei 1,2 ct/kWh (3,50 Euro pro Monat)“ (Knopf et al., 2011, S. 42).

Auch die AutorInnen der Referenzprognose behaupten, ihre Ergebnisse hätten eine besondere epistemische Qualität, die sie als „wahrscheinlich“ bezeichnen. Sie schreiben: „Die Referenzprognose bietet einen umfassenden Blick nach vorne. Sie stellt die aus Sicht der Autoren wahrscheinliche zukünftige energiewirtschaftliche Entwicklung dar und berücksichtigt eine weiter verschärfte Energie- und Klimaschutzpolitik ebenso wie bestehende Hemmnisse für deren Umsetzung.“ (Schlesinger et al., 2014, S. 1), sowie: „Sie [die Referenzprognose] stellt diejenige Entwicklung der deutschen Energieversorgung bis 2030 dar, die unter Berücksichtigung grundlegender energiepolitischer Weichenstellungen aus Sicht der Auftragnehmer mit einer hohen Eintrittswahrscheinlichkeit verbunden ist.“ (ebd., S. 41)

Wir sehen, die Darstellung von Modellergebnissen in den Studien lassen mehrere Interpretationsmöglichkeiten zu. Die Aussage „Längere Laufzeiten der Kernkraftwerke wirken auf CO2 -Preise und Strompreise entlastend.“ (Schlesinger et al., 2010, S. 10) kann auf mindestens drei Arten interpretiert werden: • Ergebnisse werden in Schlesinger et al. (2010) als bedingte Prognose einer deterministischen qualitativ beschriebenen Zukunft interpretiert: Wenn die Laufzeiten der Kernkraftwerke verlängert werden, dann werden die CO2 - und die Strompreise sinken.

Pissarskoi: Die Bürde des Möglichen | 95

• Sie können aber auch etwas Schwächeres zum Ausdruck bringen, nämlich eine bedingte Prognose einer möglichen qualitativ beschriebenen Zukunft: Wenn die Laufzeiten der Kernkraftwerke verlängert werden, dann ist es möglich, dass die CO2 - und die Strompreise sinken. • Schlesinger et al. 2010 gestehen aber auch die Interpretation ihrer Modellergebnisse als eine bedingte Prognose einer deterministischen quantitativ eindeutig beschriebenen Zukunft zu, wenn sie schreiben, die Ergebnisse zeigten die Endverbraucherpreise in den Szenarien im Zeitverlauf. Die Interpretation der Abbildung lautet demnach: Wenn alle Annahmen des Szenarios IA in der Realität eintreten, dann werden die Endverbraucherpreise für Strom die Werte annehmen, die in der Abbildung 2 für das Szenario IA abgebildet sind, also 21,9 ct/kWh im Jahr 2020, 22,9 ct/kWh im Jahr 2030, 22 ct/kWh im Jahr 2040 und 21,4 ct/kWh im Jahr 2050 (numerische Werte sind entnommen aus: Schlesinger et al. 2010, Tabelle A 1-18). Auch die Darstellung der Ergebnisse in Knopf et al. (2011) erlaubt zwei verschiedene Interpretationen: • Die in der Abbildung 4 dargestellten Ergebnisse können als bedingte Prognose einer deterministischen in quantitativen Intervallen beschriebenen Zukunft interpretiert werden: Wenn alle Annahmen der unterstellten Szenarien in der Realität eintreten werden, dann wird eine Verlängerung der Laufzeiten der Kernkraftwerke gemäß den Szenarien die Endkundenpreise beim Strom im Jahr 2020 um maximal 1,1 ct/kWh senken. • Einige Formulierungen legen aber auch eine andere, stärkere Interpretation ihrer Modellergebnisse nahe, nämlich als absolute Prognose einer deterministischen in quantitativen Intervallen beschriebenen Zukunft: „Für Haushalte [...] wirkt sich der Ausstiegszeitpunkt aus der Kernenergie nur in geringem Maße auf die Strompreise aus. Die maximale Differenz zwischen einem Ausstieg in 2015 und 2038 liegt bei 1,2 ct/kWh (3,50 Euro pro Monat).“ (Knopf et al., 2011, S. 8; ähnlich auch S. 29, S. 42) Schlesinger et al. (2014) interpretieren ihre Ergebnisse als einen weiteren, epistemisch gehaltvolleren Typ von Vorhersagen (vgl. das auf S. 94 angeführte Zitat): • absolute Prognose einer probabilistisch beschriebenen Zukunft: Mit hoher Wahrscheinlichkeit werden die durchschnittlichen Stromgestehungskosten von 5,2 ct/kWh im Jahr 2005 auf 8,4 ct/kWh im Jahr 2050 ansteigen.

96 | Die Energiewende und ihre Modelle

Abbildung 5 bietet eine Übersicht über einige Typen prognostischer Aussagen und ordnet die identifizierten Vorhersagen aus den energieökonomischen Studien diesen Typen zu. 3 Wie Unsicherheiten in den Modellergebnissen interpretiert werden sollten AutorInnen der Studien sind sich im Grunde darin einig, dass sie keine absoluten Prognosen treffen können.1 Es dürfte daher nicht kontrovers sein, dass die Interpretationen als absolute Prognosen irreführend sind. Bieten nun die zahlreichen bedingten Prognosen adäquate Interpretationen für die Ergebnisse der Modellstudien? In diesem Abschnitt will ich argumentieren, dass in den betrachteten Studien lediglich bedingte Vorhersagen von possibilistischen (qualitativ oder quantitativ beschriebenen) zukünftigen Entwicklungen begründet werden. Und ich werde zwei wesentliche Gründe dafür anführen, weshalb wir lediglich mögliche Entwicklungen von energieökonomischen Systemen mittel- bis langfristig vorhersagen können. Energieökonomische Modelle, die ich in diesem Aufsatz diskutiere, haben den Zweck, Teile des technisch-ökonomischen Systems der Energieversorgung zu repräsentieren. Gibbard und Varian haben solche Modelle als „econometric models programmed on computers“ bezeichnet und sie von theoretischen ökonomischen Modellen abgegrenzt (Gibbard und Varian, 1978, S. 665).2 Sie bestehen erstens aus einer Menge von mathematischen Funktionen. Diese bilden eine Menge exogener Variablen und Konstanten auf eine Menge endogener Variablen ab. Zweitens enthalten sie eine Interpretation, mit der den mathematischen Größen Sachverhalte der Welt, nämlich des Energiesystems, zugeordnet werden (Gibbard und Varian, 1978).

1

Auch wenn einige Formulierungen das Gegenteil nahelegen, siehe die im letzten Abschnitt angeführten Zitate.

2

Sie gehören damit nicht zur Klasse von theoretischen ökonomischen Modellen. Letztere werden nicht zwingend zu dem Zweck erstellt, einen Ausschnitt der Wirklichkeit zu repräsentieren (vgl. Gibbard und Varian, 1978). Worin der Zweck theoretischer ökonomischer Modelle besteht, ist in der wissenschaftstheoretischen Literatur umstritten (vgl. GrüneYanoff, 2008).

Pissarskoi: Die Bürde des Möglichen | 97

Abbildung 5: Überblick über die in den Studien getroffenen Typen prognostischer Aussagen. Quelle: eigene Abbildung.

98 | Die Energiewende und ihre Modelle

Der Algorithmus eines energieökonomischen Modells generiert numerische Ergebnisse, die sich als Wenn-Dann-Sätze der folgenden Form verstehen lassen: Wenn die exogenen Größen des Modells x1 , ..., xn (die darin vorkommenden Parameter und Funktionsvariablen) die Werte a1 , ..., an annehmen, dann nehmen die abhängigen Variablen des Modells y1 , ..., ym (notwendigerweise) die Werte b1 , ..., bm an.

Damit diese numerischen Ergebnisse in der Politikberatung verwendbar werden, müssen sie erstens interpretiert werden, d.h. es muss spezifiziert werden, welche Beziehung zwischen den mathematischen Größen und Sachverhalten in der Welt besteht. Zweitens ist aber auch relevant, wie sicher oder unsicher die exogenen Parameter sind, welche in den Wenn-Teil des Konditionals eingehen. Eine mögliche Interpretation eines energieökonomischen Modells ist die der empirischen Adäquatheit. Dieckhoff (2015) hat vorgeschlagen, die Repräsentationsbeziehung zwischen den Parametern eines energieökonomischen Modells und den Sachverhalten der Welt auf diese Weise zu interpretieren. Ein Modell ist empirisch adäquat, wenn gilt: Wenn die Sachverhalte der Welt Ξ1 , ..., Ξn , die durch die exogenen Größen des Modells x1 , ..., xn repräsentiert werden, die Werte a1 , ..., an haben, dann werden die Sachverhalte der Welt Υ1 , ..., Υm , die durch die abhängigen Variablen des Modells y1 , ..., ym abgebildet werden, die Werte b1 , ..., bm annehmen. (angelehnt an Dieckhoff, 2015, S. 55)

Wenn die Interpretation der empirischen Adäquatheit eine angemessene Interpretation von energieökonomischen Modellen darstellt, dann lassen sich die Ergebnisse von solchen Modellen als bedingte deterministische, qualitativ oder quantitativ ausgedrückte Vorhersagen auffassen, also als Konditionale der folgenden Form: Wenn alle Annahmen exogener Parameter der Fall sind, dann werden die durch die endogenen Parameter repräsentierten Größen, beispielsweise die Strompreise, diejenigen Werte annehmen, die das Modell berechnet hat.

Um einen solchen Satz in Argumenten zu verwenden, mit denen politisch relevante Handlungsempfehlungen begründet werden, ist es erforderlich, die im Vordersatz (Wenn-Teil) enthaltenen Unsicherheiten zu kennen. Wenn wir beispielsweise hohe Gewissheit darüber haben, dass der Vordersatz wahr ist (in unserem Fall: dass alle Annahmen eines Szenarios der Fall sind), dann haben wir – falls das Modell empirisch adäquat ist – auch hohe Gewissheit darüber, dass das Konsequens wahr ist (in unserem Fall also, dass die Strompreise sich gemäß den Modellergebnissen entwickeln

Pissarskoi: Die Bürde des Möglichen | 99

werden). Wenn wir hingegen lediglich wissen, dass das Antezedens möglicherweise wahr ist, dann wissen wir auch über den Nachsatz lediglich, dass er möglicherweise wahr ist. In den beiden nachfolgenden Unterabschnitten möchte ich nun argumentieren, dass wir erstens von zahlreichen exogenen Annahmen, die in energieökonomische Modelle eingehen, lediglich einige mögliche Folgen kennen (Abschnitt 3.1). Zum anderen werde ich die These vertreten, dass energieökonomische Modelle nicht beanspruchen sollten, empirisch adäquat zu sein, sondern dass sie bestenfalls mögliche Entwicklungen repräsentieren (Abschnitt 3.2). 3.1 Unsicherheiten in den exogenen Annahmen Betrachten wir einige exogene Annahmen, die in die Szenarien eingehen: • Sozioökonomische Daten: Bevölkerungsentwicklung, Entwicklung des Bruttoinlandsprodukts (BIP), wirtschaftliche Strukturentwicklung, • Preise für Brennstoffe und die Erzeugung von Strom daraus, Steuern und Abgaben, • Entwicklung der Stromerzeugungstechnologien. In allen hier betrachteten Studien werden in einem Szenario numerisch präzise Werte für die exogenen Größen angenommen. Abbildung 6 listet die unterstellten Werte für einige exogene Annahmen auf. Wie sind solche Annahmen epistemisch einzuschätzen? Dass sie keine eindeutigen Vorhersagen der zukünftigen Entwicklung sind, darüber sind sich alle einig. Doch was sagen sie dann aus? Die Auswahl der numerischen Werte für die in der Abbildung 6 aufgelisteten Größen wird nicht überzeugend begründet. Knopf et al. übernehmen Werte exogener Parameter für übergeordnete Rahmendaten einer anderen Studie, der sogenannten „Leitstudie 2010“ (Nitsch et al., 2010), welche wiederum ihre Daten aus Schlesinger et al. (2010) übernehmen. Schlesinger et al. (2010) führen keine Gründe an, aus denen sie eine durchschnittliche BIP-Wachstumsrate von 1% jährlich unterstellen. Auch die Werte für die Bevölkerungsentwicklung und die Energiepreisannahmen werden lediglich genannt (S. 29ff.). Kirchner und Matthes (2009) entnehmen die Werte für die Bevölkerungsentwicklung der Bevölkerungsvorhersage des Statistischen Bundesamtes, modifizieren die Daten jedoch im Hinblick auf die Migrationsgrößen (S. 33). Eine Begründung für die Modifikation geben sie nicht an. Für die Wahl der BIP-Wachstumsrate von durchschnittlich 0,7% wird ebenfalls kein Grund angeführt (S. 37). Die Werte für die zukünftigen Energieträgerpreise entnehmen sie dem World Energy Outlook 2008 (IEA, 2008; vgl. Kirchner und Matthes, 2009, S. 44). Wie zuverlässig diese Daten sind, erläutern die AutorInnen nicht.

100 | Die Energiewende und ihre Modelle

Abbildung 6: Übersicht ausgewählter exogener Annahmen in den zitierten energieökonomischen Studien. Eigene Zusammenstellung.

Pissarskoi: Die Bürde des Möglichen | 101

Die Annahmen über die zukünftige Entwicklung von diesen Größen basieren auf induktiven Schlüssen.3 Gleichzeitig wissen wir aus bisherigen Erfahrungen mit induktiven Schlüssen auf zukünftige sozioökonomische Entwicklungen von mittel- bis langfristigen Zeiträumen, dass solche Vorhersagen unzuverlässig sind (vgl. z.B. Pilavachi et al., 2008; Makridakis et al., 2009). Aber bislang ist auch nicht gezeigt worden, dass die in den Studien angenommenen Werte für die exogenen Größen falsch sind. Aus diesem Grund schlage ich vor, die Annahmen über die zukünftige Entwicklung von solchen Größen wie Bevölkerungsentwicklung, Wirtschaftswachstum, Preise von Energieträgern, technologischer Fortschritt jeweils als eine (weder falsifizierte noch verifizierte) Hypothese über eine mögliche zukünftige Entwicklung aufzufassen (vgl. Betz, 2010, S. 93f.). Schlesinger et al. (2014) legen sich hingegen ausdrücklich auf eine stärkere These fest, indem sie behaupten, ihre Vorhersagen stellten Entwicklungen mit „hoher Eintrittswahrscheinlichkeit“ dar (vgl. Zitate auf S. 94). Doch auch sie treffen eindeutige Annahmen über die zukünftige Entwicklung von Bevölkerungsgröße, Wirtschaftswachstum, Energiepreise sowie Energie- und Klimaschutzpolitik, um die Referenzprognose zu erstellen (Schlesinger et al., 2014, S. 534). Gleichwohl führen die AutorInnen keine Gründe für die unterstellten Werte an (vgl. S. 63 für demographische Entwicklung; S. 65 für wirtschaftliche Entwicklung, S. 71f. für Energieträgerpreise). Auch die politischen Rahmenbedingungen werden lediglich aufgezählt.4 Eine Begründung dafür, warum die AutorInnen der Studie diese Entwicklungen für diejenige mit der höchsten Eintrittswahrscheinlichkeit halten (und wie die Menge aller möglichen Entwicklungen und ihre Wahrscheinlichkeitsverteilung aussieht), findet sich im Bericht nicht. Ich vermute, dass die AutorInnen der Referenzprognose mit dem Ausdruck „wahrscheinlichste Entwicklung“ diejenige zukünftige Entwicklung meinen, von der sie der

3

Es dürften Extrapolationen sein, jedoch sind die genauen statistischen Verfahren, mit denen Prognos seine Vorhersagen erstellt (auf die alle anderen hier betrachteten Studien zurückgreifen), mir nicht bekannt.

4

Ich zitiere: „Europa und Deutschland im Speziellen werden auch weiterhin eine Vorreiterrolle im Klimaschutz einnehmen. Fragen der internationalen Wettbewerbsfähigkeit werden eine zunehmend bedeutsame Rolle spielen. Global nimmt die Bedeutung des Klimaschutzes bei politischen Entscheidungen langfristig zu. Aber es wird nicht erwartet, dass kurzfristig ein umfassendes internationales Klimaschutzabkommen abgeschlossen wird. Allerdings zeigen zunehmend mehr Vorhaben auch außerhalb Europas einen Trend zu mehr Klimaschutz. Dadurch wird trotz der Vorreiterrolle Europas der Abstand im Klimaschutzniveau zu Nicht-EU-Nationen begrenzt.“ (Schlesinger et al., 2014, S. 41)

102 | Die Energiewende und ihre Modelle

Überzeugung sind, dass sie am ehesten eintreffen wird. Es gibt allerdings keine intersubjektiv nachvollziehbaren Gründe, aus denen die Überzeugung der AutorInnen über die zukünftige Entwicklung akzeptiert werden sollte. Ich glaube auch nicht, dass die AutorInnen der Studie die Fähigkeit haben, eine eindeutige zukünftige Entwicklung von sozioökonomischen Systemen als besonders gewiss auszuzeichnen. Aus diesen Gründen bezweifele ich, dass der Referenzprognose eine höhere epistemische Gewissheit zukommt als die Beschreibung einer möglichen zukünftigen Entwicklung. Die Studien Schlesinger et al. (2010) und Knopf et al. (2011) verfolgen das Ziel, mit Hilfe von energieökonomischen Modellen Wirkungen eines Eingriffes in die Energiemärkte zu erkunden, nämlich die Wirkungen der Verlängerung der Laufzeiten von Kernkraftwerken in Deutschland. Hierzu modellieren sie mehrere Szenarien, die sich nur durch die Setzung eines Parameters, nämlich der Anzahl von Kernkraftwerken zu einem Zeitpunkt, unterscheiden.5 Doch die energieökonomischen Wirkungen der Kernkraftwerkslaufzeit hängen ebenso von den exogenen Annahmen ab, deren zukünftige Entwicklung nur possibilistisch bekannt ist, wie das Wirtschaftswachstum, technologische Entwicklung von Energieerzeugungstechnologien, sozioökonomische Entwicklung etc. In den hier betrachteten Studien wurden nur wenige mögliche Werte für diese Parameter unterstellt.6 Deshalb zeigen die Modellergebnisse lediglich mögliche Wirkungen der Kernkraftwerkslaufzeiten auf die energieökonomischen Systeme. Wenn die tatsäch-

5

Genauer: die Annahmen in den Szenarien in Knopf et al. (2011) unterscheiden sich zum einen durch die Anzahl von Kernkraftwerken zu einem Zeitpunkt (vollständiger Ausstieg 2015/2020/2022/2038). Zum anderen modellieren sie für die Szenarien 2015 und 2020 zwei Ersatzoptionen: Substitution von Kernkraftwerken (zur Grundlastsicherstellung) durch Gas- oder durch Kohlekraftwerke. Schlesinger et al. (2010) variieren hingegen mehrere Annahmen in den Szenarien, sodass der vermutlich beabsichtigte Isolationseffekt bereits aufgrund der Annahmen nicht herausgefunden werden kann: Das Szenario, bei dem keine Laufzeitverlängerung angenommen wurde (d.h. ein Ausstieg bis zum Jahr 2022, wie unter der Bundesregierung unter Schröder festgelegt), unterscheidet sich in Annahmen zur Entwicklung der Energieeffizienz und somit des Anteils der Erneuerbaren an der Energieerzeugung von den restlichen Szenarien. Die restlichen Szenarien unterscheiden sich neben der Anzahl von Kernkraftwerken (Verlängerung der bis dato geltenden Laufzeit um 4/12/20/28 Jahre) auch in den Annahmen zur Entwicklung der Energieeffizienz.

6

In einem Szenario wurde jeweils nur ein Wert unterstellt; für einige Größen haben die AutorInnen aber Sensitivitätsanalysen durchgeführt, in denen sie diese Größen variiert haben.

Pissarskoi: Die Bürde des Möglichen | 103

liche Entwicklung der exogenen Größen anders verlaufen wird als in den Szenarien unterstellt, können die energieökonomischen Effekte der Variation der Kernkraftwerkslaufzeiten auch stärker oder schwächer ausfallen. Aus diesem Grund kann aus den Modellergebnissen nicht geschlussfolgert werden, dass die modellierte Veränderung der Kernkraftwerkslaufzeiten tatsächlich zu den energieökonomischen Wirkungen führen wird, die den Ergebnissen der Modellläufe entsprechen. Ich fasse zusammen: Ergebnisse von energieökonomischen Modellen lassen sich als Konditionale interpretieren. In den Vordersatz eines solchen Konditionals gehen exogene Annahmen über eine eindeutige Entwicklung von Energiepreisen, Bevölkerung, Wirtschaftswachstum, Technologie zur Energieerzeugung in den nächsten 35 Jahren ein. Ich habe vorgeschlagen, diese Annahmen als Hypothesen über mögliche Entwicklungen zu interpretieren und sie in diesem Sinne als möglich aufzufassen (denn es gibt keinen Nachweis der Unmöglichkeit dieser Hypothesen). Das gilt auch für die Hypothese, dass alle exogenen Annahmen aus einem Szenario gemeinsam möglich sind. Es gibt aber keine intersubjektiven Gründe, mit denen diese Annahmen über die zukünftige Entwicklung hinsichtlich ihrer Zuverlässigkeit geordnet werden können. 3.2 Interpretation von energieökonomischen Modellen: modale Konsistenz Wenden wir uns nun der Frage zu, wie die energieökonomischen Modelle selbst zu interpretieren sind, d.h. welche Beziehung zwischen dem mathematischen Algorithmus und den Sachverhalten der Welt besteht. In diesem Unterabschnitt argumentiere ich dafür, dass die hier betrachteten energieökonomischen Modelle nicht empirisch adäquat sind. Stattdessen glaube ich, dass sie mögliche Sachverhalte der Welt repräsentieren. Aus diesem Grund sollten ihre Ergebnisse als bedingte Vorhersagen von possibilistischen zukünftigen Entwicklungen interpretiert werden. Ein Modell ist nicht empirisch adäquat, wenn die innerhalb der Modelle unterstellten funktionalen Zusammenhänge die in der realen Welt stattfindenden Vorgänge nicht angemessen abbilden (vgl. die Explikation von empirischer Adäquatheit auf S. 98). Hier ist ein simples Beispiel für ein empirisch nicht adäquates Modell: Betrachten wir ein Modell, dass die zukünftige Bevölkerungsgröße eines räumlich abgegrenzten Gebietes (z.B. einer gewöhnlichen Stadt) berechnet. Wenn in die Funktion des Modells lediglich die Variablen Bevölkerungsgröße zum Anfangszeitpunkt, jährliche Geburtenrate und jährliche Sterblichkeit eingehen, ist das Modell nicht empirisch adäquat. Selbst wenn die numerischen Werte für diese Variablen der Realität entsprechen, kann das Ergebnis des Modells die zukünftige Bevölkerungsgröße falsch vorhersagen. Denn es vernachlässigt mindestens einen weiteren relevanten Einfluss-

104 | Die Energiewende und ihre Modelle

faktor, nämlich die Migration. Dieses Beispiel veranschaulicht eine Bedingung für die empirische Adäquatheit eines Modells: Vollständigkeit der relevanten kausalen Faktoren. Ich bin mir unsicher, ob die hier betrachteten energieökonomischen Modelle diese Vollständigkeitsbedingung erfüllen. Ich glaube aber, dass sie aus einem anderen Grund nicht empirisch adäquat sind. In die Modelle gehen vereinfachende beziehungsweise idealisierte Annahmen über das Energiesystem ein.7 Bei der Berechnung des zukünftigen Kraftwerkparks unterstellen Schlesinger et al. (2010) und Knopf et al. (2011, vgl. S. 52), dass die Elektrizitätsnachfrage auf einem vollständig kompetitiven Strommarkt kostenminimal befriedigt wird.8 Die Modelle enthalten jeweils einen Algorithmus, der ein lineares Optimierungsproblem löst, nämlich die für jeden Zeitpunkt vorgegebene Nachfrage nach Elektrizität mit dem jeweils günstigsten Technologiemix zu befriedigen. Dieser Algorithmus impliziert weitere Annahmen über das Verhalten ökonomischer Akteure: Die Modelle setzen perfekte Voraussicht der handelnden Akteure (über die zukünftige Energienachfrage), sowie die Handlungsmaxime, nur nach den Kosten zu entscheiden, voraus – Eigenschaften, die in der realen Welt in der Form nicht vorzufinden sein dürften. Bei solchen Kosten minimierenden Modellen ist es stets möglich, dass, selbst wenn alle exogenen Annahmen wahr sind, die Ergebnisse der Modelle nicht der Realität entsprechen. Die Modelle sind also nicht empirisch adäquat. Aufgrund von diesen Vereinfachungen sollte die Repräsentationsbeziehung zwischen den hier diskutierten energieökonomischen Modellen und der realen Welt nicht als die einer empirischen Adäquatheit aufgefasst werden, sondern als etwas, was ich als „modale Konsistenz“ bezeichnen möchte. Mathematische Ergebnisse der Modellläufe repräsentieren mögliche Sachverhalte der Welt. Ein Modelllauf zeigt, dass diese möglichen Sachverhalte konsistent sind mit unseren Hypothesen über eine mögliche Verfassung der realen Welt, die durch ein vereinfachendes beziehungsweise idealisiertes Modell formal abgebildet sind.9 Ein Modell ist modal konsistent und repräsentiert mögliche Sachverhalte, wenn gilt:

7

Die Frage der Interpretation von Modellen, in die idealisierte Annahmen eingehen, diskutiert ausführlicher Cacean in seinem Beitrag in diesem Band.

8

Schlesinger et al. (2010) setzen hierfür das Modell DIME ein (EWI, o.J.), Knopf et al. das Strommarktmodell MICOES (Knopf et al., 2011, S. 52).

9

Cacean (in diesem Band) erläutert, warum Ergebnisse von Modellen mit idealisierten beziehungsweise vereinfachten Annahmen als Möglichkeitsaussagen interpretiert werden können.

Pissarskoi: Die Bürde des Möglichen | 105

Wenn die Sachverhalte der Welt Ξ1 , ..., Ξn , die durch die exogenen Größen des Modells x1 , ..., xn repräsentiert werden, die Werte a1 , ..., an haben, dann ist es möglich, dass die Sachverhalte der Welt Υ1 , ..., Υm , die durch die abhängigen Variablen des Modells y1 , ..., ym abgebildet werden, die Werte b1 , ..., bm annehmen werden.

Nun können wir die Interpretation der Ergebnisse von den hier diskutierten Modellierungen ergänzen. Modellergebnisse rechtfertigen bestimmte Wenn-Dann-Aussagen (vgl. S. 98). Diese Konditionale werden mit Hilfe von energieökonomischen Modellen begründet, welche mögliche Verfassungen energieökonomischer Systeme repräsentieren. Hinzu kommt, dass in den Vordersatz dieser Konditionale exogene Annahmen eingehen, über die wir lediglich wissen, dass sie gemeinsam möglich sind (vgl. Abschnitt 3.1). Aus diesen Gründen handelt es sich bei den Modellergebnissen um nichts anderes als Vorhersagen einer jeweils möglichen Entwicklung: Möglicherweise werden sich die untersuchten energieökonomischen Größen so entwickeln, wie die Modellergebnisse es beschreiben.

Führen wir uns nun noch vor Augen, was – gegeben meine Behauptungen darüber, wie die Ergebnisse energieökonomischer Modellierungen interpretiert werden sollen – bezüglich der Darstellung der Ergebnisse der hier betrachteten Studien folgt. Sie sind teilweise irreführend, teilweise verklausuliert dargestellt. Die Darstellung ist irreführend, wenn die Ergebnisse folgendermaßen interpretiert werden: • als bedingte Prognosen von deterministischen zukünftigen Entwicklungen, unabhängig davon, ob diese qualitativ, in quantitativen Intervallen oder quantitativ eindeutig dargestellt werden; • als bedingte Prognosen von probabilistischen zukünftigen Entwicklungen; • als absolute Prognosen. Denn auf der Grundlage von im Rahmen der Studien durchgeführten Modellierungen können solche Vorhersagen nicht gerechtfertigt werden. Wenn die Modellierungsergebnisse hingegen als bedingte Vorhersagen einer possibilistischen Entwicklung (seien sie qualitativ oder quantitativ) dargestellt werden, so beschreiben sie auf eine verklausulierte Weise eine mögliche zukünftige Entwicklung. 4 Anreiz zur Missinterpretation der Ergebnisse Im letzten Abschnitt haben wir gesehen, dass in den betrachteten energieökonomischen Studien lediglich Beschreibungen weniger möglicher zukünftiger Entwicklun-

106 | Die Energiewende und ihre Modelle

gen gerechtfertigt werden. In den Berichten selbst werden die Ergebnisse allerdings teilweise irreführend, teilweise verklausuliert interpretiert: Manche Berichte legen durch die gewählten Formulierungen nahe, sie als absolute Prognosen zu interpretieren, wobei die Vorhersagen probabilistisch oder deterministisch in quantitativen Intervallen angegeben werden. Andere machen explizit, dass es bedingte Prognosen sind, ohne jedoch die Unsicherheiten in den exogenen Annahmen und in den Modellen näher zu spezifizieren. Für die Adressaten dieser Studien, VertreterInnen nicht-wissenschaftlicher Öffentlichkeit, ist es kaum möglich, die Aussagen der Modellierungen korrekt zu erfassen. Gleichzeitig ist der Gegenstand der hier diskutierten Modelle – energieökonomische Systeme – politisch relevant und moralisch bedeutsam (vgl. Abschnitt 1). 4.1 Einwand gegen mehrdeutige oder irreführende Darstellung von Unsicherheiten Wenn WissenschaftlerInnen Ergebnisse ihrer Forschung über einen politisch relevanten Gegenstand in an die nicht-wissenschaftliche Öffentlichkeit gerichteten Berichten irreführend oder mehrdeutig interpretieren, verstoßen sie gegen zahlreiche Ideale wissenschaftlicher Politikberatung in demokratischen Gesellschaften: sei es das Ideal des „ehrlichen Maklers von politischen Handlungsoptionen“ (honest broker of policy alternatives, Pielke, 2007), eines „wohlgeordneten Wissenschaftssystems“ (well-ordered science, Kitcher, 2011) oder das der „Kartographie alternativer Pfade“ (Edenhofer und Kowarsch, 2015). Aufgrund der epistemischen Arbeitsteilung in modernen Gesellschaften haben WissenschaftlerInnen gewisse Macht und Verantwortung: Gesellschaftliche Mitglieder von außerhalb der Wissenschaft sind praktisch nicht in der Lage, die Ergebnisse kritisch zu überprüfen und eventuelle Irrtümer festzustellen, sie müssen wissenschaftlich akzeptierten Ergebnissen vertrauen (Leuschner, 2012, Kapitel 2). Bei politischen Entscheidungen ist wissenschaftliche Expertise vielfach nötig, um die Menge von Handlungsoptionen und ihre Konsequenzen zu überschauen, aber auch um diese Menge einzuschränken. Hierzu überprüfen WissenschaftlerInnen Handlungsoptionen und ihre Konsequenzen auf Konsistenz mit dem vorhandenen Wissen. Auf diese Weise schließen sie manche Optionen aus dem Bereich der verfügbaren Optionen aus, wenn ihre Konsequenzen mit dem vorhandenen Wissen im Widerspruch stehen und sich somit als unmöglich oder nicht eintreffend erweisen. Beispielweise werden auf diese Weise Handlungsoptionen, deren Konsequenzen den Naturgesetzen widersprechen, aus dem Bereich der öffentlichen Deliberation ausgeschlossen. WissenschaftlerInnen verwenden ihre epistemische Autorität jedoch auf eine demokratietheoretisch bedenkliche Weise, wenn sie die Menge von Handlungsoptio-

Pissarskoi: Die Bürde des Möglichen | 107

nen auf eine andere Weise als durch Widersprüche mit dem Hintergrundwissen einschränken. Wenn sie beispielsweise auf Grund der Bewertung von einzelnen Konsequenzen die ihnen zugrunde liegenden Handlungsoptionen verwerfen. Oder wenn sie bestimmte mögliche Handlungskonsequenzen aus intersubjektiv nicht nachvollziehbaren Gründen als unmöglich oder als derart unwahrscheinlich einstufen, dass sie nicht relevant für die Entscheidungsfindung sind, und deshalb Handlungsoptionen verschweigen, aus denen die als unmöglich eingestuften Konsequenzen resultieren können. Denn auf diese Weise nutzen sie ihre Autorität dazu aus, der Öffentlichkeit weniger Handlungsoptionen zu präsentieren als sie tatsächlich hat, um aus ihnen auszuwählen. Das widerspricht allen oben genannten Idealen der wissenschaftlichen Politikberatung in demokratischen Gesellschaften. Wenn es sich um wissenschaftliche Ergebnisse handelt, die auch noch moralisch relevant sind, kann eine irreführende Darstellung der Ergebnisse dazu führen, dass auf der Basis dieser Ergebnisse ungerechte Entscheidungen getroffen werden. Somit gilt, dass die hier betrachteten energieökonomischen Studien es ermöglichen, dass bezüglich der Transformation des Energiesystems ungerechte Entscheidungen getroffen werden. Das ist nicht nur demokratietheoretisch, sondern auch moralisch bedenklich. Diese Kritik gilt auch, wenn wissenschaftliche Ergebnisse nicht irreführend, sondern lediglich mehrdeutig dargestellt werden. Denn durch die Mehrdeutigkeit entsteht die Möglichkeit zur Missinterpretation und damit zum Missbrauch der epistemischen Autorität der Wissenschaft mit prozedural und distributiv ungerechten Konsequenzen. Die mehrdeutige Darstellung der Unsicherheiten in den Ergebnissen schafft die Möglichkeit dafür, dass Ergebnisse der Modellierungen fehlinterpretiert werden. Ihre politische Relevanz verstärkt den Anreiz für politische Akteure, von dieser Möglichkeit Gebrauch zu machen und die Unsicherheiten der Modellergebnisse so zu interpretieren, wie es den jeweiligen politischen Überzeugungen am besten passt. Deterministische oder probabilistische Prognosen haben eine im Vergleich zu bloßen Möglichkeitsvorhersagen höhere Gewissheit. Deshalb können auf der Basis von deterministischen oder probabilistischen Prognosen leichter Argumente vorgebracht werden, die politische Handlungsempfehlungen rechtfertigen, als dies auf der Basis von Möglichkeitsaussagen der Fall ist. Scheinen die Ergebnisse zu den jeweiligen politischen Zielen zu passen, gibt es für politische Akteure einen Anreiz, sie als deterministische Prognosen in der politischen Argumentation einzusetzen. Scheinen die Ergebnisse den Zielen eher zu widersprechen, gibt es einen Anreiz, sie als möglichst unsicher zu interpretieren, beispielsweise sie als Aussagen über kaum relevante Möglichkeiten aufzufassen. Die nicht-informierte Öffentlichkeit ist allein auf der Grund-

108 | Die Energiewende und ihre Modelle

lage der energieökonomischen Berichte nicht in der Lage zu beurteilen, welche der möglichen Interpretationen der Unsicherheiten angemessen ist. 4.2 Gegenargument aus der gesellschaftlichen Verantwortung Die obige Argumentation scheint zu implizieren, dass irreführende oder mehrdeutige Darstellungen von Unsicherheiten in wissenschaftlichen Ergebnissen aus demokratietheoretischen und moralischen Gründen unterlassen werden sollten. Nun möchte ich einen Gegeneinwand gegen diese Konklusion diskutieren, nennen wir ihn den „Einwand aus der gesamtgesellschaftlichen Verantwortung“. Dieser sucht zu zeigen, dass es legitim ist, in bestimmten politisch relevanten Fällen Unsicherheiten irreführend oder mehrdeutig zum Ausdruck zu bringen. Es gibt Begründungen aus der Klimaethik dafür, dass Klimaschutzmaßnahmen möglichst frühzeitig und hinreichend umfassend umgesetzt werden sollen (z.B. Gardiner, 2011; Roser und Seidel, 2013; Moellendorf, 2014; Pissarskoi, 2014). In demokratischen Gesellschaften können politische Maßnahmen nur dann praktisch umgesetzt werden, wenn sie von politischen Mehrheiten akzeptiert und getragen werden. Um solche Mehrheiten zu gewinnen, hilft es, wenn breite Schichten der Bevölkerung davon überzeugt werden, dass die Maßnahmen erforderlich sind. Wissenschaftliche Erkenntnisse sind erfahrungsgemäß ein wichtiges Mittel, um die Öffentlichkeit zu überzeugen. Dabei helfen sie erfahrungsgemäß umso besser, je weniger Unsicherheiten sie aufweisen. Würde man die Unsicherheiten der Ergebnisse energieökonomischer Modelle präzise und wahrheitsgetreu zum Ausdruck bringen, würde man die Studien für die politische Kommunikation unbrauchbar machen. Das wäre aber angesichts des Handlungsdrucks, vor dem die Klimapolitik (und damit die Energiewende) steht, gesellschaftlich unverantwortlich.10 Auf Grund des klimapolitischen Handlungsdrucks sollten also WissenschaftlerInnen gesellschaftliche Verantwortung übernehmen und ihre epistemische Autorität dafür einsetzen, um klimapolitisches Handeln zu verstärken oder zu initiieren. Durch eine Stärkung der Gewissheit in der Darstellung von Ergebnissen von klima- oder energiepolitischen Studien, welche eine ambitionierte Handlungspolitik beziehungsweise frühzeitiges Handeln rechtferti-

10

Mir ist nicht bekannt, dass jemand diese Überlegung schriftlich vertreten hätte. In Diskussionen mit ModelliererInnen treffe ich jedoch immer wieder auf Begründungen ihrer Arbeiten, die ich wie dargestellt zusammenfassen würde. Zitate von KlimawissenschaftlerInnen, die eine ähnliche Haltung zur politischen Rolle von wissenschaftlichen Ergebnissen wie in der hier dargestellten Überlegung offenbaren, finden sich in Leuschner (2012, S. 76f.).

Pissarskoi: Die Bürde des Möglichen | 109

gen lassen, gehen die WissenschaftlerInnen ihrer gesamtgesellschaftlichen Verantwortung nach. Ich teile die Konklusion dieser Überlegung nicht – nämlich dass es moralisch korrekt sei, die Unsicherheiten in den Modellergebnissen zu untertreiben oder mehrdeutig zum Ausdruck zu bringen. Ich möchte gegen die Begründung dieses Gedankengangs zwei Einwände vorbringen. Erstens kann nicht gewährleistet werden, dass Ergebnisse energieökonomischer Modellierungen, deren Unsicherheiten verschwiegen oder vage ausgedrückt werden, nur für politische Zwecke eingesetzt werden, die moralisch gerechtfertigt sind. Sie können genauso gut gegen eine Klimaschutzpolitik verwendet werden. Zweitens, selbst wenn gewährleistet werden könnte, dass die Ergebnisse von Modellierungen für moralisch legitime Zwecke eingesetzt werden, würde ich die obige Konklusion bestreiten. Denn wenn WissenschaftlerInnen bewusst in Kauf nehmen, dass ihre Ergebnisse missinterpretiert werden, untergraben sie die Glaubwürdigkeit wissenschaftlicher Erkenntnisse. Und das ist ein hoher Preis. Sind aber die Gefahren, die der Klimawandel mit sich bringt, nicht deutlich schlimmer als die Gefahren, die aus dem Verlust wissenschaftlicher Glaubwürdigkeit resultieren würden? Führen wir uns hierzu die beiden Handlungsoptionen vor Augen und überlegen uns, welche Konsequenzen daraus in Bezug auf wissenschaftliche Glaubwürdigkeit und klimapolitische Wirksamkeit resultieren. Handlungsoption A: WissenschaftlerInnen kommunizieren die Unsicherheiten in den Ergebnissen (energieökonomischer) Modellierungen wahrheitsgetreu und präzise. Handlungsoption B: WissenschaftlerInnen verschweigen die Unsicherheiten und interpretieren die Ergebnisse (energieökonomischer) Modelle als eindeutige oder sehr wahrscheinliche Vorhersagen. Wenn WissenschaftlerInnen die Option A einschlagen, so stellen sie der Klimapolitik kein zusätzliches Instrument zur Verfügung, um ihre Wirksamkeit zu erhöhen. In Bezug auf die Wissenschaft hat diese Handlungsoption zwei Konsequenzen. Auf der einen Seite trägt sie dazu bei, dass das gesellschaftliche Vertrauen in die Problemlösungskompetenz der Wissenschaft abnimmt – die Öffentlichkeit erkennt, wie wenig die Wissenschaft sicher vorhersagen kann, und nimmt diese weniger ernst.11 Auf der anderen Seite trägt diese Option dazu bei, dass die Glaubwürdigkeit der Wissenschaft aufrechterhalten oder erhöht wird. Denn wahrheitsgetreu und präzise

11

Ich danke Anna Leuschner für den Hinweis auf diese Konsequenz.

110 | Die Energiewende und ihre Modelle

dargestellte Unsicherheiten in den Ergebnissen vermeiden, dass diese Ergebnisse für unterschiedliche politische Zwecke missinterpretiert werden, und sie reduzieren die Wahrscheinlichkeit, dass sich wissenschaftliche Ergebnisse als falsch erweisen. Wenn WissenschaftlerInnen hingegen die Option B einschlagen, so läuft langfristig die Glaubwürdigkeit der Wissenschaft Gefahr, verloren zu gehen. Allerdings untergräbt die Wissenschaft dadurch – zumindest kurzfristig – das gesellschaftliche Vertrauen in ihre Problemlösungskompetenz nicht. Und sie stellt der Klimapolitik ein Instrument zur Verfügung, um in der Öffentlichkeit Akzeptanz für die Umsetzung von klimapolitischen Maßnahmen zu schaffen. Welche Handlungsoption sollte angesichts dieser Konsequenzen vernünftigerweise gewählt werden? Ich glaube nicht, dass eine Entscheidung auf der Grundlage des Abwägens von Konsequenzen von diesen Optionen gerechtfertigt werden kann. In beiden Fällen geht es um Risiken, die durch unsere Entscheidungen verstärkt oder abgeschwächt werden würden. Die Konsequenzen können wir nicht deterministisch vorhersagen. Wenn wir versuchen, uns auszumalen, was die schlimmstmöglichen Konsequenzen der beiden Handlungsoptionen sind, so scheinen sie mir gleichwertig zu sein: In beiden Fällen können wir sie nur grob abschätzen und in beiden Fällen sind sie katastrophal. Option A hat zur Folge, dass ein klimapolitisches Instrument nicht eingesetzt wird. Im schlimmstmöglichen Fall ist es das Instrument, das zur Umsetzung einer hinreichend wirkungsvollen Klimapolitik fehlt. Falls keine hinreichend wirkungsvolle Klimaschutzpolitik betrieben wird, wird sich die Menschheit im schlimmstmöglichen Fall auslöschen (z.B. auf Grund von durch die Klimafolgen ausgelösten Ressourcenkriegen). Ein solches Szenario ist aber auch möglich als Folge der Handlungsoption B: Das Verschweigen von Unsicherheiten führt dazu, dass wissenschaftliche Vorhersagen sich häufig als irrtümlich erweisen. Dadurch verliert die Wissenschaft ihre Glaubwürdigkeit und die Öffentlichkeit beachtet nicht die Konsequenzen aus den Eingriffen in die Natur, was im schlimmstmöglichen Fall zu Naturkatastrophen mit fatalem Ausgang für die Menschheit führt. Ich glaube, dass die Handlungsoption A anstatt von B aus dem folgenden Grund gewählt werden sollte: Wenn WissenschaftlerInnen es zulassen, dass ihre Forschungsergebnisse falsch interpretiert werden, tragen sie kausal dazu bei, dass die Wissenschaft ihre Glaubwürdigkeit verliert. Es gibt keine anderen Mittel, die das wettmachen würden. Wenn sie damit gleichzeitig kausal dazu beitragen, dass die Problemlösungskompetenz der Wissenschaft geringer geschätzt wird, so ist es nur zu begrüßen: Durch eine wahrheitsgetreue Kommunikation von Unsicherheiten befördern sie, dass ihre Problemlösungskompetenz wahrheitsgetreu eingeschätzt wird. Und wenn von der Wissenschaft erwartet wird, dass sie Vorhersagen in Bezug auf gesellschaftli-

Pissarskoi: Die Bürde des Möglichen | 111

che Herausforderungen leistet, die sie tatsächlich nicht leisten kann, so zeugen diese Erwartungen von einer Wissenschaftsgläubigkeit der Gesellschaft, die in einer demokratischen Gesellschaft nicht vorhanden sein sollte. In der Klimapolitik ist hingegen das Instrument der Motivation zum politischen Handeln durch wissenschaftliche Publikation von Modellergebnissen lediglich ein klimapolitisches Instrument neben zahlreichen anderen. Wenn wir auf dieses Instrument verzichten, tragen wir nicht kausal zum Misslingen der Klimapolitik bei, sondern wir setzen ein Instrument unter mehreren anderen nicht ein. Hinzu kommt, dass die Wirkung des Instruments alles andere als gesichert ist. Stimmt es überhaupt, dass die Öffentlichkeit Argumente auf der Basis von korrekten Interpretationen energieökonomischer Studien nicht verstehen wird? Das Risiko einzugehen, wissenschaftliche Glaubwürdigkeit zu verlieren, ist gar nicht zwingend nötig, um erfolgreiche Klimapolitik zu machen (vgl. auch Leuschner, 2012). 5 Was sollte sich in der Praxis ändern? Es gibt also gewichtige normative Gründe, dafür zu sorgen, dass politisch relevante Ergebnisse wissenschaftlicher Forschung eindeutig und nachvollziehbar dargestellt werden und dass sie möglichst wenige Möglichkeiten zur Missinterpretation bieten (Abschnitt 4.1), und der Einwand hiergegen hat nicht überzeugt (Abschnitt 4.2). Was sollte sich nun an der Praxis der energieökonomischen Politikberatung ändern? Eine Möglichkeit besteht darin, daran zu forschen, energieökonomische Prognosen zu verbessern. In Abschnitt 3 haben wir zwei Quellen für die Unsicherheiten in den Ergebnissen diskutiert: erstens Unsicherheiten über die Entwicklung von relevanten exogenen Annahmen und zweitens der Einsatz von energieökonomischen Modellen, die lediglich modale Konsistenz beanspruchen können. Können energieökonomische Modelle so verändert werden, dass sie mehr als bloß modale Konsistenz – im Idealfall empirische Adäquatheit – beanspruchen können, und können die Unsicherheiten in exogenen Annahmen hinreichend stark reduziert oder gar beseitigt werden? Eine Antwort auf diese Frage verdiente eine eigene Diskussion. Für uns reicht die Beobachtung, dass es nach meinem Wissen gegenwärtig keine energieökonomischen Modelle gibt, die empirisch adäquat sind. Und auch relevante Vorhersagen von Größen wie langfristiges Wirtschaftswachstum, technologische Entwicklung und damit zusammenhängend Energieangebot und -nachfrage sind gegenwärtig lediglich possibilistisch. Wir sollten daher davon ausgehen, dass die bestehenden Unsicherheiten in exogenen Annahmen und im Verständnis energieökonomischer Systeme in der nahen

112 | Die Energiewende und ihre Modelle

Zukunft nicht beseitigt werden. Dann prognostizieren energieökonomische Modellierungsstudien weiterhin lediglich einige mögliche zukünftige Entwicklungen von politisch oder moralisch relevanten Größen. In diesem Fall sollen Politikberatungsstudien so verändert werden, dass in an die Öffentlichkeit gerichteten Berichten die Unsicherheiten in den Ergebnissen eindeutig, transparent und für die interessierte Öffentlichkeit nachvollziehbar zum Ausdruck gebracht werden. Um die Unsicherheiten in den Ergebnissen klar zu kommunizieren, sollten die in diesem Text festgestellten Mehrdeutigkeiten in den Darstellungen beseitigt werden: • Begründung der Szenarienauswahl: Die hier betrachteten Studien analysieren entweder unter der Annahme einzelner exogen festgelegter Szenarien mögliche zukünftige Veränderungen auf Energiemärkten oder sie variieren in einem Szenario einzelne Parameter, um ihre Wirkung auf die Energiemärkte herauszuarbeiten. In den Studien sollte begründet werden, warum ausgerechnet jenes Szenario (oder jene Szenarien) ausgewählt worden ist (sind).12 • Konsistente Sprachverwendung: Dass die Studien lediglich bedingte Vorhersagen rechtfertigen können, wird in den hier betrachteten Studien nur am Anfang erwähnt. Anschließend werden die Ergebnisse vielfach als absolute Prognosen dargestellt. Mehrdeutigkeit kann abgeschwächt werden, wenn an möglichst allen Stellen in den Berichten explizit darauf verwiesen wird, dass es sich um bedingte Aussagen handelt.

12

Die Auswahl eines Szenarios kann auf verschiedene Arten gerechtfertigt werden. Es können epistemische Gründe vorgebracht werden. Eine solche Begründung verweist darauf, dass ein bestimmtes Szenario einen bestimmten epistemischen Status hat: es ist realistisch oder sehr wahrscheinlich. Auf Grund der obigen Ausführungen bin ich aber skeptisch, dass die für energieökonomische Modellierung erforderlichen exogenen Festlegungen in den Szenarien auf diese Weise gerechtfertigt werden können. Szenarien können aber auch politisch begründet werden. Dabei würde man darauf verweisen, dass ein bestimmtes Szenario politisch relevant ist, beispielsweise weil darüber politische Kontroverse herrscht. Oder sie können mit dem Ziel, das Zukunftswissen als Selbstzweck zu erweitern, begründet werden. Ein solcher Grund könnte beispielsweise lauten, dass das gewählte Szenario noch nicht modelliert wurde und dessen Ergebnisse unser Wissen über mögliche Konsequenzen erweitern sollen. In einem solchen Fall dient die Modellierung jedoch der Erweiterung der Erkenntnisse und hat keine unmittelbaren politischen Implikationen. Auf diese Weise kann man nicht begründen, warum ein Szenario in einer Studie verwendet wird, deren Ergebnisse in den politischen Prozess eingespeist werden sollen.

Pissarskoi: Die Bürde des Möglichen | 113

• Unsicherheiten in den Annahmen: Die in den bedingten Aussagen enthaltenen Unsicherheiten hängen von den Unsicherheiten beziehungsweise Gewissheiten des Antezedens (d.h. der dort enthaltenen exogenen Annahmen) ab. Deshalb sollten die Unsicherheiten in den Annahmen, die in die Szenarien eingehen, präzise erläutert werden. • Explizites Bekenntnis zu den Unsicherheiten: Die hier analysierten Studien rechtfertigen bedingte possibilistische Prognosen. Diese sind nichts Anderes als Aussagen über einzelne mögliche zukünftige Entwicklungen. Diese Interpretation sollte in den Berichten explizit genannt und bei der Darstellung der Ergebnisse konsistent durchgehalten werden. Zweitens können aber auch die Studien selbst verändert werden, damit Ergebnisse über mögliche energieökonomische Entwicklungen zur Begründung von politischen Entscheidungen beitragen.13 Possibilistische Modelle können dazu genutzt werden, Unmöglichkeitshypothesen zu widerlegen (vgl. Betz, 2010). Insbesondere könnten die im öffentlichen Diskurs über die Transformation des Energiesystems artikulierten Thesen darüber, dass eine bestimmte Entwicklung nicht möglich sei, einer modellgestützten Überprüfung unterzogen werden. Liefert ein modal konsistentes Modell unter Unterstellung von exogenen Annahmen, die gemeinsam möglich sind, als Ergebnis, dass die hypothetische Entwicklung möglich ist, ist die Unmöglichkeitshypothese widerlegt worden. Aber auch unabhängig von öffentlichen Debatten können Unmöglichkeitshypothesen über politisch relevante Größen (Preisentwicklung der Elektrizitätsversorgung, Zusammensetzungen von Energiemixen und CO2 -Emissionen, Beschäftigungseffekte im Energiebereich etc.) aufgestellt werden und mit Hilfe von Modellen kann versucht werden, sie zu falsifizieren. Danksagung Ich danke Sebastian Cacean, Christian Dieckhoff und Anna Leuschner für eine kritische Lektüre früherer Versionen dieses Textes. Ich danke darüber hinaus Brigitte Knopf und Michael Pahle sowie Michael Schlesinger und Dietmar Lindenberger dafür, dass sie es ermöglicht haben, Graphiken aus ihren Studien hier abzudrucken.

13

Auf die logischen Tücken von Argumentationen auf der Basis von Möglichkeitsaussagen verweist der Beitrag von Betz in diesem Band.

114 | Die Energiewende und ihre Modelle

Literatur Betz, Gregor (2008): Der Umgang mit Zukunftswissen in der Klimapolitikberatung. Eine Fallstudie zum Stern Review. In: Philosophia Naturalis 45 (1), S. 95–129. —— (2010): What’s the Worst Case? The Methodology of Possibilistic Prediction. In: Analyse & Kritik 1 (1), S. 87–106. Dieckhoff, Christian (2015): Modellierte Zukunft. Energieszenarien in der wissenschaftlichen Politikberatung. Bielefeld: transcript. Edenhofer, Ottmar und Martin Kowarsch (2015): Cartography of Pathways: A New Model for Environmental Policy Assessments. In: Environmental Science & Policy 51, S. 56–64. EWI (o.J.): DIME Dispatch and Investment Model for Electricity Markets in Europe. A Brief Overview. Techn. Ber. Köln: Energiewirtschaftliches Institut an der Universität zu Köln. Gardiner, Stephen M (2011): A Perfect Moral Storm: The Ethical Tragedy of Climate Change. Oxford: Oxford University Press. Gibbard, Allan und Hal R. Varian (1978): Economic Models. In: The Journal of Philosophy 75 (11), S. 664–677. Grüne-Yanoff, Till (Dec 2008): Learning from Minimal Economic Models. In: Erkenntnis 70 (1), S. 81–99. IEA (2008): World Energy Outlook 2008. Techn. Ber. Paris: International Energy Agency. Kirchner, Almut und Felix Chr. Matthes (2009): Blueprint Germany. A strategy for a Climate-safe 2050. A Study Commissioned by WWF Deutschland. Berlin und Basel: WWF. Kitcher, Philip (2011): Science in a Democratic Society. Amherst und New York: Prometheus Books. Knopf, Brigitte, Hendrik Kondziella, Michael Pahle, Mario Götz, Thomas Bruckner und Ottmar Edenhofer (2011): Der Einstieg in den Ausstieg. Energiepolitische Szenarien für einen Atomausstieg in Deutschland. Studie im Auftrag der Abteilung Wirtschafts- und Sozialpolitik der Friedrich-Ebert-Stiftung. Leuschner, Anna (2012): Die Glaubwürdigkeit der Wissenschaft. Eine wissenschaftsund erkenntnistheoretische Analyse am Beispiel der Klimaforschung. Bielefeld: transcript. Makridakis, Spyros, Robin M. Hogarth und Anil Gaba (2009): Forecasting and Uncertainty in the Economic and Business World. In: International Journal of Forecasting 25 (4), S. 794–812.

Pissarskoi: Die Bürde des Möglichen | 115

Moellendorf, Darrel (2014): The Moral Challenge of Dangerous Climate Change. Values, Poverty, and Policy. Cambridge: Cambridge University Press. Monopolkommission (2009): Strom und Gas 2009: Energiemärkte im Spannungsfeld von Politik und Wettbewerb. Sondergutachten der Monopolkommission gemäss Par. 62 Abs. 1 EnWG. Sondergutachten 54, Monopolkommission. Nitsch, Joachim, Thomas Pregger, Yvonne Scholz, Tobias Naegler, Michael Sterner, Norman Gerhardt, Amany von Oehsen, Carsten Pape, Yves-Marie Saint-Drenan und Bernd Wenzel (2010): Langfristszenarien und Strategien für den Ausbau der erneuerbaren Energien in Deutschland bei Berücksichtigung der Entwicklung in Europa und global „Leitstudie 2010“. Techn. Ber. Stuttgart: Deutsches Zentrum für Luft- und Raumfahrt (DLR), Institut für Technische Thermodynamik, Abt. Systemanalyse und Technikbewertung und Teltow und Berlin: Fraunhofer Institut für Windenergie und Energiesystemtechnik (IWES), Kassel, Ingenieurbüro für neue Energien (IFNE). Pielke, Roger A. (2007): The Honest Broker: Making Sense of Science in Policy and Politics. Cambridge: Cambridge University Press. Pilavachi, Petros A., Th. Dalamaga, Domenico Rossetti di Valdalbero und JeanFrançois Guilmot (2008): Ex-post Evaluation of European Energy Models. In: Energy Policy 36 (5), S. 1726–1735. Pissarskoi, Eugen (2014): Gesellschaftliche Wohlfahrt und Klimawandel. Umgang mit normativen Annahmen und Ungewissheiten bei der klimaökonomischen Politikberatung. München: Oekom Verlag. Roser, Dominic und Christian Seidel (2013): Ethik des Klimawandels. Eine Einführung. Darmstadt: Wissenschaftliche Buchgesellschaft. Schlesinger, Michael, Peter Hofer, Andreas Kemmler, Almut Kirchner, Sylvie Koziel, Andrea Ley, Alexander Piegsa, Friedrich Seefeldt, Samuel Strassburg, Karsten Weinert, Dietmar Lindenberger, Andreas Knaut, Raimund Malischek, Sebastian Nick, Timo Panke, Simon Paulus, Christian Tode, Johannes Wagner, Christian Lutz, Ulrike Lehr und Philip Ulrich (2014): Entwicklung der Energiemärkte – Energiereferenzprognose. Endbericht. Techn. Ber. Projekt Nr. 57/12. Berlin: Bundesministerium für Wirtschaft und Technologie. Schlesinger, Michael, Peter Hofer, Andreas Kemmler, Almut Kirchner, Samuel Strassburg, Dietmar Lindenberger, Michaela Fürsch, Stephan Nagl, Moritz Paulus, Jan Richter, Johannes Trüby, Christian Lutz, Oleksii Khorushun, Ulrike Lehr und Ines Thobe (2010): Energieszenarien für ein Energiekonzept der Bundesregierung. Projekt Nr. 12/10 des Bundesministeriums für Wirtschaft und Technologie. Berlin: Prognos AG, Köln: EWI und Osnabrück: GWS.

Fehlschlüsse beim Argumentieren mit Szenarien Gregor Betz

1 Einleitung Die meisten politischen Entscheidungen müssen im Lichte von Unsicherheit über die genauen Folgen der verschiedenen Handlungsoptionen getroffen werden. Klassische Erwartungsnutzenmodelle (für das rationale Entscheiden unter Unsicherheit) mögen zwar von einem theoretischen Standpunkt aus relevant und interessant sein – aber die Unsicherheiten über Handlungsfolgen können nur in seltenen Fällen tatsächlich zuverlässig quantifiziert werden, was wiederum dem legitimen Einsatz von Erwartungsnutzenkalkülen in der wissenschaftlichen Politikberatung enge Grenzen setzt (Sahlin, 2012). Als Antwort auf diese Diagnose sind in den Wirtschaftswissenschaften, der Psychologie, den Kognitionswissenschaften und der Philosophie Verfahren der Entscheidungsfindung und -begründung entwickelt worden, die auch angesichts tiefgreifender, nicht-quantifizierbarer Unsicherheit normativer oder prognostischer Art eingesetzt werden können; Hansson und Hadorn (2016a) beschreiben derartige Situationen „großer Unsicherheit“ umfassend. Eine wesentliche Eigenart des Entscheidens unter großer Unsicherheit besteht darin, dass mit Szenarien (oder „Projektionen“) umgegangen werden muss. Ein Szenario, so will ich den Begriff hier verstanden wissen, beschreibt eine zukünftige Entwicklung, die als möglich gilt. Das Denken in Möglichkeiten ist ungewohnt und schwierig. Auf die besonderen Fallstricke des Szenario-Argumentierens soll in diesem Beitrag eingegangen werden. Ich werde dabei aufzeigen, wie man nicht in Situationen großer Unsicherheit räsonieren sollte. Natürlich ist ein solcher, bloß negativer Ratschlag nur von begrenztem Nutzen, solange er nicht um eine positive Anleitung zum richtigen Räsonieren ergänzt wird. Indes ist diese konstruktive Aufgabe nicht im Rahmen dieses Beitrags zu stemmen – ich kann hier nur auf die einschlägigen Kapi-

118 | Die Energiewende und ihre Modelle

tel in The Argumentative Turn in Policy Analysis (nämlich Hansson, 2016; Brun und Betz, 2016; Betz, 2016) hinweisen, die eine Topik des vernünftigen praktischen Argumentierens mit Möglichkeiten umreißen und weiterführende Literatur benennen. Es gibt zwei Arten des Argumentierens mit Szenarien in Entscheidungskontexten: (i) Argumentation zugunsten prognostischer Aussagen („x, y und z sind mögliche Folgen der-und-der Handlungsoption“, „die Menge X umfasst alle möglichen Folgen jener Option“, „der Eintritt von Folge x ist plausibler als der von Folge y“); (ii) Argumentation, basierend auf Szenarien, zugunsten präskriptiver Konklusionen, d.h. Aussagen, mit denen eine Handlungsoption als zulässig oder geboten ausgezeichnet wird. Beide Arten des Argumentierens weisen eine eigene ‚Logik‘ auf und verleiten dementsprechend je zu spezifischen Fehlern. Die Abschnitte 3 und 4 dieses Beitrags behandeln – ad (i) – die Fallstricke des prognostischen Argumentierens, während Abschnitt 5 – ad (ii) – auf die Fehlschlüsse des praktischen Argumentierens eingeht. Mit seinem klaren Fokus auf Szenarien ergänzt dieser Beitrag Hanssons weiter greifende Analyse von Fehlschlüssen unter großer Unsicherheit (Hansson, 2016). Bevor nun aber die einzelnen Fehlschlüsse vorgestellt und besprochen werden, soll im folgenden Abschnitt zunächst erläutert werden, was genau ein Fehlschluss eigentlich ist. 2 Was ist ein Fehlschluss? In einem sehr allgemeinen Sinn werden Denkfehler jedweder Art als Fehlschlüsse bezeichnet. In diesem Beitrag soll „Fehlschluss“ aber tatsächlich nur Fehler benennen, die speziell beim Schlussfolgern begangen werden. Schlussfolgerungen lassen sich in Form von Argumenten explizit machen. Ein Argument ist nun genau dann fehlschlüssig, wenn – selbst nach Ergänzung aller unausgesprochenen Voraussetzungen – aus seinen Prämissen die Konklusion nicht folgt (man nennt solche Argumente auch ungültig). (Beispiel 1) Das folgende Argument ist fehlschlüssig. 1. Sokrates hat nur dann Selbstmord begangen, wenn er nicht ermordet wurde. 2. Sokrates wurde nicht ermordet. 3. Also: Sokrates hat Selbstmord begangen. Die Konklusion folgt nicht aus den Prämissen. (Obgleich sowohl die Konklusion als auch die Prämissen wahr sind.)

Betz: Fehlschlüsse beim Argumentieren mit Szenarien | 119

Viele Argumente, die fälschlicherweise als gültig angenommen werden, weisen charakteristische Muster auf. Deshalb können fehlschlüssige Argumente mit Hilfe von Argumentationsschemata typisiert werden. (Beispiel 1, Fortsetzung) Dem Argument liegt das folgende Muster zugrunde, wobei p und q Platzhalter für Aussagen darstellen. 1. p nur dann, wenn q 2. q 3. Also: p Diesen (Typ von) Fehlschluss nennt man „Bejahung des Konsequens“. Als Fehlschluss kann sowohl ein einzelnes, fehlschlüssiges Argument als auch ein Muster fehlschlüssiger Argumente bezeichnet werden. Im letztgenannten Sinne ist ein Fehlschluss ein nicht korrektes Argumentationsschema, also ein Schema, dessen Platzhalter sich so ersetzen lassen, dass ein ungültiges Argument entsteht. Doch das heißt wohlgemerkt nicht, dass jedes Argument, welches das Muster eines Fehlschlusses aufweist, selbst fehlschlüssig ist, denn ein und dasselbe Argument kann ganz unterschiedliche Argumentationsmuster realisieren. (Beispiel 1, Fortsetzung) Ein Argument, welches das folgende Muster realisiert, wobei p und r Platzhalter für Aussagen sind, ist auch eine Instanz des Fehlschlusses „Bejahung des Konsequens“. 1. p nur dann, wenn (non-r und (r oder p)) 2. (non-r und (r oder p)) 3. Also: p Gleichwohl ist dieses Argument gültig, nicht fehlschlüssig. Denn die Konklusion folgt bereits allein aus (2). Fassen wir zusammen: Fehlschlüssige Argumente lassen sich gemäß der ihnen zugrunde liegenden Muster kategorisieren; dabei ist aber nicht jedes Argument, welches ein solches Fehlschluss-Muster realisiert, selbst fehlerhaft. Außerdem darf man daraus, dass ein Argument mit der Konklusion K fehlschlüssig ist, nicht dergleichen folgern wie • die Konklusion K des Arguments ist falsch;

120 | Die Energiewende und ihre Modelle

• eine der Prämissen des Arguments ist falsch; oder • es gibt kein anderes Argument, das die Prämissen des fehlschlüssigen Arguments beinhaltet und daraus, gemeinsam mit weiteren Annahmen, die Konklusion K gültigerweise folgert. Der letztgenannte Punkt weist auf eine wichtige Tatsache hin: Fehlschlüssige Argumente können immer ‚repariert‘ werden, indem entweder neue Prämissen hinzugefügt oder alte Prämissen modifiziert werden. Auch die Modifikation der Konklusion kann aus einem fehlschlüssigen ein gültiges Argument machen. (Beispiel 1, Fortsetzung) Das originale, fehlschlüssige Argument lässt sich reparieren, indem man Prämisse (1) modifiziert. 1. Sokrates hat dann und nur dann Selbstmord begangen, wenn er nicht ermordet wurde. (Gleichbedeutend: Entweder Sokrates hat Selbstmord begangen oder er wurde ermordet.) 2. Sokrates wurde nicht ermordet. 3. Also: Sokrates hat Selbstmord begangen. Das modifizierte Argument ist gültig; aber Prämisse (1) ist nun eine deutlich stärkere, weitreichendere (nämlich empirische) Behauptung. Für die Argument- und insbesondere die Fehlschluss-Analyse ergibt sich eine scheinbar fatale Konsequenz, da Argumente umgangssprachlich in aller Regel unvollständig vorgetragen werden (es handelt sich um sogenannte Enthymeme): Ohne Prämissen zu ergänzen, wären nahezu alle Argumente fehlschlüssig! Gestattet man aber die Ergänzung von Prämissen, so lässt sich jedes Argument als gültig rekonstruieren, und es würden mithin niemals Fehlschlüsse begangen. – Angesichts dieser Sachlage schlage ich vor, den Fehlschluss-Vorwurf genau dann zu erheben, wenn sich eine bestimmte Argumentation (für eine gegebene Konklusion) nur so verstehen und rekonstruieren lässt, dass das rekonstruierte Argument entweder fehlschlüssig ist oder aber Prämissen ergänzt werden müssen, die offenkundig falsch oder aus Sicht der Argumentierenden inakzeptabel sind. In den weiteren Abschnitten dieses Beitrags werden nun, wenngleich nur in informeller Weise, Typen von Fehlschlüssen, die häufig im Kontext des Argumentierens mit Szenarien begangen werden, identifiziert und anhand konkreter Beispiele (fehlschlüssiger Argumente) illustriert.

Betz: Fehlschlüsse beim Argumentieren mit Szenarien | 121

3 Probabilistische Fehlschlüsse Die im Folgenden besprochenen Fehlschlüsse stellen Spezialfälle von Hanssons Tuxedo Fehlschluss dar (Hansson, 2009), d.h. des Fehlers, davon auszugehen, dass Wahrscheinlichkeiten immer zuverlässig bestimmt werden könnten. 3.1 Frequentistischer Fehlschluss Wissenschaftliche Gutachten und Sachstandsberichte machen in zunehmendem Maße von mehreren Modellen Gebrauch, um Szenarien aufzustellen und zu analysieren. Dabei ist es fehlschlüssig, Wahrscheinlichkeitsprognosen aus sogenannten multi model ensembles (wie etwa Ensembles von Klima- oder Energiemodellen) herzuleiten, indem die (möglicherweise gewichteten) relativen Häufigkeiten des ModellEnsembles als Wahrscheinlichkeiten interpretiert werden. Warum handelt es sich um einen Fehlschluss? Das Argument setzt voraus, dass alle Modelle des Ensembles (a priori) als gleichwahrscheinlich betrachtet werden können (principle of indifference). Doch dieses Prinzip ist nicht zu rechtfertigen (van Fraassen, 1989, Kapitel 12). Außerdem unterstellt das Argument fälschlicherweise, dass die Modelle des Ensembles den Raum aller Möglichkeiten vollständig abdecken oder doch zumindest eine Zufallsstichprobe aus diesem Raum darstellen. Beide Annahmen sind unbegründet (vgl. Knutti et al., 2010; Parker, 2010). (Wenn das Argument bayesianisch rekonstruiert wird, so entsprechen die aufgeführten Schwierigkeiten jeweils dem Problem der Prior-Wahrscheinlichkeit und dem Problem der Bewertung der Catch-All-Hypothese.) (Beispiel 2) In einer Meta-Studie betrachten Krey und Clarke (2011) 162 globale Energieszenarien, welche das CO2 -Reduktionspotential sowie die Kosten erneuerbarer Energien abschätzen. Doch anstatt die 162 Szenarien als bloße Möglichkeiten anzusehen, schlussfolgern die Autoren aus den Ensemble-Ergebnissen eine probabilistische Konklusion und begehen damit den Frequentistischen Fehlschluss: „Hence, although there is no obvious silver bullet, there is an indication that some renewable energy sources are more likely to play an important role than others.“ (15; Hervorhebung GB) In seinem methodologisch sehr sorgfältigen Special Report on Renewable Energy Sources and Climate Change Mitigation verwendet und interpretiert das IPCC die Ergebnisse von Krey und Clarke indessen umsichtig und ohne dabei den Frequentistischen Fehlschluss zu begehen (Fischedick et al., 2011).

122 | Die Energiewende und ihre Modelle

3.2 Guru-Fehlschluss Es ist gängige Praxis, Unsicherheiten mit Hilfe sogenannter expert elicitations zu quantifizieren (O’Hagan und Oakley, 2004). Doch es ist fehlerhaft, Wahrscheinlichkeitsaussagen aus den Urteilen mutmaßlicher ExpertInnen in Abwesenheit unabhängiger Belege für das Vorliegen einer fallspezifischen Expertise herzuleiten. Eine allgemeine Variante dieses Fehlschlusses diskutiert zum Beispiel Salmon (1983). Warum handelt es sich um einen Fehlschluss? Es werden letztlich subjektive Glaubensgrade erhoben, die nicht zwangsläufig empirisch gedeckt sind. Schlimmer noch, Glaubensgrade von ExpertInnen genügen häufig nicht einmal den Wahrscheinlichkeitsaxiomen und sind dementsprechend inkonsistent und irrational (in einem bayesianischen Sinne). Kurz gesagt werden in dem Argument ExpertInnen als Gurus behandelt, denen blind zu trauen ist, und nicht als fallible Wesen mit begrenztem – möglicherweise sogar gar keinem – Wissen über die vorliegende Fragestellung; es wird schlicht ignoriert, dass auch unsere besten ExpertInnen auf manche Fragen gar keine begründete Antwort geben können. (Beispiel 3) Expert elicitations sind in den Klimawissenschaften eingesetzt worden, um den zukünftigen Klimawandel probabilistisch zu prognostizieren. Dabei geht es etwa um die Abschätzung der Klimasensitivität (d.h. der langfristigen globalen Erwärmung bei Verdopplung der CO2 -Konzentration), die potentielle Abschwächung der thermohalinen Zirkulation (d.h. des Systems von Meeresströmungen, welches unter anderem große Mengen Warmwasser in den Nordatlantik transportiert) sowie den Beitrag der polaren Eisschilde zum Meeresspiegelanstieg (vgl. jeweils Morgan und Keith, 1995; Zickfeld et al., 2007; Bamber und Aspinall, 2013). Diese Studien legen allerdings nicht dar, dass die befragten ExpertInnen tatsächlich über einen hinreichend breiten Erfahrungsschatz verfügen, um die entsprechenden Wahrscheinlichkeiten zuverlässig und korrekt zu schätzen. Deshalb begehen sie den Guru-Fehlschluss. Tatsächlich stellt sich in einer der genannten Untersuchungen heraus, dass die Glaubensgrade der befragten ExpertInnen nicht einmal konsistent sind (Zickfeld et al., 2007). 4 Possibilistische Fehlschlüsse 4.1 Fehlschluss des einzelnen Referenzszenarios Um alternative politische Maßnahmen zu analysieren, werden die Folgen verschiedener Handlungsoptionen typischerweise mit einem Referenzszenario (auch „baseline“

Betz: Fehlschlüsse beim Argumentieren mit Szenarien | 123

oder „business as usual scenario“) verglichen. Unter großer Unsicherheit ist es nun fehlerhaft, Maßnahmen nur relativ zu einem einzigen Referenzszenario zu bewerten. Warum handelt es sich um einen Fehlschluss? Unter Unsicherheit sind nicht nur die Folgen der Umsetzung verschiedener Maßnahmen ungewiss, sondern selbstredend auch die zukünftige Entwicklung, die eintritt, falls gar keine Maßnahmen umgesetzt werden. Indem man nur ein einzelnes Referenzszenario betrachtet, ignoriert man genau diese Unsicherheit und unterstellt, man könne die zukünftige Entwicklung für den Fall, dass keine Maßnahmen ergriffen werden, deterministisch vorhersagen. (Beispiel 4) Bevor die Bundesregierung im Anschluss an den Fukushima-Unfall letztlich entschied, aus der Atomenergie auszusteigen, hat sie noch im Jahr 2010 ein „Energiekonzept“ beschlossen, das eine Laufzeitverlängerung der deutschen Atommeiler vorsah. Im Zuge der Ausarbeitung des Energiekonzepts wurden drei führende Forschungsinstitute damit beauftragt, ein Gutachten zu erstellen, in welchem verschiedene Optionen zur Laufzeitverlängerung hinsichtlich volkswirtschaftlicher Effekte und klimapolitischer Ziele analysiert werden sollten. Das entsprechende Gutachten (Prognos, EWI, und GWS, 2010) vergleicht nun die alternativen Maßnahmen mit einem einzigen Referenzszenario, womit implizit unterstellt wird, dass die volks- und insbesondere energiewirtschaftlichen Folgen keiner Laufzeitverlängerung präzise vorhergesagt werden können. Die AutorInnen begehen hier den Fehlschluss des einzelnen Referenzszenarios. 4.2 Ceteris-Paribus-Fehlschluss Der Fehlschluss des einzelnen Referenzszenarios lässt sich vermeiden, indem Szenario-Analysen, die mit einem einzigen Referenzszenario operieren, wie folgt interpretiert werden: Derartige Studien geben nicht alle möglichen zukünftigen Entwicklungen an; aber sie identifizieren doch zumindest die relativen Effekte (Tendenzen, Richtungsänderungen) verschiedener Maßnahmen, da sämtliche Maßnahmen vor dem Hintergrund ein und desselben Referenzszenarios analysiert werden. Solche relativen Effekte gestatten es dann mutmaßlich, die alternativen Maßnahmen ceteris paribus (solange alles andere gleich bleibt) zu vergleichen. Doch auch dies ist fehlerhaft. Es ist ein Fehlschluss, aus qualitativen und quantitativen Unterschieden zwischen verschiedenen Maßnahmenszenarien auf der einen Seite und einem einzigen Referenzszenario auf der anderen Seite mutmaßlich stabile kausale Effekte oder Tendenzen der Maßnahmen abzuleiten.

124 | Die Energiewende und ihre Modelle

Warum handelt es sich um einen Fehlschluss? Das Argument unterstellt, dass die kausalen Effekte einer Maßnahme unabhängig von dem Referenzszenario, welches die Randbedingungen festlegt, sind. Doch das ist eine unbegründete, in dieser Allgemeinheit sogar falsche Annahme. Bereits der Trend von Entwicklungen, zu denen eine Maßnahme führt, wird in der Regel von den größeren Umständen abhängen, unter denen die Maßnahme durchgeführt wird. Folglich können wissenschaftliche Studien, die mit einem einzigen Referenzszenario operieren, nicht einmal Entwicklungstrends und -richtungen verschiedener Maßnahmen zuverlässig bestimmen, geschweige denn diese vergleichen (vgl. auch Betz, 2006, S. 113–116). (Beispiel 5) Dieckhoff (2015, S. 160–163) zeigt auf, dass EnergiemodelliererInnen die Unterschiede zwischen Maßnahmenszenarien einerseits und dem Referenzszenario andererseits als robuste qualitative Effekte der entsprechenden Maßnahmen betrachten, die in ähnlicher Weise auch unter anderen Randbedingungen eintreten würden. Diese Interpretation vermeidet den Fehlschluss des einzelnen Referenzszenarios, doch nur auf Kosten eines anderen Fehlers, der so begangen wird: ein Ceteris-Paribus-Fehlschluss. 4.3 Fehlschluss der Reduktion auf Extreme Häufig werden in wissenschaftlichen Gutachten, die politische Maßnahmen unter großer Unsicherheit analysieren, nur eine Handvoll (extremer) Szenarien betrachtet, die mutmaßlich den gesamten Raum möglicher zukünftiger Entwicklungen aufspannen und daher repräsentieren können. Indes lassen sich, wie Voigt in diesem Band ausführlich darlegt, die Eigenschaften des gesamten Raumes der Möglichkeiten nicht auf Basis weniger Extremszenarien erschließen. Warum handelt es sich um einen Fehlschluss? Ganz allgemein gilt, dass sich ein mehrdimensionaler (im Gegensatz zu einem eindimensionalen) Möglichkeitsraum nicht durch wenige Szenarien ‚aufspannen‘ lässt. Eine topologisch komplexe Menge kann nicht auf einige Extrempunkte oder Eckwerte reduziert und durch diese repräsentiert werden. Ganz unabhängig von diesen elementaren topologischen Schwierigkeiten korrespondieren extreme Anfangs- und Randwertszenarien (für exogene Variablen) nicht zwangsläufig mit extremen Ergebnisszenarien (für endogene Variablen). (Beispiel 6) Die Bundesnetzagentur, die unter anderem den Ausbau des nationalen Stromnetzes koordiniert, gibt vor, dass der entsprechende Planungsprozess auf vier Szenarien (darunter zwei Extremszenarien), welche die gesamte Bandbrei-

Betz: Fehlschlüsse beim Argumentieren mit Szenarien | 125

te wahrscheinlicher energiewirtschaftlicher Entwicklungen abdecken, beruhen soll (Bundesnetzagentur, 2012). Hier begehen die PlanerInnen den Fehlschluss der Reduktion auf Extreme. Nur in wenigen Ausnahmesituationen ist es möglich, mit vier Szenarien die gesamte Bandbreite zukünftiger möglicher Entwicklungen abzudecken. Wenn etwa eine Ausbauoption unter allen vier Szenarien akzeptable Konsequenzen hat, dann heißt dies noch lange nicht, dass die Folgen der Ausbauoption unter jeder möglichen zukünftigen Entwicklung annehmbar sind (siehe auch Voigt in diesem Band). 4.4 Verifikationistischer Fehlschluss Es ist fehlschlüssig, aus einer Bandbreite von Szenarien, welche positiv als möglich (d.h. als verträglich mit dem derzeitigen wissenschaftlichen Kenntnisstand) nachgewiesen wurden, zu folgern, dass Szenarien außerhalb dieser Bandbreite nicht möglich (d.h. unverträglich mit dem wissenschaftlichen Kenntnisstand) sind. Taleb (2010, S. 93) beschreibt eine Variante dieses Fehlschlusses, nämlich die Verwechslung einer Situation, in der es keine Belege für P gibt, mit einer solchen, in der es Belege gegen P gibt („mistaking absence of evidence (of harm) for evidence of absence“), als ‚Mutter aller folgenreichen Fehler‘ (siehe auch Shue, 2010). Warum handelt es sich um einen Fehlschluss? Möglichkeitsbehauptungen implizieren keine Unmöglichkeitsbehauptung. Dass bestimmte Entwicklungen verträglich mit einem Kenntnisstand sind, sagt nichts darüber aus, ob andere Entwicklungen mit dem Kenntnisstand unverträglich sind (oder nicht). Das Argument scheint auf einer falschen dualistischen Annahme zu beruhen: was nicht als möglich nachgewiesen ist, ist unmöglich (siehe auch Betz, 2010). (Beispiel 7) In seinem dritten Sachstandsbericht hat das IPCC die mögliche Bandbreite eines zukünftigen Meeresspiegelanstiegs ausschließlich auf Basis von Klimamodellsimulationen bestimmt (IPCC, 2001). In Folge dieses Vorgehens sind einzig verifizierte Möglichkeiten kommuniziert worden; sogenannte nichtfalsifizierte Möglichkeiten, das sind zukünftige Entwicklungen, die weder ausgeschlossen noch als möglich nachgewiesen sind, fielen unter den Tisch. Dieser Fall eines verifikationistischen Fehlschlusses ist besonders bemerkenswert, da bereits bekannt war, dass die Klimamodelle, mit denen die Meeresspiegelanstiegsszenarien berechnet wurden, einen zentralen kausalen Mechanismus (das Abschmelzen der polaren Eisschilde) nicht berücksichtigten, sodass die Unsicherheiten systematisch unterschätzt wurden (Betz, 2009). Diese methodologischen Fehler sind in der anschließenden wissenschaftlichen

126 | Die Energiewende und ihre Modelle

Debatte aufgedeckt und korrigiert worden (Schubert et al., 2006; Rahmstorf, 2007; Stainforth et al., 2007); das IPCC gibt jetzt zusätzlich zu den Modellprojektionen auch robuste (deutlich höher liegende) Obergrenzen für den zukünftigen Meeresspiegelanstieg an (Church et al., 2013). 4.5 Keine-Überraschungen-Fehlschluss Es ist fehlerhaft, einen Zustand S allein deshalb als unmöglich anzusehen, weil sich jede bisher artikulierte Hypothese, die mit S verträglich ist, als falsch erwiesen hat. Warum handelt es sich um einen Fehlschluss? Es gäbe an dem Argument nichts auszusetzen, wenn wir getrost unterstellen könnten, dass tatsächlich alle erdenklichen Hypothesen explizit betrachtet wurden. Dessen können wir uns aber nie sicher sein. Es scheint immer bisher-nicht-artikulierte Hypothesen (unknown unknowns) geben zu können: Dinge, an die bisher noch niemand gedacht hat. Dass ein Szenario noch nicht gedacht wurde, heißt freilich nicht, dass es unmöglich ist! Einige dieser nichtartikulierten Hypothesen könnten wiederum mit S verträglich sein, sodass es falsch wäre, S als unmöglich zu verwerfen. (Beispiel 8) Während der Planungs- und Konstruktionsphase des Large Hadron Colliders (LHC) am Genfer CERN wurde die Hypothese, dass der LHC stabile mikrophysikalische schwarze Löcher erzeugen könnte, die langfristig die Erde akkretieren und damit zerstören, ernsthaft erwogen (Blaizot et al., 2003; Clery und Cho, 2008). Die LHC Safety Assessment Group hat ihre Einschätzung, dass eine solche apokalyptische Entwicklung letztlich unmöglich sei, damit begründet, dass es kein konsistentes physikalisches Szenario gibt, in dem mikrophysikalische schwarze Löcher sowohl stabil sind als auch Materie akkretieren (Ellis et al., 2008). Der LHC sei daher sicher. Doch bei genauer Betrachtung stellt sich das Argument als fehlschlüssig heraus: vielleicht wurde das physikalische Szenario, in dem stabile mikrophysikalische schwarze Löcher Materie akkretieren, bisher bloß nicht artikuliert (vgl. zu diesem Beispiel auch Betz, 2015a). 4.6 Fehlschluss der Modellgläubigkeit Szenarien werden häufig anhand von Modellsimulationen erstellt, zum Beispiel auf Basis von Klimamodellen oder energiewirtschaftlichen Modellen. Es ist aber fehlerhaft, daraus, dass sich eine Entwicklung als Simulationsergebnis ergibt, zu schließen, dass diese Entwicklung auch möglich ist.

Betz: Fehlschlüsse beim Argumentieren mit Szenarien | 127

Warum handelt es sich um einen Fehlschluss? Nur wenn sämtliche Modellannahmen mitsamt den Parameterwerten, den Rand- sowie den Anfangsbedingungen, welche bei der Erstellung des Szenarios verwendet werden, zusammengenommen verträglich mit dem derzeitigen wissenschaftlichen Kenntnisstand sind – nur wenn dies der Fall ist, erzeugt die Simulation zwangsläufig ein Ergebnis, das selbst verträglich mit dem wissenschaftlichen Kenntnisstand (also möglich) ist. Doch angesichts der Fülle idealisierender und unrealistischer Annahmen, die wissenschaftliche Modelle zwangsweise machen müssen, erscheint diese notwendige Bedingung kaum erfüllt (Betz, 2010). (Beispiel 9) Dieser Fehlschluss wird ständig in Szenario-Analysen und in der wissenschaftlichen Politikberatung unter großer Unsicherheit begangen. Weder Klima-, noch Energiesystemmodelle oder makroökonomische Modelle sind demnach geeignet, um mögliche Konsequenzen (Szenarien) von Handlungsoptionen aufzuzeigen (entgegen IPCC, 2011; Collins et al., 2013; European Commission, 2011). Das liegt daran, dass all diese Modelle auf unrealistischen Annahmen fußen, von denen bekannt ist, dass sie falsch sind (vgl. exemplarisch zum Problem der Lernraten Pahle et al., 2012). Sollte sich bestätigen, dass es sich hierbei um einen Fehlschluss handelt, wäre dies fatal für state-of-the-art-modellbasierte Szenario-Analyse. Denn es stellt sich die Frage, welche Funktion komplexe Modelle nun überhaupt noch im Rahmen der Entscheidungsberatung unter großer Unsicherheit spielen können (dazu auch Grüne-Yanoff, 2014; Betz, 2015b; Cacean in diesem Band). 5 Entscheidungstheoretische Fehlschlüsse 5.1 Wähle-das-Szenario-Fehlschluss In Entscheidungen unter Unsicherheit sind EntscheidungsträgerInnen üblicherweise einer Vielzahl verschiedener Szenarien ausgesetzt, die sich allesamt nur mit großem Aufwand erfassen lassen. Daher rührt der Wunsch, Komplexität und Unsicherheit „zu reduzieren“. Doch es ist zweifelsfrei fehlerhaft, eine Entscheidung zu treffen und zu begründen, indem man aus einer Bandbreite von Möglichkeiten nur ein einziges Szenario berücksichtigt und die übrigen in der Entscheidungsfindung ignoriert. Bei diesem Fehler handelt es sich um einen Spezialfall von Hanssons „cherry picking fallacy“ (Hansson, 2016).

128 | Die Energiewende und ihre Modelle

Warum handelt es sich um einen Fehlschluss? Dem Argument liegt ein Entscheidungsprinzip zu Grunde, das – je nachdem wie es ausbuchstabiert wird – leer oder inkonsistent ist. Denn sobald die Bandbreite von Szenarien nur hinreichend weit ist, ließe sich mit einer solchen Überlegung (durch cherry-picking eines geeigneten Szenarios) praktisch jede Entscheidung – und das bedeutet: eine letztlich inkonsistente Handlungsempfehlung – rechtfertigen. (Beispiel 10) Die Bundesregierung hat 2015 eine Wirtschaftsprüfungsgesellschaft damit beauftragt, zu prüfen, ob die von den Energiekonzernen gebildeten Rückstellungen ausreichen, um den Rückbau der deutschen Kernkraftwerke und die Entsorgung des Atommülls zu finanzieren (siehe Weingartner, 2015). In dem entsprechenden Gutachten werden mehrere Szenarien betrachtet, um insbesondere den Unsicherheiten hinsichtlich der sogenannten nuklearspezifischen Kostensteigerung und der zukünftigen Kapitalrendite (Diskontierungssatz) Rechnung zu tragen. Die WirtschaftsprüferInnen kommen zu dem Ergebnis, dass die Kosten für Rückbau und Entsorgung der nuklearen Infrastruktur zwischen 29,9 und 77,4 Milliarden Euro liegen werden; dem stehen Rückstellungen in Höhe von 38,3 Milliarden Euro gegenüber. Der Wirtschaftsminister interpretiert dieses Gutachten nun als Beleg dafür, dass die finanziellen Reserven der Konzerne die Kosten für Rückbau und Entsorgung abdecken werden. Doch bei dieser Auslegung ignoriert der Wirtschaftsminister offenbar die große Unsicherheitsspanne und fokussiert auf ein ihm willkommenes Szenario; er begeht den Wähle-das-Szenario-Fehlschluss.1 5.2 Als-wäre-es-sicher-Fehlschluss PolitikberaterInnen und EntscheidungsträgerInnen könnten auch versuchen, Unsicherheiten im Lichte der subjektiven Plausibilität der verschiedenen Szenarien zu „reduzieren“. Doch es ist fehlerhaft, eine Entscheidung oder Empfehlung zu begründen, indem man so tut, als würde das mutmaßlich plausibelste Szenario aus einer Möglichkeitsspanne mit Sicherheit eintreten. Ein solcher Gedankengang ähnelt dem Wähle-das-Szenario-Fehlschluss; unter dem Namen „certainty equivalence“ liegt er ebenfalls der Modellierung rationaler Agenten in bestimmten makroökonomischen

1

Es gibt eine weitere mögliche Interpretation: Der Wirtschaftsminister wählt nicht ein Szenario, sondern einige Szenarien, die eine echte Teilmenge der gesamten Möglichkeitsspanne darstellen. Man könnte dies als Illustration einer allgemeineren und aus analogen Gründen fehlerhaften Variante des „Wähle-das-Szenario-Fehlschluss“ auffassen.

Betz: Fehlschlüsse beim Argumentieren mit Szenarien | 129

Wachstumsmodellen zu Grunde, um diese Modelle mathematisch hinreichend einfach zu halten (Romer, 1996, S. 246–247). Warum handelt es sich um einen Fehlschluss? Erstens liegen unter großer Unsicherheit (per Definition) keine zuverlässigen Wahrscheinlichkeitsinformationen über das Eintreten der verschiedenen Szenarien vor. Die Auswahl eines plausibelsten oder wahrscheinlichsten Szenarios bleibt damit subjektiv und willkürlich. Lägen aber, zweitens, zuverlässige Wahrscheinlichkeitsprognosen vor oder wäre es legitim, Entscheidungen auf Basis bloß subjektiver Glaubensgrade zu treffen, so bestünde immer noch das Problem, dass das verwendete Entscheidungskriterium dem Prinzip der Erwartungsnutzenmaximierung widerspricht. Schlimmer noch: Wer so tut, als wäre das wahrscheinlichste Szenario sicher, berücksichtigt die bekannten Unsicherheiten in keiner Weise in seinen Entscheidungen und handelt in hohem Maße kontra-intuitiv. (Beispiel 11) Der Sachverständigenrat zur Beurteilung der gesamtwirtschaftlichen Lage stellt in seinen jährlichen Gutachten Punktprognosen für das Wirtschaftswachstum im jeweils kommenden Jahr auf, obwohl die ExpertInnen sich der enormen Unsicherheiten solcher Konjunkturprognosen sehr wohl bewusst sind (und diese im Gutachten auch detailliert diskutieren). Die deterministische Punktprognose, die das Gutachten zentral kommuniziert, wird allerdings ausdrücklich als die wahrscheinlichste makroökonomische Entwicklung gerechtfertigt (Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung, 2014, S. 104). Indem hier nahegelegt wird, dass politische Entscheidungen unter großer Unsicherheit einzig auf Basis des wahrscheinlichsten Szenarios getroffen werden könnten, begehen die sogenannten Wirtschaftsweisen Jahr für Jahr den Als-wäre-es-sicher-Fehlschluss. 5.3 Fehlschluss der Verwechslung notwendiger und hinreichender Bedingungen Politische Maßnahmen lassen sich schlüssig begründen, indem man nachweist, dass sie zum Erreichen bestimmter politischer Ziele erforderlich sind. Doch es ist fehlerhaft, zu schließen, dass das Erreichen eines Ziels einen gewissen Umstand (etwa die Durchführung einer Maßnahme) erfordert, nur weil dieser Umstand in allen bisher berücksichtigten Szenarien, in denen das Ziel erreicht wird, besteht. Warum handelt es sich um einen Fehlschluss? Das Argument berücksichtigt nicht, dass es weitere Szenarien geben könnte, in denen die politischen Ziele erreicht werden, ohne dass der entsprechende Umstand besteht (die Maßnahme durchgeführt wird). Der grundlegende Punkt ist dabei erneut, dass die zu einem bestimmten Zeit-

130 | Die Energiewende und ihre Modelle

punkt betrachteten Szenarien nicht zwangsläufig den Raum aller Möglichkeiten erschöpfen. Die Verwechslung notwendiger und hinreichender Bedingungen beim Argumentieren mit Szenarien ist also eng verknüpft mit dem verifikationistischen Fehlschluss. Bestenfalls kann durch die Identifikation von Szenarien, in denen gewisse politische Ziele mit bestimmten Maßnahmen erreicht werden, gezeigt werden, dass diese Maßnahmen (möglicherweise, unter geeigneten Randbedingungen) hinreichend für die Zielerreichung sind. (Beispiel 12) In Analysen des umfangreichen energy [r]evolution Szenarios von Greenpeace (Voigt, 2014a) sowie des wissenschaftlichen Gutachtens, welches der Energy Roadmap 2050 der Europäischen Kommission beigelegt ist (Voigt, 2014b), deckt Voigt auf, dass in diesen Studien das Ergebnis, dass alle mit gegebenen Zielen konformen Szenarien eine bestimmte Eigenschaft aufweisen, fehlgedeutet wird als Beleg dafür, dass diese Eigenschaft notwendig und erforderlich für die Zielerreichung sei. Diese Schlussfolgerung ist, wie Voigt sagt, offenkundig fehlerhaft, denn die besagten Studien beanspruchen gar nicht, den Raum aller Möglichkeiten erschöpfend auszuleuchten, sondern sondieren nur ausgewählte Politikszenarien. Die AutorInnen begehen damit den Fehlschluss der Verwechslung notwendiger und (möglicherweise) hinreichender Bedingungen. 5.4 Möglichkeit-gleich-Machbarkeit-Fehlschluss Sobald über alternative politische Ziele kontrovers diskutiert wird, kommt der Frage, ob und zu welchen Kosten die Ziele erreichbar sind, große Bedeutung zu. BefürworterInnen bestimmter Ziele werden argumentieren, dass die Ziele ‚realistisch‘ seien, und versuchen, deren Erreichbarkeit nachzuweisen. Es ist dabei aber fehlerhaft, aus der Identifikation eines Szenarios, in dem die Ziele erreicht werden, die Machbarund Erreichbarkeit der politischen Ziele zu folgern. Warum handelt es sich um einen Fehlschluss? Es besteht ein grundlegender Unterschied zwischen (i) x ist möglich (d.h. x ist verträglich mit dem gegebenen wissenschaftlichen Kenntnisstand) und (ii) jemand ist in der Lage, x herbeizuführen. Es ist möglich, dass die Zahl sonnenähnlicher Sterne in unserer Galaxie gerade ist, aber das ist nichts, was irgendjemand herbeiführen könnte. Doch dieser Unterschied droht immer wieder verwischt zu werden, da wir mit Wörtern wie „können“ und „möglich“ sowohl ausdrücken, was möglich, als auch was machbar ist („Es ist mir nicht möglich, rechtzeitig dort zu sein“, „Die Firma kann das besser, es ist möglich, die Ergebnisse

Betz: Fehlschlüsse beim Argumentieren mit Szenarien | 131

zu steigern“, „Du kannst das“, „Es kann sich so verhalten, dass ...“). Der oben genannte Gedankengang ist nun speziell deshalb fehlerhaft, weil es weitere Umstände geben könnte (welche in noch keinem Szenario berücksichtigt wurden), die es EntscheidungsträgerInnen (sowie anderen Akteuren) unmöglich machen, die gegebenen Ziele zu erreichen. Bestenfalls zeigt die Identifikation eines Szenarios, in dem ein Ziel erreicht wird, dass die Erreichung des Ziels möglicherweise machbar ist (zusätzlich dazu, die richtigen Dinge zu tun, erfordert dies aber auch eine Portion Glück). (Beispiel 13) Der WWF hat 2011 ein globales Energieszenario publiziert, in dem die Weltwirtschaft bis zur Mitte des 21. Jahrhunderts vollständig auf erneuerbare Energien umsteigt (World Wide Fund for Nature, 2011). Das Szenario soll zeigen: „switching to a fully renewable energy supply by 2050 is achievable“ (23); „[it is] possible to secure a fully renewable, sustainable energy supply for everyone on the planet by 2050“ (23); „[WWF] believes that it is a goal we can and must achieve“ (23). Doch die AutorInnen weisen zugleich darauf hin, dass der Bericht nur ein Szenario vorstelle „which demonstrates that it is technically possible to achieve almost 100 per cent renewable energy sources within the next four decades“ (11; Hervorhebung GB). Wie ist das zu beurteilen? Der WWF-Bericht zeigt, dass die Dekarbonisierung des globalen Energiesystems mit dem derzeitigen wissenschaftlichen Kenntnisstand verträglich und unter zahlreichen günstigen Annahmen auch realisierbar ist. Doch das bedeutet nicht, dass politische EntscheidungsträgerInnen (oder andere Akteure) in der Lage wären, diese günstigen Umstände herbeizuführen. Zugegeben, der WWF spricht ausdrücklich davon, dass es noch „Herausforderungen“ gebe. Indem hier aber eine bloße Möglichkeit als etwas, das auch machbar und erreichbar wäre, ausgegeben wird, begeht die WWF-Studie den Möglichkeitgleich-Machbarkeit-Fehlschluss (oder steht doch zumindest kurz davor). 6 Schluss In diesem Beitrag habe ich versucht nachzuweisen, dass das Argumentieren mit Szenarien anfällig für eine Fülle charakteristischer Fehler ist. Probabilistische Fehlschlüsse quantifizieren Unsicherheiten ungerechtfertigterweise. Possibilistische Fehlschlüsse unterschätzen systematisch die Bandbreite von Möglichkeiten, vernachlässigen relevante Möglichkeiten oder stellen den Raum der Möglichkeiten übervereinfacht dar. Entscheidungstheoretische Fehlschlüsse schließlich berücksichtigen nicht die gesamte Bandbreite von Möglichkeiten in der Entscheidungsbegründung oder

132 | Die Energiewende und ihre Modelle

missdeuten Möglichkeitsbehauptungen auf charakteristische Weise. Zur Klarstellung sei noch gesagt, dass die Beispiele, die ich zur Illustration der verschiedenen Fehlschlüsse anführe, keine repräsentative Stichprobe des wissenschaftlichen Umgangs mit großen Unsicherheiten darstellen: Ich treffe keine quantitativen Aussagen dazu, wie häufig diese Fehler begangen werden. Die hier kritisch besprochenen Argumentationsmuster wurden – implizit – vor dem Hintergrund einer positiven Theorie des korrekten Argumentierens unter großer Unsicherheit als fehlerhaft identifiziert. Eine solche positive Theorie, wie sie etwa in The Argumentative Turn in Policy Analysis (Hansson und Hadorn, 2016b) eingeführt wird, muss sicherlich die bloß negativen Diagnosen dieses Beitrags ergänzen, um den Umgang mit Szenarien in der Entscheidungsfindung zu verbessern. Literatur Bamber, Jonathan L. und Willy P. Aspinall (2013): An Expert Judgement Assessment of Future Sea Level Rise from the Ice Sheets. In: Nature Climate Change 3 (4), S. 424–427. Betz, Gregor (2006): Prediction or Prophecy? The Boundaries of Economic Foreknowledge and Their Socio-Political Consequences. Wiesbaden: DUV. —— (2009): What Range of Future Scenarios Should Climate Policy Be Based On? Modal Falsificationism and Its Limitations. In: Philosophia naturalis 46 (1), S. 133–158. —— (2010): What’s the Worst Case? The Methodology of Possibilistic Prediction. In: Analyse und Kritik 32 (1), S. 87–106. —— (2015a): Ist der LHC (etwa doch) eine Weltuntergangsmaschine? In: Weiter denken – über Philosophie, Wissenschaft und Religion, hrsg. von Gregor Betz, Dirk Koppelberg, David Löwenstein und Anna Wehofsits, S. 23–40. Berlin: De Gruyter. —— (2015b): Are Climate Models Credible Worlds? Prospects and Limitations of Possibilistic Climate Prediction. In: Erkenntnis (online first). —— (2016): Accounting for Possibilities in Decision Making. In: The Argumentative Turn in Policy Analysis. Reasoning about Uncertainty, hrsg. von Sven Ove Hansson und Gertrude Hirsch Hadorn, S. 135–169. Cham: Springer. Blaizot, Jean-Paul, Jean Iliopoulos, Jes Madsen, Graham G. Ross, Peter Sonderegger und Hans-Joachim Specht (2003): Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC: Report of the LHC Safety Study Group.

Betz: Fehlschlüsse beim Argumentieren mit Szenarien | 133

Brun, Georg und Gregor Betz (2016): Analysing Practical Argumentation. In: The Argumentative Turn in Policy Analysis. Reasoning about Uncertainty, hrsg. von Sven Ove Hansson und Gertrude Hadorn Hirsch, S. 39–77. Cham: Springer. Bundesnetzagentur (2012): Genehmigung (Az.: 8121-12/Szenariorahmen 2011). Church, John A., Peter U. Clark, Anny Cazenave, Jonathan M. Gregory, Svetlana Jevrejeva, Anders Levermann, Mark A. Merrifield et al. (2013): Sea Level Change. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, hrsg. von Thomas F. Stocker, Dahe Qin, Gian-Kasper Plattner, Melinda Tignor, Simon K. Allen, Judith Boschung, Alexander Nauels, Yu Xia, Vincent Bex und Pauline M. Midgley, S. 1137–1216. Cambridge: Cambridge University Press. Clery, Daniel und Adrian Cho (2008): Large Hadron Collider: Is the LHC a Doomsday Machine? In: Science 321 (5894): S. 1291. Collins, Matthew, Reto Knutti, Julie Arblaster, Jean-Louis Dufresne, Thierry Fichefet, Pierre Friedlingstein, Xuejie Gao et al. (2013): Long-term Climate Change: Projections, Commitments and Irreversibility. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, hrsg. von Thomas F. Stocker, Dahe Qin, Gian-Kasper Plattner, Melinda Tignor, Simon K. Allen, Judith Boschung, Alexander Nauels, Yu Xia, Vincent Bex und Pauline M. Midgley, S. 1029–1136. Cambridge: Cambridge University Press. Dieckhoff, Christian (2015): Modellierte Zukunft. Energieszenarien in der wissenschaftlichen Politikberatung. Bielefeld: transcript. Ellis, John, Gian Giudice, Michelangelo Mangano, Igor Tkachev und Urs Wiedemann (2008): Review of the Safety of LHC Collisions. European Commission (2011): Commission Staff Working Paper. Impact Assessment, Accompanying the Document Communication from the Commission Energy Roadmap 2050 COM(2011)885. Fischedick, Manfred, Roberto Schaeffer, Akintayo Adedoyin, Makoto Akai, Thomas Bruckner, Leon Clarke, Volker Krey et al. (2011): Mitigation Potential and Costs. In: IPCC Special Report on Renewable Energy Sources and Climate Change Mitigation, hrsg. von Ottmar Edenhofer, Ramón Pichs-Madruga, Youba Sokona, Kristin Seyboth, Patrick Matschoss, Susanne Kadner, Timm Zwickel et al. New York: Cambridge University Press. van Fraassen, Bas C. (1989): Laws and Symmetry. Oxford: Oxford University Press. Grüne-Yanoff, Till (2014): Appraising Models Nonrepresentationally. In: Philosophy of Science 80 (5), S. 850–861.

134 | Die Energiewende und ihre Modelle

Hansson, Sven Ove (2009): From the Casino to the Jungle. In: Synthese 168 (3), S. 423–432. —— (2016): Evaluating the Uncertainties. In: The Argumentative Turn in Policy Analysis. Reasoning about Uncertainty, hrsg. von Sven Ove Hansson und Gertrude Hirsch Hadorn, S. 79–104. Cham: Springer. Hansson, Sven Ove und Gertrude Hirsch Hadorn (2016a): Introducing the Argumentative Turn in Policy Analysis. In: The Argumentative Turn in Policy Analysis. Reasoning about Uncertainty, hrsg. von Sven Ove Hansson und Gertrude Hirsch Hadorn, S. 11-35. Cham: Springer. Hansson, Sven Ove und Gertrude Hirsch Hadorn (Hrsg.) (2016b): The Argumentative Turn in Policy Analysis. Reasoning about Uncertainty. Cham: Springer. IPCC (2001): Climate Change 2001: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. —— (2011): IPCC Special Report on Renewable Energy Sources and Climate Change Mitigation (SRREN). Knutti, Reto, Gabriel Abramowitz, Matthew Collins, Veronika Eyring, Peter J. Gleckler, Bruce Hewitson und Linda Mearns (2010): Good Practice Guidance Paper on Assessing and Combining Multi Model Climate Projections. In: Meeting Report of the Intergovernmental Panel on Climate Change Expert Meeting on Assessing and Combining Multi Model Climate Projections, hrsg. von Thomas Stocker, Qin Dahe, Gian-Kasper Plattner, Melinda Tignor und Pauline Midgley. Bern: IPCC Working Group I Technical Support Unit, University of Bern. Krey, Volker und Leon Clarke (2011): Role of Renewable Energy in Climate Mitigation: A Synthesis of Recent Scenarios. In: Climate Policy 11 (4), S. 1–28. Morgan, M. Granger und David W. Keith (1995): Climate-Change – Subjective Judgments by Climate Experts. In: Environmental Science & Technology 29, S. A468–A476. O’Hagan, Anthony und Jeremy E. Oakley (2004): Probability is Perfect, but We Can’t Elicit It Perfectly. In: Reliability Engineering & System Safety 85 (1–3), S. 239–248. Pahle, Michael, Brigitte Knopf, Olivier Tietjen und Eva Schmid (2012): Kosten des Ausbaus erneuerbarer Energien: Eine Metaanalyse von Szenarien [Costs of an Expansion of RE: A Meta-Aanalysis of Scenarios]. Parker, Wendy S. (2010): Predicting Weather and Climate: Uncertainty, Ensembles and Probability. In: Studies in History and Philosophy of Modern Physics 41 (3), S. 263–272.

Betz: Fehlschlüsse beim Argumentieren mit Szenarien | 135

Prognos, EWI und GWS (2010): Studie Energieszenarien für ein Energiekonzept der Bundesregierung. Online: http://www.bmwi.de/DE/Mediathek/ publikationen,did=356294.html. Rahmstorf, Stefan (2007): A Semi-empirical Approach to Projecting Future Sea-level Rise. In: Science 315 (5810), S. 368–370. Romer, David (1996): Advanced Macroeconomics. In: McGraw-Hill Advanced Series in Economics. New York: McGraw-Hill Companies. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2014): Mehr Vertrauen in Marktpozesse. Jahresgutachten 14/15. Online: http://www. sachverstaendigenrat-wirtschaft.de/fileadmin/dateiabla ge/gutachten/jg201415/JG14_ges.pdf. Sahlin, Nils-Eric (2012): Unreliable Probabilities, Paradoxes, and Epistemic Risks. In: Handbook of Risk Theory, hrsg. von Sabine Roeser, Rafaela Hillerbrand, Per Sandin und Martin Peterson, S. 477–498. Dordrecht: Springer. Salmon, Wesley C. (1983): Logik. Stuttgart: Reclam. Schubert, Renate, Hans Joachim Schellnhuber, Nina Buchmann, Astrid Epiney, Rainer Grießhammer, Margareta Kulessa, Dirk Messner, Stefan Rahmstorf und Jürgen Schmid (2006): The Future Oceans – Warming up, Rising High, Turning Sour. Special Report. Shue, Henry (2010): Deadly Delays, Saving Opportunities: Creating a More Dangerous World? In: Climate Ethics: Essential Readings, hrsg. von Stephen Mark Gardiner, Dale Jamieson und Henry Shue, S. 146–162. New York: Oxford University Press. Stainforth, David A., Myles R. Allen, Edward R. Tredger und Leonard A. Smith (2007): Confidence, Uncertainty and Decision-support Relevance in Climate Predictions. In: Philosophical Transactions of the Royal Society A – Mathematical Physical and Engineering Sciences 365 (1857), S. 2145–2161. Taleb, Nassim Nicholas (2010): The Black Swan: The Impact of the Highly Improbable. New York: Random House Trade Paperbacks. Voigt, Christian (2014a): Energy [R]evolution. Unveröffentlichtes Manuskript, präsentiert am 17.02.2014 im DLR, Stuttgart. —— (2014b): The EC Energy Roadmap 2050. Unveröffentlichtes Manuskript, präsentiert am 17.02.2014 im DLR, Stuttgart. Weingartner, Maximilian (2015): Stresstests: Weiter Diskussion über Rückstellungen der Energiekonzerne. In: Frankfurter Allgemeine Zeitung. Online: http://www. faz.net/-gqe-88tz3.

136 | Die Energiewende und ihre Modelle

World Wide Fund for Nature (2011): The Energy Report, 100% Renewable Energy by 2050. Online: http://www.ecofys.com/files/files/ecofyswwf-2011-the-energy-report.pdf. Zickfeld, Kirsten, Anders Levermann, M. Granger Morgan, Till Kuhlbrodt, Stefan Rahmstorf und David W. Keith (2007): Present State and Future Fate of the Atlantic Meridional Overturning Circulation as Viewed by Experts. In: Climatic Change 82, S. 235–265. Alle zuvor genannten Internetadressen waren am 18.08.2016 erreichbar.

Epistemische Meta-Analyse Ein konzeptioneller Vorschlag für die Analyse und den Vergleich von Szenarien Christian Dieckhoff

1 Einleitung Szenarien stellen heute eine wichtige Grundlage vieler gesellschaftlicher Debatten und Entscheidungen dar. Sie finden gerade dort Einsatz, wo über die Veränderung von komplexen technischen, sozialen oder natürlichen Systemen entschieden werden muss, Interventionen langfristige und schwer absehbare Folgen haben und ein hohes Maß an Unsicherheit im verfügbaren Wissen besteht. Als eine Vorgehensweise, um in solchen Fällen wissenschaftliches Orientierungswissen zu erlangen, hat sich die computergestützte Szenarioanalyse etabliert. Hierbei werden mit Hilfe von Computermodellen für unterschiedliche Ausgangs- und Randbedingungen mögliche Entwicklungen des betrachteten Systems – sprich Szenarien – berechnet. Legt man die Vorstellung zugrunde, dass alle möglichen Entwicklungen eines Systems gemeinsam den Raum seiner möglichen Entwicklungen bilden, so besteht das Vorgehen von Szenariostudien darin, bestimmte mögliche Entwicklungen aus diesem Raum auszuwählen, darzustellen und zu untersuchen. Über die Veröffentlichung in Studien finden die Szenarien Eingang in die gesellschaftliche Debatte und werden zur Begründung politischer Entscheidungen eingesetzt. Ein Bereich, in dem Szenarien bereits seit vielen Jahren in großem Umfang genutzt werden, ist das Themenfeld der Energieversorgung. Jährlich werden hier Szenarien in großer Zahl von unterschiedlichen wissenschaftlichen Instituten und Beratungsunternehmen im Auftrag von Ministerien, Unternehmen, zivilgesellschaftlichen und anderen Organisationen erstellt und in Studien veröffentlicht. Diese Studien sind

138 | Die Energiewende und ihre Modelle

einerseits einander ähnlich, denn sie beschreiben Szenarien der zukünftigen Energieversorgung. Andererseits unterscheiden sie sich, so etwa hinsichtlich des betrachteten Teilsystems, der Fragestellung, des Zeithorizonts der Szenarien oder auch bezüglich der Methodik. Viele dieser Unterschiede sind jedoch auf den ersten Blick nur schwer erkennbar und darüber hinaus schwer zu beurteilen. NutzerInnen der Studien, allen voran EntscheidungsträgerInnen, haben es aufgrund der Vielfalt und Heterogenität der Studien also schwer, sie zu verstehen und hinsichtlich ihrer Relevanz einzuordnen. Als eine Hilfestellung haben sich für diese Situation so genannte Meta-Analysen etabliert. In ihnen werden Szenarien aus unterschiedlichen Studien einander gegenübergestellt. Die Zielsetzungen von Meta-Analysen sind divers und werden zudem nicht immer deutlich formuliert. Zumindest zwei Zielsetzungen lassen sich jedoch ausmachen, die in vielen Studien verfolgt werden. Ein Teil der Studien gibt als Ziel den „Vergleich“ von bereits veröffentlichten Szenarien durch die Darstellung von deren Gemeinsamkeiten und Unterschieden an.1 Andere Studien verfolgen ein weitergehendes Ziel: Sie wollen „robuste“ zukünftige Entwicklungen identifizieren.2 Beide Zielsetzungen sind interpretationsbedürftig, denn zumindest im Energiebereich ist meist nicht klar, was mit den Analysen jeweils genau gezeigt oder begründet werden soll. Die erste Aufgabe dieses Aufsatzes ist deshalb, für beide Varianten von Meta-Analysen eine präzisierte Formulierung der Zielsetzung anzugeben. Die zweite besteht darin, zu reflektieren, ob diese Zielsetzungen mit dem Vorgehen in bisherigen Meta-Analysen erreicht werden. Es wird deutlich werden, dass dies fraglich ist. Dies hat im Wesentlichen zwei Gründe: Erstens hinterfragen bisherige MetaAnalysen nicht ausreichend, inwiefern die von ihnen betrachteten Szenarien überhaupt miteinander vergleichbar sind. Zwar prüfen sie anhand deskriptiver Kriterien, inwiefern die Zielsysteme der Szenarien und auch Aspekte wie ihre zeitliche Auflösung miteinander übereinstimmen. Nicht explizit hinterfragt wird jedoch, ob die Szenarien sich überhaupt auf das gleiche Hintergrundwissen beziehen und damit Möglichkeitsaussagen gleicher Art darstellen. Zweitens müssen für die Identifikation robuster Entwicklungen (in der präzisierten Formulierung) darüber hinaus alle relevanten möglichen Entwicklungen betrachtet werden. Wie wir sehen werden, ist zu bezweifeln, dass diese überaus anspruchsvolle Bedingung von bisherigen MetaAnalysen erfüllt wird.

1

Z.B. Cochran et al., 2014, S. 247: „The purpose of this meta-analysis is to compare the analytic approaches, data inputs, results, and policy implications in the specified literature, and thereby provide additional transparency and information to policymakers.“

2

Z.B. Keles et al., 2011, S. 812, wörtlich zitiert in Fußnote 15.

Dieckhoff: Epistemische Meta-Analyse | 139

Bleibt das Wissen, auf das sich Szenarien aus unterschiedlichen Studien beziehen, aber unbeachtet, besteht die Gefahr, dass „Äpfel mit Birnen“ verglichen werden. So könnte es sein, dass unbemerkt zwei Szenarien gegenübergestellt werden, von denen zwar beide technisch möglich sind, aber nur eines auch ökonomisch möglich ist. Dies stellt nicht nur eine Gefahr für den Erkenntnisfortschritt dar, sondern bedroht auch die Legitimität politischer Entscheidungen. Es kann sowohl auf vergleichende Analysen zutreffen, gilt aber insbesondere für Studien, die robuste Entwicklungen zu identifizieren versuchen. Werden hier Szenarien zugrunde gelegt, die sich auf unterschiedliches Hintergrundwissen beziehen oder werden nicht alle relevanten Entwicklungen einbezogen, besteht die Gefahr, dass die Schlussfolgerungen auf falschen Prämissen beruhen oder nicht aus den Prämissen folgen. Werden auf einer solchen Grundlage Entscheidungen getroffen, sind diese schlecht begründet und damit illegitim. Die dritte und zentrale Aufgabe des Aufsatzes besteht deshalb darin, für beide präzisierten Zielsetzungen anzugeben, wie eine Meta-Analyse in ihren Grundzügen aussehen müsste, um sie zu erreichen. Mit dem Konzept der epistemischen MetaAnalyse (EMA) wird ein Vorschlag dafür gemacht, wie zumindest das Ziel des „Vergleichens“ in einer Meta-Analyse erreicht werden kann. Das Ziel der Identifikation robuster Entwicklungen erscheint bei genauerer Betrachtung aber derart anspruchsvoll, dass es kaum mit Meta-Analysen im bisherigen Format erreichbar sein dürfte. Vielmehr scheint hier ein umfassendes Forschungsprogramm nötig zu sein, das jedoch mit einer Reihe grundlegender Herausforderungen konfrontiert ist. Hier wird sich der Aufsatz darauf beschränken, einige der zentralen Herausforderungen zu benennen. Der Aufbau des Textes ist wie folgt: Zunächst werden in Abschnitt 2 die theoretischen und konzeptionellen Grundlagen der Überlegungen entfaltet. Im Zentrum steht hier die Interpretation von Möglichkeiten als epistemische Modalitäten. Gemäß diesem Verständnis ist etwas genau dann möglich, wenn es konsistent mit dem relevanten Hintergrundwissen ist. In Abschnitt 3 wird hiervon ausgehend auf die Art und Weise geblickt, wie in bisherigen Meta-Analysen vorgegangen wird. Hierzu werden drei Meta-Analysen von Energieszenarien als illustrative Beispiele näher untersucht. In Abschnitt 4 wird zunächst die Zielsetzung des „Vergleichens“ von Szenarien präzisiert und anschließend das Konzept der epistemischen Meta-Analyse in ihren Grundzügen entworfen. Abschnitt 5 widmet sich dem Ziel der Identifikation robuster Entwicklungen. Nach der Präzisierung dieser Zielsetzung werden einige zentrale Herausforderung für ihre Erreichung benannt. Der Aufsatz schließt mit einer Zusammenfassung in Abschnitt 6. Die Betrachtungen in diesem Aufsatz beschränken sich auf Szenarien, in denen das betreffende System quantitativ und durch mathematische Modellierung repräsen-

140 | Die Energiewende und ihre Modelle

tiert wird. Konkret werden Energieszenarien und deren Meta-Analysen als Fallbeispiele herangezogen, denn hier ist die beschriebene Problemlage besonders augenfällig. Da die Überlegungen konzeptioneller Natur sind, lassen sie sich aber vermutlich problemlos auf modellbasierte Szenarien anderer Gegenstandsbereiche übertragen, etwa auf Klimaszenarien. 2 Theoretische und konzeptionelle Grundlagen 2.1 Wissen als Referenz von Szenarien In der gängigen Lesart beschreibt ein Szenario einen möglichen Zustand oder eine mögliche Entwicklung eines bestimmten Ausschnittes der realen Welt.3 Die Grundlage der Beschreibung ist ein Modell, in dem festgelegt ist, welche (Kenn-)Größen der Welt und Zusammenhänge zwischen diesen Größen betrachtet werden. Der betrachtete Ausschnitt der Welt wird im Folgenden als „Zielsystem“ bezeichnet. In vielen Energieszenarien werden etwa die installierte Kapazität unterschiedlicher Kraftwerkstypen, die Wirkungsgrade dieser Kraftwerkstypen, die mit der Energieerzeugung verbundenen Kosten und CO2 -Emissionen betrachtet. Ein Szenario beschreibt dann die Entwicklung dieser (und weiterer) Größen im Zeitverlauf. Die Beschreibung kann grundsätzlich sowohl qualitativ als auch quantitativ erfolgen. In der vorliegenden Betrachtung gehen wir aber von einer quantitativen und mathematisch formalisierten Beschreibung aus, da dies bei Energieszenarien meist der Kern des Vorgehens ist. Für den Moment lassen wir den Zusammenhang von Modell und Szenario jedoch noch außer acht – ihm werden wir uns in Abschnitt 2.3 zuwenden. Was heißt aber, dass die Entwicklung eines Zielsystems für „möglich“ gehalten wird? In den meisten Szenariostudien, zumindest im Energiebereich, wird diese Frage nicht klar beantwortet, und dies ist ein Grund dafür, dass diese Studien so schwer zu interpretieren und evaluieren sind. Als äußerst hilfreich zur Klärung dieser Frage hat sich die Interpretation von Möglichkeiten als „relative“ oder auch „epistemische Modalitäten“ erwiesen, die unter anderem vom Philosophen Isaac Levi (1980) vorgeschlagen wurde. Sie wurde von Gregor Betz (2010) für Szenarien ausgearbeitet und vom Autor des vorliegenden Beitrags auf Energieszenarien angewandt (Dieckhoff, 2015). Auch den vorliegenden Überlegungen liegt diese Interpretation zugrunde.

3

Im Folgenden werde ich der Einfachheit halber nur von möglichen Entwicklungen sprechen, verstanden als eine zeitliche Abfolge von Zuständen des betrachteten Ausschnittes der realen Welt. Ein Zustand zu einem bestimmten Zeitpunkt kann als Spezialfall hiervon aufgefasst werden.

Dieckhoff: Epistemische Meta-Analyse | 141

Demnach wird mit der Aussage, dass ein bestimmter Sachverhalt möglich ist, nichts anderes beansprucht, als dass diese Behauptung konsistent mit dem relevanten Hintergrundwissen ist, wobei Konsistenz als logische Widerspruchsfreiheit zu verstehen ist. Stellen wir uns das relevante Hintergrundwissen als eine Menge von Aussagen vor, so darf der Sachverhalt, dessen Möglichkeit behauptet wird, also nicht im logischen Widerspruch zu diesen Aussagen stehen.4 Wenn wir außerdem Möglichkeitsaussagen über die Zukunft allgemein als „possibilistische Prognosen“ bezeichnen, stellt ein Energieszenario also eine possibilistische Prognose dar, mit der behauptet wird, dass die in ihm beschriebene Entwicklung konsistent mit dem relevanten Wissen über das Energiesystem ist. Wird für ein Energieszenario beispielsweise behauptet, es sei technisch und ökonomisch möglich, dann können wir dies so verstehen, dass damit behauptet wird, dieses Szenario sei konsistent mit unserem technischen und ökonomischen Wissen über das Energiesystem. Wird etwa ein technisch und ökonomisch mögliches Szenario beschrieben, in dem die Nennleistung von Offshore-Windenergieanlagen zukünftig mit einer bestimmten Rate zunimmt, so muss dieses Szenario unter anderem widerspruchsfrei zu unserem Wissen darüber sein, welche Größen von Rotorblättern mit zukünftig verfügbaren Werkstoffen realisiert und welche Größen noch unter zukünftig rentablen Bedingungen transportiert und montiert werden können. Wichtig zu bemerken ist, dass sich possibilistische Prognosen grundlegend von probabilistischen und deterministischen Prognosen unterscheiden: In probabilistischen Prognosen werden zukünftigen Ereignissen Wahrscheinlichkeiten zugewiesen, und mit deterministischen Prognosen behaupten wir, dass etwas mit Sicherheit der Fall sein wird.5 Die vorliegende Betrachtung konzentriert sich jedoch auf possibilistische Prognosen, da dies dem üblichen Verständnis von Szenarien entspricht. 2.2 Szenarien im Möglichkeitsraum In diesem Abschnitt wird illustriert, wie eine typische Szenariostudie grundsätzlich aus der Perspektive einer epistemischen Meta-Analyse betrachtet wird. Grundlage hierfür sind die Überlegungen von Betz (2010). Ausgangspunkt ist die Idee, dass Szenarien zunächst einmal als beschreibende Aussagen über die Entwicklung eines bestimmten Zielsystems aufgefasst werden können. Solange wir nicht wissen, ob diese Beschreibungen möglich oder unmöglich, also konsistent beziehungsweise inkon-

4

Jede Aussage ist logisch widerspruchsfrei zum relevanten Hintergrundwissen, wenn ihre Negation nicht aus dem Hintergrundwissen folgt.

5

Näheres hierzu in Betz (2010) und Dieckhoff (2015).

142 | Die Energiewende und ihre Modelle

sistent mit dem relevanten Wissen sind, stellen sie Möglichkeitshypothesen dar (ebd., S. 93). Dies weitergedacht, bilden alle Szenarien zusammen gemeinsam den (hypothetischen) Möglichkeitsraum der Entwicklung des Zielsystems.6 Legen wir eine quantitative Beschreibungsweise zugrunde, bei der das Zielsystem durch n Variablen und deren numerische Werte beschrieben wird, können wie den Möglichkeitsraum als einen n-dimensionalen Werteraum auffassen.7 Jede Wertekombination stellt darin eine Hypothese dar. Für die Prüfung der Szenarien hinsichtlich ihrer Konsistenz mit dem relevanten Hintergrundwissen zeigt Betz (ebd., Abschnitt 5) zwei grundlegende Methoden auf. Zum einen kann versucht werden, Szenarien zu verifizieren, indem die Konsistenz nachgewiesen wird. Zum anderen kann versucht werden, sie zu falsifizieren, indem die Inkonsistenz nachgewiesen wird. Wie im Beispiel der möglichen Anstiegsrate der Nennleistung von OffshoreWindenergieanlagen aus Abschnitt 2.1 bereits anklang, stehen uns dabei unterschiedliche Wissensbereiche zur Verfügung. Im Fall von Energieszenarien wird vor allem physikalisch-technisches und ökonomisches Wissen verwendet, während politik- und sozialwissenschaftliches Wissen bisher selten einbezogen wird (vgl. Droste-Franke et al., 2015, insbesondere S. 84). Abbildung 1 illustriert einen Möglichkeitsraum, der von zwei Variablen – eine davon die Zeit – als zweidimensionaler Werteraum aufgespannt wird. Darin liegen drei verifizierte Szenarien, die als schwarze Linien dargestellt sind. Die Falsifikation von Möglichkeitshypothesen erlaubt es, Szenarien auszuschließen, die inkonsistent mit unserem Wissen sind. Dies kann einzelne Szenarien innerhalb des Möglichkeitsraums betreffen. In Abbildung 1 ist jedoch der Fall illustriert, in dem wir aufgrund unseres Wissens gleich ganze Bereiche von Szenarien als inkonsistent ausschließen können, weil wir Grenzwerte bestimmen können, die unmöglich über- oder unterschritten werden können. Zusätzlich ist in der Abbildung angenommen, dass die Szenarien gegenüber drei unterschiedlichen Wissensbereichen geprüft werden, nämlich gegenüber physikalischem, technischem und ökonomischem Wissen, und dass jeder

6

Welche Hypothesen dabei im Einzelfall zu betrachten sind, ist eine eigenständige Frage, die hier nicht beantwortet werden kann. Betz (2010, S. 103) identifiziert sie als eine wichtige offene Forschungsfrage.

7

Christian Voigt (in diesem Band) geht von einer ganz ähnlichen Vorstellung aus. Allerdings lässt er das „Stadium“ der Hypothese einer Möglichkeitsaussage außen vor. Er geht davon aus, dass jede Wertekombination entweder möglich (beziehungsweise wahrscheinlich) oder unmöglich (beziehungsweise unwahrscheinlich) ist.

Dieckhoff: Epistemische Meta-Analyse | 143

Abbildung 1: Zweidimensionaler Möglichkeitsraum

dieser Wissensbereiche von außen nach innen den Ausschluss weiterer Hypothesen erlaubt. Was übrig bleibt, ist ein resultierender Möglichkeitsbereich. Aber Achtung: Innerhalb dieses Bereichs befinden sich zunächst weiterhin erst einmal nur Hypothesen, von denen wir noch nicht wissen, ob sie möglich oder unmöglich sind – abgesehen von den drei verifizierten Szenarien im Beispiel der Abbildung. Abbildung 1 stellt in vielerlei Hinsicht eine starke Vereinfachung dar. So muss unter anderem das Wissen den Möglichkeitsraum nicht unbedingt von außen her eingrenzen. Es ist durchaus vorstellbar, dass auch innerhalb des Raumes bestimmte Entwicklungen unmöglich sind. Dies illustriert Christian Voigt in diesem Band anhand von „Löchern“ und „Inseln“ im Möglichkeitsraum. Der Rand des Möglichkeitsraumes muss auch nicht unbedingt einen stetigen Verlauf haben. Darüber hinaus ist unser Wissen über weiter entfernte Zeitpunkte meist geringer als für nähere, was in Abbildung 1 durch ein Verblassen des Randes entlang der Zeitachse illustriert wird. Hinzu kommt, dass hier unterstellt wird, dass sich unterschiedliche Wissensbereiche scharf

144 | Die Energiewende und ihre Modelle

voneinander abgrenzen lassen, was in der Realität sicherlich nicht immer der Fall ist. In der folgenden Betrachtung werden diese Aspekte jedoch vernachlässigt. Das Vorgehen in einer typischen Szenariostudie im Energiebereich – und, wie Betz (2010, S. 92) aufzeigt, mindestens auch in den ersten drei Assessment Reports (AR) des Intergovernmental Panel on Climate Change (IPCC) – können wir nun so verstehen, dass hier versucht wird, mittels Modellrechnungen bestimmte und relativ wenige Szenarien je Studie zu verifizieren. Die Verifikation von Szenarien kann auf unterschiedlichem Wege erfolgen. Beispielsweise könnte dies durch Deduktion direkt aus dem Hintergrundwissen sowie bereits verifizierten Möglichkeiten passieren – und dies scheint der Weg zu sein, auf dem in bisherigen Szenariostudien die Möglichkeit der numerischen Annahmen verifiziert wird. Oder es können eben auch Modellrechnungen genutzt werden und dies ist das übliche Vorgehen in Energieszenariostudien, um die Ergebnisse zu verifizieren. Wie dies im Einzelnen geschieht, wird im nächsten Abschnitt beschrieben. Für die Falsifikation von Hypothesen stehen ebenfalls unterschiedliche Methoden zur Verfügung. Wenn Modelle jedoch mit Modellunsicherheiten behaftet sind, sodass diese selbst bestenfalls Möglichkeiten darstellen, können mit ihnen keine Hypothesen falsifiziert werden (ebd., S. 97). Weil dies bei Energiemodellen der Fall zu sein scheint (Dieckhoff, 2015, Abschnitt 7.8), ist davon auszugehen, dass mit Energiemodellen keine Szenarien falsifiziert werden können.8 Ohnedies ist unklar, inwiefern in bisherigen Energieszenariostudien die Methode der Falsifikation verwendet wird. Denkbar ist, dass im Prozess der Szenarioerstellung durch Deduktion aus dem Hintergrundwissen Grenzwerte für numerische Annahmen bestimmt werden, die den Wertebereich für die Wahl der Annahmen eingrenzen. Da die Annahmen aber oft unvollständig und ihre Auswahlkriterien meist gar nicht in den Studien dokumentiert werden, ist dies derzeit nicht nachvollziehbar. 2.3 Konsistenz modellierter Szenarien In diesem Abschnitt wird nun dem Umstand Rechnung getragen, dass die hier betrachteten Szenarien mit Hilfe von Modellen generiert und mehrdimensional be-

8

Ein Szenario falsifiziert man, indem man zeigt, dass es im Widerspruch zum relevanten Hintergrundwissen steht. Wollte man dies durch eine Modellrechnung zeigen, könnte man also auf die Idee kommen, immer dann ein Szenario als falsifiziert anzusehen, wenn ein Modell für einen bestimmten Satz numerischer Annahmen keine Lösung erzeugen kann. Dies wäre aber ein Fehlschluss, wenn Modellunsicherheit vorliegt. Denn es könnte dann durchaus ein anderes Modell geben, das eine Lösung findet (vgl. auch die entsprechende Diskussion im fünften Assessment Report des IPCC: Clarke et al., 2014, Abschnitt 6.2.4).

Dieckhoff: Epistemische Meta-Analyse | 145

schrieben werden. Vergegenwärtigen wir uns zunächst in vereinfachter Weise, was es heißt, ein Szenario mit Hilfe eines Modells zu erstellen. Ein Modell beschreibt ein Zielsystem, indem realen Größen des Zielsystems Variablen im Modell zugeordnet werden – Sebastian Cacean liefert in diesem Band eine detaillierte Analyse der Relation von Modell und Zielsystem. Unterscheiden wir die endogenen Variablen y von den exogenen Variablen x. Erstere hängen von letzteren ab, wobei das Modell m gerade den funktionalen Zusammenhang y = m(x) zwischen beiden herstellt.9 In einer typischen Szenariostudie werden, vereinfacht gesagt, nun diese Schritte durchlaufen: Zunächst müssen die numerischen Werte für die exogenen Variablen des Modells festgelegt werden – im Folgenden als numerische Annahmen bezeichnet. Diese werden in das Modell eingespeist, und das Modell berechnet die numerischen Ergebnisse für die endogenen Variablen des Modells.10 Die Annahmen für die exogenen und die Ergebnisse für die endogenen Variablen bilden gemeinsam ein Szenario, also eine Beschreibung der Entwicklung des Zielsystems. Durch Veränderung der numerischen Annahmen und erneute Modellläufe werden weitere Szenarien erzeugt. Auf Grundlage der Überlegungen im vorherigen Abschnitt können wir davon ausgehen, dass für jedes der Szenarien einer Studie der Anspruch erhoben wird, dass es konsistent mit dem relevanten Hintergrundwissen ist. Für die nachfolgenden Betrachtungen ist es hilfreich, diesen Anspruch aufzuteilen: Erstens beansprucht eine Szenariostudie, dass die präsentierten Szenarien mit einem bestimmten Referenzwissen konsistent sind. Zweitens beansprucht sie, dass dieses Referenzwissen auch das relevante Hintergrundwissen ist – etwa gemessen an der Fragestellung der Szenariostudie. Wie wir in Abschnitt 4 sehen werden, ist für die dort entworfene epistemische Meta-Analyse nur der erste Anspruch entscheidend, sodass wir uns im Rest dieses Abschnitts auf diesen beschränken können. Wie ist dieser aber zu verstehen, wenn bei genauerer Betrachtung ein Szenario aus unterschiedlichen Bestandteilen besteht,

9

Wie dieser funktionale Zusammenhang konkret hergestellt wird, ob es sich etwa um ein lineares oder nicht-lineares Gleichungssystem handelt, und durch welche Computerprogramme das mathematische Modell dann gelöst wird, wird in der vorliegenden Betrachtung vernachlässigt. In der Praxis besteht ein Energiemodell auch nicht immer aus genau einem Computerprogramm. Häufig kommen dagegen unterschiedliche Programme zum Einsatz, deren Datenaustausch auch nicht zwangsläufig automatisiert, sondern von Hand erfolgen kann. Auch diese Aspekte werden hier vernachlässigt.

10

In der Praxis finden für die Generierung eines Szenarios sehr viel mehr Rechenläufe statt, bei denen Anpassungen an den Modelleinstellungen und dergleichen vorgenommen werden. Auch dies wird hier vernachlässigt.

146 | Die Energiewende und ihre Modelle

Abbildung 2: Ein mehrdimensionales modelliertes Szenario

nämlich den numerischen Annahmen und den numerischen Ergebnissen, und diese durch das Modell verknüpft werden? Um uns hierüber klar zu werden, wird im Folgenden der Einfachheit halber ein einzelnes Szenario betrachtet, dessen Zielsystem anhand dreier Größen durch ein Modell y(t) = m(x1 (t), x2 (t)) beschrieben wird, wobei t die Zeit darstellt, die beiden Größen x1 (t) und x2 (t) als exogene Variablen und y(t) als von diesen abhängige endogene Variable modelliert werden. Abbildung 2 illustriert diesen Fall, indem die drei Variablen des Szenarios in drei Graphen gezeigt werden. In jedem Graph wird als Funktion der Zeit dargestellt, wie die Annahmen für eine Variable numerisch verlaufen. Das Szenario setzt sich also aus allen drei Funktionsverläufen zusammen. Wenn ein Szenario aus Annahmen und Ergebnissen zusammengesetzt ist und konsistent mit dem Referenzwissen sein soll, müssen folglich auch die Annahmen und Ergebnisse konsistent mit dem Referenzwissen sein. Wichtig zu beachten ist allerdings, dass es hierbei nicht ausreicht, wenn einzelne Annahmen oder Ergebnisse für sich allein mit dem Referenzwissen konsistent sind. Vielmehr müssen alle Annahmen und Ergebnisse gemeinsam in ihrer Kombination konsistent mit dem Referenzwissen sein. Eine Möglichkeit für die Erstellung verifizierter Szenarien wäre es also, für jeden Rechenlauf zu prüfen, ob die numerischen Annahmen und Ergebnisse gemeinsam konsistent mit dem Referenzwissen sind. In diesem Fall wäre es im Prinzip egal, was für ein Modell verwendet wird (und welchen epistemischen Status dies aufweist),

Dieckhoff: Epistemische Meta-Analyse | 147

denn es würde gewissermaßen nur die Zahlen liefern, nicht jedoch eine Aussage darüber, ob diese Zahlen auch eine mögliche Beschreibung des Zielsystems darstellen. In der Praxis will man diese Konsistenzprüfung unabhängig vom Modell aber vermeiden. Mehr noch: Man verwendet ein Modell ja gerade dann, wenn das Zielsystem komplex ist und es deshalb gar nicht möglich oder zumindest sehr aufwendig ist, Ergebnisse „von Hand“ zu berechnen und deren Konsistenz nachzuweisen. Man will sich also gerade zunutze machen, dass das Modell nicht irgendeinen beliebigen funktionalen Zusammenhang zwischen exo- und endogenen Variablen herstellt, sondern Wissen über die Wechselwirkungen der betrachteten Größen im Zielsystem berücksichtigt. Ziel von Szenariorechnungen ist es also, auf die Konsistenz der Ergebnisse für die endogenen Variablen zu schließen, statt diese eigens zeigen zu müssen. Dieckhoff (2015) liefert eine ausführliche Analyse dieser Schlussweise. Und in der Tat gilt: Die Ergebnisse einer Szenariorechnung sind konsistent mit dem Referenzwissen, wenn das Modell, mit dem sie berechnet wurden (in Kombination mit den numerischen Annahmen), konsistent mit dem Referenzwissen ist.11 Es sind also drei Bedingungen gemeinsam hinreichend dafür, dass ein Szenario, das mit einem Modell berechnet wurde, konsistent mit dem Referenzwissen ist: Erstens müssen die numerischen Annahmen für die exogenen Variablen konsistent mit dem Referenzwissen sein. Wiederum reicht es jedoch nicht aus, wenn jede Annahme für sich konsistent mit dem Referenzwissen ist. Vielmehr müssen sie es in ihrer Kombination sein. Beispielsweise könnte in einem Szenario der Anteil der fossilen Energieerzeugung an der Deckung der Stromnachfrage eine erste und die Preise für CO2 -Zertifikate eine zweite exogene Variable sein. Wir können uns vorstellen, dass wir den Anteil der fossilen Energieerzeugung mit Blick auf unser ökonomisches Wissen in einem breiten Wertebereich wählen könnten und gleichermaßen die Preise für CO2 -Zertifikate. Schauen wir uns beide Variablen aber in Kombination an, so wird deutlich, dass hohe Anteile fossiler Energieerzeugung und gleichzeitig hohe Preise für CO2 -Zertifikate inkonsistent mit unserem ökonomischen Wissen sind, etwa weil Energieversorgungsunternehmen bei hohen Zertifikatpreisen emissionsarme und damit kostengünstigere Erzeugungstechnologien einsetzen würden.12 Zweitens muss das Modell, genauer gesagt die Modellannahmen, die die realen Zusammenhängen zwischen endo- und exogenen Größen repräsentieren, mit dem Re-

11

Damit wäre die Konsistenz der Ergebnisse auch gegeben, wenn das Modell Teil des Referenzwissens ist oder von ihm impliziert wird (und die numerischen Annahmen konsistent mit dem Referenzwissen sind).

12

Im Beispiel werden selbstverständlich implizit weitere Annahmen getroffen, wie etwa, dass überhaupt emissionsärmere Technologien zur Verfügung stehen.

148 | Die Energiewende und ihre Modelle

ferenzwissen konsistent sein. Ob diese Bedingung in der Praxis der Modellierung komplexer Systeme wie etwa der Klima- oder Energiemodellierung erfüllt ist, ist umstritten. Denn viele Modelle enthalten Idealisierungen und unrealistische Annahmen, die, als Aussagen über ihr Zielsystem verstanden, falsch sind, weil sie im Widerspruch zu einem bestimmten Teil unseres Wissens stehen. Damit sind diese Modelle jedoch inkonsistent mit dem betreffenden Wissen. Darüber hinaus weisen die Ergebnisse von Dieckhoff (2015, insbesondere Abschnitte. 6.4 und 7.8) darauf hin, dass manche Energiemodelle empirisch inadäquat – also inkonsistent mit empirischen Daten – sind. Ob und unter welchen Bedingungen mit solchen Modellen dennoch verifizierte Szenarien berechnet werden können, ist eine offene theoretische Frage. Einen ersten Ansatz entwirft Betz (2015) ausgehend von Sugden (2009), indem er der Frage nachgeht, ob Klimamodelle als „imperfect credible worlds“ verstanden werden können, die trotz unrealistischer Annahmen unter bestimmten Bedingungen die Verifikation von Szenarien erlauben. Einen zweiten Ansatz entwirft Sebastian Cacean in diesem Band. Beide schlussfolgern zwar, dass ihre Ansätze aus theoretischer Sicht unter bestimmten Bedingungen die Verifikation von Szenarien erlauben. In beiden Fällen bleibt aber offen, ob diese Bedingungen in der Praxis erfüllt werden können. Diese beiden Bedingungen sind zusammen jedoch noch nicht hinreichend für die Konsistenz der Ergebnisse. Zusätzlich muss drittens erfüllt sein, dass die numerischen Annahmen und die Modellannahmen zueinander konsistent sind. Inwiefern die Erfüllung dieser dritten Bedingung in der Praxis der Modellierung eine eigenständige Herausforderung darstellt, bedarf der genaueren Prüfung, die hier jedoch nicht geleistet werden kann. 3 Ein kritischer Blick in bisherige Meta-Analysen von Energieszenarien Um die eingangs beschriebene Problematik zu illustrieren, werden in diesem Abschnitt drei Meta-Analysen von Energieszenarien beleuchtet. Cochran et al. (2014) wurde ausgewählt, weil hier vor allem der Umgang mit unterschiedlichem Referenzwissen von Szenarien problematisch erscheint. In Keles et al. (2011) deutet sich dagegen die Schwierigkeit an, mittels weniger Szenarien auf robuste Entwicklungen zu schließen. Schließlich wird untersucht, wie mit beiden Aspekten im aktuellen fünften Assessment Report (AR5) des IPCC umgegangen wird, der derzeit wichtigsten und umfangreichsten Meta-Analyse von Energieszenarien.13

13

Ich stütze mich im Folgenden im Wesentlichen auf den Bericht der dritten Arbeitsgruppe (Edenhofer et al., 2014a) und darin wiederum vor allem auf Kapitel 6, da hier die Szenario-

Dieckhoff: Epistemische Meta-Analyse | 149

Cochran et al. (2014) untersuchen Energieszenarien, die die zukünftige Entwicklungen der Stromerzeugung mit hohen Anteilen erneuerbarer Energien für unterschiedliche geografische Regionen der Welt beschreiben. Die Meta-Analyse liefert im Wesentlichen einen Überblick über diese Studien, indem unter anderem deren Methodik, einige numerische Annahmen beziehungsweise Daten, numerische Ergebnisse und politische Implikationen der Szenariostudien zusammengefasst und miteinander verglichen werden. Die AutorInnen stellen fest, dass alle untersuchten Studien trotz ihrer erheblichen Unterschiede zum selben Schluss kommen, nämlich, dass ein hoher Anteil erneuerbarer Energien möglich ist: „All studies – reflecting a large range in system sizes, locations, and other factors – conclude that high RES-E is possible.“ (ebd., S. 252)

Dies ist die einzige Gemeinsamkeit aller Studien, auf die die AutorInnen der MetaAnalyse verweisen. Schlussfolgerungen auf robuste Entwicklungen werden nicht gezogen. Als politisch relevante Konsequenzen aus ihrer Analyse sehen Cochran et al. im Wesentlichen unterschiedliche Forschungsbedarfe für zukünftige Szenariostudien. Die Meta-Analyse ist in ihren Schlussfolgerungen damit sehr zurückhaltend, was im Angesicht der Unterschiedlichkeit der Studien angemessen erscheint. Kritikwürdig ist jedoch die zuvor genannte Möglichkeitsaussage, denn hier bleibt völlig unbeachtet, in Bezug auf welches Wissen die einzelnen Studien Möglichkeitsaussagen treffen. Mehr noch: Die Beschreibung der Studien in der Meta-Analyse selbst (ebd., Tabelle 1, S. 248) offenbart, dass manche nur die technische, andere die technische und ökonomische Machbarkeit und wieder andere zusätzlich auch die politische Realisierbarkeit untersuchen, sodass in ihnen sehr unterschiedliche Arten von möglichen Entwicklungen beschrieben werden. Hinzu kommt, dass sich die untersuchten Szenarien auf unterschiedliche geografische Regionen und damit unterschiedliche Zielsysteme beziehen. Damit ist die von Cochran et al. festgestellte Gemeinsamkeit der Szenarien von zweifelhaftem Erkenntniswert.

auswertung beschrieben wird (Clarke et al., 2014). Zusätzlich wurden der Synthesebericht zum Gesamtbericht (IPCC, 2014a), die Zusammenfassung für politische EntscheiderInnen der dritten Arbeitsgruppe (IPCC, 2014b) und die technische Zusammenfassung der dritten Arbeitsgruppe (Edenhofer et al., 2014b) gesichtet. Der AR5 ist aber ein äußerst umfangreiches Dokument, das für die vorliegende Ausarbeitung nicht vollständig analysiert werden konnte. Es ist zwar unwahrscheinlich, aber nicht auszuschließen, dass in anderen Teilen des AR5 Aussagen getroffen werden, die die folgende Beschreibung konterkarieren.

150 | Die Energiewende und ihre Modelle

Tendenziell umgekehrt ist die Situation bei Keles et al. (2011). Sie vergleichen vier Szenarien des deutschen Energiesystems aus unterschiedlichen Studien, die sie als repräsentativ für die meisten der zum Zeitpunkt vorliegenden Szenariostudien für Deutschland ansehen. Ein Ziel ist die Identifikation von robusten Entwicklungen in den unterschiedlichen Szenarien (ebd., S. 812). Als zentrale Annahmen werden die Brennstoffpreise und als Ergebnisse die Primärenergienachfrage sowie die Höhe der Strom- und Wärmeerzeugung der Szenarien miteinander verglichen. Auch in dieser Meta-Analyse wird nicht explizit geprüft, ob die Studien mögliche Entwicklungen in Bezug auf ein gemeinsames Referenzwissen darstellen. Zumindest bietet die Darstellung aber keinen offensichtlichen Grund zum Zweifel hieran.14 Interessant an dieser Meta-Analyse ist die explizite Ausweisung robuster Ergebnisse für zukünftige Entwicklungen im deutschen Energiesystem. Dies sind eine sinkende Primärenergienachfrage, ein starker Anstieg des Anteils der erneuerbaren Energien an der Primärenergie- und Strombedarfsdeckung sowie sinkende CO2 Emissionen (ebd., S. 823). Allerdings bleibt unklar, ob „Robustheit“ nur als eine Feststellung der Gemeinsamkeit von Szenarien verstanden wird, oder ob damit Aussagen darüber verbunden werden, inwiefern mit den robusten Entwicklungen auch in der Realität zu rechnen ist. Für erstes sprechen die expliziten Formulierungen zur Robustheit in der Studie.15 Für zweites spricht der Umstand, dass die vier gewählten Szenarien Gruppen von Szenarien repräsentieren sollen, die die „wahrscheinlichsten Tendenzen“ (ebd., S. 814, Übersetzung CD) im realen deutschen Energiemarkt

14

Dafür spricht, dass die untersuchten Szenarien mittels relativ ähnlicher Modelle berechnet wurden. Jeweils handelt es sich um Bottom-Up-Modelle, die den deutschen Energiesektor technologisch aufgelöst beschreiben (Keles et al., 2011, S. 816). Allerdings unterscheiden sich die Modelle stark in ihren Annahmen zum ökonomischen Verhalten der Akteure, denn drei der Modelle nehmen kostenoptimierendes Verhalten einer fiktiven zentralen Entscheidungsinstanz an (Optimierungsansatz), während ein Modell (ARES) ökonomisches Verhalten durch exogene Annahmen nachbildet (Simulationsansatz). Dies deutet auf Unterschiede im ökonomischen Referenzwissen hin.

15

Z.B.: Keles et al., 2011, S. 812: „Thus, this paper gives an overview of selected scenarios illustrating the broad spectrum of possible developments in the German energy market. Thereby, robust developments or trends shall be identified, which are valid within different scenarios.“

Dieckhoff: Epistemische Meta-Analyse | 151

abdecken sollen.16 Wir werden in Abschnitt 5 auf dieses Interpretationsproblem zurückkommen. Eine besonders umfangreiche und für die globale Klimapolitik wichtige Reihe von Meta-Analysen von Energieszenarien führt das IPCC für seine Berichte durch. Dies überrascht nicht, denn energiebedingte Treibhausgasemissionen stellen einen der wesentlichen Treiber des Klimawandels dar, sodass es für eine Abschätzung der möglichen Entwicklungen des globalen Klimas auch nötig ist, den Raum der möglichen Entwicklungen der globalen energiebedingten Treibhausgasemissionen einzuschätzen. Für den jüngsten, fünften Bericht (AR5) wurden 1184 Szenarien erfasst. Der AR5 ist ein interessantes Beispiel, weil hier explizit auf die Schwierigkeit eingegangen wird, Szenarien, die aus verschiedenen Studien stammen, miteinander zu vergleichen: So weisen die AutorInnen unter anderem darauf hin, dass die von ihnen untersuchten Szenarien keine Zufallsstichprobe darstellen und damit nicht als Grundlage einer „formalen Unsicherheitsanalyse“ dienen können. Vielmehr seien die Szenarien eng miteinander korreliert, weil in ihnen die gleichen Größen variiert werden (Clarke et al. 2014, S. 12, Übersetzung CD). Gleichzeitig geben die AutorInnen allerdings an, dass die Szenarien durchaus auf „informierten ExpertInnenurteilen“ basieren und kommen deshalb zu dem etwas unklaren Schluss, die Szenarien würden einen „realen und klaren Einblick in unsere Wissenslücken über Schlüsselkräfte, die die Zukunft prägen könnten“, erlauben. Sie erkennen, dass in diesen Befunden eine Ambiguität liegt, erläutern aber, dass sie nicht das Ziel verfolgen, diese aufzulösen. Vielmehr konzentrieren sie sich nach eigener Angabe darauf, die „robustesten und wertvollsten Erkenntnisse“ herauszuarbeiten, die unter diesen Bedingungen erreichbar sind (ebd., S. 13, Übersetzung CD). Mindestens lässt sich aus diesen Angaben schließen, dass die AutorInnen davon ausgehen, dass die von ihnen untersuchten Szenarien den betreffenden Möglichkeitsraum nur unvollständig erfassen. Diese Zurückhaltung und auch Unklarheit spiegelt sich auch in der Zusammenfassung für politische EntscheiderInnen (IPCC 2014b) wider. Dort fällt auf, dass im Zusammenhang mit den Szenarien explizit vor allem Aussagen über die Szenarien selbst getroffen werden und nicht über das reale Klima- oder Energiesystem.17 Hier-

16

Dieser letztgenannte Anspruch wird selbst wiederum in keiner Weise plausibel begründet. Vielmehr wird an anderer Stelle darauf verwiesen, dass die Auswahl der Szenarien im Kern „subjektiv“ durch die Autoren der Meta-Analyse geschehen ist (Keles et al., 2011, S. 816).

17

Z.B.: „Mitigation scenarios in which it is likely that the temperature change caused by anthropogenic GHG emissions can be kept to less than 2 °C relative to pre-industrial levels are characterized by atmospheric concentrations in 2100 of about 450 ppm CO2 eq.“ (IPCC, 2014b, S. 10).

152 | Die Energiewende und ihre Modelle

durch bleibt unklar, welche Aussagekraft über reale Entwicklungen LeserInnen den Szenarien beimessen sollen. Zusätzlich weisen die AutorInnen darauf hin, dass es trotz der Vielzahl der Szenarien aufgrund von Unsicherheiten und Grenzen der Modelle weitere mögliche Entwicklungen gibt, die nicht berücksichtigt wurden (ebd., S. 10) – der relevante Möglichkeitsraum wird also offenbar auch nach Ansicht der AutorInnen der Zusammenfassung für politische EntscheiderInnen nicht vollständig abgedeckt. Damit konsistent ist der Umstand, dass zumindest im Bericht der dritten Arbeitsgruppe fast keine Robustheitsschlüsse aus dem Szenarienvergleich gezogen werden.18 Zusammenfassend lässt sich feststellen, dass in keiner der vorgestellten MetaAnalysen explizit das Referenzwissen der Szenarien beachtet wird. Cochran et al. (2014) legen zwar diesbezüglich die Unterschiedlichkeit der Szenarien offen, ignorieren dies aber in ihren Schlussfolgerungen. Inwiefern Keles et al. (2011) Schlüsse auf robuste Entwicklungen treffen, ist unklar. Cochran et al. (2014) und die AutorInnen des Berichts der dritten Arbeitsgruppe des AR5 tun es (zumindest in großem Umfang) nicht. Weil dennoch eine recht große allgemeine Sensibilität für die Schwierigkeit des Vergleichens von Szenarien erkennbar wird und weil die vorherige Analyse auf einer bestimmten Explikation des Möglichkeitsbegriffs aufbaut, kann dies den AutorInnen jedoch nicht vorgeworfen werden. Es scheint vielmehr, dass insgesamt die Relevanz der in diesem Aufsatz diskutierten Fragestellungen bisher übersehen wurde. Auch die jüngst von Droste-Franke et al. (2015) vorgeschlagenen Analysekategorien für MetaAnalysen von Energieszenarien umfassen im Wesentlichen deskriptive Kategorien, wie etwa die zeitliche und räumliche Auflösung. Allerdings wird auch die Kategorie „disziplinäre Perspektive/betrachtete Systeme“ (ebd., S. 81, Übersetzung CD) vorgeschlagen, mit der immerhin der Frage nachgegangen wird, welcher Wissensbereich in einer Studie herangezogen wurde. 4 Grundzüge einer epistemischen Meta-Analyse (EMA) Viele Meta-Analysen haben das Ziel, Szenarien aus unterschiedlichen Studien miteinander zu „vergleichen“. Was ist hiermit aber eigentlich gemeint? Sicherlich gibt es hierauf eine Vielzahl möglicher Antworten. Unsere bisherigen Überlegungen lassen aber eine Interpretation der Zielsetzung als besonders plausibel erscheinen und diese wird im Folgenden erläutert.

18

Eine Ausnahme ist die Aussage, die im Folgenden gleich zu Beginn in Abschnitt 5 zitiert und anschließend näher betrachtet wird.

Dieckhoff: Epistemische Meta-Analyse | 153

Ausgangspunkt ist die Überlegung, dass in einer Meta-Analyse versucht wird, Szenarien einander gegenüberzustellen, die zwar in unterschiedlichen Studien veröffentlicht wurden, aber für die Beantwortung der Fragestellung der Meta-Analyse relevant sind. Diese Fragestellung lautet in der Interpretation des vorliegenden Aufsatzes: Welche möglichen Entwicklungen sind für das Zielsystem der Meta-Analyse bereits bekannt? Wir gehen hier also erstens davon aus, dass auch in einer Meta-Analyse über die Entwicklung eines bestimmten Zielsystems ZM Aussagen getroffen werden sollen. Zweitens sei angenommen, dass in der Meta-Analyse für ZM Entwicklungen aufgezeigt werden sollen, die möglich in Bezug auf ein bestimmtes relevantes Hintergrundwissen HWM sind. Seien außerdem Sn die in der Meta-Analyse verwendeten Szenarien, die sich auf die Zielsysteme Zn und Referenzwissen RW n der Studien beziehen, aus denen sie entnommen werden, wobei n einfach eine Nummerierung der in der Meta-Analyse verwendeten Szenarien sei. Dabei ist es für die Meta-Analyse unerheblich, ob das Referenzwissen einer Szenariostudie auch das Hintergrundwissen ist, das für die Beantwortung der Fragestellung dieser Szenariostudie relevant ist. Wie wir gleich genauer sehen werden, ist für die Meta-Analyse entscheidend, dass das Referenzwissen der Szenariostudie das relevante Hintergrundwissen umfasst, dass zur Beantwortung der Fragestellung der Meta-Analyse benötigt wird. Damit ist es also möglich, in einer Meta-Analyse Szenarien aus Studien zu verwenden, deren Referenzwissen eigentlich nicht das relevante Hintergrundwissen dieser Studien darstellt. Legen wir beispielhaft drei Szenarien zugrunde, die aus jeweils unterschiedlichen Studien stammen, so ist eine Meta-Analyse mit folgender Situation konfrontiert: • In Studie 1 wird behauptet, S1 für Z1 sei konsistent mit RW1 . • In Studie 2 wird behauptet, S2 für Z2 sei konsistent mit RW2 . • In Studie 3 wird behauptet, S3 für Z3 sei konsistent mit RW3 . Vor diesem Hintergrund lässt sich das Ziel einer vergleichenden Meta-Analyse präzisieren, und dies liefert gleichzeitig die Zielsetzung der hier skizzierten epistemischen Meta-Analyse (EMA). Das Ziel ist die Begründung dieser Konklusion: Relativ zu HWM ist es möglich, dass sich das Zielsystem ZM gemäß Szenario S1 entwickelt, und möglich, dass sich ZM gemäß Szenario S2 entwickelt, und möglich, dass sich ZM gemäß Szenario S3 entwickelt.

Allerdings sind mit der Erreichung dieser Zielsetzung einige Herausforderungen verbunden. Denn zum einen kann sich das relevante Hintergrundwissen der Meta-

154 | Die Energiewende und ihre Modelle

Analyse HWM vom jeweiligen Referenzwissen der Studien RW n , aus denen die Szenarien entnommen werden, unterscheiden. Ähnliches gilt für die Zielsysteme der Meta-Analyse ZM und der untersuchten Szenarien Zn . Auch diese müssen nicht identisch sein. Beispielsweise könnte die Aufgabe einer Meta-Analyse darin bestehen, alle bisher als technisch möglich nachgewiesenen Entwicklungen der Wirkungsgrade von Gas- und Dampfkombikraftwerken (GuD) aus bisherigen Energieszenariostudien aufzuführen. Sie würde dann eine einzige Annahme hinsichtlich eines bestimmten Wissensbereiches untersuchen, obwohl diese in den Studien nur eine Annahme unter vielen ist und möglicherweise nicht nur relativ zu technischem, sondern auch zu anderem Wissen verifiziert wurde. Um den zuvor präzisierten Anspruch einer EMA erfüllen zu können, müssen deshalb die folgenden drei Voraussetzungen erfüllt werden: 1. Die Zielsysteme Zn der untersuchten Szenarien Sn müssen jeweils das Zielsystem ZM der Meta-Analyse umfassen (Inklusion Zielsystem). 2. Das unterschiedliche Referenzwissen RW n der Szenarien Sn muss jeweils das relevante Hintergrundwissen HW M der Meta-Analyse umfassen (Inklusion Hintergrundwissen). 3. Die Szenarien Sn müssen konsistent mit dem jeweiligen Referenzwissen RW n ihrer Studien sein (Konsistenz mit Referenzwissen). Aus diesen Voraussetzungen ergeben sich die folgenden Aufgaben für eine EMA: Ad 1. Inklusion Zielsystem: Szenariostudien können sich in ihren Zielsystemen in vielerlei Hinsicht unterscheiden. Dies gilt beispielsweise hinsichtlich des geografischen Bezugssystems. So beschreiben manche Studien das europäische Energiesystem, während andere nur Deutschland umfassen. Aber auch hinsichtlich der Art und Weise, wie die Zielsysteme beschrieben werden, können Unterschiede bestehen. Manche Studien verwenden beispielsweise ökonomische Kenngrößen in monetären Einheiten, während andere technische Größen in physikalischen Einheiten verwenden. Gleiches gilt für den Aggregationsgrad der Betrachtungen in den Studien. So liegt manchen Studien im Energiebereich etwa eine kraftwerksgenaue Betrachtung zugrunde, während andere die Kraftwerke zu bestimmten Klassen aggregieren.19 Damit die untersuchten Szenarien auch Beschreibungen des Zielsystems der Meta-Analyse darstellen, muss sichergestellt werden, dass die Kenngrößen der untersuchten Szenarien die Kenngrößen der Meta-Analyse umfassen oder zumindest

19

Ein Übersicht über die Vielfalt von Energieszenariostudien bietet Dieckhoff, 2015, Abschnitt 4.2.

Dieckhoff: Epistemische Meta-Analyse | 155

auf diese umzurechnen sind. Salopp gesagt drückt diese Voraussetzung also aus, dass die verwendeten Szenarien überhaupt eine Aussage über das Zielsystem der MetaAnalyse treffen müssen. Die Aufgabe, dies zu prüfen und gegebenenfalls Umrechnungen vorzunehmen, stellt allerdings auch schon für bisherige Meta-Analysen eine Herausforderung dar. So sind lückenhafte Dokumentationen und uneinheitliche Bezugsgrößen in Szenariostudien ein häufiges Problem. Pahle et al. (2012) weisen in ihrer Meta-Analyse zu den Kosten des Ausbaus für erneuerbare Energien etwa auf die Schwierigkeiten hin, die sich aus unterschiedlichen Metriken für die Kosten (ebd., insbesondere S. 5–9) sowie aus der lückenhaften Dokumentation der entsprechenden Annahmen (ebd., insbesondere S. 24f.) für ihre Analyse ergeben. Ad 2. Inklusion Hintergrundwissen: Szenariostudien können sich darin unterscheiden, in Bezug auf welches Referenzwissen sie die Konsistenz ihrer Szenarien beanspruchen. Zum einen betrifft dies den Wissensbereich, der jeweils herangezogen wird. So gibt es beispielsweise im Energiebereich Studien, die explizit nur die technische Möglichkeit einer Entwicklung zu zeigen beanspruchen und hierfür nur physikalischtechnisches Wissen heranziehen. Die AutorInnen der Studie Treibhausgasneutrales Deutschland im Jahr 2050 geben beispielsweise explizit an, mit ihrem Szenario den Nachweis zu erbringen, dass es technisch möglich sei, die Treibhausgasemissionen Deutschlands bis 2050 um 95% im Vergleich zum Jahr 1990 zu reduzieren (UBA, 2013, S. 27). Andere Studien beanspruchen dagegen, technisch und gleichzeitig ökonomisch oder auch politisch mögliche Entwicklungen aufzuzeigen.20 Es wird also jeweils die Konsistenz der Szenarien in Bezug auf unterschiedliche Wissensbereiche beansprucht. Zum anderen kann es innerhalb der Wissenschaft einen Dissens darüber geben, was als Wissen anzuerkennen ist, sodass sich auch das Referenzwissen zweier Studien unterscheiden kann, die nominell den gleichen Wissensbereich heranziehen. Dies gilt gerade dann, wenn Wissen unsicher ist, etwa weil ein Phänomen noch nicht ausreichend erforscht wurde. Hinzu kommt, dass Wissen sich verändert, sodass zwei Studien, die zu unterschiedlichen Zeitpunkten erstellt wurden, sich auch deshalb im Referenzwissen unterscheiden können. Um das zuvor präzisierte Ziel erreichen zu können, muss in einer EMA zum einen sichergestellt werden, dass das jeweilige Referenzwissen der untersuchten Szenarien eine Schnittmenge hat, und zum anderen, dass das relevante Hintergrundwissen der Meta-Analyse innerhalb dieser Schnittmenge liegt. Das bedeutet, dass das Re-

20

Vgl. die zuvor zitierte Tabelle 1 auf S. 248 in Cochran et al., 2014.

156 | Die Energiewende und ihre Modelle

ferenzwissen einzelner untersuchter Szenarien umfassender sein darf als das Hintergrundwissen der Meta-Analyse, aber nicht umgekehrt. Im Fall von Szenariostudien im Energiebereich steht diese Aufgabe vor der Schwierigkeit, dass in den Studien auf den ersten Blick oft gar nicht klar ist, auf welches Referenzwissen sich die Szenarien beziehen. Dies muss vielmehr in der Regel aus unterschiedlichen Informationen erschlossen werden. Hierbei sind Charakterisierungen der Szenarien hilfreich, etwa wenn eine Studie die Szenarien explizit als nur technische Möglichkeiten ausweist. Auch das verwendete Modell gibt einen wichtigen Hinweis, wobei aus dem Umstand, dass beispielsweise ein ökonomisches Modell zur Erstellung der Szenarien verwendet wurde, nicht geschlossen werden darf, dass die Szenarien nur Möglichkeiten relativ zu ökonomischem Wissen darstellen sollen. Darüber hinaus können auch die Quellenangaben in einer Szenariostudie Hinweise darauf geben, aus welchem Bereich Wissen einbezogen wurde. Die Frage, welches Wissen das relevante Hintergrundwissen für die Beantwortung der Fragestellung der Meta-Analyse ist, muss zusätzlich – typischerweise bei der Konzeption der Meta-Analyse – beantwortet werden. Da dies im Einzelfall und unter Beachtung des spezifischen Verwendungskontextes der Meta-Analyse geklärt werden muss, wird dies in der vorliegenden Analyse jedoch nicht näher betrachtet. Ad 3. Konsistenz mit Referenzwissen: In Szenariostudien wird der Anspruch erhoben, dass die beschriebenen Szenarien konsistent mit einem bestimmten Referenzwissen sind. Eine EMA hat nun zwei Möglichkeiten, mit diesem Anspruch umzugehen. Die erste besteht darin, einfach anzunehmen, dass die Szenariostudien diesen Anspruch erfüllen. Die zweite besteht in der Überprüfung dieses Anspruchs. Wenn die Konsistenz der Szenarien mit dem Referenzwissen ihrer Studien gegeben ist und außerdem die zweite Bedingung – Inklusion des Hintergrundwissens – erfüllt ist, sind die Szenarien auch konsistent mit dem relevanten Hintergrundwissen der MetaAnalyse.21 Ein grundlegender Einwand gegen die zweite Option könnte sein, dass eine tiefgreifende Konsistenzüberprüfung von Szenariostudien nicht die Aufgabe einer MetaAnalyse sein sollte. Dem kann jedoch entgegengehalten werden, dass Energieszenariostudien häufig durch erhebliche Intransparenz gekennzeichnet sind, etwa weil Annahmen, Daten und die verwendeten Modelle lückenhaft dokumentiert und die Er-

21

Alternativ könnte natürlich auch direkt die Konsistenz der Szenarien mit dem relevanten Hintergrundwissen der Meta-Analyse geprüft werden – was in der Praxis mit erheblichem Aufwand verbunden sein dürfte.

Dieckhoff: Epistemische Meta-Analyse | 157

stellungsprozesse der Szenarien nicht nachvollziehbar sind.22 Meta-Analysen haben deshalb auch heute schon teilweise das Ziel, über den Vergleich der in den Studien gemachten Angaben hinaus auch die Transparenz der Szenariostudien zu erhöhen. So führen etwa Fischedick et al. (2012) eine Dekompositionsanalyse durch, um die in verschiedenen Energieszenarien berechneten Emissionsentwicklungen durch funktionale Zusammenhänge zu erklären. Auch Pahle et al. (2012) gehen in ihrer MetaAnalyse deutlich über das reine Gegenüberstellen von Szenarien hinaus, indem sie zu ergründen versuchen, wie in den von ihnen untersuchten Studien die Entwicklung der Investitionskosten erneuerbarer Energien zustande kommt. Damit wird deutlich, dass auch heute schon ein Bedarf an Meta-Analysen besteht, die unter die Oberfläche der Szenariostudien blicken. Mit den Erläuterungen in Abschnitt 2.3 wissen wir nun, dass für die Konsistenz modellierter Szenarien mit ihrem Referenzwissen drei Bedingungen geprüft werden müssen: Erstens gilt es zu prüfen, ob die numerischen Annahmen für die exogenen Variablen des betreffenden Szenarios konsistent mit dem Referenzwissen sind. Zweitens muss geprüft werden, ob die Modellannahmen konsistent mit dem Referenzwissen ist. Drittens gilt es zu prüfen, ob die Annahmen für die exogenen Variablen und die Modellannahmen konsistent miteinander sind. Die praktische Herausforderung liegt im Fall von Energieszenariostudien schon darin, dass in den Studien in der Regel die Erfüllung dieser Bedingungen nicht nachvollziehbar ist. Dies liegt zum einen daran, dass Annahmen oft nicht vollständig dokumentiert werden. Zum anderen werden die Modelle häufig nicht ausreichend beschrieben. Und hier kommt ein grundsätzliches Problem hinzu. Denn wie in Abschnitt 2.3 erläutert wurde, ist der epistemische Status vieler Energiemodelle unklar, und für Modelle mit unrealistischen Annahmen bestehen Zweifel, ob diese überhaupt Möglichkeiten verifizieren können. Selbst eine schwache Prüfung des Konsistenzanspruchs im Sinne eines Nachvollziehens der Argumentation ist also schon mit erheblichen Hürden konfrontiert – was auf die Notwendigkeit verweist, die Transparenz von Energieszenarien zu verbessern (vgl. Leopoldina et al., 2015). Ob eine Überprüfung des Konsistenzanspruchs im Rahmen einer Meta-Analyse sinnvoll ist, lässt sich sicherlich nur im konkreten Einzelfall entscheiden. Denn der enorme Aufwand, den dies bedeuten würde, muss gegen den Nutzen abgewogen werden. Dabei ist zu beachten, dass eine solche Überprüfung unterschiedlich tiefgehend

22

In Reaktion auf diesen Befund formulieren die deutschen Akademien der Wissenschaften in einer aktuellen Stellungnahme Qualitätsstandards für Energieszenarien und machen darauf aufbauend unter anderem Vorschläge für die Verbesserung der Transparenz von Szenarien (vgl. Leopoldina et al., 2015).

158 | Die Energiewende und ihre Modelle

durchgeführt werden kann. Vorstellbar ist eine Plausibilitätsprüfung durch AnalystInnen, der Einbezug weiterer Studien und Veröffentlichungen oder auch das Nachrechnen der Szenarien oder einzelner Bestandteile. Im vorliegenden konzeptionellen Entwurf soll deshalb die Option offen gehalten werden, dass eine EMA auch die Prüfung der Konsistenz der untersuchten Szenarien mit ihrem jeweiligen Referenzwissen beinhaltet. Hinsichtlich des sinnvollen Umfangs dieser Prüfung kann hier keine Festlegung getroffen werden. 5 Robuste Entwicklungen identifizieren Wie das Ziel des „Vergleichens“ von Szenarien ist auch das Ziel der Identifikation von „robusten“ Entwicklungen interpretationsbedürftig. Dies lässt sich gut an einer der wenigen expliziten Robustheitsaussagen aus dem AR5 des IPCC illustrieren. Sie lautet: „A robust result across studies is that aggregate global costs of mitigation tend to increase over time and with stringency of the concentration goal.“ (Clarke et al., 2014, S. 46)

Formulierungen dieser Art lassen mindestens zwei Interpretation zu, die uns in Abschnitt 3 auch schon im Zusammenhang mit der Meta-Analyse von Keles et al. (2011) begegnet sind. In der ersten Variante wird die Aussage, eine bestimmte zukünftige Entwicklung (oder ein bestimmter Aspekt von Szenarien) sei „robust“, als deskriptive Aussage über die betrachteten Szenarien verstanden. Diese Variante wird im Folgenden kurz als „deskriptive Robustheit“ bezeichnet. Robustheit heißt hier nichts anderes, als dass die unterschiedlichen Szenarien hinsichtlich der Beschreibung der Entwicklungen ihrer Zielsysteme in bestimmter Hinsicht übereinstimmen. In dieser Interpretation ist mit der Diagnose der Robustheit keine Aussage darüber verbunden, was aus einer solchen Übereinstimmung für die reale zukünftige Entwicklung des Zielsystems der Szenarien folgt. Im vorangestellten Zitat ist es vor allem der Verweis „across studies“, der für diese Interpretation des Zitats spricht. Aber schon die Verwendung des Ausdrucks „Robustheit“ sowie der Kontext, in dem solche Aussagen in der Regel getroffen werden, legen nahe, dass oft mehr gemeint ist. Gemäß der zweiten Interpretation wird nämlich behauptet, dass mit den identifizierten Gemeinsamkeiten der Szenarien auch real in besonderem Maße zu rechnen ist. Genauer gesagt wird in dieser Lesart eine deterministische Aussage über diese Gemeinsamkeiten getroffen, weshalb wir diese Variante im Folgenden kurz als „deterministische Robustheit“ bezeichnen wollen. Dies können dann etwa Prognosen über Entwicklungstrends sein, was eine mögliche Interpretation für die Aussagen in

Dieckhoff: Epistemische Meta-Analyse | 159

Keles et al. (2011) ist, die wir in Abschnitt 3 näher betrachtet haben. Oder es kann sich auch um deterministische Aussagen über Kausalzusammenhänge handeln. Eine solche wird in einer strengen Lesart im vorangestellten Zitat über den Zusammenhang von Treibhausgaskonzentrationsziel und Kosten getroffen. Und auch die Behauptung der deterministischen Robustheit der Wirkung bestimmter Maßnahmen unter variablen Bedingungen ist eine Variante diese Interpretation. Wie eine konkrete Robustheitsaussage zu interpretieren ist, lässt sich, wenn überhaupt, nur im konkreten Fall entscheiden – und ist dabei unter Umständen mit erheblichen Interpretationsspielräumen konfrontiert, wie die vorherigen Beispiele zeigen. Werden solche Aussagen jedoch in Meta-Analysen (oder anderen Studien) getroffen, die handlungsrelevantes Wissen zur Verfügung stellen wollen, liegt es nahe anzunehmen, dass die zweite Interpretation gemeint ist. Kommen wir nun aber zur Frage, welche Bedingungen erfüllt sein müssen, damit eine deterministische Robustheitsaussage gut begründet ist. Entscheidend ist, dass hier von Möglichkeitsaussagen, nämlich den untersuchten Szenarien, auf eine deterministische Aussage geschlossen wird. Ein solcher Schluss ist nur dann gültig (beziehungsweise die Konklusion gut begründet), wenn dafür alle relevanten Möglichkeiten in Betracht gezogen wurden. Übertragen auf eine Meta-Analyse bedeutet dies, dass die untersuchten Szenarien alle relevanten Szenarien abdecken müssen. Blicken wir zur Illustration noch einmal auf die Meta-Analyse von Keles et al. (2011). In ihr werden als „robuste Trends“ des deutschen Energiesystems eine sinkende Primärenergienachfrage, ein starker Anstieg des Anteils der erneuerbaren Energien an der Primärenergie- und Strombedarfsdeckung sowie sinkende CO2 -Emissionen identifiziert (ebd., S. 823). Interpretieren wir diese Aussagen als deterministische Robustheitsaussagen, wird hiermit behauptet, dass all diese Trends mit Sicherheit eintreffen werden – unabhängig von den betrachteten Szenarien, den in ihnen getroffenen Annahmen und verwendeten Modellen. Offenkundig wäre dies eine sehr starke These, die nur dann haltbar wäre, wenn die untersuchten Szenarien alle relevanten möglichen Szenarien umfassen. Dies scheint im Angesicht des großen und hochdimensionalen Möglichkeitsraumes der Entwicklung des deutschen Energiesystems und der wenigen (vier) Szenarien, die in der Meta-Analyse untersucht wurden, unplausibel. Wie in Abschnitt 3 geschildert, ist letztlich aber nicht klar, welche Interpretation für die Robustheitsaussagen von Keles et al. angemessen ist. Dabei darf nicht übersehen werden, dass in der vorherigen Bedingung für die Begründung einer deterministischen Robustheitsaussage nicht pauschal gefordert wird, alle, sondern nur alle relevanten möglichen Szenarien zu erfassen. Welches die relevanten Szenarien sind und vor allem wie groß der zu betrachtende relevante Möglichkeitsraum ist, hängt dabei von der Robustheitsaussage ab, die begründet werden soll,

160 | Die Energiewende und ihre Modelle

und damit von der zu beantwortenden Fragestellung und ihrem Kontext. So erscheint es beispielsweise für die Frage, wie ein resilientes Energiesystem im Angesicht außergewöhnlicher Bedrohungen gestaltet sein sollte, sinnvoll, Erdgaspreise zwischen sehr niedrigen und sehr hohen Werten zu betrachten, weil beides einen katastrophalen Einfluss auf eine Volkswirtschaft haben kann.23 Soll hingegen etwa die Höhe einer CO2 -Steuer festgelegt werden, mag es sinnvoll sein, nur eine engere Spanne möglicher Erdgaspreise zu betrachten – etwa weil vermutlich bei extremen Erdgaspreisen die Volkswirtschaft ohnehin zusammenbrechen würde, sodass eine Steuer irrelevant würde. Die grundlegende Herausforderung, für einen Schluss auf deterministische Robustheit alle relevanten Möglichkeiten abdecken zu müssen, besteht jedoch auch bei reduzierten Möglichkeitsräumen. Wie dieser Herausforderung bei großen und mehrdimensionalen Möglichkeitsräumen begegnet werden kann, kann hier nicht beantwortet werden. Vielmehr stellen sich einige, teils fundamentale Fragen: So wurde etwa implizit in den vorherigen Überlegungen davon ausgegangen, dass nur verifizierte Möglichkeiten in die Begründung von (deterministischen) Robustheitsaussagen und damit in etwaige darauf aufbauende Entscheidungen eingehen sollten. Ist es jedoch nicht möglich, alle relevanten Möglichkeitshypothesen, sprich Szenarien, zu verifizieren, so stellt sich die Frage, ob nicht auch diese Hypothesen mit in die Robustheitsanalyse einbezogen werden sollten. Denn wie Betz (2010) genauer analysiert, könnten wir mit einem „verifikationistischen“ Ansatz (ebd., S. 92) Gefahr laufen, wichtige Möglichkeiten außer Acht zu lassen. Mehr noch weist Betz darauf hin, dass es zum verifikationistischen mit dem „falsifikationistischen“ Ansatz eine Alternative gibt. Es wäre nämlich auch denkbar, all diejenigen Möglichkeitshypothesen einzubeziehen, die nicht explizit falsifiziert wurden. Betz löst das hieraus resultierende Dilemma auf, indem er aufzeigt, dass das Verifizieren und das Falsifizieren von Möglichkeitshypothesen als sich ergänzende Methoden angesehen und verwendet werden sollten. Wie genau große Möglichkeitsräume im Zusammenspiel beider Methoden untersucht werden können, lässt Betz jedoch offen, und auch hier kann diese Frage nicht beantwortet werden. Christian Voigt (in diesem Band) geht einer weiteren Herausforderung nach, nämlich der Frage, wie ein komplexer mehrdimensionaler Möglichkeitsraum durch weni-

23

Dieses Beispiel ist von den aktuellen Arbeiten der Arbeitsgruppe „Risiko und Resilienz“ im Projekt „Energiesysteme der Zukunft“ der deutschen Wissenschaftsakademien inspiriert. Weil die Titel der entsprechenden Veröffentlichungen noch unbekannt sind, sei hier auf die Projektwebseite verwiesen: http://www.acatech.de/de/projekte/laufendeprojekte/energiesysteme-der-zukunft.html [Zugriff am 18.08.2016].

Dieckhoff: Epistemische Meta-Analyse | 161

ge Szenarien erfasst werden kann. Er zeigt, dass allein die Erfassung der relevanten möglichen Annahmen für die exogenen Variablen schon in nur zwei-dimensionalen Werteräumen äußerst anspruchsvoll ist und kaum mit einigen wenigen Szenarien zu schaffen ist. Er kommt zu dem Schluss, dass nur durch explizites Durchrechnen aller relevanten Wertekombinationen alle relevanten Möglichkeiten erfasst werden können. Anders gesagt müssten also systematische Sensitivitätsanalysen aller Variablen in ihren jeweiligen Wertebereichen (einschließlich aller Permutationen der Wertekombinationen) durchgerechnet werden. Dies wiederum stellt bei hochdimensionalen und großen Modellen ein erhebliches praktisches Problem dar, etwa weil die Rechenläufe in manchen Fällen sehr viel Zeit benötigen. Eine andere grundlegende Frage ist, wie mit Modellunsicherheit umgegangen werden soll. Denn in vielen Fällen liegen uns mehrere Modelle für die Beschreibung ein und desselben Zielsystems vor, und wir können aufgrund des verfügbaren Wissens nicht sagen, welches von ihnen das Zielsystem am besten beschreibt. Vielmehr müssen wir sie als gleichermaßen adäquate Repräsentationen betrachten – wir haben es mit Modellpluralität zu tun (Parker, 2006). Wenn diese Modelle konsistent mit dem relevanten Wissen sind, können wir die Modelle ebenfalls als verifizierte Möglichkeiten aus einem Möglichkeitsraum ansehen, nun des Modell-Möglichkeitsraums. Um die relevanten Möglichkeiten unter diesen Bedingungen zu erfassen, müssten dann auch die alternativen Modelle und ihre jeweiligen Rechenergebnisse als relevante Möglichkeiten berücksichtigt werden.24 In der Praxis geschieht dies bereits im Rahmen von Modellvergleichsrechnungen, bei denen für gleiche (oder zumindest äquivalente) numerische Annahmen mit den alternativen Modellen Rechnungen durchgeführt werden.25 Hinzu kommt, dass dann auch die Sensitivitätsanalysen für die exogenen Variablen mit allen alternativen Modellen durchgeführt werden müssten. Es zeigt sich schon an diesen Herausforderungen, dass die Erfassung aller relevanten möglichen Szenarien für große und komplexe Systeme wie das Energiesystem eines Landes eine Aufgabe ist, die kaum mit einer Meta-Analyse der bisherigen Formate zu bewältigen scheint. Und erinnern wir uns an Abschnitt 3: Selbst die über

24

Auch hier stellt sich außerdem die grundlegende Frage, wie mit Modellen umzugehen ist, die selbst nur Hypothesen darstellen, weil wir nicht wissen, ob sie konsistent mit dem relevanten Hintergrundwissen sind.

25

Die in Abschnitt 3 angesprochenen Szenarien, die vom IPCC für den AR5 analysiert wurden, stammen größtenteils aus solchen Modellvergleichsrechnungen (vgl. Clarke et al., 2014, Abschnitt 6.2.2). Für eine Übersicht über aktuelle Modellvergleichsprojekte im Energie- und Klimabereich siehe Weyant und Kriegler (2014).

162 | Die Energiewende und ihre Modelle

tausend Szenarien, die im AR5 des IPCC analysiert wurden, werden von den AutorInnen des Berichts als unvollständig angesehen. Ohne dies im Detail für die in der vorliegenden Studie betrachteten Meta-Analysen nachgewiesen zu haben, erscheint es nicht plausibel, dass ihre Robustheitsaussagen gut begründet sind, wenn man sie als deterministische Aussagen in obigem Sinne interpretiert. Denn hierfür scheint die Zahl der verwendeten Szenarien im Angesicht der jeweils betrachteten Zielsysteme schlicht zu gering zu sein. Die vorherigen Überlegungen legen aber ohnehin den Schluss nahe, dass MetaAnalysen allenfalls einen Beitrag in einem größeren Forschungsprogramm leisten können, bei denen Modellvergleichsrechnungen und Sensitivitätsanalysen die zentralen Rollen zur Erforschung von Möglichkeitsräumen spielen. Es kann hier jedoch nicht geklärt werden, wie ein solches Programm unter den typischen Restriktionen, wie sie in der Politikberatung herrschen (z.B. hohe Dringlichkeit, begrenzte Rechenkapazität oder begrenzte finanzielle Ressourcen), im Einzelnen aussehen könnte. Ein erster Ansatz wurde von Lempert et al. (2003) mit dem Konzept des Robust Decision Making entworfen. Sie schlagen ein Vorgehen vor, bei dem einerseits mit einem Szenariogenerator mit geringer Rechenzeit viele Szenarien erzeugt werden, aber gleichzeitig ausgehend von der zu beantwortenden Fragestellung der Raum der zu untersuchenden Szenarien durch Relevanzüberlegungen eingegrenzt wird. Besonderen Wert legen sie dabei auf ein enges Wechselspiel von Computersimulationen mit den Überlegungen der AnalystInnen (ebd., Kapitel 3). Inwiefern sich dieses Konzept auch mit großen und komplexen Modellen umsetzten lässt, ist jedoch eine offene Frage. 6 Zusammenfassung In diesem Aufsatz wird ein konstruktiver Beitrag zur Weiterentwicklung der Methodologie von Meta-Analysen von Szenarien geleistet. Grundlage der Überlegungen ist die Interpretation von Szenarien als epistemische Modalitäten. Gegeben diese Interpretation, besteht der zentrale Anspruch, der mit Szenarien erhoben wird, darin, dass sie konsistent mit einem bestimmten Wissen – dem relevanten Hintergrundwissen – sind. Das Vorgehen einer typischen Szenariostudie im Energie- und Klimabereich lässt sich damit so verstehen, dass hier versucht wird, mit Hilfe von Modellen die Konsistenz für bestimmte zukünftige Entwicklungen nachzuweisen – die Szenarien also zu verifizieren. Auf Grundlage dieser Überlegungen wird ein Vorschlag für die Präzisierung der Zielsetzung von Meta-Analysen gemacht. Ausgangspunkt hierfür ist die Diagnose, dass viele Meta-Analysen Szenarien „vergleichen“ oder darüber hinaus auch „robuste“ Entwicklungen identifizieren wollen – ohne dass jedoch so recht klar ist, was

Dieckhoff: Epistemische Meta-Analyse | 163

sich jeweils hinter diesen Zielsetzungen verbirgt. Dies wurde anhand von drei MetaAnalysen von Energieszenarien illustriert. Die Überlegungen zum „Vergleichen“ von Szenarien führen auf die präzisierte Aufgabe, dass in einer solchen Meta-Analyse im Kern die Frage beantwortet werden soll, welche der bereits veröffentlichten Szenarien verifizierte mögliche Entwicklungen des in der Meta-Analyse betrachteten Zielsystems darstellen. Mit dem Konzept der epistemischen Meta-Analyse (EMA) wurden für diese präzisierte Zielsetzung die Grundzüge für eine weiterentwickelte Methodologie für Meta-Analysen entworfen. Ihr zentrales Merkmal besteht darin, dass mit ihr geprüft wird, relativ zu welchem Wissen die Szenarien in ihren ursprünglichen Studien formuliert werden, und ob dieses Wissen das relevante Hintergrundwissen der Meta-Analyse beinhaltet. Damit wird vermieden, dass in einer Meta-Analyse unbemerkt Szenarien miteinander verglichen werden, die eigentlich Möglichkeiten unterschiedlicher Art sind. Für das Ziel der Identifikation von „robusten“ Entwicklungen werden zwei mögliche Interpretationen aufgezeigt. In der einen werden mit robusten Entwicklungen einfach nur deskriptive Aussagen über die Gemeinsamkeiten von unterschiedlichen Szenarien getroffen. In der anderen wird darüber hinaus beansprucht, dass eine identifizierte Gemeinsamkeit real eintrifft. Es wird also eine deterministische Aussage über die robuste Entwicklung getroffen. Damit eine solche Aussage gut begründet ist, müssen jedoch alle für die Fragestellung relevanten möglichen Entwicklungen – sprich Szenarien – in der Meta-Analyse erfasst werden. Dies ist für große und komplexe Zielsysteme wie das Energie- oder Klimasystem eine überaus umfangreiche Aufgabe. Es kann deshalb einerseits bezweifelt werden, dass Meta-Analysen im bisherigen Format robuste Entwicklungen im zweiten Sinne identifizieren können. Mehr noch scheint diese Aufgabe ein umfangreiches Forschungsprogramm zu erfordern, in dem systematische Modellvergleichs- und Sensitivitätsanalysen die zentrale Rolle spielen. Dabei ist jedoch zunächst eine Vielzahl grundlegender Fragen zu klären, die sich beim Ausleuchten großer Möglichkeitsräume stellen. Die Überlegungen in diesem Aufsatz sind für die aktuelle gesellschaftliche Debatte um die Ausgestaltung der Energiewende in zweierlei Hinsicht relevant: Erstens wird darauf aufmerksam gemacht, dass ein Szenario nicht unbedingt ohne weiteres mit einem anderen Szenario verglichen werden kann, selbst wenn in beiden Fällen das gleiche Zielsystem anhand der gleichen Kenngrößen beschrieben wird. Denn es ist möglich, dass die Szenarien sich auf unterschiedliche Wissensbereiche beziehen. Zweitens stellt dieser Aufsatz eine Aufforderung an AutorInnen von Meta-Analysen dar, ihre Zielsetzungen genauer zu formulieren und genau zu prüfen, ob diese mit den von ihnen untersuchten Szenarien auch erreicht werden können. Ihnen kommt in der Debatte eine große Verantwortung zu. Denn Meta-Analysen sollen ja gerade eine

164 | Die Energiewende und ihre Modelle

Orientierungshilfe in einer unübersichtlichen Landschaft wissenschaftlicher Expertise bieten. Steht diese Orientierungshilfe auf einem methodisch wackeligen Fundament, besteht die Gefahr, dass auf ihrer Grundlage falsche Entscheidungen getroffen werden. Danksagung Ich möchte den anderen AutorInnen dieses Bandes danken, mit denen ich den ersten Entwurf am 6.11.2015 auf einem gemeinsamen Workshop diskutieren konnte. Ganz besonders danke ich Sebastian Cacean und Anna Leuschner, die mir auch in der weiteren Ausarbeitung viele wichtige Hinweise gaben. Literatur Betz, Gregor (2010): What’s the Worst Case? The Methodology of Possibilistic Prediction. In: Analyse und Kritik 1, S. 87–106. —— (2015): Are Climate Models Credible Worlds? Prospects and Limitations of Possibilistic Climate Prediction. In: European Journal for Philosophy of Science 5 (2), S. 191–215. Clarke, Leon, Kejun Jiang, Keigo Akimoto, Mustafa Babiker, Geoffrey Blanford, Karen Fisher-Vanden, Jean-Charles Hourcade, Volker Krey, Elmar Kriegler, Andreas Löschel, David McCollum, Sergey Paltsev, Steven K. Rose, Priyadarshi Shukla, Massimo Tavino, Bob van der Zwaan und Detlef P. van Vuuren (2014): Assessing Transformation Pathways. In: Climate Change 2014: Mitigation of Climate Change. Working Group III Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Hrsg. von Ottmar Edenhofer, Rafael Pichs-Madruga, Youba Sokona et al. Cambridge: Cambridge University Press. Cochran, Jaquelin, Trieu Mai und Morgan Bazilian (2014): Meta-analysis of High Penetration Renewable Energy Scenarios. In: Renewable and Sustainable Energy Reviews 29, S. 246–253. Dieckhoff, Christian (2015): Modellierte Zukunft. Energieszenarien in der wissenschaftlichen Politikberatung. Bielefeld: transcript. Droste-Franke, Bert, Martin Carrier, Matthias Kaiser, Miranda Schreurs, Christoph Weber und Thomas Ziesemer (2015): Improving Energy Decisions. Towards Better Scientific Policy Advice for a Safe and Secure Future Energy System. (Ethics of Science and Technology Assessment 42). Cham: Springer. Edenhofer, Ottmar, Rafael Pichs-Madruga, Youba Sokona et al. (Hg.) (2014): Climate Change 2014: Mitigation of Climate Change. Working Group III Contribution to

Dieckhoff: Epistemische Meta-Analyse | 165

the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. Edenhofer, Ottmar, Rafael Pichs-Madruga, Youba Sokona, Susanne Kadner, Jan C. Minx, Steffen Brunner, Shardul Agrawala, Giovanni Baiocchi, Igor A. Bashmakov, Gabriel Blanco, John Broome, Thomas Bruckner, Mercedes Bustamante, Leon Clarke, Mariana Conte Grand, Felix Creutzig, Xochitl Cruz-Núñez, Shobhakar Dhakal, Navroz K. Dubash, Patrick Eickemeier, Ellie Farahani, Manfred Fischedick, Marc Fleurbaey, Reyer Gerlagh, Luis Gómez-Echeverri, Sujata Gupta, Jochen Harnisch, Kejun Jiang, Frank Jotzo, Sivan Kartha, Stephan Klasen, Charles Kolstad, Volker Krey, Howard Kunreuther, Oswaldo Lucon, Omar Masera, Yacob Mulugetta, Richard B. Norgaard, Anthony Patt, Nijavalli Ravindranath, Keywan Riahi, Joyashree Roy, Ambuj Sagar, Roberto Schaeffer, Steffen Schlömer, Karen C. Seto, Kristin Seyboth, Ralph Sims, Peter Smith, Eswaran Somanathan, Robert Stavins, Christoph von Stechow, Thomas Sterner, Taishi Sugiyama, Sangwon Suh, Diana Ürge-Vorsatz, Kevin Urama, Anthony Venables, David Victor, Elke Weber, Dadi Zhou, Ji Zou und Timm Zwickel (2014): Technical Summary. In: Climate Change 2014: Mitigation of Climate Change. Working Group III Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, hrsg. von Ottmar Edenhofer, Rafael Pichs-Madruga, Youba Sokona et al. Cambridge: Cambridge University Press. Fischedick, Manfred, Hannah Förster, Jonas Friege, Sean Healy, Stefan Lechtenböhmer, Charlotte Loreck, Felix C. Matthes, Magdolna Prantner, Sascha Samadi und Johannes Venjakob (2012): Power Sector Decarbonisation: Metastudy. Final Report for the SEFEP funded project 11-01 2012. Online: http://www.sefe p.eu/activities/projects-studies/metastudy-full.pdf. IPCC (2014a): Climate Change 2014: Synthesis Report. Contribution of Working Groups I, II and III to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. —— (2014b): Summary for Policymakers. In: Climate Change 2014: Mitigation of Climate Change. Working Group III Contribution to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, hrsg. von Ottmar Edenhofer, Rafael Pichs-Madruga, Youba Sokona et al. Cambridge: Cambridge University Press 2014. Keles, Dogan, Dominik Möst, Wolf Fichtner (2011): The Development of the German Energy Market until 2030 – A Critical Survey of Selected Scenarios. In: Energy Policy 39 (2), S. 812–825.

166 | Die Energiewende und ihre Modelle

Lempert, Robert J., Steven W. Popper, Steven C. Bankes (2003): Shaping the Next One Hundred Years. New Methods for Quantitative, Long-term Policy Analysis (Rand Corporation / MR RPC, Band 1626). Santa Monica: RAND. Leopoldina, acatech und Union der deutschen Akademien der Wissenschaften (2015): Mit Energieszenarien gut beraten. Anforderungen an wissenschaftliche Politikberatung (Stellungnahme). Online: http://www.akademienunion.de/ fileadmin/redaktion/user_upload/Publikationen/Stellung nahme_Energieszenarien.pdf. Levi, Isaac (1980): The Enterprise of Knowledge. An Essay on Knowledge, Credal Probability, and Chance. Cambridge, Mass: MIT Press. Pahle, Michael, Brigitte Knopf, Oliver Tietjen, Eva Schmid (2012): Kosten des Ausbaus erneuerbarer Energien: Eine Metaanalyse von Szenarien 2012. Online: http://www.umweltbundesamt.de/sites/default/files/me dien/461/publikationen/4351.pdf. Parker, Wendy (2006) : Understanding Pluralism in Climate Modeling. In: Foundations of Science 11, S. 349–368. Sugden, Robert (2009): Credible Worlds, Capacities and Mechanisms. In: Erkenntnis 70 (1), S. 3–27. UBA (2013): Treibhausgasneutrales Deutschland im Jahr 2050. Online: https:// www.umweltbundesamt.de/sites/default/files/medien/376/ publikationen/treibhausgasneutrales_deutschland_im_ja hr_2050_langfassung.pdf. Weyant, John und Elmar Kriegler (2014): Preface and Introduction to EMF 27. In: Climatic Change 123, S. 345–352. Alle zuvor genannten Internetadressen waren am 18.08.2016 erreichbar.

Autorinnen und Autoren

Die Beitragenden waren Mitglieder der wissenschaftsphilosophischen Forschungsgruppe „Limits and Objectivity of Scientific Foreknowledge: The Case of Energy Outlooks“ (LOBSTER), die von 2012 bis 2015 am Karlsruher Institut für Technologie (KIT) unter der Leitung von Gregor Betz die Bedingungen zuverlässiger wissenschaftlicher Politikberatung untersucht hat. Gregor Betz (Prof. Dr. phil.), geboren 1976, lehrt und forscht am Institut für Philosophie des KIT in Karlsruhe. Seine Monographien sind: Prediction or Prophecy – On the Boundaries of Economic Foreknowledge (DUV 2006); Theorie dialektischer Strukturen (Klostermann 2010); Descartes’ „Meditationen über die Grundlagen der Philosophie“. Ein systematischer Kommentar (Reclam 2011); Debate Dynamics: How Controversy Improves Our Beliefs (Springer 2012). Sebastian Cacean (Dipl.-Phys.), geboren 1981, studierte Physik und Philosophie in Berlin. Seit 2010 ist er wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse des KIT. Christian Dieckhoff (Dr. phil., Dipl.-Ing.), geboren 1980, studierte Energie- und Umwelttechnik sowie angewandte Kulturwissenschaften in Karlsruhe, wo er 2014 mit einer wissenschaftsphilosophischen Analyse von Energieszenarien als Instrument der wissenschaftlichen Politikberatung auch promoviert wurde. Seit 2007 ist er wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse des KIT. Anna Leuschner (Dr. phil.), geboren 1982, studierte Geschichte und Philosophie in Bielefeld, wo sie 2011 mit einer wissenschaftsphilosophischen Arbeit über die

168 | Die Energiewende und ihre Modelle

Glaubwürdigkeit der Klimaforschung promoviert wurde. Von 2012 bis 2015 arbeitete sie als wissenschaftliche Mitarbeiterin am KIT. Seit Oktober 2015 ist sie Postdoc am Institut für Philosophie der Leibniz Universität Hannover. Eugen Pissarskoi (Dr. phil), geboren 1979, studierte Philosophie und Volkswirtschaftslehre in Mannheim und Berlin. Seit 2010 ist er wissenschaftlicher Mitarbeiter am Forschungsfeld „Umweltökonomie und Umweltpolitik“ am Institut für ökologische Wirtschaftsforschung (IÖW) in Berlin. Christian Voigt (MA), geboren 1979, studierte Philosophie, Politikwissenschaften und Geschichte an der Freien Universität Berlin. Von 2012–2016 arbeitete er als wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse des KIT. Derzeit arbeitet er an einer Doktorarbeit, in der er eine Methode zur Evaluation der argumentativen Qualität von Debatten entwickelt.

Science Studies Cheryce von Xylander, Alfred Nordmann (Hg.) Vollendete Tatsachen Vom endgültig Vorläufigen und vorläufig Endgültigen in der Wissenschaft März 2017, ca. 320 Seiten, kart., ca. 34,99 €, ISBN 978-3-8376-2542-4

Anna Froese, Dagmar Simon, Julia Böttcher (Hg.) Sozialwissenschaften und Gesellschaft Neue Verortungen von Wissenstransfer Februar 2016, 342 Seiten, kart., 39,99 €, ISBN 978-3-8376-3402-0

Manfred E.A. Schmutzer Die Wiedergeburt der Wissenschaften im Islam Konsens und Widerspruch (idschma wa khilaf) 2015, 544 Seiten, Hardcover, 49,99 €, ISBN 978-3-8376-3196-8

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Diego Compagna (Hg.) Leben zwischen Natur und Kultur Zur Neuaushandlung von Natur und Kultur in den Technik- und Lebenswissenschaften 2015, 272 Seiten, kart., 33,99 €, ISBN 978-3-8376-2009-2

Thomas Etzemüller Auf der Suche nach dem Nordischen Menschen Die deutsche Rassenanthropologie in der modernen Welt 2015, 294 Seiten, kart., zahlr. z.T. farb. Abb., 29,99 €, ISBN 978-3-8376-3183-8

Anna-Sophie Jürgens, Tassilo Tesche (Hg.) LaborARTorium Forschung im Denkraum zwischen Wissenschaft und Kunst. Eine Methodenreflexion 2015, 336 Seiten, kart., zahlr. Abb., 34,99 €, ISBN 978-3-8376-2969-9

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Wiebke Pohler Schär Innovationen in der Nanomedizin Eine ethnografische Studie Dezember 2016, ca. 300 Seiten, kart., zahlr. Abb., ca. 39,99 €, ISBN 978-3-8376-3647-5

Christian Dieckhoff Modellierte Zukunft Energieszenarien in der wissenschaftlichen Politikberatung 2015, 284 Seiten, kart., 34,99 €, ISBN 978-3-8376-3097-8

Joanna Pfaff-Czarnecka (Hg.) Das soziale Leben der Universität Studentischer Alltag zwischen Selbstfindung und Fremdbestimmung

Fabian Karsch Medizin zwischen Markt und Moral Zur Kommerzialisierung ärztlicher Handlungsfelder

Dezember 2016, ca. 270 Seiten, kart., ca. 34,99 €, ISBN 978-3-8376-3348-1

2015, 256 Seiten, kart., zahlr. Abb., 32,99 €, ISBN 978-3-8376-2890-6

Sabine Könninger Genealogie der Ethikpolitik Nationale Ethikkomitees als neue Regierungstechnologie. Das Beispiel Frankreichs August 2016, 344 Seiten, kart., 39,99 €, ISBN 978-3-8376-3286-6

Dania Achermann Institutionelle Identität im Wandel Zur Geschichte des Instituts für Physik der Atmosphäre in Oberpfaffenhofen Februar 2016, 312 Seiten, kart., zahlr. Abb., 39,99 €, ISBN 978-3-8376-3142-5

Christian Kehrt Mit Molekülen spielen Wissenschaftskulturen der Nanotechnologie zwischen Politik und Medien 2015, 276 Seiten, kart., zahlr. z.T. farb. Abb., 39,99 €, ISBN 978-3-8376-3202-6

Hildegard Matthies, Dagmar Simon, Marc Torka (Hg.) Die Responsivität der Wissenschaft Wissenschaftliches Handeln in Zeiten neuer Wissenschaftspolitik

Matthias Groß Experimentelles Nichtwissen Umweltinnovationen und die Grenzen sozial-ökologischer Resilienz 2014, 202 Seiten, kart., 29,99 €, ISBN 978-3-8376-2855-5

Gert Dressel, Wilhelm Berger, Katharina Heimerl, Verena Winiwarter (Hg.) Interdisziplinär und transdisziplinär forschen Praktiken und Methoden 2014, 366 Seiten, kart., 34,99 €, ISBN 978-3-8376-2484-7

Oliver Ibert, Felix C. Müller, Axel Stein Produktive Differenzen Eine dynamische Netzwerkanalyse von Innovationsprozessen 2014, 234 Seiten, kart., 32,99 €, ISBN 978-3-8376-2699-5

Tobias Cheung Organismen. Agenten zwischen Innen- und Außenwelten 1780-1860 2014, 348 Seiten, kart., 34,99 €, ISBN 978-3-8376-2646-9

2015, 268 Seiten, kart., 29,99 €, ISBN 978-3-8376-3298-9

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de