Modellierte Zukunft: Energieszenarien in der wissenschaftlichen Politikberatung [1. Aufl.] 9783839430972

The debate around energy policy rests to a significant degree on scientific energy scenarios. But how solid are these fo

172 46 1MB

German Pages 284 Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Zusammenfassung
Danksagung
1. Einleitung
2. Stand der Forschung
3. Analytischer Rahmen
3.1 Überblick
3.2 Prozessanalytische Perspektive
3.3 Argumentationsanalytische Perspektive
3.4 Der Begriff der Prognose im analytischen Rahmen
3.5 Der Begriff des Modells im analytischen Rahmen
4. Hintergründe des Gegenstandes
4.1 Energieprognostik in Deutschland
4.2 Artenvielfalt energieprognostischer Gutachten
4.3 Energieszenario – ein unscharfer Begriff
4.4 Energiemodelle – zentrale Instrumente der Energieprognostik
5. Methode
5.1 Forschungsdesign
5.2 Anonymisierung
5.3 Fallauswahl
5.4 Vorstellung der Fälle
5.5 Umsetzung der Interviews
5.6 Auswertung der Interviews und Genese des analytischen Rahmens
5.7 Status der Ergebnisse
6. Ergebnisse
6.1 Erstellungsprozesse
6.2 Elementare Argumente
6.3 Komplexe Argumente
6.4 Interpretation der Energiemodelle
7. Reflexion der Ergebnisse
7.1 Was also ist ein Szenario?
7.2 Szenarien als Universalkleber? – Zu ihrer Funktion in der wissenschaftlichen Politikberatung
7.3 Modell oder Storyline, was verknüpft die Akteure?
7.4 Zur (Un)Durchsichtigkeit der Erstellungsprozesse
7.5 Konditionalisierung epistemischer Unsicherheiten – eine ambivalente Strategie
7.6 Möglich ist vieles! – Das Problem selektiver Möglichkeitsaussagen
7.7 Effekte isolieren – eine Herausforderung
7.8 In der Grauzone? – Zum epistemischen Status von Energiemodellen
8. Fazit und Ausblick
Abkürzungen
Abbildungen und Tabellen
Anhang
A.1 Leitfäden
A.2 Kategoriensystem
A.3 Transkriptionsregeln und Darstellung der empirischen Daten
A.4 Argumente
Literatur 265
Recommend Papers

Modellierte Zukunft: Energieszenarien in der wissenschaftlichen Politikberatung [1. Aufl.]
 9783839430972

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Christian Dieckhoff Modellierte Zukunft

Christian Dieckhoff (Dr. phil., Dipl.-Ing.), geboren 1980, studierte Energie- und Umwelttechnik sowie angewandte Kulturwissenschaften in Karlsruhe. Seit 2007 ist er wissenschaftlicher Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse des Karlsruher Instituts für Technologie. Er befasst sich mit erkenntnis- und wissenschaftstheoretischen Fragen zu modellgestützter Prognostik und wissenschaftlicher Politikberatung.

Christian Dieckhoff

Modellierte Zukunft Energieszenarien in der wissenschaftlichen Politikberatung

Die vorliegende Untersuchung wurde unter dem Titel »Modellierte Zukunft – Zur Theorie und Praxis von Energieszenarien im Kontext wissenschaftlicher Politikberatung« von der Fakultät für Geistes- und Sozialwissenschaften des Karlsruher Instituts für Technologie (KIT) als Dissertation angenommen. Die mündliche Prüfung fand am 18. Juni 2014 statt.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2015 transcript Verlag, Bielefeld

Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Lektorat: Caroline Stamm-Reusch und Christian Dieckhoff Satz: Christian Dieckhoff Printed in Germany Print-ISBN 978-3-8376-3097-8 PDF-ISBN 978-3-8394-3097-2 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt

Zusammenfassung | 7

  Danksagung | 11

  1.   Einleitung | 13

  2.   Stand der Forschung | 29

  3.   Analytischer Rahmen | 39  

3.1  Überblick | 39  3.2  Prozessanalytische Perspektive | 43  3.3  Argumentationsanalytische Perspektive | 45  3.4  Der Begriff der Prognose im analytischen Rahmen | 48  3.5  Der Begriff des Modells im analytischen Rahmen | 51

  4.   Hintergründe des Gegenstandes | 57  

4.1  Energieprognostik in Deutschland | 57  4.2  Artenvielfalt energieprognostischer Gutachten | 64  4.3  Energieszenario – ein unscharfer Begriff | 69  4.4  Energiemodelle – zentrale Instrumente der Energieprognostik | 76

  5.   Methode | 87 

5.1  Forschungsdesign | 87  5.2  Anonymisierung | 92  5.3  Fallauswahl | 92  5.4  Vorstellung der Fälle | 95  5.5  Umsetzung der Interviews | 101  5.6  Auswertung der Interviews und Genese des analytischen Rahmens | 105  5.7  Status der Ergebnisse | 108

  6.   Ergebnisse | 111  

6.1  Erstellungsprozesse | 111  6.2  Elementare Argumente | 134  6.3  Komplexe Argumente | 145  6.4  Interpretation der Energiemodelle | 169

   

7.   Reflexion der Ergebnisse | 185  

7.1  Was also ist ein Szenario? | 187  7.2  Szenarien als Universalkleber? – Zu ihrer Funktion in der wissenschaftlichen Politikberatung | 189  7.3  Modell oder Storyline, was verknüpft die Akteure? | 192  7.4  Zur (Un)Durchsichtigkeit der Erstellungsprozesse | 197  7.5  Konditionalisierung epistemischer Unsicherheiten – eine ambivalente Strategie | 204  7.6  Möglich ist vieles! – Das Problem selektiver Möglichkeitsaussagen | 211  7.7  Effekte isolieren – eine Herausforderung | 216  7.8  In der Grauzone? – Zum epistemischen Status von Energiemodellen | 220

  8.   Fazit und Ausblick | 229

  Abkürzungen | 235

  Abbildungen und Tabellen | 237

  Anhang | 239  

A.1  Leitfäden | 239  A.2  Kategoriensystem | 254  A.3  Transkriptionsregeln und Darstellung der empirischen Daten | 256  A.4  Argumente | 257

  Literatur | 265  

Zusammenfassung

Energieszenarien werden jährlich in großer Zahl in Gutachten veröffentlicht, die im Auftrag staatlicher und anderer Organisationen von wissenschaftlichen Instituten erstellt werden. Diese Gutachten haben den Zweck, in unterschiedlichen gesellschaftlichen Bereichen Entscheidungsunterstützung und Orientierung zu Fragen der Gestaltung des zukünftigen Energiesystems zu bieten. Um die mit diesen Fragen verbundenen epistemischen Unsicherheiten sichtbar zu machen und Handlungsoptionen aufzuzeigen, hat sich als Standardvorgehen die Erstellung unterschiedlicher Szenarien mit Hilfe von Computermodellen etabliert. In jedem Gutachten werden in der Regel mehrere zukünftige Entwicklungen beschrieben und hieraus weiter gehende Schlussfolgerungen gezogen. Die Rezipienten von Energieszenarien – insbesondere politische Entscheidungsträger – sind jedoch mit einer Reihe von Herausforderungen konfrontiert. Besonders kritisch ist erstens der Umstand, dass vielfach die argumentative Struktur der Gutachten unscharf bleibt. Dies schlägt sich zum einen darin nieder, dass in den Gutachten zentrale Begriffe wie der des „Szenarios“ oder der der „Prognose“ nicht eindeutig verwendet werden. So ist bei genauerer Betrachtung selten klar, ob mit diesen Begriffen possibilistische oder deterministische Aussagen bezeichnet werden, oder Aussagen des einen Typs zur Begründung von Aussagen des anderen Typs dienen. Zum anderen ist meist nicht klar, wie genau die verwendeten Modelle interpretiert werden, und wie diese Interpretation in die Argumentation der Gutachten eingeht. Zweitens bleiben die Erstellungsprozesse der Gutachten weitgehend im Dunkeln. Insbesondere wird selten transparent gemacht, inwiefern der Auftraggeber etwa durch die Wahl bestimmter Annahmen an der Erstellung der Gutachten beteiligt ist. Dies führt dazu, dass es Rezipienten schwer fällt, ein solches Gutachten zwischen den Polen politischer Meinung und wissenschaftlicher Erkenntnis zu verorten. Drittens sind vielfach die verwendeten Modelle intransparent, so dass die Berechnungen nicht nachgeprüft werden können. Aus unterschiedlichen Gründen handelt es sich bei Energiesze-

8 | M ODELLIERTE Z UKUNFT

narien also um unscharfe und schwer verständliche Gebilde. Es ist deshalb fraglich, ob sie die mit ihnen angestrebte Orientierungsleistung erbringen können. In der vorliegenden Untersuchung wird diese Diagnose zum Anlass genommen, Antworten auf zwei grundlegende Fragen zu erarbeiten: Erstens soll geklärt werden, welche argumentative Struktur die Gebilde aufweisen, die in energieprognostischen Gutachten als Szenarien oder Prognosen bezeichnet werden. Zweitens wird der Frage nachgegangen, wie diese Gebilde in der Interaktion der beteiligten Akteure erzeugt werden. Damit soll zum einen ein Beitrag zu einem aufgeklärten Umgang mit Energieszenarien vor allem in der politischen Entscheidungsfindung und gesellschaftlichen Meinungsbildung geleistet werden. Zum anderen wird damit die bisher nicht systematisch untersuchte Praxis der modellgestützten Energieprognostik für die philosophische und sozialwissenschaftliche Wissenschaftsforschung erschlossen und damit zur Erforschung der Rolle von Modellen, Szenarien und Prognosen in der wissenschaftlichen Politikberatung beigetragen. Hierzu wird ein explorativer Ansatz gewählt, der im Kern in der Durchführung und Analyse leitfadenbasierter Interviews mit Energiemodellierern und gleichzeitigen Autoren energieprognostischer Gutachten besteht. Auf Grundlage der Interviews werden zwei grundlegende Argumente rekonstruiert, die in energieprognostischen Gutachten vorgebracht werden. Dies ist einerseits das Argument Gegenüberstellung possibilistischer Prognosen, in dem mehrere Modellrechnungen als mögliche zukünftige Entwicklungen interpretiert und einander gegenübergestellt werden. Während dieses Argument weitgehend dem allgemein verbreiteten Verständnis der Szenariomethode entspricht, stellt andererseits das zweite Argument Isolation von Effekten eine Überraschung dar. In diesem Argument werden im Kern zwei Modellrechnungen durchgeführt, wobei bestimmte Annahmen zwischen beiden Rechnungen variiert und als politische Maßnahme interpretiert werden. Die Differenz der Ergebnisse beider Rechnungen wird schließlich als Effekt dieser Maßnahmen betrachtet. Hinsichtlich beider Argumente wird eine Reihe kritischer Aspekte diskutiert. In Bezug auf das erste Argument ist dies insbesondere seine Verwendung in der wissenschaftlichen Politikberatung, die selbst dann problematisch erscheint, wenn das Argument gültig ist. Bezüglich des zweiten Arguments zeigt die Untersuchung, dass dieses maßgeblich von der Interpretation des ersten Rechenlaufs abhängt. Dabei legen manche Interviews nahe, dass dieser als deterministische Prognose interpretiert wird. Darüber hinaus zeigt die Untersuchung, dass beide Argumente entscheidend von der Interpretation der verwendeten Modelle durch die interviewten Modellierer abhängen. Da diese Interpretationen in den meisten Interviews eine ungeklärte Position zwischen theoretischem Konstrukt und empirisch

Z USAMMENFASSUNG

|9

adäquater Repräsentation einnehmen, besteht hier besonders dringender Forschungsbedarf. Hinsichtlich der zweiten Forschungsfrage werden drei typische Erstellungsprozesse energieprognostischer Gutachten rekonstruiert. Dabei fällt auf, dass die Form der Interaktion der beteiligten Akteure eng an die Art des jeweils verwendeten Energiemodells gebunden ist. Der Prozesstyp der sequenziellen Trennung stellt ein Ende des beobachteten Spektrums dar und ist dadurch charakterisiert, dass hier der Modellierer die Modellrechnungen und deren Interpretation weitgehend getrennt vom Auftraggeber durchführt. Beim Typ der iterativen Trennung bleibt das Modell zwar im alleinigen Zugriff des Modellierers, durch die Abstimmung vorläufiger Rechenergebnisse mit dem Auftraggeber wird die Trennung beider Akteure jedoch teilweise aufgehoben, so dass der Auftraggeber auch in den Einsatz des Modells eingebunden wird. Der Typ der interaktiven Verschränkung stellt schließlich das andere Ende des Spektrums dar, denn hier ist der Auftraggeber nun am Einsatz des Modells und sogar an dessen Erstellung direkt beteiligt. In Erstellungsprozessen dieses Typs werden die Gutachten gemeinsam von beiden Akteuren erstellt. Auf Grundlage dieser Ergebnisse werden spezifische Transparenzerfordernisse für die unterschiedlichen Prozesstypen identifiziert und es wird unter anderem eine Hypothese entwickelt, die erklärt, wie es den Akteuren in energieprognostischen Beratungsprojekten trotz ihrer Heterogenität gelingt, erfolgreich miteinander zu kooperieren.

Danksagung

Die vorliegende Dissertation fasst nicht nur die Ergebnisse meines Promotionsprojektes zusammen. Vielmehr dokumentiert sie auch – wenn auch eher zwischen den Zeilen – die erkenntnisreiche und nicht immer einfache Reise, die dieses Projekt für mich darstellte. Gestartet bin ich als Maschinenbauingenieur mit einer recht einfach klingenden Forschungsfrage. Schnell stellte sich heraus, dass diese weder einfach zu beantworten war, noch recht in die Ingenieurwissenschaften passen wollte. Es war also nötig, in fremden Gewässern nach Konzepten zu suchen, die mir ihre Beantwortung erlaubten. Diese Suche führte mich – im Rückblick wohl zwangsläufig – in die Philosophie und die Sozialwissenschaften, die bis dato weitgehend Neuland für mich darstellten. Die im Folgenden genannten Menschen haben nicht nur zum Gelingen dieses Textes beigetragen, indem sie meine Gedanken kommentiert und immer wieder mit mir diskutiert haben. Sondern sie haben mich auf dieser Reise begleitet und mir dort Orientierung geboten, wo ich alleine sonst verloren gewesen wäre. Ohne Euch, meine Lotsen, wäre diese Reise nicht möglich gewesen! An erster Stelle danke ich meiner Frau Anna Schleisiek, die mir während der gesamten Zeit zur Seite stand. Du hast mir nicht nur einen soziologischen Blick auf die Welt vermittelt, sondern hast mir mit Deiner Liebe und Deinem Zutrauen durch die Tiefen dieses Projektes geholfen! Sebastian Cacean danke ich für die unerschütterliche Geduld, die er mir entgegen brachte, während wir in vielen Stunden meine Rekonstruktionsversuche von Argumenten diskutierten. Eugen Pissarskoi danke ich für die vielen wertvollen Diskussionen und noch viel mehr dafür, dass er so gewissenhaft diesen Text redigiert hat. Ich danke meinen Eltern Marion und Thomas Dieckhoff – einfach dafür, dass sie immer für mich da sind. Meinem Doktorvater Prof. Armin Grunwald danke ich für die Übernahme des Erstgutachtens. Außerdem danke ich ihm für die engagierte Betreuung des gesamten Projektes und für das Gewähren der großen Freiheit, in der diese Arbeit entstanden ist. PD Stefan Böschen danke ich für die Übernahme des Zweit-

12 | M ODELLIERTE Z UKUNFT

gutachtens sowie dafür, dass er mich gerade während des Verfassens des Textes intensiv beraten hat. Sie beide waren Betreuer, wie man sie sich nur wünschen kann! Den Mitgliedern der Forschungsgruppe Limits and Objectivity of Scientific Foreknowledge: The Case of Energy Outlooks (LOBSTER) am Karlsruher Institut für Technologie (KIT) und ihrem Leiter Jun.-Prof. Gregor Betz möchte ich ganz besonders für die gemeinsame Arbeit danken. Wesentliche Ideen zur Interpretation meiner Ergebnisse sind in dieser Runde entstanden. Vor allem Ihr habt es mir ermöglicht, mich im philosophischen Denken zurechtzufinden! Torsten Fleischer danke ich für seinen Rat zur Konzeption und Durchführung der empirischen Erhebung. Herzlich möchte ich mich auch bei den Doktorandinnen und Doktoranden der Gruppe Qualitative Sozialforschung und dem TA-Kolleg am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT sowie im Projekt TRANSDISS des Netzwerks Technikfolgenabschätzung für die Möglichkeit bedanken, mit ihnen meine Arbeit diskutieren und aus ihren Projekten lernen zu können. Zu meinem Verständnis des Gegenstandes haben zum einen maßgeblich Prof. Ulrich Wagner und seine Mitarbeiter des Lehrstuhls Energiewirtschaft und Anwendungstechnik an der Technischen Universität München beigetragen. Zum anderen danke ich den Doktorandinnen und Doktoranden sowie den Senior Scientists der Helmholtz Research School on Energy Scenarios für die intensive und erkenntnisreiche Zusammenarbeit. Und auch meinen Interviewpartnern, die hier nicht namentlich genannt werden können, möchte ich danken: Ohne Ihre Offenheit wäre dieses Projekt nicht möglich gewesen! Darüber hinaus möchte ich meinen Kolleginnen und Kollegen am ITAS danken. Das interdisziplinäre Arbeits- und vor allem auch Denkumfeld, das sie bilden, war wesentliche Voraussetzung für das Gelingen dieser Arbeit. Herzlichen Dank richte ich an meine Kolleginnen und Kollegen des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB), die mich in den letzten zweieinhalb Jahren des Projektes so warmherzig in ihre Bürogemeinschaft aufgenommen haben. Schließlich möchte ich nicht unerwähnt lassen, dass diese Dissertation zu großen Teilen in öffentlichen Bibliotheken ausgearbeitet wurde. Ich danke deshalb insbesondere der Badischen Landesbibliothek in Karlsruhe sowie der Staatsbibliothek zu Berlin für die guten Arbeitsbedingungen, die sie bieten. Ich empfinde dies nicht als Selbstverständlichkeit.

1. Einleitung

Wo Entscheidungen folgenreich sind und insbesondere dort, wo mit negativen Nebenfolgen zu rechnen ist, wird Wissen benötigt, das ein Abwägen der Entscheidungsoptionen erlaubt; Wissen also, das die zukünftigen Konsequenzen der Entscheidungen, seien es gewünschte oder unerwünschte, so gut es geht erfasst. Dieses Wissen muss nicht nur in dem Sinne „gut“ sein, dass tatsächlich alles verfügbare und relevante Wissen, sei es auch noch so tief in Expertenkreisen vergraben, zutage gefördert wird; und es reicht auch nicht, dass alle Unsicherheiten sichtbar gemacht werden, die mit ihm verbunden sind. Nur wenn es außerdem in der richtigen Form vorliegt, wenn es auf eine bestimmte Weise verfasst wird, kann derjenige, der die Entscheidung treffen muss, das Wissen aufnehmen und gemäß der ihm eigenen Verfahrensweisen verarbeiten. Irritation Nimmt man die Diagnose zum Ausgangspunkt, dass heutige Gesellschaften Züge „reflexiver Modernisierung“ (Beck 1986) aufweisen, so lässt sich gerade bezüglich des Umgangs mit Zukunftswissen in der gesellschaftlichen Orientierung ein Wandel von modernen zu spätmodernen Gesellschaften feststellen (Böschen und Weis 2007): Wurde in modernen Gesellschaften noch versucht, die Zukunft mittels wissenschaftlicher Methoden und technologischer Innovation zu zähmen, so wird Zukunft in spätmodernen Gesellschaften zunehmend zum Problem. Denn wo vormals Zukunft als ein offener und planend gestaltbarer Raum angesehen wurde, drängen nun die unerwünschten, unvorhergesehenen und teils existenziellen Nebenfolgen dieser Gestaltungsversuche ins Bewusstsein. Wo eine Nebenfolge vormals vielleicht auch schon als Möglichkeit bekannt war, kann sie nun, im Angesicht ihres realen Eintritts, nicht mehr ignoriert werden – man denke etwa an die Möglichkeit eines katastrophalen Kernreaktorunfalls, die 1986 in Tschernobyl und 2011 in Fukushima Realität wurde. Wo vorher die Gewissheit

14 | M ODELLIERTE Z UKUNFT

des Zukunftswissens angenommen wurde, muss nun ihrer Unsicherheit Rechnung getragen werden. Böschen und Weis (2007) weisen darauf hin, dass sich dieses „Aufbrechen der Zukunftsgewissheit“ (ebd.: 15) seit den 1980er Jahren vollzieht und in allen gesellschaftlichen Teilbereichen erkennbar wird. Besonders deutlich wird dieser Wandel jedoch zum einen dort sichtbar, wo folgenreiche Entscheidungen getroffen werden und diese außerdem gesellschaftlich zu legitimieren sind, also in der Politik. Zum anderen ist derjenige Ort besonders betroffen, an dem das nun als unsicher gekennzeichnete Wissen generiert wird, die Wissenschaft also. Und mehr noch, gerade dort, wo beides zusammen kommt, wo das Wissen spezifisch für Entscheidungen verfasst wird, in der wissenschaftlichen Politikberatung also, schlägt dieses Aufbrechen der Zukunftsgewissheit voll zu Buche (vgl. Schützeichel 2008: 20 ff.). Im Grenzbereich von Wissenschaft und Politik hat sich in der Folge, abhängig von wissenschaftlichen Traditionen, politischen Entscheidungskontexten und Sachgegenständen, eine fast unüberblickbare Vielzahl unterschiedlicher Praxen herausgebildet, in denen Wissen für Entscheidungen unter Unsicherheit generiert und verarbeitet wird (vgl. etwa Sarewitz, Pielke und Byerly 2000 sowie Farrell, VanDeveer und Jäger 2001 für den Bereich umweltpolitischer Entscheidungen). Zwei Dinge fallen trotz der Vielfalt auf: Zum einen haben sich Computermodelle als Standardinstrument in vielen dieser Praxen etabliert (Svetlova und Dirksen 2014). Zum anderen ist die Formulierung von „Szenarien“ zu einem wichtigen, bei der Betrachtung komplexer Systeme vermutlich sogar zum vorherrschenden Modus geworden, in dem Wissen generiert und transportiert wird – man denke etwa an die einflussreichen Emissionsszenarien des Intergovernmental Panel on Climate Change (2000). Beides für sich genommen leuchtet intuitiv ein: Hier sind die Computermodelle, mit denen versucht wird, der Komplexität des jeweiligen Gegenstandes Herr zu werden. Und dort sind die Szenarien, die anhand verschiedener zukünftiger Entwicklungen zeigen sollen, dass die Zukunft offen ist, wenngleich Unsicherheit über ihren genauen Verlauf besteht. Gerade die Kombination aus beidem, also die Erstellung von Szenarien mit Hilfe von Computermodellen stellt seit der Studie „Grenzen des Wachstums“ im Auftrag des Club of Rome (Meadows et al. 1972) eine besonders stabile Praxis dar (Böschen und Weis 2007: 154 ff.). Und gerade solche modellierten Szenarien stellen aktuell eine wichtige Strategie dar, unter den Bedingungen aufbrechender Zukunftsgewissheiten dennoch gesellschaftliche Orientierung und gut begründetes Entscheiden zu ermöglichen.

E INLEITUNG

| 15

Und doch tritt hier nun eine Irritation auf, nämlich gerade dann, wenn Modelle und Szenarien zusammenkommen. Denn nun steht derjenige, der das so transportierte Wissen für seine Entscheidungen benötigt, Gebilden gegenüber, die scheinbar Gegensätzliches zugleich verkörpern: Die Präzision der numerischen Berechnung durch die Modelle und die vermeintliche Eindeutigkeit, die damit einherzugehen scheint, auf der einen, und die Uneindeutigkeit, vielleicht gar Beliebigkeit auf der anderen Seite, wenn die Szenarien doch nur wenige mögliche Entwicklungen aus der vermeintlichen Unendlichkeit des Denkbaren beschreiben. Und verstärkend kommen die Umstände der Erstellung dieser Gebilde an der Schnittstelle von Politik und Wissenschaft hinzu. Denn wenn nur wenige bestimmte zukünftige Entwicklungen beschrieben werden, wer hat dann hier die Wahl getroffen, und wie? Und was sind diese modellierten Szenarien dann, wissenschaftliche Erkenntnis oder politische Überzeugung? Und schließlich: wie können überhaupt auf ihrer Grundlage legitime Entscheidungen getroffen werden? Es irritiert hier also zweierlei: die spezielle Art und Weise, wie hier unsicheres Wissen generiert und kommuniziert wird, und die spezielle gesellschaftliche Situation, eben der Grenzbereich von Wissenschaft und Politik, in dem dies geschieht. Beides führt zu Uneindeutigkeiten und zur Schwierigkeit, solche modellierten Szenarien im Koordinatensystem von sicherem und unsicherem Wissen sowie von politischer Überzeugung und wissenschaftlicher Erkenntnis zu verorten. Genau diese Irritation ist der Anlass zur vorliegenden Untersuchung. In einem ersten Schritt und noch ganz holzschnittartig lässt sich damit die Forschungsfrage dieser Studie bereits umreißen: Was hat es mit diesen modellierten Szenarien auf sich? Wie sind diese Gebilde beschaffen und was sagen sie aus? Der Fall Energieversorgung Ein Fall, an dem sich dies besonders gut untersuchen lässt, ist die Energieversorgung. Zunächst ist da die gesellschaftliche Relevanz des Energiesystems. Als Infrastruktur zur Bereitstellung von Strom und Wärme stellt es ein Fundament für praktisch alle Aktivitäten in einer modernen Gesellschaft dar, sei es für das individuelle Handeln oder für das Funktionieren ganzer Teilbereiche. Dabei handelt es sich nicht nur um eine technische Infrastruktur, sondern vielmehr um ein komplexes soziotechnisches System, das aufs Engste mit der Gesellschaft verwoben ist (Büscher und Schippl 2013). Das Energiesystem ermöglicht und strukturiert aber nicht nur gesellschaftliche Aktivität. Im Gegenteil: Geradezu in paradigmatischer Weise für die Diagnose reflexiver Modernisierung gefährdet sich die Gesellschaft durch die Nebenfolgen des von ihr hervorgebrachten Ener-

16 | M ODELLIERTE Z UKUNFT

giesystems selbst. Dies gilt sicherlich seit Beginn der Industrialisierung, als zunächst die direkte Umwelt- und Gesundheitsbelastung durch Verbrennungsgase zum Problem wurde. In besonderer Deutlichkeit stellte diese Diagnose Ulrich Beck, als 1986 kurz vorm Erscheinen seines Buches „Risikogesellschaft“ der katastrophale Reaktorunfall von Tschernobyl die Schattenseite der Kernkraft unübersehbar werden ließ (Beck 1986, „Aus gegebenem Anlass“: 7 ff.). Darüber hinaus ist spätestens seit der Rio-Konferenz1 1992 der Klimawandel als eine Nebenfolge, die unter anderem auf die fossil basierte Energieversorgung zurückzuführen ist, zu einem zentralen Thema globaler Politik und zivilgesellschaftlicher Diskussion geworden. All dies mündet in Deutschland aktuell in der prominenten Debatte um die „Energiewende“, die als ein Versuch verstanden werden kann, der drängenden Nebenfolgenproblematik Rechnung zu tragen. Als zweites lässt sich feststellen, dass das Entscheiden über die Gestaltung der zukünftigen Energieversorgung an zentralen Stellen auf unsicheres Wissen zurückgreift. Ein typisches Beispiel sind die Entwicklungen der Brennstoffpreise. Deren Unsicherheit stellt seit jeher eine Herausforderung vor allem bei Investitionsentscheidungen in neue Erzeugungsanlagen dar, da deren zukünftige Rentabilität maßgeblich von ihnen abhängt (vgl. Labys 2006). In Deutschland ist aktuell der Umgang mit unsicherem Wissen besonders gut in der Planung des beschleunigten Ausbaus der deutschen Stromnetze beobachtbar. Sogar per Gesetz wurde hierbei festgelegt, dass in mehreren Szenarien unterschiedliche Annahmen für unsichere Größen zugrunde zu legen sind und dass diese Szenarien die Grundlage für die Netzentwicklungspläne und damit für den Entscheidungsprozess zur Frage, wo welche neuen Leitungstrassen gebaut werden, zu bilden haben (EnWG 2005/2014: §12a Abs. 1). Dabei ist im Bereich der Energieversorgung auch das beschriebene Aufbrechen der Zukunftsgewissheit als ein Wandel im Umgang mit solchen unsicheren Größen deutlich beobachtbar. Dies illustriert wiederum die Kernenergie besonders eindrücklich. Denn als Begründung für den frühzeitigen Ausstieg aus dieser Technologie, der 2011 als Reaktion auf das Reaktorunglück in Fukushima von der deutschen Regierung beschlossen wurde, gab Bundeskanzlerin Angela Merkel in ihrer Regierungserklärung explizit an, dass durch dieses Ereignis „die Verlässlichkeit von Risikoannahmen“ und „die Verlässlichkeit von Wahrscheinlichkeitsanalysen“ selbst in Frage gestellt wurden.2 Es ist also der grundlegende Mo-

1

United Nations Conference on Environment and Development (UNCED), Rio de

2

„In Fukushima haben wir zur Kenntnis nehmen müssen, dass selbst in einem Hoch-

Janeiro, 1992. technologieland wie Japan die Risiken der Kernenergie nicht sicher beherrscht werden

E INLEITUNG

| 17

dus, in dem versucht wird, eine bestimmte Form von Gewissheit bezüglich zukünftiger Ereignisse zu erzeugen, der hier ins Wanken gerät. Aufgrund der Relevanz von Zukunftswissen für Entscheidungen im Bereich der Energieversorgung hat sich schon früh an der zuvor beschriebenen Schnittstelle eine wissenschaftliche Community – im Folgenden kurz als „Community der Energieprognostik“3 bezeichnet – herausgebildet. Ihre wesentliche Betätigung – im Folgenden „energieprognostische Praxis“ oder kurz „Energieprognostik“ – besteht darin, entscheidungsunterstützendes Wissen über unterschiedliche Fragen der zukünftigen Energieversorgung mit Hilfe von Computermodellen zu generieren. Die wichtigste Konstellation, in der dies geschieht, ist die Beauftragung der wissenschaftlichen Institute dieser Community durch außerwissenschaftliche Institutionen, etwa durch Ministerien, aber auch durch Unternehmen oder Nichtregierungsorganisationen, mit der Erstellung von Gutachten zu bestimmten Fragestellungen. Diese „energieprognostischen Gutachten“ werden anschließend nicht nur vom Auftraggeber rezipiert, sondern gehen – sofern sie veröffentlicht werden – vor allem auf dem Weg der medialen Rezeption und Wie-

können. Wer das erkennt, muss die notwendigen Konsequenzen ziehen. Wer das erkennt, muss eine neue Bewertung vornehmen. […] Das Restrisiko der Kernenergie habe ich [Angela Merkel; CD] vor Fukushima akzeptiert, weil ich überzeugt war, dass es in einem Hochtechnologieland mit hohen Sicherheitsstandards nach menschlichem Ermessen nicht eintritt. Jetzt ist es eingetreten. Genau darum geht es also - nicht darum, ob es in Deutschland jemals ein genauso verheerendes Erdbeben, einen solch katastrophalen Tsunami wie in Japan geben wird. Jeder weiß, dass das genau so nicht passieren wird. Nein, nach Fukushima geht es um etwas anderes. Es geht um die Verlässlichkeit von Risikoannahmen und um die Verlässlichkeit von Wahrscheinlichkeitsanalysen. Denn diese Analysen bilden die Grundlage, auf der die Politik Entscheidungen treffen muss, Entscheidungen für eine zuverlässige, bezahlbare, umweltverträgliche, also sichere Energieversorgung in Deutschland.“ (Deutsche Bundesregierung 2011; Hervorhebungen durch den Autor) 3

In der Arbeit wird der Begriff „Prognose“, wenn er als analytische Kategorie verwendet wird, als Oberbegriff für jede Art Aussage über Zukünftiges verwendet. Insbesondere wird mit ihm allein noch keine Festlegung auf deterministische Aussagen getroffen. Sind spezifische Arten von Aussagen über die Zukunft gemeint, so wird dies durch zusätzliche Attribute wie „deterministisch“ oder „possibilistisch“ explizit kenntlich gemacht (vgl. Abschnitt 3.4). Dementsprechend erfolgt auch mit den Bezeichnungen „Energieprognostik“ oder „energieprognostische Beratung“ noch keine Festlegung darauf, welche Art von Aussagen im Feld der Energieprognostik oder in der Praxis der energieprognostischen Beratung getroffen wird.

18 | M ODELLIERTE Z UKUNFT

dergabe in die gesamtgesellschaftliche Debatte ein. Ein aktuelles Beispiel sind etwa die Szenarien für das Energiekonzept der Bundesregierung (EWI, GWS und Prognos AG 2010). Indem diese eine wesentliche Grundlage des Energiekonzeptes (BMWT und BMU 2010) bilden und insbesondere Orientierung zur 2010 strittigen Frage der Laufzeitverlängerung von Kernkraftwerken geben sollten, erfuhren und erfahren sie eine besonders große und kritische mediale Aufmerksamkeit (vgl. etwa Brost 2010). Die Community der Energieprognostik setzt sich sowohl aus privatwirtschaftlichen Beratungsinstituten als auch aus wissenschaftlichen Instituten zusammen, die wiederum sowohl Universitäten als auch außeruniversitären Forschungsorganisationen angehören (vgl. Abschnitt 4.1.1). Angestoßen durch die Ölkrise von 1973-74 etablierte sich die Community in Westeuropa und Nordamerika bis Ende der 1980er Jahre geradezu zu einer „modelling and forecasting industry“ (Baumgartner und Midttun 1987a: 3). In Deutschland umfasste sie zu dieser Zeit bereits etwa fünfzehn wissenschaftliche Institute (Diefenbacher und Johnson 1987: 65). Diese Anzahl hat sich in etwa bis heute erhalten, auch wenn zwischenzeitlich einige Institute durch neue ersetzt wurden. Bis heute produziert diese Community jährlich eine fast unüberblickbare Zahl energieprognostischer Gutachten unterschiedlicher thematischer Ausrichtung (vgl. Abschnitt 4.2). Typischerweise werden in einem energieprognostischen Gutachten mehrere, auf Grundlage unterschiedlicher numerischer Annahmen erstellte Rechenläufe interpretiert, so dass dann mehrere Szenarien im Gutachten ausgewiesen werden. Eines dieser Szenarien wird meist als „Referenz-“ oder „Business-As-UsualSzenario“ bezeichnet. Hinsichtlich der Methoden, mit denen in der Energieprognostik Zukunftswissen generiert wird, ist die Fokussierung auf Computermodelle und Szenarien besonders augenfällig. Ersteres führte bereits Baumgartner und Midttun 1987 dazu, die Community als eine „modelling industry“ zu beschreiben (ebd.). Bis heute hat sich die zentrale Stellung der Modelle in der Praxis dieser Community erhalten, wie aktuelle Gutachten, aber auch die einschlägige Literatur zeigen (vgl. etwa FORUM 1999, 2002, 2004a, 2004b und 2007). Dass Szenarien eine zentrale Rolle spielen, wenn Fragen der zukünftigen Energieversorgung diskutiert werden, zeigt ebenfalls der Blick in die Gutachten. Nicht zuletzt gibt jedoch auch der Umstand hierüber Auskunft, dass das Wort „Energieszenario“ zu einem stehenden Begriff in der Debatte geworden ist (vgl. Abschnitt 4.3.3). Die Energieprognostik in Deutschland ist also eine etablierte und stabile, sowie darüber hinaus überschaubare wissenschaftliche Community, in der modellierte Szenarien seit mehreren Jahrzehnten die etablierte Methode darstellen, in der entscheidungsunterstützendes Wissen generiert wird. Sie gibt also ein her-

E INLEITUNG

| 19

vorragendes Untersuchungsobjekt dafür ab, der geschilderten Eigenartigkeit modellierter Szenarien auf den Grund zu gehen. Deshalb wird sie als empirischer Gegenstand für die vorliegende Arbeit gewählt. Die Wahl dieser Community ist jedoch noch durch eine Reihe weiterer, im Folgenden geschilderter Eigenheiten motiviert, die die gegenwärtige Praxis der Erstellung und Verwendung von Szenarien im Themenfeld der Energieversorgung nicht nur aus Sicht der Wissenschaftsforschung zusätzlich interessant, sondern auch hinsichtlich ihrer derzeitigen Rolle in demokratischen Entscheidungsprozessen problematisch erscheinen lässt. Unscharfe Gebilde und die Gefahr der Beliebigkeit Abstrakt beschrieben transportiert ein energieprognostisches Gutachten ein Gebilde, das im Kern aus Aussagen über zukünftige Sachverhalte sowie deren Begründung durch teilweise unsicheres Wissen besteht. Eine Ausgangsdiagnose der vorliegenden Arbeit ist, dass die genaue Natur und die argumentative Struktur dieser Gebilde in den Gutachten unscharf bleibt. Dies schlägt sich zum einen darin nieder, dass in den Gutachten zentrale Begriffe wie der des „Szenarios“ oder der der „Prognose“ nicht eindeutig verwendet werden. Insbesondere ist bei genauerer Betrachtung selten klar, ob mit diesen Begriffen possibilistische oder deterministische Aussagen bezeichnet werden, oder Aussagen des einen Typs zur Begründung von Aussagen des anderen Typs dienen. Teil der Ausgangsdiagnose ist zum anderen, dass auch die grundlegende argumentative Struktur, in die die einzelnen Aussagen, insbesondere die Interpretationen einzelner Modellrechnungen, gestellt werden, häufig unklar bleibt. Aufgrund dieser Unschärfen ist es für Rezipienten in vielen Fällen schwierig einzuschätzen, ob die jeweilige Argumentation plausibel ist und an welcher Stelle gegebenenfalls Einwände vorgebracht werden könnten. Die Unschärfe der in energieprognostischen Gutachten transportierten Gebilde ist ein Grund dafür, dass Energieszenarien mit dem Vorwurf der Beliebigkeit konfrontiert sind. Für Grunwald (2011a, insb.: 824 f.) fußt dieser Vorwurf auf der Diagnose, dass Rezipienten heute mit einer großen und jährlich anwachsenden Zahl von „Energiezukünften“ – wobei Szenarien als eine Unterart davon angesehen werden können (ebd.: 820) – konfrontiert sind, die sich zwar hinsichtlich der Methodik ihrer Erstellung ähneln, scheinbar aber zu sehr unterschiedlichen und teilweise widersprüchlichen Ergebnissen kommen. Grunwalds Ausführungen lassen erkennen, dass sich hieraus für ihn in zweierlei Hinsicht ein Problem der Beliebigkeit ergibt. Erstens ist nicht bekannt, welche „Zutaten“ (ebd.: 821) in die Festlegung auf bestimmte präsentierte zukünftige Entwicklungen

20 | M ODELLIERTE Z UKUNFT

eingehen, welchen Anteil dabei etwa gesichertes Wissen ausmacht, welchen Anteil aber auch normative Setzungen. Das hat zur Folge, dass schon der Erstellungsprozess für Außenstehende beliebig erscheint. Hiervon ausgehend ergibt sich für Grunwald ein zweites Problem der Beliebigkeit. Denn damit stehen auch Entscheidungsträger vor einer ununterscheidbaren Vielzahl vermeintlich in Konkurrenz stehender Studien, ohne dass es ihnen möglich ist, deren Qualität einzuschätzen. Wie Grunwald folgert, verfehlen solche Studien damit auch ihr Ziel, eine Orientierungshilfe für Entscheidungen darzustellen, weshalb Entscheidungen, die auf ihnen aufbauen, Gefahr laufen, beliebig getroffen zu werden.4 Gerade dies kann wiederum als ein Phänomen des oben beschriebenen Aufbrechens von Zukunftsgewissheiten verstanden werden, nun aber im Bereich der Energieversorgung. Mehr noch: Grunwalds Diagnose deutet auf ein kolossales Scheitern hin. Denn die Verwendung von modellierten Szenarien stellt ja gerade einen Versuch dar, mit eben diesem Aufbrechen fertig zu werden und trotz Unsicherheiten Orientierung zu bieten. Wenn seine Diagnose stimmt, verfehlen Szenarien jedoch zumindest in diesem Bereich ihr Ziel. Intransparenz der Erstellung Die Aufgabe energieprognostischer Gutachten ist es zum einen, relevantes Wissen für einen konkreten Auftraggeber zur Verfügung zu stellen. Gleichzeitig gehen die Gutachten in den gesellschaftlichen und politischen Diskurs über die Zukunft der Energieversorgung ein – ein Diskurs, der durch große Kontroversen gekennzeichnet ist. Durch die Veröffentlichung der Gutachten nimmt auch die wissenschaftliche Community der Energieprognostik an diesem kontroversen Diskurs Teil. In der Folge werden auch die Mitglieder der Community als Vertreter politischer Positionen wahrgenommen, wie eindrücklich der Abschlussbericht der Enquete-Kommission „Nachhaltige Energieversorgung unter den Bedingungen der Globalisierung und Liberalisierung“ vor Augen führt.5 Diese

4

Freilich unterstellt Grunwalds Diagnose, dass die in den unterschiedlichen Gutachten getroffenen Aussagen überhaupt miteinander vergleichbar sind. Um dies feststellen zu können, ist jedoch zunächst Kenntnis über die genaue Natur der jeweils transportierten Gebilde nötig.

5

„In verschiedenen Einzelvorgaben für die Entwicklung von Preisen, Technologien, Gesellschaft etc. in den verschiedenen Szenarien drücken sich wiederum die persönlichen Einschätzungen der Modellierer aus. Hier kommen die subjektiven Erwartungen der verschiedenen Gruppen zum Tragen, und manchmal auch ihre Interessen oder die Interessen der Auftraggeber solcher Studien.“ (Deutscher Bundestag 2002: 346, Abs.

E INLEITUNG

| 21

Wahrnehmung ist für eine Community, die in der wissenschaftlichen Politikberatung und damit im Grenzbereich zwischen Wissenschaft und Politik engagiert ist, an sich nicht ungewöhnlich und wird verallgemeinert von Peter Weingart als eine Folge des Phänomens der Politisierung von Wissenschaft beschrieben (Weingart 2005: 148). Wie von Weingart et al. (2008) in den Leitlinien Politikberatung dargelegt, gefährdet dies jedoch die Glaubwürdigkeit der beratenden Wissenschaft und somit mindestens indirekt auch die Legitimität der beratenen Politik. Als eine wesentliche Bedingung, um beides zu erhalten, wird die Transparenz des Beratungsprozesses hervorgehoben (ebd.: 16 f.; Lentsch und Weingart 2011: 15), womit, auf die Energieprognostik bezogen, die Transparenz des Erstellungsprozesses der Gutachten zu fordern ist. Dies ist in der energieprognostischen Beratung aber in der Regel nicht erfüllt. Zwar ist für Rezipienten durch die Nennung von Autoren und Auftraggebern einsehbar, dass die Gutachten keine rein wissenschaftlichen Veröffentlichungen darstellen, sondern das Produkt von Beratungsprozessen sind, bei denen der Auftraggeber in irgendeiner Form beteiligt war. Wie genau diese Beteiligung jedoch vonstattengeht und insbesondere welchen Anteil er auch an der Gestaltung der Modellrechnungen hat, bleibt jedoch weitgehend im Dunkeln. Auch dies steht wiederum im Zusammenhang mit der Unschärfe des von den Gutachten transportierten Gebildes. Denn wenn nicht klar ist, an welchen Stellen der Auftraggeber, etwa durch die Setzung bestimmter Annahmen, die Ergebnisse der Rechnungen mitbestimmt hat, ist es nicht möglich, diejenigen Prämissen der Argumentation in den Gutachten zu identifizieren, die durch ihn und nach seinen – vermeintlich nicht-epistemischen – Kriterien geprägt sind. Allgemeiner formuliert führt die Intransparenz der Erstellung der Gutachten also dazu, dass es einem Rezipienten schwer fällt, ein solches Gutachten zwischen den Polen politischer Meinung und wissenschaftlicher Erkenntnis zu verorten. Modelle als Black-Boxes Da die in der Energieprognostik verwendeten Modelle aufgrund ihres Gegenstandes meist mathematisch und programmiertechnisch anspruchsvolle sowie theoretisch voraussetzungsreiche Gebilde sind, die Gutachten sich aber nicht primär an eine Fachgemeinschaft, sondern an politische Entscheider oder andere

1276), sowie: „Um möglichst robuste Ergebnisse zu bekommen, hat sich die Kommission bei der Vergabe der Aufträge an zwei Institute […] gewandt, die verschiedene Simulationsverfahren benutzen und die in den letzten Jahren in der energiepolitischen Diskussion unterschiedliche Positionen bezogen haben.“ (Ebd.: 347, Abs. 1278)

22 | M ODELLIERTE Z UKUNFT

gesellschaftliche Akteure richten, muss die in den Gutachten explizit beschriebene Begründung der Aussagen durch das Modell zwangsläufig immer bis zu einem gewissen Grad vereinfacht dargestellt werden. Ein Teil dessen, worauf sich die Argumentation in den Gutachten eigentlich stützt, wird so gewissermaßen aus den Gutachten in die Modelle ausgelagert. Dieses Phänomen ist in der wissenschaftlichen Beratung verbreitet, wie Farrell, VanDeveer und Jäger (2001: 17 f.) für das Feld der Umweltrisikoabschätzung schildern, und ist an sich nicht problematisch. Denn solange gewährleistet ist, dass die Überprüfung der Argumentation im Prinzip möglich ist, also die gesamte Argumentation zumindest für Fachleute nachvollziehbar ist, kann im Gutachten selbst die Argumentation vereinfacht dargestellt werden. In der energieprognostischen Beratung ist diese Bedingung jedoch nicht immer erfüllt. Vielmehr werden in diesem Feld die Modelle nicht nur in den Gutachten häufig als Black-Box behandelt, sondern sind häufig auch für die wissenschaftliche Fachgemeinschaft unzugänglich. Eine Ursache hierfür ist der Umstand, dass die Energiemodelle häufig als proprietäres Eigentum der beauftragten Institute betrachtet und geschützt werden, wie die öffentliche Kritik an der Intransparenz des europäischen Energiesystemmodells PRIMES eindrücklich vor Augen führt (vgl. Clark 2011). Die Forschungsfragen Energieszenarien und -prognosen, also die Gebilde, die in energieprognostischen Gutachten transportiert werden, stellen den Kern derjenigen Praxis dar, in der gegenwärtig versucht wird, entscheidungsunterstützendes Wissen zu Fragen der zukünftigen Energieversorgung im Angesicht epistemischer Unsicherheiten zu generieren. Obwohl diese Praxis seit mehreren Jahrzehnten etabliert ist, ist gegenwärtig nicht klar, ob und wie es in dieser Praxis gelingt, dieses Ziel zu erreichen. Das Kernproblem besteht darin, dass diese Gebilde bisher insofern unscharf sind, als das weder klar ist, welche Art von Konklusion in ihnen genau begründet wird, und wie dies – insbesondere mit Hilfe der Computermodelle – geschieht. Die zentrale Forschungsfrage der vorliegenden Untersuchung lautet deshalb: Welche argumentative Struktur weisen die Gebilde auf, die in energieprognostischen Gutachten als Szenarien oder Prognosen bezeichnet werden? Wie beschrieben wurde, werden diese Gebilde in einer ganz bestimmten gesellschaftlichen Konstellation erzeugt, nämlich in der wissenschaftlichen Politikberatung. Vor dem Hintergrund der Diagnose einer funktional differenzierten Gesellschaft (vgl. Schimank 2005) wird in der Untersuchung davon ausgegangen, dass diese Gebilde damit im Spannungsfeld der unterschiedlichen spezifi-

E INLEITUNG

| 23

schen Anforderungen zweier gesellschaftlicher Teilbereiche, der Politik und der Wissenschaft, erstellt werden. Auf Grundlage der Überlegungen Weingarts und Lentschs (2008: 49 f.) geht die Untersuchung davon aus, dass dies im Wesentlichen die wissenschaftliche Validität auf der einen und die Relevanz für den Entscheidungskontext der Politik auf der anderen Seite ist. Vor diesem Hintergrund kann der Prozess der Erstellung der Gutachten als Interaktion der Vertreter beider Teilbereiche verstanden werden, deren zentrale Aufgabe darin besteht, für eine gleichzeitige Erfüllung beider Anforderungen zu sorgen. Da davon auszugehen ist, dass dieses doppelte Anforderungsprofil maßgeblich die Gebilde prägt, die in diesen Gutachten transportiert werden, ist es unumgänglich, die Art und Weise, wie diese Gebilde in der Interaktion der beteiligten Akteure erzeugt werden, mit zu untersuchen. Die sekundäre Forschungsfrage der vorliegenden Untersuchung lautet deshalb: Wie werden diese Gebilde in der Interaktion der beteiligten Akteure erzeugt? Die Antworten auf beide Fragen tragen zum Schließen einer drängenden Lücke in der aktuellen wissenschaftsphilosophischen und -soziologischen Forschung bei. Diese besteht darin, dass in beiden Forschungsrichtungen bisher höchstens einzelne Aspekte der beschrieben Praxis untersucht werden, nicht jedoch Modelle und Szenarien bzw. Prognosen als integrale Einheiten, wie es in der vorliegenden Arbeit getan wird. Gerade dies ist jedoch – zumindest im Feld der Energieversorgung – die gesellschaftlich relevante Form, in der aktuell unsicheres Wissen für Entscheidungskontexte generiert wird. Und erst wenn dies in der analytischen Rahmung berücksichtigt wird, wird untersuchbar, welche epistemische und soziale Funktion von diesen Gebilden an der Schnittstelle von Wissenschaft und Politik erfüllt wird. Über das Schließen dieser Forschungslücke hinaus hat die Arbeit das Ziel, einen Beitrag zur gesellschaftlichen Auseinandersetzung über die zukünftige Energieversorgung und damit eine der drängendsten Fragen unserer Zeit zu leisten. Ziel ist es, etwas Licht in die bis jetzt weitgehend opake energieprognostische Praxis zu bringen und dabei insbesondere zu klären, auf welchem epistemischen Fundament diese Debatte mit den modellierten Szenarien eigentlich steht. Ansatz und Methode Die Arbeit fokussiert auf die energieprognostische Praxis in Deutschland, und zwar genauer auf solche Konstellationen, in denen staatliche und zivilgesellschaftliche Organisationen von wissenschaftlichen Instituten beraten werden. Die Forschungsfragen machen bereits deutlich, dass es sich bei der vorliegenden Arbeit um eine empirische Untersuchung handelt. Darüber hinaus ist für die

24 | M ODELLIERTE Z UKUNFT

Wahl des Ansatzes und der Methoden der Befund wichtig, dass weder die Community der Energieprognostik noch die Praxis der Erstellung modellierter Szenarien bisher systematisch untersucht wurden. Ziel der Arbeit ist es deshalb, überhaupt erst einmal empirisch begründete Hypothesen über generalisierbare Strukturen zu erarbeiten und so die beschriebene Praxis erstmalig für eine systematische Analyse zu erschließen. Aus diesen Gründen wird für die Untersuchung ein explorativer Ansatz gewählt, wobei dieser in folgender Weise methodisch umgesetzt wird: Da die energieprognostischen Gutachten durch ihre Unschärfe und mangelnde Beschreibung ihrer Erstellungsprozesse die zentralen Fragen der Untersuchung gerade erst aufwerfen, können sie selbst nur eingeschränkt als empirisches Material dienen. Als zentrale Methode der empirischen Erhebung wird deshalb die Durchführung leitfadenbasierter Interviews mit den Modellierern und gleichzeitigen Autoren dieser Gutachten gewählt. Dies wird durch umfangreiche Literatur- und Internetrecherchen vorbereitet, sowie durch intensive Kontakte zu nicht interviewten Mitgliedern der Community u.a. in Form von persönlichen Beratungsgesprächen und im Rahmen von Projektarbeit ergänzt. Die Durchführung von leitfadenbasierten Interviews erlaubt es, über den thematischen Zuschnitt der Interviews beide Forschungsfragen zu adressieren und über die Wahl der Interviewten zu einem breiten Bild der Community zu gelangen. Die Beschränkung auf die Modellierer und damit auf eine der zwei Seiten der an der Erstellung der Gutachten beteiligten Akteure ist sowohl im Erkenntnisinteresse begründet – für die primäre Forschungsfrage ist in erster Linie die Beschreibung der Modellierer relevant – als auch in den begrenzten Kapazitäten eines Promotionsprojektes, die für eine gleichzeitige detaillierte Analyse der Auftraggeberseite nicht ausreichen würden. Die Auswahl der Interviewten erfolgt unter der Maßgabe, die Bandbreite der in der Energieprognostik eingesetzten Methoden zur Erstellung der Gutachten zu erfassen. Da die Methode der Erstellung wesentlich an den Typ des jeweils verwendeten Modells gebunden ist, sind für die Auswahl der Interviewten die vier zentralen Energiemodelltypen, die Optimierungs- und die Simulationsmodelle, sowie die ökonometrischen Modelle und die Allgemeinen Gleichgewichtsmodelle, maßgeblich. Der Auswertung der Interviews werden entsprechend der beiden Forschungsfragen zwei analytische Perspektiven zugrunde gelegt: Die Frage nach der argumentativen Struktur der in den Gutachten transportierten Gebilde wird durch eine Argumentationsanalyse beantwortet, mit deren Hilfe auf Basis deduktiver Schlussschemata rekonstruiert wird, wie in energieprognostischen Gutachten nach Aussage der Interviewten argumentiert wird. Dabei wird insbesondere auch rekonstruiert, wie die Modelle interpretiert werden und als Prämissen in diese Argumentationen eingehen. Die zweite Forschungsfrage nach der Erstellung der

E INLEITUNG

| 25

Gutachten wird durch eine Prozessanalyse beantwortet, indem auf Grundlage der Schilderungen der Interviewten typische Erstellungsprozesse energieprognostischer Gutachten rekonstruiert werden. Dabei wird die Annahme zugrunde gelegt, dass die Erstellung eines Gutachtens in einem sequenziellen Beratungsprozess geschieht und dass dabei im Wesentlichen vier Schritte durchlaufen werden. Dies sind die Festlegung der Fragestellung, die Festlegung der numerischen Annahmen für die Modellrechnungen, die Durchführung derselben und schließlich das Verfassen des Gutachtens. Der Gang der Untersuchung Im Anschluss an die Einleitung wird zunächst in Kapitel 2 der Stand der Forschung beschrieben. Anschließend wird in Kapitel 3 der analytische Rahmen der Untersuchung, bestehend aus Prozess- und Argumentationsanalyse, eingeführt. Dieser beschreibt, mit welchen analytischen Grundvorstellungen und Annahmen sich dem Gegenstand genähert wurde. Hierbei wird auch das analytische Vokabular, darunter die Begriffe der Prognose und des Modells, systematisch eingeführt. Kapitel 4 hat die Aufgabe, das relevante Hintergrundwissen über den Untersuchungsgegenstand darzulegen. Dies umfasst die nähere Bestimmung der wissenschaftlichen Community der Energieprognostik, eine Beschreibung der Artenvielfalt energieprognostischer Gutachten sowie eine ausführliche Vorklärung des Begriffs des Energieszenarios. Der letzte Abschnitt in diesem Kapitel stellt die wichtigsten Typen von Energiemodellen vor. In Kapitel 5 wird das methodische Vorgehen beschrieben. Dies umfasst unter anderem die Fallauswahl, eine Darstellung der Erhebungsinstrumente sowie eine Schilderung des praktischen Vorgehens bei der Auswertung der Interviews. Die beiden folgenden Kapitel bilden gemeinsam den Kern der Arbeit, denn hier werden nun in Kapitel 6 zunächst die empirischen Ergebnisse vorgestellt und diese anschließend in Kapitel 7 diskutiert. Abschnitt 6.1 beginnt mit der Darstellung der Ergebnisse der Prozessanalyse. Auf Grundlage der Interviews werden hier drei Typen der Erstellung energieprognostischer Gutachten rekonstruiert, die sich in der Art und Weise unterscheiden, wie die beiden Akteure miteinander interagieren. Am einen Ende des beobachteten Spektrums steht der Prozesstyp der sequenziellen Trennung, der durch eine vergleichsweise geringe Interaktion gekennzeichnet ist. Am anderen Ende des Spektrums findet sich der Typ der interaktiven Verschränkung, bei dem Auftraggeber und Modellierer sämtliche Prozessschritte gemeinsam bearbeiten. Der Typ der iterativen Trennung ist zwischen diesen beiden Polen angesiedelt und zeichnet sich dadurch

26 | M ODELLIERTE Z UKUNFT

aus, dass eine Abstimmung vorläufiger Rechenergebnisse mit dem Auftraggeber stattfindet. Die drei übrigen Abschnitte in Kapitel 6 wenden sich der Struktur der in den Gutachten transportierten Gebilde und damit den Ergebnissen der Argumentationsanalyse zu. Zunächst werden in Abschnitt 6.2 die Grundbausteine dieser Gebilde untersucht, indem in Form von elementaren Argumenten rekonstruiert wird, wie die interviewten Modellierer einen einzelnen Modelllauf interpretieren. Abschnitt 6.3 berücksichtigt dann, dass in energieprognostischen Gutachten in der Regel mehrere Modellrechnungen interpretiert und in Beziehung zueinander gesetzt werden. Indem untersucht wird, wie die elementaren Argumente zu komplexen Argumenten zusammengesetzt werden, werden hier die Gebilde in ihrer gesamten Struktur sichtbar gemacht. Das erste komplexe Argument besteht in der Gegenüberstellung possibilistischer Prognosen (GPP), in ihm werden mehrere mögliche Entwicklungen einander gegenübergestellt. Das zweite Argument, Isolation von Effekten (IE) genannt, zielt darauf ab, die Effekte bestimmter, beispielsweise politischer Maßnahmen zu bestimmten. Dieses Argument überrascht insofern, dass hier gar nicht klar ist, ob überhaupt Möglichkeitsaussagen involviert sind, obwohl es auch der Szenarioanalyse zugeschrieben wird. Im letzten Abschnitt dieses Kapitels wird der Frage nachgegangen, wie die interviewten Modellierer ihre Modelle interpretieren. Bis hierhin wird in der Analyse davon ausgegangen, dass die Modellierer ihre Energiemodelle uneingeschränkt als empirisch adäquate Repräsentationen des jeweiligen Zielsystems ansehen. Das überraschende Ergebnis ist, dass fast alle Interviewten den Anspruch hinsichtlich der Repräsentation eines realen Zielsystems in unterschiedlicher und erheblicher Weise einschränken. Wurde eingangs nach dem epistemischen Fundament der energieprognostischen Praxis gefragt, so deutet sich hier bereits an, dass dieses bezüglich mancher Modelle nicht in dem Maße stabil ist, wie es in den Gutachten üblicherweise den Anschein hat. Kapitel 7 ist schließlich der Reflexion der empirischen Ergebnisse gewidmet. Es beginnt mit einem Vorschlag für eine präzisere Verwendung der Begriffe „Szenario“ und „Prognose“ in der Energieprognostik. Die Reihenfolge der übrigen Abschnitte in Kapitel 7 folgt der Vorstellung, sich vom Kontext der untersuchten Praxis schrittweise – gewisser Maßen durch ein „Heranzoomen“ – dem epistemischen Fundament zu nähern, auf dem diese aufbaut. Dementsprechend wird in Abschnitt 7.2 zunächst der Frage nachgegangen, wieso Szenarien gerade dort auftauchen, wo Wissenschaft und Politik aufeinander treffen. Die Antwort besteht darin, dass Szenarien – jedenfalls wenn sie als possibilistische Prognosen verstanden werden – eine Art „konzeptioneller Klebstoff“ zwischen diesen Teilbereichen darstellen. Im nächsten Abschnitt 7.3 wird diskutiert, wie sich diese

E INLEITUNG

| 27

abstrakte Vermittlungsfunktion in der konkreten Interaktion von Modellierer und Auftraggeber bei der Erstellung energieprognostischer Gutachten und damit auf der Mikroebene niederschlägt. Als Schlüsselelement werden Storylines identifiziert, die als semi-qualitative Rohformen die Funktion von Boundary Objects (Star und Griesemer 1989; Star 2010) übernehmen. Bis hierhin befasst sich die Diskussion der Ergebnisse vor allem aus wissenschaftssoziologischer Sicht mit der Praxis der Energieprognostik. Verkürzt gesagt wird bis hierhin der Frage nachgegangen, wieso diese Praxis so aussieht, wie sie gemäß der empirischen Ergebnisse aussieht. Mit dem nächsten Abschnitt kommt nun eine weitere Perspektive hinzu, denn es wird in den folgenden Abschnitten nun auch immer danach gefragt, welche Ergebnisse der Untersuchung auf Probleme in dieser Praxis hindeuten oder zumindest auf kritische offene Fragen verweisen. In Abschnitt 7.4 ist dies zunächst das zuvor genannte Problem der Transparenz der Erstellungsprozesse energieprognostischer Gutachten, indem diskutiert wird, inwiefern mit den rekonstruierten Prozesstypen spezifische Transparenzerfordernisse verbunden sind. Abschnitt 7.5 fokussiert auf die Rolle von konditionalen Aussagen in der Energieprognostik und diskutiert, inwiefern die Formulierung konditionaler Aussagen ein Problem in der wissenschaftlichen Politikberatung darstellen kann. Die nächsten beiden Abschnitte 7.6 und 7.7 wenden sich jeweils einem der beiden komplexen Argumente zu und diskutieren mit ihnen verbundene Probleme und offene Fragestellungen. Es zeigt sich, dass die Herausforderung beim Argument Gegenüberstellung possibilistischer Prognosen weniger in der Begründung seiner Konklusion, sondern vielmehr in der Verwendung dieser Konklusion in der Entscheidungsbegründung liegt. Schon in Kapitel 6 wird deutlich werden, dass die Rekonstruktion des Argumentes Isolation von Effekten eine Herausforderung darstellt. Nun wird herausgearbeitet, dass dies jedoch auch eine Herausforderung für denjenigen darstellt, der dieses Argument vorbringen möchte. Ein besonders kritischer Punkt in diesem Argument ist der epistemische Status des Referenzlaufes, da nicht klar ist, ob hierfür eine deterministische oder eine possibilistische Prognose formuliert werden kann bzw. muss. In Abschnitt 7.8 erreicht die Diskussion der Ergebnisse schließlich die Energiemodelle und damit das Fundament der untersuchten Praxis: Während bereits bei der Darstellung der empirischen Ergebnisse klar werden wird, dass die Modellierer nur einen eingeschränkten epistemischen Geltungsanspruch mit ihren Modellen erheben, wird hier nun diskutiert, was diese Einschränkungen für die Annahme bedeuten, sie würden ihre Modelle als empirisch adäquate Repräsentationen verstehen. Es wird sich zeigen, dass die Ergebnisse in manchen Fällen darauf hinweisen, dass diese Annahme gerade nicht erfüllt ist. Dies ist ein kritisches Ergebnis, denn wie gezeigt werden wird, steht dies im Widerspruch

28 | M ODELLIERTE Z UKUNFT

zur etablierten Praxis. Die Untersuchung endet schließlich in Kapitel 7 mit einem übergreifenden Fazit und einem Ausblick auf die Vielzahl der in der Untersuchung aufgeworfenen weiterführenden Fragestellungen.

2. Stand der Forschung

Die grundlegende Perspektive der vorliegenden Arbeit ist es, Wissenschaft in ihrem Anwendungskontext zu untersuchen. Die Untersuchung folgt damit dem „practice turn“, der aktuell in der Wissenschaftsphilosophie und der sozialwissenschaftlichen Wissenschaftsforschung beobachtbar ist und zu einer Annährung und Verschränkung beider Forschungstraditionen führt (Knuuttila, Merz und Mattila 2006; Carrier und Nordmann 2011; Svetlova und Dirksen 2014). Für diesen ist es kennzeichnend, dass Wissenschaft nicht mehr als rein epistemische Unternehmung, sondern auch als ein praktisches Unterfangen, das in heterogenen sozialen Kontexten stattfindet, betrachtet wird. Gerade in der Wissenschaftsforschung zu Modellierung und Simulation ist diese Annäherung beobachtbar (Knuuttila, Merz und Mattila 2006). Damit geht einher, dass in der jüngeren Wissenschaftsforschung traditionell behandelte Fragen, wie etwa die der Repräsentationalität von Modellen, durch die Analyse von praktischen Aspekten der Generierung und Verwendung von Computermodellen und ihren Ergebnissen ergänzt werden (Winsberg 2010; Knuuttila 2005, 2011; Svetlova und Dirksen 2014). Indem die vorliegende Arbeit beide Forschungsperspektiven vereint, stellt sie selbst ein Beispiel für die beschriebene Annäherung von Wissenschaftsphilosophie und -soziologie dar. Auf Grundlage dieser allgemeinen Perspektive auf Wissenschaft knüpft die vorliegende Arbeit an eine Reihe speziellerer Forschungen sowohl in der Wissenschaftsphilosophie als auch in der Wissenschaftssoziologie an und führt diese fort. Im Folgenden werden diese näher beschrieben, wobei entsprechend dem Gegenstand der Untersuchung zwei Forschungsthemen unterschieden werden. Erstens sind dies Untersuchungen zur Rolle von Computermodellen in der Wissenschaft und zweitens Arbeiten zur Frage, wie Prognostik betrieben wird. Vorarbeiten zu diesen Themen werden zunächst aus der Wissenschaftsphilosophie und anschließend aus der Wissenschaftssoziologie beschrieben. Selbstverständlich sind nicht alle Vorarbeiten nur einer der beiden Disziplinen zuzurechnen,

30 | M ODELLIERTE Z UKUNFT

denn wie zuvor erwähnt, zeichnet sich gerade im hier untersuchten Themenfeld eine Annäherung und Verschränkung beider Forschungstraditionen ab, so dass diese Einteilung dem Leser in erster Linie eine grobe Orientierung bieten soll. Daran anschließend werden Untersuchungen aus der Wissenschaftsforschung präsentiert, die sich konkret mit der Energiemodellierung und der Erstellung von Energieszenarien und –prognosen befassen. Abschließend wird erläutert, inwiefern die vorliegende Arbeit auf Arbeiten aus den futures studies zurückgreift. In der Wissenschaftsphilosophie stellen Modelle einen etablierten Gegenstand dar, auch wenn sie bisher vor allem als ein Unterthema innerhalb der Diskussion zur Bedeutung wissenschaftlicher Theorien behandelt wurden. Mit dem historisch gesehen starken Fokus der Wissenschaftstheorie auf die Naturwissenschaften geht außerdem einher, dass gerade die Struktur und Funktion von Theorien und Modellen in diesen Wissenschaften – vor allem in der Physik – eingehend untersucht wurde. Traditionell wird dabei der Frage nachgegangen, in welchem Verhältnis Modelle zu Theorien, Experimenten oder ganz allgemein zur äußeren Welt stehen. Wie zuvor angedeutet, findet jedoch auch in der philosophischen Wissenschaftsforschung eine Verschiebung des Forschungsinteresses statt, da zunehmend der Einsatz von Modellen in wissenschaftlicher Praxis untersucht wird (Morrison und Morgan 1999; Frigg und Hartmann 2012; Svetlova und Dirksen 2014). Damit geht einher, dass Modelle neben Theorie und Experiment als eigenständige Instrumente in der wissenschaftlichen Praxis untersucht werden (Morrison und Morgan 1999; Morrison 1999), wobei es gerade Computermodelle sind, die in jüngerer Zeit vermehrt Aufmerksamkeit finden (Lenhard, Küppers und Shinn 2006; Winsberg 2009). Hier schließt die vorliegende Arbeit an, denn Energiemodelle erscheinen in der Energieprognostik genau als solche Objekte: zwar werden sie, zumindest zum Teil, auf Theorien aufgebaut (vgl. Abschnitt 4.4), aber sie existieren dann als eigenständige, über längere Zeiträume hinweg relativ stabile mathematisch-programmiertechnische Gebilde, die immer wieder in Beratungsprojekten eingesetzt werden. Nicht zuletzt ist diese Eigenständigkeit daran sichtbar, dass ihnen üblicherweise Namen – oft Akronyme, die dann ein griechisches Wort ergeben – gegeben werden. Des Weiteren ist festzustellen, dass diejenigen Untersuchungen der Wissenschaftsphilosophie, die praktische Aspekte von Modellen in den Vordergrund rücken, sich vor allem mit dem Prozess der Erstellung von Computermodellen befassen (insb. Winsberg 1999, 2010). Gramelsberger (2010) untersucht dabei anhand der Klimamodellierung speziell die Übersetzungsrelation eines theoretischen Modells zu seiner programmiertechnischen Umsetzungen. Darüber hinaus ist die Untersuchung ein Beispiel für die Verknüpfung soziologischer mit philo-

S TAND

DER

F ORSCHUNG

| 31

sophischer Wissenschaftsforschung. Die Nutzung von Computermodellen und gerade ihre Nutzung in außerwissenschaftlichen Entscheidungskontexten stellt dagegen eine Lücke in der aktuellen Wissenschaftsforschung dar, wie Svetlova und Dirksen (2014) aufzeigen. Die vorliegende Arbeit trägt unmittelbar zur Schließung dieser Lücke bei, da untersucht wird, wie Energiemodelle in der Politikberatung eingesetzt werden. Die konkreten Beiträge der Untersuchung bestehen an dieser Stelle darin, einerseits aufzuzeigen, wie Energiemodelle in die Argumente der Energieprognostik eingehen, und andererseits aufzuzeigen, welcher epistemische Status diesen Modellen zugewiesen wird. Mit dem zweiten Aspekt schließt die Arbeit auch an die Debatte zum Realismus von Modellen an (Chakravartty 2011; Frigg und Hartmann 2012). Hier werden zur Zeit unterschiedliche Positionen darüber entwickelt und verhandelt, ob und wie mit Modellen, trotz unrealistischer Annahmen, Aussagen über die Realität begründet werden können (Cartwright 1989; Mäki 1992; Hausman 1992; Sugden 2000; Grüne-Yanoff 2009a). Da dies auch auf viele Energiemodelle zutrifft, berührt diese Debatte unmittelbar die Grundlage, auf der derzeit Energieprognostik betrieben wird. Der Beitrag der vorliegenden Arbeit besteht jedoch nicht darin, diese Frage für die Energiemodellierung zu beantworten, sondern zunächst einmal systematisch aufzuzeigen, dass und wie diese wissenschaftstheoretische Debatte für die Praxis der Energieprognostik unmittelbar relevant ist. Die Reflexion über Prognostik, also das Treffen und Begründen von Aussagen über Zukünftiges, ist zwar ein fester Bestandteil der Wissenschaftstheorie. Rescher (1998) stellt jedoch fest, dass die Philosophie diese Fragen zumindest in den 1950er bis 70er Jahren relativ randständig behandelt hat.1 In jüngerer Zeit ist allerdings ein wieder aufkeimendes philosophisches Interesse gerade an komplexen Prognosen wie die der Klimaforschung festzustellen. Ein Thema, das hier diskutiert wird, ist die Wahrscheinlichkeitstheorie und damit die Frage, wie probabilistische Vorhersagen getroffen und begründet werden können (vgl. Hájek 2012). Hillerbrand (2009) weist jedoch am Fall der Klimamodellierung darauf hin, dass der Möglichkeit, gut begründete Wahrscheinlichkeitsaussagen treffen zu können, enge Grenzen gesetzt sind. In ähnlicher Weise argumentiert Betz (2007) am Beispiel der wichtigen Größe der Klimasensitivität dafür, dass in der Klimaprognostik vielfach allenfalls Möglichkeitsaussagen begründet werden können. Hansson (2004, 2011) stellt eine ähnliche Diagnose für Aussagen über

1

Rescher vermutet die Ursache hierfür darin, dass die Philosophen dieser Zeit in weiten Teilen von der Korrektheit Hempel und Oppenheims These der Strukturgleichheit von Prognose und Erklärung überzeugt waren, weshalb kein Anlass bestand, Fragen der Prognose jenseits von Fragen der Erklärung zu behandeln (ebd.: 30-31).

32 | M ODELLIERTE Z UKUNFT

die Entwicklung und Verwendung von neuen Technologien, indem er die Bedeutung von „mere possibility arguments“ für diesen Kontext herausarbeitet. Obwohl also Möglichkeitsaussagen – nicht zuletzt in Form von Szenarien – eine zentrale Rolle spielen, wenn Aussagen über zukünftige Entwicklungen in oder von komplexen Systemen getroffen und Entscheidungen hierauf gegründet werden, steckt die systematische Untersuchung dieser Rolle noch in den Anfängen. Betz (2010) identifiziert hier zwei besonders drängende offene Fragestellungen. Erstens gilt es demnach genauer zu untersuchen, wie Möglichkeitsaussagen über komplexe Systeme überhaupt begründet werden können und welche Rolle Computermodelle hierbei einnehmen können. Er schlägt die Unterscheidung dreier modaler Methoden vor, die eine nuancierte Beschreibung unterschiedlicher Typen von Möglichkeiten erlaubt. Dies sind die Artikulation von Möglichkeitshypothesen, ihre Verifikation und ihre Falsifikation. Diese Überlegungen stellen eine wichtige Grundlage der vorliegenden Arbeit dar. Auf den ersten Blick scheint es nämlich, dass mit Energiemodellen Möglichkeiten verifiziert werden. Allerdings wird die empirische Analyse Grund zum Zweifel hieran geben. Zweitens drängt die Frage, wie auf Grundlage von Möglichkeitsaussagen rationale Entscheidungen begründet werden können. Betz (ebd.: 100 ff.) argumentiert einerseits dafür, dass bei Entscheidungen unter Unsicherheit die Wissensgrundlage durch die Berücksichtigung seiner zuvor genannten Unterscheidung in angemessen differenzierter Weise erfasst werden sollte. Andererseits weist er aber auch darauf hin, dass dann traditionelle Entscheidungsprinzipien wie etwa das Maximin-Prinzip nicht mehr anwendbar sind, da sie einfache Möglichkeitsaussagen voraussetzen. Darüber hinaus ist es für ihn unklar, ob es überhaupt allgemeine Entscheidungsprinzipen für Situationen gibt, in denen die genannten Typen von Möglichkeiten vorliegen. Zwar übersteigt es den Rahmen der vorliegenden Arbeit, einen direkten Beitrag zur Entwicklung adäquater Entscheidungsprinzipien zu leisten. Die Untersuchung zeigt jedoch dezidiert auf, inwiefern diese Problemlage auch im Bereich der Energieprognostik auftritt – und unterstreicht damit die Relevanz weiterer Forschung in diesem Bereich. Innerhalb der sozialwissenschaftlichen Wissenschaftsforschung ist zunächst zu bemerken, dass sowohl die Analyse der Rolle von Computermodellen in der wissenschaftlichen Praxis als auch die Untersuchung der Frage, welche soziale Bedeutung die wissenschaftliche Unternehmung der Prognostik hat, junge und teilweise wenig erschlossene Themen darstellen. In der Bearbeitung beider Fragestellungen ist besonders die sozialkonstruktivistische Forschungstradition prägend, die heute als Science and Technology Studies (STS) bezeichnet wird. Während die philosophische Wissenschaftstheorie Wissen und damit auch Wissen über Zukünftiges traditionell als wahre Aussagen begreift und der Frage nach-

S TAND

DER

F ORSCHUNG

| 33

geht, wie diese – unter anderem mit Hilfe von Modellen – zu rechtfertigen sind, nimmt die Wissenschaftssoziologie der genannten Tradition die soziale Konstruiertheit wissenschaftlichen Wissens zum Ausgangspunkt der Analyse. Fragen der Wahrheit von Wissen und der rationalen Begründung treten dabei in den Hintergrund (Schützeichel 2007), die sozialen Bedingungen der „Fabrikation von Wissen“ (Knorr 1980) dagegen in den Vordergrund.2 Wie Knuuttila, Merz und Mattila (2006) feststellen, befasst sich die Wissenschaftssoziologie erst seit Kurzem dezidiert mit der Praxis der wissenschaftlichen Modellierung. Eine zentrale Fragestellung dieser Untersuchungen richtet sich auf die unterschiedlichen Vermittlungsfunktionen, die Modelle erfüllen. Auch hier spiegelt sich der „practice turn“ wieder. Denn war es zunächst die erkenntnistheoretische Vermittlung zwischen Theorie und Empirie, die hier von Interesse war (Morgan und Morrison Margaret 1999), wird diese Frage jüngst auf soziale Vermittlungen erweitert (Knuuttila, Merz und Mattila 2006: 6 f.). Die vorliegende Untersuchung knüpft hier direkt an, denn es soll ja der Frage nachgegangen werden, welche Rolle die Energiemodelle in der Interaktion zwischen Modellierer und Auftraggeber in Beratungsprozessen spielen. Gerade für solche Konstellationen, in denen Wissenschaft und Politik, vermittelt durch Computermodelle, miteinander interagieren, stellen Frank den Butter und Mary Morgan (2000) einen erheblichen Mangel sowohl an empirischer Forschung als auch systematischer Analyse fest. Die vorliegende Arbeit stellt gerade einen Beitrag hierzu dar. Konkret setzt die vorliegende Untersuchung die Arbeit von van Egmond und Zeiss (2010) fort. Wie sie greift die Arbeit auf das analytische Konzept des Boundary Objects (Star und Griesemer 1989; Star 2010) zurück, um zu erklären, wie eine erfolgreiche Kooperation in der energieprognostischen Beratung gelingt, obwohl hier höchst unterschiedliche Akteure aufeinander treffen – kommt allerdings zu einem anderen Ergebnis als von van Egmond und Zeiss (ebd.). Innerhalb der Wissenschaftssoziologie lassen sich zwei ebenfalls sozialkonstruktivistisch geprägte Forschungsrichtungen ausmachen, die sich mit Zu-

2

An dieser Stelle sei bereits eine grundlegende begriffliche Klärung vorgenommen. Im Sprachgebrauch der Philosophie impliziert der Begriff „Wissen“ im Allgemeinen, dass eine fragliche Aussage auch wahr ist (vgl. Ichikawa und Steup 2013). Dies ist in der Soziologie nicht zwangsläufig der Fall, denn hier geht es im Allgemeinen um die sozialen Bedingungen, unter denen etwas als Wissen anerkannt wird – und dies setzt dessen Wahrheit nicht voraus (vgl. Schützeichel 2007). Die vorliegende Arbeit verwendet den Begriff „Wissen“ im zweiten Verständnis. Insbesondere wird hier zwar angenommen, dass Modellierer beanspruchen, ihre Begründungen auf wahre Prämissen zu gründen. Ob dies jedoch tatsächlich der Fall ist, wird nicht untersucht.

34 | M ODELLIERTE Z UKUNFT

kunftswissen und Unsicherheit befassen und die einen erweiterten Rahmen für die vorliegende Arbeit darstellen. Dies ist zum einen die sich jüngst formierende Soziologie des wissenschaftlichen Nichtwissens (Wehling 2001) und zum anderen die ebenfalls junge Soziologie der Erwartungen (Borup et al. 2006). Die Soziologie des wissenschaftlichen Nichtwissens setzt an der Diagnose an, dass die Generierung von Wissen immer auch Nichtwissen hervorbringt, wobei Nichtwissen in grober Näherung mit unsicherem Wissen gleichgesetzt werden kann.3 Ein zentraler Ausgangspunkt, der in der Diagnose der reflexiven Modernisierung wurzelt, besteht darin, dass gerade die Wissenschaft in modernen Gesellschaften eine zentrale Rolle bei dieser Produktion von Nichtwissen einnimmt. Diese Forschungsrichtung der Soziologie fragt dann danach, wie genau diese Produktion einerseits vonstattengeht und wie andererseits in der Gesellschaft mit Nichtwissen umgegangen wird (Wehling 2001). Die Generierung von Szenarien mit Hilfe von Computermodellen kann gerade als eine spezifische Form der Generierung von Nichtwissen aufgefasst werden, sodass die vorliegende Arbeit als ein empirischer Beitrag zur Soziologie wissenschaftlichen Nichtwissens gelesen werden kann. Gleichwohl muss aus Umfangsgründen im Folgenden darauf verzichtet werden, die Ergebnisse der Analyse im Detail in Beziehung zu Forschungsergebnissen der Soziologie wissenschaftlichen Nichtwissens zu setzen. Ganz ähnlich verhält es sich mit der Soziologie der Erwartungen, die ebenfalls Teil des erweiterten Rahmens der vorliegenden Arbeit ist. Ausgangspunkt dieser Forschungsrichtung ist die Diagnose, dass zukunftsbezogene Vorstellungen, Visionen und Erwartungen, seien sie in Texten sprachlich geäußert oder etwa auch in technische Artefakte eingeschrieben, maßgeblich die gesellschaftliche Entwicklung insgesamt, vor allem aber ihre technologische und wissenschaftliche Entwicklung strukturieren (Brown, Rappert und Webster 2000; Borup et al. 2006). Fasst man energieprognostische Gutachten als Träger solcher Erwartungen auf, so bietet die Soziologie der Erwartungen vor allem eine fruchtbare Perspektive für die Analyse der Wirkung dieser Gutachten in unterschiedlichen sozialen Kontexten, die allerdings nicht im Fokus der vorliegenden Arbeit steht. Der konkrete Gegenstand der Energiemodellierung sowie der Erstellung von Energieszenarien und -prognosen ist bisher nur vereinzelt in der Wissenschaftsforschung untersucht worden. Wie eingangs geschildert wurde, ist es gerade das Anliegen der vorliegenden Arbeit, diesen zu erschließen. Eine wichtige Vorarbeit, die sich ihm aus einer politikwissenschaftlich geprägten Perspektive zuwendet, ist ein Sammelband von Baumgartner und Midttun (1987b). Anhand

3

Im Detail siehe Wehling 2006: 472f.

S TAND

DER

F ORSCHUNG

| 35

von Fallstudien wird in diesem Band ein Vergleich von Westeuropa und Nordamerika hinsichtlich der jeweiligen institutionellen und machtpolitischen Aspekte der jeweiligen modellgestützten Energieprognostik durchgeführt. Hierzu wird der Versuch unternommen, den Modellierungsprozess selbst zu modellieren (Baumgartner und Midttun 1987c). Die vorliegende Untersuchung übernimmt diese Perspektive, indem der Erstellungsprozess von Energieszenarien rekonstruiert wird. Der Beitrag von Diefenbacher und Johnson (1987) im genannten Band stellt außerdem insofern eine wichtige Vorarbeit dar, als von ihnen dieselbe wissenschaftliche Community untersucht wird wie in der vorliegenden Arbeit. Der Beitrag ermöglicht so einen historischen Einblick in die Community und ihre Praxis. Hinsichtlich der Kernkonzepte Modell, Prognose („forecast“) und Szenario bleibt der Text jedoch analytisch unscharf. Indem die vorliegende Arbeit gerade diese Klärung ins Zentrum rückt, erweitert sie die Analyse von Diefenbacher und Johnson (ebd.). Einen ersten Schritt in der Analyse von Energieszenarien sowohl aus Sicht ihrer Erstellung mittels Modellen als auch hinsichtlich ihrer Verwendung und Bewertung stellt Dieckhoff et al. (2011) dar. Hinsichtlich der spezifischen Fragestellung der vorliegenden Arbeit liefert Grunwald (2011a) eine wichtige Vorarbeit, da er das zuvor angesprochene Beliebigkeitsproblem als eine drängende Problemlage der derzeitigen Praxis der Erstellung und Verwendung von Energieszenarien skizziert. Dieses besteht demnach im Kern darin, dass heute eine Vielzahl von energieprognostischen Gutachten vorliegt, die scheinbar widersprüchliche Angaben zur zukünftigen Entwicklung des Energiesystems machen (ebd.: 824 f.). Die vorliegende Untersuchung hinterfragt zunächst, ob diese Gutachten überhaupt miteinander vergleichbar sind, indem etwa untersucht wird, ob tatsächlich immer Möglichkeitsaussagen begründet werden. Darauf aufbauend wird das Beliebigkeitsproblem präziser als ein Problem selektiver Möglichkeiten gefasst. Grunwald leitet aus diesem Problem außerdem den dringenden Bedarf an einer systematischen erkenntnistheoretischen Analyse und Bewertung von „Energiezukünften“, darunter vor allem von Energieszenarien, ab. Diese versteht er als Beitrag zur Aufklärung und letztendlich zur Demokratisierung der derzeitigen Praxis der Erstellung und Verwendung solcher „Energiezukünfte“. Die vorliegende Arbeit stellt einen ersten Schritt einer solchen Analyse und eine Vorbereitung einer solchen Bewertung dar, da die grundlegende Struktur von Energieszenarien und -prognosen rekonstruiert wird. Damit wird ein Ansatzpunkt dafür geliefert, dem Anliegen Grunwalds nachzugehen, die epistemischen, normativen und sonstigen „Zutaten“, die in diese Gebilde eingehen, genauer zu untersuchen (ebd.: 826).

36 | M ODELLIERTE Z UKUNFT

Das Schlagwort „Szenario“ führt schließlich zu einem weiteren großen Bestand von Arbeiten, der dem Feld der futures studies untergeordnet werden kann (z.B. Wilms 2006; Gausemeier, Plass und Wenzelmann 2009; Popp und Schüll 2009). Wie Kuosa (2011) schildert, handelt es sich hierbei um ein heterogenes wissenschaftliches und außerwissenschaftliches Betätigungsfeld, dessen Mitglieder dadurch vereint werden, dass die Analyse zukünftiger Entwicklungen ein wesentliches Element ihrer individuellen Tätigkeit darstellt. Zwar identifiziert Kuosa (ebd.) unter Rückgriff auf Mannermaa (1991) die Szenario-Methode als ein zentrales Paradigma dieses Feldes, Kosow und Gaßner (2008) stellen jedoch fest, dass sowohl die Verständnisse des Begriffes als auch die mit ihm verbundenen Methoden sehr heterogen sind. Unter Rückgriff auf Grunwald (2002) und van der Heijden (1996)4 machen Kosow und Gaßner die Heterogenität an drei Vorstellungen fest, die den jeweiligen Verständnissen in unterschiedlicher Zusammensetzung zugrunde liegen. Demnach wird Zukunft mal als „berechenbar“, mal als „evolutiv“ und mal als „gestaltbar“ angesehen (ebd.: 11 f.). Für die vorliegende Arbeit sind diese Arbeiten insofern relevant, als die unterschiedlichen Verständnisse die hier durchgeführte empirische Erhebung hinsichtlich dieser Heterogenität sensibilisiert haben. Die Ergebnisse der vorliegenden Untersuchung stellen die Rekonstruktion eines spezifischen, „lokalen“ Verständnisses der Szenariomethode dar. Wie sich zeigen wird, spiegelt diese vor allem das Verständnis der Berechenbarkeit wieder. Zusammenfassend lässt sich feststellen, dass die vorliegende Arbeit die „Konstruiertheit“ von Energieszenarien und -prognosen als einen wichtigen Ausgangspunkt der Analyse nimmt. Wie im Folgenden näher erläutert wird, wird dieser Aspekt analytisch in der Weise umgesetzt, dass die Erstellungsprozesse dieser Gebilde als Interaktionsprozesse der beteiligten Akteure aufgefasst und untersucht werden. Die Arbeit spiegelt damit den beschriebenen „practice turn“ der Wissenschaftsforschung wieder. Darüber hinaus wird davon ausgegangen, dass es sich bei der untersuchten Praxis im Kern um ein epistemisches Unterfangen handelt, dessen Ziel es ist, möglichst gut begründete Aussagen zu treffen. Wie nachfolgend erläutert wird, wird diesem Aspekt Rechnung getragen, indem Energieszenarien und -prognosen als (deduktive) Argumente rekonstruiert werden.

4

Kosow und Gaßner geben auf Seite 11 „van der Heijden 2006“ als Referenz an. Eine solche Quelle fehlt jedoch in ihrem Literaturverzeichnis. An anderer Stelle wird jedoch die in der vorliegenden Arbeit angegebene Publikation von van der Heijden aus dem Jahr 1996 zitiert, sodass hier vermutet wird, dass diese gemeint ist.

S TAND

DER

F ORSCHUNG

| 37

Die Verwendung von Computermodellen und die Formulierung von Szenarien wurden in der Wissenschaftsforschung bisher weitgehend getrennt voneinander und aus unterschiedlichen Perspektiven untersucht. Zusammenfassend besteht der Beitrag der vorliegenden Arbeit darin, beides erstmals in einer systematischen Analyse als wesentliche Eigenschaften ein und derselben Praxis – der modellgestützten Erstellung von Szenarien – zu untersuchen.

3. Analytischer Rahmen

In diesem Kapitel wird der analytische Rahmen der Untersuchung beschrieben. Dieser liegt der Auswertung und Interpretation der Interviews zugrunde und strukturiert damit auch die spätere Darstellung der Ergebnisse. Zunächst wird in Abschnitt 3.1 ein Überblick über den konkret gewählten analytischen Rahmen gegeben, der sich aus der Prozessanalyse und der Argumentationsanalyse zusammensetzt. In Abschnitt 3.2 wird dann die Prozessanalyse und in Abschnitt 3.3 die Argumentationsanalyse im Detail beschrieben. Dem folgen zwei Abschnitte, die jeweils einen zentralen Begriff der Analyse einführen: In Abschnitt 3.4 wird erläutert, mit welchem analytischen Verständnis des Begriffs der Prognose in der Untersuchung operiert wird und Abschnitt 3.5 gibt an, was hier unter einem Modell verstanden wird.

3.1 Ü BERBLICK Wie in der Einleitung dargelegt und begründet, lautet die primäre Forschungsfrage der Untersuchung: Welche argumentative Struktur weisen die Gebilde auf, die in energieprognostischen Gutachten als Szenarien oder Prognosen bezeichnet werden? Die vorliegende Untersuchung konzentriert sich auf solche energieprognostischen Gutachten, die in Projekten wissenschaftlicher Politikberatung erstellt werden. Deshalb ist davon auszugehen, dass diese Gebilde durch die spezifischen Bedingungen dieses Erstellungskontextes geprägt sind. Um dem gerecht zu werden, wird als sekundäre Forschungsfrage untersucht, wie diese Gebilde in der Interaktion der beteiligten Akteure erzeugt werden. Dieses Erkenntnisziel erfordert einen Ansatz, der es erlaubt, sowohl die Struktur der Gebilde als auch ihre Erstellungsprozesse zu rekonstruieren. In der vorliegenden Arbeit werden hierfür zwei analytische Perspektiven kombiniert. Der Struktur der Gebilde wird mit einer Argumentationsanalyse nachgegangen.

40 | M ODELLIERTE Z UKUNFT

Diese wird durch eine Prozessanalyse ergänzt, mit der die Erstellungsprozesse der Gebilde rekonstruiert werden. Beide Perspektiven stellen zusammen den konzeptionellen Rahmen dar, mit dessen Hilfe die Interviews analysiert werden. Anders ausgedrückt handelt es sich hierbei also um die „analytische Brille“, durch die die Interviews betrachtet werden. Diese „Brille“ strukturiert und leitet die Interpretation der Schilderungen der Interviewten an. Ziel dieses Abschnitts ist es, die hiermit verbundenen grundlegenden Vorstellungen und Annahmen der Analyse zu beschreiben. Einen Überblick bietet Abbildung 1. Abbildung 1: Überblick über den analytischen Rahmen Argumentationsanalyse

Transportiertes Gebilde Modellauf 1 a

Prämisse 1 m(a)

Prämisse 2

Interpretation

m(x)

Konklusion 1

Prämisse 1*

Modellauf 2 a*

m(x)

Prämisse 2*

m(a*)

Interpretation Konklusion 1* Hauptkonklusion

Modellrechnungen

Argumentation im Gutachten

Festlegung der Fragestellung

Festlegung numerischer Annahmen

Durchführung der Modellrechnungen

Verfassen des Gutachtens

Wer?

Wer?

Wer?

Wer?

Rezeption (nicht untersucht)

„Lebensweg“ energieprognostischer Gutachten

Analyse des Erstellungsprozesses

Verwendung und Wirkung (nicht untersucht)

A NALYTISCHER R AHMEN

| 41

Im unteren Teil von Abbildung 1 findet sich der Erstellungsprozess eines energieprognostischen Gutachtens. Es wird in der Analyse davon ausgegangen, dass es sich hierbei um eine Sequenz einzelner Prozessschritte handelt, die in der Abbildung von links nach rechts durchlaufen werden. Diese beginnt mit der Festlegung der Fragestellung. Anschließend folgt die Festlegung der für die Modellrechnungen benötigten numerischen Annahmen, dann die Durchführung der Modellrechnungen und schließlich die Erstellung des Gutachtens. Dem liegt die Vorstellung des von Grunwald (2011b) skizzierten „Lebenswegs“ energieprognostischer Gutachten zu Grunde, wobei die Rezeption sowie die Verwendung und Wirkung energieprognostischer Gutachten in der vorliegenden Arbeit nicht untersucht wird.1 Es wird deutlich, dass sich die vorliegende Arbeit auf die Analyse der ersten Phasen dieses Lebensweges beschränkt und mit der Konzentration auf die Modellrechnungen, deren Interpretation sowie der Argumentation in den Gutachten einen Kernbestandteil dieses Lebensweges untersucht. An jedem der Prozessschritte ist mindestens einer der beiden Akteure, entweder der Modellierer oder der Auftraggeber, beteiligt. Eine weitergehende Darstellung der Prozessanalyse folgt in Abschnitt 3.2. Im oberen Teil der Abbildung ist der Gegenstand der Argumentationsanalyse dargestellt, also ein Gebilde, das in einem energieprognostischen Gutachten transportiert wird. Ein solches Gebilde wird in der vorliegenden Arbeit als ein Argument aufgefasst, in dem eine „Hauptkonklusion“ über zukünftige Sachverhalte begründet wird. Diese Begründung erfolgt in einem typischen Gutachten in mehreren Schritten. In jedem dieser Schritte wird ein Rechenlauf mit einem Computermodell durchgeführt. Dieser wird interpretiert und geht als ein „elementares“ Argument in die Gesamtargumentation ein. Wenn in einem Gutachten mehrere Szenarien präsentiert werden, so entsprechen in der Regel jedem dieser Szenarien ein solcher Rechenlauf und ein entsprechendes elementares Argument. In jedem der Rechenläufe wird ein und dasselbe Modell verwendet, jedoch die numerischen Annahmen (Input) der Rechnungen variiert, so dass auch die numerischen Ergebnisse (Output) divergieren. Im Detail wird die Argumentationsanalyse in Abschnitt 3.3 beschrieben.2

1

Grunwald unterscheidet drei Phasen dieses Lebensweges: Die Konstruktion, die Bewertung sowie die Wirkung von Energieszenarien (vgl. insb.: 21 ff.). Die Bewertung wird in Abbildung 1 jedoch nicht als eigenständige Phase wiedergegeben. Versteht man hierunter die bereits existierenden Praxen der Bewertung energieprognostischer Gutachten, so geht dies in der Rezeption der Gutachten auf.

2

Hierzu zwei Anmerkungen: Erstens berichten Energiemodellierer, dass während der Erstellung von Gutachten häufig sehr viel mehr Rechnungen durchgeführt werden, als

42 | M ODELLIERTE Z UKUNFT

Gerade in der Kombination von Argumentations- und Prozessanalyse wird nun erkennbar, inwiefern die vorliegende Arbeit ein Beispiel für die Verbindung wissenschaftsphilosophischer und -soziologischer Perspektiven darstellt (vgl. Kapitel 2). Die epistemische Unternehmung der modellgestützten Prognostik wird eben nicht als eine isolierte wissenschaftliche Praxis untersucht, sondern als eine, die aufs engste mit ihrer Anwendung in der Politikberatung verwoben ist. Es wird in der vorliegenden Arbeit also davon ausgegangen, dass die Praxis der Energieprognostik nicht am Erkenntnisgewinn alleine, sondern am anwendungsorientierten, genauer entscheidungsunterstützenden, Erkenntnisgewinn orientiert ist. Anders ausgedrückt wird also angenommen, dass die in dieser Praxis generierten Gebilde nicht nur aus epistemischen oder methodischen Gründen so beschaffen sind, wie sie beschaffen sind, sondern dass hierbei auch praktische Gründe, insbesondere die Anforderungen, die sich aus dem Beratungskontext ergeben, eine wesentliche Rolle spielen. Unter dieser Voraussetzung ist es für das primäre Erkenntnisziel der Untersuchung, Energieszenarien und -prognosen zu entschlüsseln, jedoch nicht nur sinnvoll, den Beratungskontext zu beachten. Vielmehr stellt dies eine wesentliche Voraussetzung für das Erreichen dieses Erkenntnisziels dar. Dabei ist wichtig zu betonen, dass in der vorliegenden Untersuchung die Hinwendung zu praktischen Aspekten nicht als eine Abkehr von traditionellen wissenschaftstheoretischen Fragen, wie die der Repräsentationalität von Modellen, verstanden wird. Vielmehr wird hier die Ansicht vertreten, dass die untersuchte Praxis der Energieprognostik nur dann verstanden werden kann, wenn diese Fragen weiterhin beachtet werden. Dies bedeutet insbesondere, dass davon ausgegangen wird, dass Energiemodelle ein reales Zielsystem repräsentieren sollen und dass sie auf diesen Zweck hin entwickelt werden. Außerdem wird angenommen, dass die Modellierer versuchen, rational auf Grundlage der Modellergebnisse zu argumentieren, sie also insbesondere versuchen, epistemischen Unsicherheiten in ihren Schlussfolgerungen Rechnung zu tragen.

dann in der Studie interpretiert werden. Diesen Aspekt vernachlässigt die vorliegende Untersuchung. Zweitens geht die Untersuchung nicht näher auf die Interpretation sogenannter Ensemble-Studien ein, in denen unterschiedliche Modelle zur Berechnung von Szenarien mit gleichen numerischen Annahmen verwendet werden. So wird beispielsweise nicht näher untersucht, welche spezifischen Schlussfolgerungen in den Modellexperimenten des Forums für Energiemodelle und Energiewirtschaftliche Systemanalysen (vgl. Abschnitt 4.1.3) begründet werden, und ob diese gerechtfertigt sind.

A NALYTISCHER R AHMEN

| 43

3.2 P ROZESSANALYTISCHE P ERSPEKTIVE Energieprognostische Gutachten werden in Beratungsprojekten erstellt, für deren Bearbeitung ein oder mehrere wissenschaftliche Institute von einer oder in seltenen Fällen auch mehreren außerwissenschaftlichen Organisationen beauftragt werden, wobei im Folgenden vereinfachend jeweils von einem Institut bzw. einer Organisation gesprochen werden wird. Am Prozess der Erstellung sind Personen beider Seiten beteiligt, die im Folgenden als Akteure bezeichnet werden, wobei vereinfachend sowohl auf Seiten des auftragnehmenden Institutes als auch auf Seiten der auftraggebenden Organisation von einem einzigen Akteur ausgegangen wird. Auf der Seite der auftragnehmenden Organisation ist dies der Modellierer. Bereits vor der Erhebung hat sich gezeigt, dass dieser in aller Regel auch der Autor des Gutachtens ist, es wird aber im Folgenden einheitlich die Bezeichnung „Modellierer“ verwendet. Auf Seiten der auftraggebenden Organisation wird der Akteur als „Auftraggeber“ bezeichnet. Generell knüpft die Untersuchung an den Befund einer funktional differenzierten Gesellschaft an, wonach sich für moderne Gesellschaften unterschiedliche gesellschaftliche Teilbereiche mit je spezifischen Handlungslogiken unterscheiden lassen (vgl. Schimank 2005). Weingart und Lentsch (2008: 16 f.) beschreiben diese Handlungslogiken vereinfachend für die hier relevanten Teilbereiche der Politik und der Wissenschaft. Demnach ist die Politik an „Machterhalt“ orientiert und beurteilt Wissen nach rein strategischen Gesichtspunkten, während Wissenschaft sich an der „Richtigkeit“ des Wissens orientiert. Eine wichtige Vorüberlegung der Analyse ist, dass die beiden an der Erstellung energieprognostischer Gutachten beteiligten Akteure aus diesen beiden gesellschaftlichen Teilbereichen entstammen und sich ihre Anforderungen an die Gutachten im Kern an den Handlungslogiken ihrer gesellschaftlichen Teilbereiche orientieren. Den Überlegungen Weingarts und Lentschs (2008: 49 f.) folgend, ist eine wesentliche Anforderung im Falle des Modellierers die Sicherstellung, dass das Beratungsprojekt und seine Ergebnisse den Anforderungen seiner wissenschaftlichen Community genügen. Anders gesagt wird hier also angenommen, dass sein primäres Ziel darin besteht, die Validität des Prozesses und der Ergebnisse sicherzustellen.3 Im Falle des Auftraggebers besteht die Anforderung darin, dass

3

Wie in Abschnitt 4.1.1 beschrieben wird, konzentriert sich die vorliegende Arbeit auf Modellierer bzw. Institute, die aktiv am wissenschaftlichen Diskurs teilnehmen und schließt solche aus, die dies nicht tun. Die Sicherstellung der Validität wird hier deshalb als zentrale Anforderung untersucht. Sie stellt aber nicht die einzige Anforderung

44 | M ODELLIERTE Z UKUNFT

seine Fragestellung in einer Weise beantwortet wird, die die Antwort für seine Zwecke verwertbar macht. Es wird also angenommen, dass für den Auftraggeber das Kriterium der Relevanz der Ergebnisse im Vordergrund steht. Ein Beratungsprojekt ist dann erfolgreich abgeschlossen, wenn beide Seiten ihre Anforderungen erfüllt sehen, so dass die wesentliche Aufgabe der Interaktion der beiden Akteure gerade darin besteht, dies sicherzustellen.4 Um herausfinden zu können, wie dies gelingt, wird der Interaktionsprozess entlang wesentlicher Prozessschritte rekonstruiert, wobei dem Grunwalds (2011b) Vorstellung eines „Lebensweges“ energieprognostischer Gutachten zugrunde gelegt wird. Wesentliche Aufgabe der Prozessanalyse ist es, erstens zu untersuchen, ob die Prozessschritte der Erstellung der Gutachten der Beschreibung der Interviewten nach tatsächlich strikt sequenziell durchlaufen werden. Wie sich zeigen wird, ist dies nicht immer der Fall, da in unterschiedlicher Form iterative Verknüpfungen der einzelnen Schritte sichtbar werden. Zweitens muss die prozessanalytische Analyse klären, wie diese einzelnen Schritte im Einzelnen durchgeführt werden und wer diese Schritte durchführt. Eng mit der Frage der Sequenzialität oder Iterativität des Prozesses ist die Frage verbunden, ob und inwiefern die Akteure im Prozess voneinander getrennt oder interaktiv verknüpft agieren. Dabei werden in der Analyse zur groben Einordnung drei Grade der Trennung unterschieden. Bei starker Trennung ist der Auftraggeber jenseits einer Beteiligung an der Festlegung der Fragestellung nicht an der Erstellung der Gutachten beteiligt. Bei schwacher Trennung ist der Auftraggeber zwar in den Erstellungsprozess eingebunden, indem er bestimmte Prozessschritte gemeinsam mit dem Modellierer durchführt, hat aber weiterhin keinen direkten Zugriff auf das Modell. Keine Trennung liegt vor, wenn der Auftraggeber an allen Prozessschritten beteiligt ist und insbesondere direkten Zugriff auf das Modell hat. Die Dimension der Sequenzialität bzw. Iterativität wird in Abschnitt 6.1 zusammen mit der Dimension der Trennung der Akteure

dar, mit der Modellierer konfrontiert sind. So ist sicherlich besonders für Institute ohne Grundfinanzierung die kosteneffiziente Gestaltung der Beratungsprojekte ebenfalls wichtig. Diese Aspekte werden jedoch nicht näher untersucht. 4

Weingart und Lentsch unterscheiden in diesem Zusammenhang allerdings „epistemische“ und „politische Robustheit“, und zwar nicht nur als Anforderungen an, sondern auch als Qualitätskriterien von Beratungswissen. Sie gehen also noch einen Schritt weiter, indem sie Kriterien guten Beratungswissens kennzeichnen, während es in der vorliegenden Betrachtung mit der Unterscheidung von Validität und Relevanz zunächst nur um für beide Seiten „funktionierendes“ Beratungswissen geht.

A NALYTISCHER R AHMEN

| 45

zur Kennzeichnung der unterschiedlichen rekonstruierten Prozesstypen verwendet werden.

3.3 A RGUMENTATIONSANALYTISCHE P ERSPEKTIVE Die Argumentationsanalyse hat die Aufgabe, die argumentative Struktur energieprognostischer Gutachten auf Basis der Beschreibungen der Modellierer zu rekonstruieren. Hierdurch wird es ermöglicht, die von den Modellierern intendierte argumentative Struktur der Gutachten sichtbar zu machen. Wie in 4.3.3 näher beschrieben wird, ist dabei insbesondere unklar, was im Einzelnen für eine Aussage getroffen wird, wenn die Modellierer von einem „Szenario“ oder einer „Prognose“ sprechen. Zweitens ist zu klären, welche Prämissen zur Begründung dieser Konklusionen angeführt werden. Dabei ist insbesondere zu untersuchen, wie das Modell, die numerischen Annahmen sowie die numerischen Ergebnisse interpretiert werden und als Prämissen in diese Begründung eingehen. Prämissen und Konklusionen sowie die logischen Beziehung unter ihnen bilden zusammen ein Argument. Ihre Analyse ist damit eine klassische Fragestellung der Argumentationsanalyse, wie sie in der analytischen Philosophie eingesetzt wird. Die vorliegende Untersuchung orientiert sich bei der Rekonstruktion von Argumenten konkret an Brun und Hirsch Hadorn (2009). Ein Argument zu rekonstruieren bedeutet demnach, die für ein Argument relevanten Passagen zu identifizieren, diese als klare Aussagen zu reformulieren und schließlich so zu ordnen, dass ihre logische Beziehung deutlich wird (ebd.: 205 f.). Die Standardform, in der die rekonstruierten Argumente dargestellt werden, ist die des Schlusses. Diese zeichnet sich dadurch aus, dass ein Argument als Folge von Aussagen formuliert wird, „wobei die letzte Aussage die Konklusion“ und „die übrigen Aussagen die Prämissen sind“ (ebd.: 204). Zwar schildern Brun und Hirsch Hadorn dieses Vorgehen vor allem für die Analyse des geschriebenen Wortes, wie die vorliegende Untersuchung zeigt, lässt sich das Vorgehen aber auf die Analyse von Interviews, also auf das gesprochene Wort übertragen. In der vorliegenden Arbeit wird die Argumentationsanalyse für die Auswertung der Interviews eingesetzt. Die Gespräche selbst werden ohne explizite Verweise auf Argumentationstheorie und Logik geführt, um die nötige Offenheit der Gespräche sicher zu stellen (vgl. Abschnitt 5.5). Da die empirische Grundlage Interviews sind, unterliegt die Rekonstruktion von Argumenten jedoch den Einschränkungen, die bei der qualitativen Inhaltsanalyse von Interviews generell zu beachten sind: Da es um die Aufdeckung der für die Modellierer grundlegenden Überzeugungen geht, können belastbare In-

46 | M ODELLIERTE Z UKUNFT

terpretationen ihrer Äußerungen sich nicht auf isolierte Sätze oder beiläufig geäußerte Bemerkungen stützen. Vielmehr gilt es, diese Überzeugungen aus mehreren Schilderungen zu erschließen, die idealerweise in unterschiedlichen Zusammenhängen geäußert wurden. Wenn in Kapitel 6 bei der Ergebnisdarstellung also einzelne Textpassagen aus den Interviews zitiert werden, dann basieren die daran anschließenden Rekonstruktionen auch auf weiteren Schilderungen und dem Kontext, in dem diese Passage steht. Die zitierten Passagen haben illustrativen Charakter, da gerade solche ausgewählt werden, die einen Gedanken besonders deutlich zum Ausdruck bringen. Außerdem ist zu beachten, dass die Analyse zwar an den Schilderungen einzelner Modellierer und damit ihren individuellen Überzeugungen ansetzt, hier aber nicht stehen bleibt. Vielmehr ist es das Ziel der Analyse, durch einen systematischen Vergleich der Interviews zu rekonstruieren, welche grundlegenden Überzeugungen von den ausgewählten Interviewten geteilt werden. Durch die kontrollierte Fallauswahl (vgl. Abschnitt 5.1) wird außerdem plausibel gemacht, dass diese „lokal“ geteilten Überzeugungen prägend in der untersuchten Community und damit instruktiv für die weitere Analyse sind. Bei der Argumentationsanalyse der Interviews ist die Untersuchung mit zwei Herausforderungen konfrontiert, die generell bei der Rekonstruktion von Argumenten auftritt. Erstens müssen relativ unscharfe und teilweise widersprüchliche Äußerungen der Interviewten als Aussagen rekonstruiert werden. Dies gilt zwar bei jeder Argumentationsanalyse von Texten, erfordert jedoch in der Analyse des gesprochenen Wortes eine besondere Sorgfalt. Zweitens gilt es, die logische Beziehung dieser Aussagen in Argumenten zu verstehen, und auch hier ist die Argumentationsanalyse häufig mit Mehrdeutigkeiten konfrontiert. Beiden Herausforderungen wird in der vorliegenden Arbeit mit dem Prinzip der wohlwollenden Interpretation begegnet. Dies besagt, dass sich der Interpret mit der Grundannahme an den zu analysierenden Text bzw. das Interview nähert, dass der Autor bzw. Interviewte „im Wesentlichen zutreffende Aussagen und stimmige Begründungen vorbringt“ (Brun und Hirsch Hadorn 2009: 12). Bei der Rekonstruktionsarbeit wird deshalb die Argumentation in einem Text bzw. Interview zunächst „so stark wie möglich“ (ebd.: 13) gemacht, bevor sie anschließend sinnvoll kritisiert werden kann. Unscharfe Formulierungen der Interviewten werden also im Folgenden im Zweifelsfall zu Gunsten der von ihnen vertretenen Position interpretiert. Ein kritischer Aspekt ist – wie in jeder Argumentationsanalyse – das Problem, dass vorgefundene, natürlich-sprachliche Argumente formal ungültig sein können, etwa weil Prämissen implizit bleiben. Auch in der vorliegenden Arbeit werden in diesen Fällen die impliziten Prämissen ergänzt. Sie erlauben es einer-

A NALYTISCHER R AHMEN

| 47

seits, die gesamte Struktur der rekonstruierten Argumente analysieren zu können, und markieren gleichzeitig kritische Punkte in den Argumenten. Gerade diese ergänzten Prämissen sind in weiteren Untersuchungen sorgfältig zu überprüfen. Die Argumentationsanalyse erfolgt in drei Schritten: Im ersten Schritt wird untersucht, wie die Modellierer einen einzelnen Rechenlauf interpretieren. Die Vorannahme ist, dass in einem Gutachten jedes als „Szenario“ oder „Prognose“ bezeichnete Gebilde als ein eigenständiges (Teil-)Argument rekonstruiert werden kann. Hintergrund für diese Annahme ist der Befund, dass mit jedem Szenario eine eigenständige These verbunden ist und dass diese durch einen zugehörigen Rechenlauf spezifisch begründet wird. Beides zusammen genommen ergibt gerade ein Argument. Das Ergebnis einer Rekonstruktion der Interpretation eines einzelnen Modelllaufes wird im Folgenden als elementares Argument bezeichnet. Im zweiten Schritt wird untersucht, inwiefern die Modellierer weitergehende Schlussfolgerungen aus der Interpretation mehrerer Modellläufe eines Gutachtens ziehen. Um zu kennzeichnen, dass davon ausgegangen wird, dass die Modellierer hierbei auf die elementaren Argumente zurückgreifen, wird das Ergebnis einer solchen Rekonstruktion ein komplexes Argument genannt und seine Konklusion als Hauptkonklusion bezeichnet werden. Hintergrund für dieses Vorgehen ist die Struktur der Gutachten: In ihnen werden in der Regel hintereinander mehrere Rechenläufe präsentiert. In einem Schlusskapitel wird häufig ein Vergleich derselben vorgenommen und hieraus Schlussfolgerungen abgeleitet. Die Ausgangsvorstellung der Analyse ist also, dass ein komplexes Argument im Prinzip aus der Zusammenfügung der Interpretationen mehrerer Rechenläufe besteht. Wie geschildert wurde, wird in der Argumentationsanalyse neben den numerischen Annahmen auch das Modell als eine von zwei zentralen Referenzen in den Schilderungen der Modellierer näher untersucht. In der Rekonstruktion der Argumente (Abschnitte 6.2 und 6.3) wird zunächst angenommen, dass das Modell jeweils von den Modellierern als empirisch adäquate Repräsentation des Zielsystems angesehen wird, ein Begriff, der in Abschnitt 3.5 eingeführt wird. Anschließend wird diese Annahme gezielt hinterfragt, indem untersucht wird, welchen Anspruch die Modellierer tatsächlich in den Interviews mit ihren Modellen erheben (Abschnitt 6.4).

48 | M ODELLIERTE Z UKUNFT

3.4 D ER B EGRIFF

DER P ROGNOSE IM ANALYTISCHEN R AHMEN

Energiemodellierer treffen in ihren Gutachten Aussagen über Zukünftiges. Sie tun dies jedoch in unterschiedlicher Weise, und die Untersuchung soll gerade zeigen, worin diese Unterschiede bestehen. Hierzu ist es notwendig, eine analytische Unterscheidung zu explizieren, die im Vorangegangenen bisher stillschweigend vorausgesetzt wurde: Zu unterscheiden sind deterministische von possibilistischen Prognosen. Zuvor sei jedoch kurz geklärt, wie der Begriff „Prognose“ in der vorliegenden Untersuchung als Teil des analytischen Vokabulars verwendet wird: Als eine Prognose wird eine Aussage über einen in der Zukunft liegenden Zustand der Welt oder über eine in der Zukunft stattfindende Entwicklung (gedacht als eine Abfolge von Zuständen) bezeichnet. Dabei können diese Aussagen sowohl kategorisch als auch konditional formuliert werden. In einer konditionalen Prognose wird das Eintreten eines (zukünftigen) Zustandes – als Konsequens bezeichnet – von der Erfüllung einer Bedingung – als Antezedens bezeichnet – abhängig gemacht, während eine kategorische Prognose als ein einfacher Aussagesatz ohne Bedingung formuliert ist. Kombiniert man in einem Argument eine konditionale Prognose mit einer kategorischen Prognose für deren Antezedens, so lässt sich eine kategorische Prognose für ihr Konsequenz schlussfolgern (vgl. Betz 2006: 8 f.). Bei diesem Schluss handelt es sich um eine zentrale Schlussweise in der computergestützten Prognostik, wie die Analyse zeigen wird. In der Untersuchung wird nun davon ausgegangen, dass die Beschreibungen der Modellierer genau zwei unterschiedliche Typen von Prognosen zum Ausdruck bringen: Immer wenn Aussagen darüber formuliert werden, wie das Energiesystem, die Volkswirtschaft, die Emissionen und dergleichen „mit Sicherheit“, „am wahrscheinlichsten“ etc. aussehen wird, und meistens, wenn die Modellierer selbst von „Prognosen“ sprechen, wird angenommen, dass deterministische Prognosen formuliert werden. Immer wenn hingegen von „möglichen“ Entwicklungen und meistens, wenn von „Szenarien“ die Rede ist, werden diese Äußerungen als possibilistische Prognosen, also Möglichkeitsaussagen über die Zukunft interpretiert. Die Einschränkungen, die in beiden vorangegangenen Sätzen mit „meistens“ eingeleitet werden, bringen zum Ausdruck, dass einzelne Interviewte die Begriffe „Szenario“ und „Prognose“ anders verwenden. Was dann jeweils gemeint ist, erschließt sich jedoch aus dem Kontext. Wo nötig, wird dies in der Ergebnisdarstellung erläutert. Mit einer deterministischen Prognose wird ausgedrückt, dass das Prognostizierte mit Sicherheit der Fall ist oder sein wird. Nach allem, was wir wissen,

A NALYTISCHER R AHMEN

| 49

kann es nicht anders kommen, als behauptet wird. Ein prominentes Beispiel eines energieprognostischen Gutachtens, das diese Art von Aussagen trifft, ist die periodisch veröffentlichte so genannte „Referenzprognose“ im Auftrag des Bundeswirtschaftsministeriums. In der Ausgabe von 2005 (EWI und Prognos AG 2005) wird etwa als ein Ergebnis diese deterministische Aussage getroffen: „Der Anteil erneuerbarer Energien am Primärenergieverbrauch steigt von 3,4 % in 2002 auf 11,5 % in 2030.“ (ebd.: VII).5 Unter einer possibilistischen Prognose wird dagegen eine Aussage darüber verstanden, dass etwas zu einem zukünftigen Zeitpunkt möglicherweise der Fall sein wird. Der von Betz (2010) unter Bezugnahme auf Levi (1980) eingeschlagenen Interpretation folgend, wird dabei mit „möglich“ zum Ausdruck gebracht, dass die Behauptung konsistent mit dem relevanten Hintergrundwissen ist. Anders gesagt: die Behauptung steht nicht im Widerspruch zum jeweiligen Hintergrundwissen. Trifft das Prognostizierte nicht ein, folgt in diesem Fall nicht unbedingt, dass das Hintergrundwissen falsch ist. Die Autoren eines Gutachens des Sachverständigenrats für Umweltfragen (SRU 2010), das unter anderem die Frage beantworten will, ob „eine Vollversorgung durch erneuerbare Energien im Strombereich für Deutschland technisch möglich [ist]“ (ebd.: 6), kommen etwa zu dem Ergebnis, dass „die vorgestellten Szenarien [...] zeigen, dass eine vollständig regenerative Stromversorgung in Deutschland in unterschiedlichen Varianten möglich ist.“ (Ebd.: 83) Diese Aussage kann so interpretiert werden, dass die Realisierung einer solchen Stromversorgung konsistent mit dem Wissen der Autoren darüber ist, wie das Energiesystem technisch gebaut und betrieben werden kann. Das Beispiel macht deutlich, dass die Frage, auf welches Wissen sich im Einzelfall genau bezogen wird, zentral für die Analyse konkreter Gutachten ist. Wiederum Betz (2010) folgend lässt sich zusammenfassen, dass die Unterscheidung von deterministischen und possibilistischen Aussagen den jeweiligen epistemischen Status (epistemic mode) der Aussagen und gleichzeitig des Hin-

5

Dabei ist die Formulierung einer Aussage im Indikativ noch kein eindeutiger Hinweis darauf, dass eine deterministische Prognose getroffen wird. Denn diese Art der Formulierung findet sich auch in vielen Gutachten, die – typischer Weise im Einleitungsteil – deutlich machen, dass sie lediglich Möglichkeitsaussagen treffen wollen. Im Fall der zitierten Studie kommt jedoch hinzu, dass sie von ihren Autoren klar von Szenarien abgegrenzt wird, und dass angegeben wird, die Ergebnisse würden die „wahrscheinliche Entwicklung des Energiesektors“ (ebd.: XIII) zeigen. Dies kann nach Ansicht des Autors nur als der Versuch einer deterministischen Prognose verstanden werden.

50 | M ODELLIERTE Z UKUNFT

tergrundwissens, auf dem sie basieren, markiert. Betz setzt hierbei allerdings unter Rückgriff auf Knight (1921) bei einer Dreiteilung an, in der auch probabilistische Aussagen – verstanden als Wahrscheinlichkeitsaussagen – unterschieden werden. Da sie in verwandten Forschungsfeldern, allen voran der Klimaforschung, eine zentrale Rolle spielen, stellt sich die Frage, wieso diese Variante von Zukunftsaussagen in der vorliegenden Arbeit keine Rolle spielt. Dies ist empirisch begründet. Eine Schlagwortsuche innerhalb der ungefähr 60 Gutachten, die im Rahmen der vorliegenden Untersuchung grob analysiert wurden (vgl. Abschnitt 4.2), ergab, dass zwar das Wort „wahrscheinlich“ in einer Reihe von Gutachten verwendet wird, damit aber in vielen Fällen keine dezidierten Wahrscheinlichkeitsaussagen getroffen werden. So wird beispielsweise in Nitsch (2008) angegeben, dass die untersuchten Szenarien „die wahrscheinliche Bandbreite der zukünftigen Entwicklung der Energieversorgung“ (ebd.: 7) beschreiben. In der Studie wird diese Wahrscheinlichkeit aber in keiner Weise näher qualifiziert. Im Gegenteil heißt es an anderer Stelle, dass „in der Leitstudie […] zwei Szenariengruppen […] modelliert [wurden; CD], welche die Bandbreite eines möglichen Entwicklungskorridors aufzeigen.“ (Ebd.: 29). Dies legt nahe, dass die Szenarien als Möglichkeitsaussagen verstanden werden. In vielen Gutachten finden sich ähnliche Verwendungsweisen des Wortes „wahrscheinlich“, und auch in diesen Fällen deutet wenig darauf hin, dass hierbei Wahrscheinlichkeitsaussagen im engeren Sinne getroffen werden. Die Gutachten vermitteln darüber hinaus den Eindruck, dass es sich hierbei manchmal um eine rhetorische Figur handelt, die den Anschein einer größeren Geltungskraft der Gutachten erwecken soll. Manchmal handelt es sich jedoch scheinbar auch um den Versuch, einen epistemischen Status zu benennen, der zwischen einer Möglichkeits- und einer Wahrscheinlichkeitsaussage angesiedelt ist. Dieses Phänomen ist dem Autor der vorliegenden Arbeit auch in Gesprächen mit Energiemodellierern außerhalb der Interviews begegnet. In solchen Kontexten finden auch Ausdrücke wie „wahrscheinliche Möglichkeiten“ oder „plausible Möglichkeiten“ Anwendung. Dabei scheint der Versuch unternommen zu werden, mehr als nur Möglichkeitsaussagen angeben zu wollen. Die Überlegungen von Betz (2010: 88) weitergeführt, besteht eine mögliche Interpretation darin anzunehmen, dass Modellierer mit Bezeichnungen wie „wahrscheinliche Möglichkeit“ die von ihnen beschriebenen Möglichkeiten von nur begrifflichen Möglichkeiten abgrenzen wollen. Begriffliche Möglichkeiten sind solche, die sich nur aus der Bedeutung der von uns verwendeten Begriffe ergeben, ohne jedoch auf (kontingentes) Wissen über die Welt angewiesen zu sein. Anders gesagt ist all das begrifflich möglich, was begrifflich widerspruchfrei ist. So wäre es beispielsweise begrifflich möglich, verlustfreie Kraftwerke zu

A NALYTISCHER R AHMEN

| 51

bauen. Unser (kontingentes) Wissen über physikalische Gesetzmäßigkeiten und technische Systeme sagt uns jedoch, dass dies in der physikalischen Realität nicht möglich ist. Dieser letzte Satz bringt gerade wieder ein relatives Verständnis des Möglichkeitsbegriffes zum Ausdruck. Damit erscheint es plausibel, dass Energiemodellierer mit den genannten Bezeichnungen die von ihnen beschriebenen Möglichkeiten gerade als relative Möglichkeiten kennzeichnen und von begrifflichen Möglichkeiten abgrenzen wollen, nach denen fast alles möglich wäre. In Ausnahmen finden sich darüber hinaus auch energieprognostische Gutachten, in denen tatsächlich der Versuch unternommen wird, Wahrscheinlichkeitsaussagen über bestimmte zukünftige Ereignisse zu treffen. Ein prominentes Beispiel ist die DENA Netzstudie I (DEWI et al. 2005), in der die Berechnung der gesicherten Leistung des Kraftwerksparks auf Grundlage von Wahrscheinlichkeitsverteilungen für die Einspeisung aus thermischen Kraftwerken und Windenergieanlagen erfolgt (ebd.: 238 ff.). Ein weiteres Beispiel ist eine Studie von Linßen et al. (2006), in der Szenarien für die zukünftige Energieversorgung mit Fokus auf Technologien des Carbon Capture and Storage untersucht wurden. Das Besondere an dieser Studie ist, dass hier versucht wird, mit Hilfe von Monte-Carlo-Simulationen für bestimmte unsichere Parameter, wie etwa den Brennstoffpreis, Eintrittswahrscheinlichkeiten für unterschiedliche numerische Werte dieser Annahmen zu bestimmen (insb. ebd.: 61 ff.). In Summe kann jedoch festgestellt werden, dass Gutachten, in denen explizite Wahrscheinlichkeitsaussagen getroffen werden und auch erkennbar ist, dass hierbei bestimmte Methoden zugrunde gelegt werden, die Ausnahme bilden. Dies bestätigte sich auch in den Interviews. So erläuterte beispielswiese Hans Wagenfurth, dass er zwar sehr gerne Wahrscheinlichkeitsanalysen mit seinem Modell durchführen würde, hierfür aber aufgrund des damit verbundenen enormen Aufwandes keine ausreichende Finanzierung bekommen würde.

3.5 D ER B EGRIFF

DES M ODELLS IM ANALYTISCHEN R AHMEN

Das Computermodell stellt das zentrale Element sowohl im Erstellungsprozess als auch in der Argumentation energieprognostischer Gutachten dar. Im Folgenden wird erläutert, welche analytische Perspektive sich speziell für die Beschreibung und Analyse des Modells aus den vorherigen Erläuterungen und weiteren Überlegungen ergibt. Wie im Anschluss erläutert wird, wird in der Untersuchung mit dem Begriff Modell ein Computerprogramm bezeichnet, das erstens die Lö-

52 | M ODELLIERTE Z UKUNFT

sung für eine mathematische Funktion bestimmt und das zweitens als eine Repräsentation eines realen Zielsystems angesehen wird. 3.5.1 Modell als Funktion Mit dem Begriff Modell wird hier ein Computerprogramm6 bezeichnet, das eine Lösung für eine mathematische Funktion y = m(x) bestimmt. Dabei stellt die Modellfunktion m(x) eine Menge von Funktionen dar, die einen Vektor von Variablen x auf einen zweiten Vektor von Variablen y eindeutig abbildet. Der Vektor von Konstanten m(a) bezeichnet die Lösung der Funktion m(x) für einen für x gegebenen Vektor von Konstanten a, wobei a und m(a) jeweils rationale Zahlen sind. Die unabhängigen Variablen x werden auch als exogene Variablen bezeichnet und die abhängigen Variablen y dementsprechend auch als endogene Variablen. Die Konstanten a werden auch als numerische Annahmen bezeichnet und die Konstanten m(a) auch als numerische Lösung oder numerisches Ergebnis. Aufbauend auf Koch, Harnisch und Blok (2003: 113) werden die Modelle im Weiteren der Arbeit grob durch ihren Endogenisierungsgrad beschrieben, der das Verhältnis der Zahl endogener Variablen zur Zahl exogener Variablen angibt. Ist der Endogenisierungsgrad groß, so sind relativ viele endogene Variablen von relativ wenigen exogenen Variablen abhängig. Im Folgenden wird in der Darstellung vernachlässigt, dass m(x) eine Menge von Funktionen und dementsprechend x und y Vektoren von Variablen darstellen. Es wird vielmehr vereinfachend von einer Funktion m(x) gesprochen, die die Variablen x auf die Variablen y abbildet. Eindeutigkeit bedeutet in obiger Definition, dass das Computerprogramm für gegebene Annahmen a genau eine Lösung m(a) reproduzierbar generiert. Damit wird der Begriff Funktion zur Bezeichnung der effektiv im Programm realisierten Abbildungsrelation verwendet. Die Frage, wie diese Relation als mathematische Funktion dargestellt wird, ob es sich um lineare, nicht-lineare oder Differentialgleichungen handelt, und wie diese ggf. durch numerische Näherungsverfahren gelöst werden, spielt für die Fragestellung der Untersuchung keine Rolle und wird in der Analyse vernachlässigt.

6

Genauer gesagt kann es sich auch um eine Mehrzahl von Programmen handeln, die manuell gekoppelt (sog. „soft-link“) verwendet werden. Entscheidend ist, dass dieser Satz von Programmen durch den Modellierer als eine Einheit benannt wird. Die praktischen Detailfragen, die sich aus dem Einsatz manuell gekoppelter Modelle ergeben, sind jedoch nicht Gegenstand der Untersuchung.

A NALYTISCHER R AHMEN

| 53

Einer gesonderten Klärung bedarf der Begriff Modellparameter, der gelegentlich synonym zum Begriff der Variable verwendet wird. In der vorliegenden Untersuchung werden Modellparameter als eine Untergruppe exogener Variablen aufgefasst. Diese zeichnen sich dadurch aus, dass sie im prognostischen Einsatz eines Modells nicht variiert werden, sondern im Vorfeld durch ad hoc Schätzung, Kalibrierung oder statistische Schätzung bestimmt werden. Typische Modellparameter aus der Ökonomie sind Elastizitäten (vgl. etwa Welsch 1996: 67 f. oder Böhringer und Wiegard 2003). In der hier durchgeführten Analyse werden die Modellparameter in aller Regel nicht explizit ausgewiesen. 3.5.2 Modell als empirisch adäquate Repräsentation Das Modell realisiert jedoch keinen beliebigen funktionalen Zusammenhang. Vielmehr wird in der Analyse davon ausgegangen, dass die Funktion m(x) als eine Repräsentation von Eigenschaften eines bestimmten realen Zielsystems aufgefasst wird. Die im Modell definierten funktionalen Zusammenhänge werden also als eine Menge von Aussagen über die Realität angesehen. Damit stellen x und y nicht nur Variablen der Funktion m(x) dar, sondern bezeichnen reale Entitäten. Um diese Relation bezeichnen zu können, wird das jeweils Bezeichnete als reale Größe X bzw. reale Größe Y mit Großbuchstaben benannt. Einer näheren Analyse bedarf allerdings die Frage, welchen Anspruch einer Repräsentation die Modellierer genau mit ihrem Modell erheben. Dieser Frage widmet sich im Detail Abschnitt 6.4. Im Verständnis der vorliegenden Arbeit ist das Zielsystem eines Modells zum einen durch den Zuschnitt des betrachteten Realsystems bestimmt. Beispielsweise beziehen sich die hier untersuchten Modelle auf unterschiedliche geografische Ausschnitte der globalen Energieversorgung. Dies allein reicht zur Bestimmung des Zielsystems jedoch nicht aus. Zum anderen geht in diese Bestimmung ein, in welcher Hinsicht der reale Gegenstand repräsentiert werden soll. So beschreiben manche Modelle lediglich die technischen und physikalischen Eigenschaften des Energiesystems. Andere Modelle treffen zusätzlich Aussagen über die ökonomischen Eigenschaften des Energiesystems oder begreifen das Energiesystem von vorne herein als eine ökonomische Entität der Volkswirtschaft. Das Zielsystem eines Modells ist damit durch das Wissen über den realen Gegenstand und die Natur dieses Wissens bestimmt. Zu ihrer Einordnung werden diese Spezifika der Modelle in Abschnitt 5.4 in grober Weise beschrieben. Da es in der vorliegenden Arbeit jedoch im Kern um die Analyse der grundsätzlichen Struktur der Vorgehensweisen und Argumenta-

54 | M ODELLIERTE Z UKUNFT

tionen der Energiemodellierer geht, können diese Unterschiede im Hauptteil der Arbeit bei der Rekonstruktion der Prozesse und der Argumente weitgehend vernachlässigt werden. Eine Ausnahme bildet hierbei das Modell MALVE. Dieses Modell trifft lediglich Aussagen über die technischen und physikalischen Eigenschaften des Energiesystems, wird aber wie die übrigen Modelle in Gutachten eingesetzt, in denen letztendlich Entwicklungen des Energiesystems nicht nur in technischphysikalischer, sondern auch in ökonomischer Hinsicht beschrieben werden. Beim Einsatz dieses Modell ist es deshalb nötig, das Wissen über die ökonomischen Eigenschaften des Energiesystems an anderer Stelle als vermittelt durch das Modell in die Begründung eingehen zu lassen. Wie sich in Abschnitt 6.4 zeigen wird, sind dies die numerischen Annahmen für die exogenen Größen. Um das Verhältnis von Modell und Realität untersuchen zu können, wird der Analyse die Perspektive des konstruktiven Empirismus (vgl. van Fraassen 1980 sowie den Überblick in Monton und Mohler 2008) zugrunde gelegt. Bas van Fraassens Kriterium der empirischen Adäquatheit wird hier verwendet, um den Anspruch zu untersuchen, den Energiemodellierer an das Verhältnis zwischen Realität und ihrem jeweiligen Modell erheben. Abstrakt formuliert ist demnach ein Modell empirisch adäquat, wenn die relevanten beobachtbaren Phänomene in seine (empirischen) Strukturen eingebettet werden können.7 Wie Molton und Mohler (ebd.) betonen, umfasst dies nicht nur die tatsächlichen und damit vergangenen Beobachtungen, sondern auch zukünftig beobachtbare Phänomene. Für die vorliegende Untersuchung ist diese wissenschaftstheoretische Position als analytischer Rahmen sinnvoll, da mit dem Kriterium der empirischen Adäquatheit auf die Übereinstimmung eines Modells mit empirisch beobachtbaren Phänomenen abgezielt wird. Darüber hinaus beinhaltet Fraassens Verständnis auch Thesen über die Wahrheit von Theorien (ebd.), die hier jedoch vernach-

7

Im Original schreibt Bas van Fraassen: „A theory is empirically adequate exactly if what it says about the observable things and events in the world is true — exactly if it ‚saves the phenomena.‘“ (van Fraassen 1980: 12). Er bestimmt an dieser Stelle zunächst ein Kriterium für Theorien, schildert aber im Weiteren, dass eine Theorie aus einer Familie von Modellen besteht. Diese Modelle weisen wiederum bestimmte Teile – er nennt diese „empirische Substrukturen“ – auf, die Kandidaten für die direkte Repräsentation beobachtbarer Phänomene sind. Eine Theorie sei demzufolge empirisch adäquat, wenn sie ein Modell umfasst, für das gilt, dass alle relevanten Beobachtungen isomorph zu den empirischen Substrukturen dieses Modells sind (ebd.: 64; vgl auch Monton und Mohler 2008). Das Kriterium der empirischen Adäquatheit kann damit offensichtlich auch auf die Modelle selbst angewendet werden.

A NALYTISCHER R AHMEN

| 55

lässigt werden können. Für die Zwecke der Untersuchung ist es ausreichend, das Kriterium der empirischen Adäquatheit auf die folgende notwendige Bedingung des Verständnisses bei van Fraassen zu reduzieren: Ein Modell m(x) ist im Verständnis der vorliegenden Arbeit genau dann empirisch adäquat, wenn gilt: Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an. In dieser Formulierung wird die Grundidee des Einsatzes eines Computermodells für die Prognostik gut sichtbar: Innerhalb der Aussage wird eine Verknüpfung von Modellwelt und Realwelt hergestellt, indem behauptet wird, dass ein Rechenergebnis real zutreffen wird. Dabei gelingt es in der Explikation, einen für die vorliegende Untersuchung wichtigen Aspekt in Fraassens Verständnis empirischer Adäquatheit zum Ausdruck zu bringen. Damit ein Modell empirisch adäquat ist, muss es erstens notwendigerweise mit allen relevanten empirischen Beobachtungen konsistent sein. Fraassens Kriterium trifft jedoch nicht nur eine Aussage über die (in der Vergangenheit) getätigten Beobachtungen, sondern umfasst alle relevanten beobachtbaren Phänomene und gilt damit auch für zukünftige Beobachtungen. Auch dies kommt in der vorherigen Explikation zum Ausdruck und ist für die vorliegende Untersuchung zentral, da ja letztendlich Prognosen mit den Modellen begründet werden sollen. Das bedeutet insbesondere auch, dass ein Modell nur dann empirisch adäquat ist, wenn die im Modell behaupteten funktionalen Zusammenhänge auch für den zukünftigen Zeitraum gelten, über den mit dem Modell Aussagen getroffen werden sollen. Und für diese Annahme muss wiederum eine gute Begründung vorliegen. Wird im Folgenden auf das Kriterium der empirischen Adäquatheit Bezug genommen, so ist – sofern nicht anders angegeben – die zuvor explizierte notwendige Bedingung von Fraassens Verständnis gemeint. In der vorliegenden Arbeit sind zwei Arten von Modellen relevant, nämlich erstens statische Modelle und zweitens dynamische Modelle. Mit beiden sollen in der Energieprognostik zukünftige Zustände prognostiziert werden.8 Wendet man die obige Formulierung empirischer Adäquatheit zunächst auf statische Modelle an, so beziehen sich Antezedens und Konsequens des Kriteriums auf denselben Zeitpunkt t. Das Kriterium empirischer Adäquatheit lautet

8

Das Kriterium empirischer Adäquatheit ließe sich auch auf Modelle anwenden, die lediglich vergangene statische oder dynamische Wirkungszusammenhänge beschreiben sollen. Dieser Fall ist für die vorliegende Arbeit jedoch irrelevant und wird nicht näher behandelt.

56 | M ODELLIERTE Z UKUNFT

dann: Nehmen die realen Größen X zum Zeitpunkt t bestimmte Werte a an, dann nehmen die realen Größen Y zum Zeitpunkt t die Funktionswerte m(a) an. In dieser Interpretation eines Modells wird mit ihm also eine konditionale Prognose getroffen, die zeitinvariant ist. Diese wird im Folgenden auch als statische Prognose bezeichnet werden. Soll dennoch mit einem statischen Modell in einem Argument eine dynamische Entwicklung begründet werden, so muss die Dynamik über die numerischen Annahmen für die exogenen Variablen in das Argument eingehen, wie am Fall Anton Gerhard gezeigt werden wird. Wird das Kriterium empirischer Adäquatheit auf ein dynamisches Modell angewendet, so muss es in folgender Weise reformuliert werden: Nehmen die realen Größen X zum Zeitpunkt t1 bestimmte Werte a an, dann nehmen die realen Größen Y zum Zeitpunkt t2 die Funktionswerte m(a) an. Dabei liegt der im Antezedens benannte Zeitpunkt t1 vor dem im Konsequens benannten Zeitpunkt t2. Hier stellt das Kriterium empirischer Adäquatheit also eine konditionale dynamische Prognose dar.

4. Hintergründe des Gegenstandes

Wie beschrieben untersucht die vorliegende Arbeit die Erstellung energieprognostischer Gutachten mittels Computermodellen als eine spezifische Praxis, die sich in einer bestimmten wissenschaftlichen Community herausgebildet hat. Bevor im empirischen Teil der Arbeit diese Praxis im Einzelnen aufgeschlüsselt werden kann, wird hier zunächst eine Vorklärung ihrer wesentlichen Aspekte vorgenommen. Zunächst wird in Abschnitt 4.1 die hier untersuchte Community der Energieprognostik vorgestellt. Anschließend gibt Abschnitt 4.2 einen Überblick über die Vielfalt energieprognostischer Gutachten. Abschnitt 4.3 beleuchtet den Begriff des „Energieszenarios“, indem seine übliche Verwendungsweise vorgestellt und davon ausgehend erste analytische Klärungen für die Arbeit vorgenommen werden. Schließlich werden in Abschnitt 4.4 die wesentlichen Typen von Energiemodellen und damit die zentralen Instrumente der untersuchten Praxis vorgestellt.

4.1 E NERGIEPROGNOSTIK IN D EUTSCHLAND Die Beratung von Politik, Unternehmen und Organisationen der Zivilgesellschaft zu Fragen der zukünftigen Energieversorgung wird in Deutschland von sehr unterschiedlichen Einrichtungen durchgeführt. Diese Beratung jedoch auf Modellrechnungen zu gründen, ist eine Praxis, die von einer recht kleinen, gut identifizierbaren wissenschaftlichen Community ausgeübt wird. Da die vorliegende Untersuchung unterschiedliche Varianten modellgestützter Generierung von Energieszenarien aufdecken möchte, ist die Identifikation dieser Gemeinschaft sowie ein grobes Verständnis ihrer inneren Struktur eine wichtige Voraussetzung für die Fallauswahl (vgl. Abschnitt 5.3). Aus diesem Grund wird im Folgenden zunächst eine Bestimmung der Community vorge-

58 | M ODELLIERTE Z UKUNFT

nommen und diese grob im Grenzbereich zwischen den beiden gesellschaftlichen Teilbereichen der Wissenschaft und Politik verortet. Da, wie sich zeigen wird, die innere Struktur der Community im Wesentlichen auf unterschiedliche disziplinäre und damit verbundene methodische Traditionen zurückgeführt werden kann, wird im nächsten Schritt ein kurzer ideengeschichtlicher Abriss der wichtigsten Einflüsse und Entwicklungen für die Community gegeben. Zuletzt wird anhand eines bestimmten Forums die aktuelle Beschaffenheit der Community beschrieben. 4.1.1 Bestimmung der Community Innerhalb des heterogenen Feldes der Beratung zu Energiethemen finden sich einerseits Einrichtungen, die dem gesellschaftlichen Teilbereich der Wissenschaft zugerechnet werden können, und andere, die eher zum Teilbereich der Ökonomie gehören. Einrichtungen werden in der vorliegenden Arbeit dem wissenschaftlichen System zugerechnet, wenn sie aktiv am innerwissenschaftlichen Diskurs teilnehmen (etwa über die Veröffentlichung in Fachzeitschriften) und ihre Ergebnisse, gerade auch solche, die in Beratungsprojekten erlangt werden, öffentlich publizieren. Tritt eine Einrichtung dagegen im innerwissenschaftlichen Diskurs nicht auf und findet ihre Beratungstätigkeit im Wesentlichen nichtöffentlich und als kommerzielle Dienstleistung statt, so wird sie hier der Ökonomie zugerechnet. Diese Grenzziehung ist nicht ganz eindeutig, denn so finden sich Einrichtungen, die zwar in nennenswertem Umfang Unternehmensberatung als nicht-öffentliche Dienstleistung durchführen, aber dennoch intensiv am wissenschaftlichen Diskurs teilnehmen. Für den hier verfolgten Zweck der Orientierung reicht diese grobe Unterscheidung jedoch aus. Sie wird in Abbildung 2 veranschaulicht.

H INTERGRÜNDE

DES

G EGENSTANDES

| 59

Abbildung 2: Bestimmung der untersuchten Community

Wie in Abbildung 2 veranschaulicht wird, konzentriert sich die vorliegende Untersuchung auf Institute, die dem Teilbereich der Wissenschaft zugerechnet werden können. Diese Institute bilden zusammen eine wissenschaftliche Community, für die im Folgenden die Bezeichnung „energieprognostische Community“ verwendet wird. Ihre Tätigkeit besteht im wesentlich in der modellgestützten Politikberatung – neben beispielsweise der Lehre, wenn ein Institut einer Universität angehört – und wird in der vorliegenden Arbeit als „energieprognostische Praxis“ oder kurz als „Energieprognostik“ bezeichnet. Mit den genannten Festlegungen werden also insbesondere solche Einrichtungen nicht zur untersuchten Community gerechnet, die zwar modellbasierte Politikberatung betreiben, aber ihre Methoden und einen wesentlichen Teil ihrer Ergebnisse nicht der wissenschaftlichen Kritik aussetzen. Auf diesem Weg wurden 13 Institute als aktive Mitglieder der Community in Deutschland zu Beginn der Erhebung im Jahre 2008 identifiziert, die sich durch die regelmäßige Veröffentlichung von energieprognostischen Gutachten auszeichnen und hierbei in der Regel die Hauptautoren stellen. Darüber hinaus gibt es eine Reihe von Instituten, die an einzelnen Studien zu speziellen Aspekten beitragen und hier nicht zum Kern der Community gezählt werden. Auf die namentliche Nennung aller Institute muss in der Untersuchung jedoch aus Gründen der Anonymisierung verzichtet werden (vgl. Abschnitt 5.2).

60 | M ODELLIERTE Z UKUNFT

Wie im folgenden Abschnitt näher erläutert wird, lassen sich zwei Forschungstraditionen ausmachen, die die Community der Energieprognostik und ihre Praxis in besonderer Weise prägen. Dies sind zum einen die Systemanalyse und zum anderen die Makroökonomik. 4.1.2 Zur historischen Genese der Community1 Die wissenschaftliche Community der Energieprognostik vereint eine Reihe wissenschaftlicher Disziplinen und baut vor allem über die unterschiedlichen Modelle auf verschiedenen Forschungs- und Theorietraditionen auf, wie auch Koch, Harnisch und Blok (2003: 45) beschreiben. Im Folgenden werden die zwei zentralen Forschungstraditionen, die der Systemanalyse und die der Makroökonomik, knapp vorgestellt. Ziel ist es dabei nicht, eine umfassende wissenschaftshistorische Analyse zu liefern, sondern die in der Arbeit untersuchten Methoden der Energiemodellierung in ihren historischen Kontext zu stellen und so ein besseres Verständnis zu ermöglichen. Die Systemanalyse wurde in den 1940er Jahren „als wissenschaftliche Methodologie zur Analyse, Planung und Verbesserung machtpolitischer Strategien“ unter anderem an der RAND Corporation in den USA entwickelt und wird „auch heute noch häufig als Summe formaler Planungs- und Entscheidungsverfahren betrachtet“ (Epple 1979: 8, zit. n. Brinckmann 2006: 59). Wie unterschiedliche, im Folgenden genannte Autoren im Band von Hughes und Hughes (2000a) differenziert schildern, stellt die Systemanalyse das Ergebnis einer vielschichtigen Entwicklung eng verwandter Ansätze rund um den systems approach dar, zu denen auch die Ansätze operations research, systems engineering und system dynamics zählen, die in unterschiedliche gesellschaftliche Teilbereiche diffundiert sind (vgl. insb. Hughes und Hughes 2000b). Die Wurzeln des systems approach sind demzufolge im militärischen Bereich zu sehen und werden von Mindell (2000) auf die Entwicklung von automatisierten Waffensystemen während des Zweiten Weltkriegs zurückgeführt. Als eine der zentralen Institutionen der Entwicklung und Anwendung der Systemanalyse beschreiben Jardini (2000) und Levien (2000) die RAND Corporation, die 1960 als ein von der U.S. Air Force finanziertes Projekt beim Rüstungsbetrieb Douglas Aircraft gegründet wurde. Während des Kalten Krieges avancierte sie zu einem weltweit einflussreichen Think Tank und befasste sich zunächst in erster Linie mit militärisch-strategischen Problemen. Zentrale Methoden der heutigen Ener-

1

Dieser Abschnitt basiert zum Teil auf dem entsprechenden Abschnitt aus Dieckhoff (2009).

H INTERGRÜNDE

DES

G EGENSTANDES

| 61

gieprognostik wurden an der RAND Corporation entwickelt. So gehen etwa die Methoden der linearen Optimierung, auf der die in Abschnitt 4.4.1 beschriebenen Optimierungsmodelle aufbauen, wesentlich auf Forschungen bei RAND zurück (Jardini 2000: 317). Auch die Szenario-Technik wird, wie in Abschnitt 4.3.1 erläutert wird, weitgehend auf die Arbeiten des RAND-Mitarbeiters Herman Kahn zurückgeführt. Mit der Gründung des International Institute for Applied Systems Analysis (IIASA) in Laxenburg (Schweiz) im Jahr 1972 wurde nicht nur die Systemanalyse explizit nach dem Vorbild der RAND Corporation in Europa etabliert, sondern gleichzeitig auch ein wichtiger Schritt zur Ausweitung ihres Gegenstandsbereiches auf zivile Probleme von globaler Bedeutung vollzogen (Brooks und McDonald 2000; Levien 2000). Bemerkenswert ist, dass sich schon das erste Forschungsprogramm der IIASA der globalen Energieversorgung zuwandte und damit diesen Gegenstand als ein Kernthema der Systemanalyse etablierte. Die mehrjährige Arbeit in diesem Energy Systems Program fand unter Beteiligung einer großen Zahl internationaler Gastwissenschaftler statt, die ihrerseits die systemanalytische Forschung in ihren Heimatländern einführten und festigten (Levien 2000: 456 f.). Wie Brooks und McDonald (2000) ausführen, war es ein explizites Gründungsziel der IIASA, die Methoden der Systemanalyse in den industrialisierten Ländern zu verbreiten. So bestehen enge Verknüpfungen auch zur deutschen Energiesystemanalyse, etwa durch Wolf Häfele, der, vom damaligen Kernforschungszentrum Karlsruhe kommend, das Energy Systems Program leitete. Als eine der ersten einschlägigen Einrichtungen in Deutschland wurde 1973 die Programmgruppe Systemforschung und Technologische Entwicklung (STE) am damaligen Kernforschungszentrum Jülich gegründet, deren späterer Leiter Alfred Voß ebenfalls als Gastwissenschaftler am Energy Systems Program mitgearbeitet hatte (Häfele et al. 1981a, 1981b; Hake 2000). Als zweite wichtige Forschungstradition lässt sich die empirische Makroökonomik ausmachen. Ihre Wurzeln können hier jedoch ebenfalls nur skizzenhaft nachvollzogen werden. Nützenadel (2005) schildert im Detail, wie sich die empirische Wirtschaftsforschung auf Basis verschiedentlicher Entwicklungen in den 1950er Jahren in Deutschland etablierte. Vor allem die ökonometrische Wirtschaftsforschung erfuhr in diesem Jahrzehnt einen großen Aufschwung – erkennbar etwa an der Einführung der Volkswirtschaftlichen Gesamtrechnung Ende der 1950er Jahre (insb. ebd: 90 ff.). In der gleichen Zeit geriet mit der Kohlekrise auch die Frage der zukünftigen Entwicklung der Energieversorgung erstmals ins öffentliche wie politische Bewusstsein. Die Energieversorgung wurde als ein wesentlicher ökonomischer Faktor einer Volkswirtschaft erkannt und als eigenständiger Forschungsgegenstand etabliert (Kraus 1988: 16). Makroöko-

62 | M ODELLIERTE Z UKUNFT

nomische Ansätze, die heute zu den Standardmethoden der Energiewirtschaftsforschung gehören, lassen sich auf diese Zeit zurückführen. So wurde etwa die damals junge Ökonometrie bereits 1954 am Energiewirtschaftlichen Institut (EWI) der Universität zu Köln auf die Energienachfrage angewandt (Plett 1954). Ein Zusammentreffen der beiden zuvor skizzierten Forschungsrichtungen lässt sich an dem von Seetzen, Krengel und von Kortzfleisch (1979) dokumentierten Symposium zu makroökonomischen Input-Output-Analysen und dynamischen Modellen festmachen, welches 1977 vom Programm Angewandte Systemanalyse der Arbeitsgemeinschaft der Großforschungszentren, dem Industrieseminar der Universität Mannheim und dem Deutschen Institut für Wirtschaftsforschung (DIW) veranstaltet wurde (vgl. auch Krengel 1986: 202). Insbesondere der Tagungsbeitrag von Gonschior (1979) macht deutlich, dass hier Systemanalyse und Wirtschaftswissenschaften als zwei unterschiedliche Forschungstraditionen aufeinander trafen. Dennoch lassen sich in dieser Tagung erste Anzeichen der Formierung der in der vorliegenden Arbeit untersuchten Community festmachen. Diefenbacher und Johnson (1987) beschreiben schließlich bereits für das Jahr 1980 beide Forschungsrichtungen als Teil eines gemeinsamen wissenschaftlichen Betätigungsfeldes – sie nennen es „energy forecasting“ – , das bereits damals auch heute noch einschlägige Einrichtungen umfasst. Auch in dieser Darstellung wird jedoch weiterhin zwischen Einrichtungen der Systemanalyse und Einrichtungen der Wirtschaftwissenschaften unterschieden. Im Prinzip hat sich diese Unterscheidung bis heute in der Struktur der Community erhalten. Dies wird zum einen an der organisatorischen Anbindung und Selbstbeschreibung der Institute sichtbar. Vor allem aber spiegeln sich die unterschiedlichen Forschungstraditionen weiterhin in der Art und Weise wider, wie sich die Mitglieder der Community anhand ihrer Methoden selbst beschreiben und wie sich die Community strukturiert. Die Einteilung in Energiewirtschaftsund Energiesystemmodelle hat sich hierbei fest etabliert und kann über die jeweils zum Einsatz kommenden Modelltypen deutlich auf die beiden Forschungstraditionen zurückgeführt werden (vgl. auch Abschnitt 4.3).2 Nicht zuletzt strukturierte diese Einteilung auch die Modellexperimente des Forums für Energiemodelle und Energiewirtschaftliche Systemanalysen, das im nächsten Abschnitt als zentraler Kristallisationspunkt der heutigen Community beschrieben wird.

2

Zu diesem Befund kommen auch Koch, Harnisch und Blok (2003: 45), wenn sie die unterschiedlichen Modelltypen auf die Disziplinen Wirtschaftswissenschaften und Ingenieurwissenschaften zurückführen.

H INTERGRÜNDE

DES

G EGENSTANDES

| 63

4.1.3 Ein Forum als Kristallisationspunkt Von zentraler Bedeutung für die Identifikation der Community der Energieprognostik ist das Forum für Energiemodelle und Energiewirtschaftliche Systemanalysen an der Universität Stuttgart, ein vom BMBF und BMWI gefördertes Projekt, dessen Aufgabe es war, ein „Kommunikationsnetzwerk“ zum Erfahrungsaustausch zwischen Wissenschaftlern aus dem Bereich der Energiemodellierung, aber auch zwischen ihnen und Nutzern ihrer Ergebnisse aus Politik und Wirtschaft zu etablieren (FORUM 1999: 1, 10).3 Einerseits ging es dem Forum um wissenschaftlichen Erkenntnisgewinn, indem insbesondere eine „Diskussion [...] über methodische Weiterentwicklungen“ (ebd.) geführt werden sollte. Gleichzeitig stand jedoch die Anwendung der Modelle und ihrer Ergebnisse in der Beratung mindestens an gleicher Stelle, indem eine „Demonstration des Anwendungspotentiales von Energiemodellen und energiewirtschaftlichen Systemanalysen für die Energiepolitik und Energiewirtschaft“ (ebd.) erfolgen sollte. Im Kern wurden hierzu zwischen 1998 und 2005 fünf so genannte Modellexperimente durchgeführt, bei denen unterschiedliche Gruppen von Modellierern aus Deutschland mit ihren Modellen jeweils eine einheitlich definierte Fragestellung bearbeiteten (FORUM 1999, 2002, 2004a, 2004b und 2007). Die Definition einheitlicher Datensätze für zentrale Annahmen („harmonisierte Rahmenannahmen“) in unterschiedlichen Rechnungen sollte den Vergleich der Rechenergebnisse der unterschiedlichen Gruppen erlauben. Ein Ziel war es, die resultierenden Gemeinsamkeiten und Differenzen in den Rechenergebnissen zu identifizieren und ihre Ursachen zu untersuchen (FORUM 1999: 11 ff.). Für die vorliegende Untersuchung ist die Existenz des Forums zunächst in forschungspraktischer Hinsicht ein Glücksfall. Da an den Modellexperimenten nahezu alle einschlägigen Institute aus Deutschland teilnahmen, bot die Teilnehmerliste einen wichtigen Ausgangspunkt für die Identifikation der Interviewpartner (vgl. Abschnitt 5.3). Allerdings darf die Bedeutung des Forums aus wissenschaftssoziologischer Sicht nicht unterschätzt werden. Wie seine zuvor skizzierte Selbstbeschreibung zeigt, ging es bei seiner Einrichtung nicht nur um einen einmaligen Austausch unter Wissenschaftlern, sondern um die Einrichtung eines Netzwerkes, das sowohl eine Kommunikation nach innen wie nach außen etablieren sollte. Betrachtet man außerdem die zuvor zitierten Ergebnisdokumentationen der fünf Modell-

3

Es ist zu beachten, dass beim Setzen der zitierten Veröffentlichung scheinbar ein Fehler passiert ist, sodass die Selbstbeschreibung des Forums von S.1 auf S.10 fortgeführt wird.

64 | M ODELLIERTE Z UKUNFT

experimente, so wird deutlich, dass in ihrer Zeit auch de facto die Stabilisierung einer Community stattgefunden hat. Wichtig ist, dass das Forum nicht nur den innerwissenschaftlichen Austausch über die eigenen Modelle, sondern explizit auch ihre Verwendung in der Beratung zum zentralen Gegenstand hatte. Sowohl die historische Entwicklung der Community als auch ihre Kristallisation in jüngerer Zeit durch das Forum legen damit nahe, dass Beratung für ihre Mitglieder keine Nebentätigkeit ist, sondern dass vielmehr die synchrone Durchführung von Forschung und Beratung – jeweils gestützt auf Computermodelle – für die Community die konstitutive Praxis darstellt. Indem die vorliegende Untersuchung genau diese Praxis untersucht, untersucht sie also gleichzeitig das wesentliche Charakteristikum der Community der Energieprognostik.

4.2 A RTENVIELFALT G UTACHTEN

ENERGIEPROGNOSTISCHER

Studien, Gutachten und Expertisen zum Thema Energieversorgung werden inner- und außerhalb Deutschlands jährlich in einer Zahl und Artenvielfalt erstellt, die in ihrer Gesamtheit nur schwer zu überblicken ist. Sie unterscheiden sich im thematischen Fokus, im Gegenstand, in der Methodik und in einer Reihe weiterer Dimensionen. Nicht alle Studien machen explizit prognostische Aussagen und nicht alle basieren auf quantitativer Modellierung. Selbst wenn man sich nur auf diese Gutachten beschränkt, ist die Vielfalt noch enorm. Im Folgenden wird ein grober Überblick über diese Vielfalt gegeben, und es wird jeweils angegeben, welche dieser Dimensionen im Weiteren der Arbeit näher untersucht werden. Grundlage für diesen Überblick ist eine Erhebung des Autors, in der für den Zeitraum 2000 bis 2011 ca. 60 energieprognostische Gutachten, die mit Hilfe von Computermodellen erstellt wurden, erfasst und hinsichtlich der nachfolgend beschriebenen Dimensionen grob analysiert wurden. Zusätzlich fließen Erkenntnisse ein, die in zwei Lehrveranstaltungen gewonnen werden konnten, in denen insgesamt drei Gutachten im Detail untersucht wurden.4

4

Im Sommersemester 2008 wurden in einem Blockseminar die Studien Greenpeace et al. 2007 sowie Förster 2002 miteinander verglichen. Im Sommersemester 2009 wurde in einem weiteren Blockseminar das Gutachten EWI und Prognos AG 2007 einschließlich seiner Erstellung und Verwendung im Kontext des Energiegipfels 2007 untersucht. Beide Veranstaltungen wurden an der Technischen Universität Darmstadt durchgeführt.

H INTERGRÜNDE

DES

G EGENSTANDES

| 65

4.2.1 Inhalte Hinsichtlich des geografischen Fokus energieprognostischer Gutachten lassen sich regionale, nationale und globale Studien unterscheiden. ZEW et al. (2006) untersuchen etwa den Klimaschutz aus regionaler Perspektive für das Bundesland Hessen. Eine ganze Reihe von Gutachten betrachtet die nationale Ebene, so zum Beispiel DLR, IWES und IFNE (2010), die den Ausbau erneuerbarer Energien in Deutschland im europäischen und globalen Kontext untersuchen. Eine der meistzitierten globalen Studien ist der regelmäßig erscheinende World Energy Outlook der internationalen Energieagentur (vgl. etwa International Energy Agency 2012). Auch Thema und inhaltlicher Fokus variieren in einem breiten Spektrum. Ökologische Aspekte werden in fast allen Gutachten insofern thematisiert, als Aussagen über die Entwicklung von Treibhausgasemissionen gemacht werden. So untersuchen etwa das Öko-Institut et al. (2013) die Wirkung unterschiedlicher Klimaschutzmaßnahmen auf die Höhe der Treibhausgasemissionen Deutschlands. Selbst wenn andere Aspekte im Mittelpunkt der Untersuchungen stehen, werden meist Angaben zu Emissionen gemacht. Ein Beispiel ist die Studie des DIW et al. (2011), in der die Auswirkungen des Ausbaus der erneuerbaren Energien auf den deutschen Arbeitsmarkt untersucht wird.5 Während die Betrachtung von Emissionen also keine spezifische Gruppe von Gutachten kennzeichnet, erlaubt die Frage, ob eher technische oder eher ökonomische Aspekte zukünftiger Energieversorgung im Zentrum stehen, zumindest eine tendenzielle Gruppierung der Gutachten. Technische Aspekte stehen etwa im Mittelpunkt der Netzstudien der Deutschen Energie-Agentur (DEWI et al. 2005 und EWI et al. 2010), indem hier die Integration fluktuierender Lasten in das Energiesystem im Mittelpunkt der Untersuchungen steht, während ökonomische Aspekte zum Beispiel im Vordergrund in Prognos und GWS (2009) stehen. Gesellschaftliche Aspekte werden selten explizit ins Zentrum der Gutachten gerückt. Gerade wenn die Verwendung von Energie durch private Verbraucher differenziert betrachtet wird, werden jedoch zumindest indirekt auch Aussagen über gesellschaftliche Entwicklungen getroffen.6

5

Eine nahe liegende Erklärung hierfür ist die Tatsache, dass es sich bei den Treibhausgasemissionen um eine zentrale Referenzgröße für die Klima- und Umwelt-, aber zunehmend auch für die Wirtschaftspolitik handelt.

6

Im Grunde treffen alle Gutachten, die Angaben über die zukünftige Entwicklung des Energiesystems machen, auch Aussagen über die gesellschaftliche Entwicklung – und sei es nur in Form der Annahme für die Gesamtnachfrage an Energie oder in Form ei-

66 | M ODELLIERTE Z UKUNFT

4.2.2 Methoden Betrachtet man nur den Wortlaut der methodologischen Selbstverständnisse energieprognostischer Gutachten, so lässt sich feststellen, dass im überwiegenden Teil der Gutachten „Szenarien“ präsentiert werden. Nur in einem Bruchteil der Gutachten wird explizit eine Prognose erstellt, so etwa in der so genannten Referenzprognose, die regelmäßig im Auftrag des BMWI erstellt wird, zuletzt erstellt von IER, RWI und ZEW (2010). In einigen Studien sind methodologische Explikationen zu den Begriffen „Prognose“ und „Szenario“ zu finden, in anderen werden diese ohne Erläuterung vorausgesetzt. Hinsichtlich der Methodik der Erstellung der Gutachten hat sich die vorliegende Untersuchung von vornherein auf quantitative Modellierung konzentriert und lässt qualitative Verfahren weitgehend außer Acht. Damit ist das Vorgehen der interviewten Modellierer zunächst einmal recht ähnlich: sie alle setzen komplexe Computermodelle bei der Erstellung der Gutachten ein. Wie die Untersuchung jedoch im Detail zeigen wird, bestehen auf der darunter liegenden Ebene, also hinsichtlich der Frage, welche Modelle genau in welcher Weise verwendet werden und wie sie und ihre Ergebnisse interpretiert werden, erhebliche Unterschiede. Das Hintergrundwissen für diese Betrachtung liefert Abschnitt 4.4, in dem die zentralen Modelltypen vorgestellt werden. 4.2.3 Zwecke Mit energieprognostischen Gutachten werden unterschiedliche Zwecke verfolgt. Eine systematische Analyse dieser Zwecke liegt nach Kenntnis des Autors nicht vor. In Erweiterung von Baumgartner und Midttun (1987c) lassen sich in einer ersten Annäherung fünf Zwecke grob unterscheiden, wobei diese Auflistung keinen Anspruch auf Vollständigkeit erhebt:7

ner bestimmten Verhaltensannahme für den repräsentativen Haushalt. Entscheidend für den hier getätigten Überblick ist jedoch, dass diese Aspekte nicht explizites Zentrum der Gutachten sind. 7

Baumgartner und Midttun (ebd.: 22.ff) gehen in ihrer Systematisierung der Zwecke energieprognostischer Gutachten in erster Linie auf den Erkenntnisgewinn des Auftraggebers und die legitimatorischen Zwecke ein. Die Erweiterung um die Zwecke der Teilnahme am gesellschaftlichen Diskurs, administrative oder exekutive Zwecke sowie interne kommunikative Zwecke basiert auf Erkenntnissen des Autors, die im Laufe des Promotionsprojektes gesammelt werden konnten. Eine wichtige Rolle spielten dabei die beiden in Dieckhoff et al. (2011) dokumentierten Workshops, die unter an-

H INTERGRÜNDE

DES

G EGENSTANDES

| 67

Der Formulierung der Gutachten nach ist das zentrale Ziel dieser Untersuchungen der Erkenntnisgewinn beim Auftraggeber. Beispielsweise sollen „sachliche Grundlagen für energie- und klimapolitische Entscheidungen“ (EWI, GWS und Prognos 2010: 2) bereitgestellt werden. Anders ausgedrückt sollen mit den Gutachten Fragen des Auftraggebers beantwortet werden. Auf Basis der Literaturanalyse konnten bereits im Vorfeld der empirischen Analyse zwei Typen von Fragestellungen identifiziert werden. Zum einen finden sich Studien, in denen eine bestimmte, konkret definierte politische Maßnahme hinsichtlich ihrer Wirkung untersucht wird. So gehen DIW et al. (2008) der Wirkung des ErneuerbareEnergien-Gesetzes (EEG) nach. Zum anderen finden sich auch viele Gutachten, die für möglich gehaltene Entwicklungen der Energieversorgung präsentieren, die auf allgemeiner formulierten Strategien, Politiken oder „Philosophien“ basieren. Ein Beispiel hierfür ist das Gutachten IER, WI und Prognos (2002), das für die Enquete-Kommission „Nachhaltige Energieversorgung unter den Bedingungen der Globalisierung und der Liberalisierung“ erstellt wurde.8 Eine zentrale Aufgabe der vorliegenden Untersuchung ist die nähere Klärung dieser beiden Fragestellungen. Ein weiterer Aspekt sind legitimatorische Zwecke, zu denen energieprognostische Gutachten erstellt werden können. Im Sinne einer Begründung von Entscheidungen durch Verweis auf bestimmte Gutachten bzw. ihre Erkenntnisse spielt dieser Zweck sicherlich eine zentrale Rolle, auch wenn der Autor im Rahmen der Untersuchung keinen Einblick in die genauen Entscheidungszusammenhänge hatte.9 Als Topos in der Diskussion der Rolle energieprognostischer Gutachten in politischen Entscheidungen wird in diesem Zusammenhang immer wieder die Behauptung geäußert, bestimmte Gutachten würden für eine Legitimation ex post von Entscheidungen verwendet werden, also zur Legitimation von Entscheidungen, die bereits feststehen (vgl. etwa Baumgartner und Midttun 1987c: 14 und 25). Eine systematische Analyse dieses Phänomens liegt nach Kenntnis

derem das Ziel hatten, die Verwendung von Szenarien in unterschiedlichen politischen und unternehmerischen Kontexten zu beleuchten. 8

Neben dem Referenzszenario werden drei Szenarien (von jeweils zwei ModelliererTeams) berechnet, die jeweils eine unterschiedliche „Philosophie“ verkörpern sollen: „Umwandlungseffizienz“, „REG- /REN-Offensive“ und „Fossil-nuklearer Energiemix“.

9

Weingart (2006) weist auf diese Form der Legitimation politischer Macht durch wissenschaftliches Wissen generell hin.

68 | M ODELLIERTE Z UKUNFT

des Autors jedoch noch nicht vor. Auch Grunwald (2011b: 20) sieht hierzu empirischen Forschungsbedarf. Als ein weiterer Zweck lässt sich die Teilnahme am gesellschaftlichen Diskurs identifizieren. Hierbei stellen energieprognostische Gutachten bzw. ihre Inhalte einen Redebeitrag in diesem Diskurs dar, ohne dass diese sich an einen bestimmten Adressaten richten. Im Sinne der eingangs geschilderten Zwitterartigkeit energieprognostischer Gutachten werden manche Studien erstellt, um neben der Präsentation von Erkenntnissen auch politische Standpunkte zu formulieren. Ein Beispiel hierfür ist die Studie Energy [R]evolution, die seit 2005 wiederholt im Auftrag und unter Beteiligung von Greenpeace erstellt wird, zuletzt als Greenpeace et al. (2012). Einer der Hauptautoren beschreibt diese Studie als zentralen Bestandteil des „solutions campaigning“ von Greenpeace in Sachen Klimaschutz – und damit sogar als programmatischen Redebeitrag in einem Diskurs (Teske 2011: 121). Energieprognostische Gutachten können auch zu administrativen Zwecken verfasst werden. So ist das regelmäßig seit 1996 erscheinende Gutachten Politikszenarien des Umweltbundesamtes – zuletzt Öko-Institut et al. (2013) – Grundlage der nationalen Berichterstattung der Bundesrepublik Deutschland nach Artikel 12 der Klimarahmenkonvention der Vereinten Nationen (UNFCCC) (Nissler 2011). Darüber hinaus wurde während der Diskussion mit Vertretern von Unternehmen und Ministerien im Rahmen der in Dieckhoff et al. (2011) dokumentierten Workshops die Verwendung von Szenarien zu internen kommunikativen Zwecken von Organisationen, wie der Abstimmung von Positionen oder Entwicklung von Strategien, deutlich. 4.2.4 Konstellationen der Beauftragung Energieprognostische Gutachten werden in unterschiedlichen Konstellationen verschiedener Akteure erstellt – in der Regel durch eine Beauftragung einer externen Beratungseinrichtung. Einige Studien, wie etwa der World Energy Outlook der internationalen Energieagentur (vgl. z.B. International Energy Agency 2012), sind genuines Produkt einer Organisation und werden ohne externe Beauftragung erstellt. Hinsichtlich der auftraggebenden Organisationen lässt sich ein breites Spektrum, reichend von staatlichen Institutionen wie Ministerien über privatwirtschaftliche Unternehmen, Stiftungen, Industrieverbände bis hin zu NichtRegierungsorganisationen, ausmachen. Auf Auftragnehmerseite finden sich öffentlich finanzierte Institute an Universitäten und außeruniversitären For-

H INTERGRÜNDE

DES

G EGENSTANDES

| 69

schungsorganisationen sowie privatwirtschaftlich finanzierte Forschungs- und Beratungsunternehmen. Die vorliegende Untersuchung konzentriert sich auf solche Beauftragungskonstellationen, deren Gutachten als Teil des öffentlichen gesellschaftlichen und politischen Diskurses angesehen werden können. Im Kern werden deshalb vor allem Studien berücksichtigt, die im Auftrag staatlicher Institutionen erstellt wurden. Ergänzend werden auch Studien im Auftrag von Nicht-Regierungsorganisationen und Verbänden berücksichtigt.

4.3 E NERGIESZENARIO –

EIN UNSCHARFER

B EGRIFF

Die Klärung des Begriffes „Szenario“ im Zusammenhang mit energieprognostischen Gutachten ist eine zentrale Aufgabe der vorliegenden Arbeit. Im Folgenden wird zunächst eine Vorklärung des Begriffes vorgenommen, indem einerseits nach seinen Ursprüngen gefragt und zum anderen eine erste Begriffsbestimmung anhand der Explikationen vorgenommen wird, die typischerweise in Veröffentlichungen der Community vorgefunden werden. 4.3.1 Vom Theater über den Kalten Krieg zur Energieversorgung Als Ursprung des Begriffs „Szenario“ wird häufig das Theater genannt, so etwa in Mißler-Behr (1993: 1) unter Berufung auf seine lexikalische Definition. Der Begriff bezeichnet hier – so wie sein Verwandter „Szenarium“ – spezifische Gegenstände aus dem Bereich des Theaters – so etwa eine Szenenfolge in einem Drama.10 Als derjenige, der den Begriff im Kontext der Zukunftsvorausschau maßgeblich entwickelt hat, wird in der Literatur nahezu einstimmig Herman Kahn genannt. Häufig wird dabei auf Kahn und Wiener (1967) verwiesen. Hier findet sich unter anderem diese Explikation: „Scenarios are hypothetical sequences of events constructed for the purpose of focusing attention on causal processes and decision points.“ (Ebd.: 6). Ob es allerdings historisch gerechtfertigt ist, Herman Kahn in der üblichen Einmütigkeit die Urheberschaft des Szenarios als Methode der Vorausschau zuzuschreiben, darf bezweifelt werden. Viel-

10 Obwohl sich sicherlich semantische Parallelen der Verwendungsweisen inner- und außerhalb des Theaters zeigen ließen, ist der Sprung des Begriffs aus dem Kontext des Theaters in den der Vorausschau nicht unmittelbar einsichtig und wäre nach Ansicht des Autors ein lohnender Gegenstand einer historischen Untersuchung.

70 | M ODELLIERTE Z UKUNFT

mehr dürfte seine Rolle vor allem darin bestanden haben, den Aspekt der Intuition und der Kreativität unter dem Begriff des Szenarios in der wissenschaftlichen und gesellschaftlichen Auseinandersetzung mit der Zukunft zu etablieren.11 Während die Betonung des Kreativen im Zusammenhang mit Szenarien heute durchaus Beachtung im Bereich des Management findet (vgl. etwa Fink und Siebe 2006: 60), wird dieser Aspekt im Kontext von Energieszenarien selten genannt. Allenfalls wird er unter dem Topos der (vermeintlichen) Nicht-Objektivität von Energieszenarien behandelt, die nach Ansicht mancher Modellierer dadurch zustande kommt, dass sie notwendigerweise Annahmen auf Grundlage subjektiver Entscheidungskriterien setzen müssen (vgl. etwa Jochem 1984). Bereits zur Zeit Herman Kahns waren jedoch eine Reihe anderer Verständnisse verbreitet. Seyom Brown, ebenfalls Mitarbeiter der RAND Corporation, moniert 1968 diesen Umstand explizit und beschreibt fünf unterschiedliche Verständnisse, die damals seiner Wahrnehmung nach in der Systemanalyse verbreitet waren (Brown 1968). Demzufolge wurde der Begriff „Szenario“ u.a. zwar zur Bezeichnung einer hypothetischen Ereignisfolge verwendet, darüber hinaus jedoch auch zur Bezeichnung einer Einschätzung einer Situation durch einen Kommandanten in einem Krieg oder Kriegsspiel12 oder zur Bezeichnung eines spezifischen Sets von Parameterwerten, die für einen bestimmten Rechenlauf mit

11 Tatsächlich hat Kahn während seiner Zeit als Mitarbeiter der RAND Corporation (vgl. auch Abschnitt 4.4.2) und anschließend beim Hudson Institute das kreative Nachdenken über hypothetische Ereignisfolgen geprägt und mit Veröffentlichungen wie On Thermonuclear War (1960) in unterschiedliche gesellschaftliche Bereiche getragen. Dies schildert ausführlich Ghamari-Tabrizi (2005) in ihrer umfassenden historischen Analyse der Wirkung Herman Kahns auf die gesellschaftliche und militärische Auseinandersetzung mit der Bedrohungslage des Kalten Krieges in den USA und wird beispielsweise von Herman Kahn selbst in folgendem Zitat aus Thinking the Unthinkable (1962) formuliert: „The scenario is an aid to the imagination. Thermonuclear wars are not only unpleasant events [sic!] they are, fortunately, unexperienced events [...]. Few are able to force themselves to persist in looking for novel possibilities in this area without aids for their imagination.“ (Ebd.: 143). Es scheint also unstrittig zu sein, dass Kahn ein wichtiger Promotor der geschilderten Denkweise war. Coates (1996: 788) zweifelt jedoch an seiner zentralen Rolle bei der Entwicklung der Szenario-Technik im Sinne einer in der Wissenschaft akzeptierten Methode. Diesem Zweifel schließt sich der Autor an und sieht hier Bedarf für eine sorgfältige historische Klärung. 12 Kriegsspiele – War Gaming – war eine der vielen Methoden, die bei der RAND Corporation zur Untersuchung strategischer Probleme entwickelt und eingesetzt wurden. Siehe zum Szenario-Begriff im War-Gaming deLeon (1973).

H INTERGRÜNDE

DES

G EGENSTANDES

| 71

einem Computer ausgewählt wurden (ebd.: 299). Gerade das letzte Verständnis wird heute auch in der Energieprognostik weitgehend geteilt, wie in Abschnitt 4.3.3 deutlich wird. An dem Befund, dass der Begriff „Szenario“ in sehr unterschiedlicher Weise verwendet wird, hat sich bis heute nichts Grundlegendes geändert (Kosow und Gaßner 2008: 9), so dass eine allgemeingültige Klärung dessen, was unter einem Szenario verstanden wird, nach wie vor eine anspruchsvolle Aufgabe darstellt. Für das Anliegen der vorliegenden Arbeit, den Begriff im Kontext der Energieprognostik zu klären, ist aber das Gesagte als grobe Verortung ausreichend. So konnte insbesondere bis hier gezeigt werden, dass die Ursprünge des Begriffs sicherlich im Bereich innovativer Methoden der militärisch-strategischen Systemanalyse der 1960er und 70er Jahre zu finden sind. Es bleibt außerdem zu vermuten, dass der Begriff „Szenario“ zusammen mit diesen Methoden in den 70er Jahren in die zivile Anwendung und auf diesem Weg auch in das Themenfeld der Energieversorgung diffundiert ist – wie bereits in Abschnitt 4.1.2 näher beleuchtet wurde. Ein Resultat dieser Diffusion stellt die Studie Die Grenzen des Wachstums (Meadows et al. 1972) dar, in der eine umfassende Untersuchung des Zusammenhangs von Wirtschaftswachstum, Ressourcenverbrauch und Umweltschädigung auf globaler Ebene mit einem System-Dynamics-Modell durchgeführt wurde. Die herausragende Bedeutung dieser Studie beleuchtet Hahn (2006). Erste Studien für Deutschland, in denen Szenarien zum Thema Energieversorgung mit Hilfe von Computermodellen berechnet wurden, finden sich ab Mitte der 1970er Jahre. Diefenbacher und Johnson (1987) heben die Studien Das Deutschland-Modell von Pestel et al. (1978) und Energie-Wende von Krause, Bossel und Müller-Reißmann (1980) hervor. Interessanterweise beschreiben Diefenbacher und Johnson beide Studien als „alternative“ Studien, die das Ziel hatten, die damals bestehenden wissenschaftlichen und politischen Grundüberzeugungen bezüglich Wirtschaftswachstum und Energieversorgung infrage zu stellen. Bereits anhand dieser Studien lässt sich also die in der Einleitung zu dieser Arbeit beschriebene politische Dimension energieprognostischer Gutachten erkennen. 4.3.2 Wir machen alles, nur keine Prognosen! Einen weiteren Aspekt der historischen Entwicklung der Energieprognostik beschreibt Kraus (1988) auf Grundlage einer Analyse von 145 energieprognostischen Veröffentlichungen des Zeitraums 1950 bis 1980. Demnach hatten diese Veröffentlichungen für Deutschland bis Anfang der 70er Jahre fast ausschließlich die Form von kategorischen Prognosen. Ab 1974 wandelte sich jedoch die

72 | M ODELLIERTE Z UKUNFT

Prognosepraxis deutlich, indem zunehmend „Szenarien“ erstellt wurden, wobei Kraus hierunter zunächst nur konditionale Prognosen versteht, ohne genau zu klären, ob er sich damit auf possibilistische Aussagen festlegt (ebd.: 49 f.). Als Ursache für diesen Wandel nennt Kraus zum einen sich wandelnde energiepolitische Rahmenbedingungen, die vor allem durch zunehmende Unstetigkeiten gekennzeichnet gewesen seien. Zum anderen führt er mit Verweis auf Popper diesen Wandel auf einen erkenntnistheoretischen Fortschritt zurück, der insbesondere die Einsicht hervorgebracht habe, Prognosen seien nur dann wissenschaftlich, wenn sie konditional formuliert werden würden (ebd.: 17, 37 ff., 52). Zunächst lässt sich festhalten, dass Kraus’ Beschreibung mit der bisherigen historischen Rekonstruktion konsistent ist. Allerdings wird das bis hierher gezeichnete historische Bild erweitert, da deutlich wird, dass auch vor 1970 bereits systematische Energieprognostik in Deutschland betrieben wurde. Die Methoden der Systemanalyse fanden demnach nicht nur durch ihre Attraktivität als methodische Innovationen eine große Verbreitung, sondern stießen gerade im Themenfeld der Energieversorgung in den 1970er Jahren in Deutschland auf fruchtbaren Boden, da ein großer Bedarf an einer politischen Auseinandersetzung mit diesem Thema bestand. Der Wandel von der Prognose hin zum Szenario stellt heute ein zentrales Motiv in der Selbstbeschreibung von Energieprognostikern dar und wird etwa von Fischedick (2001: 235) als Resultat eines Lernprozesses beschrieben, der vor allem in der geringen Treffsicherheit von Prognosen wurzelt. In vielen Fällen taucht die Abkehr von der Prognose jedoch nur noch als pauschale Abgrenzung in den Explikationen des Begriffs Szenario auf. Problematisch ist dies vor allem deshalb, weil in vielen Fällen dabei der Prognose-Begriff selbst nicht expliziert wird.13

13 Ein frühes Beispiel findet sich etwa in der Studie Energy in a Finite World (Häfele et al. 1981a), die als Ergebnis des Energy Systems Program der IIASA (vgl. Abschnitt 4.4.2) veröffentlicht wurde: „In writing scenarios we were in no sense attempting to make predictions. Rather, we viewed scenario writing as a way to organize our thinking about available information” (ebd.: 19). In der Dokumentation des ersten Modellexperimentes (vgl. 4.1.3) findet sich: „Der Modellvergleich des Modellexperimentes I basiert auf der Szenariotechnik. Ein Szenario umfasst eine Quantifizierung der Vorstellungen einzuleitender Maßnahmen zur Treibhausgasminderung sowie Annahmen über die Entwicklung der Energiepreise. Ein Szenario ist dabei jedoch nicht als abstrakte Vereinigung einzelner Zahlen zu sehen, sondern als Denkbild einer ganz bestimmten Zukunftsentwicklung. Aus diesem Grund sind die Ergebnisse der einzelnen

H INTERGRÜNDE

DES

G EGENSTANDES

| 73

Für die vorliegende Untersuchung ist dieser Befund wichtig, da damit bei der Klärung des Begriffs „Szenario“ der Begriff „Prognose“ selbst nicht unhinterfragt übernommen werden kann. 4.3.3 Dynamisch, quantitativ, möglich und konditional Der Begriff des „Energieszenarios“ ist heute nicht nur innerhalb der wissenschaftlichen Energieprognostik gebräuchlich, sondern auch außerhalb dessen, etwa in der politischen Kommunikation.14 Der Umstand, dass sich mit dem Wort „Energieszenario“ eine sprachlich zunächst etwas eigentümlich anmutende Komposition einer inhaltlichen und einer methodologischen Bestimmung aus dem Bereich der Prognostik etabliert hat, kann als Indiz für ihre gesellschaftliche und politische Relevanz angesehen werden – in Analogie etwa zu den stehenden Begriffen „Wettervorhersage“, „Wirtschaftsprognose“ oder „Klimaszenario“. Was aber sind nun Energieszenarien? Henssen (2002) antwortet auf diese Frage: „Energieszenarien sind zahlenmäßig durchgerechnete Entwürfe zukünftiger Energieversorgung.“ (Ebd.: 1). „Dabei sind Szenarien keine Prognosen, sondern fiktive Zukunftsentwürfe“, betonen die Autoren des Gutachtens IER (2007: xii) und Eichhammer et al. führen aus: „Da im Unterschied zu rein physikalischen Systemen in sozio-ökonomischen Systemen keine prognostische Aussage im Sinne ,Was wird sein?‘, sondern nur eine bedingte Aussage ,Wenn – dann‘ über künftig mögliche Entwicklungen in Form einer Folgerung aufgrund eines Annahmenbündels möglich ist, sollen an dieser Stelle kurz die Vorgehensweise und grundsätzlich zentrale Aspekte derartiger Annahmenbündel skizziert werden. Mit Hilfe der Szenariotechnik wird das Ziel verfolgt, ein Bild einer möglichen Zukunft mit einer Kombination von Rahmenbedingungen zu entwickeln, das die Anforderungen der Plausibilität und Konsistenz erfüllt.“ (Eichhammer et al. 2004: 36)

Eine weitere Unterscheidung wird anhand der Begriffe „Zielszenario“ und „Backcasting“ im Unterschied zu „explorativen Szenarien“ und „Forecasting“ getroffen – so etwa in Grunwald (2011a: 822). Grob gesagt sollen demnach mit „Zielszenarien“ solche Szenarien bezeichnet, bzw. mit dem „Backcasting“ ent-

Szenarien lediglich als Basis für eine qualitative Interpretation und nicht als Prognose einer zukünftigen Entwicklung aufzufassen.“ (FORUM 1999: 17). 14 Man vergleiche etwa die kleine Anfrage an die Bundesregierung nach den „Vorgaben für die Energieszenarien der Bundesregierung“ und deren Antwort (Deutscher Bundestag 2010)

74 | M ODELLIERTE Z UKUNFT

wickelt werden, die mögliche Entwicklungswege eines Gegenstandsbereiches (z.B. des Energiesystems) hin zu einem vorgegebenen zukünftigen Zielzustand beschreiben. Der Begriff „Backcasting“ soll darauf verweisen, dass bei diesem Vorgehen erst dieses Ziel festgelegt und anschließend ein solcher Weg – quasi rückwärts – ermittelt wird. Hiervon unterschieden wird das „Forecasting“, bei dem ausgehend vom gegenwärtigen Zustand mögliche Wege „explorativ“ ergründet werden, da zu Beginn der Analyse nicht klar ist, welchen Zielzustand der Gegenstandsbereich annehmen wird. Unklar bleibt hier jedoch, ob Zielszenarien und explorative Szenarien sich über das Vorgehen ihrer Erstellung hinaus unterscheiden, ob etwa eine jeweils unterschiedliche Art der Aussage getroffen wird.15 Explikationen wie die zitierten finden sich in ähnlichem Wortlaut in einer ganzen Reihe von Veröffentlichung aus der Community der Energieprognostik. Auch implizit weisen die Studien in ihrer Struktur und in ihren Aussagen Gemeinsamkeiten auf, die ein geteiltes Grundverständnis dessen, was in der Community als ein Energieszenario gilt, erahnen lassen. Gleichzeitig ist jedoch zu beobachten, dass diese expliziten Definitionen in ihren Formulierungen teilweise unscharf bleiben, dass es innerhalb mancher Studien zu Widersprüchen kommt und dass vor allem in vielen Gutachten die expliziten Definitionen zu Beginn des Textes in der anschließenden Präsentation und Interpretation der Rechenergebnisse nicht konsequent und nachvollziehbar umgesetzt werden. Über das geteilte Grundverständnis hinaus gibt es also einen Bereich der semantischen Unschärfe, der vor allem einen Klärungsbedarf für Außenstehende, aber auch für Angehörige der Community signalisiert. Im Folgenden werden die zentralen Aspekte dieses Grundverständnisses zusammengefasst. Dabei werden einerseits diejenigen für die Untersuchung relevanten Aspekte aufgenommen, über die Einigkeit besteht. Gleichzeitig wird jedoch auch hervorgehoben, inwiefern hierbei Klärungsbedarf besteht: •

Ein Energieszenario stellt eine Beschreibung eines Aspektes des Energiesystems in seiner zeitlichen Entwicklung dar, wie besonders im vorherigen Zitat von Eichhammer et al. (2004: 36) deutlich wird. Es handelt sich also um eine dynamische Beschreibung eines bestimmten Zielsystems. Die dynamische

15 Eine methodische Übersicht, in der diese Begriffe diskutiert werden, liefern Kosow und Gaßner (2008). Zielszenarien werden gelegentlich auch als „normative“ Szenarien (z.B. Greeuw et al. 2000; 2003) und explorative Szenarien auch als „deskriptive“ (ebd.) oder als „indikative Szenarien“ (z.B. Kronenberg et al. 2011) bezeichnet.

H INTERGRÜNDE







DES

G EGENSTANDES

| 75

Beschreibung ist außerdem zeitlich bestimmt, indem eine Entwicklung für konkrete Zeitpunkte angegeben wird. Bei Energieszenarien handelt es sich um quantitative Beschreibungen, die das Ergebnis von Computerrechnungen darstellen. Diese Sichtweise wird in den vorherigen Zitaten besonders bei Henssen (2002: 1) deutlich. Zwar werden qualitative Beschreibungen nicht explizit ausgeschlossen, und in der Tat spielen diese in manchen Gutachten eine gewisse Rolle, wie auch im Laufe der Untersuchung näher erläutert werden wird. Der Blick in die Gutachten zeigt jedoch, dass in der Energieprognostik quantitative Beschreibungen den Kern der Darstellungen ausmachen.16 Mit einem Energieszenario wird eine Möglichkeitsaussage getroffen. Eichhammer et al. (2004: 36) geben wie zuvor zitiert in dieser Hinsicht an, dass mit Energieszenarien „mögliche Entwicklungen“ beschrieben werden. In ähnlicher Weise werden Szenarien im Gutachten IER (2007: xii) „fiktive“ Zukunftsentwürfe bezeichnet. Beide grenzen zwar Szenarien von Prognosen ab, es besteht aber Klärungsbedarf, worauf diese Unterscheidung genau aufbaut. Energieszenarien treffen konditionale Aussagen. Diese Eigenschaft wird in den Gutachten vielfach durch einen Verweis auf die Abhängigkeit der Ergebnisse von bestimmten Annahmen zum Ausdruck gebracht, so auch im vorherigen Zitat Eichhammer et al. (2004: 36).17 Seltener wird dies auch durch einen expliziten Hinweis auf diese Natur der Aussagen ausgedrückt.18 Unklar und in der vorliegenden Arbeit zu klären ist jedoch die Frage, wie sich genau die konditionale Struktur der Aussagen darstellt.

Abschließend bleibt zu klären, inwiefern Energieszenarien auch inhaltlich, also mit Bezug auf das Thema Energie, eine bestimmte Spezifik aufweisen und ob diese von Bedeutung für die analytische Rahmung der vorliegenden Arbeit ist. Eine enge inhaltliche Definition ist während der Befassung mit dem Thema im

16 Diesen Befund stellen ebenfalls Greeuw et al. (2000: 8). 17 Auch im viel zitierten World Energy Outlook wird dieses Verständnis deutlich: „The International Energy Agency does not hold out any of the scenarios depicted here as forecasts of the energy future. But they are reliable indications of what the future could be on the given assumptions.“ (2006: 4). 18 Einen solchen Fall stellt etwa das Gutachten EWI und Prognos AG (2005) dar, in dessen Kurzfassung alle „wissenschaftlich fundierten Zukunftsaussagen“ einschließlich unterschiedlicher Typen von Szenarien als bedingte Aussagen bezeichnet und von „Prophezeiungen“ abgegrenzt werden (ebd.: XIII).

76 | M ODELLIERTE Z UKUNFT

Rahmen dieser Arbeit nicht aufgefunden worden. Vielmehr handelt es sich um einen umbrella term, mit dem prognostische Aussagen in Form von Szenarien zum Themenfeld Energie bezeichnet werden.19 Tendenziell werden jedoch selten isolierte technische Aspekte behandelt, sondern meist die ökonomischen, politischen und ökologischen Konsequenzen der Bereitstellung und Verwendung von Energie thematisiert, wie bereits in Abschnitt 4.2 deutlich wurde. Da in der vorliegenden Untersuchung eine methodologische Bestimmung von Energieszenarien angestrebt wird, ist es für die Untersuchung nicht nötig, eine weitergehende inhaltliche Bestimmung vorzunehmen.

4.4 E NERGIEMODELLE – ZENTRALE I NSTRUMENTE DER E NERGIEPROGNOSTIK Die beschriebenen Forschungstraditionen widerspiegelnd, werden in der Energieprognostik üblicherweise die Modelle in zwei große Gruppen eingeteilt. Die Modelle der einen Gruppe werden als Energiesystemmodelle oder auch BottomUp-Modelle bezeichnet, die der zweiten Gruppe als Energiewirtschaftsmodelle oder auch Top-Down-Modelle (etwa in Böhringer 1999; Koch, Harnisch und Blok 2003; FORUM 2007). In jüngerer Zeit werden zunehmend auch so genannte Hybrid-Modelle entwickelt, die Eigenschaften beider Typen vereinen (Mai et al. 2013: 22). Diese werden hier jedoch nicht näher betrachtet. Energiesystemmodelle beschreiben das Energiesystem aus prozesstechnischer Sicht, indem Technologien der Erzeugung, Verteilung oder auch Verwendung von Strom und Wärme anhand ihrer technischen und ökonomischen Eigenschaften charakterisiert werden – etwa in Form von thermischen Wirkungsgraden und spezifischen Betriebskosten. Die Beziehung der einzelnen Technologien zueinander und zur Umwelt wird als physikalischer Zusammenhang in Form von Stoff- und Energieströmen beschrieben, wobei je nach Fokus des Modells die Umwandlungsschritte von der Primärenergiegewinnung bis zur Endenergieverwendung unterschiedlich erfasst werden. Die Nachfrage nach Energie wird dabei in der Regel exogen vorgegeben, wobei diese je nach Fokus des Modells mehr oder weniger stark aggregiert erfasst wird (Böhringer 1999: 367 f.; Remme 2006).

19 Gelegentlich werden mit dem Begriff auch die Gutachten selbst bezeichnet, in denen diese Aussagen getroffen werden. Um diesbezüglich begriffliche Klarheit in der Untersuchung zu erreichen, wird hierfür in der vorliegenden Arbeit der Begriff „energieprognostisches Gutachten“ verwendet.

H INTERGRÜNDE

DES

G EGENSTANDES

| 77

Eine verbreitete Systematik der prozessanalytischen Modellierung von Energiesystemen ist das grafentheoretische Konzept des Referenzenergiesystems (RES), das in den 70er Jahren entwickelt wurde. Dabei wird ein Zielsystem durch die Unterscheidung von Gütern („commodities“) und Prozessen repräsentiert. Jeder Prozess wandelt bestimmte Güter in andere Güter um, bezieht also einerseits Güter aus vorherigen Prozessen, stellt aber andererseits auch Güter für nachfolgende Prozesse zur Verfügung. Dadurch ergibt sich als Repräsentation ein Netz, in dem verschiedene Prozesse durch Güterströme verknüpft werden, wobei etwa auch Emissionen als Güter erfasst werden. Mathematisch wird dieses Netz durch ein Gleichungssystem beschrieben, wobei die Gleichungen die Energie- und Massenerhaltung, die Transformation der Güter in den Prozessen (Transformationsgleichungen, u.a. über Wirkungsgrade) sowie die Aufteilung von Gütern auf unterschiedliche Prozesse (Allokationsgleichungen) im Zielsystem beschreiben (Schlenzig 1998: 78 ff.; Stuible 2002). Energiewirtschaftsmodelle zeichnen sich dadurch aus, dass ihr Zielsystem nicht nur den Energiesektor, sondern auch die übrigen Produktions- und Konsumaktivitäten in den unterschiedlichen Sektoren einer Volkswirtschaft umfasst. Je nach Detaillierungsgrad werden dabei die Wirtschaftsbereiche Staat, Haushalte und die Unternehmen einbezogen, wobei sich der unterschiedliche Detaillierungsgrad der Modelle vor allem in der Auflösung des Produktionsbereiches nach unterschiedlich aggregierten Gütergruppen und damit in unterschiedlich definierten Sektoren (Branchen) niederschlägt. Den Kern der Modellierung bildet die Beschreibung der einzelnen Wirtschafts- und Produktionsbereiche durch Angebots- bzw. Produktions- sowie Nachfragefunktionen. Die Produktionsfunktionen definieren dabei über Elastizitäten die Substitutionsverhältnisse zwischen den Inputs wie Arbeit, Kapital, Vorleistungen sowie Energie und deren Relation zum jeweiligen Output des Sektors (Böhringer 1999: 378; Loulou et al. 2005: 20 f.). Während der Energiesektor in Energiesystemmodellen in großer technologischer Auflösung beschrieben wird, jedoch nicht über eine Produktionsfunktion, wird er in ökonomischen Modellen in aggregierter Weise über seine Produktionsfunktion beschrieben (Loulou et al. 2005: 21 f.). Es ist jedoch zu beachten, dass die beiden im Folgenden in der Gruppe der Energiewirtschaftsmodelle beschriebenen Ansätze (ökonometrische Analyse und Allgemeine Gleichgewichtsanalyse) bei weitem nicht nur in der Analyse energiewirtschaftlicher oder -politischer Fragen eingesetzt werden, sondern vielmehr zum Standardrepertoire der empirischen Wirtschaftsforschung insgesamt gehören. Die konkreten Modelle, die Gegenstand der Interviews waren, werden vor allem deshalb in der Untersuchung als Energiewirtschaftsmodelle bezeichnet,

78 | M ODELLIERTE Z UKUNFT

weil ihre Modellierer sie selbst als solche charakterisieren und dies an der besonders detaillierten Beschreibung des Energiesektors und dem Einschließen von Umweltwirkungen in die Modellierung festmachen. Eine wichtige Unterscheidung von Energiemodellen folgt aus der Frage, wie im Modell eine Lösung für die zeitliche Entwicklung des Zielsystems bestimmt wird, wie also anders gesagt die Dynamik des Zielsystems erfasst wird. Im Fall eines statischen Modells beinhaltet die Formulierung des Modells keine zeitabhängigen Verknüpfungen der Variablen. Soll in einem Gutachten dennoch mit einem solchen Modell eine zeitliche Entwicklung des Zielsystems beschrieben werden, so muss die Dynamik durch die exogenen Setzungen realisiert werden. Stellt das Modell dagegen eine direkte Verknüpfung von Variablen zu verschiedenen Zeitpunkten her, so handelt es sich um ein dynamisches Modell. Hierfür gibt es wiederum zwei Formen (Welsch 1996: 14; Böhringer 1999: 373): Im Fall eines sequenziellen Ansatzes (auch „rekursiv-dynamischer“, „quasi-dynamischer“ oder „Time-Step-Ansatz“) bestimmt das Programm die Lösung nacheinander einzeln für die betrachteten Zeitpunkte, wobei die Lösung für den jeweils aktuellen Zeitpunkt von der Lösung des vorherigen abhängen kann, nicht aber von der Lösung für die zukünftigen Zeitpunkte. Ist das Modell als Gleichungssystem formuliert, wird in diesem Fall also jeweils ein Gleichungssystem für jeden Zeitpunkt gelöst. Im zweiten Fall, dem so genannten intertemporalen Ansatz, wird dagegen eine Lösung über alle Zeitpunkte hinweg auf einmal bestimmt, indem etwa ein Gleichungssystem gelöst wird, das Beschreibungen aller Zeitpunkte enthält. Dieser zunächst mathematisch-programmiertechnische Unterschied geht im Falle der dynamischen Modelle mit einem spezifischen Unterschied bei der Interpretation der Modelle einher: Im sequenziellen Fall wird das Modell als eine Realisierung so genannter myopischer Erwartungsbildung der repräsentierten Wirtschaftssubjekte verstanden. Hierbei wird angenommen, dass die Wirtschaftssubjekte nur Kenntnis über die Entwicklung des Systems zum jeweils aktuellen und vergangenen Zeitpunkt haben, nicht aber über die zukünftige Entwicklung. Zukünftige Ereignisse, wie etwa schockartige Ölpreisschwankungen, werden also – so die Interpretation – von diesen Subjekten nicht vorhergesehen und können nicht in ihre Entscheidungen einfließen. In einem intertemporalen Modell werden dagegen Wirtschaftssubjekte mit so genannter perfekter Voraussicht – auch „rationale“ Erwartungsbildung genannt – unterstellt. Damit wird hierbei angenommen, dass diese Wirtschaftssubjekte in der Lage sind, ihre aktuellen Entscheidungen in Kenntnis der zukünftigen Entwicklung zu treffen (Böhringer 1999: 373 ff.; Koch, Harnisch und Blok 2003: 56).

H INTERGRÜNDE

DES

G EGENSTANDES

| 79

Innerhalb der beiden Gruppen der Energiesystem- und Energiewirtschaftsmodelle lassen sich jeweils zwei Modelltypen identifizieren, die besonders häufig in der energieprognostischen Beratung verwendet werden. Dies sind Optimierungs- und Simulationsmodelle auf der einen sowie Ökonometrische Modelle und Allgemeine Gleichgewichtsmodelle auf der anderen Seite (vgl. Koch, Harnisch und Blok 2003; FORUM 1999, 2002, 2004a, 2004b und 2007). Die vorliegende Arbeit konzentriert sich auf diese Modelltypen, insbesondere indem sichergestellt wird, dass jeder dieser Modelltypen mindestens von einem Interviewten in der Beratung verwendet wird (vgl. Abschnitt 5.3). Im Folgenden werden diese vier Modelltypen näher vorgestellt. 4.4.1 Optimierungsmodelle Als Optimierungsmodell oder als Modell linearer Programmierung wird ein Modell bezeichnet, dessen Programm im Kern einen Algorithmus realisiert, der ein lineares Optimierungsproblem bestehend aus Zielfunktion und Nebenbedingungen löst. Üblicherweise werden Optimierungsmodelle der Gruppe der Energiesystemmodelle zugeschrieben (vgl. z.B. FORUM 1999: 22). Bei der Zielfunktion handelt es sich um die Summe der so genannten Strukturvariablen, jeweils multipliziert mit ihren Koeffizienten. Aufgabe des Algorithmus ist es, unter Einhaltung der Nebenbedingungen eine Lösung für eben diese Strukturvariablen so zu bestimmen, dass ihre Summe, also die Zielfunktion, minimal oder maximal wird. Die Nebenbedingungen, ebenfalls Funktionen in den Strukturvariablen, beschreiben die Zusammenhänge zwischen diesen, stellen also den Kern der Beschreibung des Zielsystems dar. Diese lassen sich als Ungleichungen formulieren und durch die Einführung so genannter Schlupfvariablen in lineare Gleichungen überführen – die so genannten Restriktionsgleichungen. Häufig kommt bei der Definition der Restriktionsgleichungen das zuvor beschriebene Konzept des Referenzenergiesystems zum Einsatz. Das vollständige Optimierungsproblem lässt sich damit als unterbestimmtes lineares Gleichungssystem beschreiben und kann mit Verfahren wie dem SimplexAlgorithmus gelöst werden (Walbeck et al. 1988). Eine Standardaufgabe in der energiewirtschaftlichen Systemanalyse ist die Bestimmung der Aktivitäten unterschiedlicher verfügbarer Energiegewinnungstechnologien (Strukturvariablen) – sprich deren Anteil an der Energieversorgung – unter der Maßgabe minimaler betriebswirtschaftlicher Gesamtkosten (Zielfunktion) und exogen vorgegebener Nachfrage. Wichtige Restriktionsgleichungen beschreiben dann die Input-Output-Relationen der unterschiedlichen Technologien, unter Berücksichtigung der Wirkungsgrade. Hinzu kommt in der Regel

80 | M ODELLIERTE Z UKUNFT

eine Gleichung, die die Nebenbedingung formuliert, dass der vorgegebene Bedarf an Energie durch die Aktivitäten der Technologien gedeckt werden muss. Weitere Gleichungen können Grenzwerte für die Aktivitäten bestimmter Technologien bestimmen. Verbreitet sind sowohl sequenzielle als auch intertemporale Optimierungsmodelle (ebd.). Die zentrale Idee eines Optimierungsmodells in der Energiesystemanalyse besteht also darin, nicht nur eine Repräsentation der prozesstechnischen Zusammenhänge des Energiesystems zu erstellen, indem die unterschiedlichen Technologien und ihre Verknüpfung über Stoff- und Energieströme beschrieben werden, sondern darüber hinaus ein bestimmtes Kalkül für die Bestimmung der spezifischen Werte im Zeitverlauf für die Strukturvariablen – hier die Aktivitäten der unterschiedlichen Technologien – im Modell zu implementieren. Im Laufe der vorliegenden Untersuchung wurde deutlich, dass mit linearen Optimierungsmodellen in der untersuchten Community im Wesentlichen zwei Fragestellungen bearbeitet werden: Einerseits werden Aussagen über Investitionsentscheidungen in die Erzeugungsstruktur getroffen – hier wird also nach der zeitlichen Entwicklung der installierten Kapazitäten unterschiedlicher Technologien über mehrere Jahre hinweg gefragt. Andererseits wird der Frage nachgegangen, wie ein gegebener Bedarf an Energie zu jedem Zeitpunkt unter Einsatz dieser unterschiedlichen Erzeugungstechnologien gedeckt werden kann („Dispatch“) und welche Emissionen und Kosten hieraus resultieren. Beide Fragen sind dabei offensichtlich nicht unabhängig voneinander – so gehen etwa die Betriebskosten in die Investitionsentscheidungen ein – und werden deshalb meist gleichzeitig in den Modellen bearbeitet. Eine Variante der Energiesystemmodelle fokussiert speziell auf die Strombedarfsdeckung. Diese Modelle werden auch als Elektrizitätsmarktmodelle bezeichnet. Neben dem Fokus auf die Erzeugung von Strom zeichnen sie sich dadurch aus, dass die Nachfrageseite nicht technologisch repräsentiert wird (Koch, Harnisch und Blok 2003: 46; FORUM 2002: 28). 4.4.2 Simulationsmodelle Ebenfalls zur Gruppe der Energiesystemmodelle gehören die Simulationsmodelle.20 In der vorliegenden Einteilung werden hierunter solche Modelle verstanden,

20 Im betrachteten Feld, gerade in wirtschaftswissenschaftlich orientierten Teildiskursen, wird der Begriff „Simulation“ auch in einer allgemeineren Bedeutung als Lösen eines dynamischen Modells verwendet (Frigg und Hartmann 2012). Sofern nicht explizit

H INTERGRÜNDE

DES

G EGENSTANDES

| 81

die weder eine Verhaltensannahme für die Wirtschaftssubjekte realisieren, also insbesondere kein Optimierungskalkül unterstellen, noch eine zeitliche Verknüpfung der modellierten Größen beinhalten, also statisch sind. Innerhalb der hier betrachteten Modelltypen weisen Simulationsmodelle dementsprechend den geringsten Endogenisierungsgrad auf. Im Kern besteht dieser Typ Modell aus der Beschreibung des Energiesektors anhand der technischen und betriebswirtschaftlichen Eigenschaften der Technologien zur Energieerzeugung, -verteilung und -nutzung sowie der Beschreibung der physikalischen und betriebswirtschaftlichen Verknüpfung der Technologien mittels linearer Gleichungen. Hinsichtlich der Definition des Zielsystems und der Art und Weise, wie seine Struktur im Modell beschrieben wird, besteht eine große Ähnlichkeit der Simulationsmodelle zu den linearen Optimierungsmodellen. Dementsprechend kommt auch bei der Strukturierung von Simulationsmodellen häufig das Konzept des Referenzenergiesystems zum Einsatz (Schlenzig 1998: 26; Koch, Harnisch und Blok 2003: 96 ff.). Da keine Verhaltensannahme für die Wirtschaftssubjekte im Energiesektor unterstellt wird und die Aktivitäten der Technologien – ihre Anteile an der Erzeugung, Verteilung und Nutzung von Energie – nicht endogen bestimmt werden, müssen diese durch den Modellierer bzw. Nutzer des Modells exogen vorgegeben werden. Auf Grundlage der im Modell festgelegten technischnaturwissenschaftlichen und betriebswirtschaftlichen Eigenschaften der Technologien wie Wirkungsgrade und spezifische Betriebskosten lassen sich auf unterschiedlichen Umwandlungsstufen von der Primärenergiegewinnung bis zur Endenergienutzung Größen wie Kosten oder Emissionen bilanzieren (Fischedick 2001; Koch, Harnisch und Blok 2003: 112 f.). Schlenzig (1998: 58 f.) bezeichnet diesen Typ Modell in der statischen Form deshalb auch als Accounting-Modell. Darüber hinaus ist auch die Bezeichnung „spreadsheet model“ verbreitet, da diese Modelle häufig in Tabellenkalkulationsprogrammen realisiert werden. Basierend auf zuvor skizziertem Verständnis, wonach sich ein Simulationsmodell gerade durch seinen geringen Endogenisierungsgrad und damit die Notwendigkeit exogener Setzungen in großem Umfang auszeichnet, lässt sich auch ein lineares Optimierungsmodell als ein Simulationsmodell verstehen – nämlich dann, wenn durch die Einführung vieler Restriktionsgleichungen, die ja Setzungen exogener Grenzwerte realisieren, der Lösungsraum der Optimierung stark eingeschränkt wird (Koch, Harnisch und Blok 2003: 70).

gekennzeichnet, wird der Begriff in der vorliegenden Untersuchung jedoch in der beschriebenen engeren Definition verwendet.

82 | M ODELLIERTE Z UKUNFT

4.4.3 Ökonometrische Modelle Ökonometrische Modelle (ÖM) zählen zur Gruppe der Energiewirtschaftsmodelle. Die zentrale Eigenschaft dieser Modelle besteht darin, dass wesentliche Modellparameter mittels statistischer Verfahren – eben „ökonometrisch“ – geschätzt werden. Hierfür wird auf Datensätze der wirtschaftlichen Aktivität in der Vergangenheit zurückgegriffen, so dass die Struktur dieser Modelle, etwa die Einteilung in bestimmte Produktionsbereiche, eng an die Struktur der statistischen Erhebung gebunden ist. Eine Standardquelle dieser Daten stellen Input-OutputTabellen dar, in der die verschiedenen Branchen einer Volkswirtschaft und deren Verflechtungen erfasst werden. Diese werden regelmäßig von statistischen Ämtern erstellt – so bilden sie auch einen zentralen Bestandteil der Volkwirtschaftlichen Gesamtrechnungen (VGR) des Statistischen Bundesamtes der Bundesrepublik Deutschland.21 Als Input-Output-Modell wird ein Typ makroökonomischen Modells bezeichnet, das diese standardisierte Struktur der Beschreibung einer Volkswirtschaft übernimmt. Für ökonometrische Input-Output-Modelle kommt als zweites Charakteristikum hinzu, dass alle oder zumindest zentrale Modellparameter ökonometrisch geschätzt werden. Im Ergebnis handelt es sich bei diesen Modellen in der Regel um stark endogenisierte, meist sehr große, nicht-lineare Gleichungssysteme, die mit speziellen Algorithmen – etwa vom Typ Gauss-Seidel – gelöst werden (West 1995). Die Ökonometrie zeichnet sich nach von Auer (2003) dadurch aus, dass sie ökonomische Modelle auf der Grundlage statistischer Daten und theoretischer Hypothesen entwickelt. Wie Werbos (1990) ausführlich schildert, werden die Hypothesen hierbei als mathematische Gleichungen formuliert und die Parameter dieser Gleichungen anschließend mit Hilfe statistischer Verfahren – wie etwa der Methode der kleinsten Fehlerquadrate – „geschätzt“, d.h. an die für die Variablen verfügbaren Daten angepasst. Je nach Datentyp und Vorgehen stehen hierbei eine ganze Reihe unterschiedlicher Verfahren zur Verfügung. Entscheidend ist, dass hierbei im Unterschied zur im folgenden Abschnitt beschriebenen Kalibrierung Zeitreihen der betrachteten Größen zugrunde gelegt werden. Mit Hilfe

21 In den VGR wird das Geschehen in einer konkreten Ökonomie, etwa der Bundesrepublik Deutschland, anhand definitorisch festgelegter ökonomischer Aggregate und ihrer wechselseitigen Beziehungen beschrieben. Im Einzelnen werden die Wirtschaftsbereiche (auch „Sektoren“) nichtfinanzielle und finanzielle Kapitalgesellschaften, Staat, Private Haushalte und Organisationen ohne Erwerbszweck, sowie zusätzlich das Aggregat Übrige Welt unterschieden. Zentrales Element der VGR ist die Bestimmung des Bruttoinlandsproduktes (BIP) (Statistisches Bundesamt 2013).

H INTERGRÜNDE

DES

G EGENSTANDES

| 83

statistischer Gütekriterien kann anschließend die Güte der Schätzung überprüft oder alternative Hypothesen miteinander verglichen werden. Sollte das Ergebnis unbefriedigend sein, kann die Gleichung und damit die Hypothese verändert werden, indem etwa zusätzliche Variablen hinzugefügt werden, und erneut geschätzt werden – nun auch unter Berücksichtigung der Daten für die hinzugekommenen Variablen. Diese „Konfrontation des (theoretischen Modells) mit (empirischen) Beobachtungen“ (von Auer 2003: 2) stellt also ein iteratives Vorgehen dar, in dem die Theorie, also die ursprünglichen Hypothesen, an die statistischen Daten angepasst wird. Hinsichtlich der Interpretation dieses Modelltyps ist hervorzuheben, dass in ökonometrischen Modellen im Unterschied zu den nachfolgend beschriebenen Allgemeinen Gleichgewichtsmodellen kein perfekter Wettbewerb unterstellt wird. Wie West (1995: 216) betont, ist es vielmehr gerade das Anliegen, kurzfristige Anpassungsvorgänge in ungleichgewichtigen Marktzuständen zu erfassen. Als weiteres Charakteristikum makroökonometrischer Modelle kennzeichnen Capros, Karadeloglou und Mentzas (1990: 566) die Ablehnung der Annahme eines Walras’schen Wettbewerbsgleichgewichtes. 4.4.4 Allgemeine Gleichgewichtsmodelle Ebenfalls zur Gruppe der energiewirtschaftlichen Modelle zählen Allgemeine Gleichgewichtsmodelle (AGM), die in der englischsprachigen Literatur als Modelle vom Typ Computable General Equilibrium (CGE) oder Applied General Equilibrium bezeichnet werden.22 Mit den Bezeichnungen wird gekennzeichnet, dass diese Modelle auf der allgemeinen Gleichgewichtstheorie beruhen, bei der es sich um eine Vertiefung der neoklassischen Wirtschaftstheorie handelt (Böhringer 1996: 29 ff.; Böhringer und Wiegard 2003: 3 ff.). Modelle dieser Art zeichnen sich dadurch aus, dass eine Volkswirtschaft unter der Annahme des perfekten (auch „vollkommenen“ oder „vollständigen“) Wettbewerbs beschrieben wird (Böhringer 1996: 29 ff.). Auf Grundlage dieser Annahme führt die Abstimmung der Wirtschaftssubjekte über flexible Preise in Gleichgewichtszustände, bei denen Angebot und Nachfrage auf allen betrachteten Märkten identisch sind (Markträumung). Die Wirtschaftssubjekte, im einfachsten Fall repräsentative Haushalte und Unternehmen, werden dabei durch preisabhängige Angebots- und Nachfragefunktionen beschrieben (Böhringer und Wiegard 2003). Gleichzeitig wird bei Allgemeinen Gleichgewichtsmodellen Op-

22 In der Analyse wird die deutsche Bezeichnung und Abkürzung verwendet. In einigen Interviewzitaten wird jedoch auch die englische Variante verwendet.

84 | M ODELLIERTE Z UKUNFT

timierungsverhalten für die Wirtschaftssubjekte unterstellt. Im Falle der Unternehmen ist das die Maximierung des Gewinns und im Falle der Haushalte die Maximierung des Nutzens. Über den Abgleich der Wirtschaftspläne der Wirtschaftssubjekte auf den unterschiedlichen Güter- und Faktormärkten werden die markträumenden (relativen) Preise und Mengen endogen bestimmt. Dabei ist die Nachfrageseite eine Funktion der Angebotsseite. Dies ist eine Annahme, die in der Theorie Keynes’ gerade abgelehnt wird (vgl. Böhringer 1996: 32 ff.). Insbesondere wird also die Endnachfrage in AGM endogen bestimmt (Koch, Harnisch und Blok 2003: 112). Mit Bezug auf die zentralen Verhaltenshypothesen werden Allgemeine Gleichgewichtsmodelle in den Wirtschaftswissenschaften ebenfalls als „Optimierungsmodelle“ bezeichnet (etwa bei West 1995: 213).23 Allerdings ist zu beachten, dass in diesem Zusammenhang die Bezeichnung „Optimierungsmodell“ noch nicht zwangsläufig ein Modell bezeichnet, das in obigem Sinne ein mathematisches Optimierungsproblem löst (vgl. Kap. 4.4.1). Vielmehr stehen in der Allgemeinen Gleichgewichtsanalyse zwei Standardansätze zur Verfügung (Böhringer 1996: 47 ff.): Zum einen ist dies ein Gleichungsansatz, bei dem das Gleichgewichtsproblem als nicht-lineares Gleichungssystem formuliert wird und mit speziellen Algorithmen gelöst wird. Zum anderen lassen sich bestimmte Gleichgewichtsprobleme als lineare oder nicht-lineare Optimierungsprobleme beschreiben und ebenfalls mit speziellen Algorithmen lösen. Ein wesentlicher Aspekt bei der Anwendung eines AGM in der empirischen Wirtschaftsforschung, also der Analyse realer Ökonomien, ist die Notwendigkeit, bei der Konstruktion bzw. Anpassung des Modells verschiedene Parameter mit konkreten Werten zu belegen. In der Allgemeinen Gleichgewichtsmodellierung hat sich hierfür das Verfahren der Kalibrierung etabliert. Dieses umfasst die folgenden Vorgänge (Welsch 1996): Zum einen wird ein Teil der Parameter, insbesondere die Substitutionselastizitäten, mit Werten besetzt, die in der Literatur vorgefunden werden. Welsch (ebd.: 11) weist darauf hin, dass es sich hierbei zwar um Werte handelt, die durch ökonometrische Schätzungen bestimmt werden, diese jedoch in der Regel nicht auf die konkrete Modellspezifikation angepasst sind, in der sie nun verwendet werden – und leitet daraus eine Einschränkung der Aussagekraft von ka-

23 Wird im Folgenden der Begriff „Optimierungsmodell“ verwendet, so bezieht sich dies – sofern nicht explizit gekennzeichnet – stets auf lineare Optimierungsmodelle im Sinne des Abschnitts 4.4.1.

H INTERGRÜNDE

DES

G EGENSTANDES

| 85

librierten Modellen ab.24 Beim zweiten Vorgang der Kalibrierung werden, gegeben diese Parametersetzung aus der Literatur, die übrigen „freien Modellparameter“ (ebd.: 67) durch eine Einpunktschätzung, also durch ihre Anpassung an die Daten eines bestimmten Referenzzeitraums (meist eines Jahres) bestimmt. Die in den späteren Modellrechnungen endogenen Variablen werden dabei als exogene Variablen behandelt, indem sie mit den Werten dieses historischen Datensatzes – aus Input-Output-Tabellen und anderen Statistiken – belegt und die Gleichungen für die zu bestimmenden Modellparameter gelöst werden. Bei der Kalibrierung wird also unterstellt, dass sich die betrachtete Ökonomie zu diesem Zeitpunkt in einem Gleichgewicht befand (Böhringer und Wiegard 2003: 7). Das so erhaltene statische Ausgangsgleichgewicht beschreibt das Zielsystem zu einem Zeitpunkt. Um bei einer dynamischen Betrachtung hieraus im dritten Schritt, der „dynamischen Kalibrierung“, eine zeitliche Entwicklung des Zielsystems generieren zu können, muss mindestens für eine Größe im Modell eine zeitliche Entwicklung exogen vorgegeben werden (Welsch 1996: 67). Allgemeine Gleichgewichtsmodelle können sowohl als statische als auch als dynamische Modelle konzipiert werden (West 1995: 217). In jedem Fall ist jedoch entscheidend, dass die Lösung des Modells als ein langfristiges Gleichgewicht einer Ökonomie interpretiert wird, da die zentralen Modellannahmen keine Erklärung kurzfristiger Anpassungsprozesse erlauben (Böhringer 1996: 39).

24 Als einen Grund für diese Praxis nennen Welsch (1996: 11), sowie Böhringer und Wiegard (2003: 7) die mangelnde Datenbasis für das alternative Vorgehen einer ökonometrischen Schätzung der Elastizitäten. In den Interviews wurde außerdem auf den enormen Aufwand hingewiesen.

5. Methode

In diesem Kapitel wird erläutert, wie die Untersuchung empirisch umgesetzt wurde. Hierzu wird zunächst in Abschnitt 5.1 das grundlegende Forschungsdesign erläutert. Anschließend werden einige spezielle Aspekte dieses Designs noch einmal im Detail in eigenständigen Abschnitten erläutert. Dies ist in Abschnitt 5.2 die Anonymisierung, die den Interviewten garantiert wurde. Hier wird auch erklärt, wie diese in der schriftlichen Ausarbeitung umgesetzt wurde. Abschnitt 5.3 geht auf die Auswahl der Interviewpartner ein. Insbesondere wird die Auswahlstrategie beschrieben sowie ein Überblick über die ausgewählten Fälle gegeben. Der nächste Abschnitt 5.4 schließt unmittelbar an, indem hier die einzelnen Fälle, das heißt die Interviewpartner und die von ihnen eingesetzten Energiemodelle vorgestellt werden. In Abschnitt 5.5 wird beschrieben, wie die Interviews konkret umgesetzt wurden. In diesem Zuge werden die Leitfäden der Interviews beschrieben und es werden Angaben zur Durchführung der Interviews gemacht. Die Auswertung dieser Interviews auf Basis eines Kategoriensystems sowie die damit einhergehende Genese des in Kapitel 3 beschriebenen analytischen Rahmens wird in Abschnitt 5.6 beschrieben. Das Kapitel schließt in Abschnitt 5.7 mit einer Einordnung der empirischen Ergebnisse hinsichtlich deren epistemischen Status.

5.1 F ORSCHUNGSDESIGN Die vorliegende Arbeit untersucht die Praxis der Energieprognostik in Deutschland. Diese ist dadurch gekennzeichnet, dass Energieszenarien und -prognosen mit Hilfe von Computermodellen in Projekten wissenschaftlicher Politikberatung erstellt werden. Das primäre Ziel der Untersuchung ist es, die Struktur dieser Szenarien und Prognosen zu entschlüsseln. Das sekundäre Ziel besteht in der Klärung dessen, wie ihre Erstellung in den Beratungsprojekten vonstattengeht.

88 | M ODELLIERTE Z UKUNFT

Abstrakt beschrieben, wird in der Untersuchung also eine bestimmte Praxis in einer bestimmten sozialen Gemeinschaft, genauer in einer bestimmten wissenschaftlichen Community, untersucht. Indem untersucht wird, was in dieser Community unter einem Szenario oder einer Prognose verstanden wird und wie beides mit den dort verwendeten Modellen zusammenhängt, fragt die Untersuchung im Grunde nach sozial geteilten Überzeugungen und nimmt damit eine grundlegende Forschungsperspektive der qualitativen Sozialforschung ein (Lamnek 2005: 28 ff.)1. Die Untersuchung fragt jedoch nicht nur nach der Beschaffenheit und dem Inhalt dieser Überzeugungen, es wird also etwa nicht nur untersucht, was in der Community unter einem Szenario verstanden wird. Vielmehr wird außerdem auch untersucht, wie Szenarien und Prognosen in der Interaktion der Beratungsprojekte erstellt werden, so dass auch der Handlungskontext erfasst wird, in dem diese Überzeugungen stehen. Ein wesentlicher Ausgangspunkt ist, dass die Praxis der Energieprognostik bisher nicht systematisch untersucht wurde. Die Arbeit muss diesen Gegenstand also erst erschließen. Sie verfolgt deshalb einen explorativen Ansatz und weist damit ein weiteres Charakteristikum der qualitativen Sozialforschung auf. Die Arbeit übernimmt dabei die Grundhaltung der qualitativen Sozialforschung, sich dem Gegenstand in großer empirischer Offenheit zu nähern, um nicht im Vorfeld formulierte Hypothesen zu testen, sondern Hypothesen erst in der Auseinandersetzung mit dem Gegenstand zu entwickeln (Lamnek 2005: 25, 89 f.). Von dieser Grundhaltung ist die gesamte Untersuchung geprägt. Besonders deutlich tritt dies jedoch an drei Stellen hervor. Erstens spiegelt sich dies im Design der Interviews wieder. So wurden die Interviews der ersten Welle bewusst in der Weise geführt, dass die Schilderungen der Interviewten durch möglichst wenige Impulse und möglichst frei von Vorannahmen durch den Interviewer angeregt wurden, um deren Sicht auf ihre Praxis möglichst „ungestört“ erfahren zu können. Erst in der zweiten Interviewwelle wurden die Interviewten gezielt mit Annahmen und Vermutungen, die sich vor allem aus der ersten Welle ergaben, konfrontiert. Dementsprechend wurden in der ersten Interviewwelle relativ allgemein gehaltene Fragen gestellt, während in der zweiten Welle spezifischere Fragen formuliert wurden. Näheres zu den Interviews und den dabei verwendeten Leitfäden wird in Abschnitt 5.5 erläutert. Zweitens wird dies in der Art und Weise sichtbar, in der der analytische Rahmen entwickelt wurde, auf dessen Grundlage die Interviews letztendlich ausgewertet und interpretiert werden: Wie in Abschnitt 5.6 näher erläutert wird, orientiert sich das Vorgehen bei der Auswertung innerhalb der Methodenvielfalt

1

Lamnek spricht in diesem Zusammenhang von „sozial geteilten Sinnstrukturen“.

M ETHODE

| 89

der qualitativen Sozialforschung an der qualitativen Inhaltsanalyse (Cropley 2002: 128 ff.; Lamnek 2005: 478 ff.)2 und ist den kodierenden und kategorisierenden Verfahren zuzuordnen (Flick 2007: 386 ff.). Kernelement solcher Verfahren ist ein Kategoriensystem, mit dessen Hilfe die Interviews erschlossen werden. Dabei startet eine solche Untersuchung typischerweise zunächst mit einem relativ vagen Vorverständnis des Gegenstandes und entsprechend noch wenig präzisem Kategoriensystem. Erst in der fortwährenden Auseinandersetzung mit den Transskripten der Interviews und der damit einhergehenden Revision des Kategoriensystems wird der letztendlich verwendete analytische Rahmen entwickelt (vgl. Kelle und Susann 2010: 28 ff., 56 ff.). Eine zentrale Herausforderung für die Analyse der vorliegenden Arbeit besteht dabei darin, einerseits die empirische Offenheit gegenüber dem Gegenstand zu wahren, andererseits aber die Ergebnisse für den philosophischen und soziologischen Diskurs anschlussfähig und fruchtbar zu machen, wofür wiederum die Ergebnisse in Beziehung zu theoretischen Konzepten aus diesen Diskursen gesetzt werden müssen. Diese Herausforderung wurde dadurch gelöst, dass die Interviews, vor allem die der ersten Welle, zunächst relativ frei von speziellen theoretischen Konzepten – beispielsweise dem der empirischen Adäquatheit (vgl. Abschnitt 3.5.2) –geführt wurden. Erst bei der Auswertung und Interpretation wurden die empirischen Ergebnisse dann in Beziehung zu diesen Konzepten gesetzt. Drittens schlägt sich diese Forschungsperspektive in der Art der Ergebnisse und in der Form ihrer Diskussion in Kapitel 7 wieder. Hier werden in erster Linie eine ganze Reihe von Hypothesen entwickelt, offene Fragen herausgearbeitet und Problemstellungen umrissen, die in weiterer Forschung – dann gegebenfalls auch in hypothesentestenden Ansätzen – untersucht werden können. Ein weiterer Ausgangspunkt der Untersuchung ist der Befund, dass erstens die Struktur der Szenarien und Prognosen in den energieprognostischen Gutachten, in denen sie transportiert werden, unscharf bleibt, und dass zweitens auch der Prozess ihrer Erstellung nicht in den Gutachten oder an anderer Stelle dokumentiert wird. Für die Beantwortung der Forschungsfragen liegt also kein „natürliches“ empirisches Material vor – die Gutachten können hier nur als erster Ansatzpunkt dienen. Aus diesem Grund werden in der vorliegenden Untersuchung Interviews mit Energiemodellierern durchgeführt, also mit solchen Personen, die zum Gegenstand der Untersuchung Auskunft geben können. Ein alterna-

2

Um Missverständnissen vorzubeugen: Häufig wird mit der qualitativen Inhaltsanalyse das spezifische Vorgehen nach Mayring (2008) beschrieben. Diese stark formalisierte Methode wurde hier jedoch nicht angewendet.

90 | M ODELLIERTE Z UKUNFT

tives Vorgehen wäre eine direkte und etwa auch teilnehmende Beobachtung (Flick 2007: 281 ff.) der interessierenden Praxis gewesen. So wäre etwa die Teilnahme am Erstellungsprozess ausgewählter Studien einschließlich der Projekttreffen mit den Auftraggebern grundsätzlich denkbar gewesen. Es wurde sich jedoch gegen diese Methode entschieden, weil dadurch nur sehr wenige Projekte – wenn auch in großer Tiefe – hätten untersucht werden können. Einen Überblick über die unterschiedlichen Varianten der Energieprognostik an unterschiedlichen Instituten und insbesondere unter Verwendung unterschiedlicher Modelle wäre dadurch aber nicht möglich gewesen. Gerade diese Kenntnis ist jedoch überhaupt erst notwendig, um die Ergebnisse einer direkten Beobachtung sinnvoll einordnen zu können. Die vorliegende Arbeit kann deshalb auch als eine notwendige Vorarbeit für eine solche Beobachtung angesehen werden. Wie in Abschnitt 5.5 näher erläutert wird, handelt es sich bei den hier durchgeführten Interviews um leitfadenbasierte Interviews (ebd.: 194 ff.), die in zwei Erhebungswellen durchgeführt wurden. Als Interviewpartner wurden Energiemodellierer ausgewählt, da diese zur interessierenden Praxis Auskunft geben können. Die Modelle, genauer ihr jeweiliger Typ (Optimierung, Simulation, ökonometrisches Modell, Allgemeines Gleichgewichtsmodell; vgl. Abschnitt 4.4), die an den unterschiedlichen Instituten der Community verwendet werden, stellen das primäre Auswahlkriterium dar. Dieses und weitere Kriterien werden in Abschnitt 5.2 näher beschrieben. Des Weiteren lässt sich der Ansatz der vorliegenden Untersuchung als qualitative Fallstudie (Lamnek 2005: 311 ff.; Flick 2007: 177f.) einordnen, wobei hier ein interviewter Modellierer als ein Fall angesehen wird. Die Analyse der Interviews erfolgte zunächst fallweise, es wurde also zunächst untersucht, welche individuelle Praxis jeweils von den Modellierern beschrieben wird, einschließlich der individuellen Verständnisse dessen, was die Begriffe Szenario und Prognose bezeichnen. Dem schloss sich ein systematischer Fallvergleich auf Grundlage des während der Untersuchung entwickelten Kategoriensystems an. Ziel dieses Vergleichs war die Identifikation von Gemeinsamkeiten und Unterschieden in den jeweils beschriebenen Praxen. Diese wurden schließlich zu Typen herausgearbeitet, die das Spektrum der rekonstruierten Praxen verdichtet und zugespitzt beschreiben. Diese beschreiben auf der einen Seite typische argumentative Strukturen in energieprognostischen Gutachten und typische Erstellungsprozesse dieser Gutachten auf der anderen Seite. Nähere Erläuterungen zur Typenbildung folgen in Abschnitt 5.6. Wie beschrieben, wurden als zentrale Methode der empirischen Erhebung Interviews durchgeführt. Diese wurden durch unterschiedliche weitere Zugänge zur Praxis der Energieprognostik vorbereitet und ergänzt. Zunächst erfolgte eine

M ETHODE

| 91

breit angelegte Literatur- und Internetrecherche, die unter anderem Texte über die zu untersuchende Praxis (vgl. Kapitel 2), veröffentlichte energieprognostische Gutachten (vgl. Abschnitt 4.2), die Webseiten einschlägiger Institute, sowie Fachliteratur zu den in der Energieprognostik eingesetzten Modellen (vgl. Abschnitt 4.4) umfasste. Eine wichtige Rolle spielte in der Phase der Konzeption der Arbeit und der Vorbereitung der Interviews Prof. Ulrich Wagner, Inhaber des Lehrstuhls für Energiewirtschaft und Anwendungstechnik an der Technischen Universität München und wissenschaftlicher Leiter der Forschungsstelle für Energiewirtschaft e.V., sowie seine Mitarbeiter am Lehrstuhl. Bei ihnen handelt es sich um Mitglieder der untersuchten Community, die also über eine Innensicht auf den Gegenstand verfügen. Einerseits konnten in einer Reihe von Gesprächen mit ihnen inhaltliche Fragen zur interessierenden Praxis, insbesondere zur Modellierung geklärt werden. Darüber hinaus konnte die Fallauswahl mit Prof. Wagner daraufhin diskutiert werden, ob die relevanten Modelltypen und Institute in der Fallauswahl erfasst wurden. Mit einem seiner Mitarbeiter wurde außerdem ein Testinterview mit dem Leitfaden der ersten Erhebungswelle durchgeführt. So wurde sichergestellt, dass die Fragen auch für ein Mitglied der Community sinnvoll und verständlich waren, und es wurde überprüft, ob der anvisierte Gesprächsverlauf praktikabel ist.3 Zusätzlich erfolgte die Teilnahme an einschlägigen wissenschaftlichen Veranstaltungen, bei denen wichtige Erkenntnisse über die interessierende Praxis gesammelt werden konnten. Darüber hinaus konnte hier in eigenen Vorträgen auch das eigene Vorverständnis des Gegenstandes präsentiert und durch die Diskussion mit den anwesenden Mitgliedern der Community verbessert werden.4 Gerade in der Phase der Auswertung und Interpretation der Ergebnisse profitierte die Untersuchung vom intensiven Austausch mit Wissenschaftlern aus der Community der Energieprognostik und auch Nutzern ihrer Ergebnisse in Wirtschaft und Politik, der sich an unterschiedlichsten Stellen in der Projektarbeit im Rahmen des Graduiertenkollegs Helmholtz

3

Weder Professor Wagner noch seine Mitarbeiter waren damit jedoch Interviewpartner der eigentlichen Erhebung.

4

Besonders wichtig war während der Konzeption der Untersuchung die Teilnahme an der 7th International Summer Academy on Technology Studies zum Thema „Transforming the Energy System: The Role of Institutions, Interests & Ideas“ in Deutschlandsberg in Österreich im August 2007, die Teilnahme am 10. Symposium Energieinnovation zum Thema „Energiewende“ im Februar 2008 an der Technischen Universität Graz ebenfalls in Österreich sowie die Teilnahme am Doktorandenkolloquium des genannten Lehrstuhls für Energiewirtschaft und Anwendungstechnik der Technischen Universität München.

92 | M ODELLIERTE Z UKUNFT

Research School on Energy Scenarios ergab, welches der Autor in 2012 und 2013 koordinierte.5

5.2 A NONYMISIERUNG Um den Interviewten die Möglichkeit zu geben, offen ihre Überzeugungen und Erfahrungen schildern zu können, werden in der vorliegenden Arbeit ausschließlich anonymisierte Daten der Erhebung gezeigt und auch alle weiteren Beschreibungen zu den Interviewten in der Weise verfasst, dass kein Rückschluss auf die Interviewten oder ihre Institute möglich ist. Dieses Vorgehen war Teil der Vereinbarung mit den Interviewten und wurde unmittelbar vor jedem Gespräch erneut erläutert (vgl. auch Leitfäden in Anhang A.1). Da in der untersuchten Community eine eindeutige Verknüpfung von Modell und Institut und in vielen Fällen sogar von Modell und Person besteht, betrifft die Anonymisierung nicht nur die Interviewten und ihre Institute, sondern auch die Modelle. Es wurden die tatsächlichen Personen- und Modellnamen durch frei erfundene Pseudonyme ersetzt (vgl. Tabelle 1). Da der überwiegende Teil der Interviewten männlich war, werden für die Personennahmen einheitlich männliche Pseudonyme verwendet. Auf die Nennung der Institute der Interviewten wird generell verzichtet. Wo nötig, werden weitere Angaben wie Projektbezeichnungen oder auftraggebende Organisationen ausgelassen. Die verwendete Konvention zur Anonymisierung von Zitaten aus Interviews ist in Anhang A.3 angegeben.

5.3 F ALLAUSWAHL Um die Erkenntnisziele der vorliegenden Arbeit erreichen zu können, mussten Interviewpartner identifiziert werden, die über ausreichend Erfahrung in der modellgestützten Energieprognostik im Kontext der Politikberatung verfügten. Gleichzeitig sollte durch die Auswahl der Interviewpartner die Diversität dieser Praxis sichtbar gemacht werden. Somit mussten nicht nur erfahrene Energiemodellierer identifiziert werden, sondern solche, die zu unterschiedlichen Varianten der Praxis Auskunft geben konnten. Die Literaturrecherche, die Analyse der Gutachten, sowie die Untersuchung der Webseiten der in Frage kommenden Institute ergab, dass der Typ der jeweils verwendeten Energiemodelle das wesent-

5

Nähere Informationen zum Graduiertenkolleg auf www.energyscenarios.kit.edu [Zugriff am 19.01.2015].

M ETHODE

| 93

liche Merkmal ist, anhand dessen sich die Mitglieder der Community voneinander abgrenzen und sich die Community als Ganzes selbst beschreibt. Für die Fallauswahl stellen die Ergebnisdokumentationen der Modellexperimente des Forums (vgl. Abschnitt 4.1.3) einen wichtigen Ausgangspunkt dar (FORUM 1999, 2002, 2004a, 2004b und 2007). Die zentralen vier Modelltypen wurden in Abschnitt 4.4 beschrieben. Darüber hinaus ergab die Analyse, dass an jedem Institut der Community in aller Regel genau ein Modell in der Politikberatung eingesetzt wird, das einem der vier beschriebenen Typen angehört. Auf Basis dieser Ergebnisse der Voranalyse wurde davon ausgegangen, dass die Modelle und insbesondere die jeweiligen Modelltypen wesentlich die jeweilige energieprognostische Beratungspraxis an den Instituten prägen und maßgeblich für die Diversität der unterschiedlichen Varianten der Praxis in der Community verantwortlich sind, so dass als primäres Auswahlkriterium die Modelltypen herangezogen wurden. Um die Diversität innerhalb der Energieprognostik zu erfassen, wurden also zunächst die relevanten Modelle in Deutschland identifiziert und mit ihnen die Institute, an denen sie eingesetzt werden. Anschließend wurden konkrete Modelle für die Erhebung identifiziert, wobei das Ziel war, jeden der vier Modelltypen durch mindestens einen Interviewten abzudecken. Wo möglich, wurden weitere Fälle für die vier Typen hinzugezogen, um auch Unterschiede in den Praxen sichtbar zu machen, die nicht auf den Modelltypen basieren. Die Auswahlstrategie kann damit als Maximierung der Variation im Sample bezeichnet werden, wobei die Auswahl vor der Durchführung der Interviews als statisches Sampling nach einem qualitativen Stichprobenplan erfolgte (Flick 2007: 154 ff.; Kelle und Susann 2010: 50). Im zweiten Schritt wurde erfasst, welche energieprognostischen Gutachten mit Hilfe dieser Modelle verfasst wurden. Über deren Autoren wurde eine erste Liste potentieller Interviewpartner erstellt. Diese Liste wurde weiter reduziert, indem über Veröffentlichungslisten und Lebensläufe diejenigen Autoren identifiziert wurden, die über mehrjährige Erfahrung in der Energiemodellierung allgemein und in der Anwendung des betreffenden Modells in der Politikberatung verfügten. Dieser Schritt lieferte je Modell einen favorisierten Interviewpartner. Diese wurden persönlich kontaktiert und bis auf zwei Fälle, in denen auf einen Kollegen verwiesen wurde, erklärten sich alle angesprochenen Personen zum Interview bereit. In den beiden genannten Fällen konnten die genannten Kollegen als Interviewpartner gewonnen werden. Die empirischen Ergebnisse der vorliegenden Arbeit beruhen auf der Auswertung von 13 leitfadenbasierten Interviews, die in zwei Erhebungswellen mit sieben Modellierern durchgeführt wurden. Diese Modellierer beschrieben jeweils ein unterschiedliches Energiemodell. Eine anonymisierte Übersicht über

94 | M ODELLIERTE Z UKUNFT

die Fallauswahl bietet Tabelle 1. Eine nähere Beschreibung der Interviewten und ihrer Modelle folgt in Abschnitt 5.4. Tabelle 1: Überblick der Fallauswahl Fall

Modell

Modelltyp

Anton Gerhard (AG)

MALVE

Simulation

Jochen Altmann (JA)

TULPE

Optimierung

Peter Schnitzer (PS)

AKAZIE

Optimierung

Klaus Einbaum (KE)

GERANIE

Optimierung

Hans Wagenfurth (HW)

DAHLIE

ÖM

Matthias Imgrund (MI)

ARVE

AGM

Simon Müller (SM)

ERLE

AGM

6

Nicht in der Auswertung berücksichtigt: ohne Pseudonym

ohne Pseudonym

Simulation

ohne Pseudonym

ohne Pseudonym

Simulation

ohne Pseudonym

ohne Pseudonym

Optimierung

Mit jedem der Modellierer wurden zwei Interviews geführt. Eine Ausnahme ist Peter Schnitzer. Wie in Abschnitt 5.4.3 näher erläutert wird, wurde sein Interview der ersten Welle nicht in die Auswertung einbezogen. Für diesen Fall wurde in der zweiten Welle ein modifizierter Leitfaden verwendet, in dem die wichtigsten Fragen der ersten Welle erneut gestellt und mit den zentralen Fragen der zweiten Welle kombiniert wurden. Neben diesen sieben in der Tabelle 1 oben aufgeführten Modellierern wurden drei weitere in der ersten Welle interviewt, die in der Tabelle unten angegeben sind. Auf die Auswertung dieser Fälle wurde jedoch aus unterschiedlichen Gründen verzichtet. In einem Fall verstarb der Interviewpartner in der Zeit zwischen den beiden Erhebungswellen. Die Verwendung seines ersten Interviews empfindet der Autor trotz der Anonymisierung als unangebracht – zumal eine Reihe von zentralen Aspekten im ersten Gespräch unklar blieb, so dass ihm die Möglichkeit hätte gegeben werden müssen, diese im zweiten zu erklären. Im zweiten Fall stellte sich während des Gespräches heraus, dass der Interviewpartner nicht über ausreichend Erfahrung in der modellgestützten Politikberatung verfügte. Im dritten Fall zeigte sich im ersten Interview, dass die Bera6

Nur Interview der zweiten Welle in Auswertung berücksichtigt.

M ETHODE

| 95

tungsprojekte des betreffenden Institutes vor allem im Auftrag von Industrieunternehmen durchgeführt wurden und damit Geheimhaltungsverpflichtungen unterlagen. Viele relevante Fragen konnte der Interviewte deshalb nicht beantworten. In keinem dieser Fälle stand unmittelbar ein Ersatz zur Verfügung.

5.4 V ORSTELLUNG

DER

F ÄLLE

In diesem Abschnitt werden die sieben empirischen Fälle vorgestellt, die der vorliegenden Untersuchung zugrunde liegen. Die Darstellung verfolgt mehrere Ziele: Erstens wird in groben Zügen der Interviewte auf Grundlage öffentlich zugänglicher Lebensläufe, Publikationslisten und Angaben in den Interviews beschrieben. Dabei beziehen sich diese Angaben stets auf den Zeitraum der Interviews. Zweitens erfolgt eine Charakterisierung des jeweils verwendeten Modells. Dabei wird auf die Modelltypisierung aus Abschnitt 4.4 und die dort eingeführten Fachtermini zurückgegriffen. Grundlage hierfür sind die in der Literatur und auf den Webseiten veröffentlichten Modellbeschreibungen sowie Erläuterungen in den Interviews. Wo nötig werden außerdem Besonderheiten zu den Interviews ergänzt. Zu beachten ist, dass die Gewährleistung der Anonymität der Interviewten den Beschreibungen der Fälle in diesem Kapitel sehr enge Grenzen setzt, so dass diese relativ allgemein und sehr knapp gehalten werden müssen. Dies liegt im Wesentlichen daran, dass die betrachtete Community klein ist und so bereits wenige Merkmale eine Identifikation von bestimmten Modellen, Personen und Instituten möglich machen. Ebenfalls aufgrund der Anonymisierung muss hier auf Quellenangaben verzichtet werden. 5.4.1 Anton Gerhard und das Modell MALVE Der Interviewte Anton Gerhard ist Ingenieur und hat an seinem Institut eine Leitungsposition inne. Seine Publikationsliste lässt erkennen, dass er zum Zeitpunkt der Interviews über fünfzehn Jahre Erfahrung in der Energiemodellierung verfügt – einschließlich einer einschlägigen Dissertation – und über zehn Jahre Erfahrung in der Politikberatung. Das von Herrn Gerhard eingesetzte Modell MALVE gehört zur Familie der Energiesystemmodelle. Im Unterschied zu den drei im Folgenden beschriebenen Modellen dieser Gruppe handelt es sich dabei jedoch um ein Simulationsmodell. MALVE repräsentiert das deutsche Energiesystem prozesstechnisch von der Primärenergiebereitstellung bis zur Endenergienutzung und folgt dabei dem An-

96 | M ODELLIERTE Z UKUNFT

satz des Referenzenergiesystems, so dass seine Gleichungen im Wesentlichen Energie- und Massenerhaltung sowie die Aufteilung und Transformation der repräsentierten Güter in unterschiedlichen technischen Umwandlungsprozessen beschreiben (vgl. Abschnitt 4.4). Das Modell ist statisch, die zeitliche Entwicklung des Zielsystems muss also über die zeitliche Variation numerischer Annahmen für exogene Größen erfolgen. Im Unterschied zu den beschriebenen Optimierungsmodellen ist der Einsatz der unterschiedlichen Technologien im Zeitverlauf im Modell MALVE eine exogene Größe. Dieser Einsatz muss also vom Modellierer für jeden Zeitpunkt und für jede Technologie separat vorgegeben werden. Weitere exogene Größen sind die technischen und ökonomischen Eigenschaften der Technologien, die Energieträgerpreise sowie das Bevölkerungswachstum und Bruttoinlandsprodukt, aus denen mit weiteren Annahmen der Bedarf an unterschiedlichen Energiedienstleistungen (z.B. die Quadratmeter beheizten Raumes) bestimmt wird. Das Modell stellt im Wesentlichen ein Bilanzierungswerkzeug dar, so dass wesentliche endogene Größen die bilanzierten Gesamtemissionen und Gesamtkosten darstellen. 5.4.2 Jochen Altmann und das Modell TULPE Jochen Altmann ist Naturwissenschaftler und wissenschaftlicher Mitarbeiter an seinem Institut. Er verfügte zum Zeitpunkt der Interviews über mehr als 20 Jahre Erfahrung in der Energiemodellierung und über mindestens 10 Jahre Erfahrung im Einsatz dieser Modelle in der Politikberatung. Einschläge Erfahrungen umfassen seine Beteiligung an der Entwicklung des Modells TULPE sowie die Autorenschaft bei mehreren einschlägigen Gutachten. Bei TULPE handelt es sich um ein Energiesystemmodell, das den Ansatz der linearen Optimierung – in der Regel der Kosten – realisiert. Anders als die Modelle AKAZIE und GERANIE handelt es sich jedoch um ein sequenzielldynamisches Modell. Wiederum wird dem Konzept des Referenzenergiesystems folgend das Energiesystem prozesstechnisch von der Primärenergiebereitstellung bis zum Endenergieverbrauch beschrieben. Geografisch beschränkt sich das Modell auf die Repräsentation Deutschlands. Wie auch im Modell AKAZIE sind in TULPE der Anlagenbestand zum Startzeitpunkt der Analyse, die Gesamtenergienachfrage im Betrachtungszeitraum, die Preise importierter Energieträger sowie die physikalischen, technischen und ökonomischen Eigenschaften der modellierten Technologien und Güter wesentliche exogene Größen des Modells. Zentrale endogen bestimmte Größen sind auch hier der durch Optimierung bestimmte Einsatz der unterschiedlichen Technologien im betrachteten Zeitraum, die damit verbundenen Emissionen sowie die Kosten der Energieversorgung.

M ETHODE

| 97

Beim zweiten Termin führte der Interviewte das Modell TULPE auf dem Computer vor, so dass der Interviewer einen groben Eindruck der Benutzeroberfläche und der Bedienung gewinnen konnte. 5.4.3 Peter Schnitzer und das Modell AKAZIE Peter Schnitzer ist Ingenieur und wissenschaftlicher Mitarbeiter an seinem Institut. Wie in seiner Publikationsliste ersichtlich, verfügte er zum Zeitpunkt der Interviews über mehr als fünf Jahre Erfahrung in der Modellierung einschließlich einer einschlägigen Dissertation und hatte innerhalb von mehr als fünf Jahren in mehreren energieprognostischen Beratungsprojekten mitgearbeitet. Das Modell AKAZIE gehört zur Familie der Energiesystemmodelle. Mit ihm wird also das Energiesystem aus prozesstechnischer Sicht beschrieben, wobei hierbei das Konzept des Referenzenergiesystems Anwendung findet. Genauer handelt es sich um ein lineares, intertemporales Optimierungsmodell, in dem in der Regel die Kosten des Energiesystems minimiert werden. Es existieren mehrere Varianten des Modells, die unterschiedliche geografische Zielsysteme, darunter das Energiesystem Deutschlands, repräsentieren. Je nach Fokus können alle Energieumwandlungs- und Energienutzungsschritte von der Primärenergiegewinnung bis zur Endenergienutzung abgebildet werden. Wesentliche exogene Größen des Modells sind der Anlagenbestand zum Startzeitpunkt der Analyse, die Gesamtenergienachfrage im Betrachtungszeitraum, die Preise importierter Energieträger sowie die physikalischen, technischen und ökonomischen Eigenschaften der modellierten Technologien und Güter. Zentrale endogen bestimmte Größen sind der durch Optimierung bestimmte Einsatz der unterschiedlichen Technologien im betrachteten Zeitraum, die damit verbundenen Emissionen sowie die Kosten der Energieversorgung. Das Interview der ersten Welle mit Peter Schnitzer fand aufgrund eines Missverständnisses bei der Kontaktaufnahme gemeinsam mit ihm und einem Kollegen statt. Während des Gespräches fand eine intensive nonverbale Abstimmung über Augenkontakt zwischen beiden Interviewten stattfand, so dass im Nachhinein nicht klar war, ob die Schilderungen der Interviewten ihren persönlichen Überzeugungen entsprachen. Aus diesem Grund geht dieses Interview nicht in die Auswertung ein, sondern stellt nur indirekt Grundlage der empirischen Analyse dar, indem in diesem Gespräch bereits wichtige Sachinformationen zum Institut, zum Modell und auch zum Ablauf eines Beratungsprozesses eingeholt werden konnten. Für das zweite Gespräch – nun mit Peter Schnitzer alleine – wurde ein spezieller Leitfaden verwendet, der die Leitfäden beider Erhebungswellen vereinigte (vgl. den Leitfaden im Anhang A.1). Auf diese Weise wurde

98 | M ODELLIERTE Z UKUNFT

sichergestellt, dass dennoch das Erkenntnisinteresse der Untersuchung in diesem Interview abgedeckt wurde. 5.4.4 Klaus Einbaum und das Modell GERANIE Der Ökonom Klaus Einbaum hat eine Leitungsposition seines Institutes inne. Seine Veröffentlichungen – allen voran die einschlägige Dissertation – zeigen, dass er Erfahrungen im Bereich der ökonomischen Modellierung in einem Zeitraum von mehr als zehn Jahren gesammelt hat. Seine Beteiligung als Autor an mehreren einschlägigen Gutachten weist auf eine Erfahrung von mehr als fünf Jahren in der energieprognostischen Beratung hin. Das mit Herrn Einbaum diskutierte Energiesystemmodell GERANIE stellt ein lineares und intertemporales Optimierungsmodell dar, in dem die Kosten der Energieversorgung minimiert werden. Durch hohe zeitliche Auflösung wird in der Optimierung nicht nur die Entwicklung der Erzeugungsstruktur insgesamt bestimmt, sondern auch der Anlageneinsatz (Dispatch). Geografisch repräsentiert das Modell das europäische Energiesystem. Zentrale exogene Größen sind die Gesamtenergienachfrage im Zeitverlauf, die Stromerzeugung durch erneuerbare Energien, der Anlagenbestand zum Startzeitpunkt der Analyse, die technischen und ökonomischen Eigenschaften der Technologien, sowie die Brennstoffpreise. Wesentliche endogen bestimmte Größen sind die zeitliche Entwicklung der Erzeugungsstruktur, Anlageneinsatzpläne, die Kosten der Energieerzeugung sowie die resultierenden Emissionen. 5.4.5 Hans Wagenfurth und das Modell DAHLIE Hans Wagenfurth ist Ökonom und hat eine Leitungsposition an seinem Institut inne, an dem das mit ihm diskutierte Modell DAHLIE entwickelt und eingesetzt wird. Einschlägige Veröffentlichungen weisen seine mindestens fünfzehnjährige Erfahrung in der makroökonomisch orientierten Modellierung aus. Wie eine Reihe einschlägiger energieprognostischer Gutachten ausweist, verfügte er zum Zeitpunkt der Interviews in der modellgestützten Politikberatung über mindestens zehn Jahre Erfahrung. Beim Energiewirtschaftsmodell DAHLIE handelt es sich um ein sequenzielldynamisches, ökonometrisches Modell der deutschen Volkswirtschaft. Wie für ein ökonometrisches Modell kennzeichnend, werden die Modellparameter – hier mit Hilfe der Methode der kleinsten Fehlerquadrate – geschätzt. Der Beschreibung des Modells zufolge ist das Zielsystem von DAHLIE die Volkswirtschaft Deutschlands, deren Repräsentation um umweltökonomische

M ETHODE

| 99

Module, unter anderem um ein Energie- und Emissionsmodul, erweitert wurde. Im Wesentlichen folgt die Modellstruktur der Volkswirtschaftlichen Gesamtrechnung (VGR) sowie den Umweltökonomischen Gesamtrechnungen (UGR) des Statistischen Bundesamtes, deren Daten auch die zentrale Grundlage der ökonometrischen Schätzung darstellen. Sowohl in der Modellbeschreibung als auch in den Interviews wird der hohe Endogenisierungsgrad von DAHLIE hervorgehoben. Hinsichtlich makroökonomischer Größen werden neben dem Bruttoinlandsprodukt unter anderem die Bruttowertschöpfung der Produktions- und Wirtschaftsbereiche bestimmt. Auch für den Arbeitsmarkt werden Kenngrößen wie Löhne und Arbeitslosigkeit berechnet. Auf Basis ökonometrisch geschätzter Energieinputkoeffizienten werden die Energieverbräuche der unterschiedlichen Produktionsbereiche sowie darauf aufbauend die Emissionen endogen berechnet. Die wesentlichen exogen vorgegeben Größen sind Steuersätze, das aus der Bevölkerungsentwicklung abgeleitete Arbeitsangebot sowie die Weltimportnachfrage und die Weltmarktpreise nach Gütergruppen. Damit werden insbesondere auch die Energieträgerpreise exogen vorgegeben. Im Anschluss an beide Gespräche demonstrierte Hans Wagenfurth kurz das Modell DAHLIE an seinem Computer. 5.4.6 Matthias Imgrund und das Modell ARVE Matthias Imgrund ist Volkswirt und wissenschaftlicher Mitarbeiter an seinem Institut. Zum Zeitpunkt der Interviews verfügte er über mehr als zehn Jahre Erfahrung in der Politikberatung und der makroökonomischen Modellierung. Das Modell ARVE wurde bis zum Zeitpunkt der Interviews in zwei größeren energieprognostischen Beratungsprojekten verwendet. Da sich der Interviewte jedoch darüber hinaus intensiv in akademischer Forschung mit dem Modell befasst hat, verfügte er über sehr gute Kenntnisse des Modells. Auch wenn mit dem Modell ARVE vergleichsweise wenige Beratungsprojekte durchgeführt wurden, konnte der Interviewte dennoch die Praxis der modellgestützten Beratung durch Erfahrungen mit anderen Modellen in diesem Kontext gut beschreiben. Da er sich darüber hinaus intensiv mit dem Unterschied ökonometrischer Modelle und Allgemeinen Gleichgewichtsmodellen befasst hatte, stellten die Interviews mit Herrn Imgrund Schlüsselgespräche zum Verständnis dieser beiden Modelltypen dar. Beim Modell ARVE handelt es sich um ein sequenziell-dynamisches Allgemeines Gleichgewichtsmodell. Das Zielsystem umfasst Deutschland sowie als weitere Region die restliche EU. Beide Regionen werden durch 13 Sektoren und deren Austauschbeziehungen repräsentiert. Als dritte Region wird die restliche

100 | M ODELLIERTE Z UKUNFT

Welt rudimentär abgebildet. Der Sektor der Elektrizität wird anders als die übrigen Sektoren detailliert in energetischen Einheiten und nicht in monetären repräsentiert. Dabei werden die Stromerzeugungstechnologien nach Brennstoff unterschieden. Das Modell ist auf die Daten der Input-Output-Tabellen eines Basisjahres kalibriert, die verbleibenden Modellparameter wie die Substitutionselastizitäten werden durch Schätzung oder Übernahme von Werten aus der Literatur festgelegt. Wesentliche exogene Größen für die Entwicklung des Zielsystems im Zeitverlauf sind die Weltexportpreise einschließlich der Energieträgerpreise, die Weltimportnachfrage sowie die Veränderung der Produktivität der Faktoren Arbeit, Kapital und Energie im Zeitverlauf. Zentrale endogene Größen sind die Mengen und Preise der abgebildeten Güter einschließlich der Endnachfrage nach Elektrizität. Daraus werden die CO2-Emissionen bestimmt. 5.4.7 Simon Müller und das Modell ERLE Simon Müller ist Ökonom und war zum Zeitpunkt des ersten Interviews wissenschaftlicher Mitarbeiter an seinem Institut. In der Zeit zwischen den Interviews verließ er das Institut, war aber dennoch bereit, ein zweites Interview – durchgeführt bei seinem neuen Arbeitgeber – zu geben. In der makroökonomischen Modellierung und dem Einsatz solcher Modelle in Beratungsprojekten verfügte er über mindestens fünf Jahre Erfahrung. Verglichen mit den übrigen Interviewten verfügte Herr Müller jedoch über die geringste Erfahrung in der Modellierung und Politikberatung. Dies schlägt sich in der Analyse darin nieder, dass in Kapitel 6 seine Schilderungen meist in Ergänzung zu Schilderungen der anderen Interviewten präsentiert und analysiert werden. Beim Modell ERLE handelt es sich um ein intertemporal-dynamisches Allgemeines Gleichgewichtsmodell. Je nach Fragestellung kann sein Zielsystem auf ein Land oder mehrere Länder – insbesondere die Europäische Union – beschränkt werden oder als Modell der globalen Wirtschaft verwendet werden. Das Modell wird außerdem in unterschiedlicher sektoraler Auflösung verwendet, wobei insbesondere der Energiesektor sowie die energieintensiven Produktionsbereiche in hoher Disaggregation modelliert sind. Das Modell wird statisch auf die Input-Output-Daten eines Stützjahres kalibriert, die entsprechend des geografischen Zuschnitts der Analyse den nationalen oder internationalen Statistiken entnommen werden. Die Kalibrierung des Modells auf eine zeitliche Entwicklung des Zielsystems erfolgt laut Modellbeschreibung im Wesentlichen über die exogene Vorgabe einer BIP-Entwicklung, der Entwicklung der Brennstoffpreise im Welthandel und Vorgaben für den technologischen Fortschritt. Wesentliche

M ETHODE

| 101

endogene Größen sind die Preise und Mengen der modellierten Güter in den jeweiligen Gleichgewichtszuständen sowie die resultierenden Emissionen. Elastizitäten werden aus der Literatur übernommen oder durch eigene Schätzungen festgelegt.

5.5 U MSETZUNG

DER I NTERVIEWS

Den Kern der Untersuchung stellen leitfadenbasierte Interviews dar, die in zwei Erhebungswellen mit den zuvor identifizierten Modellierern und gleichzeitigen Autoren energieprognostischer Gutachten durchgeführt wurden. Bei dieser Methode werden die Interviews dadurch strukturiert, dass der Interviewer seine Fragen an einem zuvor vorbereiteten Katalog von Leitfragen – dem so genannten Leitfaden – orientiert (Flick 2007: 194 ff.). Die Funktion eines Leitfadens besteht darin, sicherzustellen, dass in den Gesprächen mit allen Interviewten die gleichen zentralen Themenkomplexe behandelt werden. Die Leitfragen werden dazu nicht streng wortwörtlich abgearbeitet, sondern je nach Gesprächsverlauf spontan angepasst. Gleiches gilt für die Reihenfolge der Fragen, die dem Gesprächsverlauf angepasst wird. Die Leitfäden der hier durchgeführten Interviews sind in Anhang A.1 zu finden. Ein grundlegendes Ziel bei der Gestaltung von Interviews in der qualitativen Sozialforschung besteht darin, die empirische Offenheit gegebenüber dem Gegenstand zu ermöglichen (ebd.: 27, 268 ff.). In der vorliegenden Arbeit wurde dies dadurch realisiert, dass vor allem in der ersten Welle gezielt offene und relativ allgemein formulierte Fragen gestellt wurden, um so den Interviewten dazu anzuregen, möglichst frei seine individuellen Ansichten, Überzeugungen und Verständnisse zu schildern. In der zweiten Welle wurden dagegen spezifischere Fragen gestellt und auch Vermutungen und Annahmen, die sich aus der ersten Welle ergaben, zur Diskussion gestellt. Der Leitfaden der ersten Welle beginnt im ersten Themenblock mit Fragen zum konkreten vorher identifizierten Energiemodell, das vom Interviewten in der Beratung eingesetzt wird (Frage 1: „Könnten Sie das aktuelle Modell [Name des Modells] für mich beschreiben?“), und arbeitet sich dann über Fragen zum Einsatz des Modells in konkreten Studien (Frage 4: „Bei welchen Studien oder Projekten wurde das Modell eingesetzt?“) zu abstrakteren Fragen unter anderem zum Verständnis der Begriffe Szenario und Prognose im dritten Themenblock vor (Frage 6: „Wurden bei all diesen Studien Szenarien verwendet?“, Nachfrage hierzu: „Was verstehen Sie unter einem Szenario?“). Generell spielen diese abs-

102 | M ODELLIERTE Z UKUNFT

trakteren Fragen jedoch im Vergleich zur zweiten Welle eine untergeordnete Rolle, wie später näher erläutert wird. Diese ersten drei Themenblöcke zusammengenommen bilden den Hauptteil des ersten Interviews. Dieser wird durch einen Themenblock ergänzt, in dem der Ablauf eines Erstellungsprozesses nachvollzogen wird (Frage 9: „Können Sie beschreiben, wie das Erstellen einer solchen Studie typischerweise vonstattengeht?“). Dem schließt sich ein Fragenblock zur abstrakten Bedeutung eines Modells an (Frage 10: „Was ist für Sie ganz allgemein ein Modell?“). Das Interview wird schließlich mit einer persönlichen, biografisch angelegten Frage geschlossen (Frage 10: „Wie sind Sie selbst zur Modellierung gekommen?“). Dieser Aufbau des ersten Interviews realisiert die folgenden Überlegungen: Zunächst ist wichtig, dass das Interview mit dem Modell beginnt und erst im Laufe des Gesprächs zu energieprognostischen Gutachten sowie darin enthaltenen Szenarien und Prognosen wandert. Dies ist durch die Erkenntnis aus Literaturstudien und Gesprächen mit Energiemodellierern – insbesondere am Lehrstuhl für Energiewirtschaft und Anwendungstechnik an der Technischen Universität München – begründet, wonach für das Selbstverständnis der Interviewten ihre Rolle als Modellierer zentral ist. Das Interview folgt also erstens der Idee, die Interviewten auf ihrem „Heimatboden“ und am Kern ihrer wissenschaftlichen Arbeit, dem Entwickeln und Betreiben von Energiemodellen, „abzuholen“. Mit einer ähnlichen Motivation, die Interviewten möglichst gut abholen und dennoch das tendenziell abstrakte Erkenntnisinteresse der Untersuchung verfolgen zu können, wurde zweitens das erste Interview so aufgebaut, dass es vom Konkreten zum Abstrakten führt. Deshalb wird zu Beginn ein konkretes Modell und werden schon im zweiten Fragenblock konkrete Gutachten diskutiert. Die Abstraktion von diesen konkreten Beispielen erfolgt später im Gesprächsverlauf. Dieser Idee folgt auch die nachgehängte Diskussion der abstrakten Bedeutung eines Modells im letzten Themenblock. In den Interviews hat sich gezeigt, dass die beiden leitenden Ideen – „vom Gewohnten zum weniger Gewohnten“ und „vom Konkreten zum Abstrakten“ – sehr gut aufgegangen sind. Dieses Vorgehen hatte auch den Vorteil, dass Nachfragen zu Unklarheiten immer wieder an die zu Beginn besprochenen konkreten Inhalte zurückgebunden werden konnten. Ziel des Interviews der zweiten Welle war es, zentrale Gesichtspunkte der ersten Welle zu vertiefen, Unklarheiten zu klären, die in der Auswertung der ersten Welle aufgetaucht waren, und kritische, etwa politisch heikle, Punkte zu thematisieren. Insbesondere wurde im zweiten Gespräch die Bedeutung von Szenarien in den Fokus gerückt. Grundlage für die Erstellung des zweiten Leitfadens war die Auswertung der ersten Welle. Nachdem in der ersten Frage des zweiten Interviews der Anschluss an das vorherige Gespräch hergestellt wird

M ETHODE

| 103

(Frage 1: „Was hat sich denn seit dem letzten Gespräch bei Ihnen getan?“) und – mit derselben Motivation wie zuvor – konkrete Modellentwicklungen und Beratungsprojekte in das Gespräch eingeführt werden, wendet sich der Leitfaden in den darauffolgenden drei Fragen dem Szenario zu. Zunächst wird dieses Themenfeld mit einer Einschätzung unter Rückgriff auf die erste Welle eingeleitet (Frage 2: „Ich habe in meiner Untersuchung den Eindruck gewonnen, dass im Feld der Energiemodellierung in den meisten Projekten Szenarioanalysen gemacht werden. Wie kommt das Ihrer Einschätzung nach?“). Anschließend werden Fragen aus unterschiedlichen Blickrichtungen zum Thema „Szenarien“ gestellt. Zunächst wird offen nach dem individuellen Verständnis gefragt (Frage 3: „Was ist für Sie eine Szenarioanalyse oder ein Szenario?“), dann nach den Fragestellungen, die mit dieser Methode in konkreten Studien bearbeitet werden (Frage 4: „Welche Fragestellungen werden denn in konkreten Studien mit den Szenarioanalysen behandelt?“) und schließlich nach der aussagenlogischen Bedeutung von Szenarien (Frage 5: „Welche Aussagen werden Ihrer Ansicht nach getroffen?“). Hiervon ausgehend wird anschließend an das Modell angeknüpft (Frage 6: „Wie hängen die Szenarien mit diesem Modell zusammen?“), indem etwa danach gefragt wird, ob die Szenarien Output oder Input des Modells sind (Nachfrage zu Frage 6). Dies wird anschließend an den praktischen Prozess der Erstellung zurückgebunden (Frage 7: „Können Sie beschreiben, welche Arbeitsschritte insbesondere mit dem Modell [Name] zu leisten sind, wenn Szenarien gemacht werden?). Die Fragen Nr. 8 bis 12 stellen spezielle Nachfragen dar, die in der Regel bereits während der Diskussion der vorherigen Fragen „en passant“ eingestreut wurden. Die wichtigste dieser Fragen richtet sich auf die Unterscheidung von Prognose und Szenario (Frage 11: „Ich habe festgestellt, dass einige Kollegen mit ihren Modellen auch Prognosen machen. Ist das bei Ihnen auch so?“, Nachfrage: „Worin bestehen dann die Unterschiede zum Einsatz bei Szenarien?“). Bis hierhin wird im zweiten Interview im Wesentlichen eine Vertiefung der ersten Welle durchgeführt. Im Unterschied zur vorherigen Welle wird nun jedoch ein Block mit drei „konfrontativ“ konzipierten Fragen angeschlossen. Konfrontativ sind diese in dem Sinne, dass hier heikle Aspekte angesprochen werden. Die erste Frage richtet sich auf die Geltungsgrenzen der Modelle (Frage 13: „Was kann uns Ihrer Ansicht nach das Modell [Name des Modells] über die Welt sagen?“, Nachfrage: „Wo liegen Ihrer Ansicht nach die Grenzen der Aussagefähigkeit des Modells [Name des Modells]?“), die zweite spricht den vermeintlichen Widerspruch deterministischer Interpretationen von Modellrechnungen im Zusammenhang mit Szenarien an (Frage 14: „Meiner Wahrnehmung

104 | M ODELLIERTE Z UKUNFT

nach wird mit Szenarien eine gewisse Offenheit gegenüber der Zukunft ausgedrückt. Gleichzeitig werden Szenarien aber oft als Wenn-Dann-Beziehungen verstanden, damit liegt auch ein deterministisches Verständnis zugrunde. Mir erscheint das widersprüchlich, wie sehen Sie das?“) und die dritte Frage thematisiert das Spannungsverhältnis, in dem Wissenschaftler in der Politikberatung stehen (Frage 15: „Mich interessiert Ihre Arbeit u.a. deshalb, weil diese Arbeit beides ist, Wissenschaft und Politikberatung. Mein Eindruck ist nach der ersten Welle, dass sich hieraus auch ein Spannungsfeld aufbaut. Nehmen Sie das auch so war?“). Die Schlussfrage hat schließlich das Ziel, den Interviewten noch einmal offen die Möglichkeit zu geben, die beiden Interviews Revue passieren zu lassen und Dinge anzusprechen, die aus ihrer Sicht nicht ausreichend behandelt wurden. Der Leitfaden der ersten Welle wurde in zwei Probeinterviews getestet. Die Tests hatten das Ziel, zu überprüfen, ob die zuvor beschriebene Strategie des Gesprächsaufbaus und die Fragen in einem echten Gespräch „funktionieren“. Im Anschluss an beide Tests wurden kleinere Anpassungen am Leitfaden der ersten Welle vorgenommen. Ein Test des Leitfadens der zweiten Welle wurde nicht für nötig erachtet, da es sich im Wesentlichen um eine Vertiefung der ersten Welle handelte. Nachdem die potentiellen Gesprächspartner für die erste Welle identifiziert waren, wurde mit Ihnen im Regelfall telefonisch, in Ausnahmen per E-Mail Kontakt aufgenommen. Die Kontaktaufnahme mit den Interviewpartnern gestaltete sich insgesamt als sehr einfach, da alle Interviewten sehr bereitwillig, in der Regel schon bei der ersten Kontaktaufnahme, einwilligten. Wie erwähnt, verwiesen lediglich zwei Personen auf Kollegen, die sie für kompetenter hielten. Alle Interviews wurden vom Autor der vorliegenden Arbeit alleine geführt. Dementsprechend wird der Interviewer bei der Zitation von Dialogen oder bei Einfügungen in Zitate mit „CD“ abgekürzt. Die Interviews der ersten Welle fanden zwischen Juni und Oktober 2008, die der zweiten Welle mit etwa einem Jahr Abstand im Dezember 2009 und Januar 2010 statt.7 Der Abstand wurde gewählt, um einerseits ausreichend Zeit für die Analyse der ersten Welle zur Verfügung zu haben und gleichzeitig im Gespräch mögliche Veränderungen in der Arbeitspraxis der Interviewten in dieser Zeit erfragen zu können. In der Regel wurden Termine von zwei Stunden Dauer vereinbart, um eine reguläre Interviewzeit von eineinhalb Stunden ermöglichen zu können.

7

Das in der Auswertung berücksichtigte Gespräch mit Peter Schnitzer fand aufgrund terminlicher Randbedingungen bereits im Juli 2009 statt (vgl. Abschnitt 5.4.1).

M ETHODE

| 105

Die Interviews wurden mit einem Tonband aufgezeichnet und anschließend durch einen externen Dienstleister transkribiert. Wie in Abschnitt 5.2 beschrieben wurde, wurde den Interviewten Anonymität garantiert. Die Vertraulichkeit musste auch der externe Dienstleister schriftlich garantieren. Über dieses Vorgehen wurden die Interviewten bereits bei der ersten Kontaktaufnahme und dann erneut zu Beginn jedes Gespräches aufgeklärt. Hinzu kam zu Beginn der Interviews der Hinweis, dass der Interviewte jederzeit die Tonbandaufnahme unterbrechen lassen konnte. Nach der Verschriftlichung der Interviews durch den externen Dienstleister wurde jedes Transskript sorgfältig vom Autor durch einen Vergleich mit der Tonbandaufnahme kontrolliert und korrigiert. Der Gesprächsverlauf war in allen Fällen von großer Offenheit geprägt. So wurde frei über Grenzen und Unsicherheiten der Modelle und der eigenen Methode gesprochen und auch kritische Aspekte wie die Ergebnisoffenheit im Angesicht einer möglichen Einflussnahme durch den Auftraggeber in großer Offenheit beschrieben. In einem Fall war zwar zu Beginn beider Interviews eine Skepsis gegenüber der Aufnahme und Anonymisierung des Interviews erkennbar – der Interviewte äußerte Sorge, durch seine Schilderungen doch erkennbar zu sein –, aber diese legte sich während des Gespräches, so dass auch in diesen Interviews letztendlich ein sehr offenes Gespräch stattfand. Darüber hinaus stellte die Aufnahme in keinem Interview eine erkennbare Einschränkung des Gespräches dar. Dreien der Gesprächspartner wurden die Transskripte ihrer Interviews auf ihr Bitten hin zur Einsicht gegeben. In keinem Fall folgte hierauf jedoch eine Reaktion.

5.6 A USWERTUNG

DER I NTERVIEWS UND DES ANALYTISCHEN R AHMENS

G ENESE

Bezüglich der Auswertung der Interviews orientiert sich die hier eingesetzte Methode an der qualitativen Inhaltsanalyse (Cropley 2002: 128 ff.; Lamnek 2005: 478 ff.) und ist den kodierenden und kategorisierenden Verfahren zuzuordnen (Flick 2007: 386 ff.). Im Kern werden hierbei die Interviews durch die Definition von Schlagwörtern oder kurzen Sätzen erschlossen (vgl. Kelle und Susann 2010: 56 ff.). Diese sogenannten Kategorien geben einerseits den Inhalt der mit ihnen markierten Interviewpassagen wieder, stellen aber andererseits einen ersten wichtigen Schritt in der Interpretation der Interviews dar, da mit ihnen ein spezifischer Sinn der entsprechenden Passage, eben der, der für das Erkenntnisziel der Untersuchung relevant ist, erschlossen wird. Durch die Definition von unterschiedlichen, aber über die Interviews hinweg einheitlichen Kategorien für

106 | M ODELLIERTE Z UKUNFT

verschiedene Aspekte des Erkenntnisinteresses wird ein Kategoriensystem entwickelt. Dieses erlaubt einerseits den Vergleich derselben Aspekte über verschiedene Interviews hinweg – gleichsam einem Inhaltsverzeichnis des gesamten empirischen Materials. Darüber hinaus spiegelt die Bedeutung der Relationen der einzelnen Kategorien zueinander gerade die übergreifende Interpretation des empirischen Materials, genauer die ihr zugrunde liegenden Vorstellungen und Annahmen wider. Das im Rahmen der vorliegenden Arbeit entwickelte Kategoriensystem ist in Anhang A.2 aufgeführt. Die Auswertung und insbesondere die Entwicklung des Kategoriensystems erfolgte mit Hilfe der Software MAXQDA8 in der Version 2007, die speziell für die Analyse qualitativer Daten entwickelt wurde. Die ersten Interviews wurden zunächst offen kodiert (vgl. Flick 2007: 388 ff.), das heißt, es wurden Ad-Hoc-Kategorien gebildet, die wichtig erscheinende Passagen dieser Interviews markieren. Diese Kategorien wurden durch axiales Kodieren (ebd.: 293 ff.) unter schrittweiser Einbeziehung der übrigen Interviews analytisch geschärft und auf Kernkategorien verdichtet. Ein wesentlicher Mechanismus dieses Vorgangs bestand darin, dass die Analyse sich von der eingangs fallspezifischen Analyse zunehmend dem systematischen Fallvergleich zuwandte. Durch den kontinuierlichen Abgleich der zu einer Kategorie gehörenden Schilderungen verschiedener Interviewten und die gleichzeitige Revision der Kategorien wurden die im Sample zentralen Überzeugungen und beschriebenen Praxen herausgearbeitet. Gleichzeitig wurde in der Phase des axialen Kodierens die Bedeutung der Beziehungen der Kategorien zueinander herausgearbeitet, wobei hierbei die beiden grundsätzlichen analytischen Perspektiven der Prozessund der Argumentationsanalyse einbezogen wurden. In dieser Phase wurde also auch präzisiert, in welcher Weise, genauer: in Bezug auf welche externen Konzepte (Prozess und Argument) die empirischen Ergebnisse interpretiert werden sollten. Dementsprechend ist im Kategoriensystem (vgl. Anhang A.2) erkennbar, dass die Unterkategorien zur Kategorie „Erstellungsprozess“ Prozessschritte darstellen, deren Beziehung zueinander in einer Reihenfolge besteht. Die Unterkategorien zur Kategorie „Interpretation/Aussagen/Begründungen“ bilden die Kategorien der Argumentationsanalyse, stellen also im Wesentlichen Konklusionen und Prämissen dar.9 Das Kategoriensystem ist also das zentrale Werkzeug, mit

8

MAXQDA, Software für qualitative Datenanalyse, 1989 – 2013, VERBI Software.

9

Dem Leser wird auffallen, dass die Begriffe, die im analytischen Rahmen eingeführt

Consult. Sozialforschung GmbH, Berlin, Deutschland. werden, und auch die Unterscheidungen, die dort getroffen werden, teilweise von den Kategorien des Systems in Anhang A.2 abweichen. Dies ist darin begründet, dass

M ETHODE

| 107

dem die Interviews erschlossen und strukturiert wurden – wobei dieses Werkzeug im Prozess der Auswertung ausgehend von den Ad-hoc-Kategorien erst entwickelt wurde. Der in Kapitel 3 vorgestellte analytische Rahmen der Untersuchung stellt gerade die Explikation der Bedeutung dieses Werkzeugs dar, genauer, die Bedeutung der konkreten Kategorien und ihrer Beziehungen zueinander. In einem letzten Schritt wurden in der Auswertung schließlich auf Grundlage der Kategorien Typen gebildet. Im Sinne Kelle und Kluges (2010: 83) stellt ein Typus eine Übersteigerung von Merkmalen empirischer Phänomene dar. Sie werden in der vorliegenden Arbeit gebildet, um das Spektrum der empirischen Ergebnisse möglichst prägnant wiederzugeben und sollen für weitere empirische Analysen instruktiv sein. Sie stellen also notwendigerweise Zuspitzungen der empirischen Ergebnisse dar. Konkret wurden in der vorliegenden Arbeit hinsichtlich der Prozessanalyse drei Typen (sequenzielle Trennung, iterative Trennung und interaktive Verschränkung) gebildet, die das Spektrum der in den Interviews beschriebenen Erstellungsprozesse energieprognostischer Gutachten beschreiben (vgl. Abschnitt 6.1). Hinsichtlich der Argumentationsanalyse wurden drei Typen gebildet, die die unterschiedliche Interpretation eines einzelnen Modelllaufes beschreiben (kategorische possibilistische Prognose, kategorische deterministische Prognose und konditionale deterministische Prognose; vgl. Abschnitt 6.2) und weitere drei Typen, die die Interpretation mehrerer Modellläufe beschreiben (Gegenüberstellung possibilistischer Prognosen, Isolation von Effekten und Sensitivitätsanalysen; vgl. Abschnitt 6.3).10 Die in der Argumentationsanalyse gebildeten Typen stellen spezifische Argumente dar und werden im Folgenden nicht gesondert als „Typen“, sondern nur als „Argumente“ aufgerufen.

während der Ausarbeitung des Textes noch eine weitere Schärfung des analytischen Rahmens stattfand, der jedoch nicht noch einmal durch Rekodierung der Interviews umgesetzt wurde. Es zeigt sich hier also der Werkzeugcharakter des Kategoriensystems. 10 Das Kategoriensystem (vgl. Anhang A.2) zeigt bereits die Typen der Argumentationsanalyse – wenn auch unter leicht anderen Bezeichnungen –, da diese bereits im Rahmen der Kodierung entwickelt wurden. Die Typen der Prozessanalyse wurden hingegen während der Ausarbeitung der schriftlichen Arbeit, also nach der Fertigstellung des gezeigten Kategoriensystems gebildet, so dass diese dort nicht enthalten sind.

108 | M ODELLIERTE Z UKUNFT

5.7 S TATUS

DER

E RGEBNISSE

In diesem Abschnitt wird erläutert, welchen Geltungsgrenzen die hier erarbeiteten empirischen Ergebnisse aufgrund des methodischen Vorgehens unterliegen und welchen epistemischen Status sie damit haben. Eine wesentliche Eigenschaft des hier gewählten Ansatzes wurde bereits in Abschnitt 5.1 erläutert: Die vorliegende Untersuchung übernimmt die grundlegende Zielsetzung der qualitativen Sozialforschung, indem empirisch begründete Hypothesen über den Gegenstand entwickelt werden (Lamnek 2005: 25, 89). Dies spiegelt sich etwa darin wider, dass keine Vollerhebung durchgeführt wird, sondern sich die Auswertung auf Schilderungen relativ weniger Modellierer der Community stützt. Diese stellen die empirische Basis der Entwicklung von Hypothesen für die gesamte Community dar – ein Vorgehen, das dadurch methodisch abgesichert ist, dass nicht „irgendwelche“ Modellierer für die Interviews ausgewählt werden, sondern solche, die aufgrund bestimmter Merkmale das Spektrum der untersuchten Praxis gut beschreiben können. Auch spiegelt sich der hypothetische Charakter der Ergebnisse darin wieder, dass im letzten Schritt der Auswertung Typen gebildet werden, die die empirischen Ergebnisse zuspitzen und damit nicht mehr den Anspruch erheben, die Empirie direkt wiederzugeben. Wie Kelle und Kluge (2010: 83) es ausdrücken, sind Typen hinsichtlich ihres epistemischen Status vielmehr zwischen Empirie und Theorie angesiedelt. Darüber hinaus stellt das spezifische Forschungsdesign der Untersuchung eine wichtige Randbedingung für die Geltung der Ergebnisse dar. Erstens ist zu beachten, dass die Argumente und Prozesse auf Basis von Interviews rekonstruiert werden. Zweitens ist wichtig, dass hierbei nur Modellierer, nicht aber Auftraggeber interviewt werden. Dies bedeutet einerseits, dass die rekonstruierten Argumente nicht die Argumente wiedergeben, wie sie in konkreten Gutachten vorgefunden wurden, sondern vielmehr die „intendierten“ Argumente, die nach Ansicht der Interviewten in Gutachten typischerweise vorgebracht werden. Wie diese Argumente dann tatsächlich in den Gutachten transportiert werden und ob diese dort überhaupt erkennbar sind, ist damit nicht untersucht – wobei eine Ausgangsdiagnose der vorliegenden Arbeit ist, dass die Struktur der Argumente in vielen Gutachten gerade nicht offensichtlich ist. Was durch das Vorgehen jedoch gelingt, ist zunächst einmal zu klären, worin überhaupt die grundlegende Struktur der Botschaft solcher Gutachten bestehen soll. Hieran kann bereits eine konstruktive Kritik anschließen, für die die vorliegende Untersuchung zentrale Aspekte herausarbeitet. Außerdem stellen die hier rekonstruierten Argumente einen hervorragenden Ausgangspunkt für die Analyse konkreter Gutachten dar.

M ETHODE

| 109

Andererseits folgt aus dem Umstand, dass die Auftraggeber nicht interviewt wurden, dass die rekonstruierten Erstellungsprozesse der Gutachten nur die Sicht der Modellierer auf diese Prozesse widerspiegeln. Es ist jedoch nicht auszuschließen, dass Auftraggeber diesen Prozess anders beschreiben würden und dass auch eine direkte Beobachtung des Prozesses zu einer differenzierteren Beschreibung des Prozesses führen würde. Die Diskussion der rekonstruierten Erstellungsprozesse stellt damit keine Evaluation konkreter Projekte dar. Vielmehr stellen die hier aufgedeckten – auch kritischen – Aspekte ebenfalls einen Startpunkt für die weitergehende Analyse der Praxis und für eine konstruktive Diskussion über die Schwachstellen und Stärken der Praxis dar. Zusammenfassend sind die Ergebnisse der vorliegenden Arbeit und ihre kritische Diskussion als erster Schritt in Richtung einer konstruktiven Verständigung über die Möglichkeiten und Grenzen der Energieprognostik – gerade im Kontext der Politikberatung – zu verstehen und sollen das hierfür nötige Verständnis des Gegenstandes liefern.

6. Ergebnisse

In diesem Kapitel werden die Ergebnisse der Analyse der Interviews präsentiert, wobei der Aufbau des Kapitels der Vorstellung folgt, sich dem Gegenstand schrittweise anzunähern. Zunächst wird in Abschnitt 6.1 die Frage beantwortet, wie energieprognostische Gutachten und damit die in ihnen transportierten Gebilde gemäß der Beschreibung der Interviewten in Beratungsprojekten erstellt werden. Hierzu werden auf Grundlage des in den Interviews beschriebenen Spektrums drei Typen dieser Erstellungsprozesse rekonstruiert. Anschließend erfolgt in drei Schritten die Analyse dieser Gebilde. Zunächst wird in Abschnitt 6.2 rekonstruiert, wie die Modellierer einen einzelnen Modelllauf interpretieren. Das Ergebnis werden hier drei typische Argumente sein. Anschließend wird in Abschnitt 6.3 hierauf aufbauend rekonstruiert, wie mehrere Rechenläufe einer Szenarioanalyse interpretiert werden. Das Ergebnis besteht in zwei komplexen Argumenten, zu denen unterschiedliche Varianten diskutiert werden. Im letzten Schritt wird in Abschnitt 6.4 schließlich das Fundament dieser Argumente untersucht, indem der Frage nachgegangen wird, wie die Modellierer ihre Modelle interpretieren. Um ein einfaches Nachschlagen zu ermöglichen, werden die im Folgenden rekonstruierten Argumente nicht nur hier in diesem Kapitel aufgeführt, sondern zusätzlich noch einmal in Anhang A.4 versammelt.

6.1 E RSTELLUNGSPROZESSE In diesem Abschnitt wird zunächst die Frage behandelt, wie gemäß den Schilderungen der Interviewten der Prozess der Erstellung der Gutachten, insbesondere hinsichtlich der Interaktion der beteiligten Akteure, beschaffen ist. Die Analyse der Interviews beginnt damit mit dem Fokus auf dem Handlungskontext, in dem energieprognostische Gutachten und die in ihnen transportierten Gebilde erstellt

112 | M ODELLIERTE Z UKUNFT

werden. Damit wird dem Umstand Rechnung getragen, dass energieprognostische Gutachten keine Produkte sind, die lediglich wissenschaftlichem Erkenntnisinteresse folgen, sondern dass sie Teil eines Beratungsprozesses sind, der einen bestimmten sozialen Zweck an der Schnittstelle von Wissenschaft und außerwissenschaftlichen Bereichen, allen voran der Politik, erfüllen. Wie in Abschnitt 3.2 geschildert wurde, wird davon ausgegangen, dass dieser Zweck im Kern darin besteht, die wissenschaftliche Anforderung nach Validität mit der außerwissenschaftlichen Anforderung nach Relevanz in Einklang zu bringen. In der Analyse der Erstellungsprozesse werden in den Abschnitten 6.1.2 bis 6.1.4 drei typische Formen dieses Erstellungsprozesses rekonstruiert, wobei die Fragen nach der Sequenzialität des Prozesses und dem Grad der Trennung der Akteure hier leitend sind (vgl. Abschnitt 3.1). Dies ist erstens der Typ sequenzielle Trennung, zweitens der Typ iterative Trennung und drittens der Typ interaktive Verschränkung. Die Rekonstruktion der drei Typen basiert auf den Schilderungen der Interviewten, greift im Fall der interaktiven Verschränkung aber auch auf Erkenntnisse zurück, die außerhalb der Erhebung gesammelt wurden. Ziel dieser Rekonstruktion ist es, die Unterschiedlichkeit der geschilderten Prozesse sichtbar zu machen. Die rekonstruierten Typen stellen jedoch keine disjunkten Klassen dar. Vielmehr markieren die Typen sequenzielle Trennung und interaktive Verschränkung die zwei Extreme eines (linear vorgestellten) Kontinuums, das die Bandbreite der geschilderten Erstellungsprozesse abdeckt. Zwischen diesen beiden Extremen befindet sich – gewissermaßen im Mittelpunkt des Kontinuums – der Typ der iterativen Trennung. Die von den Interviewten geschilderten Prozesse werden dementsprechend teilweise auch zwischen diesen Typen im Kontinuum verortet. 6.1.1 Festlegung der Fragestellung und Verfassen des Gutachtens Ein erster Aspekt, der geklärt werden muss, ist die Frage, wie und durch wen die Fragestellung eines Projektes festgelegt wird. Da diesbezüglich alle Interviewten Ähnliches schildern, wird dieser Aspekt hier vor der differenzierten Rekonstruktion der drei Typen behandelt und anschließend lediglich anhand der Fälle illustriert. Alle Interviewten berichten, dass ein erster Schritt dieser Festlegung bereits in der öffentlichen Ausschreibung des Projektes und seine Beantwortung durch das Angebot der sich bewerbenden Institute geschieht – und damit vor der jeweiligen Projektlaufzeit stattfindet. Die öffentliche Ausschreibung ist in aller Regel für Beratungsprojekte für staatliche Institutionen, auf die sich die Interviews hauptsächlich konzentrierten, vorgeschrieben.

E RGEBNISSE

| 113

Mehrere Interviewte schildern, dass Ausschreibungen unterschiedlich in Bezug auf die Detailliertheit der formulierten Fragestellung sind. Wie Imgrund es ausdrückt, reichen diese von „einer Zeile“ bis hin zu einer detaillierten Beschreibung, die auch Vorgaben zu den zu verwendenden Methoden enthalten können.1 Von mehreren Interviewten wird hervorgehoben, dass diese Festlegung und Aushandlung der Fragestellung einen entscheidenden Moment darstellt, in dem der Auftraggeber auf das am Ende erstellte Gutachten Einfluss nehmen kann. Matthias Imgrund beschreibt dies wie folgt: „[…] ein Auftraggeber kann die Terms of Reference schreiben, die Fragestellung festlegen und mit der Fragestellung kann man schon auch sehr viel beeinflussen. Also man kann sagen, was berücksichtigt werden soll oder gegebenenfalls ausgeschlossen werden soll. In einem zweiten Schritt schreiben wir daraufhin in der Regel ein Angebot, und nicht nur wir, sondern üblich sind so diese sechs Angebote, die dann eingeholt werden. Da kann der Auftraggeber nochmal rückverhandeln, aber irgendwann sagt er dann, er vergibt einen Auftrag und dann haben wir als potentieller Auftragnehmer häufig noch die Möglichkeit zu sagen, ja so wollen wir oder wollen wir nicht. Also ich kann natürlich immer sagen, das ist mir suspekt. Und das hab ich auch schon gehabt, dass ich gesagt hab, nee, da wollen wir nicht anbieten. Wenn der Auftrag aber vergeben ist, dann sind wir wirklich frei zu sagen, was wir machen wollen.“ (MI, Int. 2, 211-212)

Als ein populärer Standpunkt wird in diesem Zusammenhang auch die Ansicht vertreten, dass eine weitere Möglichkeit der frühen Steuerung für den Auftraggeber schon in seiner Wahl des beauftragten Institutes besteht. Als eine Erklärung wird hierfür vielfach die Unterstellung angeführt, dass bestimmte Institute der Energieprognostik in ihren Gutachten eigene energiepolitische – sprich normative – Standpunkte vertreten.2 Zwar ist dem Autor dieser Standpunkt in vielen

1

„Ja, also es gibt ja sehr unterschiedliche Ausschreibungen. Eine Ausschreibung, die kann im Prinzip so ausschauen, dass einem eine Zeile gegeben wird, relativ grob: ,Untersuchen Sie die Exportchancen der deutschen Wirtschaft‘ oder irgendsowas. Und es kann aber auch sein, dass die Ausschreibung schon zehn Seiten umfasst und da steht dann drinnen ‚Und beachten Sie insbesondere diese und jene Branche, schauen Sie sich die Daten von diesem und jenen an […]‘ oder was auch immer ‚Verwenden Sie diese oder jene Methode‘.“ (MI, Int. 2, 214)

2

Diese Ansicht wird etwa an prominenter Stelle in der Begründung des methodischen Vorgehens bei der Erstellung der Gutachten für die Enquete-Kommission Nachhaltige Energieversorgung unter den Bedingungen der Globalisierung und Liberalisierung deutlich: „Um möglichst robuste Ergebnisse zu bekommen, hat sich die Kommission

114 | M ODELLIERTE Z UKUNFT

Gesprächen mit Modellierern, Auftraggebern und Beobachtern der energiepolitischen Beratungspraxis in Deutschland begegnet, in den Interviews konnten hierzu jedoch keine systematisierbaren Einsichten gewonnen werden. Damit kann festgehalten werden, dass bereits die Fragestellung des Projektes unter mehr oder minder großer Beteiligung des Modellierers definiert wird – je nachdem wie konkret diese bereits in der Ausschreibung formuliert wurde. Ein weiterer Schritt der Erstellungsprozesse, der bereits vor der Rekonstruktion der Typen diskutiert werden kann, ist das Verfassen des Gutachtens. Den Schilderungen der Interviewten zufolge erfolgt dies stets durch den Modellierer. Nur in einem Fall, der im Folgenden zur Rekonstruktion des Typs der interaktiven Verschränkung herangezogen wird, wurde das Gutachten gemeinsam von Auftraggeber und Modellierer erstellt. Dies wird näher in den Abschnitten 6.1.4 und 7.4 diskutiert. 6.1.2 Sequenzielle Trennung In zwei Fällen werden Erstellungsprozesse energieprognostischer Gutachten beschrieben, die ähnlich zur in Abschnitt 3.2 beschriebenen Vorannahme eines sequenziellen Prozesses sind. Diese werden im Folgenden als Typ sequenzielle Trennung rekonstruiert. Zwar wurde zuvor deutlich, dass die Fragestellung häufig bereits unter Beteiligung des Modellierers und damit nicht alleine vom Auftraggeber festgelegt wird. Das zentrale Merkmal der Vorstellung einer sequenziellen Trennung trifft jedoch in diesen Fällen dennoch zu. Trennung bedeutet hierbei, dass der Auftraggeber zwar die Fragestellung festlegt oder mit dem Modellierer aushandelt, dass der Auftraggeber anschließend aber keinen oder nur einen geringen Anteil an der Umsetzung dieser Fragestellung in den Modellrechnungen hat. Der Interviewte, der diese Trennung am deutlichsten schildert, ist Hans Wagenfurth. Er unterscheidet in seiner Selbstbeschreibung zwei „Welten“, denen er je spezifische Eigenschaften zuschreibt. Zum einen gibt es demnach den Auftraggeber, das sind „[…] die Leute, die jetzt nicht die Modellbauer sind [...]“. Diese „leben“ in ihrer Welt, in der sie „irgendwelche Fragestellungen“ oder Probleme haben, mit denen sie an den Modellierer herantreten (HW, Int. 2, 196). Zum anderen gibt es für Wagenfurth seine eigene Welt, die „Modellierungswelt“

bei der Vergabe der Aufträge an zwei Institute (WI und IER) gewandt, die verschiedene Simulationsverfahren benutzen und die in den letzten Jahren in der energiepolitischen Diskussion unterschiedliche Positionen bezogen haben.“ (Deutscher Bundestag 2002: 347)

E RGEBNISSE

| 115

(HW, Int. 2, 212), in der eine Antwort auf die Frage des Auftraggebers gefunden werden kann. Wichtig ist, dass der Beschreibung Wagenfurths zufolge diese beiden Welten im Ablauf eines Beratungsprojektes im Wesentlichen nur an einer Stelle aufeinander treffen, nämlich bei der Festlegung der Fragestellung. Seiner Schilderung nach nimmt hierbei eine „Storyline“ eine zentrale Vermittlerrolle zwischen den beiden Welten ein, da anhand dieser die Fragestellung, die aus der Welt des Auftraggebers stammt, mit den Möglichkeiten ihrer Beantwortung aus der Welt des Modellierers abgestimmt wird. Bei einer Storyline handelt es sich für Wagenfurth um eine narrative Reformulierung der zu bearbeitenden Fragestellung oder des zu untersuchenden Problems, indem in „[…] dieser Geschichte […] da irgendetwas philosophiert [wird; CD] was man da irgendwie machen möchte [...]“ (HW, Int. 2, 195-196). Genauer gesagt beschreibt Wagenfurth, dass er für diese Abstimmung seine eigene Welt zunächst verlassen muss, „[…] da […] erstmal bei der Diskussion völlig vom Modell abstrahiert [wird; CD], da […] erstmal gesagt [wird; CD], worum geht es euch denn?“ (HW, Int. 2, 210). Damit ist einerseits der Bedarf des Auftraggebers Gegenstand der Aushandlung. Hinzu kommt die Erläuterung der methodischen Möglichkeiten Wagenfurths, die mit diesem in Einklang gebracht werden müssen: „Es geht um dieses oder jenes Problem und dann müssen wir natürlich nachdenken, sind wir überhaupt grundsätzlich in der Lage, können wir dazu was sagen. […] also wir haben die und die und die Variablen, die stehen in folgendem Zusammenhang und ja ... wo müssen wir drehen, um jetzt den Einfluss, den ihr da abgebildet sehen wollt, wirklich wiedergeben zu können. Das ist diese Übersetzung, der Schritt von der Storyline zum Szenario.“ (HW, Int. 2, 210)

In diesem Zitat deutet sich bereits an, dass im Anschluss an die Abstimmung und Festlegung der Fragestellung ein Übersetzungsschritt erfolgt. Hierbei werden die vormals qualitativen oder teilqualitativen Beschreibungen der Storyline in numerische Annahmen übersetzt: „[…] es trifft eben doch häufig zu, dass man feststellt, na ja, ich habe vielleicht das ein oder andere übersehen. […] so und jetzt kann es natürlich sein, jetzt rechne ich und schau mir die Ergebnisse an und dann überlege ich nochmal, mein Gott, eigentlich wollten wir doch ... in der Storyline stand doch folgendes. […] denn das ist ein Übersetzungsvorgang, das muss man klar sehen. Denn so ein Modell ist ja nur ein Abbild und nicht die Realität selbst, und in den Storylines wird da irgendetwas philosophiert, was man da irgendwie

116 | M ODELLIERTE Z UKUNFT

machen möchte, und man begibt sich runter auf die Modellebene, übersetzt das, hat so ein paar Eingriffsstellen, an denen man dreht, und dann kommt ein Ergebnis raus […]. Und dann ist die Frage, ist das vollständig, was wir gemacht haben? Hätte man vielleicht an der einen Stelle etwas weniger und an der anderen vielleicht etwas mehr drehen müssen oder fehlt eine dritte Variable, die man jetzt/ da fehlt irgendwo ein Effekt oder irgendwie so was. Einfach weil man klar sagen muss, dieser Übersetzungsvorgang von der Storyline in das Szenario ist ein wichtiger Schritt.“ (HW, Int. 2, 195-196)

Entscheidend ist, dass diese Übersetzung und damit die Festlegung der numerischen Annahmen laut Wagenfurth in der Welt des Modellierers stattfindet. Er ist es, der die Storyline in numerische Annahmen übersetzt – weshalb die Festlegung der Fragestellung und die Festlegung der numerischen Annahmen als voneinander getrennt rekonstruiert werden können. Dabei handelt es sich bei dieser Übersetzung wiederum nicht um einen einmalig sequenziell durchlaufenden Prozessschritt. Wie im Zitat deutlich wird, findet vielmehr eine Iteration zwischen der Festlegung numerischer Annahmen und den Modellrechnungen statt, wobei die Referenz für diese Iteration gerade die Storyline darstellt. Nötig ist diese iterative Anpassung laut Wagenfurth, weil erst nach dem Ausführen der Modellrechnungen für ihn erkennbar ist, ob das zu untersuchende Phänomen adäquat erfasst wurde, ob also die Übersetzung der Storyline in numerische Annahmen gelungen ist. Entscheidend für die Zuordnung des von Wagenfurth beschriebenen Prozesses zum Typ der sequenziellen Trennung ist, dass diese Iteration allein durch den Modellierer erfolgt. Abbildung 3 fasst den resultierenden Erstellungsprozess des Typs sequenzielle Trennung zusammen. Der letzte Schritt der Erstellung der Gutachten wird dabei vom Modellierer ausgeführt.

E RGEBNISSE

| 117

Abbildung 3: Prozesstyp sequenzielle Trennung

Die Zuordnung Wagenfurths zu diesem Typ muss jedoch spezifiziert werden. Denn wie in Abschnitt 6.3.2 im Detail gezeigt werden wird, argumentiert Hans Wagenfurth im Sinne des dort rekonstruierten Argumentes Isolation von Effekten. Die Konklusion dieses Argumentes besteht in einer Aussage über den Effekt, den ein bestimmtes Ereignis haben würde. Beispielsweise könnte es das Ziel einer Studie sein, die volkswirtschaftlichen Effekte einer Steuererhöhung zu bestimmen. Das Vorgehen besteht hier darin, dass zunächst ein sogenannter Basislauf mit dem Modell gerechnet wird, in dem spezifische numerische Annahmen für die exogenen Variablen getroffen werden. Dann wird ein zweiter Rechenlauf durchgeführt, für den einige der numerischen Annahmen variiert werden. Und gerade diese Variation wird als das zu untersuchende Ereignis interpretiert. Der Unterschied in den numerischen Ergebnissen beider Rechenläufe wird schließlich als Effekt dieses Ergebnisses interpretiert. Bei diesem Vorgehen werden also an zwei Stellen numerische Annahmen gesetzt: Erst werden die gesamten numerischen Annahmen für den Basislauf definiert, dann wird ein Teil dieser Annahmen variiert. Wie sich aus den Schilderungen Wagenfurths erschließt, bezieht sich jedoch die zuvor beschriebene sequenziell getrennte Übersetzung der Storyline in numerische Annahmen im Wesentlichen auf diesen zweiten Teil des Setzens der numerischen Annahmen, also auf die Variation zwischen den beiden Rechenläufen. Die Festlegung der numerischen Annahmen des Basislaufs erfolgt nämlich schon

118 | M ODELLIERTE Z UKUNFT

im ersten Prozessschritt bei der Festlegung der Fragestellung. Als Ursprung dieser numerischen Werte gibt Wagenfurth zwei Möglichkeiten an: Zum einen bestehe die Möglichkeit, dass der Auftraggeber die Werte der exogenen Variablen für das Basisszenario mitbestimmt. Zum anderen könne auch auf einen „Standardlauf“ zurückgegriffen werden, der die „hausinternen“ Vorstellungen des Institutes Wagenfurths über den Verlauf der Variablen darstellt. Herr Wagenfurth betont, er sei an dieser Stelle „ganz flexibel“ (HW, Int.2, 173).3 In jedem Fall geschieht dies jedoch als Teil der Aushandlung der Fragestellung zu Beginn des Projektes. Je nachdem, ob der Modellierer hierbei eingebunden ist, ist die Trennung von Auftraggeber und Modellierer also mehr oder weniger stark ausgeprägt. Einen ähnlichen Prozess beschreibt auch Peter Schnitzer. Er macht deutlich, dass zu Beginn des Projektes – je nach Grad der Detailliertheit der Ausschreibung – in unterschiedlichem Umfang eine Aushandlung der Fragestellung zwischen dem Auftraggeber und dem Modellierer stattfindet. Wie auch bei Hans Wagenfurth kommen hierbei qualitative Beschreibungen in Form von Storylines zum Einsatz, es können aber auch bereits konkrete numerische Annahmen festgelegt werden. Schnitzer hebt hierbei vor allem solche Annahmen hervor, die di-

3

Vgl. die gesamte Passage: „[…] was die exogenen betrifft, sind wir natürlich sehr flexibel. Was wir nicht selbst erklären, kann natürlich – ich will nicht sagen beliebig – aber kann natürlich frei vorgegeben werden. Aber wir selbst haben dazu natürlich auch Vorstellungen und wir haben sozusagen einen Standardlauf, eine Art Basislauf [Name des Institutes; anonym.] […] Also da haben wir hausintern unsere Vorstellungen, die wir dann auch realisieren, aber die müssen ja nicht unbedingt mit denen des Auftraggebers übereinstimmen. Das kann ja sein oder dass eine bestimmte Fragestellung da was anderes erfordert oder irgendwas, also da sind wir immer ganz flexibel.“ (HW, Int. 2, 173), sowie: „[…] es ist sogar so, dass zu Beginn einer jeden Studie immer die große Frage ist, ja wie wollt ihr die – also wenn da ein Auftraggeber ist – wie wollt ihr die Referenz haben? Wollt ihr unsere Referenz, also unsere Baseline haben, die wir euch gerne berechnen können, die wir also bestimmen? Oder soll die, was zentrale Größen betrifft, angepasst sein an irgendwas, was da im politischen Raum rumfliegt, irgendwie so eine, was weiß ich, eine EU-Studie, die mit irgendeinem, was weiß ich, mit allen möglichen Politikprojektionen schon enthalten ist. Manchmal will man das, da will der Auftraggeber die Zahlen wiedersehen, weil er sonst desorientiert wird und so.“ (HW, Int. 2, 64-65)

E RGEBNISSE

| 119

rekt an die zu untersuchende Fragestellung gebunden sind. Als Beispiel führt er etwa die Zielsetzungen an, die in den Storylines festgelegt werden.4 Wie Wagenfurth macht auch Schnitzer deutlich, dass es eines Übersetzungsschrittes bedarf, um diese Festlegungen in vollständige numerische Annahmen für die Modellrechnungen umzuwandeln. Einerseits beschreibt er, dass nicht alle numerischen Annahmen, die schließlich den Modellrechnungen zugrunde gelegt werden, mit dem Auftraggeber abgestimmt werden und macht damit eine gewisse Trennung der ersten beiden Prozessschritte deutlich.5 Gleichzeitig erläutert er jedoch, dass die von ihm durchgeführte Übersetzung der Festlegungen in konkrete numerische Annahmen kein einfach durchlaufender sequenzieller Prozess ist, sondern von ihm eine Iteration durchgeführt wird. Als Referenz dienen ihm hierbei ähnlich wie für Wagenfurth Erwägungen, ob die Übersetzung gelungen ist.6 Zusammenfassend lässt sich auch der von Peter Schnitzer beschriebene Erstellungsprozess grob dem Typ der sequenziellen Trennung zuordnen.

4

Vgl.: „[…] es ist teils unterschiedlich, also es gibt vielleicht Projekte, wo man wirklich eher von der Storyline startet, und dass zum Beispiel der Auftraggeber eher qualitative Szenarien beschreibt, vielleicht schon in den Antragsunterlagen, und .. es kann auch umgekehrt sein, dass der Auftraggeber schon direkt sagt, er möchte ein spezielles Minderungsziel erreichen, möchte spezielle Preise, Preisszenarien untersuchen. Also .. von daher gibt es eigentlich beides. Wobei trotzdem immer noch die Frage ist, wenn man […] konkrete Daten für das Szenario vorgibt, dass man immer noch unterscheiden muss, wie kann ich diese Vorgaben in das Modell übertragen oder gibt es vielleicht auch Beschränkungen des Modells [...]“ (PS, 12). Anm.: Peter Schnitzer verwendet in den Interviews das Wort „vielleicht“ als ein Füllwort. Da er dies auch bei Schilderungen von Dingen tut, die für ihn offensichtlich gewiss sind, drückt er hiermit nur in speziellen Fällen Zweifel oder Mutmaßung aus. In den hier zitierten Passagen ist dies jedoch nicht der Fall.

5

Auf die Frage des Interviewers „Und wenn jetzt das BIP noch in modellverständliche Formen gebracht werden muss, wird dieser Schritt auch nochmal mit dem Auftraggeber diskutiert? Oder machen Sie das dann und dann bleibt es so?“ antwortet Schnitzer: „Das wird in der Regel nicht .. diskutiert.“ (PS, 359-360)

6

Vgl.: „Ja, ich würde es jetzt nicht so streng als rein sequenzielle Arbeitsweise [bezeichnen; CD]. Die ist sicherlich iterativ, dass man wieder zurückgeht […] und dann wieder […] abhängig von den Ergebnissen schaut, macht das Sinn, die Ergebnisse oder muss ich/ hab ich vielleicht .. gerade mit diesen Szenarioannahmen oder Rahmenannahmen einen Fehler gemacht oder ist etwas nicht plausibel.“ (PS, 14-16)

120 | M ODELLIERTE Z UKUNFT

6.1.3 Iterative Trennung Mehrere Modellierer schildern einen Erstellungsprozess, der in weiten Teilen sehr ähnlich zum Ablauf ist, wie ihn Hans Wagenfurth beschreibt. Auch hier findet zunächst eine Aushandlung und Festlegung der Fragestellung zwischen Auftraggeber und Modellierer statt. Anschließend wird diese in numerische Annahmen umgesetzt und schließlich werden Modellrechnungen durchgeführt, bevor am Ende das Gutachten verfasst wird. Auch in diesen Schilderungen wird ein iteratives Anpassen der numerischen Annahmen bei gegebenen Ergebnissen aus den Rechenläufen beschrieben (vgl. iterative Anpassung 2 in Abbildung 4). Der Unterschied zur sequenziellen Trennung besteht jedoch darin, dass zu diesem iterativen Moment, bei dem nur der Modellierer Anpassungen vornimmt, ein zweiter iterativer Teilprozess hinzukommt, bei dem der Auftraggeber beteiligt ist. Dabei werden die numerischen Annahmen im Angesicht der Rechenergebnisse nicht nur auf Grund der Erwägungen des Modellierers angepasst, sondern auch auf Grundlage der Präferenzen des Auftraggebers (vgl. iterative Anpassung 1 in Abbildung 4). Einen solchen Prozess schildert Jochen Altmann für Projekte, die das Argument Gegenüberstellung possibilistischer Prognosen realisieren, das in Abschnitt 6.3.1 rekonstruiert werden wird. Die Grundidee des Argumentes besteht darin, dass jeder Modelllauf einer Studie als alternative mögliche Entwicklung des Zielsystems interpretiert wird. Zunächst wird auch im von Altmann geschilderten Ablauf die Fragestellung zwischen Auftraggeber und Modellierer ausgehandelt. Er macht deutlich, dass der Abstimmungsbedarf hier je nach Auftraggeber unterschiedlich groß ist. Er gibt etwa an, dass ein bestimmtes Bundesministerium stark auf die Realisierung der eigenen Überzeugungen in den Gutachten achtet.7 Er erläutert, dass in einer solchen Abstimmung üblicherweise einerseits erste Vorschläge für Sets von numerischen Annahmen seitens des Modellierers

7

Auf die Frage, ob es Abstimmungsbedarfs bei der Aushandlung der Fragestellung gibt, antwortet Jochen Altmann: „Ja, mit dem [Ministerium A; anonym.] natürlich schon, aber die haben uns eigentlich relativ […] frei gelassen […] und die waren auch, glaube ich zufrieden nachher, das war nicht das Problem. Bei den Rechnungen [für Ministerium B; anonym.] ist der Abstimmungsbedarf deutlich größer gewesen, bisher zu mindestens in diesen verschiedenen Projekten. […] Ja, ja, weil die [Ministerium B; anonym.] natürlich auch ihre eigene Vorstellungen haben, die sie hier wiederfinden möchten, oder zumindestens, wenn sie nicht drin sind, dann von uns eine Erklärung haben möchten, wieso nicht und so weiter. Also da ist der Abstimmungsbedarf meistens etwas größer.“ (JA, Int. 1, 263-265)

E RGEBNISSE

| 121

vorgelegt werden, die unterschiedliche Entwicklungen beschreiben. Aus ihnen werden anschließend vom Auftraggeber nach dessen Kriterien diejenigen Entwicklungen ausgewählt, zu denen Rechnungen durchgeführt werden sollen.8 Andererseits – und das ist der wesentliche Unterschied zum Prozesstyp der sequenziellen Trennung – werden dem Auftraggeber jedoch auch erste Ergebnisse vorgelegt, anhand derer er Korrekturen veranlassen kann: „[…] der ganze Prozess, wie er halt üblich ist, war natürlich auch etwas iterativ gestaltet. Man rechnet zuerst mal was, stellt die Ergebnisse hin, dann fällt was auf, dann gibt es eine Korrektur, dann wird nochmal gerechnet und so weiter. Also dieser Iterationsverlauf ist ja üblich, wenn man solche Rechnungen im Auftrag durchführt, aber auch wenn man es für sich macht. Also das haben wir auch immer – wenn wir zum Beispiel für [Auftraggeber; anonym.] gerechnet haben – gemacht, das ist ein Standardverfahren. Weil der Auftraggeber natürlich auch gerne Zwischenergebnisse sehen möchte, um, sagen wir mal, zu sehen, ob da irgendwelche Dinge auffallen, die dann korrigiert werden müssen. Vielleicht ist das Ergebnis nicht ganz so, wie sie es sich vorgestellt haben oder gewünscht haben. Ich meine das jetzt nicht im negativen Sinne. Im Sinne von Beeinflussung meine ich das nicht, sondern die haben da bestimmte Vorstellungen, wie die Energiewelt vielleicht aussehen sollte oder in welchen Rahmen das ablaufen sollte, und da gibt es dann eben die Korrekturen.“ (JA, Int. 2, 41-42)

Altmann schildert hier also einen iterativen Prozess, bei dem der Auftraggeber nach Vorlage erster Ergebnisse Veränderungen an den numerischen Annahmen veranlassen kann, um so auf das Endergebnis einwirken zu können. Dass es sich bei diesem Vorgehen für Jochen Altmann nicht um eine illegitime Einflussnahme durch den Auftraggeber handelt, wie er in der zuvor zitierten Passage (JA, Int. 2, 41-42) zum Ausdruck bringt, begründet er damit, dass es seiner Ansicht nach im Prinzip unendlich viele unterschiedliche mögliche Entwicklungen des Energiesystems gibt, von denen durch die Setzungen der numerischen Annahmen lediglich bestimmte ausgewählt werden. Dass diese Auswahl durch den Auftraggeber geschieht oder zumindest wesentlich von ihm mitbe-

8

Vgl.: „[…] ich weiß nur, dass wir sozusagen diese Bandbreite dargestellt haben, nicht von der Ergebnisseite her, sondern von der Inputseite, wenn Sie so wollen, und dann hat [der Auftraggeber; anonym.] zwar ein bisschen in Zusammenarbeit mit uns, aber im Wesentlichen alleine dann sich für bestimmte Stories entschieden. Und wie dieser Entscheidungsprozess dort zustande gekommen ist, weiß ich nicht, das haben sie intern gemacht.“ (JA, Int. 2, 39)

122 | M ODELLIERTE Z UKUNFT

stimmt wird, ist für Altmann unproblematisch.9 Hierbei muss angemerkt werden, dass Jochen Altmann dies vor dem Hintergrund des Argumentes Gegenüberstellung possibilistischer Prognosen ausführt. Inwiefern diese Schilderungen auch auf ein Projekt zutreffen, in denen das Argument Isolation von Effekten realisiert wird, ist unklar. Es kann zusammenfassend festgestellt werden, dass im Vorgehen Jochen Altmanns ein iterativer Abstimmungsprozess zwischen Modellierer und dem Auftraggeber realisiert wird, bei dem über die Revision der numerischen Annahmen eine gewisse Steuerung der Ergebnisse vorgenommen wird. Es wird deutlich, dass hierbei nicht nur die Erwägungen des Modellierers berücksichtigt werden, sondern auch die Überzeugungen des Auftraggebers. Dies wird in Abbildung 4 als iterative Anpassung 1 dargestellt.

9

JA: „Aber es ist eine mögliche Energiezukunft, die man ausrechnet. Aber es ist nicht die einzige, es gibt im Prinzip unendlich viele. Nur mit so einem Modell stellt man zum Mindesten sicher, dass die Lösung in sich konsistent ist […].“ CD: „Also Sie sagten, das Modell bildet die Energiewirtschaft ab, und jede Lösung des Modells ist sozusagen eine mögliche Energiezukunft.“ JA: „Ja.“ CD: „Und es gibt sozusagen unendlich viele Energiezukünfte, das war jetzt der Punkt, an dem wir stehen geblieben sind.“ JA: „Ja und im Rahmen [des Projektes; anonym.] haben wir dann eben, wenn Sie so wollen, einige von diesen möglichen Energiezukünften herausgeholt und dargestellt.“ (JA, Int. 2, 51-56)

E RGEBNISSE

| 123

Abbildung 4: Prozesstyp iterative Trennung

Im Unterschied zum Prozesstyp der sequenziellen Trennung werden die ersten beiden Schritte bei der Erstellung des Gutachtens durch diese Iteration also stärker miteinander verknüpft – die Iteration fungiert gewisser Maßen als Brücke zwischen diesen beiden Schritten. Dies hat zur Konsequenz, dass die Grenze zwischen beiden Schritten im Vergleich zur sequenziellen Trennung unscharf wird. Da über die Selektion oder Revision der numerischen Annahmen neu bestimmt wird, welche möglichen Entwicklungen berechnet werden sollen, wird bei dieser Iteration gleichzeitig zumindest graduell auch die Fragestellung angepasst. Dieser Typ des Erstellungsprozesses wird als iterative Trennung bezeichnet, weil weiterhin kein Zugriff des Modellierers auf das Modell beschrieben wird und damit keine vollständige Aufhebung der Trennung der einzelnen Prozessschritte erfolgt – wie es mit dem Typ der interaktiven Verschränkung beschrieben werden wird. Die Zuordnung dreier weiterer Fälle ist etwas schwieriger. Matthias Imgrund, Simon Müller und Klaus Einbaum beschreiben jeweils einen Prozess, der zwischen den beiden Typen der sequenziellen und der iterativen Trennung angesiedelt werden muss. Alle drei Interviewten erläutern, dass die Modellrechnungen nicht unter direkter Involvierung des Auftraggebers vonstattengehen. Für eine Trennung spricht zudem, dass alle drei Interviewten die wissenschaftliche Unabhängigkeit oder Standards guter wissenschaftlicher Praxis als ein von ihnen

124 | M ODELLIERTE Z UKUNFT

verfolgtes Ideal hervorheben. Imgrund und Müller weisen in diesem Zusammenhang explizit eine Einflussnahme durch den Auftraggeber während der Modellrechnungen zurück. Im Falle Klaus Einbaum legt der Gesamteindruck des Interviews nahe, dass er sich dem anschließen würde.10 Ähnlich wie auch Hans Wagenfurth macht jedoch zumindest Matthias Imgrund deutlich, dass es für ihn egal ist, welche genauen Werte für diejenigen

10 Matthias Imgrund führt aus: „[…] das heißt, wenn ich Ergebnisse liefere, die dem Auftraggeber genehm sind, muss ich nicht mit halb so vielen Problemen und Nachfragen rechnen, wie wenn die Ergebnisse ihm unangenehm sind. Da besteht natürlich wieder im Prinzip so ein Anreiz, zu sagen von vorneherein, man versucht es dem Auftraggeber recht zu machen. Und je nach dem was man für ein Typ ist, ob man sagt, nee das ist mir doch egal, da geh ich mit dem in die Bütt, oder ob man sagt, nee nur keine Probleme mit denen, wird es unterschiedlich sein. Und ich bin froh, dass ich im [Name seines Institutes; anonym.] bin, also ein Institut, das so groß ist, dass es sich durchaus leisten kann, auch mal mit einem Auftraggeber/ und insgesamt ein gutes Renommé hat, dass es sich durchaus auch leisten kann, mit einem Auftraggeber mal in Clinch zu gehen, weil man da relativ große Freiheit hat, es zu machen.“ (MI, Int. 2, 212). Auch Simon Müller verweist in diesem Zusammenhang auf die institutionellen Rahmenbedingungen, hier die Grundfinanzierung, als wesentliche Voraussetzung für die Unabhängigkeit: „Bei den Beratungsjobs ist es etwas anders, das ist natürlich schon die Voraussetzung, dass man wissenschaftlich sauber arbeitet, also das steht natürlich über allem. Dann ist das zweite, was bei uns ganz, ganz wichtig ist, ist .. auch/ also gerade fürs Beratungsgeschäft ist die Ergebnisoffenheit. Also wir kriegen raus, was wir raus kriegen (lacht) .. und da beißt also niemand einen Faden daran ab. Wir sind in der glücklichen Lage, eben durch unsere Grundfinanzierung eine gewisse Unabhängigkeit zu haben. Wir sind nicht auf Gedeih und Verderb von Drittmitteln abhängig. Und schon gar nicht von Drittmitteln aus/ in irgendeiner politischen Couleur oder von Unternehmensseite. Also mit anderen Worten, wir machen keine, absolut keine Gefälligkeitsgutachten. Bei uns ist von Anfang an offen, welches Ergebnis raus kommt. Aber wenn das einem potentiellen Auftraggeber nicht gefällt, dann kommt man halt nicht zusammen, das ist auch schon passiert, kam auch schon vor.“ (SM, Int. 1, 297). Klaus Einbaum hebt hervor, dass für ihn der Umstand, als Universitätsinstitut den wissenschaftlichen Standards der betreffenden Fakultät genügen zu müssen, einen wesentlichen Mechanismus zur Wahrung der Qualität darstellt: „Ja wir sind natürlich hier ein Universitätsinstitut und haben zwar Kooperationen und Wettbewerb auch mit Beratern, aber gleichzeitig den Anspruch, eben fundiert dann zu beraten, mit Methoden, die im Anspruch auch den Erwartungen der Fakultät entsprechen.“ (KE, Int. 1, 202)

E RGEBNISSE

| 125

Annahmen verwendet werden, die nicht zwischen den beiden Rechenläufen bei einer Isolation von Effekten verändert werden, solange diese sich in einem von ihm bestimmten Bereich des Plausiblen bewegen.11 Zumindest in seinem Fall ist es also für den Auftraggeber möglich, zumindest in gewissen Grenzen numerische Annahmen mitzubestimmen. Der Zuordnung der Fälle Imgrund und Müller zum Typ der sequenziellen Trennung steht zudem entgegen, dass beide einen Austausch von Zwischenergebnissen nach ersten Modellrechnungen zwischen Modellierer und Auftraggeber erwähnen. Die Tragweite dieses Austauschs wird jedoch in den Interviews nicht deutlich. Im Falle Einbaum bleibt diese Frage gänzlich ungeklärt. Zusammenfassend kann damit über diese drei Fälle nicht eindeutig gesagt werden, in welchem Ausmaß die Festlegung der numerischen Annahmen und die Modellrechnungen von der Aushandlung der Fragestellung und damit vom Auftraggeber getrennt stattfinden. In Abbildung 6 werden diese Fälle deshalb im Bereich zwischen dem Typ der sequenziellen und der iterativen Trennung verortet. 6.1.4 Interaktive Verschränkung Der dritte hier unterschiedene Typ der Erstellung energieprognostischer Gutachten wird als interaktive Verschränkung bezeichnet. Er ist dadurch gekennzeichnet, dass die Trennung des Auftraggebers und des Modellierers noch stärker aufgelöst ist als im Falle der iterativen Trennung. In „Reinform“ ist dieser Typ sogar durch eine vollkommene Aufhebung dieser Trennung gekennzeichnet. In

11 Vgl.: „Dann für das Szenario, da haben wir Vorschläge gemacht, welche Annahmen man an verschiedenen Stellen trifft. Die sind dann vorgestellt worden, diskutiert worden, und ich weiß es nicht mehr, ob es gleich mehr oder weniger auf Akzeptanz gestoßen ist oder ob wir den ein oder anderen Wert noch modifizieren mussten. Also ob man nun sagt der Dollar ist, was weiß ich, 1,80 oder irgendwas, das sind Dinge, da kann man immer darüber reden, und im Endeffekt waren wir ja auch der Überzeugung: es ist nicht relevant oder nicht dominierend für unsere Ergebnisse. […] Von daher haben wir dann an der einen oder anderen Stelle auch keine großen Probleme und sagen: Ok wir brauchen was Plausibles, aber uns ist das egal, ob da nun 1,70 oder 1,80 oder was auch immer drinnen steht. Das ist natürlich auf der politischen Ebene ganz anders, wenn wir zum Beispiel einen Ölpreis von 20 Dollar haben und zu dem Zeitpunkt, wo die Studie erscheint, ist der Ölpreis bei 30 oder 35 Dollar, dann ist es für die Vermarkter von der Studie und für diejenigen, die es gegenüber ihren Chefs und den Politikern verwenden wollen, teilweise schon ein Glaubwürdigkeitsproblem.“ (MI, Int. 1, 264-266)

126 | M ODELLIERTE Z UKUNFT

dieser Deutlichkeit wurde ein Prozess dieses Typs jedoch nicht in den hier ausgewerteten Interviews beschrieben, sondern in Gesprächen, die außerhalb der Erhebung mit einem Vertreter des Auftraggebers und gleichzeitigem Modellierer einer bestimmten Studie stattfanden. Der Interviewte Anton Gerhard beschreibt jedoch einen Prozess, der bestimmte Charakteristika dieses Typs aufweist, sodass es schon für die Charakterisierung des von ihm beschriebenen Prozesses hilfreich ist, den Typ interaktive Verschränkung zunächst in seiner Reinform zu bestimmen. Der Typ der interaktiven Verschränkung zeichnet sich im Unterschied zur sequenziellen und zur iterativen Trennung dadurch aus, dass in einem Prozess dieser Art der Auftraggeber direkten Zugriff auf das Modell hat. Im Falle der zuvor erwähnten Studie wurde dies dadurch realisiert, dass der Auftraggeber und der Modellierer gemeinsam das Modell weiterentwickelt haben. Als Basis für das Modell wurde ein kommerzielles Softwarepaket für Energiesystemanalysen verwendet, das bereits die grundlegenden Funktionen für eine Modellierung auf Grundlage des Konzeptes des Referenzenergiesystems (vgl. Abschnitt 4.4) bereitstellt. Die Entwicklungsarbeit bestand also im Wesentlichen darin, diese Software anzuwenden, um eine Repräsentation des betreffenden Zielsystems zu erzeugen. Dies erfolgte den Schilderungen des Auftraggebers zufolge in Arbeitsteilung mit dem Modellierer. Möglich war dies einerseits, weil es sich bei der betreffenden Studie um einen Teil einer Serie handelte, in der bereits seit mehreren Jahren die Gutachten von diesen Partnern gemeinsam erstellt und veröffentlicht wurden. Teil des Auftrags bei mindestens einer vorangegangenen Ausgabe war es, das verwendete Modell an die auftraggebende Organisation zu übergeben und einen Teil ihrer Mitarbeiter im Umgang mit ihm zu schulen. Der Auftraggeber, mit dem das Gespräch stattfand, wurde seiner Schilderung nach auf diesem Weg eingelernt, so dass er für die mit ihm diskutierte Ausgabe Teilbereiche des Modells eigenständig weiterentwickeln konnte. Das resultierende Simulationsmodell (vgl. Abschnitt 4.4.2) wurde im Rahmen der Studie schließlich für die Berechnung von Szenarien eingesetzt. Die Setzung der Annahmen fand dabei wiederum in enger Abstimmung zwischen dem Auftraggeber und dem Modellierer statt und die Modellrechnungen wurden den Schilderungen des Modellierers zufolge ebenfalls gemeinsam von beiden Seiten durchgeführt. Zuletzt fällt schließlich auf, dass in der Veröffentlichung die Mitarbeiter der auftraggebenden Organisation als Hauptautoren genannt werden, während die beauftragten externen Modellierer als Koautoren gelistet werden. Zusammenfassend lässt sich feststellen, dass im geschilderten Projekt die in Abschnitt 3.1 unterschiedenen Prozessschritte einschließlich Modellanpassungen und Modellrechnungen sowohl vom Modellierer als auch vom Auftraggeber be-

E RGEBNISSE

| 127

arbeitet wurden, womit sich Prozesse dieses Typs deutlich von Prozessen der zuvor beschriebenen Typen unterscheiden. Schlussendlich wird hier ein Prozess beschrieben, der in seiner Grundstruktur nicht als sequenziell beschrieben werden kann. Vielmehr scheint es treffend, den Prozess als interaktiv verschränkt zu bezeichnen. Abbildung 5 veranschaulicht diesen Typ. Abbildung 5: Prozesstyp interaktive Verschränkung

Anton Gerhard beschreibt einen Erstellungsprozess, der sowohl Merkmale einer iterativen Trennung als auch der interaktiven Verschränkung aufweist, weshalb dieser Prozess in Abbildung 6 zwischen diesen beiden Typen verortet wird. Insbesondere bleiben in seiner Beschreibung weiterhin unterschiedliche Prozessschritte erkennbar, wenngleich die Durchführung in einer sehr engen Interaktion von Auftraggeber und Modellierer erfolgt.12 12 Gerhard beschreibt in den Interviews genauer gesagt zwei Typen von Projekten. Der eine Typ folgt – soweit seine Schilderungen eine Zuordnung zu lassen – dem Typ der sequenziellen Trennung, da hierbei zu Beginn des Projektes gemeinsam mit dem Auftraggeber die Fragestellung anhand von Storylines festgelegt wird, der Auftraggeber aber danach erst wieder bei der Präsentation der Ergebnisse involviert ist. Dieser Typ von Projekten spielt jedoch in den Schilderungen Gerhards eine untergeordnete Rolle.

128 | M ODELLIERTE Z UKUNFT

Insbesondere spielt hier die Formulierung von Storylines eine zentrale Rolle, wobei an späterer Stelle gezeigt wird, dass Gerhard ausschließlich Projekte beschreibt, die das Argument Gegenüberstellung possibilistischer Prognosen realisieren. Er beschreibt eine Storyline – ähnlich wie Wagenfurth – als eine narrative Version eines Szenarios, in der „[…] sie halt im Prinzip so eine Art Philosophie dieses Szenarios [...]“ (AG, Int. 1, 177) oder eine „[…] grobe Entwicklungsstory […] beschreiben.“ (AG, Int. 2, 49)13. Die Storylines werden in der Regel in einer Interaktion zwischen dem Auftraggeber und dem Modellierer erstellt, wie Gerhard beschreibt.14 Dabei „[…] nehmen [die Storylines; CD] eben die Vorstellung, die Ziele der Politik auf und versuchen sie halt in eine in sich konsistente Geschichte einzubinden.“ (AG, Int. 2, 59). Anton Gerhard hebt hervor, dass den Storylines im Beratungsprozess eine zentrale Rolle zukommt: „Weil das ist letztendlich nach meiner Erfahrung auch das, was die Politiker mehr oder weniger im Kopf haben beziehungsweise später dann auch nutzen wollen. Weil die kümmert eigentlich weniger, wie der Wirkungsgrad eines einzelnen Kraftwerkes im Jahr 2017 aussieht. Sie brauchen einen neuen Orientierungsrahmen, um zu sagen, geht eine Entwicklung, die auf die drei, vier Strategieelemente setzt, oder geht nur eine Entwicklung, die auf zwanzig Strategieelemente setzt. Und wo habe ich vielleicht auch Alternativen des Handelns, CCS oder Kernenergie, CCS oder Erneuerbare, oder brauche ich alles. Und das ist dann schon sehr plakativ in den Storylines mit enthalten.“ (AG, Int. 2, 60)

Es wird somit deutlich, dass den Storylines eine Vermittlerrolle zugewiesen wird. Sie ermöglichen eine Verständigung von beiden Seiten auf einer gemeinsamen Ebene, die unabhängig von Detailfragen an den Vorstellungen und Bedürfnissen des Auftraggebers anknüpft. Die Funktion der Storylines für den weiteren Prozess besteht darin, dass mit ihnen die Spanne der zu betrachtenden Annahmen – und damit der zu betrach-

Den zweiten Typ schildert er dagegen ausführlich und verknüpft ihn eng mit seinen allgemeinen Überzeugungen darüber, wie wissenschaftliche Politikberatung mit Hilfe von Modellen angemessen zu realisieren sei. Im Folgenden konzentriert sich die Analyse deshalb auf diesen zweiten von ihm unterschiedenen Typ. 13 Gesamte Passage zitiert in Fußnote 17. 14 Auf die Frage, wer die Storylines „erfindet oder erstellt“, antwortet Anton Gerhard: „Das ist häufig sehr interaktiv, und es gibt natürlich meistens von uns einen Vorschlag für solche Storylines, die aber natürlich rückgekoppelt werden mit dem Auftraggeber, der sagt, ja das ist für uns ein interessanter/ oder die drei Storylines sind vielleicht interessant, miteinander zu vergleichen.“ (AG, Int. 1, 179).

E RGEBNISSE

| 129

tenden möglichen Entwicklungen des Zielsystems – eingeschränkt wird. Dementsprechend schließt sich an die Formulierung der Storylines als nächster Prozessschritt die Übersetzung der Storylines in konkrete numerische Annahmen an: „[Man; CD] sagt, so, jetzt habe ich die Geschichte im Hinterkopf. Und bei jeder Entscheidung, die ich in diesem Referenzenergiesystem treffe, muss ich eben mich an dieser Story auch orientieren. Entweder die Technologie steht zur Verfügung oder nicht. Oder wenn ich die Wahl habe zwischen CCS und Erneuerbaren – [angenommen; CD] das ist beides gleich teuer – dann sagt mir die Story eben: Lass CCS erst mal beiseite, nimm die Erneuerbaren.“ (AG, Int. 2, 51)15

Für die Übersetzung der Storylines in konkrete numerische Annahmen lassen die Schilderungen Gerhards zwei Strategien erkennen, die allerdings in der Praxis miteinander vermischt angewendet zu werden scheinen: Erstes werden Festlegungen darüber getroffen, welche Technologien mit welchem Anteil berücksichtigt werden sollen16 – dies kommt auch im vorherigen Zitat (AG, Int. 2, 51) zum Ausdruck – und zweitens werden Zielwerte wie etwa eine bestimmte Energieimportquote festgelegt, die in allen Rechnungen einer Studie eingehalten werden müssen.17 Beide Strategien sind eng mit den zentralen Eigenschaften des von ihm verwendeten Simulationsmodells verbunden. Denn anders als in Optimierungsmodellen liegt dem Modell keine Verhaltensannahme zugrunde, die den Einsatz der unterschiedlichen Technologien bestimmt, so dass der Einsatz der Technologien bei Gerhard eine exogene Größe darstellt, deren Werte in jedem Rechenlauf vom Modellierer von Hand festgelegt werden müssen. Da das Modell gleichzeitig statisch ist, muss dies außerdem für jeden Zeitpunkt geschehen.

15 Anm.: Auch Anton Gerhards Modells beruht auf dem grafentheoretischen Konzept des Referenzenergiesystems (vgl. Abschnitt 4.4). Mit einer „Entscheidung, die ich in diesem Referenzenergiesystem treffe“ meint er die numerischen Festlegungen für den Einsatz unterschiedlicher Technologien. 16 Vgl.: „[…] das Gesamtmodell ist wirklich ein sehr klassisches Simulationsmodell, bottom-up-orientiert, wo Sie an jeder Verzweigungsstelle sagen müssen, 13 Prozent, 12 Prozent Marktanteil, in der oder der Technologie. Das wird also nicht irgendwie endogen formuliert oder bestimmt, sondern das bestimmt der Nutzer.“ (AG, Int. 1, 9) 17 Vgl.: „Und jetzt kommen die Storylines und Storyline ist natürlich, also zunächst mal, dass Sie ein Ziel vorgeben müssen, dieses Energiesystem soll bestimmte Klimaschutzziele, bestimmte Versorgungssicherheitsbeiträge leisten, soll nicht mehr als Importquote von XY im Jahre 2050 realisieren lassen.“ (AG, Int. 1, 177)

130 | M ODELLIERTE Z UKUNFT

Der Aufwand je Rechenlauf ist damit vergleichsweise hoch.18 Das kombinierte Vorgehen aus der Festlegung der Anteile der Technologien und Zielwerte kann vor diesem Hintergrund so verstanden werden, dass über die Zielwerte zunächst die jeweiligen Möglichkeitsräume eingegrenzt werden, die in jedem Lauf betrachtet werden sollen. Die Festlegung der Technologien stellt dann gewissermaßen die Ausgestaltung einer bestimmten Entwicklung innerhalb dieser Grenzen dar. Wichtig ist nun, dass Gerhard diesen Prozess und damit die Übersetzung der Storylines in numerische Annahmen für die exogenen Größen ebenfalls als einen Dialog von Auftraggeber und Modellierer beschreibt: „Und dann hat sie [die Politik; CD] halt in diesem Modellprozess die Wahl zwischen unterschiedlichen Folterinstrumenten. [Sie; CD] kann sagen, weil sie den Response von dem Modell kriegt, wir sind jetzt irgendwie bei 75 Prozent Minderung, wir wollen aber bei 80 Prozent landen. [Und dann sage ich als Berater; CD] jetzt guck dir doch mal deine Folterinstrumente an. Welches von den fünf oder sechs, die noch im Baukasten drin sind, willst du denn nehmen? […] und das ist schon die direkte Rückkoppelung mit der Politik, zu sagen, so, das ist euer Baukasten. Die 100 Optionen habt ihr, wenn ihr die 20 leichtesten verfrühstückt, seid ihr bei 30 Prozent Minderung. Wenn ihr die nächsten 30 mittelschweren nehmt, seid ihr bei so und so viel Prozent Minderung. Also musst du da mal in die Folterkiste greifen und sagen, wo haltet ihr es denn für wahrscheinlich, dass man das umsetzen kann?“ (AG, Int. 1, 67-69)

Gerhard beschreibt hier einen iterativen Abstimmungsprozess, bei dem der Auftraggeber angeregt wird, so lange politische Maßnahmen – in der ungezwungenen Stimmung des Interviews von Gerhard als „Folterinstrumente“ bezeichnet – aus einem „Baukasten“ auszuwählen, bis eine gegebene Zielsetzung – hier die 80-prozentige Minderung der Treibhausgasemissionen – in der Modellrechnung erreicht wird. Ob diese Maßnahmen schon in den Storylines in Form konkreter numerischer Annahmen definiert werden, oder ob diese ebenfalls zunächst nur qualitativ beschrieben und dann vom Modellierer übersetzt werden müssen, bleibt im Interview unklar. Damit bleibt ebenfalls offen, ob der Modellierer alleine die zur Wahl stehenden Maßnahmen definiert oder ob auch hieran der Auftraggeber beteiligt ist. Es lässt sich also nur feststellen, dass der Auftraggeber

18 Vgl.: „Es gibt ja auch technologieorientierte Energiesystemmodelle, die mit 40, 50.000 Variablen umgehen. Das können sie natürlich einem einzelnen Nutzer nicht mehr zumuten, der doch die meisten Variablen dann von Hand setzen muss. Insofern versuchen wir das ein bisschen natürlich überschaubar zu halten [...]“ (AG, Int. 1, 79)

E RGEBNISSE

| 131

mindestens indirekt die numerischen Annahmen für den Einsatz der verschiedenen Technologien mitbestimmt. Eine nähere Betrachtung von Gerhards Umgang mit politischen Maßnahmen bei seinen Modellrechnungen erfolgt in Abschnitt 6.2.1. Jedoch werden generelle Kriterien von Gerhard genannt19 und sind außerdem in der Literatur20 dokumentiert, die die Festlegung der konkreten numerischen Annahmen durch den Modellierer anleiten. Nicht überraschend werden zum einen die Storylines genannt, die, wie eben beschrieben wurde, vor allem über die Festlegung von Zielwerten und den Einsatz bestimmter Technologien eine Vorgabe darstellen. Zum anderen werden als eigener Punkt „Kontinuitätsprinzipien“ aufgeführt, und auch dies ist unmittelbar plausibel, denn aufgrund der statischen Modellierung ist es ja nötig, dass der Modellierer die Entwicklung der exogenen Größen im Zeitverlauf durch seine Setzungen für jeden Zeitpunkt definiert. Neben weiteren Kriterien nennt Gerhard außerdem Erwägungen zur Frage, wie tief eine bestimmte politische Maßnahme in das Zielsystem eingreifen würde und mit welchen ökonomischen, gesellschaftlichen oder politischen Hemmnissen und Widerständen deshalb bei einer Realisierung zu rechnen wäre. In den Interviews und in der Literatur wird dieses Kriterium als „Umsetzungstiefe“21 bezeichnet. Diese Bewertung geschieht wiederum unter Beteiligung des Auftraggebers und kann unter Einbezug weiterer Akteure erfolgen.22

19 Auch legte der Interviewte im zweiten Interview eine Liste vor. 20 Zur Wahrung der Anonymität muss hier auf die Quellenangabe verzichtet werden. 21 Vgl.: „Umsetzungstiefe haben wir damals so definiert nach dem Motto, wie stark greift dieses Instrument ein in das derzeitige Energiesystem. Ist es etwas, wo sie quasi, ich sag mal, ein Informationsprogramm machen, dann greifen sie nur in Nuancen in das bestehende Energiesystem ein. Und sagen, das kann zwar einen Beitrag leisten, aber sie revolutionieren das Energiesystem nicht, und sie muten dem Akteur in diesem Energiesystem auch nicht Gott weiß was zu. Wenn sie aber eine ordnungsrechtliche Vorgabe machen, zum Beispiel eine signifikante Verschärfung der Energieeinsparverordnung oder eine Quotenregelung im Bereich Kraftwärmekoppelung, ist das natürlich eine signifikante Veränderung des derzeitigen Politikgefüges. […] Und dementsprechend ist die Umsetzungstiefe und damit verbunden auch die Widerstände, die sie ernten in einem ja doch konservativen System, deutlich größer.“ (AG, Int. 1, 63-65) 22 Vgl.: „Die Nutzer [des Modells; CD] sind im Wesentlichen die Modellierer. Es gibt auch Projekte, die hier gemacht werden, die etwas diskursorientierter […] ablaufen, wo dann .. die Auftraggeber oder auch andere Akteure eingebunden sind. […] [Wir; CD] haben dann in einem diskursorientierten Prozess mit der Politik, mit Ministerien, aber auch mit Akteuren aus der Industrie versucht, diese Maßnahmen und Instrumente

132 | M ODELLIERTE Z UKUNFT

Zwar beschreibt Anton Gerhard die Festlegung der Fragestellung und die Festlegung der numerischen Annahmen als zwei aufeinander folgende Schritte im Prozess, er weist jedoch gleichzeitig darauf hin, dass es notwendig sein kann, eine Storyline nach einem ersten Versuch der Übersetzung zu revidieren. Dies ist insbesondere dann der Fall, wenn festgestellt wird, dass die ursprünglich in der Storyline festgelegten Technologien nicht ausreichen, um einen Zielwert zu erreichen. In diesem Fall sind laut Gerhard zusätzliche Technologien in Betracht zu ziehen und die Storyline umzuschreiben.23 An anderer Stelle beschreibt Gerhard, dass eine solche Anpassung der Storyline auch das Ergebnis der Diskussion von Zwischenergebnissen mit dem Auftraggeber sein kann, die häufig nach einem ersten Durchgang durch das Setzen der Marktanteile stattfindet.24 Auch wenn Gerhard zwei Schritte unterscheidet, sind diese also dennoch sehr eng durch diese iterative Anpassung miteinander verbunden. Damit weist der beschriebene Erstellungsprozess deutliche Charakteristika des Typs der iterativen

zu bewerten […]. Also das heißt, wir haben versucht, zunächst mal in diesem Diskursprozess letztendlich dem Modellierer mehr Informationen zur Verfügung zu stellen, als er normalerweise hat, indem er jetzt eben zusätzliche Informationen von Seiten anderer Akteure […] mit einbinden kann, um dann die Entscheidung, die er jeweils im Modell treffen muss, auf der Basis dieses größeren Kontextes machen zu können.“ (AG, Int. 1, 47-49) 23 Vgl.: „Und der zweite Schritt ist, diese Storyline zu übersetzen in konkrete Annahmen […]. Dann kann es aber gut sein, dass man im iterativen Schritt nochmal zurückkommen kann, dass man nämlich feststellt, diese Story, wie man sie hier am Anfang erzählt hat, ich sag jetzt mal platt, nur mit Erneuerbaren bis 2050 auf null Prozent Treibhausgasemissionen zurück zu kommen, funktioniert vielleicht nicht. Das heißt, da muss man einen Schritt zurückgehen und sagen, jetzt müssen wir aus dem, was wir gelernt haben, die Storyline anpassen. Und dann muss man halt vielleicht zusätzliche Technologiepfade zulassen und sagen, jetzt nehmen wir vielleicht noch stärkeren Bezug auf Effizienzmaßnahmen und schreiben die Story dann ein bisschen um, sodass mit dem iterativen Prozess letztendlich dann diese Story auch zum gewünschten Ziel führt.“ (AG, Int. 2, 59) 24 Vgl.: „Also häufig werden ja, ich sag mal, vorläufige Ergebnisse präsentiert und dann gibt es natürlich Gespräche mit dem Auftraggeber zum Beispiel in die Richtung von ‚Was wären jetzt sinnvolle Sensitivitätsanalysen‘ oder eben eine Anpassung der Storyline. Was ich gerade schon mal gesagt habe, wo er dann sagt, da habe ich mir die Welt vielleicht doch zu einfach vorgestellt, pass doch mal die Storyline so und so an. Also das gibt es natürlich, diesen interaktiven Prozess gibt es sicherlich [...]“ (AG, Int. 2, 126)

E RGEBNISSE

| 133

Trennung auf. Die Analyse des Falls Gerhard ergibt jedoch, dass in seinem Fall die Trennung von Auftraggeber und Modellierer noch stärker aufgehoben ist als in den Fällen, die zuvor dem Typ der iterativen Trennung zugeordnet wurden. Entscheidend scheint hierfür das verwendete Modell und die sich daraus ergebende Art und Weise, wie es im Beratungsprozess eingesetzt wird, zu sein. Zum einen ist das Modell stark exogenisiert. Der bei einer Rechnung anfallende Vektor numerischer Annahmen für die exogenen Größen ist deshalb relativ groß. Diese Annahmen müssen außerhalb des Modells getroffen und ihr epistemischer Status begründet werden. Im Falle Gerhards wird nun ein Prozess beschrieben, bei dem diese Festlegung der Annahmen gerade in einer engen Abstimmung von Auftraggeber und Modellierer geschieht. Da sowohl der Prozess selbst deutliche iterative Momente aufweist und zudem das Modellkonzept ein iteratives Vorgehen beim Setzen der Annahmen erfordert, verschwimmen die von Gerhard unterschiedenen Schritte zu einer synchronen Abstimmung, bei der Auftraggeber und der Modellierer gemeinsam die Festlegungen der Annahmen treffen. Anton Gerhard macht dies selbst im Interview deutlich, indem er Projekte dieser Art als „diskursorientiert“ in dem Sinne charakterisiert, dass der Auftraggeber oder andere Akteure in den Prozess eingebunden werden. An anderer Stelle erläutert er, dass mit diesem diskursiven Charakter auch seine eigene Rolle als Berater in einen Grenzbereich zwischen wissenschaftlich neutraler Beratung und dem Einbringen eigener politischer Überzeugungen gerät. Beispielhaft nennt er hierfür die Bewertung politischer Maßnahmen hinsichtlich ihrer Umsetzungstiefe. Auch in Gerhards Selbstreflexion zeigt sich damit, dass die Trennung von Auftraggeber und Modellierer in einem solchen Erstellungsprozess stark aufgehoben ist. Da er jedoch gleichzeitig betont, dass der Auftraggeber keinen direkten Zugriff auf das Modell hat, sondern der „Nutzer“ im Regelfall weiterhin der Modellierer ist, muss der von ihm beschriebene Prozess in Abbildung 6 zwischen dem Typ der iterativen Trennung und dem Typ der interaktiven Verschränkung in Reinform eingeordnet werden.25

25 Vgl. (AG, Int. 1, 47-49), wörtlich zitiert in Fußnote 22 sowie: „So, das ist für mich der rein wissenschaftliche Part, zu sagen, abgestimmte Annahmen, abgestimmte Storylines, Modellinstrumentarium läuft drüber, ich komme zu den und den Ergebnissen, rein wissenschaftlicher Part, sehr sauber dokumentierbar. Und dann beginnt natürlich, wenn man so will, die politische Detailberatung aus der wissenschaftlichen Perspektive, und da ist man natürlich zum Teil wirklich im Grenzgebiet, wenn man darüber diskutiert, wie ist tatsächlich die gesellschaftliche Akzeptanz von bestimmten Technologien einzuschätzen/ wie zumutbar sind bestimmte sagen wir mal strukturelle Veränderungen, für welche Akteure, für die Industrie, für den privaten Verbraucher? Das

134 | M ODELLIERTE Z UKUNFT

6.1.5 Übersicht der Fälle Das Spektrum der von den Modellierern geschilderten Erstellungsprozesse wird in Abbildung 6 als Kontinuum dargestellt. Dabei greift die Rekonstruktion des Typs der interaktiven Verschränkung, wie zuvor erläutert wurde, auf Erkenntnisse zurück, die außerhalb der regulären Interviews gewonnen wurden. Dementsprechend ist diesem Typ kein Fall direkt zugeordnet worden. Abbildung 6: Übersicht der Fälle im Spektrum der Prozesstypen

Es sei noch einmal auf den Status der hier gewonnenen Erkenntnisse verwiesen. Ziel war, auf Grundlage der Schilderungen der Interviewten typische Erstellungsprozesse energieprognostischer Gutachten zu bestimmen. Die so gewonnenen Typen sind so konzipiert, dass sie für weitere Forschungen fruchtbar sind und stellen deshalb Zuspitzungen des empirisch vorgefundenen dar. Dementsprechend sind die Typen nicht geeignet, die in den Interviews beschriebenen Projekte zu evaluieren, sie sollen vielmehr als instruktive „Blaupausen“ für weitere empirische Untersuchungen dienen.

6.2 E LEMENTARE A RGUMENTE Es wird nun der Frage nachgegangen, welche Aussagen in energieprognostischen Gutachten auf der Grundlage einzelner Modelläufe getroffen werden. Anders gesagt wird untersucht, wie die wesentlichen Bestandteile dieser Läufe, also die numerischen Annahmen a für die exogenen Variablen x, das Modell m(x) kann man schwerlich wirklich im strengsten Sinne dann auch immer wissenschaftlich machen. Man kann natürlich immer sagen, man hat Erfahrungswerte, die man wissenschaftlich analysiert hat, und das alles, ja. Aber irgendwo kommt man da natürlich an Grenzen, und ist letztendlich immer wieder dann auch politisches Subjekt. Klar. Das ist so, aber da muss man im Zweifel dann auch sagen, so, bis hier hin geht die wissenschaftliche, in Anführungsstrichen im Wesentlichen objektive Arbeit, und irgendwann kommt wirklich die politische subjektive Übersetzung.“ (AG, Int. 2, 169-170)

E RGEBNISSE

| 135

und die Rechenergebnisse m(a) für die endogenen Variablen y interpretiert und in einer Argumentation zusammengeführt werden. Aus den Vorüberlegungen ist bereits bekannt, dass insbesondere Klärungsbedarf hinsichtlich der Frage besteht, inwiefern hierbei Möglichkeitsaussagen oder deterministische Aussagen, sowie kategorische oder konditionale Aussagen getroffen werden. Wie im Folgenden gezeigt wird, lassen sich auf Grundlage der Äußerungen der Interviewten mindestens zwei unterschiedliche Argumente rekonstruieren, die jeweils nach ihrer Konklusion benannt werden: Ein Teil der Interviewten begründet eine kategorische possibilistische Prognose, dieses Argument wird zuerst rekonstruiert. Zwei Interviewte begründen in bestimmten Projekten eine deterministische Prognose, dies wird an zweiter Stelle untersucht. Schließlich werden die vier übrigen Fälle hinsichtlich der Frage untersucht, ob sie lediglich eine konditionale Prognose treffen wollen. 6.2.1 Kategorische possibilistische Prognose (KAPP) Wie in den Vorüberlegungen (4.3.3) bereits beschrieben wurde, gehört die Rede von „möglichen Entwicklungen“ und ähnlichen Möglichkeitsaussagen zum Standardrepertoire der Modellierer bei ihrer Explikation dessen, was mit einem Modelllauf gezeigt werden soll. Aufgrund seiner deutlichen Formulierungen bietet Jochen Altmann einen besonders guten Einstieg, um dem genauer nachzugehen. Altmann erläutert für sein Optimierungsmodell TULPE: „[...] man macht eine Optimierung und kriegt eine Lösung. Aber das ist ja nur eine mögliche Lösung. Also der Vorteil bei so einem Modell ist aus meiner Sicht, dass man sicherstellt, dass man eine konsistente Lösung hat, die auch in dem Sinne widerspruchslos ist und die man auch reproduzieren kann, diese Rechnung. Aber es ist eine mögliche Energiezukunft, die man ausrechnet, aber es ist nicht die einzige, es gibt im Prinzip unendlich viele.“ (JA, Int. 2, 51)26

Es wird also deutlich, dass seiner Ansicht nach mit dem Modell eine quantitativ bestimmte zeitliche Entwicklung des Zielsystems – hier der Energiewirtschaft – berechnet wird und diese wiederum als möglich angesehen wird. Unter Zuhilfe-

26 An anderer Stelle konkretisiert er den unscharfen Ausdruck der „Energiezukunft“, indem er sagt: „Solche Rechnungen sind immer nur Beschreibungen von möglichen, in sich konsistenten, hoffen wir zumindest, Entwicklungen der Energiewirtschaft. Wir können ja auch nicht in die Zukunft rein gucken, sodass das nur mögliche Entwicklungen sind.“ (JA, Int. 1, 292)

136 | M ODELLIERTE Z UKUNFT

nahme der analytischen Vorüberlegungen aus Kapitel 3 lassen sich diese Äußerungen also zu einer kategorischen possibilistischen Prognose über die endogenen – eben die „ausgerechneten“ – Größen Y verdichten: Es ist möglich, dass die realen Größen Y die Funktionswerte m(a) annehmen. Altmanns Schilderungen machen deutlich – und hierbei handelt es sich ja gerade um die Grundidee der Energiemodellierung –, dass diese Aussage die Rolle einer Konklusion in seiner Argumentation einnimmt. Nun stellt sich die Frage, wie Altmann zu dieser Aussage kommt, welche Prämissen er also zu ihrer Begründung anführt. Ohne Zweifel stellt das Modell hierbei einen zentralen Bezugspunkt in der Argumentation dar. Jochen Altmann antwortet auf die Frage, was „ganz allgemein“ ein Modell für ihn ist, „[...] es [ist; CD] im weitesten Sinne für mich eben eine Abstraktion der Wirklichkeit [...]“ (JA, Int. 2, 251) und führt auf Nachfrage in Bezug auf das Modell TULPE aus, es handele sich hierbei um den Versuch, „[…] die Energiewirtschaft der Bundesrepublik in so einem Gleichungssystem abzubilden.“ (JA, Int. 2, 253). Auf den ersten Blick liegt die Interpretation nahe, Altmann erhebe den Anspruch, sein Modell würde die realen Zusammenhänge der Energiewirtschaft uneingeschränkt als empirisch adäquat repräsentieren. Mit den Überlegungen aus Abschnitt 3.5.2 lässt sich aus dieser Äußerung folgende Aussage rekonstruieren: Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an. Es muss jedoch darauf hingewiesen werden, dass nicht nur Altmann sondern auch alle anderen Interviewten Geltungsansprüche mit ihren Modellen erheben, die wesentlich differenzierter sind und in manchen Fällen sogar im Widerspruch hierzu stehen. Dies wird Gegenstand von Abschnitt 6.4 sein. Für die Klärung der grundlegenden Struktur der Argumentation wird jedoch zunächst davon ausgegangen, dass Altmann und auch die übrigen Interviewten ihr Modell in obigem Sinne als empirisch adäquat interpretieren. Nachdem die Rolle des Modells in der Argumentation Altmanns erfasst ist, bleibt eine weitere zentrale Prämisse zu beschreiben, die von allen Interviewten in großer Deutlichkeit formuliert wird: Die Abhängigkeit der Konklusion von den numerischen Annahmen, die für die Modellrechnungen getroffen werden müssen. Altmann formuliert dies folgendermaßen: „Ja, sie [die Modelle; CD] sind deterministisch in dem Sinne, dass sie eindeutige Ergebnisse produzieren bis auf ein Datum hin, aber sie schreiben ja nicht eine Zukunft vor. Also es hängt von meinen Annahmen ab. Wenn ich Annahmen treffe, die alle möglich sind, dann gehe ich auch im Prinzip von einer Vielfalt von möglichen Ergebnissen aus.“ (JA, Int. 2, 247)

E RGEBNISSE

| 137

Altmann verbindet mit den numerischen Annahmen für die exogenen Variablen also eine possibilistische Aussage und macht deutlich, dass diese ebenfalls eine Prämisse für die Konklusion darstellt. Reformuliert lautet diese Prämisse: Es ist möglich, dass die realen Größen X die Werte a annehmen. Zusammengenommen liefern diese drei Aussagen das folgende elementare Argument: Kategorische possibilistische Prognose (KAPP) P1: Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an. P2: Es ist möglich, dass die realen Größen X die Werte a annehmen. K1: Also (aus P1 und P2): Es ist möglich, dass die realen Größen Y die Funktionswerte m(a) annehmen.

Machen wir uns kurz klar, was dieses Argument leistet: Es wird von einer kategorischen possibilistischen Prognose für die Größen X in Prämisse P2 auf eine kategorische possibilistische Prognose für die Größen Y in der Konklusion K1 geschlossen. Dabei folgt die Konklusion, weil P2 gerade das Antezedens von Prämisse P1 möglich werden lässt. Dabei ist zu beachten, dass dies ist nur dann einen modallogisch gültigen Schluss darstellt, wenn P1 notwendig gilt.27 27 Dass dies der Fall ist, sei hier plausibilisiert: Im Rahmen der hier zugrunde liegenden Interpretation von Möglichkeiten als relative Modalitäten (vgl. Abschnitt 3.4.) gilt etwas notwendig genau dann, wenn es aus dem relevanten Hintergrundwissen W folgt – und damit auch, wenn es Teil des Hintergrundwissens ist. Da bei der Rekonstruktion vorausgesetzt wird, dass die Modellzusammenhänge, die durch Prämisse P1 repräsentiert werden, für die Modellierer gesichertes Wissen darstellen, darf hier also auch angenommen werden, dass P1 Teil von W ist – und damit im genannten Sinne notwendig gilt. Um zu zeigen, dass auch der gezeigte Schluss gilt, sei das Verständnis von Möglichkeit als Konsistenz mit dem Hintergrundwissen präzisiert als: Etwas ist genau dann möglich, wenn dessen Negation nicht aus dem Hintergrundwissen folgt. Schematisch entspricht damit P1 der Satz P1*: Aus W folgt wenn p, dann q. P2 entspricht der Satz P2*: Aus W folgt nicht, dass nicht p und K1 der Satz K1*: Aus W folgt NICHT, dass nicht q. Dass K1* tatsächlich aus P1* und P2* folgt, lässt sich durch die Suche nach einem Gegenbeispiel plausibilisieren. Ein mögliches Gegenbeispiel müsste nun P1* und P2* wahr und K1* falsch werden lassen. Folgt aber sowohl „Wenn p, dann q“ aus W (P1* ist also wahr) als auch die Negation von q aus W (K1* ist also falsch), dann würde auch die Negation von p aus W folgen (modus tollens). Dies widerspricht gerade P2*, womit das Gegenbeispiel widerlegt wird. Für die gemeinsame Entwicklung dieser Überlegungen danke ich Sebastian Cacean.

138 | M ODELLIERTE Z UKUNFT

Außerdem ist zu beachten, dass in P2 eine Aussage über sämtliche numerischen Annahmen getroffen wird.28 Diese müssen zusammen möglich sein. Damit wird an dieser Stelle nicht einfach nur behauptet, dass jede numerische Annahme für sich genommen möglich ist, sondern dass die Kombination aus den verschiedenen numerischen Annahmen für sämtliche exogenen Variablen eines Modelllaufes möglich ist. Es muss also diese weitergehende Behauptung begründet werden können, indem die Konsistenz der numerischen Annahmen zueinander nachgewiesen wird. Daraus folgt unmittelbar, dass dieser Nachweis für stark exogenisierte Modelle umfangreicher ist als für schwach exogenisierte. Dies erklärt, weshalb im praktischen Vorgehen Anton Gerhards die Begründung der numerischen Annahmen für die exogenen Variablen eine so wichtige Rolle einnimmt, wie in Abschnitt 6.1.4 beschrieben wird. Das Besondere an den zuvor zitierten Schilderungen Jochen Altmanns ist, dass er beide kategorischen Prognosen des Argumentes KAPP, nämlich die Prämisse P2 und die Konklusion K1, sehr deutlich jeweils als possibilistische Aussagen kenntlich macht. In den übrigen zwei Fällen, in denen eine possibilistische Interpretation deutlich wird, ist dies nicht in dieser Deutlichkeit der Fall, da vielfach Annahmen und Ergebnisse summarisch als „mögliche Entwicklungen“ oder „Pfade“ bezeichnet werden. Auch solche Formulierungen werden hier jedoch so interpretiert, dass hier nicht nur der epistemische Status der Rechenergebnisse, sondern auch der Status der numerischen Annahmen gekennzeichnet wird. So erläutert Peter Schnitzer, dass sich auch für ihn ein Szenario aus numerischen Annahmen und Ergebnissen zusammensetzt29 und führt aus: „[…] [Ein; CD] Szenario dient eigentlich nur dazu, verschiedene mögliche Entwicklungen zu untersuchen, ohne dass man unterstellt, dass dieses Szenario wirklich eintreten wird.“ (PS, 240). Es lässt sich erkennen, dass Schnitzer eine kategorische possibilistische Prognose als Konklusion begründet und es ist plausibel anzunehmen, dass dabei die numerischen Annahmen ebenfalls als eine kategorische possibilistische Aussage interpretiert werden. Dass in der Argumentation wiederum das Modell eine wesentliche Prämisse der Begründung liefert, wird besonders in einer Erläuterung in einer seiner Veröffentlichungen erkennbar.30 Die Be-

28 Wir erinnern uns: x und y bezeichnen Vektoren von Variablen, vgl. Abschnitt 3.5.1. 29 Vgl.: „Also sowohl die Inputannahmen plus die Ergebnisse bilden das Szenario.“ (PS, 238) 30 In der Veröffentlichung gibt er an, dass das Modell keine Prognosen liefern könne, sondern nur als ein in sich konsistentes Werkzeug dient, mit dem untersucht werden kann, wie sich das Zielsystem unter bestimmten Bedingungen entwickeln würde. Der Begriff Szenario würde außerdem kennzeichnen, dass die Modellergebnisse einer

E RGEBNISSE

| 139

schreibungen Peter Schnitzers lassen sich also bezüglich der Interpretation eines einzelnen Modelllaufes ebenfalls als Argument KAPP rekonstruieren. Im Folgenden wird gezeigt, dass es plausibel ist, auch Anton Gerhards Interpretation eines einzelnen Modellaufes im Sinne des Argumentes KAPP zu rekonstruieren. Anton Gerhard erläutert prägnant in einer Veröffentlichung, dass in Energieszenarien „konsistente Pfade“ beschrieben werden und vom aktuellen Zeitpunkt aus als möglich angesehen werden. Er betont, dass solche Szenarien, anders als Prognosen, nicht angeben, wie die Realität sich „wahrscheinlich“ entwickeln wird.31 Auch Gerhard trifft mit einer Modellrechnung also eine possibilistische Aussage, da mit einer solchen eine mögliche Entwicklung oder ein möglicher Zukunftspfad beschrieben werden soll. Gerhard betont darüber hinaus, dass mit seinen Modellrechnungen Handlungsoptionen identifiziert und bewertet werden sollen: „[…] es gibt auch Auftraggeber, die sagen, ich habe hier ein bestimmtes Set an Maßnahmen und Ideen, die ich gerne umsetzen möchte, 20 Maßnahmen. Jetzt sagt uns doch mal, wo lande ich denn im Jahre 2050. Nehmen wir mal das Beispiel Nordrhein-Westfalen. Da sind ja eine ganze Reihe von Klimaschutzmaßnahmen bis 2020 definiert worden, und die Frage ist jetzt, wie wirkt sich das bis zum Jahr 2050 aus? [Das ist; CD] auch eine klassische Szenariofrage, weil ich auch da wieder Annahmen treffen muss, über die Fortsetzung von Maßnahmen, die Frage, kommen noch zusätzliche hinzu, [wie; CD] entwickeln sich sonstige Rahmenbedingungen bis 2050?“ (AG, Int. 2, 85)

Dies kann so verstanden werden, dass Anton Gerhard nur für einen Teil der exogenen Größen – die „sonstigen Rahmenbedingungen“ – Möglichkeitsaussagen trifft und einen anderen Teil konditionalisiert, nämlich gerade diejenigen Größen, die durch politische oder andere Maßnahmen vom Adressaten des Gutachtens direkt beeinflusst werden können. Bezeichnet man die beeinflussbaren exogenen Größen als XB und deren numerische Werte als aB sowie die übrigen, nicht direkt beeinflussbaren exogenen Größen des Modells als XNB und deren Werte als aNB, so würde eine Variante des Argumentes lauten:

Rechnung nur eine mögliche Entwicklung unter vielen beschreibt. Anm.: Zur Wahrung der Anonymität wird der Originaltext paraphrasiert und es wird auf eine Quellenangabe verzichtet. 31 Zur Wahrung der Anonymität wird der Originaltext paraphrasiert und es wird auf eine Quellenangabe verzichtet.

140 | M ODELLIERTE Z UKUNFT

Teilkonditionalisierte possibilistische Prognose (TKPP) P3: Nehmen die realen Größen XB bestimmte Werte aB an und nehmen die realen Größen XNB bestimmte Werte aNB an, dann nehmen die realen Größen Y die Funktionswerte m(aB, aNB) an. P4: Es ist möglich, dass die realen Größen XNB die Werte aNB annehmen. K2: Also (aus P3 und P4): Es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB annehmen, dann die realen Größen Y die Funktionswerte m(aB, aNB) annehmen.

Zwar ist diese Variante etwas komplizierter als das Argument KAPP, aber dennoch spiegelt das Argument weiterhin im Kern eine possibilistische Interpretation von Szenarien bzw. der numerischen Annahmen und Ergebnisse von Modellrechnungen wider. Unter welchen Umständen es problematisch ist, Annahmen zu konditionalisieren, wird in Abschnitt 7.5 diskutiert werden. 6.2.2 Kategorische deterministische Prognose (KADP) Entgegen der weit verbreiteten Selbstbeschreibung von Energieprognostikern, wonach – wie in Abschnitt 4.3.2 ausgeführt wurde – deterministische Prognosen von ihnen nicht mehr erstellt werden, weil sie erkenntnistheoretisch prinzipiell als überholt gelten müssten oder zumindest mit den verfügbaren Modellen für den Gegenstand Energiesystem nicht möglich seien, wurde in den Interviews deutlich, dass deterministische Prognosen zumindest in zwei Fällen durchaus eine wichtige Rolle in der jeweiligen Beratungspraxis spielen: Sowohl Klaus Einbaum als auch Hans Wagenfurth erläutern, dass sie mit den gleichen Modellen, mit denen von ihnen „Szenarien“ berechnet werden, in bestimmten Beratungsprojekten auch deterministische Prognosen begründen. Auf die Frage, worum es sich bei einer Prognose handelt, antwortet Klaus Einbaum zunächst, er würde „[…] modelltechnisch [...] da nach wie vor noch von einem Szenario sprechen.“ (KE, Int. 1, 140). Um diesen vermeintlichen Widerspruch aufheben zu können, muss man sich zunächst vor Augen halten, dass für Einbaum ein Szenario lediglich eine Kombination aus bestimmten numerischen Annahmen und Ergebnissen bezeichnet, die durch das Modell (eindeutig) miteinander verbunden sind. Wie im folgenden Abschnitt 6.2.3 gezeigt wird, ist in seiner Verwendung des Begriffs Szenario gerade noch keine Festlegung auf eine deterministische oder possibilistische Aussage enthalten. Aus dem Kontext erschließt sich, dass Klaus Einbaum hingegen mit dem Begriff „Prognose“ durchaus einen bestimmten epistemischen Status verbindet – nämlich dem einer

E RGEBNISSE

| 141

deterministischen Prognose.32 „Aber wenn man“, so fährt Einbaum fort, „die Ergebnisse als Prognosen interpretiert, dann muss man entsprechend sorgfältig den Annahmenset dann auch auf den Prognosezweck ausrichten.“ (KE, Int. 1, 140) und erläutert, dass „sorgfältig“ dann heißt, „[…] dass man versucht, dann [...] eben alle Inputs, das sind zum Beispiel auch politische Rahmenbedingungen oder Brennstoffpreise, zu prognostizieren. Weil die Inputs dann sich ja über das Modell in Outputs übersetzen. Und wenn man Outputs als Prognosen verstehen will, dann muss man auch die Inputs sozusagen prognostisch einstellen.“ (KE, Int. 1, 142). Ein ähnliches Verständnis bringt Hans Wagenfurth zum Ausdruck.33 Unter Rückgriff auf die in Abschnitt 3.5 eingeführte Interpretation des Modells und dem Umstand, dass Einbaum und Wagenfurth Größen X deterministisch prognostizieren, so dass für die Größen Y ebenfalls eine deterministische Prognose folgt, lässt sich hier fast direkt das entsprechende Argument ablesen: Kategorische deterministische Prognose (KADP) P5: Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an. P6: Die realen Größen X nehmen die Werte a an. K3: Also (aus P5 und P6): Die realen Größen Y nehmen die Funktionswerte m(a) an.

32 Er erläutert, dass er unter einer Prognose die „wahrscheinlichste Entwicklung“ (Int.1, 148) oder auch die „Most-Likely-Entwicklung“ (Int. 2, 18) versteht, was hier als Bezeichnungen für eine deterministische Prognose aufgefasst wird. 33 Er erläutert, dass er mit dem Modell DAHLIE zwar nur selten Prognosen „im Sinne von ‚jetzt sage ich euch mal, wie im Jahre 2020 die CO2-Emissionen in Deutschland sind‘ [...]“ (HW, Int. 1, 248) erstellt. Die Modellbeschreibung gibt jedoch an, dass das Modell DAHLIE anders als Allgemeine Gleichgewichtsmodelle explizit ein Prognosemodell ist. Insbesondere würden die absoluten Werte für zentrale Größen konsistent in die Zukunft fortgeschrieben werden, wobei hier zur Wahrung der Anonymität der Originaltext paraphrasiert wird und auf eine Quellenangabe verzichtet werden muss. Darüber hinaus erläuterte er im Anschluss an das erste Interview außerhalb der Aufzeichnung, dass gerade mit dem makroökonomischen Kernmodell von DAHLIE in finanzwirtschaftlichen Projekten regelmäßig deterministische Prognosen erstellt werden. Im Interview findet sich hierzu ein kurzer Hinweis: „Aber wir machen auch mit dem [Kernmodell von DAHLIE; CD] Prognosen, beispielsweise für [die auftraggebende Organisation; anonym.], was wichtig ist.“ (HW, Int. 1, 98)

142 | M ODELLIERTE Z UKUNFT

In der Struktur des Argumentes KADP fällt unmittelbar die Ähnlichkeit mit dem Argument KAPP auf. Ähnlich wie dort lässt nun Prämisse P6 das Antezedens in P5 wahr werden, womit die Konklusion folgt. Allerdings muss deutlich darauf hingewiesen werden, dass die Konklusion tatsächlich nur folgt, wenn in P6 eine deterministische Aussage getroffen wird. An einem Beispiel illustriert: Wenn in der Konklusion behauptet wird, dass die CO2-Emissionen tatsächlich mit den berechneten Werten eintreten werden, so muss vorausgesetzt werden, dass alle numerischen Annahmen für die exogenen Variablen, die in diese Berechnung eingegangen sind, und zwar alle zugleich, ebenfalls mit Sicherheit mit eben diesen Werten eintreten werden. Mit den Worten des Interviewten Einbaums: Alle Inputs müssen prognostiziert werden. Dass es überaus anspruchsvoll ist, P6 zu begründen, ist beiden Modellierern bewusst. Einbaum schildert ausführlich, dass gerade deshalb in einem konkreten Beratungsprojekt, in dem eine deterministische Prognose als Ergebnis begründet wurde, spezieller Aufwand zur Ermittlung der Werte für die exogenen Annahmen in Form eines Workshops mit Experten betrieben wurde (KE, Int. 1, 148 ff). Wagenfurth erkennt ebenfalls die Schwierigkeit und gibt an, dass man sich in solchen Projekten darüber „sehr viel Gedanken machen“ (HW, Int. 2, 173) muss. Wie in Abschnitt 6.4 geschildert wird, schränken die beiden Modellierer die Möglichkeit, deterministische kategorische Prognosen mit ihrem Modell begründen zu können, jedoch auf kurzfristige Zeithorizonte ein. 6.2.3 Konditionale deterministische Prognose (KODP) – ein elementares Argument? Neben dem Verweis darauf, dass mit Szenarien Möglichkeitsaussagen getroffen werden, ist der zweite wichtige Bezugspunkt in den Schilderungen der Modellierer der Verweis auf die Konditionalität der von ihnen getroffenen Aussagen. Im Folgenden wird zunächst der Frage nachgegangen, inwiefern ein einzelner Modelllauf von den Interviewten als konditionale Aussage interpretiert wird. Auch wenn die Antwort auf diese Frage nicht eindeutig ausfallen wird, handelt es sich hierbei um einen wichtigen analytischen Schritt. Mit Blick auf die Empirie muss zunächst festgestellt werden, dass in der Tat von verschiedenen Interviewten die Konditionalität ihrer Aussagen im Zusammenhang mit der Interpretation von Modellläufen beschrieben wird. So sagt etwa Anton Gerhard:

E RGEBNISSE

| 143

„[...] ein Szenario ist für mich, basierend auf einem transparenten Annahmegerüst, klassische Was-wäre-wenn-Aussagen zu treffen: ‚Was wäre, wenn diese Annahmen eintreffen, wie entwickelt sich dann das Energiesystem weiter?‘“ (AG, Int. 2, 34)

An anderer Stelle formuliert er: „Wenn diese Annahme, dieses Set an Annahmen eintrifft, spricht sehr viel dafür, dass die Zukunft sich in die [berechnete; CD] Richtung entwickeln könnte. [...] Man sagt, ich habe die ganz klare Annahme getroffen, das entwickelt sich so und so. Das heißt natürlich überhaupt nicht [...], dass die Zukunft sich auch so entwickelt, weil ich ja nicht weiß, ob die Annahmen so zutreffen.“ (AG, Int. 2, 75)

Deutlich erkennbar ist hier, dass Gerhard die Entwicklung des Energiesystems, also das Ergebnis m(a) seiner Modellrechnung, von den numerischen Annahmen a für die Größen X konditional abhängig macht. Wie in Abschnitt 6.2.1 erläutert wurde, legen seine Schilderungen jedoch nahe, dass Gerhard diese Konditionalisierung auf solche Größen beschränkt, die direkt durch den Adressaten beeinflusst werden können. Weiterhin ist also davon auszugehen, dass Gerhard einen einzelnen Modelllauf gemäß Argument KAPP bzw. TKPP interpretiert. Auch für die Fälle Schnitzer und Altmann konnte bereits gezeigt werden, dass sie den epistemischen Status der numerischen Annahmen als möglich angeben und damit einzelne Modellläufe gemäß Argument KAPP interpretieren. Nicht alle Fälle geben wie hier Gerhard einen Explikationsversuch ihres Verständnisses einer konditionale Aussage im Zusammenhang mit Szenarien an, sondern lassen vielmehr in ihrer allgemeinen Beschreibung des Modellierungsprozesses erkennen, dass sie die Modellrechnungen in ganz ähnlicher Weise interpretieren. So führt etwa Klaus Einbaum aus: „Szenarien .. hat man als Produkt von Modellrechnungen eigentlich immer. So würden wir im Grunde genommen die gesamte Modellarbeit verstehen. Dass es sich immer um Szenarien handelt im Sinne von konsistenten Mengengerüsten und Kosten-Preis-Gerüsten, die dual miteinander zusammenhängen und die insbesondere eben ein Annahmenset konsistent dann auch in ein Outputset überführen entsprechend der Modellmechanik eben.“ (KE, Int. 1, 85)

144 | M ODELLIERTE Z UKUNFT

Und er erläutert an späterer Stelle: „[...] tatsächlich hat man ja sozusagen in Anführungszeichen ‚nur eine gewisse Mechanik‘, die man anwendet. Und die dazu dient, das hatten wir eingangs, konsistente Mengengerüste und Kosten-Preis-Gerüste erst mal abzubilden. Aber das darauf Hinweisen, auf die Interdependenzen, die in der Modell-Logik stecken, und die Determiniertheit der Ergebnisse in Abhängigkeit von den Annahmen, die man alle rein steckt, das bleibt natürlich wesentliche Aufgabe, das bewusst zu machen.“ (KE, Int. 1, 177)

Es wird deutlich, dass auch für Einbaum das Modell Ergebnisse m(a) produziert, die von den numerischen Annahmen a abhängen. Unter Berücksichtigung der grundsätzlichen Überlegungen zur Interpretation des Modells in Abschnitt 3.5.2 lassen sich die Äußerungen beider Fälle folgendermaßen als Aussage rekonstruieren: Konditionale deterministische Prognose (KODP) P7: Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an.

Es fällt unmittelbar auf, dass dies einer konditionalen Prognose entspricht, die als Prämisse P1 und P5 in den zuvor rekonstruierten Argumenten KAPP und KADP auftaucht, was offensichtlich an der jeweils identisch vorausgesetzten Interpretation des Modells als empirisch adäquat liegt. Der Unterschied zu den Argumenten KAPP und KADP besteht jedoch darin, dass nach P7 keine Prämisse folgt, in der eine Angabe über den Status der numerischen Annahmen gemacht wird. Wie in Abschnitt 7.5 gezeigt werden wird, ist eine solche Aussage in der Politikberatung dann problematisch, wenn im Antezedens Aussagen über Sachverhalte getroffen werden, deren Wahrheit der Rezipient nicht auf Grundlage eigenen Wissens oder eigener Überzeugungen beurteilen kann. Ähnlich wie Einbaum beschreiben zwar auch die verbleibenden drei Fälle Hans Wagenfurth, Matthias Imgrund und Simon Müller einen deterministischen Zusammenhang zwischen numerischen Annahmen und Ergebnissen, es bleibt aber offen, ob sie bei der Interpretation eines einzelnen Modelllaufes einen bestimmten epistemischen Status für die numerischen Annahmen benennen. Für diese drei Fälle und auch für Klaus Einbaum kann also letztendlich nicht ausgeschlossen werden, dass sie ihre Modellläufe zumindest in manchen Studien als konditionale Prognosen interpretieren, bei denen auch problematische numerische Annahmen im Antezedens der Konklusion stehen bleiben.

E RGEBNISSE

| 145

6.2.4 Übersicht der Fälle In diesem Analyseschritt wurde der Frage nachgegangen, wie die interviewten Modellierer einen einzelnen Modelllauf interpretieren. Einen Überblick über die Ergebnisse liefert Tabelle 2. Tabelle 2: Übersicht der elementaren Argumente nach Fällen Elementares Argument

Fälle

Kategorische possibilistische Prognose (KAPP)

JA, AG, PS

Konditionale deterministische Prognose (KODP)

HWlf, MI, SM, KElf

Kategorische deterministische Prognose (KADP)

HWkf, KEkf

kf: kurzfristige Betrachtungen; lf: langfristige Betrachtungen

Es hat sich gezeigt, dass die Interpretation eines einzelnen Modelllaufes bei drei Modellierern als Argument KAPP rekonstruiert werden kann, in dem eine kategorische possibilistische Prognose begründet wird. In den übrigen vier Fällen wurde festgestellt, dass die Frage nach der Interpretation eines einzelnen Modelllaufes empirisch nicht eindeutig beantwortet werden kann, so dass in diesen Fällen zunächst davon ausgegangen wird, dass diese einen einzelnen Modelllauf lediglich als konditionale deterministische Prognose (KODP) interpretieren. Zwei Fälle, die beide zu dieser Gruppe gehören, beschrieben außerdem, dass sie in manchen energieprognostischen Gutachten auch deterministische Prognosen (KADP) mit ihren Modellen begründen.

6.3 K OMPLEXE A RGUMENTE Im zweiten Schritt der Argumentationsanalyse wird untersucht, welche Schlussfolgerungen die Modellierer aus der Betrachtung mehrerer Modellläufe ziehen. Die Analyse führt im Kern auf zwei unterschiedliche komplexe Argumente, die im Folgenden rekonstruiert werden: Zuerst wird das Argument Gegenüberstellung possibilistischer Prognosen (GPP) beschrieben, anschließend das Argument Isolation von Effekten (IE). Zu beiden Argumenten schildern einzelne Modellierer Varianten, die im Folgenden ebenfalls diskutiert werden.

146 | M ODELLIERTE Z UKUNFT

6.3.1 Gegenüberstellung possibilistischer Prognosen (GPP) Das erste der beiden komplexen Argumente lässt sich besonders gut anhand der Schilderungen Anton Gerhards nachvollziehen. Wie im Abschnitt 6.1.4 gezeigt wurde, ist es wesentlicher Bestandteil seines Vorgehens, durch die Definition von Zielwerten den Wertebereich für die numerischen Annahmen einzugrenzen. Am Ende eines Modelllaufes steht also eine bestimmte Kombination aus numerischen Annahmen und Ergebnissen. Wie in Abschnitt 6.2.1 gezeigt wurde, können wir davon ausgehen, dass Gerhard für die numerischen Annahmen der exogenen Variablen Möglichkeitsaussagen trifft, weshalb davon auszugehen ist, dass er jeden Einzelmodelllauf gemäß Argument KAPP interpretiert. Anton Gerhard erläutert hierzu: „Und dann haben Sie drei unterschiedliche Zukunftspfade, die alle zum gleichen Ziel, Klimaschutz, führen, die aber natürlich in ihren Auswirkungen, in ihren Implikationen, in ihrer Umsetzbarkeit, in der Akzeptanz in der Bevölkerung und damit in dem, wie Politik damit umgeht, sehr unterschiedlich sind. […] Aber Aufgabe von Wissenschaft, zumindest ist das unser Verständnis, ist erstmal der Politik zu sagen: ‚Die drei prinzipiellen Optionen gibt es. Jetzt müsst ihr natürlich politische Grundsatzentscheidungen treffen, welchen Pfad ihr eher wollt oder doch ein Mittelding zwischen zweien.‘ Das ist aber ureigene Aufgabe der Politik, da die Weichen zu stellen.“ (AG, Int. 1, 141-143)34

Es wird deutlich, dass Gerhard die drei „Zukunftspfade“ und damit die jeweils zugrunde liegenden Modellläufe als Alternativen ansieht, zwischen denen der Auftraggeber frei wählen kann. Jeder Modelllauf wird für sich gemäß einem possibilistischen Argument interpretiert, so dass die Hauptkonklusion als eine Konjunktion der elementaren Konklusionen rekonstruiert werden kann. Zunächst sei im Folgenden der einfachere Fall rekonstruiert, wenn keine exogenen Variablen konditionalisiert werden. Ein einzelner Modelllauf wird gemäß Argument KAPP interpretiert. Auch wenn dies für den possibilistischen Status der einzelnen Modellläufe unerheblich ist, wird in dieser Passage außerdem deutlich, dass in einer typischen Studie Gerhards die einzelnen Läufe in bestimmten Zielwerten

34 Das Ziel „Klimaschutz“ wurde im Interview direkt davor mit einem Beispiel illustriert: „Und so bauen wir eigentlich unsere Szenarien auch auf, dass wir sagen, bleiben wir mal bei der Politik als Beispiel, ihr habt das gesellschaftspolitische Ziel: Klimaschutz. [...] 80 Prozent Minderung der Emissionen bis zum Jahr 2050.“ (AG, Int. 1, 138-140)

E RGEBNISSE

| 147

übereinstimmen. Auf diese Weise lassen diese sich – wie er es ausdrückt – als alternative Pfade, die zum gleichen Ziel führen, interpretieren. Um kenntlich zu machen, dass sich die Modellläufe in den numerischen Annahmen unterscheiden, werden im Folgenden die Bezeichnungen a und a* verwendet. Dabei ist es für die Struktur des Argumentes unerheblich, wie viele der Variablen x zwischen den Läufen variiert werden. Gegenüberstellung possibilistischer Prognosen (GPP) Elementares Argument KAPP 1 P8:

Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an.

P9:

Es ist möglich, dass die realen Größen X die Werte a annehmen.

ZK1: Also (aus P8 und P9): Es ist möglich, dass die realen Größen Y die Funktionswerte m(a) annehmen. Elementares Argument KAPP 2 P10: Nehmen die realen Größen X bestimmte Werte a* an, dann nehmen die realen Größen Y die Funktionswerte m(a*) an. P11: Es ist möglich, dass die realen Größen X die Werte a* annehmen. ZK2: Also (aus P10 und P11): Es ist möglich, dass die realen Größen Y die Funktionswerte m(a*) annehmen. Hauptkonklusion HK1: Also (aus ZK1 und ZK2): (i) Es ist möglich, dass die realen Größen Y die Funktionswerte m(a) annehmen und (ii) es ist möglich, dass die realen Größen Y die Funktionswerte m(a*) annehmen.

Die Rekonstruktion erfolgt hier nur für die Interpretation zweier Modellläufe. Das Argument kann jedoch durch Hinzufügen analoger elementarer Argumente beliebig erweitert werden. In der Rekonstruktion wird die zentrale Idee deutlich, dass mit dem Modell alternative mögliche Entwicklungen des Zielsystems bestimmt werden sollen. Dabei spielt es zunächst keine Rolle, dass Gerhard über die Definition von Zielwerten dafür sorgt, dass sich diese Alternativen in gewisser Weise ähnlich sind. Entscheidend ist, dass jeder einzelne Modelllauf als eine mögliche Entwicklung ein und desselben Zielsystems interpretiert wird. Das komplexe Argument wird dementsprechend Gegenüberstellung possibilistischer Prognosen (GPP) genannt.

148 | M ODELLIERTE Z UKUNFT

Die Variation der numerischen Annahmen zwischen den Modelläufen erstreckt sich in der Regel auf mehrere Variablen. In der vorherigen Formulierung des Argumentes GPP wird außerdem davon ausgegangen, dass numerische Annahmen sowohl für direkt vom Adressaten beeinflussbare Größen, als auch für nicht beeinflussbare Größen zwischen den Modelläufen variiert werden. Für alle numerischen Annahmen werden Möglichkeitsaussagen getroffen. Anton Gerhard orientiert sich bei der Festlegung der jeweiligen Annahmen an qualitativen Storylines, die die jeweilige „Philosophie“ (AG, Int. 1, 177) oder „grobe Entwicklungsstory“ (AG, Int. 2, 49) der Szenarien bzw. Modellläufe beschreiben. Alle Interviewten, die eine Argumentation im Sinne einer Gegenüberstellung possibilistischer Prognosen erkennen lassen, machen auch deutlich, dass meist einer der Modellläufe als ein „Referenz“- oder „Business-As-Usual-Szenario“ interpretiert wird. Gemeint ist damit ein Modelllauf, dessen Annahmen eine Extrapolation der bisherigen Entwicklung widerspiegeln. Anton Gerhard drückt dies so aus: „[…] häufig ist ein Referenzszenario tatsächlich ein Business-As-Usual-Pfad. Alles geht so weiter wie bisher, oder das, was derzeit an Politikinstrumenten besteht, bleibt so bestehen und es kommt nichts links und rechts dazu. Das ist also das, woran man alternative Entwicklungen spiegelt.“ (AG, Int. 2, 71)

Im Unterschied zum zweiten, später beschriebenen komplexen Argument, bei dem das Referenzszenario eine entscheidende Rolle in der Argumentation spielt, stellt das Referenzszenario im Argument Gegenüberstellung possibilistischer Prognosen jedoch lediglich eine mögliche Entwicklung unter vielen dar. Auch Jochen Altmann lässt erkennen, dass er in manchen Gutachten im Sinne GPP argumentiert. Wichtig ist für ihn, dass dabei die numerischen Werte für mehrere Variablen zwischen den Modellläufen variiert werden. Dadurch unterscheiden sich für ihn diese Gutachten von solchen, in denen die Wirkung einzelner Maßnahmen ermittelt werden soll – einem Argument, dem im nächsten Abschnitt unter der Bezeichnung Isolation von Effekten nachgegangen wird.35

35 Vgl.: „Man kann es [die Variation mehrerer Parameter; CD] zwar machen, man kann dann sagen, wenn ich diese Gruppe von Parametern jetzt ändere, dann passiert das im Vergleich zu einer Rechnung, wo die Parameter woanders lagen. Schwierig wird es aber, wenn man die Frage stellt, was ist denn die Wirkung von diesem einen Parameter? Und was ist die Wirkung von dem zweiten und dritten und so weiter? […] wenn man viele Parameter hat, die man gerne untersuchen möchte, muss man in der Regel Bündelungen vornehmen, weil sie sonst in der Kombinatorik zugrunde gehen würden.

E RGEBNISSE

| 149

Bereits bei der Rekonstruktion der elementaren Argumente wurde gezeigt, dass Altmanns Interpretation eines einzelnen Modelllaufes als Argument KAPP rekonstruiert werden kann. Dort wurde gezeigt, dass es für ihn im Prinzip unendlich viele mögliche Entwicklungen des Zielsystems gibt.36 Darauf an anderer Stelle noch einmal im Kontext eines Projektes angesprochen, erläutert er: „Ja und im Rahmen von [Projekt; anonym.] haben wir dann eben, wenn Sie so wollen, einige von diesen möglichen Energiezukünften herausgeholt und dargestellt.“ (JA, Int. 2, 56). Auch Altmann macht also deutlich, dass er in manchen Projekten die Modellläufe als unabhängige mögliche Entwicklungen interpretiert. Gegenüberstellung teilkonditionalisierter possibilistischer Prognosen (GTPP) Als dritter Fall ist hier Klaus Einbaum zu diskutieren. Einerseits wurde in Abschnitt 6.2.3 beschrieben, dass es bezüglich einzelner Modellläufe nicht eindeutig ist, ob Einbaum über den Status der numerischen Annahmen eine bestimmte Aussage trifft. Andererseits schildert er jedoch Gutachten, in denen „unterschiedliche Politikphilosophien“ dadurch beschrieben werden, dass die numerischen Werte mehrerer Variablen verändert werden, und unterscheidet Gutachten dieser Art – ganz ähnlich wie Jochen Altmann – von solchen, in denen „Effekte isoliert“ werden.37 Einbaum schildert also eine Interpretation mehrerer Model-

Und dann haben sie natürlich nachher das Problem, wenn sie mehrere Parameter gleichzeitig geändert haben, dass sie dann, in gewissen Bereichen zumindest, nicht auf die einzelnen Parameter mehr zurückführen können.“ (JA, Int. 2, 147). Er illustriert dieses Vorgehen an einem Projekt, bei dem der Auftraggeber mitentschieden hat, welche Bündelungen vorgenommen wurden: „[…] bei bestimmten Szenarien hat man bestimmte Parameterbündelungen gemacht und bei anderen andere, weil sonst gäbe es viel zu viele Szenarien. Man würde dann auch die Übersicht verlieren. Und da hat eben [der Auftraggeber; anonym.] mehr oder weniger entschieden, welche Parameterbündelungen jeweils gemacht werden sollen.“ (JA, Int. 2, 34). 36 Vgl. das Zitat der Passage (JA, Int. 2, 51) in Abschnitt 6.2.1. 37 Vgl.: „Ok, da ist das [Gutachten; anonym.] ein schönes Beispiel. Da […] wurden keine Einzeleffekte isoliert. Das ist eine Studie, da gibt es eine gewisse Anzahl von Szenarien, die stehen sozusagen dann nebeneinander. Dann gibt es ein Szenario 1, ein Szenario 2 und 2a und 3 und dann gibt es alle nochmal mit unterschiedlichen Preisannahmen für Öl und Gas, dann waren es halt mal acht. Aber diese vier beziehungsweise acht Szenarien unterscheiden sich in mehreren Determinanten gleichzeitig. Das liegt

150 | M ODELLIERTE Z UKUNFT

läufe, bei der jeder einzelne Modelllauf eine „alternative Weltentwicklung“ darstellt. Dies kann als Hinweis aufgefasst werden, dass er im Grunde doch die einzelnen Modellläufe in diesen Gutachten als mögliche Entwicklungen interpretiert. Auf Grundlage der Interviews lässt sich dies jedoch nicht abschließend klären. Deshalb wird er in Tabelle 3 in Klammern für das Argument GPP aufgenommen. Diese Mehrdeutigkeit kann jedoch auch als Hinweis aufgefasst werden, dass in weiteren Untersuchungen auch eine Variante des Argumentes GPP berücksichtigt werden sollte, in der teilkonditionalisierte possibilistische Prognosen (vgl. Abschnitt 6.2.1) als elementare Elemente auftauchen. Auch die vorherigen Zitate Anton Gerhards (vgl. insbesondere das Zitat in Fußnote 34) können in dieser Weise interpretiert werden. Eine entsprechende Variante des Argumentes GPP würde damit lauten: Gegenüberstellung teilkonditionalisierter possibilistischer Prognosen (GTPP) Elementares Argument TKPP 1 P12: Nehmen die realen Größen XB bestimmte Werte aB an und nehmen die realen Größen XNB bestimmte Werte aNB an, dann nehmen die realen Größen Y die Funktionswerte m(aB, aNB) an. P13: Es ist möglich, dass die realen Größen XNB die Werte aNB annehmen. ZK3: Also (aus P12 und P13): Es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB annehmen, dann die realen Größen Y die Funktionswerte m(aB, aNB) annehmen.

daran, dass man da eben andere Fragen mit beantworten wollte. Man wollte da keine Einzeleffekte von bestimmten Politikmaßnahmen isolieren, sondern man wollte sozusagen unterschiedliche Politikphilosophien, wenn Sie so wollen, in ihren gesamtheitlichen Auswirkungen darstellen. Zum Beispiel also sozusagen ein relativ marktgetriebenes Szenario mit recht wenig staatlichen Eingriffen in verschiedenen Dimensionen […] und auf der anderen Seite ein relativ eingriffsintensives Szenario mit stärkeren grünen Präferenzen […]. Da hat man sozusagen bewusst gebündelt in dem Anfassen der Stellschrauben. Man zahlt dann den Preis, dass man keine Effekte mehr isolieren kann, gewinnt aber – und das wollte man halt so im Rahmen der Studie – gewinnt dann alternative Philosophien sozusagen, alternative Weltentwicklungen.“ (KE, Int. 2, 47-48).

E RGEBNISSE

| 151

Elementares Argument TKPP 1 P12: Nehmen die realen Größen XB bestimmte Werte aB an und nehmen die realen Größen XNB bestimmte Werte aNB an, dann nehmen die realen Größen Y die Funktionswerte m(aB, aNB) an. P13: Es ist möglich, dass die realen Größen XNB die Werte aNB annehmen. ZK3: Also (aus P12 und P13): Es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB annehmen, dann die realen Größen Y die Funktionswerte m(aB, aNB) annehmen. Elementares Argument TKPP 2 P14: Nehmen die realen Größen XB bestimmte Werte aB* an und nehmen die realen Größen XNB bestimmte Werte aNB* an, dann nehmen die realen Größen Y die Funktionswerte m(aB*, aNB*) an. P15: Es ist möglich, dass die realen Größen XNB die Werte aNB* annehmen. ZK4: Also (aus P14 und P15): Es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB* annehmen, dann die realen Größen Y die Funktionswerte m(aB*, aNB*) annehmen. Hauptkonklusion HK2: Also (aus ZK3 und ZK4): (i) Es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB annehmen, dann die realen Größen Y die Funktionswerte m(aB, aNB) annehmen und (ii) es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB* annehmen, dann die realen Größen Y die Funktionswerte m(aB*, aNB*) annehmen.

Dieses Argument würde also ein Gutachten beschreiben, in dem direkt und nicht direkt vom Adressaten beeinflussbare Größen zwischen den Modellläufen variiert werden. Beispielsweise könnte eine Modellrechnung eine Entwicklung beschreiben, in der der Adressat eine ganze Reihe tiefgreifender Maßnahmen umsetzt und gleichzeitig das globale wirtschaftliche Wachstum als sinkend angesehen wird, während eine zweite Modellrechnung von weitgehender Passivität des Adressaten bei gleichzeitig steigendem globalen Wirtschaftswachstum ausgeht.

152 | M ODELLIERTE Z UKUNFT

Variante Extremszenarien Eine Variante des Argumentes GPP schildert Anton Gerhard mit der Berechnung von Extremszenarien. Dabei werden weiterhin die numerischen Annahmen als possibilistische Prognosen interpretiert, es werden aber gerade solche Werte gewählt, die aus Sicht des Auftraggebers oder Modellierers als „extrem“ angesehen werden: „[…] manche Auftraggeber wollen, ich sage mal, lieber eine Übersicht über die Extremwerte haben. Also auch dazu würde ich wieder [den Auftraggeber eines bestimmten Projektes; anonym.] zählen, der gesagt hat: ‚Bestimmt uns doch mal eine Welt, die im Wesentlichen auf einer nuklearen Renaissance basiert.‘ Würde ich sagen, ist ein Extremszenario, wird so in der Wirklichkeit nie kommen, genauso wie eine Welt, die im Wesentlichen, ich sag mal, kohlebasiert ist, die auf CCS basiert und genauso eine Welt, die auf rein Erneuerbaren ausgerichtet ist. Das heißt solche Extremwert-Szenarioentwicklungen gibt es natürlich auch, das ist im Interesse einzelner Auftraggeber.“ (AG, Int. 2, 68-69)

Wichtig ist, dass auch bei Extremszenarien ein einzelnes Szenario zunächst nur eine mögliche Entwicklung beschreibt und damit ebenfalls vom Einwand der Beliebigkeit, dem in Abschnitt 7.6 nachgegangen wird, betroffen ist. Damit wird hier angenommen, dass Extremszenarien dem Argument GPP bzw. GTPP entsprechen. 6.3.2 Isolation von Effekten (IE) Fast alle Interviewten beschreiben ein Vorgehen, das auf dem Vergleich mindestens zweier Modellläufe basiert. Hans Wagenfurth nennt dies „Simulation“ und erläutert das Vorgehen in besonderer Deutlichkeit: „[…] sie brauchen bei jeder Simulation auch eine Referenzentwicklung. Also einen Basislauf, der sagt, wie wird sich die Entwicklung der Wirtschaft, der Umwelt und so weiter darstellen in dem Fall, in dem wir keine konkreten Politikmaßnahmen beispielsweise einsetzen. Das hat den Charakter natürlich einer Prognose. Was wäre wenn – ja, eine bedingte Prognose – die Politik in diesem Feld nichts unternimmt. Sie machen dann im Prinzip eine Prognose. Sie brauchen diese Referenzentwicklung […], weil sie dann Alternativrechnungen machen, bei denen sie eine Variable, eine Politikvariable verändern. Das kann eine Steuer sein, beispielsweise, und setzen jetzt irgendeinen Steuersatz rauf. Und sie wollen jetzt ja wissen, wie nicht nur die direkten Effekte sind, sondern wie wirklich die totalen Effekte einschließlich aller indirekten Zusammenhänge, auf die man möglicherweise

E RGEBNISSE

| 153

auf den ersten Blick auch gar nicht kommt, wie die sich darstellen. Und das können sie natürlich sehr einfach herausfinden, indem sie jetzt diese eine Politikvariable verändern. Und sie rechnen eine zweite Prognose und aus dem Vergleich der Entwicklungen für jede einzelne Variable des Modells können sie dann natürlich sehr schön absehen, was dann die direkten und indirekten Effekte in der Summe sind.“ (HW, Int. 1, 155)

Zunächst wird deutlich, dass im beschriebenen Vorgehen zwei Modellläufe durchgeführt werden. Der Unterschied zwischen beiden Modellläufen besteht darin, dass ein Teil aller numerischen Annahmen, die für das Modell getroffen werden müssen, zwischen dem ersten und dem zweiten Lauf in bestimmter Art und Weise variiert werden. Im Folgenden werden diejenigen Variablen, deren Werte zwischen den beiden Läufen unverändert, also konstant bleiben, mit k, ihre realen Entsprechungen mit K und deren numerische Werte mit ak bezeichnet. Die Variablen, die zwischen den beiden Läufen verändert werden, werden mit v, ihre realen Entsprechungen mit V und deren numerische Werte mit av bzw. av* bezeichnet. Die Variablen k und v ergeben also zusammen genommen alle exogenen Variablen x des Modells (vgl. 3.5.1). In Wagenfurths Schilderung wird beispielhaft eine einzige Größe – ein Steuersatz – variiert, die noch dazu durch eine einzige Variable im Modell repräsentiert wird. An anderer Stelle erläutert Wagenfurth jedoch, dass mit diesem Vorgehen auch komplexere Phänomene untersucht werden, die durch die Veränderung der Werte mehrerer Variablen repräsentiert werden. Für die Struktur des Argumentes spielt dies jedoch keine Rolle. Entscheidend ist, dass die Variation zwischen den Läufen als ein bestimmtes reales Ereignis H – hier als die Umsetzung einer politischen Maßnahme – interpretiert wird, dessen Wirkung es mit dem Vorgehen zu untersuchen gilt. Der erste Modelllauf wird von Wagenfurth „Referenzentwicklung“ oder auch „Baseline“ genannt. Die numerischen Annahmen dieses Modelllaufs ak und av beschreiben laut Wagenfurth eine Entwicklung des Zielsystems, in der „keine konkreten Politikmaßnahmen“ ergriffen werden. Verallgemeinert ausgedrückt werden die numerischen Annahmen des ersten Laufes also als eine ungestörte Entwicklung des Zielsystems interpretiert. Dieser wird im Folgenden als Referenzlauf bezeichnet. Wiederum wird davon ausgegangen, dass Wagenfurth dabei das Modell als empirisch adäquat im Sinne von Abschnitt 3.5.2 ansieht, so dass seine Interpretation des ersten Modelllaufes wie folgt rekonstruiert werden kann: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av) an.

154 | M ODELLIERTE Z UKUNFT

Der zweite Lauf wird von Wagenfurth als „Alternativrechnung“ und an anderer Stelle auch als „Alternativszenario“ bezeichnet. Für diesen Modelllauf wählt Wagenfurth eine Teilmenge V aller Größen X des Modells aus und nimmt für sie die numerischen Werte av* an, die von den Werten av verschieden sind. Die Rekonstruktion seiner Interpretation dieses Modelllaufes lautet entsprechend: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an. Der entscheidende Schritt im Vorgehen Wagenfurths ist, dass nun die numerischen Ergebnisse m(ak,av) bzw. m(ak,av*) für die Größen Y beider Läufe miteinander verglichen werden und ihr Unterschied als „Effekt“ des Unterschiedes der numerischen Annahmen, genauer: des durch sie repräsentierten Ereignisses H interpretiert wird. Dieser letzte Schritt lässt sich als Konklusion verstehen, die mit dem Vorgehen Wagenfurths begründet werden soll. Die Analyse erreicht damit jedoch eine zentrale Herausforderung. Die Schilderungen Wagenfurths und, wie sich zeigen wird, auch die der anderen relevanten Interviewten, lassen nämlich insgesamt mindestens vier unterschiedliche Rekonstruktionen zu, die sich deutlich in der Formulierung der Konklusion und in den für ihre Begründung zu ergänzenden Prämissen unterscheiden. Diese Varianten werden im Folgenden nacheinander beschrieben. Da die bis hierhin beschriebene Grundidee hinter diesem Argument nicht eindeutig rekonstruiert werden kann, bezieht sich die Bezeichnung Isolation von Effekten (IE) anders als im Falle des Argumentes GPP in der weiteren Analyse nicht auf eine konkrete Rekonstruktion und damit ein bestimmtes Argument, sondern auf eben diese Grundidee einschließlich der unterschiedlichen Varianten. Wo über eine bestimmte Variante gesprochen wird, wird dies eigens kenntlich gemacht. Isolation von Effekten mit deterministischem Referenzlauf Die erste Variante zeichnet sich dadurch aus, dass die Hauptkonklusion, die mit der Isolation von Effekten begründet werden soll, im Antezedens keine Aussage über die nicht variierten numerischen Annahmen des Referenzlaufes enthält. Dies kann so rekonstruiert werden: Führt ein reales Ereignis H dazu, dass die realen Größen V nicht die Werte av, sondern av* annehmen, dann hat dieses Ereignis den Effekt, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen. Aufbauend auf den beiden zuvor rekonstruierten Prämissen, die der Interpretation des Referenzlaufes und des Alternativlaufes entsprechen, sowie unter Er-

E RGEBNISSE

| 155

gänzung zusätzlicher, in Kürze diskutierter Prämissen, lassen sich die zuvor rekonstruierten Aussagen zu folgendem komplexen Argument zusammenfassen: Isolation von Effekten mit deterministischem Referenzlauf Elementares Argument KODP 1 (Referenzlauf) P16: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av) an. Elementares Argument KODP 2 (Eingriff ins Zielsystem) P17: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an. Zusätzliche Prämissen P18: Die realen Größen K nehmen die Werte ak an. ZK5: Also (aus P16-P18): (i) Nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak, av) an und (ii) nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an. P19: Gilt (i) Nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak, av) an und (ii) nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an, so gilt auch: Führt ein reales Ereignis H dazu, dass die realen Größen V nicht die Werte av, sondern av* annehmen, dann hat dieses Ereignis den Effekt, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen.38 Hauptkonklusion HK3: Also (aus ZK5 und P19): Führt ein reales Ereignis H dazu, dass die realen Größen V nicht die Werte av, sondern av* annehmen, dann hat dieses Ereignis den Effekt, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen.

38 Diese Prämisse hat vereinfacht dargestellt die Form: Gilt (i) wenn p, dann q und (ii) wenn p*, dann q*, so gilt auch: Führt ein reales Ereignis H dazu, dass nicht p, sondern p*, so hat dieses Ereignis den Effekt, dass nicht q, sondern q*.

156 | M ODELLIERTE Z UKUNFT

Lassen wir die zusätzlichen Prämissen zunächst außer Acht, so wird deutlich, dass die Rekonstruktion des Argumentes in den Prämissen P16 und P17 sowie der Hauptkonklusion HK3 die grundlegende Idee des von Wagenfurth geschilderten Argumentes gut widerspiegelt: Die Veränderung der numerischen Annahmen zweier Rechenläufe wird als ein Eingriff in das Zielsystem und die Veränderung der zugehörigen numerischen Ergebnisse als Effekt dieses Eingriffs interpretiert. Dabei ist anzumerken, dass die Hauptkonklusion dieses Argumentes eine Kausalaussage darstellt. Ihre Begründung ist äußerst anspruchsvoll, und letztlich kann in der vorliegenden Arbeit nicht geklärt werden, ob dies mit dem von den Interviewten beschriebenen Vorgehen der Isolation von Effekten plausibel gelingt. Zwar ist das vorherige und sind die drei folgenden rekonstruierten Argumente formal gültig. Ob ihre Prämissen aber im Einzelnen plausibel begründet werden können, kann hier nicht geklärt werden. Auf kritische Aspekte wird im Folgenden eingegangen. Die Hauptkonklusion HK3 zeichnet sich ungeachtet dieser Frage durch eine andere wichtige Eigenschaft aus: Sie folgt nicht direkt aus P16 und P17. Dies wird bereits darin deutlich, dass HK3 unabhängig von den numerischen Annahmen ak formuliert ist, während P16 und P17 im Antezedens eine Abhängigkeit von den numerischen Annahmen aufweisen. Es ist also zum einen eine zusätzliche Prämisse nötig, die – salopp gesagt – diese Abhängigkeit für die Hauptkonklusion eliminiert. Dies realisiert P18, die in Kürze näher betrachtet wird. Zum zweiten folgt die Konklusion noch nicht direkt, weil eine Prämisse fehlt, die explizit zum Ausdruck bringt, dass Wagenfurth den Unterschied in beiden Modellläufen als ein reales Ereignis und dessen Effekt interpretiert. Dies bringt P19 zum Ausdruck. Hierbei handelt es sich um eine Prämisse, die in den Schilderungen Wagenfurths weitgehend implizit bleibt und deshalb hier ergänzt wird. Eine kritische Prämisse in obiger Rekonstruktion ist P18. Indem hier eine deterministische Prognose für die nicht zwischen den beiden Läufen veränderten numerischen Annahmen ak getroffen wird, ermöglicht sie es, am Ende eine Konklusion zu erhalten, in der im Antezedens die numerischen Annahmen ak nicht mehr auftauchen. Wie in Abschnitt 7.7 näher diskutiert werden wird, handelt es sich hierbei jedoch um eine schwer begründbare Prämisse, und es ist anzunehmen, dass sich die Modellierer, hier Hans Wagenfurth, dessen bewusst sind. Andererseits ist auch die unmittelbare Alternative, diese Annahmen ins Antezedens der Hauptkonklusion zu übernehmen – dies wird als nächste Variante diskutiert – mit Schwierigkeiten verbunden. Denn in diesem Fall stellt die Hauptkonklusion eine sehr viel schwächere Aussage dar, die unter Umständen für den Adressaten nicht hilfreich ist, wie in Abschnitt 7.5 diskutiert werden wird. Letztendlich lässt sich jedoch auf Grundlage des empirischen Materials

E RGEBNISSE

| 157

nicht sagen, ob Wagenfurth den numerischen Annahmen einen epistemischen Status zuweist und wenn ja, welcher dies ist. Dies deckt sich für die Fälle Wagenfurth und Einbaum auch mit den Ergebnissen der Analyse der Interpretation eines einzelnen Modelllaufes im vorangegangenen Abschnitt. Auch Jochen Altmann, Peter Schnitzer und Klaus Einbaum beschreiben in ähnlicher Weise wie Wagenfurth das Vorgehen der Isolation von Effekten. Eindrücklich schildert dies etwa Klaus Einbaum, auf dessen prägnante Formulierung die Wahl der Bezeichnung des Argumentes als „Isolation von Effekten“ zurückgeht. Er erläutert: „[…] wenn man Effekte isolieren will, geht man eigentlich immer so vor, dass man erstmal ein Referenz- oder Basisszenario berechnet, dann an einer politischen Maßnahme oder irgendeiner Schraube eben im Modell dreht, und eine politische Maßnahme oder veränderte Brennstoffpreise oder eben eine Determinante der Systementwicklung verändert. Und dann lässt man das System eben unter dieser veränderten Determinante sich entwickeln, und die Differenzen in dem jeweiligen Jahr gegenüber dem Basisfall werden dann interpretiert als die Auswirkungen dieser Stellschrauben sozusagen. Das ist eigentlich immer das systematische Vorgehen.“ (KE, Int. 1, 115)

Ähnliche Beschreibungen finden sich bei Jochen Altmann39 und Peter Schnitzer40. Wie bei Wagenfurth bleibt es in den Schilderungen dieser drei Interview-

39 Hinsichtlich der Grundidee der Isolation von Effekten erläutert Jochen Altmann: „[…] ich setze normalerweise auf ein vorhandenes Szenario auf und mache irgendwelche Änderungen und rechne noch mal und vergleiche dann diese Szenarien. Dieser Vergleich muss natürlich auch Hand und Fuß haben. Das heißt, ich habe immer so ein gewisses Fundament, was erhalten bleibt in allen Szenarien mehr oder weniger. Das hängt natürlich von der Fragestellung ab. […] Weil, wenn sie bestimmte Effekte untersuchen möchten, dann wollen sie in der Regel Differenzen zwischen irgendwelchen Szenarien sich angucken [...]“ (JA, Int. 1, 294-296) und an anderer Stelle: „Ja, wenn Sie die Auswirkungen unserer Änderung sehen wollen, dann brauchen Sie zwei [Rechnungen; CD], eine mit dieser Änderung und eine ohne diese Änderung. Weil sonst können Sie sie ja nicht identifizieren/ weil sonst kriegen Sie eine Lösung raus, wissen aber nicht, wie das zustande gekommen ist. Das heißt, Sie können sonst nicht die Auswirkung einer Änderung feststellen. Dafür brauchen Sie zwei.“ (JA, Int. 2, 145). 40 Vgl.: „[…] eine Form der Untersuchung wäre, […] ich möchte insbesondere die Auswirkung einer bestimmten Technologie untersuchen, und das heißt zum Beispiel Solarkollektoren, was bringen die. Dann wäre so ein Szenario in der Form: ,Wenn ich so

158 | M ODELLIERTE Z UKUNFT

ten jedoch unklar, welcher epistemische Status den numerischen Annahmen ak im Referenzlauf zugeschrieben wird, so dass eine weitere Rekonstruktion mit den Schilderungen dieser vier Interviewten konsistent ist. Diese wird als nächste Variante des Argumentes Isolation von Effekten rekonstruiert. Isolation von Effekten mit konditionalisiertem Referenzlauf Wie zuvor beschrieben, besteht eine alternative Möglichkeit, die Schilderungen der vier genannten Modellierer zu interpretieren, darin, auf Prämisse P18 zu verzichten und stattdessen die numerischen Annahmen ak ins Antezedens der Hauptkonklusion zu verschieben. Die Rekonstruktion des Argumentes lautet dann: Isolation von Effekten mit konditionalisiertem Referenzlauf Elementares Argument KODP 1 (Referenzlauf) P20: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av) an. Elementares Argument KODP 2 (Eingriff ins Zielsystem) P21: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an.

und so viel Solarkollektoren installiere, was ist dann der Effekt auf die Emissionsminderung‘.“ (PS, 284). Um die Wirkung eines bestimmten Eingriffs in das Zielsystem, hier die Förderung einer bestimmten Technologie, bestimmen zu können, wird auch hier die Lösung zweier Modellläufe miteinander verglichen: „Im ersten Fall sozusagen müsste man […] einfach nur [eine; CD] bestimmte Menge an installierter Kapazität vorgeben und dann schauen, wie ändern sich dann die Emissionen im Vergleich zu einem Szenario ohne diese Kapazitäten.“ (PS, 286).

E RGEBNISSE

| 159

Zusätzliche Prämissen P22: Gilt (i) Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak, av) an und (ii) Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an, so gilt auch: Führt ein reales Ereignis H dazu, dass die realen Größen V nicht die Werte av, sondern av* annehmen, und nehmen die realen Größen K bestimmte Werte ak an, dann hat dieses Ereignis den Effekt, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen. Hauptkonklusion HK4: Also (aus P20 bis P22): Führt ein reales Ereignis H dazu, dass die realen Größen V nicht die Werte av, sondern av* annehmen, und nehmen die realen Größen K bestimmte Werte ak an, dann hat dieses Ereignis den Effekt, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen.

Auch in dieser Rekonstruktion bleibt der Grundgedanke der Isolation von Effekten erhalten: Die Veränderung der numerischen Annahmen zwischen zwei Rechenläufen wird als Eingriff in das Zielsystem angesehen, deren Effekt gerade im Unterschied der numerischen Ergebnisse besteht. Wiederum findet sich mit P22 eine Prämisse im Argument, die in den Schilderungen zwar implizit bleibt, aber notwendig ist, um ein deduktiv gültiges Argument zu formulieren. In weitergehenden Überlegungen wäre zu untersuchen, ob diese Prämisse plausibel ist. Hierauf wird hier jedoch verzichtet. Entscheidend für die Diskussion in der vorliegenden Untersuchung ist, dass in der Hauptkonklusion HK4 nun die numerischen Annahmen ak, die nicht verändert werden, im Antezedens auftauchen. Die Konklusion ist also konditional vom Referenzlauf abhängig. Ein Adressat einer solchen Konklusion würde also mit dieser Aussage nicht erfahren, ob der fragliche Eingriff tatsächlich den berechneten Effekt hat – um dies wissen zu können, müsste zusätzlich der Status des Referenzlaufes geklärt werden. Unter welchen Bedingungen es sich hierbei in der Politikberatung um eine problematische Konklusion handelt, wird in Abschnitt 7.5 diskutiert werden.

160 | M ODELLIERTE Z UKUNFT

Isolation von Effekten nur über den relativen Unterschied Matthias Imgrund und Simon Müller beschreiben ein Vorgehen, das ebenfalls der grundsätzlichen Idee der Isolation von Effekten folgt. Matthias Imgrund erläutert: „Bei einer Szenarioanalyse hat man einen [...] Referenzlauf des Modells und macht dann in einem zweiten Lauf, bei dem man die relevanten, zum Beispiel Politikparameter oder externe Schocks oder was auch immer man simulieren möchte, verändert – und zwar nur diese Parameter – und dann die Differenz der Ergebnisse als Wirkung dieses jeweiligen Anstoßes interpretiert. Was die Szenarioanalyse auszeichnet, ist die Tatsache, dass der Referenzlauf nicht als Prognose verstanden wird.“ (MI, Int. 2, 14)

Während die übrigen Modellierer – besonders deutlich ist hier wie zuvor beschrieben Hans Wagenfurth – jedoch die Abhängigkeit des schließlich bestimmten Effektes von den numerischen Annahmen im Referenzlauf hervorheben, verneint Imgrund diese Abhängigkeit explizit und erklärt, dass es nur die Differenz, also der relative Unterschied zwischen den beiden Modellläufen, ist, der als Effekt ausgewiesen wird. Auf die Frage, ob ein Szenario allein bereits eine Aussage trifft, antwortet er: „Im Prinzip nicht, also wie gesagt, wenn man einen Kurvenverlauf hat und einen zweiten Kurvenverlauf und der liegt höher oder tiefer, dann schauen wir uns diese Differenz an. Und wir schauen uns im Prinzip nicht an, auf welchem Niveau sich das abspielt oder ob die Kurve sich schlängelt oder ganz gerade ist oder irgendsowas. Sondern wir gucken wirklich nur auf die Differenzen.“ (MI, Int. 2, 41)

Simon Müller gibt in ähnliche Weise an, dass für ihn nur der relative Unterschied zwischen den Modellläufen aussagekräftig ist, weil sein Modell für den ersten Modelllauf kalibriert werden muss.41 Wie er im Interview schildert, wer-

41 Vgl.: „Eine saubere Modellanalyse sollte […] immer vergleichen zu einem BusinessAs-Usual, also zu einem Referenz- oder Basisfall, zu einem Szenario ohne Politikmaßnahme. Und jetzt kommt natürlich der Punkt: Mit einem allgemeinen Gleichgewichtsmodell können sie ja gar keine Referenzprognosen machen, weil […] das kalibrieren sie ja auf einer bestimmten Entwicklung, da geben sie ja eine Entwicklung vom GDP-Wachstum beispielsweise vor. Und sie geben, je nachdem, wenn sie Informationen haben über Annahmen, die irgendjemand da in seine Modelle schon mal rein gesteckt hat, geben sie die eben vor. Das heißt, ihr Business-As-Usual-Szenario ist ei-

E RGEBNISSE

| 161

den dabei Werte für die exogenen Variablen angenommen, von denen für ihn nicht klar ist, welche Aussagekraft sie haben. Da zumindest die Schilderungen Müllers etwas unscharf sind, sei hier darauf hingewiesen, dass die von ihm und Imgrund geschilderte Sichtweise, dass nur die Differenz aussagekräftig ist, auch in der Literatur vorzufinden ist.42 Es fällt auf, dass diese Variante der Isolation von Effekten nach Kenntnis des Autors nur dann beschrieben wird, wenn in der betreffenden Analyse ein Allgemeines Gleichgewichtsmodell verwendet wird. Dies gilt auch für die beiden Interviewten Imgrund und Müller. Hans Wagenfurth, der ein ökonometrisches Modell verwendet, beschreibt diese Variante ebenfalls für die Allgemeine Gleichgewichtsmodellierung und grenzt sich deutlich hiervon ab.43 Im Rahmen der vorliegenden Untersuchung war es jedoch nicht möglich zu klären, worauf die Korrelation dieser Variante mit der Verwendung Allgemeiner Gleichgewichtsmodelle beruht. Simon Müller schildert, dass die beiden Rechenläufe für ihn Gleichgewichtszustände repräsentieren und er durch die Veränderung der numerischen Annahmen einen Eingriff in den Gleichgewichtszustand des Referenzlaufes untersucht.44 Es ist also zu vermuten, dass die zuvor beschriebene Variante an die Interpretation der Rechenläufe als Gleichgewichtszustände gebunden ist. Das Argument, das Imgrund und Müller zum Ausdruck bringen, lässt sich als Variante des Argumentes IE wie folgt rekonstruieren. Hierbei bezeichnet av-av* den numerischen Wert, um den die Größen V zwischen den beiden Rechenläufen verändert werden und m(ak,av)-m(ak,av*) den Wert der Differenz der beiden Lösungen für die endogenen Größen Y:

gentlich gar nicht so interessant. Interessant wird es erst, wenn sie irgendwie/ wenn sie in dieses System, das im Gleichgewicht sich befindet, einen Schock, einen exogenen Schock rein geben und dann gucken […] zu welchen Effekten das dann führt.“ (SM, Int. 1, 398), sowie „Ich tendiere da zu der eher vorsichtigen und eher einschränkenden Sichtweise, dass es nur im Relativvergleich tatsächlich belastbar sein sollte.“ (SM, Int. 2, 45). 42 So etwa in Bach et al. 2001: 4. 43 Vgl.: „Meine Kollegen mit den Allgemeinen Gleichgewichtsmodellen sind da sehr viel zurückhaltender, was die Referenz betrifft. […] weil die haben auch Probleme mit der Referenz, weil die kriegen die nicht realistisch hingetrimmt, möchte ich mal sagen, und deshalb schauen die sich am liebsten immer nur die Differenz an, am allerliebsten relative Abweichungen. Das ist bei uns nicht der Fall […].“ (HW, Int. 2, 64) 44 Vgl. (SM, Int. 1, 398) zitiert in Fußnote 41.

162 | M ODELLIERTE Z UKUNFT

Isolation von Effekten nur über den relativen Unterschied Elementares Argument KODP 1 (Referenzlauf) P23: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av) an. Elementares Argument KODP 2 (Eingriff ins Zielsystem) P24: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an. Zusätzliche Prämissen P25: Gilt (i) Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak, av) an und (ii) Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an, so gilt auch: Führt ein reales Ereignis H dazu, dass sich die Werte der realen Größen V um av-av* ändern, dann hat dieses Ereignis den Effekt, dass sich die Werte der realen Größen Y um m(ak,av)-m(ak,av*) ändern.45 Hauptkonklusion HK5: Also (aus P23-P25): Führt ein reales Ereignis H dazu, dass sich die Werte der realen Größen V um av-av* ändern, dann hat dieses Ereignis den Effekt, dass sich die Werte der realen Größen Y um m(ak,av)-m(ak,av*) ändern.

In dieser Aussage wird ein Ereignis H nur durch den relativen Unterschied av-av* der Werte der Größen V beider Läufe definiert. Dementsprechend wird auch der Effekt, den dieses Ereignis hat, nur durch den relativen Unterschied m(ak,av)m(ak,av*) der numerischen Ergebnisse beider Läufe bestimmt. Im Unterschied zum Argument IE ist die Höhe dieses Effektes also unabhängig von den numerischen Annahmen ak und av – also von den numerischen Annahmen im Referenzlauf. 46 45 Vereinfacht dargestellt hat Prämisse P25 also die Form: Gilt P23 und gilt P24, so gilt auch HK5. 46 Beispielsweise würde demnach eine Verteuerung des Rohölpreises um 50 Dollar pro Barrel immer einen Anstieg der Arbeitslosenzahlen um 100.000 Personen bedeuten, egal wie hoch der Rohölpreis vor der Verteuerung war (fiktives Beispiel).

E RGEBNISSE

| 163

Wichtig ist jedoch, dass der Schluss von P23 und P24 auf HK5 nur unter Einfügung der zusätzlichen Prämisse P25 gültig ist. In dieser muss zum Ausdruck kommen, wie im Argument die Abhängigkeit der Prämissen P23 und P24 von den numerischen Annahmen des Referenzlaufes eliminiert wird. In der Rekonstruktion wurde hierzu P25 ergänzt, die wiederum lediglich trivialerweise die Hauptkonklusion folgen lässt. Auch an dieser Stelle muss in weiteren Untersuchungen geprüft werden, ob diese Prämisse plausibel ist oder durch solche ersetzt werden könnte. Isolation von Effekten mit possibilistischem Referenzlauf Eine weitere denkbare Variante besteht darin, Prämisse P18 nicht als deterministische, sondern als possibilistische Aussage zu formulieren, um zu kennzeichnen, dass für die numerischen Annahmen im Referenzlauf lediglich possibilistisches Wissen zur Verfügung steht. Diese Variante lässt sich jedoch nicht an den Schilderungen der Interviewten festmachen. Vielmehr deutet lediglich der Umstand, dass Jochen Altmann und Peter Schnitzer schildern, dass sie sowohl einzelne Modellläufe als kategorische possibilistische Prognosen interpretieren (vgl. Abschnitt 6.2.1) als auch in manchen Projekten im Sinne der Isolation von Effekten argumentieren, darauf hin, dass diese Variante in der Energieprognostik relevant sein könnte. Eine Rekonstruktion dieser Variante lautet: Isolation von Effekten mit possibilistischem Referenzlauf Elementares Argument KODP 1 (Referenzlauf) P26: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av) an. Elementares Argument KODP 2 (Eingriff ins Zielsystem) P27: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an.

164 | M ODELLIERTE Z UKUNFT

Zusätzliche Prämissen P28: Es ist möglich, dass die realen Größen K die Werte ak annehmen. ZK6: Also (aus P26-P28): Es ist möglich, dass {(i) wenn die realen Größen V bestimmte Werte av annehmen, dann die realen Größen Y die Funktionswerte m(ak, av) annehmen und (ii) wenn die realen Größen V bestimmte Werte av* annehmen, dann die realen Größen Y die Funktionswerte m(ak,av*) annehmen}.47 P29: Gilt: Es ist möglich, dass {(i) wenn die realen Größen V bestimmte Werte av annehmen, dann die realen Größen Y die Funktionswerte m(ak, av) annehmen und (ii) wenn die realen Größen V bestimmte Werte av* annehmen, dann die realen Größen Y die Funktionswerte m(ak,av*) annehmen}, so gilt auch: Es ist möglich, dass {wenn ein reales Ereignis H dazu führt, dass die realen Größen V nicht die Werte av, sondern av* annehmen, dann dieses Ereignis den Effekt hat, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen}.48 Hauptkonklusion HK6: Also (aus ZK6 und P29): Es ist möglich, dass {wenn ein reales Ereignis H dazu führt, dass die realen Größen V nicht die Werte av, sondern av* annehmen, dann dieses Ereignis den Effekt hat, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen}.

Die Hauptkonklusion dieses Argumentes trifft also die Aussage, dass es möglich ist, dass eine bestimmte Maßnahme einen bestimmten Effekt hat. Da diese Variante jedoch im empirischen Material nicht direkt beschrieben wird, wird hier auf die weitere Analyse verzichtet. Diese Variante sollte jedoch in weiteren Untersuchungen beachtet werden.

47 Wie die geschweiften Klammern verdeutlichen sollen, umfasst der Möglichkeitsoperator die Konjunktion aus den beiden Teilaussagen. 48 Diese Prämisse hat vereinfacht dargestellt die Form: Gilt möglich, dass {(i) wenn p, dann q und (ii) wenn p*, dann q*}, so gilt auch: Möglich, dass {wenn ein reales Ereignis H dazu führt, dass nicht p, sondern p*, so hat dieses Ereignis den Effekt, dass nicht q, sondern q*}.

E RGEBNISSE

| 165

6.3.3 Sensitivitätsanalysen In allen Interviews wurde auch über Sensitivitätsanalysen gesprochen. Es wurde deutlich, dass diese ergänzend zu der zentralen Argumentation eines Gutachtens durchgeführt werden. Allerdings wurde dieses Thema nicht vertiefend in den Interviews behandelt, so dass hier nur eine recht grobe Zusammenfassung der Schilderungen möglich ist. Grundsätzlich wird mit einer Sensitivitätsanalyse versucht, die Ergebnisse der Hauptanalyse auf ihre Verallgemeinerbarkeit bzw. Geltungsgrenzen hin zu überprüfen, indem der Einfluss einer Veränderung der numerischen Annahmen auf das Ergebnis untersucht wird. Exemplarisch schildert dies etwa Matthias Imgrund.49 Wie in den Interviews deutlich wurde, werden im Angesicht des hohen Aufwandes in der Praxis Sensitivitätsanalysen nicht für alle unsicheren Variablen durchgeführt, sondern nur für einige. Zuvor wurden zwei Typen solcher Hauptanalysen identifiziert, nämlich zum einen die Gegenüberstellung possibilistischer Prognosen und zum anderen die Isolation von Effekten. Es zeigt sich, dass in den Interviews unterschiedlich klar ist, wie in beiden Fällen eine Sensitivitätsanalyse durchgeführt wird – und worin der Unterschied zur Hauptanalyse besteht. Eine Ursache für diese Unklarheit ist, dass in den Interviews nicht deutlich wird, welche numerischen Annahmen bei einer Sensitivitätsanalyse im Unterschied zur Hauptanalyse variiert werden. Ein zweiter Grund für diese Unklarheit ist, dass in den Interviews nicht deutlich wird, ob ein Unterschied zwischen Annahmen für Modellparameter und für exogene Variablen besteht. Aus analytischer Sicht scheint hier kein grundsätzlicher Unterschied zu bestehen, weshalb Modellparameter in Abschnitt 3.5.1 als Untergruppe von Variablen eingeführt wurden. In den Interviews scheint jedoch implizit ein Unterschied zwischen beiden vorausgesetzt zu werden. Dieser scheint unter anderem darin zu bestehen, dass Modellparameter, anders als exogene Variablen, gerade solche Größen sind, die in der Hauptanalyse nicht variiert werden.

49 Vgl. beispielsweise: „Sie sind ganz sicher auf den Begriff der Sensitivitätsanalyse gestoßen, und der wird in dem Bereich, in dem ich arbeite, in der Regel so verstanden, dass man sagt, man verändert einzelne Parameter, also was weiß ich irgendwelche Preiselastizitäten oder irgendwas in dieser Richtung, und lässt das Modell noch mal laufen mit diesen veränderten Parametern. Um zu sehen, inwieweit die Ergebnisse abhängig sind zum Beispiel von Annahmen über die Preiselastizitäten oder solchen Größen.“ (MI, Int. 2, 95-97)

166 | M ODELLIERTE Z UKUNFT

Für Analysen, in denen Effekte isoliert werden sollen, ist das Vorgehen relativ gut nachvollziehbar, denn die Hauptkonklusion besteht in einer Aussage über die Wirkung einer bestimmten Maßnahme oder eines anderen Eingriffs in das Zielsystem. Um diese Aussage hinsichtlich ihrer Sensitivität zu überprüfen, ist es im Prinzip sinnvoll, alle unsicheren Annahmen zu variieren. Der Unterschied zwischen Modellparametern und exogenen Variablen scheint hier nicht relevant zu sein. Etwas unklarer ist die Situation für Analysen, die dem Argument GPP folgen. Beispielsweise beschreibt Peter Schnitzer Sensitivitätsanalysen, in denen Modellparameter variiert werden, auch für dieses Argument.50 Die Unklarheit rührt daher, dass eine Kernidee dieses Argumentes bereits darin besteht, unsichere Annahmen zu variieren und auf diese Weise unterschiedliche Szenarien zu generieren. Wenn dann in einer Sensitivitätsanalyse wiederum unsichere Annahmen variiert werden, ist nicht mehr offensichtlich, worin der Unterschied zur Hauptanalyse besteht. Vielmehr erscheint es naheliegend, die zusätzlichen Rechnungen als zusätzliche Szenarien zu verstehen, sodass diese gewissermaßen als zusätzliche Konjunkte in die Hauptkonklusion eingehen. Diese Unschärfe ist auch im Interview Jochen Altmanns erkennbar.51 Über diese grobe Einschätzung hinaus ist es nicht möglich, im Rahmen der vorliegenden Untersuchung weitergehende Aussagen darüber zu treffen, wie in

50 Vgl.: „Ich würde vielleicht Rahmenannahmen ja so betrachten, die ich auch zwischen Szenarien/ oder die man häufig zwischen Szenarien variiert, während zum Beispiel die Charakterisierung von den Technologien, das heißt Wirkungsgrad oder Investitionskosten, die werden in der Regel nicht zwischen Szenarien variiert. Man hat natürlich auch Variationen zwischen denen, aber das sind dann eher Sensitivitätsanalysen, zum Beispiel für die Investitionskosten zu schauen, zu welchem Preis wird eine Technologie in welchem Maße genutzt. Und das würde ich vielleicht anders jetzt schon als Sensitivitätsanalyse bezeichnen und nicht als Szenario.“ (PS, 21). 51 JA: „Es sind ja nicht nur die Parameter, die ich da erwähnt hatte, sondern es gibt ja auch Unsicherheiten in Bezug auf technische Parameter, in Bezug auf Kostenparameter für die Technologien etc. und die müsste man ja im Prinzip auch variieren. Das macht man zwar auch manchmal, aber nicht alle, weil das gibt natürlich eine irrsinnige Variantenbreite, sondern man entscheidet sich dann auch für bestimmte Bündelungen […].“ CD: „Ja, würden Sie das dann auch als Szenariovariation bezeichnen?“ JA: „Ja, natürlich.“ CD: „Und gibt es einen Unterschied/ oder in so einem Zusammenhang höre ich oft den Terminus Sensitivitätsanalyse?“ JA: „Ja, das ist es im Grunde genommen.“ (JA, Int. 2, 58-62)

E RGEBNISSE

| 167

der Praxis der Energieprognostik Sensitivitätsanalysen durchgeführt werden, und inwiefern diese tatsächlich die Robustheit der Ergebnisse erhöhen können. Hierbei handelt es sich um eine eigene Forschungsfrage, die in Folgeuntersuchungen aufgenommen werden sollte. 6.3.4 Übersicht der Fälle In diesem Schritt der Analyse wurde untersucht, welche Konklusionen die interviewten Modellierer aus der Interpretation mehrerer Modellläufe ziehen. Zwei unterschiedliche Argumente wurden rekonstruiert. Eine Übersicht hierzu bietet Tabelle 3. Drei der sieben Fälle beschrieben ein komplexes Argument, das auf der Interpretation der Einzelläufe als possibilistische Prognosen basiert und als Gegenüberstellung possibilistischer Prognosen (GPP) bezeichnet wird. Zusätzlich wurde für dieses Argument eine Variante rekonstruiert, auf deren Darstellung in Tabelle 3 jedoch verzichtet wird. Zwei der Fälle, die im Sinne GPP argumentieren, sowie die übrigen vier Interviewten beschrieben ein weiteres komplexes Argument, bei dem die Effekte eines Eingriffs in das Zielsystem bestimmt werden sollen. Dieses Argument wurde als Isolation von Effekten (IE) bezeichnet, wobei noch einmal erwähnt sei, dass hiermit – anders als beim Argument GPP – nicht genau ein rekonstruiertes Argument bezeichnet wird, sondern die Grundidee dieses Argumentes, die zuvor in vier Varianten rekonstruiert wurde. Auf die Darstellung dieser Varianten wird in Tabelle 3 ebenfalls verzichtet. Tabelle 3: Übersicht der komplexen Argumente nach Fällen Komplexes Argument

Fälle

Gegenüberstellung possibilistischer Prognosen (GPP)

AG, JA, (KE)

Isolation von Effekten (IE)

JA, PS, KE, HW, MI, SM

In der Übersicht fällt zunächst auf, dass Anton Gerhard als einziger Interviewter nicht das Argument IE beschreibt. Eine mögliche Erklärung besteht darin, dass dieses Argument darauf aufbaut, dass das Modell aufgrund einer Änderung der numerischen Annahmen für die exogenen Größen zu einer veränderten Lösung für die endogenen Größen kommt. Anders gesagt setzt das Argument also ein Modell voraus, dass durch die Verknüpfung von exogenen und endogenen Größen in Modellzusammenhängen in der Lage ist, auf eine Änderung der Annahmen zu „reagieren“. Je stärker der Grad der Endogenisierung, je mehr endogene

168 | M ODELLIERTE Z UKUNFT

Größen also von wenigen exogenen Größen abhängen, desto größer ist der Eindruck, dass ein großes komplexes System auf einen kleinen Eingriff reagiert. Umgekehrt bedeutet dies, dass das Vorgehen bzw. das Argument mit schwach endogenisierten Modellen im Grunde nicht realisierbar ist. Denn hier gibt es keine oder nur sehr wenige Größen, die überhaupt „reagieren“ können. Das Gros des Unterschiedes zweier Rechenläufe würde hier schon durch die Setzung der numerischen Annahmen festgelegt werden und ließe sich nur schwer als ein Effekt interpretieren. Da Anton Gerhard als einziger Interviewter ein Simulationsmodell verwendet, das gerade diese Eigenschaft hat, ist dies vermutlich der Grund dafür, dass er als einziger nicht die Isolation von Effekten beschreibt (vgl. Abschnitt 5.4.1). Weiterhin fällt auf, dass zwei der sieben Fälle, nämlich Jochen Altmann und Klaus Einbaum, beide Vorgehensweisen schildern. Beide erläutern, dass je nach Fragestellung mal das eine und mal das andere Vorgehen gewählt wird oder auch beide in Kombination eingesetzt werden. Die Schilderungen beider Interviewten deuten darauf hin, dass für sie ein Übergang zwischen der Isolation von Effekten und der Gegenüberstellung possibilistischer Prognosen besteht, nämlich dann, wenn mehrere Größen gleichzeitig zwischen den Modellläufen verändert werden und diese nicht als Repräsentation eines einzigen Eingriffs interpretiert werden können. Da in diesem Fall nicht mehr nachzuvollziehen sei, auf welche Veränderung der beobachtete Effekt zurückzuführen ist, können ihrer Ansicht nach hier keine Effekte mehr bestimmt werden.52

52 Klaus Einbaum sagt: „Also wenn sie einen Effekt isolieren wollen, dann müssen sie es so tun. Sie müssen es dann deshalb so tun, weil das Ergebnis ja im Zusammenwirken vieler Determinanten getrieben wird. Und nur wenn Sie alles bis auf eine Stellschraube konstant lassen, also nur wenn sie sich darauf beschränken, an einer Stellschraube zu drehen, können sie auch feststellen, was die Auswirkung dieses Drehens an der einen Stellschraube ist. Aber wenn sie drei Szenarien machen, die sich in mehreren Determinanten gleichzeitig unterscheiden, dann haben Sie keine Kausalitäten mehr.“ (KE, Int. 2, 45). Jochen Altmann gibt an: „Dann [wenn man gleichzeitig mehrere Parameter ändert; CD] wird es schwierig. Man kann es zwar machen. Man kann dann sagen: Wenn ich diese Gruppe von Parameter jetzt ändere, dann passiert das im Vergleich zu einer Rechnung, wo die Parameter woanders lagen. Schwierig wird es aber, wenn man die Frage stellt, was ist denn die Wirkung von diesem einen Parameter? Und was ist die Wirkung von dem zweiten und dritten und so weiter? Das können Sie dann praktisch nicht mehr/ in der Regel, manchmal geht es, aber in der Regel ist es sehr schwer, weil es gibt Überlappungsbereiche, wo die Parameter beide oder alle

E RGEBNISSE

| 169

Bezogen auf die beiden komplexen Argumente könnte der Übergang wie folgt ausgedrückt werden: Da die Hauptkonklusion der Isolation von Effekten in den Augen der Modellierer nicht mehr gezogen werden kann, wird statt P18 eine possibilistische Prognose für die numerischen Annahmen getroffen und das Argument IE bei der (dann modifizierten) Zwischenkonklusion abgebrochen. Diese neue Hauptkonklusion stellt also eine Konjunktion zweier konditionaler, possibilistischer Prognosen dar und hat damit die Form der Hauptkonklusion des Argumentes GTPP.

6.4 I NTERPRETATION

DER

E NERGIEMODELLE

Dieser Abschnitt hat das Ziel zu zeigen, wie die interviewten Modellierer ihre Modelle beschreiben und interpretieren. Dabei ist vorauszuschicken, dass alle Modellierer in irgendeiner Weise ihre Modelle als Repräsentation eines realen Zielsystems beschreiben – auch wenn dies im Folgenden nicht für jeden einzelnen Fall explizit vorgeführt wird. Die Analyse richtet sich vor allem auf die Frage, wie dieser epistemische Geltungsanspruch im Einzelfall formuliert, begründet und insbesondere auch eingeschränkt wird. In den Interviews haben sich drei zentrale Kategorien gezeigt, anhand derer die Interviewten den epistemischen Geltungsanspruch ihrer Modelle beschreiben. Dies ist erstens der Verweis auf unrealistische Annahmen. Hiermit sind solche Modellannahmen gemeint, die der Einschätzung der Modellierer gemäß nicht mit der Realität übereinstimmen. Diese Kategorie fungiert in diesem Abschnitt zunächst nur als grobes Sortierungskriterium, mit dem die individuellen Unterschiede im Erkenntnisanspruch sichtbar gemacht werden sollen. Ihre theoretische Einordnung, insbesondere unter Berücksichtigung der hierüber geführten philosophischen Debatte, erfolgt in Abschnitt 7.8. Die zweite Kategorie, anhand derer die Interpretationen der Modelle erfasst werden, ist die der deterministischen Prognosefähigkeit der Modelle. Hierunter ist insbesondere die Frage zu verstehen, ob die Modellierer sich in der Lage sehen, mit ihren Modellen kategorische, deterministische Prognosen für das Energiesystem zu begründen. Drittens wird schließlich erfasst, wie die Modellierer die empirische Fundiertheit ihrer Modelle einschätzen, wobei hierbei insbesondere untersucht wird, ob die Modelle nach Ansicht der Interviewten konsistent mit den relevanten Beobachtungsdaten sind.

wirken. Und dann können Sie das nicht mehr auseinander, sie kriegen es nicht entfaltet.“ (JA, Int. 2, 146)

170 | M ODELLIERTE Z UKUNFT

Im Folgenden werden die Schilderungen der Interviewten grob in der Reihenfolge schwächer werdender epistemischer Ansprüche diskutiert und schließlich in Abschnitt 6.4.4 zusammengefasst. Erst in Abschnitt 7.8 werden diese Ergebnisse interpretiert. Dort erfolgt insbesondere auch die Diskussion ihrer Implikationen für das Kriterium der empirischen Adäquatheit, das in Abschnitt 3.5.2 eingeführt und bei der Rekonstruktion der Argumente vorausgesetzt wurde. 6.4.1 Modelle mit hohem epistemischen Geltungsanspruch Klaus Einbaum, der ein intertemporal-dynamisches Optimierungsmodell des Elektrizitätsmarktes einsetzt (vgl. Abschnitt 5.4.4), erläutert, dass er im speziellen Fall dieses Zielsystems die kritische Annahme des perfekten Wettbewerbs zumindest kurzfristig als real erfüllt ansieht. Als Grund hierfür nennt er den Umstand, dass Elektrizität an Strombörsen wie der europäischen EEX gehandelt wird. Dabei findet – so Einbaum – in der Realität ein „lehrbuchartiger“ Abgleich zwischen Angebot und Nachfrage statt. Gleichzeitig interpretiert Einbaum den von ihm verwendeten Optimierungsalgorithmus als Realisierung dieser Annahme des perfekten Wettbewerbs.53

53 Auf die Frage nach dem Geltungsanspruch seines Modells antwortet Einbaum: „Ok, also ich glaube an der Stelle ist sozusagen ein Knackpunkt jetzt, und da ist auch wieder Strom ein schönes Beispiel, sozusagen die Aussagen der Ökonomik, dass wenn die Märkte perfekt funktionieren, also wenn ein sogenannter vollständiger Wettbewerb herrschen würde, dass das dann sozusagen auch zur kostenminimalen Lösung führt. Deshalb wird sozusagen die Annahme der Kostenminimierung in den Optimierungsmodellen, die spiegelt wider, dass vollständiger Wettbewerb auf Märkten genau zu dieser Lösung führt. […] und dann ist eben die Frage, inwieweit funktionieren die Märkte perfekt?“ (KE, Int. 2, 165-167). Auf die anschließende Nachfrage erläutert er: „In der Elektrizitätswirtschaft hat man relativ günstige Voraussetzungen eigentlich. Man hat eine exzellente Datenlage und man hat sozusagen wirklich Märkte, die fast lehrbuchartig funktionieren. Also es ist wirklich so/ weil es gibt diese Strombörsen, da reichen die Akteure ihre Bieterlisten ein und die Nachfrager reichen da ihre Zahlungsbereitschaft/ die schreiben da wirklich Listen und geben da ihre Zahlungsbereitschaften ein. Und dann kommt der, sozusagen [walrasianische?; unverständlich] Auktionator, wie er im Lehrbuch steht, und gleicht Angebot und Nachfrage wirklich realiter ab jeden Tag für den Folgetag und ermittelt, wie im Lehrbuch, nach einem wohl definierten, publizierten Algorithmus den markträumenden Preis in jeder Stunde. Also es ist wirklich auf dem Elektrizitätsmarkt/ es ist wahrscheinlich auf kaum einem Markt so lehrbuchnah eigentlich implementiert, was passiert, was wirklich passiert. Und sagen

E RGEBNISSE

| 171

Hinzu kommt, dass er die Übereinstimmung von Modell und Realität empirisch bestätigt sieht, indem er darauf verweist, dass sein Modell GERANIE für den Strompreis Ergebnisse liefert, die mit den beobachteten Strompreisen gut übereinstimmen.54 Hieraus leitet sich für Einbaum ab, dass mit seinem Modell zumindest für kurze Zeithorizonte deterministische Prognosen erstellt werden können. Diese „Prognosefähigkeit“ sieht er jedoch bei langfristigen Betrachtungen durch eine zweite zentrale Modellannahme eingeschränkt. Hierbei handelt es sich um die Annahme der perfekten Voraussicht, die eine Interpretation der Intertemporalität des Modells darstellt. Deshalb kann das Modell seiner Ansicht nach in solchen Betrachtungen lediglich für die Konsistenz der Ergebnisse sorgen.55

wir mal diesen Prozess, den versuchen wir schon nachzubilden. Indem wir zum einen eben die ganzen Daten über den Kraftwerkspark dann sammeln und dann plausible Preisannahmen treffen und dann eben diese Verhaltensannahme machen, dass der Wettbewerb funktioniert und kostenminimierende Lösungen begünstigt, und das scheint eben eine ganz passable Näherung zu sein.“ (KE, Int. 2, 173-175). 54 Vgl.: „Und dann lass ich das Modell unter der Annahme perfekter Wettbewerb laufen, operationalisiert durch Kostenminimierung und Grenzkostenpreisbildung und solche Dinge, und dann spuckt das Modell mir modellmäßige Grenzkostenstrompreise aus. Und dann kann ich ergebnisoffen gucken, wie verhalten sich diese Strompreise mit dem was ich an der EEX beobachte. Und dann sind die Abweichungen mehr oder weniger groß und wenn die dann sehr groß sind, dann muss ich irgendwo sagen, entweder stimmen die Daten nicht oder sind die heroischen Modellannahmen zu weit von der Wirklichkeit entfernt. Und wenn die hinreichend klein sind, dann kann ich sagen, es sieht so aus, als wären die Daten passabel und auch die Modellannahmen nicht allzu weit von der Wirklichkeit entfernt. […] Und wir haben jetzt in [Name eines Projektes; anonym.] […] den durchaus wichtigen Anker gehabt, dass wir zumindest in dem Elektrizitätsteil dieser Studie sagen konnten, die Preisbildung, die Strompreisbildung des Modells kann sozusagen verifiziert werden mit einer passablen Güte […].“ (KE, Int. 2, 76-77). 55 Vgl.: „Also wenn es dann in die Zukunft geht, wird es natürlich schwieriger. Da muss man immer das Annahmenset sehen und insbesondere die heroische Annahme, dass natürlich der Erwartungsabgleich aller Akteure bis auf auch die Zukunft und vollkommene Voraussicht/ also […] was die längerfristige Zukunft betrifft, da haben die Modelle ja dann eigentlich den Zweck, sozusagen konsistente Entwicklungen darzustellen, die keine inneren Widersprüche beinhalten. Das ist da eigentlich der Hauptzweck. Aber je näher man an der Wirklichkeit ist, wo man auch mit Futuremärkten noch abgleichen kann, desto mehr würde ich jetzt spezifisch für den elektrizitätswirt-

172 | M ODELLIERTE Z UKUNFT

Wie wir bereits in Abschnitt 6.2.2 gesehen haben, ist Hans Wagenfurth ein weiterer interviewter Modellierer, der sich ebenfalls imstande sieht, mit seinem Modell deterministische Prognosen zu erstellen. Er begründet dies ebenfalls mit realistischen Annahmen. Während Einbaum aber die Annahme des vollständigen Wettbewerbs für das Zielsystem seines Modells real erfüllt sieht, hält Wagenfurth gerade die gegenteilige Annahme, nämlich die eines unvollständigen Wettbewerbs, für das Zielsystem seines Modells – das sich deutlich vom Zielsystem Einbaums unterscheidet – für erfüllt.56 Er sieht sich im Stande, diese Eigenschaft des Zielsystems mit seinem Modell abzubilden: „Ich sage immer, wir versuchen mit der Schätzung dieser Parameter die Unvollkommenheiten, die Marktunvollkommenheiten, die Unvollkommenheiten der Information und so weiter irgendwie zu erfassen und/ um dann schließlich Modelle zu haben, mit denen man auch in der Lage ist, ja prognostisch etwas zu unternehmen.“ (HW, Int. 1, 75)

Wie hier deutlich wird, bildet den Kern dieser Überzeugung sein Modellkonzept: Da es sich um ein ökonometrisches Modell handelt, bei dem die funktionalen Zusammenhänge durch statistische Schätzung an empirische Daten angepasst

schaftlichen Teil von Modellen sagen, da ist schon eine gewisse Belastbarkeit und auch dann sozusagen eine gewisse Prognosefähigkeit/ also bedingte Prognosefähigkeit dann vorhanden.“ (KE, Int. 2, 176-177) Anm.: Mit „Futuremärkten“ ist hier der Börsenhandel mit Termingeschäften gemeint. 56 Vgl.: „Wir gehen davon aus, dass die ökonomische Welt eine unvollkommene ist, [das bedeutet eine; CD] Abgrenzung zur Neoklassik. Das heißt, der Informationsstand der Wirtschaftssubjekte ist nicht so, dass man behaupten könnte, dass jeder in jedem Moment optimiert. Um optimieren zu können, muss man alle Handlungsalternativen kennen, und wenn man die nicht kennt, kann man nur eingeschränkt sich rational verhalten, wie es so schön heißt. Also beschränkte Rationalität. Natürlich schon Rationalität, klar die sind nicht alle blöd, die Agenten. Sie reagieren auf Preissignale und so weiter und suchen ihren Vorteil, aber das alles in einer Welt, die durch große Unvollkommenheiten, was den Informationsstand betrifft und was die Funktionsfähigkeit der Märkte betrifft. Also ich gehe nicht davon aus, dass wir perfekte Konkurrenzmärkte haben. Sondern das sind Märkte, die auf beiden Seiten, Anbieter- und Nachfrageseite, durch Unvollkommenheiten gekennzeichnet sind, was die Anzahl der Marktteilnehmer betrifft, was Abhängigkeiten und so weiter untereinander betrifft und so fort.“ (HW, Int. 2, 217)

E RGEBNISSE

| 173

werden, bildet es in seinen Augen die realen Unvollkommenheiten der Volkswirtschaft in den funktionalen Zusammenhängen ab.57 Da „die Welt sich nicht abschneidet“58, hält er diese geschätzten funktionalen Zusammenhänge außerdem auch für in der nahen Zukunft erfüllt und sieht es durch die Methode der Schätzung als gewährleistet an, dass sein Modell die vergangene Entwicklung des Zielsystems reproduzieren kann. Ob diese Kontinuitätsannahme auch für weiter entfernte Zeithorizonte erfüllt ist, sieht er jedoch nicht als gesichert an. Deshalb kommt auch Wagenfurth zu dem Schluss, dass mit seinem Modell nur kurzfristige deterministische Prognosen begründet werden können. Es fällt also auf, dass die beiden einzigen interviewten Modellierer, die sich im Stande sehen, mit ihrem Modell deterministische Prognosen zu begründen, dies damit begründen, dass zumindest bei kurzfristigen Betrachtungen ihr Modell in ausreichender Genauigkeit mit der Realität übereinstimmt. Umgekehrt halten Sie ihre Modelle bei langfristigen Begründungen nicht für prognosefähig. Zumindest Klaus Einbaum begründet dies mit unrealistischen Annahmen. Ob diese Begründung stichhaltig ist und was dies für die empirische Adäquatheit dieser Modelle bedeutet, wird in Abschnitt 7.8 diskutiert werden.

57 Vgl. „Die Welt ist auf ihre Weise rational, aber sie ist beschränkt rational. Die Informationen sind nicht in Vollständigkeit da, so dass nicht wirklich immer die optimale Entscheidung getroffen wird und getroffen werden kann. Und wenn Sie das/ wenn Sie diese Grundposition haben, dann ist plötzlich die Modellstruktur offen. Denn, ja dann ist vieles möglich. Dann muss nicht alles konsistent zueinander sein und dann hat man nur einen Halt letzten Endes. Und das ist die Empirie, die uns dann weiter hilft.“ (HW, Int. 1, 68), sowie: „Und es ist dann auch klar, dass man eine enge Anbindung an die Empirie braucht. Und von daher ist für uns ganz wichtig, dass die Parameter der Modelle eben ökonometrisch geschätzt werden und eine entsprechende Offenheit gegenüber den theoretischen Ansätzen besteht. Also/ und darin unterscheidet sich diese Philosophie ganz grundsätzlich von den CGE-Modellen, die praktisch von einem geschlossenen Modellierungskonzept ausgehen.“ (HW, Int. 1, 64-65) 58 Die gesamte Passage lautet: „Und auf diese Weise sind sie ja gezwungen, am Ende ein Modell zu haben, das zumindest die historische Entwicklung sehr gut nachvollziehen kann. Und wenn es das kann, dann ist das die halbe Miete. Dann können sie natürlich auch erwarten, dass es, vielleicht nicht bis 2100, aber die nächste Zeit, noch nachvollziehbar vernünftig auch in den Niveaus eben produzieren kann. Die Welt schneidet sich ja nicht völlig ab und ist dann plötzlich eine ganz andere, sondern da steckt ja eine Menge an Information dann drin in dem System.“ (HW, Int. 2, 85-86)

174 | M ODELLIERTE Z UKUNFT

Zusammenfassend lässt sich feststellen, dass Einbaum und Wagenfurth von allen Interviewten den größten epistemischen Anspruch mit ihren Modellen formulieren – jedoch beschränkt auf kurzfristige Prognosen. Ihr eingeschränkter Anspruch bei langfristigen Zukunftsanalysen wird in Kürze noch einmal gesondert beschrieben. 6.4.2 Modelle mit mittlerem epistemischen Geltungsanspruch Anders als Klaus Einbaum und Hans Wagenfurth begründet Anton Gerhard mit seinem Modell keine deterministischen Prognosen für die Entwicklung des Energiesystems, sondern lediglich possibilistische (vgl. Abschnitt 6.2.1). Wie in Abschnitt 5.4.1 erläutert wurde, verwendet Gerhard ein statisches Simulationsmodell. Insbesondere wird – anders als in Optimierungsmodellen – in diesem Modell keine Aussage über das Entscheidungsverhalten der Akteure getroffen, das aber gerade maßgeblich die dynamische Entwicklung des Energiesystems bestimmt. Es stellt sich also die Frage, wie es für Gerhard überhaupt möglich ist, mit einem solchen Modell dynamische Prognosen über das Energiesystem einschließlich seiner ökonomischen Eigenschaften begründen zu können. Dieser Frage wird im Folgenden nachgegangen. Um Anton Gerhards Interpretation seines Modells nachvollziehen zu können, sei zunächst zitiert, wie er den von ihm mit seinem Modell erhobenen Anspruch beschreibt: „[…] das Ergebnis [einer Modellrechnung ist; CD], glaube ich [qualitativ?; unverständlich] schon belastbar, weil die Modellsystematik […] die Entwicklungsmöglichkeiten des Systems hinreichend gut beschreibt, so dass eher die Frage ist, inwieweit sind die Annahmen, die man getroffen hat, belastbar und inwieweit werden die zutreffen.“ (AG, Int. 2, 75)

Dabei ist entscheidend, dass er lediglich beansprucht, die Entwicklungsmöglichkeiten des Energiesystems mit dem Modell hinreichend gut zu beschreiben. Dies kann vor dem Hintergrund seines Modellkonzeptes wie folgt verstanden werden: Gerhard verwendet als einziger Modellierer im Sample ein statisches Simulationsmodell. Das dynamische Verhalten des Energiesystems wird durch die Annahmen für die exogenen Variablen repräsentiert. Wie in Abschnitt 5.4.1 beschrieben wurde, stellen die funktionalen Zusammenhänge des Modells MALVE keine Aussage darüber dar, wie sich die Wirtschaftssubjekte des Zielsystems verhalten. Vielmehr handelt es sich beim Zielsystem dieses Modells lediglich um technisch-physikalische Eigenschaften des Energiesystems. Die mathematischen

E RGEBNISSE

| 175

Gleichungen des Modells beschreiben in erster Linie die Energie- und Massenerhaltung sowie die technische Struktur des Zielsystems durch sogenannte Transformations- und Allokationsgleichungen. Dies kann so verstanden werden, dass das Modell nur den (statischen) technisch-physikalischen Raum beschreibt, innerhalb dessen sich die (dynamische) Entwicklung des auch ökonomisch beschriebenen Energiesystems bewegen kann. Da das Modell aber gerade dazu eingesetzt wird, Aussagen über die Entwicklung des Energiesystems zu begründen, in die auch das ökonomische Verhalten der Wirtschaftssubjekte eingeht, muss dieses Wissen an anderer Stelle in die Argumentation eingehen. Genau dies beschreibt Anton Gerhard und dies ist auch in der Beschreibung des Modells in der Literatur erkennbar. Dort wird erläutert, dass dies durch die Festlegung der numerischen Annahmen für die exogenen Variablen, insbesondere der Anteile der unterschiedlichen Technologien an der Energieversorgung geschieht (vgl. Abschnitt 6.1.4). Wird also in einem Gutachten, in dem dieses Modell zum Einsatz kommt, die dynamische Entwicklung des Energiesystems im Zeitverlauf beschrieben, so setzt sich dieser Verlauf aus einer Reihe statischer Prognosen des Modells für die jeweiligen Zeitschritte zusammen. Wir können also feststellen, dass Anton Gerhard ein – bezüglich der Repräsentation realer Wirkungszusammenhänge – relativ einfaches Modell verwendet und die wesentliche Herausforderung in der Setzung der numerischen Annahmen für die exogenen Größen besteht. Gleichzeitig ist festzustellen, dass die Schilderungen nur wenige explizite Hinweise darauf beinhalten, wie Gerhard das Modell selbst interpretiert. So finden sich beispielsweise keine Hinweise auf unrealistische Annahmen. Zwar grenzt Gerhard sein Modell explizit von Optimierungsmodellen ab, aber er tut dies nicht durch einen Verweis auf unrealistische Annahmen, sondern er verweist auf die bessere Eignung seines Modells für seine Form der wissenschaftlichen Beratung.59

59 Vgl.: „Also der Grundansatz unseres Modellinstrumentariums […] ist im Grunde, dass wir einen Simulationsansatz […] verfolgen, das heißt uns ein bisschen unterscheiden von, ich sage mal, dem Mainstream in der Energiesystemanalyse, die ja doch sehr stark auf Optimierungsansätze oder Gleichgewichtsmodelle setzen, haben wir uns bewusst entschieden, wir wollen stärker mit den Simulationsansätzen arbeiten, weil wir ein Institut sind, was sehr stark anwendungsorientiert und politikorientiert arbeitet. Und Simulationsansätze den Vorteil dabei haben, dass Sie als Nutzer an jeder Verzweigungsstelle jeweils gefragt sind, sich zu überlegen, wie kann denn Politik eingreifen, um das ein oder andere auch zu verändern, oder auch mit Anreizen zu versehen, Hemmnisse zu überwinden.“ (AG, Int.1, 6).

176 | M ODELLIERTE Z UKUNFT

Führt man sich jedoch die vorherigen Überlegungen zum Modell noch einmal vor Augen, so ist auch gar nicht recht vorstellbar, hinsichtlich welcher Annahmen das Modell Gerhards unrealistisch sein könnte. Denn es besteht ja im Kern aus statischen Bilanzgleichungen, deren Übereinstimmung mit der Realität sehr einfach sicherstellbar erscheint.60 Vor diesem Hintergrund überrascht es nicht, dass die Frage des Realismus seines Modells im Interview keine wichtige Rolle spielt – sie scheint vielmehr gerade aufgrund der Einfachheit des Modells implizit vorausgesetzt zu werden. Neben der Einfachheit ist die Detailliertheit des Modells ein weiteres Motiv in den Interviews mit Anton Gerhard. So betont er etwa die große Detaillierung der Nachfrageseite im Modell und erläutert, dass umfangreiche Daten über die technischen, ökonomischen und anderen Eigenschaften der repräsentierten Technologien benötigt werden.61 6.4.3 Modelle mit niedrigem epistemischen Geltungsanspruch Jochen Altmann verwendet ein sequenziell-dynamisches Optimierungsmodell (vgl. Abschnitte 4.4.1 und 5.4.2). Die Annahme der myopischen Erwartungsbildung, die der Sequenzialität des Modells zugrunde liegt, sieht er als in der Realität erfüllt an.62 Nicht erfüllt sieht er dagegen die Annahme des kostenoptimie-

60 Selbstverständlich ist dies nur eine Vermutung, für deren Prüfung eine genauere Kenntnis des Modells nötig wäre. Folgende Überlegung mag diese aber plausibilisieren: Das Modell bilanziert laut der Beschreibung Gerhards u.a. die Energieflüsse im Energiesystem. Solange hier alle tatsächlich eingesetzten Technologien berücksichtigt werden und deren Wirkungsgrade empirisch korrekt bestimmt werden, stimmt eine solche Bilanzgleichung mit der Realität überein. 61 Vgl.: „Na, sie brauchen natürlich schon eine relativ detaillierte Datenbasis. Sie müssen von den einzelnen Prozessen, die sie abbilden, natürlich wissen, wie sie technisch funktionieren, welche Wirkungsgrade sie haben, welche Kosten sie haben, welche Nebenkosten entstehen, welche Emissionen dabei entstehen. Also sie brauchen einen Datenkranz und das nicht nur für Status quo, sondern natürlich auch in Richtung Perspektive für die folgenden Jahrzehnte […]. Und das gilt, das will ich nochmal explizit herausstreichen, es gilt für die Energieerzeugungsseite, die wir natürlich detailliert abbilden, aber gerade auch eben für die Nachfrageseite, die wir sehr, sehr detailliert versuchen abzubilden, in diesen Submodellen eben.“ (AG, Int. 1, 79-81). 62 Vgl.: „Ja, das ist ja so, da es ja kein perfect foresight gibt/ das Modell optimiert nur jeweils die nachfolgende Periode, natürlich mit dem, was vererbt wird. So, und dann gibt es eine Entwicklung zum Beispiel mit steigenden Energiepreisen, also für Öl, Gas und Kohle. Und das Modell macht im Hinblick auf diese Entwicklung bestimmte In-

E RGEBNISSE

| 177

renden Entscheidungsverhaltens der repräsentierten Agenten. Auf die Schilderung durch den Interviewer: „Also ich hatte […] den Eindruck, dass sozusagen es wichtig ist, auch wenn das Modell eine Abstraktion der Wirklichkeit ist und es eben als Optimierungsmodell konzipiert ist, dann muss man sich ja auch fragen, ob denn die Wirklichkeit optimal sich verhält.“ antwortet er: „Im Sinne von Gesamtkosten optimal in der Regel eben nicht, deswegen sage ich, ist es eben auch keine Prognose. Schon aus dem Grund unter Umständen nicht, trotzdem sind sie aber nicht wertlos, weil ich will ja an und für sich nicht sagen, wie es kommt, auch nicht, wie es kommen soll.“ (JA, Int. 2, 257)

Es wird deutlich, dass er in der Nicht-Erfüllung der Annahme des kostenoptimierenden Entscheidens einen Grund sieht, aus dem mit seinem Modell keine deterministischen Prognosen erstellt werden können.63 Er erläutert außerdem im Zusammenhang dieser Annahme: „Wenn man nämlich versucht, mit so einem Modell die Vergangenheit nachzurechnen […] und sagt, ich kenne ja die Kosten, die Preise damals, ich kenne die Wirkungsgrade der Kraftwerke und so weiter, und jetzt lassen wir den rechnen. Dann kommt die Vergangenheit nie raus.“ (JA, Int. 2, 132)

Damit macht er deutlich, dass er das Modell auch nicht in der Lage sieht, auf Basis historischer Daten der Entwicklung des Zielsystems zu reproduzieren. Auffällig ist, dass Jochen Altmann die Annahme kostenminimierenden Entscheidens zwar nicht als real erfüllt ansieht, aber davon ausgeht, dass es technisch möglich ist, sie real zu erfüllen. Dies wird deutlich, wenn er ausführt: „Sie [die Kostenminimierung; CD] sagt uns nämlich, wie man das [die berechnete Entwicklung des Zielsystems; CD] technisch zumindestens erreichen kann. Und dann ist es

vestitionen in Kraftwerke und so weiter […] und nachher, wenn der Preis wieder zurückgeht, dann ist die Frage, wie reagiert das Modell, wie schnell kann das energiewirtschaftliche System sich verändern oder relaxieren als Antwort auf so eine Entwicklung, die ja nicht vorhersehbar war. Das unterstellen wir natürlich. Und das kann man mit so einem Time-Step-Modell dann, meiner Meinung nach, besser untersuchen, als wenn man so nach dem perfect foresight Rechnungen macht […].“ (JA, Int. 1, 221) 63 Vgl. auch: „[…] man muss wissen, dass so eine Optimierungsrechnung keine Prognose ist.“ (JA, Int. 2, 131)

178 | M ODELLIERTE Z UKUNFT

Aufgabe von anderen zu sagen oder herauszufinden, wie man es dann erreicht. Wie man es technisch erreicht, wissen wir, aber wie man es jetzt politisch oder gesellschaftlich und so weiter erreichen könnte, falls es eben wünschenswert wäre, diese Kostenminimumstrategie auch in der Realität umzusetzen, das können wir mit so einem Modell nicht.“ (JA, Int. 2, 257)

Ähnlich wie zuvor Anton Gerhard beschreibt Jochen Altmann also, dass die funktionalen Zusammenhänge seines Modells in erster Linie die technischenphysikalischen Eigenschaften des Energiesystems repräsentiert. Dies ist insofern nicht überraschend, als auch Altmanns Modell TULPE dem Konzept des Referenzenergiesystems folgt, in dem die Modellgleichungen die technische Struktur sowie die physikalischen Grundgesetze des Energiesystems beschreiben (vgl. Abschnitt 4.4 und 5.4.2). Auch im Falle Altmanns lassen sich die Schilderungen so verstehen, dass das Modell zunächst den Raum technisch-physikalisch möglicher Varianten des Energiesystems beschreibt. Durch die Implementierung eines Optimierungsalgorithmus und seine Interpretation als Annahme kostenminimierenden Entscheidens kommt bei Altmann jedoch noch eine zusätzliche Annahme hinzu. Diese schränkt den durch die technisch-physikalischen Modellgleichungen abgesteckten Raum möglicher Varianten zusätzlich ein. Entscheidend ist, dass Altmann diese Annahme nun als real nicht erfüllt ansieht, und zwar nicht in Bezug auf die technisch-physikalische Machbarkeit, sondern in Bezug auf das ökonomische Entscheidungsverhalten der Wirtschaftssubjekte. Dies nennt er als Grund dafür, dass mit dem Modell keine deterministischen Prognosen für das Energiesystem erstellt werden können und auch die vergangene Entwicklung des Zielsystems nicht reproduziert werden kann.64 Ähnlich wie Jochen Altmann argumentiert auch Peter Schnitzer, der ein intertemporal-dynamisches Optimierungsmodell verwendet, das die Annahme der perfekten Voraussicht und des vollständigen Wettbewerbs unterstellt. Peter Schnitzer erläutert zwar nicht, inwiefern er die Annahme perfekter Voraussicht real erfüllt sieht, die Annahme kostenoptimierenden Entscheidungsverhaltens, die er als ökonomische Rationalität bezeichnet, sieht er jedoch in der Realität als nicht erfüllt an: „Also das ist so ein Gedanke, dass das Modell/ da wir jetzt hier ein Optimierungsmodell haben/ das Modell immer versucht, kostenoptimale Lösungen zu liefern. Was in der Realität, weil sich die Menschen nicht immer rational verhalten, nicht der Fall ist. Von daher

64 Vgl. (JA, Int. 1, 221), zitiert in Fußnote 62.

E RGEBNISSE

| 179

hat man eigentlich schon durch diesen Optimierungsansatz das Problem, das man eigentlich nie eine Prognose erreichen kann.“ (PS, 254)

Wie hier deutlich wird, leitet sich hieraus für Schnitzer ebenfalls ab, dass mit seinem Modell keine deterministischen Prognosen erstellt werden können.65 Zwar beschreibt Schnitzer, dass auch für sein Modell umfangreiche Datensätze verwendet werden, aber die Frage der empirischen Fundiertheit seines Modells wird nicht eingehender im Interview besprochen. Auch Klaus Einbaum verwendet ein intertemporal-dynamisches Optimierungsmodell. Während er – wie wir zuvor gesehen haben – die beiden zuvor genannten Annahmen bei kurzfristigen Betrachtungen erfüllt sieht, und deshalb kurzfristige deterministische Prognosen mit seinem Modell für möglich hält, gibt er an, dass bei langfristigen Betrachtungen mindestens die reale Erfüllung der „heroischen Annahme“ – wie er es ausdrückt – der perfekten Voraussicht für sein Zielsystem zweifelhaft ist. Des Weiteren gibt er an, dass das Modell keine langfristigen deterministischen Prognosen begründen kann, sondern für langfristige Betrachtungen nur noch den Zweck hat, konsistente Entwicklungen darzustellen.66 Auch Hans Wagenfurth gibt an, nur kurzfristige deterministische Prognosen mit seinem Modell begründen zu können. Anders als Klaus Einbaum begründet er dies jedoch nicht mit einer einzelnen unrealistischen Annahme, sondern gibt vielmehr an, dass er sich nicht sicher ist, ob die ökonometrisch geschätzten Modellzusammenhänge auch in Zukunft gelten.67 Sowohl im Falle Wagenfurth als auch im Falle Einbaum wird die Frage der empirischen Fundiertheit der Modelle in den Interviews nicht eigenständig für langfristige Betrachtungen diskutiert. Damit kommen wir zur Darstellung der Schilderungen der beiden verbleibenden Fälle Matthias Imgrund und Simon Müller. Beide verwenden Allgemeine Gleichgewichtsmodelle und gehen sehr ausführlich darauf ein, dass dieser Modelltyp – gerade im Vergleich zu einem ökonometrischen Modell – nur relativ schwach empirisch fundiert ist. Ihre Geltungskraft gewännen diese Modelle vielmehr aus ihrer theoretischen Fundierung in der allgemeinen Gleichgewichts-

65 Vgl. auch: „Prognosen machen wir eigentlich überhaupt nicht (lacht) .. Nein, also Prognose würde ja wirklich bedeuten, dass man versucht, die Zukunft vorherzusagen, also so verstehe ich den Begriff Prognose. Ja und Szenario dient eigentlich nur dazu, verschiedene mögliche Entwicklungen zu untersuchen, ohne dass man unterstellt, dass dieses Szenario wirklich eintreten wird.“ (PS, 240) 66 Vgl. (KE, Int. 2, 176-177), zitiert in Fußnote 55. 67 Vgl. (HW, Int. 1, 85-86), zitiert als Fußnote 58.

180 | M ODELLIERTE Z UKUNFT

theorie. Matthias Imgrund schildert dies anhand des geringen „empirischen Gehaltes“68 der Modelle und Simon Müller erläutert, dass es sich bei einem solchen Modell in erster Linie um „theory with numbers“69 handelt. Die geringe empirische Fundiertheit liegt ihrer Ansicht nach vor allem in dem Umstand begründet, dass die Modelle in der Regel mit historischen Daten nur eines Jahres kalibriert

68 Die gesamte Passage lautet: „In einem empirischen Gleichgewichtsmodell […] kommt man von der ökonomischen Theorie her und sagt: ‚die Theorie gibt uns bestimmte Eigenschaften von Angebots- und Nachfragefunktionen vor. Und die legen wir zugrunde, füllen es mit empirischen Daten und am Ende wird kalibriert.‘ Das heißt, wir haben/ am Ende setzen wir freie Parameter so, dass das Modell kompatibel ist mit den Daten, die wir in einem Basisjahr beobachtet haben. Das makroökonometrische Modell sagt: ‚Das ist uns zu wenig vom empirischen Gehalt her, wir pfeifen auf diese von der ökonomischen Theorie her vorgegebenen Strukturen, wir verwenden relativ allgemeine ökonometrische Schätzverfahren, wir verwenden so viel wie möglich Daten und Zeitreihen, und haben dann am Ende ein Modell, das größeren empirischen Gehalt hat und auch in der Lage ist, durchaus manche empirischen Phänomene, die beobachtet werden, besser zu, ja ich sag gar nicht zu erklären, sondern abzubilden.‘“ (MI, Int. 1, 155) 69 Vgl.: „[…] der [Kollege; anonym.], der in seiner Zeit diese Modellschiene hier sehr stark vorangetrieben und etabliert hat, der spricht da in der Hinsicht eigentlich eher immer von ,theory with numbers‘. Also von der Modellierung her ist das sehr, sehr stark angelehnt an die Theorie, an die ökonomische Theorie. Das ist im Grunde auch immer einer der Kritikpunkte, dass die Modelle häufig eine Blackbox sind oder dass man da […] gar nicht mehr weiß, was da abläuft. Mhmm .. eigentlich ist es nicht so. Es ist im Grunde/ man kann den Modellen vieles nachsagen, aber man kann eigentlich nicht über die Modelle diskutieren, über die Gleichgewichtsmodelle. Sondern wenn man über diese Modelle diskutiert, müsste man eigentlich über die ökonomische Theorie diskutieren. […] Weil die eigentlich nichts anderes machen, als ökonomische Theorie eins zu eins umzusetzen und mit Zahlen zu unterfüttern.“ (SM, Int. 1, 36-38), sowie: „[…] die Modelle, von denen ich jetzt spreche, diese doch eher theoretisch fundierten, wo man ein theoretisches Konstrukt hat und das mit Daten aus der realen Welt füttert/ der [Kollege; anonym.] sagte dazu immer theory with numbers, die sind doch eher dazu geeignet, Unterschiede zwischen verschiedenen Entwicklungen abzubilden und zu analysieren. Da geht es tendenziell gar nicht so sehr um den Effekt einer Baseline-Entwicklung, also dass man sagt, so und so wird es passieren. Also es geht nicht um das Accounting, es geht nicht darum zu sagen, wenn wir die Maßnahme ergreifen, dann kostet uns das xy.“ (SM, Int. 2, 33-34)

E RGEBNISSE

| 181

werden70 oder einige Parameter – insbesondere Elastizitäten – mit Werten aus der Literatur belegt werden, bei denen zweifelhaft ist, ob sie für das spezifische Modell tatsächlich angewendet werden können.71 Im Falle Imgrund kommt hinzu, dass er explizit eine fundamentale Annahme der Allgemeinen Gleichgewichtsmodelle – wiederum die Annahme des vollkommene Wettbewerbs – real nicht erfüllt sieht.72 Wie sehen sie aber die Möglichkeit, mit ihren Modellen deterministische Prognosen begründen zu können? Matthias Imgrund gibt an, dass dies generell unüblich in der Gleichgewichtsmodellierung ist, und schildert, dass er selbst

70 Hierzu Matthias Imgrund: „Also das einzige, was ich mit dem Referenzszenario aussage, ist im Prinzip, dass es die Struktur und die Verhaltensweisen der Ökonomie hinreichend widerspiegelt. Und da wissen wir ja nun, dass gerade bei der CGE-Analyse das eine relativ wagemutige Annahme ist, weil die in der Regel eben kalibriert wird. Kalibriert werden solche Modelle, das heißt, ich habe eine Reihe von Parametern/ also ich habe ein Basisjahr sehr häufig und das Modell wird einfach/ oder die Parameter werden so gesetzt, dass es passt. Also jedem Ökonometer, dem dreht es den Magen rum, weil wir genau wissen, dass ein einzelnes Jahr nicht sehr gut widerspiegelt, wie die Ökonomie ausschaut, sondern es gibt in jedem Jahr irgendwelche Schwankungen, Zufälligkeiten und so weiter und so fort.“ (MI, Int. 2, 45). Anm: Mit einem „Ökonometer“ ist ein Ökonom gemeint, der sich ökonometrischer Methoden bedient. 71 Hierzu Simon Müller: „[…] also das Ideal ist natürlich, dass man Elastizitäten empirisch schätzt, dass man Nachfrageelastizitäten, Preiselastizitäten empirisch nachweisen kann. Dann brauchen Sie aber halt ein System, das genau/ also Sie müssen das so schätzen, wie Sie das dann später in ihrem Modell abbilden, also genau mit diesen Substitutionselastizitäten […]. Wenn Sie da […] was ändern, dann können Sie das System im Grunde gerade wieder neu schätzen. Das heißt, […] nur die wenigsten haben tatsächlich ihre Elastizitäten (lacht) […]. Das heißt, die sind irgendwo/ die nehmen sie aus der Literatur und treffen halt implizit die Annahme, dass das auch für ihr abgebildetes System gilt. .. Das ist der Grund, warum die häufigsten Sensitivitätsanalysen eigentlich über Elastizitäten auch laufen.“ (SM, Int. 1, 460-462) 72 Vgl.: „[…] sehen wir […], dass es Dinge gibt, die man sich teilweise inzwischen erklären kann, aber nicht formalisiert darstellen, wie man das in einem Modell braucht, und es gibt andere Dinge, die können wir uns irgendwie nach wie vor gar nicht so richtig erklären. Es gibt/ also viele von diesen Modellen/ die meisten arbeiten mit der Annahme vollkommenen Wettbewerbs. Wir wissen, das stimmt nicht, gerade im Energiebereich nicht […].“ (MI, Int. 1, 20)

182 | M ODELLIERTE Z UKUNFT

noch nie mit seinem Modell deterministisch prognostiziert hat.73 Wir dürfen also schließen, dass er mit seinem Modell keine deterministischen Prognosen begründet. Simon Müller ist hier deutlicher, denn er sagt explizit, dass mit allgemeinen Gleichgewichtsmodellen keine deterministischen Prognosen möglich sind, weshalb er eine Aussage mit seinem Modell nur auf Basis der Differenzen zweier Modellläufe begründen möchte – eine Besonderheit, der bereits in Abschnitt 6.3.2 nachgegangen wurde.74 6.4.4 Übersicht der Fälle Entsprechend der vorherigen drei Abschnitte und wie in Tabelle 4 ersichtlich wird, lassen sich die Schilderungen der Interviewten zur Frage, wie diese ihr Modell interpretieren, in drei Gruppen zusammenfassen. Klaus Einbaum und Hans Wagenfurth geben an, mit ihren Modellen kurzfristige deterministische Prognosen begründen zu können, jedoch keine langfristigen. Gleichzeitig lassen sich ihre Schilderungen so zusammenfassen, dass sie ihre Modelle für kurzfristige Betrachtungen als realistisch ansehen, und begründen dies mit der empirischen Fundiertheit ihrer Modelle. Anton Gerhard sieht sich nicht in der Lage, mit seinem Modell deterministische Prognosen begründen zu können. Seine Schilderungen lassen jedoch darauf schließen, dass er seine Modellannahmen bezüglich seines spezifischen Zielsystems für realistisch und das Modell für empirisch gut fundiert hält. Alle übrigen Fälle, sowie auch Klaus Einbaum und Hans Wagenfurth für langfristige Betrachtungen, sehen sich nicht im Stande, deterministische Prognosen begründen zu können. Ihre Schilderungen verweisen auf unterschiedliche Annahmen, die jeweils als unrealistisch angesehen werden, wobei Simon Müller hierzu keine Angaben gemacht hat. Die empirische Fundiertheit der Modelle wird in diesen Fällen entweder als stark eingeschränkt beschrieben oder es liegen keine Angaben hierzu vor.

73 Vgl.: „Wenn man Prognose betreibt, muss man das [die sorgfältige Prüfung des Modells; CD] machen. Wobei ich habe noch keine Prognose damit gemacht. […] In CGE-Modellen ist es auch eher unüblich.“ (MI, Int. 1, 188-190) 74 Vgl.: „Ja, das ist der Punkt, auch wieder, meines Erachtens, eine saubere Szenarioanalyse, modellgestützte Analyse vergleicht immer. Also es sollte nie/ weil das geht dann zu sehr in Richtung Prognose. Und das kann man mit diesen Modellen eigentlich nicht machen.“ (SM, Int. 1, 380)

E RGEBNISSE

| 183

Tabelle 4: Übersicht der Interpretationen der Modelle Fälle

Deterministische Prognosefähigkeit

Modell enthält unrealistische Annahmen

Hohe empirische Fundiertheit

KEkf

Ja

Nein

Ja

HWkf

Ja

Nein

Ja

AG

Nein

Nein

Ja

JA

Nein

Ja

Nein

PS

Nein

Ja

k. A.

KElf

Nein

Ja

k. A.

HWlf

Nein

Ja

k. A.

MI

Nein

Ja

Nein

SM

Nein

k. A.

Nein

kf: kurzfristige Betrachtungen; lf: langfristige Betrachtungen; k.A.: keine Angaben im Interview

7. Reflexion der Ergebnisse

In diesem Kapitel werden die im vorherigen Kapitel dargestellten Ergebnisse reflektiert und in Beziehung zu bereits existierender Forschung gesetzt. Die Reihenfolge der Unterkapitel folgt der Idee, zunächst allgemeinere und kontextualisierende Betrachtungen anzustellen, in denen vor allem die Praxis der energieprognostischen Beratung diskutiert wird, und dann zunehmend spezifischere Fragen zu diskutieren, die sich auf die konkreten Gebilde richten, die in dieser Praxis unter der Bezeichnung „Szenario“ oder „Prognose“ generiert werden. Zuallererst wird hier jedoch ein noch offenes Versprechen eingelöst. Denn die Analyse startete ja mit Befund, dass der Begriff „Szenario“ und seine Verwandten in der Community unscharf verwendet werden, und setzte sich deshalb zum Ziel, diese Begriffe zu klären. Dies geschieht nun zunächst in Abschnitt 7.1, so dass die anschließenden Überlegungen auf dem dort explizierten Verständnis aufbauen. Im darauffolgenden Abschnitt beginnt die eigentliche Reflexion der Ergebnisse, und es wird zunächst der Frage nachgegangen, wieso sich das Konzept des Szenarios gerade in der wissenschaftlichen Politikberatung als ein Standard etabliert hat. Die These wird sein, dass das Konzept als eine Art Universalkleber zwischen den gesellschaftlichen Teilbereichen der Wissenschaft und Politik fungiert. Ist die Diskussion in diesem Abschnitt auf der Makroebene angesiedelt, so wird anschließend in Abschnitt 7.3 auf der Mikroebene untersucht, in welcher spezifischen Weise sich diese allgemeine verknüpfende Funktion des Konzeptes in der Interaktion der beteiligten Akteure in der Community der Energieprognostik manifestiert. Dabei wird nun auch berücksichtigt, dass in der Community Computermodelle die Interaktion wesentlich prägen. Während die beiden letztgenannten Abschnitte einen im schwachen Sinne theoriebildenden Anspruch haben, indem sie Erklärungen dafür anbieten, wieso das Konzept des Szenarios auf der Makro- und Mikroebene so auftritt, wie es auftritt, hat der nächste Abschnitt 7.4 einen schwach evaluativen Anspruch.

186 | M ODELLIERTE Z UKUNFT

Zwar werden hier keine konkreten Beratungsprojekte in der Energieprognostik evaluiert, aber es wird der Frage nachgegangen, welche grundsätzlichen Transparenzprobleme sich aus der Struktur der rekonstruierten Prozesstypen ergeben. Diese Überlegungen sind in erster Linie als Ausgangspunkt für die kritische Reflexion konkreter Beratungsprozesse außerhalb der vorliegenden Arbeit gedacht, bieten aber auch Anschlusspunkte für weitere soziologische wie philosophische Untersuchungen. Während die ersten vier Abschnitte des Kapitels die Praxis der energieprognostischen Beratung im Blick haben, geht es in den letzten vier Abschnitten um Fragestellungen und Probleme, die mit den Gebilden verbunden sind, welche in der Beratung generiert werden. Die Diskussion schwenkt damit von eher wissenschaftssoziologischen zu eher philosophischen Fragestellungen. Wie schon der vorangegangene Abschnitt 7.4 stellen die Einsichten dieser Abschnitte außerdem Ansatzpunkte für die (Selbst-) Reflexion in der untersuchten Community dar. Abschnitt 7.5 nimmt sich zunächst der Frage an, inwiefern die Formulierung konditionaler Aussagen ein generelles Problem in der wissenschaftlichen Beratung ist. Es wird sich zeigen, dass es sich hierbei um eine ambivalente Form des Umgangs mit epistemischer Unsicherheit handelt. Im Mittelpunkt des nächsten Abschnitts 7.6 steht das Argument der Gegenüberstellung possibilistischer Prognosen (GPP). Insbesondere wird der Frage nachgegangen, welche Herausforderungen sich aus der Formulierung selektiver Möglichkeitsaussagen in der Beratung ergeben. Der anschließende Abschnitt 7.7 wendet sich dem zweiten komplexen Argument zu, der Isolation von Effekten (IE). Bereits bei der Rekonstruktion dieses Argumentes wurde deutlich, dass seine genaue Struktur klärungsbedürftig ist. Abschnitt 7.7 zeigt deshalb Ansatzpunkte für diese Klärung auf und diskutiert spezifische Probleme, die mit unterschiedlichen Varianten des Argumentes verbunden sind. Abschnitt 7.8 stößt schließlich zum Fundament der untersuchten Praxis vor, indem nun der Frage nachgegangen wird, welchen epistemischen Status die Energiemodelle haben. Wie sich zeigen wird, deuten die empirischen Ergebnisse darauf hin, dass einige der untersuchten Modelle nicht empirisch adäquat sind oder ihr epistemischer Status zumindest in einem Graubereich zwischen epistemischer Adäquatheit und theoretischem Konstrukt anzusiedeln ist. Hierbei handelt es sich vermutlich um das kritischste Ergebnis der vorliegenden Untersuchung, denn damit wird das Fundament der etablierten energieprognostischen Praxis in Frage gestellt.

R EFLEXION

7.1 W AS

ALSO IST EIN

DER

E RGEBNISSE

| 187

S ZENARIO ?

Die Analyse startete mit dem Befund, dass in energieprognostischen Gutachten Gebilde transportiert werden, die in unklarer Weise als „Szenarien“ oder auch „Prognosen“ bezeichnet werden. Im Folgenden soll nun im Lichte der Analyse und unter Verwendung des analytischen Vokabulars der Untersuchung ein Klärungsversuch dieser Begriffe vorgenommen werden. Das nachfolgend beschriebene Verständnis deckt sich weitgehend mit dem konzeptionellen Verständnis, wie es in der Community diffus vorgefunden und in Abschnitt 4.3.3 charakterisiert wurde. Der Klärungsversuch stellt damit keine neue Definition der Begriffe dar, sondern soll als Präzisierungsversuch verstanden werden. Es wird hier vorgeschlagen, den Begriff „Szenario“ in Anlehnung an Kosow und Gaßner (2008) als Bezeichnung für einen zukünftigen Zustand einer bestimmten Größe, eines bestimmten Systems oder ganz allgemein eines bestimmten Aspektes der Welt zu verwenden, der als möglich angesehen und expliziert wird. Hierbei ist es erstens unerheblich, wie die Explikation dieser Möglichkeit erfolgt, ob also insbesondere ein Zustand durch eine qualitative oder quantitative Angabe beschrieben wird. Zweitens ist in diesem Verständnis unerheblich, ob der Zustand einer Größe usw. für einen bestimmten Zeitpunkt oder für deren Entwicklung im Zeitverlauf expliziert wird. Damit kann ein Szenario als eine spezifische Aussage über – genauer, als eine possibilistische Prognose für – einen bestimmten Aspekt der Welt aufgefasst werden. Der einzige Anspruch, der mit einem Szenario erhoben wird, ist der, dass diese Aussage zum relevanten Hintergrundwissen konsistent und in diesem Sinne möglich ist (vgl. Abschnitt 3.4). Ein Szenario als eine possibilistische Prognose für einen bestimmten Aspekt der Welt zu begreifen, impliziert, dass die Begründung dieser Aussage, in diesem Fall die Verifikation der Möglichkeit, nicht Teil des Szenarios selbst ist. Analog dazu ist auch das Schlussfolgern auf Basis von Szenarien nicht Teil der Szenarien selbst. Vor diesem Hintergrund erscheint es sinnvoll, den Begriff „Szenariomethode“ gerade zur Bezeichnung derjenigen Verfahren zu verwenden, die eingesetzt werden, um bestimmte Möglichkeiten zu explizieren und auch zu verifizieren, wobei dies sowohl qualitative als auch quantitative Verfahren umfassen kann. Mit einer „Szenarioanalyse“ wäre dann umfassend die Explikation und Verifikation von Möglichkeiten einschließlich des Schlussfolgerns aus ihnen zu bezeichnen. Als „Szenariostudie“ sollte die textliche Dokumentation einer solchen Analyse bezeichnet werden – wobei in der vorliegenden Arbeit gemäß dem Gegenstand hier spezifisch von „energieprognostischen Gutachten“ gesprochen wird.

188 | M ODELLIERTE Z UKUNFT

Dieser Vorschlag fasst den Begriff „Szenario“ relativ zu etablierten Redeweisen eng, vermeidet hierdurch jedoch etablierte Mehrdeutigkeiten (vgl. Kosow und Gaßner 2008). Beispielsweise ist damit ein Set von numerischen Annahmen bei einer modellgestützten Analyse allein noch kein Szenario, und auch der Text, in dem Möglichkeitsaussagen getroffen werden, ist ebenfalls kein Szenario (vgl. ebd.: 9). Eine wichtige Implikation ist außerdem, dass es sich bei einem Szenario in diesem Verständnis selbst nicht zwingendermaßen um eine konditionale Aussage handelt – anders als es in der Energieprognostik gelegentlich beschrieben wird (vgl. Abschnitt 4.3.3). Solche „Wenn-Dann“-Aussagen können vielmehr als Teil der Begründung dieser Möglichkeiten auftauchen – insbesondere wenn mit Hilfe eines Modells von der Möglichkeit der numerischen Annahmen auf die Möglichkeit der numerischen Ergebnisse geschlossen wird. Damit wird auch deutlich, dass es innerhalb eines modellbasierten Szenarios einen wichtigen Unterschied gibt: Für einen Teil des Szenarios, nämlich für die numerischen Annahmen, erfolgt der Nachweis der Möglichkeit außerhalb der Modellrechnungen. Die Möglichkeit muss hier durch Verweis auf Wissen erfolgen, das nicht Teil des Modells ist. Durch die Modellrechnung wird dann gewissermaßen der Rest des Szenarios, also der Rest der möglichen Entwicklung des Zielsystems, in Form der numerischen Ergebnisse bestimmt. Der Nachweis ihrer Möglichkeit erfolgt nun gerade durch das Modell – wenn dieses empirisch adäquat ist –, denn die Rechnung stellt sicher, dass die Ergebnisse konsistent mit dem Modell und damit mit dem in ihm „gespeicherten“ Wissen sind. Selbstverständlich muss dann zusätzlich die empirische Adäquatheit des Modells nachgewiesen werden. Und wie steht es mit dem Begriff der „Prognose“? Hier ist zunächst noch einmal zu bemerken, dass dieser zum analytischen Vokabular der Untersuchung gehört und mit ihm generell Aussagen über Zukünftiges bezeichnet werden. Blicken wir jedoch in seine Verwendung in der Community, so wird deutlich, dass meist deterministische Prognosen gemeint sind, wenn der Begriff verwendet wird. An dieser Verwendungsweise sollte natürlich festgehalten werden. Allerdings erscheint es zumindest in der Community der Energieprognostik ratsam, explizit den Zusatz „deterministisch“ mitzuführen, wenn Aussagen dieser Art gemeint sind. Denn nur so ist gewährleistet, dass die im Vergleich zu einem Szenario (in obigem Sinne) erhöhte Begründungslast eindeutig erkennbar ist. Blicken wir nun im Vorgriff auf die Abschnitte 7.6 und 7.7 auf die rekonstruierten komplexen Argumente und zwar zunächst auf das Argument GPP. Wenig überraschend wird deutlich, dass sich die vorgeschlagene Verwendung des Begriffes „Szenario“ nahtlos in dieses Argument einfügt. Jeder einzelne Modelllauf wird hier ja gerade in der zuvor geschilderten Weise als possibilistische Progno-

R EFLEXION

DER

E RGEBNISSE

| 189

se interpretiert. Ein überraschendes Ergebnis der Untersuchung stellt das zweite komplexe Argument IE dar, das von den Interviewten ja ebenfalls unter der Bezeichnung „Szenario“ beschrieben wurde. In diesem Fall ist auf Basis der Interviews zumindest unklar, ob hier überhaupt Möglichkeitsaussagen getroffen werden. Nur wenn dies aber der Fall ist, erscheint es sinnvoll, in Zusammenhang mit diesem Argument von „Szenarien“ zu sprechen. Selbst wenn sich dies in weiteren Analysen zeigen sollte, sollte jedoch kenntlich gemacht werden, dass sich das Vorgehen in diesem Fall deutlich vom Vorgehen gemäß GPP unterscheidet. Um dies begrifflich zu kennzeichnen, könnte hier statt von „Szenarioanalyse“ von „Effektanalyse“ oder auch „Differenzanalyse“ gesprochen werden.

7.2 S ZENARIEN ALS U NIVERSALKLEBER ? – Z U F UNKTION IN DER WISSENSCHAFTLICHEN P OLITIKBERATUNG

IHRER

Die Erstellung und Analyse von „Szenarien“ stellt heute in der Energieprognostik einen methodischen Standard dar, auch wenn hierunter, wie wir bei genauerer Betrachtung gesehen haben, unterschiedliche Vorgehensweisen und Argumente verstanden werden. Einerseits scheint die Herausbildung dieses Standards eine Reaktion der Wissenschaft auf epistemologische Einsichten zu sein, denn zumindest das Argument GPP kann als eine Reaktion auf den Umstand aufgefasst werden, dass in diesem Themenfeld häufig lediglich possibilistisches Wissens vorliegt. Wie kommt es aber, dass der Begriff „Szenario“ und die hiermit verbundenen Methoden auch in der Politikberatung eine so prominente Rolle spielen? Im Folgenden wird eine These als Antwort auf diese Frage formuliert, wobei diese zunächst nur für solche Beratungen formuliert wird, in denen das Argument GPP realisiert wird – und damit Szenarien im Sinne des vorherigen Abschnittes verwendet werden. Ob sich die These auch auf Beratungen übertragen lässt, in denen Effekte isoliert werden, wird anschließend diskutiert. Im Kern lautet die These, dass die Formulierung von Szenarien nicht nur eine Reaktion der Wissenschaft auf bestimmte epistemologische Einsichten darstellt, sondern gleichzeitig auch als eine Reaktion der Wissenschaft auf eine bestimmte außerwissenschaftliche Anforderung an sie anzusehen ist. Diese Anforderung besteht darin, dass gesellschaftliche Akteure, dabei insbesondere die Politik, erstens einen Bedarf an wissenschaftlichem Wissen haben, zweitens dieses Wissen aber eine bestimmte Form haben muss, um von ihnen in ihren je eigenen Handlungs- und Entscheidungskontexten verwendet werden zu können.

190 | M ODELLIERTE Z UKUNFT

Weitergeführt lautet die These nun, dass die Adressaten energieprognostischer Beratung solches Wissen benötigen, das zwar als wissenschaftlich gesichert gilt. Gleichzeitig muss dieses Wissen aber soweit flexibel und interpretierbar sein, dass es seitens des Adressaten umgedeutet werden kann, um es gemäß der eigenen Handlungslogik verwenden zu können. Genau dies erfüllen Szenarien auf Grundlage der hier präsentierten Ergebnisse: Argumentiert ein energieprognostisches Gutachten im Sinne GPP, so ist es relativ leicht möglich, ein gültiges Argument zu präsentieren, das den Standards und damit einerseits der Logik der betreffenden wissenschaftlichen Community entspricht. Da in diesem Argument selektive Einzelmöglichkeiten bestimmt werden, die durch den Verweis auf nicht explizierte potentielle Möglichkeiten geschwächt werden können, ohne dass das Argument ungültig wird (vgl. Abschnitt 7.6), erlaubt das Argument andererseits dem Adressaten und jedem anderen Rezipienten, die Ergebnisse als wahre Aussagen anzuerkennen, diese aber gleichzeitig nur als „eine Wahrheit unter vielen“ betrachten zu müssen. Der Adressat kann damit nicht nur innerhalb der Pluralität der verfügbaren Gutachten, sondern auch innerhalb eines bestimmten Gutachtens diejenige Möglichkeit auswählen, die seiner politischen (oder anderen) Agenda dienlich ist. Anders gesagt: Szenarien haben gerade eine solch unverbindliche Form, dass durch sie keine Entscheidung direkt präjudiziert wird. Vielmehr bleibt dem Adressaten weiterhin die Entscheidungsfreiheit, in welcher Weise er die Szenarien berücksichtigt. Dies erklärt auch zum Teil die Vielzahl von verfügbaren und jedes Jahr aufs Neue veröffentlichten energieprognostischen Gutachten. Sofern diese nämlich im Sinne des Argumentes GPP argumentieren, kann jedes neue Gutachten schlicht als Bestimmung einer oder mehrerer weiterer Möglichkeiten aufgefasst werden, ohne, dass diese „neuen“ Möglichkeiten unbedingt in Widerspruch zu den „alten“ geraten.1 Zusammenfassend behauptet die These also, dass die etablierte Praxis, in der mit Szenarien entlang GPP argumentiert wird, eine Reaktion der Wissenschaft sowohl auf epistemologische Einsichten als auch auf den außerwissenschaftli-

1

Hierbei handelt es sich natürlich um eine vereinfachte Betrachtung, denn in der Regel sind die einzelnen Gutachten bezüglich ihres Gegenstandes und auch bezüglich des Wissens, relativ zu dem sie Möglichkeiten auszeichnen, nicht deckungsgleich. Die Pluralität der Gutachten ist deshalb sicherlich zu einem Teil auch schlicht das Resultat unterschiedlicher Fragestellungen. Außerdem ist zu beachten, dass natürlich dennoch Gutachten auch dazu verfasst werden können, Möglichkeiten, die in anderen Gutachten bestimmt wurden, zu widerlegen.

R EFLEXION

DER

E RGEBNISSE

| 191

chen Bedarf an deutungsoffenem, aber dennoch als wahr deklarierbarem Wissen darstellt. Szenarien scheinen eine Art „konzeptionellen Klebstoff“ darzustellen, der Wissenschaft und Politik (und vermutlich auch andere gesellschaftliche Bereiche) gerade so zusammenfügt, dass ein Austausch zwischen diesen Teilbereichen stattfinden kann, der mit den Logiken beider Bereiche konform ist. Die zentrale Leistung dieses Klebstoffes besteht darin, eine gleichzeitige Bewältigung von epistemischer Unsicherheit und Strukturierung von Kontingenz zu erlauben. Dabei scheint es für die verbindende Wirkung dieses Klebstoffs zunächst unerheblich zu sein, ob die Szenarien qualitativ oder quantitativ formuliert werden. Vielmehr scheint es das grundlegende Prinzip zu sein, nämlich alternative Möglichkeiten zu explizieren, das die Wirksamkeit herstellt. Da das Argument GPP auch außerhalb der Energieprognostik verbreitet ist, ist zu vermuten, dass sich diese These auch auf andere Kontexte übertragen lässt, in denen Szenarien an der Schnittstelle unterschiedlicher Teilbereiche eingesetzt werden. Wie verhält es sich aber mit dem zweiten Argument IE, das ja ebenfalls von den Interviewten als Analyse von „Szenarien“ angeführt wurde? Erscheint die These, Szenarien funktionierten als ein konzeptioneller Klebstoff, auch für Gutachten dieser Argumentation plausibel? Offensichtlich hängt dies zunächst einmal maßgeblich davon ab, ob das Argument deterministisch oder possibilistisch formuliert wird, ob also überhaupt Szenarien in obigem Sinne in diesem Argument vorkommen. Selbst wenn es possibilistisch formuliert wird, bleibt jedoch der Unterschied bestehen, dass in diesem Argument der Effekt eines Ereignisses, also etwa einer politischen Maßnahme, bestimmt wird. Dies scheint ein grundlegend anderes Erkenntnisinteresse zu sein als im Argument GPP, und dieser Unterschied bliebe auch bestehen, wenn in einem Gutachten mehrere Maßnahmen analysiert werden würden. Eine naheliegende Vermutung ist, dass die beiden Argumente in unterschiedlichen Beratungssituationen zum Einsatz kommen: Während ein Gutachten der Form GPP eher der allgemeinen Orientierung dient und weniger zur Bewertung konkreter Handlungen verwendet wird, wird ein Gutachten der Form IE vermutlich vor allem dann eingesetzt, wenn bereits konkrete Maßnahmen vorliegen, die es zu analysieren gilt. Zu diesem Zeitpunkt im Entscheidungsprozess wäre dann auch der Bedarf hinsichtlich der Strukturierung von Kontingenz kleiner, da immerhin bereits konkrete Optionen formuliert wurden. Damit würde sich die These, Szenarien fungierten als Klebstoff zwischen gesellschaftlichen Teilbereichen, in abgeänderter Form aufrechterhalten lassen: In Beratungssituationen, in denen Effekte isoliert werden, wird eine andere Art von Wissen nachgefragt, als es bei Studien gemäß GPP der Fall ist. Wodurch sich je-

192 | M ODELLIERTE Z UKUNFT

doch eine solche Beratungssituation genau auszeichnet, ist aus den empirischen Ergebnissen der vorliegenden Untersuchung nicht erkennbar und sollte an anderer Stelle genauer untersucht werden.

7.3 M ODELL ODER S TORYLINE , DIE A KTEURE ?

WAS VERKNÜPFT

Im vorangegangenen Abschnitt wurde auf einer makroskopischen Ebene die These formuliert, Szenarien fungierten als eine Art Klebstoff zwischen unterschiedlichen gesellschaftlichen Teilbereichen und erlaubten dabei eine gleichzeitige Bewältigung epistemischer Unsicherheit und Strukturierung von Kontingenz. Dieser Gedanke wird nun wieder aufgegriffen, jetzt aber auf der mikroskopischen Ebene für die Energieprognostik weiter verfolgt. Im Zentrum steht nun die erstaunliche Beobachtung, dass sich in der energieprognostischen Politikberatung eine stabile Form der Kooperation herausgebildet hat, obwohl die beteiligten Akteure aufgrund ihrer Zugehörigkeit zu unterschiedlichen gesellschaftlichen Teilbereichen höchst unterschiedliche Anforderungen an diese Kooperation haben (vgl. Abschnitt 3.2). Vor diesem Hintergrund kann das Ziel dieser Kooperation wie folgt beschrieben werden: Es muss ein Gutachten – genauer die darin beschriebene Argumentation (inklusive numerischer Ausführungen) generiert werden – das einerseits den Anforderungen des Auftraggebers genügt, die aus den von ihm in seinem Handlungs- und Entscheidungskontext verfolgten Zwecken resultieren, und das andererseits vom Modellierer gegenüber seiner wissenschaftlichen Community vertretbar ist. Aus diesem Blickwinkel kann die gesamte Interaktion der beiden Akteure als ein Aushandlungs- und Abstimmungsprozess dieser beiden Anforderungen verstanden werden. Zu beobachten ist, dass sich bereits seit mehreren Jahrzehnten eine Kooperation bestimmter beratender Institute aus der Community der Energieprognostik und einer ebenfalls relativ kleinen Zahl bestimmter politischer Auftraggeber durch wiederkehrende Beratungsaufträge stabilisiert hat, und zwar in der Weise, dass diese Kooperation in immer neuen Projekten mit immer neuen Fragestellungen und Projektbeteiligten aufs Neue gelingt. Wie kann dies im Angesicht der Heterogenität der Akteure erklärt werden? Die Untersuchung geht damit derjenigen Frage nach, die prominent auch von Susan Leigh Star gestellt wurde und sie veranlasste, zusammen mit James Griesemer das analytische Konzept des Boundary Objects zu entwickeln. Dieses Konzept stellt gerade einen Erklärungsversuch für erfolgreiche Kooperationen

R EFLEXION

DER

E RGEBNISSE

| 193

zwischen heterogenen Akteuren dar und wird von seinen Autoren wie folgt beschrieben: „Boundary objects are objects which are both plastic enough to adapt to local needs and the constraints of the several parties employing them, yet robust enough to maintain a common identity across sites. They are weakly structured in common use, and become strongly structured in individual-site use“ (Star und Griesemer 1989: 393)

Als zentrale Gelingensbedingung einer solchen Kooperation sehen Star und Griesemer also das Vorhandensein eines Objektes an, das gerade so beschaffen ist, dass alle beteiligten Akteure es gleichzeitig als Referenz für das kooperative Handeln mit den übrigen Akteuren einerseits und für ihr Handeln in ihren individuellen Kontexten andererseits einsetzen können. Wie Martin Meister (2011) hervorhebt, ist damit die zentrale Eigenschaft eines Boundary Objects dadurch gegeben, dass es für jeden beteiligten Akteur stets in einer doppelten Repräsentation auftritt und hierdurch eine doppelte Bezugnahme auf dieses Objekt durch jeden Akteur ermöglicht wird: Einerseits tritt es als „unspezifische Repräsentation eines allgemeinen Prinzips“ auf, in der es von allen Akteuren geteilt wird, und andererseits taucht das Objekt in jeweils akteursspezifischen Formen auf, in der es eine „Repräsentation fachspezifischen Wissens“ (ebd.: 9) darstellt. Eine wichtige Frage ist dabei, wie ein solches Objekt beschaffen sein muss, damit es die koordinative Funktion in der Interaktion übernehmen kann. Insbesondere stellt sich die Frage der notwendigen Materialität solcher Objekte (vgl. Star 2010: 603). Martin Meister (2011, insb.: 94 und 176 ff.) geht ausführlich auf diese Frage ein und zeigt zunächst, dass sie in der Literatur nicht klar beantwortet wird. Seine eigene Analyse führt ihn zu dem Schluss, dass zwar eine gewisse Materialität eine notwendige Voraussetzung dafür ist, dass ein Objekt als ein Boundary Object fungieren kann, betont aber, dass diese nicht nur in Form eines „physisch realisierten“, sondern auch in Form eines „medial realisierten Exemplars“ (ebd.: 177-188) geschehen kann. Etwas anders ausgedrückt scheint also dies der entscheidende Kern zu sein: Damit ein Boundary Object seine koordinative Funktion erfüllen kann, muss es in irgendeiner Form „objektifiziert“, verdinglicht sein. Denn nur so ist es über Raum und Zeit stabil und kann als Referenz für unterschiedliche Akteure an unterschiedlichen Orten und zu unterschiedlichen Zeitpunkten dienen. Wie diese Objektifizierung geschieht, ist hierfür nicht wichtig; so kann dies geschehen, indem ein Gegenstand erschaffen wird, aber ebenso gut, indem eine bestimmte Vorstellung, Idee oder auch Theorie aufgeschrieben oder in einem anderen Medium festgehalten wird.

194 | M ODELLIERTE Z UKUNFT

Wenden wir uns nun dem Fall der vorliegenden Arbeit zu, also der Kooperation in energieprognostischen Beratungsprojekten. Die Vermutung ist nun, dass auch diese durch ein Boundary Object ermöglicht und stabilisiert wird. Eine erste Vermutung wäre, dass die Energiemodelle Boundary Objects darstellen könnten. Anlass hierzu gibt eine Studie von van Egmond und Zeiss (2010), in der sie die Interaktion von Wissenschaftlern und Politikern in Beratungsprozessen in den Niederlanden untersuchen. Die zentrale Diagnose besteht darin, dass die hierbei entwickelten und eingesetzten Computermodelle als Boundary Objects für diese Kooperation fungieren, wobei in einem Fall ein Modell des Gesundheitssystems und im anderen Fall ein Modell eingesetzt wird, mit dem die ökologische Tragfähigkeit fragmentierter Landschaften beurteilt werden kann. In der Tat ähneln sich die von van Egmond und Zeiss beschriebenen Interaktionen auf den ersten Blick sehr mit den Beratungskonstellationen, die in der vorliegenden Analyse untersucht wurden. In beiden Fällen bilden Wissenschaftler die eine und Mitarbeiter staatlicher Einrichtungen die andere Seite der Kooperation. In beiden Fällen stellen Computermodelle ein zentrales Element der Kooperation dar. Jedoch gibt es bei genauerer Betrachtung einen entscheidenden Unterschied zwischen beiden Untersuchungen: van Egmond und Zeiss beschreiben, dass zumindest im Fall des Modells des Gesundheitssystems die beteiligten Vertreter der Politik an der Entwicklung des Modells beteiligt waren (vgl. ebd.: 65 ff.). Dies ist in der vorliegenden Untersuchung jedoch bis auf eine Ausnahme nicht der Fall. Bis auf Beratungsprozesse des Typs der interaktiven Verschränkung haben die beteiligten Mitarbeiter auf Seiten des Auftraggebers nämlich keinen Zugriff auf das Modell. Damit können die Energiemodelle in diesen Fällen jedoch keine Boundary Objects darstellen, denn der Zugriff auf die Modelle wäre eine notwendige Bedingung hierfür. Es scheint sich bei genauerer Betrachtung also um zwei unterschiedliche Formen modellgestützter wissenschaftlicher Politikberatung zu handeln, die in beiden Untersuchungen betrachtet werden: van Egmond und Zeiss betrachten zumindest ein Projekt, das des Gesundheitssystems, in dem die Erstellung des Modells schon wesentlicher Bestandteil der Kooperation ist, während in den meisten hier untersuchten Fällen das Modell zu Beginn der Projekte bereits im Wesentlichen vorliegt. Und es gibt noch einen zweiten Einwand gegen die These, dass die Energiemodelle als Boundary Objects fungieren. Alle Modelle, außer denen, die in Beratungsprozessen des Typs der interaktiven Verschränkung verwendet werden, erscheinen sowohl, was ihre theoretischen Hintergründe, als auch was ihre Beschaffenheit als mathematisch-programmiertechnisches Kon-

R EFLEXION

DER

E RGEBNISSE

| 195

strukt betrifft, zu voraussetzungsreich zu sein, um auch für die Seite des Auftraggebers als Boundary Object zu fungieren.2 Wenden wir auf der Suche nach einem Boundary Object also unseren Blick vom Modell und damit dem Handlungskontext des Modellierers ab in Richtung des Handlungskontextes des Auftraggebers. Was wir suchen, ist ein Objekt, das zwischen diesen beiden Welten angesiedelt ist und von beiden Seiten etwas in sich trägt. Mit Blick auf die empirischen Ergebnisse fällt nun eine Schilderung ganz besonders deutlich ins Auge, nämlich die Beschreibung Hans Wagenfurths der „Storylines“, also der semi-quantitativen Beschreibungen der zu untersuchenden zukünftigen Entwicklungen (vgl. Abschnitt 6.1.2). Er erläutert, dass diese Storylines zur Abstimmung an der Schnittstelle zweier, wie er es selbst nennt, „Welten“ dienen, nämlich der des Auftraggebers und der des Modellierers. Indem der Auftraggeber bei der Erstellung der Storylines seine Fragestellung und sonstigen Vorstellungen einbringen kann, der Modellierer aber gleichzeitig bereits sein Wissen über das Modell einfließen lässt, werden mit Hilfe der Storylines die beiden Akteure und ihre jeweiligen Handlungskontexte verknüpft. Ein wichtiger Aspekt ist dabei, dass Wagenfurth deutlich beschreibt, dass die Storylines, nachdem sie festgelegt wurden, die zentrale Referenz für den von ihm anschließend durchgeführten Modelleinsatz darstellen. Es handelt sich demzufolge also um ein Objekt, dessen Identität während der Rechenläufe nicht angetastet wird, und welches die Modellrechnungen strukturiert. Wir scheinen mit den Storylines also einen Kandidaten für ein Boundary Object gefunden zu haben. Die Beschreibungen der Interviewten deuten darauf hin, dass Storylines als Texte verfasst werden, die teilweise quantitative Beschreibungen enthalten – es scheint sich also um medial realisierte Boundary Objects zu handeln.Und auch das Modell gerät nun wieder in den Blick, denn Wagenfurth schildert, dass die Storylines anschließend in konkrete numerische Annahmen für das Modell übersetzt werden (vgl. Abschnitt 6.1.2). Das Verhältnis zwischen Modell und Storyline passt damit sehr gut auf die zuvor zitierte Formulierung von Star und Griesemer, wonach ein Boundary Object für jeden Akteur gerade in zweifacher Form auftritt. Hier scheinen nun die Storylines gemäß des vorherigen Zitates die schwach strukturierte Variante („weakly structured“, Star und Griesemer 1989: 393) des Objektes zu sein, während das Modell, genauer das Modell zusammen mit den spezifischen numerischen Annahmen der Rechenläufe, die stark strukturierte („strongly structured“, ebd.) Variante darstellen. Oder in den Worten Mar-

2

Ob dieser Einwand eigentlich auch für die Studie von van Egmond und Zeiss gilt, lässt sich nicht recht beurteilen. Hierzu ist die Schilderung der Interaktion der beteiligten Vertreter der Politik mit dem Modell nicht präzise genug.

196 | M ODELLIERTE Z UKUNFT

tin Meisters: Die Storylines sind die „unspezifische Repräsentation eines allgemeinen Prinzips“, während das Modell die „Repräsentation des fachspezifischen Wissens“ (Meister 2011: 9) ist. Dabei zeigt sich nun, dass die These, die Storylines fungierten als Boundary Objects in den Beratungsprojekten, konsistent mit den Überlegungen des vorangegangenen Abschnitts ist. Denn die Formulierung von Szenarien, also der Klebstoff, der eine Verbindung unterschiedlicher sozialer Teilbereiche auf der Makroebene herzustellen scheint, ist in dieser Deutung gerade das allgemeine Prinzip, dass in den Storylines materialisiert auf der Mikroebene umgesetzt wird. Konsequenterweise müsste sich also auf Seiten des Auftraggebers eine für ihn spezifische Repräsentation dieses Boundary Objects finden. Die interessante Frage ist dann, wie an dieser Stelle die Storylines gedeutet werden. Denn wenn sie, vereinfacht dargestellt, auf Seiten des Modellierers primär epistemische Instanzen sind, so müssten sie nun in einen Entscheidungskontext eingebettet werden. Hierüber können die Ergebnisse der vorliegenden Untersuchung aufgrund ihrer Anlage keine Auskunft geben, so dass dies ein Gegenstand weiterer Untersuchungen sein sollte. Es gibt noch einen zweiten Interviewten, der deutlich Storylines als Vermittlungsinstanz in der Interaktion beschreibt: Anton Gerhard erläutert, dass diese „eine Art Philosophie“ der Szenarien darstellen, und führt aus, dass Storylines die Vorstellungen und Ziele der Politik „aufnehmen“ würden. Da hier auf die Details der letztendlichen Analyse verzichtet würde, stellten sie bereits den relevanten Orientierungsrahmen für den Auftraggeber dar. Auch Gerhard schildert, dass die relativ grobe Beschreibung der Storylines anschließend in detaillierte numerische Annahmen übersetzt werden muss (vgl. Abschnitt 6.1.4). Die Beschreibungen ähneln sehr denen Wagenfurths, so dass wir auch hier vermuten können, dass die Storylines als Boundary Object fungieren. Allerdings gibt es zwei wesentliche Unterschiede zu Hans Wagenfurth. Auf der einen Seite verwendet Anton Gerhard ein theoretisch deutlich einfacheres Modell als Hans Wagenfurth. Dass das Modell nicht selbst als Boundary Object fungiert, kann hier also nicht daran liegen, dass das Modell theoretisch zu voraussetzungsreich ist, um vom Auftraggeber verstanden und direkt manipuliert zu werden. Anton Gerhard verweist vielmehr darauf, dass die hohe Auflösung des Modells bezüglich der Repräsentation des technischen Energiesystems es zu einem schwer zu überblickenden Gebilde macht. Die Hauptaufgabe, die bei der Verwendung dieses Modells in der Definition großer Sets numerischer Annahmen besteht, ist also rein praktisch betrachtet ein sehr aufwendiges Unterfangen. Wie Gerhard schildert, ist es für einen Auftraggeber in der Regel jedoch gar nicht von Interesse, jede dieser Annahmen im Detail zu kennen. Hier scheint es also vor allem

R EFLEXION

DER

E RGEBNISSE

| 197

praktische Gründe zu geben, aus denen die Storylines, statt das Modell selbst, das Verbindungsglied zwischen den Akteuren darstellen. Der zweite Unterschied betrifft den Typ der beschriebenen Erstellungsprozesse beider Interviewten: Wagenfurth beschreibt einen Erstellungsprozess, in dem beide Akteure relativ stark voneinander getrennt sind, während Gerhard gerade einen interaktiven Prozess beschreibt. Zwar wurden Gerhards Schilderungen nicht der Reinform des Prozesstyps interaktive Verschränkung zugeordnet, aber tendenziell deutet sich in seinen Beschreibungen an, was die Reinform kennzeichnet. In dieser wird nämlich der Unterschied zwischen Auftraggeber und –nehmer weitgehend aufgehoben. In der Reinform ist dies besonders drastisch, denn hier modellieren die Akteure gemeinsam. Es ist also zu vermuten, dass bei Wagenfurth die Grenze (Boundary) zwischen beiden Akteuren grundsätzlicherer, sozusagen härterer Natur ist, während diese bei Gerhard etwas weicher und durchlässiger ist. Oder mit den Worten Martin Meisters ausgedrückt: Der Unterschied zwischen der spezifischen Repräsentation auf Seiten des Modellierers – dem Modell – und der geteilten, unspezifischen Repräsentation des Boundary Objects – den Storylines – ist bei Wagenfurth größer als bei Gerhard. Wie ist es aber in Beratungsprozessen, die der Reinform der interaktiven Verschränkung zuzuordnen sind? Hier können wir nun in der Tat kein Boundary Object mehr erkennen. Zwar dient das Modell auch hier als Bindeglied zwischen den Akteuren. Aber es kann sich eben nicht mehr um die akteursspezifische Repräsentation eines Boundary Objects handeln, denn beide Akteure greifen ja in gleicher Weise direkt auf ein und dasselbe Modell zu. Führen wir uns noch einmal die Grundidee des Konzeptes vor Augen, demnach ja gerade die Kooperation von heterogenen Akteuren erklärt werden soll, erscheint die Erklärung offensichtlich. Denn in Beratungsprozessen, die der Reinform der interaktiven Verschränkung folgen, sind die beteiligten Akteure ja weitgehend homogen, so dass in ihrer Aushandlung gar kein Boundary Object benötigt wird.

7.4 Z UR (U N )D URCHSICHTIGKEIT DER E RSTELLUNGSPROZESSE Ein Ausgangspunkt der Untersuchung war der Befund, dass energieprognostische Gutachten gegenwärtig auch deshalb für Rezipienten nur schwer evaluiert werden können, weil ihr Erstellungsprozess und insbesondere die Gestaltungsanteile der beteiligten Akteure intransparent sind. Im Folgenden sollen nun erstens die rekonstruierten Erstellungsprozesse auf die potentiellen Gestaltungsanteile des Modellierers und des Auftraggebers hin untersucht und hieraus zweitens

198 | M ODELLIERTE Z UKUNFT

Hinweise dazu abgeleitet werden, welche Erfordernisse sich daraus für die Transparentmachung des Prozesses ergeben. Die grundlegende Annahme der vorliegenden Arbeit ist, dass Transparenz ein fundamentales Prinzip guter wissenschaftlicher Politikberatung darstellt (Weingart et al. 2008: 16f.; Lentsch und Weingart 2011: 15). Welche Aspekte eines Beratungsprozesses auf welche Weise transparent zu machen sind, ist jedoch eine schwierige Frage, deren Beantwortung sowohl vom konkreten Verwendungskontext der Ergebnisse eines Beratungsprozesses abhängt, also insbesondere davon, inwiefern legitimierungspflichtige Entscheidungen auf ihrer Basis getroffen werden, als auch vom Erstellungskontext, in dem mehr oder weniger voraussetzungsreiches und damit tendenziell schwer nachvollziehbares Wissen verwendet wird. Der Modus der Transparentmachung muss beiden Anforderungen gerecht werden. In der vorliegenden Untersuchung ist es nicht möglich, konkrete Vorschläge zu machen, welcher Modus der Transparentmachung in energieprognostischen Beratungsprojekten zu wählen ist. Insbesondere setzt dies die Kenntnis der Verwendungskontexte der Ergebnisse dieser Projekte voraus, die jedoch bisher nicht systematisch untersucht wurden. Was aber leistbar ist, und dies geschieht nun im Folgenden, ist die Identifikation grundsätzlicher Transparenzerfordernisse, die sich aus der Struktur der rekonstruierten Prozesstypen ergeben. Aus den genannten Gründen, und auch weil rekonstruierte und damit tendenziell zugespitzte Prozesstypen betrachtet werden, handelt es sich dabei um eine schematische Betrachtung. Die im Folgenden ausgesprochenen Empfehlungen sind deshalb als Ansatzpunkte zu verstehen, die im Kontext konkreter Projekte zu prüfen und auszudifferenzieren sind. Insbesondere handelt es sich nicht um die Evaluation konkreter Projekte. Die leitende Vorstellung ist, dass in einem energieprognostischen Gutachten (mindestens) das in ihm vorgebrachte Argument vollständig nachvollziehbar sein muss. Vollständig bedeutet hier, dass alle Prämissen explizit genannt werden und auch klar wird, welche Konklusion hieraus gezogen wird. Wie wir gesehen haben, gehen in energieprognostische Argumente jedoch Prämissen ein, deren Begründung teilweise voraussetzungsreiches Wissen beinhaltet, nämlich das Setzen numerischer Annahmen auf der einen und die Interpretation des Modells auf der anderen Seite. Kritisch für die Transparenz energieprognostischer Beratungsprojekte ist deshalb die Frage, wie die Begründung dieser Prämissen transparent gemacht wird. Hier bestehen schematisch zwei Möglichkeiten, nämlich einerseits die explizite Begründung im Gutachten selbst und andererseits ein Verweis im Gutachten auf die Begründung innerhalb der wissenschaftlichen Community. Diese zwei Möglichkeiten werden im Folgenden betrachtet.

R EFLEXION

DER

E RGEBNISSE

| 199

Bevor die Setzung numerischer Annahmen nach den drei Prozesstypen differenziert betrachtet wird, sei die Festlegung der Modellannahmen gesondert diskutiert, da hierfür – bis auf eine Ausnahme, die an späterer Stelle in diesem Abschnitt angesprochen wird – übergreifende Aussagen getroffen werden können: In allen rekonstruierten Argumenten tritt mindestens eine Prämisse auf, die der Interpretation des Modells als einen deterministischen Zusammenhang exogener und endogener Größen entspricht.3 Es stellt sich also die Frage, wer diese Prämissen gemäß der Schilderungen der Interviewten im Erstellungsprozess festlegt und wie diese Festlegungen zu begründen oder zumindest glaubhaft zu machen sind. Der erste Aspekt lässt sich für alle Schilderungen – bis auf die besagte Ausnahme – eindeutig beantworten: Derjenige, der das Modell konstruiert, einsetzt und interpretiert, ist der Modellierer auf Seiten des auftragnehmenden Institutes. Dies ist nicht nur aufgrund der Interviews evident, sondern zumindest im Falle komplexer Modelle auch nur schwer anders vorstellbar. Welches Erfordernis hinsichtlich der Transparenz des Prozesses bzw. der Nachvollziehbarkeit des Gutachtens folgt jedoch hieraus? Es erscheint aus praktischer Sicht weder möglich noch sinnvoll einzufordern, dass die Interpretation des Modells, also die Begründung der entsprechenden Prämissen in den Argumenten, explizit und ausführlich in einem energieprognostischen Gutachten erfolgen muss. Vielmehr ist zu fordern, dass diese Überprüfung in der wissenschaftlichen Community des Modellierers erfolgt und im Gutachten selbst lediglich hierauf verwiesen wird. Dies setzt jedoch voraus, dass das Modell und seine Interpretation für die wissenschaftliche Community überhaupt zugänglich sind. De facto ist dies jedoch nicht immer der Fall, wie im Rahmen der vorliegenden Untersuchung festgestellt wurde. Damit kommen wir zur Frage, wer die numerischen Annahmen im Erstellungsprozess festlegt. Dies wird nun separat für die drei Prozesstypen und zusätzlich differenziert nach den beiden komplexen Argumenten behandelt. Zum Prozess der sequenziellen Trennung Als eine Form der Erstellung energieprognostischer Gutachten wurde der Typ sequenzielle Trennung rekonstruiert. Dieser zeichnet sich dadurch aus, dass zunächst die Fragestellung vom Auftraggeber gestellt und gegebenfalls in einer Interaktion mit dem Modellierer abgestimmt wird. Anschließend wird die Fragestellung in numerische Annahmen übersetzt und es werden die Modellrechnun-

3

Dies sind im Einzelnen P1, P3, P5, P7, P8, P10, P12, P14, P16, P17, P20, P21, P23, P24, P26, P27.

200 | M ODELLIERTE Z UKUNFT

gen durchgeführt. Schließlich erfolgt die Erstellung des Gutachtens durch den Modellierer. Wird in einem solchen Prozess ein Gutachten erstellt, das im Sinne IE argumentiert – und nur für dieses Argument wurde dieser Prozess in den Interviews geschildert –, sind zwei Arten von Annahmen zu unterscheiden, die im Prozess festgelegt werden müssen. Zum einen müssen die numerischen Annahmen ak, die zwischen beiden Modellrechnungen unverändert bleiben, festgelegt werden, und zum anderen die numerischen Annahmen av und ihre Veränderung im zweiten Rechenlauf auf av*, wodurch der zu untersuchende Eingriff in das Zielsystem des Modells repräsentiert wird. Hinsichtlich der zwischen den Läufen unveränderten Annahmen ak ist zunächst festzuhalten, dass die Analyse nicht klären konnte, ob diesen Annahmen ein bestimmter epistemischer Status zugewiesen wird (vgl. Abschnitt 6.3.2). Wäre dieser der einer deterministischen Prognose, so wäre die Begründung anspruchsvoll und müsste in der Regel voraussetzungsreiches Wissen einbinden. In diesem Fall wäre deshalb mindestens die Transparentmachung gegenüber der entsprechenden Community zu fordern. Würde dagegen eine possibilistische Prognose getroffen, so wäre zwar die Begründung der entsprechenden Prämisse vergleichsweise einfacher, es müsste aber zusätzlich die Auswahl der spezifischen Annahmen aus dem Raum des Möglichen begründet werden. Der erstgenannte Aspekt müsste wiederum mindestens gegenüber der Community transparent gemacht werden, damit die Verifikation der Möglichkeit überprüft werden kann. Für die Auswahl bestimmter Möglichkeiten ist jedoch generell zu fordern, dass diese gegenüber dem Rezipienten transparent gemacht werden. Problemtisch ist eine intransparente Festlegung der numerischen Annahmen ak in den Fällen, in denen der im Argument IE als Effekt interpretierte Unterschied der Ergebnisse beider Läufe von diesen Annahmen abhängt. Eine Veränderung der Annahmen ak birgt deshalb immer die Gefahr, als ein Justieren der Modellrechnungen auf einen gewünschten Effekt hin angesehen zu werden. Die Festlegung der Änderung der numerischen Annahmen av auf av* geschieht laut der Schilderungen in einer Übersetzung einer vom Auftraggeber gestellten Fragestellung durch den Modellierer. Es gilt im Argument IE, die Wirkung einer bestimmten Maßnahme oder eines anderen Eingriffs in das Zielsystem zu untersuchen, und es erscheint angemessen, dass diese Maßnahme – soweit es das Wissen des Auftraggebers zulässt – von diesem definiert, dann aber vom Modellierer in das Modell übersetzt wird. Dass hierbei ggf. eine Iteration durch den Modellierer erfolgt, erscheint ebenfalls per se nicht problematisch, da diese Übersetzung spezifisches Wissen über das Zielsystem und das Modell voraussetzt, das in der Regel nur Experten besitzen. Da es sich hierbei um einen

R EFLEXION

DER

E RGEBNISSE

| 201

entscheidenden Aspekt der Analyse handelt, erscheint es angemessen zu fordern, dass diese Übersetzung zumindest in groben Zügen explizit im Gutachten erläutert wird. Eine detaillierte Darstellung sollte zusätzlich für die wissenschaftliche Community erfolgen, wobei dies selbstverständlich die Transparentmachung des Modells in der Community erfordert. Nebenbei fällt auf, dass dieser Prozesstyp nicht für Gutachten beschrieben wurde, die dem Argument GPP folgen. Dies ist jedoch plausibel, denn wie im Folgenden näher beleuchtet wird, werden in einem solchen Gutachten mögliche Entwicklungen aus einem Möglichkeitsraum selegiert. Da diese Selektion den Anforderungen des Auftraggebers genügen muss, gleichzeitig jedoch nur der Modellierer über das Wissen verfügt, anhand dessen die Möglichkeiten verifiziert werden können, erscheint es plausibel, dass diese Gutachten stets in einem relativ abstimmungsintensiven Prozess erstellt werden und nicht in einem Prozess des Typs sequenzieller Trennung. Zum Prozess der interaktiven Verschränkung Der Prozesstyp der interaktiven Verschränkung, der das andere Ende des rekonstruierten Spektrums von Prozesstypen markiert, zeichnet sich dadurch aus, dass der Auftraggeber nicht nur an der Setzung numerischer Annahmen beteiligt ist – die eventuelle Problematik dieses Aspektes wird weiter unten behandelt –, sondern sogar selbst an der Konstruktion oder Weiterentwicklung des Modells, an seinem Einsatz in den Modellrechnungen und an der Erstellung des betreffenden Gutachtens. Dies setzt im Falle eines komplexen Modells großes Fachwissen auf Seiten des Auftraggebers voraus, oder umgekehrt ein relativ einfaches Modell. Die Schilderungen, auf deren Grundlage dieser Prozesstyp erstellt wurde, beschreiben einen Prozess, in dem der zweite Fall zutrifft, da ein relativ einfaches Simulationsmodell verwendet wurde. Zusätzlich wurde der Auftraggeber für das betreffende Modell geschult. Zwei Aspekte sind hier zu diskutieren, zum einen die Frage, ob seine Beteiligung an der Festlegung der numerischen Annahmen im Argument GPP problematisch ist, und zum anderen, inwiefern seine Beteiligung an der Modellierung als kritisch anzusehen ist. Zum ersten Aspekt ist festzustellen, dass dies zwar für die Gültigkeit des Argumentes unproblematisch ist, solange sichergestellt ist, etwa durch die Einbeziehung des Modellierers, dass die von ihm gesetzten Annahmen tatsächlich Möglichkeiten darstellen. Da aber, wie in Abschnitt 7.6 ausführlich diskutiert wird, im Argument GPP eine Selektion von bestimmten Möglichkeiten stattfindet, diese Selektion aber nicht nur nach epistemischen Kriterien stattfinden kann,

202 | M ODELLIERTE Z UKUNFT

ist hier unbedingt zu fordern, dass die Selektionskriterien im Gutachten offengelegt werden. Zwar ist damit noch nicht die Frage beantwortet, welche Rolle diese Möglichkeiten in der rationalen Entscheidungsbegründung spielen können, aber es wäre damit immerhin die Voraussetzung dafür geschaffen, hierfür ein Konzept zu entwickeln. Inwiefern ist es aber für diese Gutachten problematisch, dass der Auftraggeber an der Modellierung beteiligt ist? Dies ist zumindest für die wissenschaftliche Qualität des Gutachtens dann unproblematisch, wenn er über das nötige Wissen verfügt und gleichzeitig seine Modellierung durch die wissenschaftliche Community überprüft werden kann. Aber es bleibt ein Problem bestehen. Denn durch die Beteiligung des Auftraggebers an der Modellierung wird die Rollenverteilung der beiden Akteure im Vergleich zu den beiden anderen Typen der Beratungsprozesse drastisch geändert. Der Auftraggeber ist, was sein Handeln im Erstellungsprozess angeht, nun selbst auch Modellierer. Gleichzeitig bleibt er jedoch in seinem spezifischen Handlungs- und Entscheidungskontext eingebunden. Auch wenn also einzelne Mitarbeiter einer außerwissenschaftlichen Einrichtung gemeinsam mit den Modellieren einer wissenschaftlichen Einrichtung ein Gutachten erstellen, bleibt der Auftraggeber eine außerwissenschaftliche Einrichtung und wird als eine solche von einem Rezipienten wahrgenommen. Da jedoch davon auszugehen ist, dass diese Einrichtung auch nicht-epistemische Interessen verfolgt und seine Mitarbeiter diese Interessen zumindest zum Teil in ihrem Handeln im Erstellungsprozess umsetzen, erscheint die Annahme berechtigt, dass das Ergebnis dieses Prozesses, also das Gutachten, auch durch die Interessen des Auftraggebers geprägt wird. Für die Akzeptabilität der Gutachten ist es deshalb von entscheidender Bedeutung, dass die Rolle des Auftraggebers in der gemeinsamen Modellierung transparent gemacht wird. Reicht in den übrigen Prozessen die Überprüfung der Modellierung durch die wissenschaftliche Community aus, so sollte deshalb die Modellierung im Falle der interaktiven Verschränkung für alle Rezipienten transparent gemacht werden. Auffällig ist, dass der Prozesstyp interaktive Verschränkung nur für Gutachten des Typs GPP geschildert wurde. Dies scheint bei genauerer Betrachtung kein Zufall zu sein: Wie in Abschnitt 7.7 gezeigt wird, scheint es für das Argument IE erforderlich zu sein, dass ein relativ stark endogenisiertes Modell verwendet wird – andernfalls würden die hier bestimmten Effekte bereits in den exogenen Annahmen vorliegen. Ein stark endogenisiertes Modell ist wiederum relativ schwer für Laien verständlich. Es ist deshalb plausibel, dass Gutachten, die das Argument IE realisieren, dadurch gekennzeichnet sind, dass der Auftraggeber keinen Zugriff auf das Modell hat. Da der Zugriff auf das Modell im Pro-

R EFLEXION

DER

E RGEBNISSE

| 203

zesstyp interaktive Verschränkung aber eine Voraussetzung ist, erscheint es also auch plausibel, dass in diesem Prozess nur Gutachten der Form GPP erstellt werden. Zum Prozess der iterativen Trennung Dieser Prozesstyp kann als Mischform der beiden Typen sequenzielle Trennung und interaktive Verschränkung betrachtet werden. Er ist dadurch gekennzeichnet, dass während des Erstellungsprozesses ein Austausch von Zwischenergebnissen zwischen Modellierer und Auftraggeber erfolgt und daraufhin Änderungsvorgaben durch den Auftraggeber formuliert werden. Zunächst lässt sich feststellen, dass der Erstellungsprozess hierdurch unübersichtlicher ist als der Prozess der sequenziellen Trennung. Der wesentliche Grund hierfür ist, dass der Prozess der sequenziellen Trennung bezüglich seiner grundlegenden Struktur als ein Antwortgeben der Wissenschaft auf eine Frage einer politischen oder anderen Organisation verstanden werden kann. Im Falle der iterativen Trennung ist dies anders: Dadurch, dass der Auftraggeber noch einmal Einfluss nehmen kann, nachdem bereits Modellrechnungen durchgeführt wurden, ist nicht mehr klar, wer in diesem Prozess die Antwort auf die Fragestellung gibt. Wird die Einflussnahme des Auftraggebers auf Grundlage der Rechenergebnisse nicht näher spezifiziert, so entsteht der Verdacht, dass die Ergebnisse in seinem Sinne manipuliert werden. Dadurch gerät die Vorstellung, dass hier Wissenschaft ergebnisoffen nach einer Antwort sucht, schon allein durch den Ablauf des Prozesses ins Wanken. Ob diese Einflussnahme von Auftraggeberseite jedoch tatsächlich problematisch ist, hängt entscheidend von ihrer genauen Natur ab. Wird in einem Prozess der iterativen Trennung etwa ein Gutachten der Form IE erstellt, so könnten sich die Änderungsvorgaben sowohl auf die nicht veränderten numerischen Annahmen ak als auch auf die Veränderung der Annahmen av auf av* beziehen. Der Autor eines solchen Gutachtens ist damit wiederum mit den Herausforderungen konfrontiert, die bereits zuvor anhand des Typs der sequenziellen Trennung beschrieben wurden: Insbesondere ist, abhängig vom epistemischen Status, der den Annahmen ak zugewiesen wird, die Begründung der entsprechenden Prämissen mehr oder weniger aufwendig und erfordert mindestens die Offenlegung gegenüber der relevanten Community. Wird ein Gutachten des Argumentes GPP erstellt, kommt die Offenlegung der Auswahlkriterien für die numerischen Annahmen hinzu. Denn hier würde die Einflussnahme des Auftraggebers ein Mitauswählen der explizierten Möglichkeiten bedeuten. Es gilt, was auch zuvor beim Typ der interaktiven Verschränkung beschrieben wurde: Solange der Mo-

204 | M ODELLIERTE Z UKUNFT

dellierer dabei prüft, ob es sich hierbei tatsächlich vor dem relevanten Hintergrundwissen um Möglichkeiten handelt, ist dies für die Gültigkeit des Argumentes unproblematisch. Das Problem besteht auch hier vielmehr in der Frage, welche Kriterien bei dieser Auswahl numerischer Annahmen zugrunde gelegt werden – eine Frage, auf die in Abschnitt 7.6 eingegangen wird.

7.5 K ONDITIONALISIERUNG EPISTEMISCHER U NSICHERHEITEN – EINE AMBIVALENTE S TRATEGIE Konditionale Aussagen spielen eine zentrale Rolle in der Argumentation energieprognostischer Gutachten. Während zu Beginn der Untersuchung jedoch unklar blieb, worin die Rolle der konditionalen Aussagen genau besteht (vgl. Abschnitt 4.3.3), konnten auf Grundlage der Interviews unterschiedliche Argumente rekonstruiert werden, in denen solche Aussagen verwendet oder begründet werden. Im Folgenden soll nun insbesondere der Frage nachgegangen werden, unter welchen Bedingungen die Begründung konditionaler Konklusionen in der wissenschaftlichen Politikberatung erstens eine adäquate Form der Vermittlung epistemischer Unsicherheiten darstellt. Zweitens wird untersucht, unter welchen Bedingungen und in welcher Weise solche Aussagen überhaupt hilfreich für den Beratenen sein können. Diese Fragen werden im Folgenden jeweils zunächst auf Grundlage genereller Überlegungen diskutiert und anschließend auf die Ergebnisse der vorliegenden Arbeit angewendet. Machen wir uns zunächst noch einmal klar, was es heißt, eine konditionale Aussage zu treffen: In einer konditionalen Aussage wird ausgedrückt, dass das im Konsequens Bezeichnete dann wahr ist, wenn das im Antezedens Bezeichnete wahr ist. Entscheidend ist jedoch, dass über das Eintreffen des im Antezedens Bezeichneten in der Aussage selbst keine Angabe enthalten ist, so dass ohne weitere Angaben auch nicht bekannt ist, ob das im Konsequens Bezeichnete wahr ist. Stellt eine solche Aussage die Konklusion dar, die ein Berater seinem Adressaten vermittelt, so erhält der Beratene also ebenfalls keine Information darüber, ob das im Konsequens Bezeichnete wahr ist. In den zuvor rekonstruierten Konklusionen tauchen konditionale Aussagen in zwei grundlegenden Varianten auf, die im Folgenden näher untersucht werden. Erstens ist dies die Formulierung einer Abhängigkeit eines prognostizierten Zustandes von Annahmen, über die epistemische Unsicherheit besteht. Hier werden zwei Untervarianten diskutiert, je nachdem ob numerische Annahmen über exogene Größen oder Modellannahmen konditionalisiert werden. Zweitens ist dies

R EFLEXION

DER

E RGEBNISSE

| 205

die Formulierung der Abhängigkeit eines prognostizierten Zustandes von einer Maßnahme. 7.5.1 Konditionalisierung epistemisch unsicherer Annahmen Wenden wir uns zunächst dem ersten und schwierigeren Fall zu – der Konditionalisierung epistemisch unsicherer Annahmen. Die Relevanz dieses Aspektes zeigt sich nicht nur in den Interviews, sondern wurde auch in der Literatur und in persönlichen Gesprächen des Autors mit Modellierern jenseits der Interviews deutlich. Als Ausgangspunkt soll hier aufgrund der Deutlichkeit der Formulierung ein Zitat aus der Literatur dienen: „Sie [die Wissenschaft; CD] kann nur konditionale Prognosen liefern. Die Bedingtheit von Prognosen umfasst sowohl



die Annahmen über die Entwicklung exogener Rahmenbedingungen, deren Wirkungszusammenhänge nicht weiter untersucht werden oder untersuchbar sind […] als auch



die verwendeten Wirkungszusammenhänge, die stets ein vereinfachtes Modell der Wirklichkeit sind und von denen nicht ex ante gesagt werden kann, daß sie sich nicht wesentlich im Prognosezeitraum verändern würden […].“ (Jochem 1984: 271-273; Aufzählung im Original)

Jochem vertritt in der zitierten Passage die Überzeugung, dass die Energieprognostik4 nur konditionale Prognosen begründen kann. Er gibt zwei Gründe hierfür an und formuliert damit zwei Untervarianten der Konditionalisierung epistemisch unsicherer Annahmen. Im ersten zitierten Punkt gibt er an, dass nur konditionale Prognosen möglich seien, weil epistemische Unsicherheiten über Annahmen für exogene Größen bestünden, im zweiten Punkt besteht der Grund in der epistemischen Unsicherheit über die modellierten Wirkungszusammenhänge, also die Modellannahmen. Wie im Folgenden beschrieben wird, stellen beide Varianten unter Umständen in der Tat eine problematische Form der Konditionalisierung dar, in anderen Fällen aber auch die einzige Möglichkeit epistemische Unsicherheiten explizit zu machen. Um dem nachgehen zu können, sind zunächst einige grundlegende Überlegungen notwendig.

4

Dass Jochem in dieser Passage sogar eine Aussage für die Wissenschaft im Allgemeinen trifft, kann hier außer Acht gelassen werden. Schon der Titel seines Textes Der Ruf der Energiebedarfsprognosen lässt keine Zweifel daran, dass es ihm im Kern nicht um die Wissenschaft im Allgemeinen, sondern um die Energieprognostik geht.

206 | M ODELLIERTE Z UKUNFT

Konditionalisierung von Annahmen für exogene Größen Wissenschaftliche Berater, so auch die hier untersuchten Energieprognostiker, haben die Aufgabe, eine außerwissenschaftliche Frage auf Grundlage des verfügbaren Wissens zu beantworten. Dabei sind sie mit der Herausforderung konfrontiert, sowohl das relevante Wissen als auch die hierüber bestehenden Unsicherheiten vermitteln zu müssen. Die in der vorliegenden Arbeit rekonstruierten Argumente zeigen unterschiedliche Formen, dieser Anforderung nachzukommen. Eine Form, in der dies geschehen kann, ist die Formulierung und bewusste Unterscheidung deterministischer, probabilistischer und possibilistischer Aussagen (vgl. Abschnitt 3.4). Wie die Ergebnisse der Untersuchung gezeigt haben, und in Abschnitt 7.6 noch einmal analysiert wird, spielt dabei in der Energieprognostik die Formulierung possibilistischer Aussagen eine zentrale Rolle. Eine deutlich drastischere Variante ist die Formulierung einer konditionalen Aussage. Wie zuvor beschrieben, wird dann nicht einmal mehr der epistemische Status des im Antezedens Bezeichneten vermittelt. Handelt es sich hierbei um eine Annahme für eine exogene Größe in einer Prognose, so erfährt der Beratene nichts darüber, ob mit dem Eintreten der Annahme und damit auch mit dem Eintreten des prognostizierten Ergebnisses (Konsequens) zu rechnen ist. Problematisch ist dies dann, wenn im Antezedens einer solchen Aussage leichtfertig Annahmen angegeben werden, über deren Eintreten eigentlich doch etwas gewusst wird. Die Konklusion würde dann nicht das eigentlich vorhandene Wissen angemessen transportieren. Vielmehr wäre sie schwächer, als sie eigentlich sein muss. Damit würde der Beratungsauftrag nicht vollständig erfüllt werden. Diese Gefahr besteht, weil einerseits gelegentlich sowohl innerhalb des wissenschaftlichen Diskurses der Energieprognostik als auch außerhalb dessen die Begründung konditionaler Aussagen pauschal als wissenschaftlich adäquates Vorgehen beschrieben wird.5 Andererseits ist es oft auch schwierig und aufwendig, den epistemischen Status von Annahmen genau zu bestimmen. Umgekehrt bedeutet dies aber auch, dass in dem Fall, in dem auf Seiten des Beraters tatsächlich unbekannt ist, ob oder unter welchen weiteren Bedingungen mit dem Eintreten des im Antezedens Bezeichneten zu rechnen ist, die Formulierung einer konditionalen Aussage angemessen ist. Denn mit ihr wird durchaus Wertvolles kommuniziert, nämlich die Abhängigkeit des im Konsequens Be-

5

Hier sei noch einmal auf das zuvor in Fußnote 18 erwähnte Beispiel verwiesen: Im Gutachten EWI und Prognos AG 2005 wird auf Seite XIII die „wissenschaftlich fundierte Zukunftsanalyse“ durch die Bedingtheit ihrer Aussagen von „Prophezeihungen“ abgegrenzt.

R EFLEXION

DER

E RGEBNISSE

| 207

zeichneten von den Antezedensbedingungen. Es wird außerdem deutlich, dass über die Antezedensbedingungen fundamentale epistemische Unsicherheit besteht – wobei dies zusätzlich auch in dieser Deutlichkeit kommuniziert werden sollte. Der Berater kommt hier also seiner Pflicht der transparenten Kommunikation des verfügbaren Wissens und der epistemischen Unsicherheiten durchaus nach. Eine andere Frage ist jedoch, inwiefern eine solche konditionale Konklusion für den Beratenen hilfreich ist. Unmittelbar handlungsbegründend ist eine solche Aussage in aller Regel nicht. Hierauf kann an dieser Stelle nicht im Detail eingegangen werden, weshalb ein Beispiel zur Illustration genügen soll: Typische Annahmen für exogene Größen, die mit großen epistemischen Unsicherheiten verbunden sind, stellen die Brennstoffpreisentwicklungen dar. Wenn etwa eine Steuererhöhung für fossile Brennstoffe als Klimaschutzmaßnahme diskutiert würde und ein Gutachten zu dem Schluss käme, dass die CO2-Emissionen Deutschlands steigen werden, wenn der Kohlepreis sinkt, so ist damit noch nichts darüber gesagt, ob auch tatsächlich mit steigenden CO2-Emissionen zu rechnen ist. Aus dem Gutachten folgt also nicht unmittelbar eine Antwort auf die Frage, ob für die Verhinderung von steigenden CO2-Emissionen Kohle durch eine zusätzliche Steuer verteuert werden sollte. Dennoch stellt eine konditionale Konklusion, in der epistemisch unsichere Annahmen für exogene Größen im Antezedens auftauchen, keine für den Beratenen vollkommen wertlose Aussage dar. Vielmehr wird durch das Explizieren epistemischer Unsicherheiten deutlich, dass genau hier weiterer Beratungs- oder Forschungsbedarf besteht. Eine mögliche Reaktion auf ein Gutachten dieser Art wäre also beispielsweise, die konditionalisierten Annahmen durch Experten für genau diese Annahmen zusätzlich untersuchen zu lassen. Wir sehen also, dass der zuvor zitierte Jochem mit seinem erstgenannten Punkt prinzipiell eine wichtige und sinnvolle Technik der Explikation epistemischer Unsicherheiten nennt. Werfen wir nun den Blick auf die Ergebnisse der empirischen Analyse. Wir sehen unmittelbar, dass das zuvor Diskutierte vor allem auf die Variante Isolation von Effekten mit konditionalisiertem Referenzlauf zutrifft, da hier die numerischen Annahmen ak im Antezedens der Konklusion auftauchen. Aber auch für die Variante Gegenüberstellung teilkonditionalisierter possibilistischer Prognosen sind die Überlegungen relevant, denn es ist sicherzugehen, dass die konditionalisierten Annahmen tatsächlich Größen darstellen, die von Adressaten beeinflusst werden können.

208 | M ODELLIERTE Z UKUNFT

Konditionalisierung von Modellannahmen Jochem gibt im vorherigen Zitat noch einen weiteren Grund dafür an, dass in der Energieprognostik nur konditionale Aussagen begründet werden können. Er nennt hier den Umstand, dass auch über die Modellannahmen selbst epistemische Unsicherheit bestehen kann. Anders gesagt tauchen nun also Modellannahmen im Antezedens derjenigen Konklusion auf, die mit dem Modell begründet werden soll. Bei den Modellannahmen handelt es sich um nichts anderes als die konditionalen Aussagen, die die Abhängigkeit der exogenen von den endogenen Größen des Modells beschreiben, also um die Interpretation der im Computermodell formal festgelegten Zusammenhänge. In der vorliegenden Arbeit wurde hierfür aufbauend auf van Fraassen (1980) die in Abschnitt 3.5.2 formulierte Aussage eingeführt. Greifen wir auf diese zurück, so lässt sich Jochems zweiter Punkt so verstehen, dass in einem energieprognostischen Gutachten die folgende Konklusion begründet wird: K*:

Wenn {gilt: [Wenn die realen Größen X die Werte a annehmen, dann nehmen die realen Größen Y die Funktionswerte m(a) an.] und gilt: die realen Größen X nehmen bestimmte Werte a an}, dann gilt: die realen Größen Y nehmen die Funktionswerte m(a) an.

Hier wurde die konditionale Aussage, die der Interpretation des Modells entspricht – die eckige Klammer in K* – als zusätzliche Antezedensbedingung in sich selbst eingesetzt. Vereinfacht hat K* also die Struktur: Wenn {[Wenn A, dann B] und A}, dann B.

Die Besonderheit dieser Aussage ist, dass die Bedeutung des Antezedens der äußeren konditionalen Aussage – dem Inhalt der geschweiften Klammern – bereits die Wahrheit des Konsequens dieser äußeren konditionalen Aussage beinhaltet. Entscheidend ist hierbei unser Verständnis einer konditionalen Aussage. Wir verstehen hierunter gerade eine Aussage, die dann den Schluss auf die Wahrheit des Konsequens erlaubt, wenn das Antezedens wahr ist. Und gerade dies geschieht im Antezedens der äußeren konditionalen Aussage: Aus ihrem Teilsatz [Wenn A, dann B] folgt zusammen mit A in der Konjunktion, gegeben unser Verständnis einer konditionalen Aussage, gerade B. Das Antezedens der äußeren konditionalen Aussage impliziert also sein eigenes Konsequens. Es handelt sich bei K* also um eine analytisch wahre Aussage (vgl. Rey 2012), die schon allein aufgrund unseres Verständnisses einer konditionalen Aussage wahr ist.

R EFLEXION

DER

E RGEBNISSE

| 209

Für die Politikberatung ist entscheidend, dass ein Adressat aus K* nur etwas darüber erfahren würde, wie eine konditionale Aussage verstanden wird – denn K* drückt nichts anderes aus. Über das Verhältnis, in dem die Teilsätze von K* zur Realität stehen, würde er jedoch nichts erfahren. Wird also die Gültigkeit des Modells selbst zur Bedingung der Konklusion eines Gutachtens gemacht, so wird damit im Grunde die Grundidee, mit einem Modell Aussagen über reale Phänomene zu begründen, außer Kraft gesetzt. In diesem Fall kann also schon aufgrund der aussagenlogischen Struktur von K* bezweifelt werden, dass sie als Konklusion eines Gutachtens in der Politikberatung praktisch von Nutzen ist. Allerdings muss wiederum betont werden, dass die Konditionalisierung unsicherer Modellannahmen die drastischste Form der Explikation dieser Unsicherheiten darstellt. Sie würde ja zum Ausdruck bringen, dass vollkommen unbekannt ist, ob die im Modell repräsentierten Zusammenhänge real zutreffen oder zutreffen könnten. Wie in Abschnitt 7.8 diskutiert werden wird, zeigen die empirischen Ergebnisse der Untersuchung aber gerade, dass sich die Interpretation der Modelle durch die Interviewten in einem Graubereich bewegt, in dem stets ein gewisser – wenn auch unklarer – Bezug der Modellannahmen zu realen Zusammenhängen angenommen wird. Somit wird bereits an dieser Stelle deutlich, dass für die Rekonstruktion unsicherer Modellannahmen alternative Formulierungen benötigt werden. Wie in Abschnitt 7.8 beschrieben werden wird, stellt dies eine aktuelle Herausforderung in der Wissenschafts- und Erkenntnistheorie dar, die in der vorliegenden Arbeit jedoch nicht gelöst werden kann. Blicken wir abschließend noch einmal auf die empirischen Ergebnisse und stellen auch hier die Frage, inwiefern das diskutierte Problem der Konditionalisierung unsicherer Modellannahmen in den Schilderungen der Interviewten auftritt. Hierfür finden sich in den Interviews schwache Indizien. So bezeichnet Simon Müller etwa das Modell selbst als „die erste Annahme“6, die neben weiteren Annahmen getroffen werden muss. Auch Klaus Einbaums Beschreibung seines Modells als „Mechanik“, die auf bestimmten Annahmen beruhend einen numerischen Input in einen numerischen Output überführt, kann als Ausdruck der Konditionalisierung der Modellannahmen verstanden werden.7 Letztendlich muss je-

6

Vgl.: „[…] wie das Modell selbst spezifiziert ist, ist eigentlich schon die erste An-

7

Vgl.: „Und wichtig ist eben die Interpretation und die Relativierung auch der Modell-

nahme“ (SM, Int. 1, 500). mechanisch errechneten Ergebnisse. […] Ja, dass man eben die Annahmen kritisch diskutiert und reflektiert. Und insbesondere die Ergebnisse eben intensiv an den Annahmen spiegelt. Weil man hat ja tatsächlich sozusagen in Anführungszeichen ‚nur eine gewisse Mechanik‘, die man anwendet. Und die dient dazu, das hatten wir ein-

210 | M ODELLIERTE Z UKUNFT

doch klar gesagt werden, dass die Ergebnisse der vorliegenden Untersuchung den Schluss nicht erlauben, dass die Interviewten tatsächlich in ihren Gutachten versuchen, die Unsicherheit über das Modell durch eine konditionale Aussage zum Ausdruck zu bringen. Da diese Vorstellung jedoch außerhalb der Interviews in der Community sehr präsent ist, erschien es wichtig, dennoch auf die hiermit verbundene Problematik ausführlich einzugehen. 7.5.2 Konditionalisierung einer Maßnahme Der Konditionalisierung einer Maßnahme, der zweiten hier zu diskutierenden Variante, sind wir zuvor an zwei Stellen begegnet: In der Konklusion des Argumentes Gegenüberstellung teilkonditionalisierter possibilistischer Prognosen (GTPP) sowie in den Konklusionen der unterschiedlichen Varianten des Argumentes IE. Die Konklusion HK2 des Argumentes GTPP besteht in der Konjunktion zweier konditionaler Prognosen, wobei jeweils das reale Zutreffen der Rechenergebnisse (Konsequens) davon abhängig gemacht wird, dass die exogenen Größen XB bestimmte numerische Werte annehmen (Antezedens). XB stellen dabei gerade solche Größen dar, die direkt vom Adressaten beeinflussbar sind. Anders gesagt geht das Argument also davon aus, dass es in der Macht des Adressaten steht, für die Wahrheit des Antezedens zu sorgen. Ist dies tatsächlich erfüllt, ist es unproblematisch, diese Art der konditionalen Aussage an den Adressaten zu kommunizieren. Im Gegenteil – es handelt sich sogar in der Regel um eine sehr hilfreiche Aussage, da mit ihr ausgedrückt wird, was (möglicherweise) der Fall sein wird, wenn der Adressat für das Eintreten der angenommenen Werte für die exogenen Größen sorgt. Ähnlich verhält es sich beim Argument IE. Hier wird in allen rekonstruierten Varianten im Antezedens der Konklusion ein Ereignis formuliert, das insbesondere eine bestimmte Maßnahme darstellen kann. Zunächst fällt auf, dass dies nun jedoch in einer anderen Weise erfolgt als im Argument GTPP, denn in IE wird eine Maßnahme als das Herbeiführen der Veränderung der Werte bestimmter Größen ausgehend von einem Referenzzustand auf einen anderen Zustand be-

gangs, konsistente Mengengerüste und Kostenpreisgerüste erst mal abzubilden. Aber das drauf Hinweisen auf die Interdependenzen, die in der Modell-Logik stecken, und die Determiniertheit der Ergebnisse in Abhängigkeit von den Annahmen, die man alle rein steckt, das bleibt natürlich wesentliche Aufgabe, das bewusst zu machen, insofern auch die Bedeutung der Ergebnisse herauszuarbeiten.“ (KE, Int. 1, 177-179)

R EFLEXION

DER

E RGEBNISSE

| 211

schrieben.8 In den beiden Antezedensbedingungen im Argument GTPP wird dagegen lediglich ausgedrückt, dass das Eintreten des im Konsequens Bezeichneten vom Herbeiführen eines bestimmten Zustandes der exogenen Größen abhängt – unabhängig davon, welcher Zustand eintreten würde, wenn keine Maßnahme ergriffen würde. Hier liegt also ein grundlegender Unterschied darin vor, wie eine Maßnahme konzipiert wird. In der vorliegenden Untersuchung war es jedoch nicht möglich, diesen Unterschied eingehender zu untersuchen. Für die vorliegende Diskussion ist diese Feststellung wichtig: Wenn auch im Argument IE davon auszugehen ist, dass es in der Macht des Adressaten liegt, die im Antezedens definierte Maßnahme zu ergreifen, stellt auch diese Konklusion hinsichtlich der Konditionalisierung der Maßahme eine unproblematische Aussage dar.

7.6 M ÖGLICH

IST VIELES ! – D AS P ROBLEM SELEKTIVER M ÖGLICHKEITSAUSSAGEN

Die empirischen Ergebnisse haben gezeigt, dass nach Ansicht mancher Interviewten in energieprognostischen Gutachten Möglichkeitsaussagen über die zukünftige Entwicklung bestimmter Aspekte des Energiesystems getroffen werden. Dabei wird entlang des komplexen Argumentes GPP argumentiert (vgl. Abschnitt 6.3.1). In Abschnitt 6.2.1 wurde zum einen bereits darauf hingewiesen, dass dieses Argument auf die interne Konsistenz der numerischen Annahmen, die für jeden einzelnen Modelllauf getroffen werden, angewiesen ist. Zum zweiten basiert das Argument darauf, dass das verwendete Modell empirisch adäquat ist – ein Aspekt, auf den in Abschnitt 7.8 noch einmal genauer eingegangen werden wird. Im vorliegenden Abschnitt wird jedoch davon ausgegangen, dass beide Prämissen erfüllt sind, das Argument also gültig ist. Damit wird davon ausgegangen, dass die im Argument GPP artikulierten Möglichkeiten mit dem Modell verifiziert werden können. Im Mittelpunkt der folgenden Ausführungen steht dann die Frage, welche Rolle ein solches Argument vom Typ GPP in der Politikberatung, genauer gesagt in der direkten Entscheidungsbegründung, spielen kann. Vergegenwärtigen wir uns zunächst noch einmal die grundlegende Idee hinter diesem Argument. Sie besteht darin, dass mit einem Modell in mehreren Rechenläufen, bei denen jeweils unterschiedliche numerische Annahmen getroffen werden, verschiedene mögliche Entwicklungen des Zielsystems des Modells be-

8

Ausgenommen die Variante Isolation von Effekten nur über den relativen Unterschied.

212 | M ODELLIERTE Z UKUNFT

rechnet werden. Entscheidend ist dabei, dass die numerischen Annahmen vollkommen unterschiedliche Werte für die unterschiedlichen Rechenläufe beinhalten können. Damit das Argument gültig ist, muss lediglich gewährleistet sein, dass die numerischen Annahmen möglich, das heißt konsistent mit dem relevanten Hintergrundwissen sind. Hieraus ergibt sich der Haupteinwand gegen die Verwendung eines solchen Argumentes in der Politikberatung. Dieser lässt sich etwa so formulieren: Möglich ist vieles! Wieso sollten gerade die berechneten Entwicklungen Grundlage unserer Entscheidungen sein? Genauer betrachtet rekurriert der Einwand darauf, dass unser Hintergrundwissen mit viel mehr Entwicklungen konsistent ist als den wenigen, die berechnet wurden. Selbst wenn also die Berechnung gezeigt hat, dass es sich bei den explizierten Möglichkeiten um verifizierte Möglichkeiten im Sinne von Betz (2010) handelt, stellen diese dennoch nur eine Selektion aus allen potentiell möglichen Entwicklungen dar. Der Einwand fußt außerdem darauf, dass angenommen wird, dass unter diesen vielen nicht betrachteten Möglichkeiten auch solche sein können, die die behaupteten Möglichkeiten konterkarieren oder anderweitig entscheidungsrelevant sind. Und in der Tat wäre es ein Fehlschluss, von verifizierten Möglichkeiten auf die Unmöglichkeit nicht-verifizierter Möglichkeiten zu schließen (ebd.: 92). Beispielsweise könnte in einem Gutachten behauptet werden, dass eine mögliche Entwicklung darin besteht, dass der Energieverbrauch in Deutschland aufgrund extremer Ölpreissteigerungen und dadurch reduzierter Nachfrage so stark zurückgeht, dass die Klimaschutzziele ohne weitere politische Maßnahmen erreicht werden. Offensichtlich folgt aus dieser – nehmen wir an: verifizierten – Möglichkeit nicht, dass es nicht auch möglich wäre, dass die Nachfrage steigt und die Klimaschutzziele nur durch zusätzliche Maßnahmen erreicht werden können. Würden wir also aus der ersten Behauptung fälschlicherweise ableiten, dass keine weiteren Maßnahmen im Klimaschutz ergriffen werden müssen, so würde die zweite Möglichkeit gerade für eine gegenteilige Reaktion sprechen. Bereits dieses einfache Beispiel zeigt, dass selektive Möglichkeitsaussagen eine problematische Entscheidungsgrundlage darstellen, und zwar deshalb, weil sie immer die Gefahr bergen, durch den skizzierten Einwand entkräftet zu werden. Allgemeiner formuliert dies Sven O. Hansson: „There is no way to determine a single ,correct‘ scenario on which to base our deliberations. We have to be able to base our decisions on considerations of several of them.“ (Hansson 2011: 140)

R EFLEXION

DER

E RGEBNISSE

| 213

Für die Praxis der Energieprognostik stellt die Angreifbarkeit selektiver Möglichkeiten ein Problem dar, denn die Literaturrecherche sowie die Interviews zeigen, dass Möglichkeitsaussagen vor allem als selektive Möglichkeiten – entsprechend dem Argument GPP – formuliert werden. Dabei ist die verbreitete Strategie der Durchführung ergänzender Sensitivitätsanalysen zwar grundsätzlich eine Möglichkeit, diesem Einwand zu begegnen. Es muss jedoch bezweifelt werden, dass die in der Praxis durchgeführten Sensitivitätsanalysen den hierfür nötigen Anforderungen gerecht werden. Denn hierzu müsste sichergestellt sein, dass mit ihnen alle oder zumindest alle relevanten Möglichkeiten innerhalb des vom Modell aufgespannten Möglichkeitsraumes bestimmt werden. Aus praktischen Gründen werden in der Energieprognostik in der Regel jedoch erstens nur wenige Variablen der Modelle verändert. Zweitens werden keine Rechnungen für den gesamten möglichen Wertebereich dieser Variablen durchgeführt und drittens nicht die Effekte aus der gleichzeitigen Veränderung der Werte mehrerer Variablen vollständig analysiert. Eine Ursache ist der enorme Rechenaufwand, der hierfür im Angesicht der (mathematisch) großen und komplexen Modelle betrieben werden müsste. In der gängigen Praxis werden deshalb nur einzelne, als kritisch angesehene Variablen untersucht. Ein typisches Beispiel einer solchen (partiellen) Sensitivitätsanalyse ist die Variation des Rohölpreises, wie sie etwa in der Energieprognose 2009 (IER, RWI und ZEW 2010) durchgeführt wurde.9 Was also in der Praxis erreicht wird, entspricht meist lediglich einer partiellen Ausleuchtung des Möglichkeitsraumes, sodass der skizzierte Einwand hierdurch nicht entkräftet wird. Inwiefern partielle Sensitivitätsanalysen dennoch einen Betrag zur Stärkung von Möglichkeitsaussagen als Entscheidungsgrundlage beitragen können, ist eine offene und dringliche Frage, wobei hierbei insbesondere zu klären wäre, ob es wenigstens methodisch gesichert möglich ist, die relevanten Möglichkeiten zu identifizieren. Für die vorliegende Untersuchung muss jedoch geschlossen werden, dass in der derzeitigen Praxis der energieprognostischen Politikberatung nur selektive Möglichkeitsaussagen zur Verfügung stehen, von denen unklar ist, ob sie die relevanten Möglichkeiten abdecken. Es stellt sich deshalb die Frage, auf welche Weise und nach welchen Kriterien dann die in der Entscheidung zu beachtenden Möglichkeiten identifiziert werden können und wie der Entscheidungsprozess, der hierauf aufbaut, zu gestalten wäre.

9

Dabei stellt die unzureichende Dokumentation der durchgeführten Sensitivitätsanalysen ein eigenes Problem dar. In persönlichen Gesprächen mit Energiemodellierern wurde deutlich, dass in der Praxis sehr viel mehr Sensititivitätsanalysen durchgeführt werden, als am Ende in einem Gutachten dokumentiert werden.

214 | M ODELLIERTE Z UKUNFT

Dies stellt auch eine aktuelle Frage der wissenschaftsphilosophischen Diskussion dar. Hansson (2011) schlägt beispielsweise einen fünfstufigen Prozess zur Bewertung von possibilistischen Argumenten vor. Genauer gesagt schlägt er diesen für „mere possibility arguments“ vor, die er wie folgt definiert: „A mere possibility argument is one in which a conclusion is drawn from the mere possibility that a course of action may lead to certain consequences.“ (ebd.: 140)10 Dabei hat er Entscheidungssituationen vor Augen, mit denen moderne Gesellschaften konfrontiert sind, wenn über die Einführung neuer und damit hinsichtlich ihrer Folgen unbekannter Technologien entschieden werden muss. Hansson geht davon aus, dass es nicht möglich ist, in solchen Situationen vollständige Listen aller möglichen Folgen zu erstellen (ebd.: 141). Er beansprucht aber, dass mit seinem Prozess immerhin ein rationaler Diskurs in solchen Situationen ermöglicht wird, indem dieser einen Rahmen für „besser informierte intuitive Urteile“ bietet (ebd.: 148). Im ersten Schritt seines Vorgehens soll eine Inventarisierung der diskutierten Argumente erfolgen. Dabei soll der gegebenenfalls existierende Bias einer Debatte bezüglich der Beachtung bestimmter Möglichkeiten reduziert werden, indem eine Balance von positiven und negativen Argumenten – gemeint sind hier vermutlich Argumente über positive und negative Folgen der Einführung neuer Technologien – hergestellt wird (ebd.: 141). Wie dies genau geschehen soll, bleibt im Vorschlag allerdings unklar. Nachdem im zweiten Schritt die verbleibenden Argumente wissenschaftlich evaluiert und dabei insbesondere präzisiert oder widerlegt werden, sollen im dritten Schritt „Symmetrietests“ durchgeführt werden (ebd.: 142 ff.). Hierbei soll untersucht werden, ob manche der verbleibenden Argumente sich gegenseitig ausschließen. Dies kann demnach zum einen der Fall sein, wenn zwei Argumente identifiziert werden, die die Möglichkeit gegenteiliger Effekte (also positive auf der einen und negative auf der anderen Seite) begründen.11 Ist dies der Fall, könne das Argument zurückgewiesen wer-

10 Streng genommen diskutiert Hansson unter dem Begriff der „mere possibility arguments“ konditionale possibilistische Prognosen, die im Antezedens eine Handlung – bei ihm die Einführung einer Technologie – aufweisen. Dies geht insbesondere aus Hansson 2004 hervor. Seine Überlegungen scheinen aber auf kategorische Möglichkeitsaussagen übertragbar zu sein. 11 Hansson nennt noch ein zweites Kriterium (2011.: 143, Zeile 13). Demnach ist es bei dieser Variante des Symmetrietests für die Zurückweisung eines mere possibility arguments auch nötig, dass der Effekt, der im neuen Argument postuliert wird, im Vergleich zum Effekt des ursprünglichen Argumentes „gleiches oder höheres moralisches

R EFLEXION

DER

E RGEBNISSE

| 215

den. Zum anderen ist es laut Hansson auch möglich, ein Argument zurückzuweisen, wenn gezeigt wird, dass der in ihm postulierte Effekt einer bestimmten Handlung auch dann eintreten kann, wenn diese unterlassen wird. Jeweils ist jedoch nicht ganz klar, was Hansson mit der Zurückweisung eines Argumentes meint. Mindestens scheint dies zu bedeuten, dass das Argument aus der weiteren Betrachtung ausgeschlossen wird. Im vierten Schritt schließt sich in seinem Vorschlag die Wertung der Argumente an, bevor im letzten Schritt eine „hypothetische Retrospektion“ dazu dienen soll, die Abwägung der unterschiedlichen, nun verbleibenden Handlungsoptionen zu unterstützen. In Summe weist Hanssons Vorschlag zwar in eine Richtung, die es verdient, weiter untersucht zu werden. Denn wenn in bestimmten Situation nur selektive Möglichkeiten vorliegen, oder nur solche bestimmt werden können, bedarf es in der Tat eines Verfahrens, dass einen fairen Diskurs auf dieser Grundlage ermöglicht – und genau dies scheint das Kernanliegen Hanssons zu sein. Sein eigentlicher Vorschlag weist jedoch einige Schwächen auf. Als besonders kritisch erscheinen hier zwei Punkte: Erstens wird in dem Verfahren nicht das Problem adressiert, dass in einem Diskurs unter Umständen relevante Möglichkeiten noch gar nicht genannt wurden. Vielmehr setzt das Verfahren beim Status Quo eines Diskurses an, ohne einen Vorschlag dafür zu machen, wie nach neuen relevanten Möglichkeiten gefahndet werden kann – oder wie zumindest in irgendeiner Form die Gefahr für solche Überraschungen abgeschätzt werden könnte (vgl. hierzu auch Betz 2010: 101 ff.). Zweitens leuchtet nicht ohne weiteres ein, dass die Zurückweisung von Argumenten durch die Symmetrietests gerechtfertigt ist. Denn sind beide Argumente eines solchen Symmetriepaares gleichermaßen verifizierte Möglichkeiten, sollten sie auch beide Bestandteile des Diskurses bzw. Teil der Entscheidungsgrundlage sein. Welche anderen Gründe den Ausschluss rechtfertigen wird im Vorschlag nicht recht klar. Wie hier beispielhaft deutlich wird, besteht also weiterer Forschungsbedarf bezüglich der Entwicklung adäquater Verfahren für den Umgang mit selektiven Möglichkeiten.

Gewicht“ aufweist. Zum einen ist jedoch der Unterschied zum ersten Kriterium unklar, denn auch hier scheint die Unterscheidung positiver von negativen Effekten ein moralisches Urteil zu implizieren. Zum anderen ist in der Formulierung Hanssons nicht klar, auf welches Argument er sich bezieht, wenn er über das potentiell höhere moralische Gewicht eines der beiden Argumente spricht.

216 | M ODELLIERTE Z UKUNFT

7.7 E FFEKTE

ISOLIEREN



EINE

H ERAUSFORDERUNG

Wie in Abschnitt 6.3.2 gezeigt wurde, lassen die Schilderungen von sechs der sieben Interviewten erkennen, dass diese ein zweites Argument in ihren Gutachten vorbringen. Dieses wurde in unterschiedlichen Varianten als Isolation von Effekten (IE) rekonstruiert. Es hat sich gezeigt, dass es sich hierbei neben dem Argument der Gegenüberstellung possibilistischer Prognosen (GPP) um ein eigenständiges Argument handelt, da beide Argumente unterschiedliche Prämissen und Konklusionen aufweisen. Während im Argument GPP jeder einzelne Modelllauf verwendet wird, um je eine einzelne mögliche Entwicklung zu verifizieren und die Konklusion lediglich in der Konjunktion dieser Möglichkeiten besteht, so wird im Argument IE im Kern ein Vergleich zweier Rechenläufe durchgeführt. Auch die Interviewten selbst weisen zum Teil mit großer Deutlichkeit auf die Unterschiedlichkeit beider Vorgehensweisen hin. Beide Vorgehensweisen wurden als Formen von Szenarioanalysen beschrieben, obwohl für das Argument IE mindestens unklar ist, ob hier überhaupt possibilistische Prognosen getroffen werden – worauf an späterer Stelle noch einmal eingegangen wird. Dieser Befund ist an sich bereits ein überraschendes Ergebnis, denn die Untersuchung startete mit der Annahme, dass unter einer Szenarioanalyse nur die Bestimmung möglicher Entwicklungen verstanden wird (vgl. Abschnitt 4.3.3). Auch wenn der Ansatz der Untersuchung keine Aussagen über die Repräsentativität der Ergebnisse für die Community der Energieprognostik zulässt, ist die Präsenz des Argumentes IE in den Schilderungen der Interviewten überraschend. Nur drei der sieben Interviewten schildern eine Argumentation im Sinne GPP, während alle bis auf einen ein Vorgehen schildern, das als Argument IE rekonstruiert werden konnte. Gleichzeitig handelt es sich beim Argument IE um das komplexere Argument der beiden. Dementsprechend stellte auch seine Rekonstruktion eine größere Herausforderung dar, was sich darin niederschlägt, dass vier unterschiedliche Varianten rekonstruiert wurden. Im Kern sind mit dem Argument drei Herausforderungen verbunden. Diese stellen eine Herausforderung für die Rekonstruktion und Analyse dieses Argumentes dar und betreffen gleichzeitig kritische Punkte für denjenigen, der ein solches Argument vorbringen möchte. Im Folgenden werden diese drei Aspekte diskutiert. Erstens ist dies der Status des Referenzlaufes, zweitens die genaue Rekonstruktion bzw. Formulierung der Konklusion und, aufbauend auf den ersten beiden Aspekten, drittens die Rekonstruktion der zusätzlichen Prämissen.

R EFLEXION

DER

E RGEBNISSE

| 217

Wie bereits während der Rekonstruktion der Varianten deutlich wurde, stellt der epistemische Status, der dem Referenzlauf zugewiesen wird, einen ersten kritischen Punkt im Argument IE dar. Diese Festlegung steht in einem Spannungsverhältnis zwischen dem Ziel, eine möglichst aussagekräftige Konklusion begründen zu wollen, und andererseits dafür auf schwer begründbare Prämissen angewiesen zu sein. Die rekonstruierten Varianten beschreiben unterschiedliche Formen, mit diesem Spannungsverhältnis umzugehen. Am einen Ende dieses Spektrums steht die Variante, in der die numerischen Annahmen des Referenzlaufes deterministisch prognostiziert werden (P18). Diese Prämisse ist grundsätzlich schwer zu begründen, hat aber den Vorzug, dass die Konklusion HK3 damit unabhängig von den numerischen Annahmen ak des Referenzlaufes formuliert werden kann. Dies stellt damit die stärkste und aussagekräftigste Konklusion der vier Varianten dar, denn mit ihr wird ausgedrückt, dass eine bestimmte Maßnahme mit Sicherheit den berechneten Effekt hat. Wie schwierig diese deterministische Prognose zu begründen ist, lässt sich jedoch nur im konkreten Fall beurteilen. Eine mögliche Begründungsstrategie, die auch in der Beschreibung Hans Wagenfurths anklingt, besteht darin, die numerischen Werte dieser Größen für zukünftige Zeitpunkte durch Extrapolation der vergangenen Entwicklung zu generieren.12 Kann für diese Größen eine Trägheit angenommen werden, so erscheint es zumindest für die nahe Zukunft denkbar, dass diese durch Extrapolation deterministisch prognostiziert werden können. Ob dies für die Studien von Hans Wagenfurth und Klaus Einbaum gegeben ist oder auch andere Gründe für die Möglichkeit der deterministischen Prognose vorliegen, konnte in der vorliegenden Arbeit nicht überprüft werden. Die Überlegungen zeigen jedoch, dass die Möglichkeit nicht grundsätzlich unplausibel ist, und im Einzelfall geprüft werden muss, für welche Größen in der Energieprognostik deterministische Prognosen möglich sind. Eine Möglichkeit, auf diese anspruchsvolle Prämisse zu verzichten, wurde als letztes rekonstruiert und besteht darin, nur eine possibilistische Prognose für den Referenzlauf zu treffen. Für diese Variante ist zu beachten, dass sie nicht explizit von den Interviewten beschrieben wurde. Dennoch stellt dies eine wichtige Option dar, epistemische Unsicherheiten über die Annahmen des Referenzlaufes auszudrücken, wenngleich dadurch die Konklusion deutlich geschwächt wird, da sie nur noch die Möglichkeit eines bestimmten Effektes ausdrückt. In weiteren Untersuchungen sollte geklärt werden, ob Energiemodellierer tatsächlich eine solch schwache Aussage treffen wollen.

12 Vgl. insbesondere das Zitat in Fußnote 58.

218 | M ODELLIERTE Z UKUNFT

Die drastischste Form, mit dieser Unsicherheit umzugehen, besteht in der Variante Isolation von Effekten mit konditionalisiertem Referenzlauf. Hier wird überhaupt keine Aussage über den Status des Referenzlaufes getroffen; er wird vielmehr als Antezedensbedingung in die Konklusion aufgenommen (HK4). Wie in Abschnitt 7.5 geschildert, ist diese Strategie jedoch ambivalent, da damit die Konklusion allein keine Auskunft mehr gibt, ob mit dem berechneten Effekt zu rechnen ist. Während in diesem Argument also auf eine kritische Annahme verzichtet werden kann, ist es auf der anderen Seite fraglich, ob die Konklusion hilfreich für den Auftraggeber ist. Einen Sonderfall stellt die von Matthias Imgrund und Simon Müller beschriebene Variante Isolation von Effekten nur über den relativen Unterschied dar, in der von vornherein nur die Differenz zwischen den beiden betrachteten Läufen interpretiert wird. Zwar gelingt es damit, eine Konklusion (HK5) zu formulieren, die unabhängig von den Annahmen des Referenzlaufes ist, aber es ist nicht offensichtlich, ob die hierfür benötigte implizite Prämisse P25 wahr ist. Denn in dieser muss unterstellt werden, dass der Effekt, also der Betrag der Differenz der Rechenläufe, unabhängig vom absoluten Niveau ist, von dem aus eine bestimmte Maßnahme ergriffen wird. Damit wird ein linearer Zusammenhang zwischen Maßnahme und Effekt unterstellt. Es erscheint nicht offensichtlich, dass dies für Maßnahmen, die typischerweise in der Energieprognostik untersucht werden, gegeben ist, zumal der Effekt in der Regel durch die Veränderung mehrerer Größen beschrieben wird. Auch hier verweisen die Ergebnisse jedoch vor allem auf weiteren Forschungsbedarf. Wie in Abschnitt 6.3.2 bereits beleuchtet, sollte der Umstand besonders beachtet werden, dass es gerade die beiden Allgemeinen Gleichgewichtsmodelle im Sample sind, mit denen diese Variante des Argumentes IE begründet wird. Die zweite Herausforderung, die mit dem Argument IE verbunden ist, betrifft die Konklusion dieses Argumentes. Außer in der Variante des Argumentes, in der Effekte nur über den relativen Unterschied isoliert werden sollen, wird nämlich das Ereignis H (also etwa die zu untersuchende politische Maßnahme) jeweils gerade so definiert, dass es einer Veränderung der Werte der Größen V von bestimmten Werten av im Referenzlauf auf bestimmte Werte av* im Alternativlauf entspricht. Nur über genau dieses Ereignis wird überhaupt eine Aussage getroffen. Ereignisse, die von einer anderen Entwicklung im Referenzlauf ausgehen oder die durch auch nur leicht andere Werte im Alternativlauf beschrieben werden, sind von der Aussage nicht betroffen. Dabei besteht die Möglichkeit, dass es sich hierbei um Festlegungen handelt, für die die Modelle sensitiv sind. Leicht veränderte Werte könnten also deutlich andere Effekte aufweisen.

R EFLEXION

DER

E RGEBNISSE

| 219

Einerseits spiegelt sich damit erneut die zuvor beschriebene Herausforderung bezüglich der Festlegung der numerischen Annahmen im Referenzlauf wider. Zum anderen stellt dies aber eine zusätzliche Einschränkung der Nützlichkeit des Argumentes dar. Denn soll der Effekt einer politischen Maßnahme bestimmt werden, so setzt das Argument voraus, dass die exakte numerische Umsetzung bekannt ist. Es erscheint jedoch fraglich, dass für eine bestimmte, in der Regel vom Auftraggeber formulierte Maßnahme eine eindeutige Repräsentation im Modell vorliegen kann oder überhaupt sinnvoll erscheint. Einerseits beschreibt Wagenfurth deutlich, dass es sich um einen Übersetzungsschritt handelt, wenn die Formulierung des Auftraggebers in numerische Annahmen für das Modell übertragen wird. Zumindest implizit wird deutlich, dass es hierbei Interpretationsspielräume gibt (vgl. Abschnitt 6.1.2). Andererseits scheint es auch mit Blick auf den Auftraggeber nicht plausibel zu sein, dass sich sein Erkenntnisinteresse auf eine exakte numerische Festlegung beschränkt. Will er beispielsweise die Effekte einer Steuererhöhung um zwei Prozent ermitteln lassen, so schließt dieses Erkenntnisinteresse vermutlich eine gewisse Streuung um diesen Wert herum ein. Beide zuvor diskutierten Herausforderungen scheinen im Prinzip durch Sensitivitätsanalysen behebbar zu sein. Diese müssten einerseits die Annahmen im Referenzlauf im Spektrum möglicher Werte variieren, um die epistemischen Unsicherheiten, die hierüber bestehen, zu erfassen – womit vereinfacht gesagt also mehrere Argumente der Variante Isolation von Effekten mit possibilistischem Referenzlauf formuliert würden. Andererseits müssten auch die Annahmen im Alternativlauf variiert werden, um ähnliche Ereignisse bzw. Maßnahmen zu erfassen. Die dritte Herausforderung bei der Formulierung des Argumentes IE besteht in der Formulierung und Begründung der zusätzlichen Prämissen, die jeweils den Schluss von einem zwischen zwei Modellrechnungen beobachteten Unterschied der numerischen Ergebnisse auf einen realen Effekt erlaubt. In den unterschiedlichen Varianten sind dies die Prämissen P19, P22, P25 und P29. Es stellt sich jeweils die Frage, ob bzw. unter welchen weiteren Bedingungen diese Prämissen wahr sein können. Eine Strategie für weitere Untersuchungen wäre diesbezüglich zu überprüfen, ob diese Prämissen auf allgemeine Prinzipen zurückgeführt werden können. Außerdem ist zu beachten, dass sich die Berücksichtigung von Sensitivitätsanalysen für das Argument IE wiederum an dieser Stelle niederschlagen würde.13

13 So könnte eine Reformulierung sinngemäß lauten: Wenn gilt, dass die beiden Modellläufe einen bestimmten Unterschied in den numerischen Ergebnissen aufweisen und

220 | M ODELLIERTE Z UKUNFT

Zusammenfassend ist damit festzustellen, dass es sich beim Argument IE um ein anspruchsvolles und, auch was seine Rekonstruktion angeht, herausforderndes Argument handelt. Die grundlegende Idee hinter diesem Argument sowie kritische Aspekte konnten zuvor aufgezeigt werden. Eine Reihe von weiterführenden Fragen müssen in weiteren Untersuchungen geklärt werden.

7.8 I N

DER G RAUZONE ? – Z UM EPISTEMISCHEN VON E NERGIEMODELLEN

S TATUS

In Abschnitt 6.4 wurden die Schilderungen der Interviewten hinsichtlich der Frage untersucht, wie diese ihre Modelle interpretieren. Dies erfolgte entlang der drei Kategorien der unrealistischen Annahmen, der Prognosefähigkeit, sowie der empirischen Fundiertheit der Modelle. Im Folgenden gilt es, die epistemologische Bedeutung dieser Ergebnisse zu klären. Dabei ist insbesondere zu untersuchen, welche Implikationen sich hieraus für das bei der Rekonstruktion der Argumente zugrunde gelegte Kriterium der empirischen Adäquatheit ergeben. Wenden wir uns zunächst der Frage zu, in welcher grundsätzlichen Beziehung unrealistische Annahmen zum Kriterium der empirischen Adäquatheit stehen. Wie in Abschnitt 3.5.2 erläutert wurde, zielt empirische Adäquatheit auf die Übereinstimmung eines Modells mit empirisch beobachtbaren Phänomenen ab. Damit die im genannten Abschnitt explizierte notwendige Bedingung empirischer Adäquatheit für ein Modell erfüllt ist, muss gewährleistet sein, dass alle relevanten beobachtbaren Phänomene mit den mathematisch und programmiertechnisch festgelegten funktionalen Zusammenhängen des Modells konsistent sind. Dieser Nachweis erfolgt, indem die Konsistenz der Rechenergebnisse mit Beobachtungsdaten überprüft wird, sowie indem zusätzlich angenommen wird, dass das so validierte Modell auch mit zukünftigen Phänomenen konsistent ist. Die Frage des Realismus von Modellen stellt ein Thema innerhalb einer umfangreichen und komplexen Diskussion in der Wissenschaftstheorie über die grundsätzliche Frage dar, ob und in welcher Weise die Wissenschaft in der Lage ist, Wissen über die Welt zu generieren (Chakravartty 2011). Wie Frigg und Hartmann (2012) präzisieren, wird diese Frage in dieser übergeordneten Debatte zwar bisher weniger anhand von Modellen, sondern vor allem im Kontext wissenschaftlicher Theorien diskutiert, zunehmend geraten jedoch auch Modelle und damit ihre Annahmen als eigenständiger Gegenstand ins Blickfeld. Ohne

gilt, dass dieser Unterschied in gewissen Grenzen unabhängig von den numerischen Annahmen ist, so gilt auch: Dem numerischen Unterschied entspricht ein realer Effekt.

R EFLEXION

DER

E RGEBNISSE

| 221

hier auf die Details dieser Debatte eingehen zu können, lässt sich vereinfachend feststellen, dass es hierbei im Kern um die Frage geht, ob Theorien und Modelle wahr oder falsch sein können (Chakravartty 2011). Die Frage, ob ein Modell oder zumindest eine seiner Annahmen realistisch oder unrealistisch ist, zielt vor diesem Hintergrund also darauf ab, ob eine Annahme wahr oder falsch ist, wenn diese als eine Aussage über die Realität aufgefasst wird. Dabei können diese Aussagen komplex sein und den Charakter von „Erzählungen“ annehmen, die dem Modell zugewiesen werden. Wird in einem Modell etwa die Annahme getroffen, dass alle ökonomischen Akteure über perfekte Voraussicht verfügen, so ist diese Annahme auf die Realität bezogen falsch – weil niemand in die Zukunft schauen kann. Entscheidend ist nun aber, dass es für die Frage der empirischen Adäquatheit irrelevant ist, ob die Annahmen wahr oder falsch sind. Solange die mathematisch und programmiertechnisch festgelegten Zusammenhänge, die sie bezeichnen – mit anderen Worten das Modell – mit den relevanten empirisch beobachtbaren Phänomenen übereinstimmen, ist das Modell empirisch adäquat. Die „Erzählungen“, mit denen diese mathematisch und programmiertechnisch festgelegten Zusammenhänge bezeichnet werden, können dabei im Prinzip beliebig gewählt werden. Es besteht also kein direkter Zusammenhang zwischen dem Realismus und der empirischen Adäquatheit eines Modells. Hinsichtlich der empirischen Ergebnisse der vorliegenden Arbeit ist damit auch klar, dass aus der Tatsache, dass manche Modellierer beschreiben, dass ihre Modelle unrealistische Annahmen enthalten, weder folgt, dass sie ihre Modelle de facto für nicht empirisch adäquat halten (dies ohnehin nicht), noch dass sie dies aus theoretischer Sicht tun sollten. Dies bedeutet außerdem, dass – anders als Klaus Einbaum und Jochen Altmann argumentieren – unrealistische Annahmen keinen direkten Grund dafür darstellen, mit einem Modell keine deterministischen Prognosen begründen zu können. Dennoch wäre es zu kurz gegriffen, wenn die Schilderungen der Interviewten hinsichtlich der unrealistischen Annahmen bei der Klärung des epistemischen Status ihrer Modelle vollkommen ignoriert würden. Denn selbst wenn aus theoretischer Sicht kein direkter Zusammenhang zwischen Realismus und empirischer Adäquatheit besteht, so scheint sich dennoch in diesen Äußerungen die Intuition der Modellierer zu verbergen, dass die als unrealistisch bezeichneten Elemente ihrer Modelle gerade solche sind, die auch eine Ursache dafür sind, dass ein Modell nicht empirisch adäquat ist. Dies baut auf der Diagnose auf, dass diejenigen Interviewten, die auf unrealistische Annahmen in ihren Modellen hinweisen, dennoch nie vollständig den Anspruch aufgeben, dass ihre Modelle in irgendeiner Weise reale Phänomene beschreiben. Jochen Altmanns Schilderun-

222 | M ODELLIERTE Z UKUNFT

gen lassen sich beispielsweise so verstehen, dass er sein Modell hinsichtlich der technisch-physikalischen Eigenschaften des Energiesystems für empirisch adäquat hält, nicht aber in ökonomischer Hinsicht (vgl. Abschnitt 6.4). Wollte man also in anderen Worten ein nicht empirisch adäquates Modell in ein empirisch adäquates verändern, so scheinen unrealistische Annahmen auf mathematischprogrammiertechnische Eigenschaften des Modells zu verweisen, deren Veränderung als erstes geprüft werden sollte. Diese Überlegungen könnten in einer Folgeuntersuchung weiter verfolgt werden. Wenden wir uns nun mit der Prognosefähigkeit der Modelle dem zweiten Aspekt zu, der in der empirischen Erhebung bezüglich der Interpretation der Modelle auffällig war. Auch wenn dieser zuvor bereits gestreift wurde, sei er nun noch einmal eigenständig daraufhin untersucht, ob sich hieraus Implikationen für die empirische Adäquatheit der Modelle ergeben. Es zeigt sich, dass hier in der Tat eine Verbindung besteht, wenn auch nur eine indirekte. Zunächst sind zwei Fälle zu unterscheiden. Diejenigen Modellierer, die mit ihren Modellen kategorische, deterministische Prognosen begründen – also Klaus Einbaum und Hans Wagenfurth – sind notwendigerweise darauf angewiesen, dass ihre Modelle empirisch adäquat sind, denn andernfalls würde diese Konklusion nicht folgen. Hierauf wurde bereits in Abschnitt 6.2.2 hingewiesen. Aus dieser theoretischen Überlegung allein folgt zwar noch nicht, dass Klaus Einbaum und Hans Wagenfurth ihre Modelle auch tatsächlich als empirisch adäquat ansehen, und ohnehin lässt sich diese Aussage im Rahmen der vorliegenden Arbeit letztendlich nicht treffen.14 Aber wie sich in Kürze zeigen wird, finden sich in ihren Schilderungen weitere Hinweise, die dies nahe legen. Der zweite Fall wird durch all diejenigen Modellierer gebildet, die sich gerade nicht im Stande sehen, mit ihren Modellen kategorische, deterministische Prognosen zu begründen – also alle Interviewten außer Klaus Einbaum und Hans Wagenfurth im Falle kurzfristiger Prognosen. Jedoch ist der Umkehrschluss, dass diese Modellierer ihre Modelle als nicht empirisch adäquat ansehen, nicht möglich. Denn in diesen Fällen könnte der Grund dafür, dass sie glauben, keine deterministischen Prognosen begründen können, auch darin bestehen, dass über die exogenen Größen nur possibilistisches Wissen zur Verfügung steht, wie das Argument KAPP vor Augen führt. In der Tat legen die empirischen Ergebnisse

14 Die Aussage, dass ein Interviewter sein Modell für empirisch adäquat hält, setzt voraus, dass ihm dieses theoretische Konzept vertraut ist und er explizit zu ihm im Interview Stellung genommen hat. Dies ist aufgrund der explorativen Vorgehensweise in der vorliegenden Arbeit jedoch nicht geschehen. Wie zuvor beschrieben wurde, können hier also lediglich empirisch gut begründete Hypothesen formuliert werden.

R EFLEXION

DER

E RGEBNISSE

| 223

die Vermutung nahe, dass dies auf Anton Gerhard zutrifft. Seine Schilderungen deuten darauf hin, dass die Konsistenz seines statischen Modells mit empirischen Beobachtungen relativ einfach herzustellen ist, weshalb wir vermuten können, dass er dieses Modell – im Hinblick auf sein spezifisches Zielsystem – als empirisch adäquat ansieht. Gleichzeitig sieht er sich jedoch explizit nicht in der Lage, deterministische Prognosen mit ihm zu begründen, und betont vielmehr die possibilistische Natur der Annahmen für die exogenen Variablen (vgl. Abschnitt 6.2.1 und 6.4.2). Wie steht es aber mit direkten Hinweisen dazu, ob die Interviewten ihre Modelle als empirisch adäquat ansehen? Hier finden sich in der Tat in einigen Interviews Hinweise – und dies führt uns zur dritten auffälligen Beobachtung, nämlich den expliziten Schilderungen der empirischen Fundiertheit der jeweiligen Modelle. Es sei zunächst noch einmal in Erinnerung gerufen, was das Kriterium der empirischen Adäquatheit ausdrückt (vgl. Abschnitt 3.5.2): Ein Modell ist empirisch adäquat, wenn es mit allen relevanten in der Vergangenheit und in der Zukunft beobachtbaren Phänomenen konsistent ist. Hier drückt sich gerade aus, dass ein Modellierer zwei Dinge sicherstellen bzw. annehmen muss: Er muss sicherstellen, dass das Modell mit den tatsächlichen Beobachtungen übereinstimmt, also dessen Konsistenz mit den relevanten Beobachtungsdaten nachweisen. Und er muss zusätzlich annehmen, dass die so validierten Modellzusammenhänge auch zukünftig (im Zeitraum seiner Betrachtungen) gelten, wobei er dies nicht „einfach so“ annehmen kann, sondern gute Gründe hierfür haben muss. Explizit finden sich in den Interviews mit fünf Modellierern Verweise auf die empirische Fundiertheit der Modelle. Deutlich schildert Hans Wagenfurth, dass er es gerade als zentrales Merkmal seines Modells ansieht, durch die ökonometrische Schätzung der Parameter sicherstellen zu können, dass die historische Entwicklung des Zielsystems mit dem Modell reproduziert werden kann, das Modell also konsistent mit den relevanten Beobachtungen ist. Daneben gibt er an, dass das so bestimmte Modell auch in der Zukunft – zumindest in der nahen – mit den realen Wirkungszusammenhängen konsistent ist. Er trifft hierfür explizit eine Kontinuitätsannahme, indem er angibt, dass die „Welt nicht abschneidet“ (vgl. Abschnitt 6.4). Dies kann so interpretiert werden, dass Wagenfurth begründet davon ausgeht, dass sein Modell auch mit zukünftigen Beobachtungen konsistent ist. Damit können wir davon ausgehen, dass Hans Wagenfurth sein Modell für kurzfristige Zeithorizonte als empirisch adäquat ansieht. Ähnlich argumentiert Klaus Einbaum mit Verweis auf die Übereinstimmung seines Modells mit den realen Mechanismen des Elektrizitätsmarktes, die er über

224 | M ODELLIERTE Z UKUNFT

die Konsistenz der Modellergebnisse mit beobachteten Strompreisen empirisch nachgewiesen sieht (vgl. Abschnitt 6.4). Zwar formuliert er nicht wie Hans Wagenfurth explizit eine Kontinuitätsannahme, aber wir dürfen annehmen, dass er eine solche implizit trifft.15 Auch in seinem Fall können wir also davon ausgehen, dass er sein Modell als empirisch adäquat ansieht. Während die Überlegungen zu Beginn dieses Abschnitts zunächst nur zeigten, dass Hans Wagenfurth und Klaus Einbaum aus theoretischer Sicht darauf angewiesen sind, empirisch adäquate Modelle zu verwenden, weil sie deterministische Prognosen begründen wollen, so deuten ihre Schilderungen hinsichtlich der empirischen Fundiertheit der Modelle nun unabhängig davon darauf hin, dass sie ihren Modellen auch die hierfür notwendigen Eigenschaften zuschreiben. Die Beschreibungen einiger Interviewten legen gerade eine gegenteilige Interpretation nahe, derzufolge nicht gewährleistet ist, dass die Rechenergebnisse ihrer Modelle mit den relevanten empirischen Beobachtungen übereinstimmen. Am deutlichsten ist hier Jochen Altmann, der explizit angibt, dass es mit seinem Optimierungsmodell nicht möglich ist, die vergangene Entwicklung des Zielsystems zu reproduzieren. Interviewte, die zumindest Zweifel hieran erkennen lassen, sind Matthias Imgrund und Simon Müller. Simon Müller betont beispielsweise den theoretischen Charakter seines Modells und weist außerdem darauf hin, dass gerade die angenommenen Elastizitäten Allgemeiner Gleichgewichtsmodelle von fragwürdigem empirischen Gehalt sind. Es zeigt sich, dass alle Interviewten außer Anton Gerhard sowie außer Klaus Einbaum und Hans Wagenfurth im Fall kurzfristiger Betrachtungen den epistemischen Geltungsanspruch ihrer Modelle in der einen oder anderen Weise einschränken. Auch wenn die vorherige Analyse gezeigt hat, dass die Schilderungen nicht in jedem Fall einen Schluss auf die empirische Adäquatheit der Modelle zulassen, so können diese Einschränkungen dennoch als Hinweis aufgefasst werden, dass die Prämisse, die in den Argumenten die Interpretation des jeweiligen Modells darstellt, ein kritischer Punkt ist. Anders gesagt zeigt die vorliegende Untersuchung, dass sich Energiemodelle vielfach in einem epistemischen Graubereich zwischen empirisch adäquater Repräsentation und rein theoretischem Konstrukt bewegen. Denn selbst Simon

15 Einbaum erläutert, dass der Handel an der EEX nach einem bestimmten „Algorithmus“ funktioniert, der mit dem Modell nachgebildet wird. Solange keine Änderungen an diesem „Algorithmus“ und damit an den Regeln, nach denen der Börsenhandel strukturiert ist, vorgenommen werden, gelten also die Wirkungszusammenhänge im Modell auch zukünftig (vgl. Fußnote 53).

R EFLEXION

DER

E RGEBNISSE

| 225

Müller, der am deutlichsten den theoretischen Charakter seines Allgemeinen Gleichgewichtsmodells betont, lässt gleichzeitig erkennen, dass sein Modell weiterhin reale Phänomene repräsentieren soll. Die vorliegende Untersuchung erreicht damit einen kritischen Punkt. Denn wenn es mit einem Energiemodell nicht möglich ist, die relevanten empirischen Beobachtungen zu reproduzieren, so kann dieses Modell auch nicht empirisch adäquat sein. Genauer gesagt ist das in Abschnitt 3.5.2 formulierte Kriterium nicht erfüllt. Geht dieses als Prämisse in ein Argument ein, so folgt damit die Konklusion nicht. Keines der zuvor rekonstruierten Argumente würde dann die jeweilige Konklusion stützen. Damit wird deutlich, dass die entsprechenden Prämissen in den rekonstruierten Argumenten in den Fällen, in denen ein Modell nicht empirisch adäquat ist, revisionsbedürftig sind. Um eine solche Revision durchführen zu können, werden alternative Interpretationen der Energiemodelle benötigt, die es erlauben, die Prämissen, die auf empirischer Adäquatheit der Modelle beruhen, durch schwächere Prämissen zu ersetzen. Gleichzeitig würde damit der beschriebene Graubereich näher charakterisiert werden. Im Rahmen der vorliegenden Untersuchung ist es jedoch nicht möglich, diese alternativen Interpretationen zu erarbeiten. Dies hat zwei Gründe. Der erste besteht darin, dass dies über die Zielsetzung und den explorativen Ansatz der vorliegenden Untersuchung hinausgeht. Ziel der Untersuchung ist es ja gerade, kritische Aspekte wie diesen überhaupt erst aufzuzeigen und für die nähere Untersuchung zu erschließen. Da die Interviews mit dieser Zielsetzung geführt wurden, sind ihre Schilderungen nicht präzise genug, um weitergehende differenzierte Rekonstruktionen der Interpretationen ihrer Modelle durchzuführen. Die Ergebnisse der Untersuchung stellen jedoch einen guten Ausgangspunkt für dieses weiterführende Vorhaben dar. So können die hier vorgelegten Rekonstruktionen nun in einem eher hypothesenprüfenden Ansatz überprüft und ausgearbeitet werden. Hierbei scheint es angezeigt zu sein, Modellierer und analytische Philosophen in einen engen Austausch zu bringen. Denn ähnlich wie Mäki (2004) für die Ökonomik insgesamt feststellt, scheint auch in der Energieprognostik ein Problem darin zu bestehen, dass Energiemodellierer zwar implizit eine differenzierte Vorstellung des epistemischen Status ihrer Modelle besitzen, häufig aber Schwierigkeiten dabei haben, diese präzise auszudrücken. Hierbei könnte der Philosophie eine wichtige unterstützende Rolle zukommen. Jedoch gibt es einen zweiten Grund, aus dem die Entwicklung alternativer Interpretationen für Energiemodelle den Rahmen der vorliegenden Untersuchung übersteigt, und dieser ist grundsätzlicherer Natur. Er besteht darin, dass von theoretischer Seite gegenwärtig nicht klar erkennbar ist, wie Interpretationen von

226 | M ODELLIERTE Z UKUNFT

Energiemodellen überhaupt aussehen könnten, wenn diese im Graubereich zwischen empirisch adäquater Repräsentation und rein theoretischem Konstrukt angesiedelt sind. Wie sich hier erneut zeigt, erreicht die vorliegende Untersuchung mit der Frage nach dem epistemischen Status von Energiemodellen die seit mehreren Dekaden geführte und nicht abgeschlossene Realismus-Debatte in der Wissenschaftstheorie, in der der epistemische Status wissenschaftlicher Theorien und Modelle einen zentralen Streitpunkt darstellt. Zwar gibt es bereits eine Reihe von Vorschlägen, wie insbesondere ökonomische Modelle zu interpretieren sind. Grüne-Yanoff (2009b) ordnet diese Vorschläge zwei Positionen zu: Die „Isolationisten“ betrachten demnach Modelle als ein Hilfsmittel, um einerseits kausale Faktoren oder andererseits sogenannte Kapazitäten der realen Welt zu isolieren, wobei die erste dieser beiden Varianten prominent von Uskali Mäki vertreten (vgl. Mäki 1992), und die zweite besonders von Nancy Cartwright vorgebracht wird (vgl. Cartwright 1989). Die Verfechter der zweiten Position, von Grüne-Yanoff als „Fiktionalisten“ bezeichnet, begreifen Modelle als fiktionale Parallelwelten, die zwar nicht wahr sein können, aber dennoch aufgrund von Plausibilitäts- oder Glaubwürdigkeitskriterien unter bestimmten Bedingungen einen Schluss auf die reale Welt erlauben. Ein prominenter Vertreter dieser Position ist Robert Sugden, der vorschlägt, ökonomische Modelle als „credible worlds“ zu verstehen (Sugden 2000 und 2009). Als dritte Position, die im Grunde gerade einen Rand des beschriebenen Graubereiches beschreibt, sei hier Daniel Hausmans Vorschlag der „conceptual exploration“ ergänzt, wonach ein wesentlicher Zweck ökonomischer Modelle darin zu sehen ist, mit ihnen die Eigenschaften theoretischer Konzepte zu untersuchen, jenseits ihres Bezuges zu realen Phänomenen (Hausman 1992). Eine vorläufige Sichtung dieser Vorschläge ergibt aber, dass diese nicht unmittelbar auf die hier untersuchte und rekonstruierte Praxis der Energiemodellierung anwendbar zu sein scheinen. Eine zentrale Herausforderung besteht darin, dass die Energiemodelle in allen hier untersuchten Fällen dazu eingesetzt werden, in irgendeiner Form prognostische Aussagen über reale Zielsysteme zu treffen, obwohl sie teilweise nur eine eingeschränkte empirische Fundiertheit aufweisen (und unrealistische Annahmen umfassen). Eine Strategie für weitere Untersuchungen wäre es, zu versuchen, genauer zu bestimmen, welche Bestandteile der Modelle nicht oder nur gering empirisch fundiert sind, und umgekehrt diejenigen Elemente zu identifizieren, die eine ausreichende empirische Fundiertheit aufweisen, um mit ihnen prognostische Aussagen zu begründen. Auf dieser Weise könnte es gelingen, differenzierter zu bestimmen, welche Aussagen überhaupt mit den Modellen begründet werden können – und damit der skizzierte Graubereich ausgeleuchtet werden. Dabei wäre zunächst zu klären, was hierbei unter ei-

R EFLEXION

DER

E RGEBNISSE

| 227

nem „Element“ eines Modells zu verstehen ist und wie seine skizzierte Isolierung konzeptionell zu rahmen wäre. Eine Idee wäre, an dieser Stelle auch zu prüfen, ob nicht zumindest im zuvor skizzierten korrelativen Sinne ein Zusammenhang zwischen empirischer Fundiertheit und unrealistischen Annahmen hergestellt werden kann. Zumindest auf den ersten Blick erscheint Sugdens Vorschlag der „credible worlds“ am ehesten aussichtsreich, denn er adressiert explizit die Herausforderung, trotz unrealistischer Annahmen mit einem Modell Aussagen über die Realität begründen zu wollen.16 Ein anderes denkbares Ergebnis dieser weitergehenden Forschung könnte jedoch auch sein, dass bestimmte Modelle schlicht nicht dazu verwendet werden können, Prognosen zu begründen – einschließlich der Verifikation possibilistischer Prognosen. Die gegenwärtige energieprognostische Praxis müsste dann diesbezüglich grundlegend überdacht werden. Dabei ist anzumerken, dass Modelle, die nicht empirisch adäquat sind, dennoch einen sinnvollen Beitrag zur wissenschaftlichen Befassung mit dem Energiesystem darstellen können. Betz (2010: 96 ff.) weist am Beispiel der Klimamodellierung darauf hin, dass solche Modelle unter Umständen dazu geeignet sein könnten, Hypothesen über Möglichkeiten aufzustellen, die bisher nicht bedacht wurden. Sie hätten damit weiterhin eine wichtige Funktion im Erkenntnisprozess.

16 Sugden schlägt vor, ökonomische Modelle als vom Modellierer konstruierte kontrafaktische Welten zu betrachten. Der Schluss von diesen Welten auf die reale Welt gelingt in seinem Konzept induktiv, und zwar dann, wenn die Modelle in bestimmter Art und Weise glaubwürdig („credible“) sind (Sugden 2009: 18).

8. Fazit und Ausblick

Den Anstoß zur vorliegenden Arbeit gab das irritierende Wesen von Energieszenarien: Die scheinbare Widersprüchlichkeit ihrer numerischen Präzision auf der einen und ihre vermeintliche Beliebigkeit auf der anderen Seite; ihr unklares Verhältnis zu ihren Verwandten, den Energieprognosen; ihre Hybridität, indem sie zwar das Produkt einer voraussetzungsreichen wissenschaftlichen Praxis darstellen, gleichzeitig aber außerhalb der Wissenschaft verständlich und instruktiv sein sollen; und schließlich der Umstand, dass sie in großer Zahl produziert werden und damit trotz all dieser vermeintlichen Ungereimtheiten de facto in höchstem Maße relevant für die politische Entscheidungsfindung und gesellschaftliche Orientierung bezüglich einer der drängendsten Fragen unserer Zeit zu sein scheinen. Ziel dieser Untersuchung war es, diese mehrdeutigen und widersprüchlich erscheinenden Gebilde für eine systematische Analyse zunächst einmal zugänglich zu machen, darauf aufbauend ein Deutungsangebot für sie zu erarbeiten und so schließlich ihr Verständnis zu ermöglichen. Die Untersuchung hat dieses Ziel erreicht. Der explorative Ansatz ermöglichte, dass die Untersuchung zunächst in großer Breite unterschiedliche Aspekte energieprognostischer Beratung erfassen konnte. Mit Hilfe der Argumentationsanalyse konnte auf dieser Grundlage ein systematisches Verständnis dessen erarbeitet werden, was mit energieprognostischen Gutachten nach Ansicht dieser Modellierer ausgedrückt werden soll. Die grundlegende Struktur der in den Gutachten transportierten Gebilde, bestehend aus Zukunftsaussagen, die mit einem Computermodell begründet werden, konnte auf diese Weise rekonstruiert werden. Die Prozessanalyse erlaubte gleichzeitig die Einordnung dieser Gebilde in den Kontext ihrer praktischen Erstellungsprozesse. Dabei wurde deutlich, dass es für ein Verständnis dessen, was in energieprognostischen Gutachten ausgesagt werden soll, und auch für die Frage, wie diese Gutachten zustande kommen, unumgänglich ist, das Modell mit in die Betrachtung einzubeziehen, so dass Mo-

230 | M ODELLIERTE Z UKUNFT

delle und Zukunftsaussagen – seien es Szenarien oder Prognosen – in der Untersuchung stets als Teile ein und desselben Komplexes untersucht wurden. Wo die zuvor skizzierten ursprünglichen Unschärfen und Widersprüchlichkeiten nicht geklärt werden konnten, wurden – dem Ziel des explorativen Vorgehens folgend – konkrete weiterführende Fragestellungen und Hypothesen entwickelt. Die zentralen Ergebnisse und weiteren Forschungsbedarfe werden im Folgenden zu drei Themenbereichen verdichtet dargestellt. Zukunftsaussagen als Entscheidungsgrundlage Ein Ausgangspunkt der Untersuchung war die vermeintliche Beliebigkeit energieprognostischer Studien, die sowohl die Bedingungen ihrer Erstellung als auch ihre Verwendbarkeit als Orientierungshilfe betraf. Die Untersuchung hat diesbezüglich zweierlei geleistet. Zunächst konnte gezeigt werden, dass – anders als das Argument Grunwalds (2011a) unterstellt – solche Studien eben nicht ohne weiteres miteinander vergleichbar sind, denn es werden in ihnen mindestens zwei unterschiedliche komplexe Argumente zum Ausdruck gebracht. Während im Argument GPP selektive Möglichkeiten beschrieben werden und mit dem Modell verifiziert werden sollen, zielt das Argument IE auf die Bestimmung des Effektes eines bestimmten realen Ereignisses ab, wobei in der Analyse offen blieb, ob hierbei überhaupt Möglichkeitsaussagen getroffen werden. In weiteren Untersuchungen ist also zu klären, inwiefern Studien beider Arten überhaupt miteinander vergleichbar sind. Bezogen auf Gutachten der erstgenannten Art ließ sich zweitens jedoch das Beliebigkeitsproblem präzisieren. Wenn nämlich tatsächlich nur selektive Möglichkeiten aus einem bestimmten Möglichkeitsraum präsentiert werden, so kann die Relevanz eines solchen Gutachtens immer mit dem Verweis auf weitere Möglichkeiten dieses Raums in Frage gestellt werden. Werden die Selektionskriterien für die gezeigten Möglichkeiten nicht angegeben, so erscheint die Selektion in der Tat beliebig. Und auch hinsichtlich der Orientierungsleistung taucht dann das Problem der Beliebigkeit auf, denn auf Grundlage aktueller Entscheidungstheorie ist durchaus nicht klar, wie selektive Möglichkeiten in rationale Entscheidungsbegründungen einfließen können. Daraus ergeben sich drei weiterführende Forschungsthemen: Einerseits gilt es zu untersuchen, wie auch komplexe Möglichkeitsräume systematisch untersucht werden können, so dass selektive Möglichkeitsaussagen durch stärkere Aussagen ersetzt werden können und damit ihre Relevanz als Entscheidungsgrundlage erhöht werden kann. Die etablierte Praxis der partiellen Sensitivitätsanalyse scheint hierfür einen fruchtbaren Ausgangspunkt darzustel-

F AZIT

UND

A USBLICK

| 231

len. Sollte sich dies jedoch nicht als gangbar erweisen, besteht zweitens dringender Bedarf, Konzepte für einen rationalen Umgang mit selektiven Möglichkeiten in der Entscheidungsbegründung zu entwickeln. Von entscheidender Bedeutung ist hierbei die Untersuchung der Kriterien, nach denen bestimmte Möglichkeiten ausgewählt werden. Schließlich erscheint es drittens angezeigt, die Seite der Rezeption und Verwendung von komplexen Zukunftsaussagen in Entscheidungsprozessen und auch im größeren gesellschaftlichen Diskurs systematisch zu untersuchen. Indem die vorliegende Untersuchung die Seite der Erstellung von Energieszenarien untersucht und hierbei bereits die Sicht der Modellierer auf die Interaktion mit dem Auftraggeber erfasst hat, stellen ihre Ergebnisse einen hervorragenden Ausgangspunkt für eine solche Untersuchung dar. Dabei scheint es besonders wichtig zu sein, theoretische Überlegungen und die empirische Erforschung des faktischen Umgangs mit Zukunftsaussagen miteinander zu kombinieren. Beispielsweise stellt sich die Frage, ob und wie Möglichkeitsaussagen auf Seite des Rezipienten transformiert werden, etwa in deterministische Aussagen. Diese Kombination aus theoretischem und empirischem Vorgehen verspricht, nicht nur ein Verständnis der etablierten Verwendung von Zukunftsaussagen zu ermöglichen, sondern auch die Erarbeitung von konkreten Hinweisen zur Gestaltung einer rationalen Verwendung zu erlauben. Die Interaktion in modellgestützten Beratungsprozessen Auf Grundlage der empirischen Erhebung konnten drei Typen der Erstellungsund damit auch der Beratungsprozesse in der Energieprognostik unterschieden werden. Der Typ sequenzielle Trennung beschreibt Prozesse, die dem Muster einer Frage-Antwort-Sequenz in der Weise folgen, dass eine außerwissenschaftliche Fragestellung des Auftraggebers vom Modellierer unter weitgehendem Ausschluss des Auftraggebers beantwortet wird. In den Beschreibungen der Interviewten wurden hierbei voraussetzungsreiche Modelle eingesetzt, was erklären kann, weshalb der Auftraggeber hier keinen direkten Zugriff auf das Modell hat. Insgesamt entsteht für diesen Typ das Bild einer asymmetrischen Beratungskonstellation. Dabei fungieren allem Anschein nach semiqualitative Rohformen der untersuchten zukünftigen Entwicklungen des Energiesystems („Storylines“) als Boundary Object für die Kooperation von Modellierer und Auftraggeber, wobei das Modell gerade die akteursspezifische Ausprägung dieses Boundary Objects auf Seiten des Modellierers darzustellen scheint. Der Typ der interaktiven Verschränkung stellt das andere Ende des Spektrums rekonstruierter Prozesstypen dar. Hier findet ein enger und intensiver Austausch von Auftraggeber und Modellierer statt. Im Extremfall ist der Auftragge-

232 | M ODELLIERTE Z UKUNFT

ber an der Setzung numerischer Annahmen und an der Modellierung selbst beteiligt. Die vergleichsweise theoretisch einfachen Modelle, die der Schilderung nach in Prozessen dieses Typs verwendet werden, scheinen gerade eine symmetrische Beratungskonstellation zu befördern. Als eine Mischform wurde der Typ der iterativen Trennung rekonstruiert, der sich dadurch auszeichnet, dass der Auftraggeber zwar weiterhin keinen Zugriff auf das Modell hat, aber anhand vorläufiger Rechenergebnisse eine Veränderung der numerischen Annahmen bewirken kann. Sowohl aus Gründen der wissenschaftlichen Nachvollziehbarkeit als auch auf Grund der notwendigen Legitimität energieprognostischer Gutachten ergibt sich für sie ein generelles Transparenzgebot, das jedoch je nach Art des prognostischen Argumentes und je nach Art der Beteiligung der jeweiligen Akteure an der Erstellung der Gutachten spezifische Transparenzerfordernisse impliziert. Generell ist zu fordern, dass im Gutachten das vollständige Argument vorgebracht wird, das heißt, die numerischen Annahmen vollständig genannt und die Interpretation des Modells in verständlicher Weise angegeben wird. Wenn die Begründung wissenschaftlich voraussetzungsreicher Prämissen nicht im Gutachten selbst erfolgen kann, so muss dies mindestens in einer für die wissenschaftliche Community einsehbaren Weise erfolgen. Dies bedeutet insbesondere, dass die verwendeten Modelle gegenüber der Community offenzulegen sind. Wo numerische Annahmen nicht allein aufgrund epistemischer Kriterien festgelegt werden, sind die tatsächlich wirksamen Kriterien im Gutachten offenzulegen. Dies heißt ganz besonders, dass die Rolle des Auftraggebers bei diesen Festlegungen transparent gemacht werden muss. Eine Aufgabe für Folgearbeiten ist, die in der vorliegenden Arbeit skizzierten Transparenzerfordernisse zu präzisieren und in praktische Handlungsempfehlungen weiter zu entwickeln. Hierfür ist es notwendig, auch die Rezipienten und Verwender der Gutachten miteinzubeziehen, da nur so eine konstruktive Umsetzung möglich scheint. Epistemologische Herausforderungen Die Analyse hat zwei spezielle, in erster Linie epistemologische Problemstellungen identifiziert, die der dringenden Bearbeitung bedürfen. Erstens ist dies die Frage, wie genau das Argument der Isolation von Effekten präziser formuliert werden kann. Dabei ist einerseits weiter herauszuarbeiten, wie dieses Argument aus Sicht der Modellierer formuliert werden muss. Andererseits muss geprüft werden, unter welchen Bedingungen das Argument auch erkenntnis- und argumentationstheoretisch tragfähig ist. Hierbei ist insbesondere der epistemische Status der Referenzentwicklung klärungsbedürftig.

F AZIT

UND

A USBLICK

| 233

Das zweite Problem ist besonders kritisch. Die Schilderungen der Interviewten deuten darauf hin, dass der epistemische Status der in der Arbeit untersuchten Modelle bis auf wenige Ausnahmen unklar ist. Demnach sind die betreffenden Modelle in einem Graubereich zwischen empirisch adäquater Repräsentation eines realen Zielsystems und rein theoretischem Konstrukt anzusiedeln. Sicherlich ist zu beachten, dass das empirische Design der Untersuchung hierzu keine abschließende Einordnung zulässt. Der Umstand, dass diese Frage im modelltheoretischen Diskurs über ökonomische Modelle generell strittig ist, erhärtet aber den Verdacht, dass es sich hierbei um ein grundlegendes Problem handelt. Seine Tragweite darf nicht unterschätzt werden: Solange der Status eines Modells ungeklärt ist, ist auch nicht klar, welche Aussagen mit ihm begründet werden können. Letztendlich stellt dieses Problem damit das Fundament in Frage, auf dem die energieprognostische Praxis derzeit ruht. Es ist also dringend erforderlich, den Status der Energiemodelle zu klären. Hier erscheint es angezeigt, sowohl Modellierer aus der energieprognostischen Praxis als auch Modelltheoretiker einzubeziehen, um einerseits den intendierten Status der Modelle erfassen zu können, andererseits aber aktuelle modelltheoretische Überlegungen in eine Klärung einbeziehen zu können. Erste Ansatzpunkte hierfür konnten in der vorliegenden Untersuchung aufgezeigt werden. Die Untersuchung startete mit der Diagnose, dass modellierte Szenarien eine Strategie darstellen, im Angesicht aufbrechender Zukunftsgewissheiten und damit trotz epistemischer Unsicherheiten Orientierung für folgenreiche Entscheidungen zu bieten. Die Untersuchung hat plausibel gemacht, wieso es gerade modellierte Szenarien sind, die hierbei vielerorts zum Einsatz kommen. Und sie konnte aufzeigen, wie diese Gebilde grundlegend beschaffen sind. Erfüllen sie jedoch auch den Anspruch, eine rationale Entscheidungsgrundlage zu bieten? Diese Frage kann hier nicht beantwortet werden. Allerdings weist die Untersuchung auf eine Reihe kritischer Aspekte hin, so dass Zweifel hieran berechtigt erscheinen. Ganz im Sinne einer explorativen Untersuchung stellen die hier präsentierten Ergebnisse jedoch keinen Endpunkt dar. Vielmehr weisen sie die Richtung für eine Vielzahl weiterer Forschungsarbeiten, die für die Klärung dieser Frage und vor allem auch für eine konstruktive Weiterentwicklung der etablierten Praxis notwendig sind.

Abkürzungen

AG AGM BIP BMBF BMU BMWA BMWi BMWT CCS CD CGE DENA DIW DLR EREC EU EWI FORUM GPP GTPP GWS HW IE

Anton Gerhard (Interviewter) Allgemeines Gleichgewichtsmodell Bruttoinlandsprodukt Bundesministerium für Bildung und Forschung Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit Bundesministerium für Wirtschaft und Arbeit (heute BMWi) Bundesministerium für Wirtschaft und Energie Bundesministerium für Wirtschaft und Technologie (heute BMWi) Carbon Capture and Storage Christian Dieckhoff (Autor, Interviewer) Computable General Equilibrium Deutsche Energie-Agentur GmbH Deutsches Institut für Wirtschaftsforschung e.V. Deutsches Zentrum für Luft- und Raumfahrt e.V. European Renewable Energy Council Europäische Union Energiewirtschaftliches Institut an der Universität zu Köln Forum für Energiemodelle und Energiewirtschaftliche Systemanalysen in Deutschland Gegenüberstellung possibilistischer Prognosen Gegenüberstellung teilkonditionalisierter possibilistischer Prognosen Gesellschaft für Wirtschaftliche Strukturforschung mbH Hans Wagenfurth (Interviewter) Isolation von Effekten

236 | M ODELLIERTE Z UKUNFT

IER IFNE ISI IWES IZES JA KADP KAPP KE KODP KWK MI ÖM PS RWI SM SRU STS TKPP UBA UGR VGR WI ZEW ZSW

Institut für Energiewirtschaft und Rationelle Energieanwendung, Universität Stuttgart Ingenieurbüro für neue Energien Teltow Fraunhofer-Institut für System- und Innovationsforschung Fraunhofer-Institut für Windenergie und Energiesystemtechnik Institut für ZukunftsEnergieSysteme gGmbH Jochen Altmann (Interviewter) Kategorische deterministische Prognose Kategorische possibilistische Prognose Klaus Einbaum (Interviewter) Konditionale deterministische Prognose Kraft-Wärme-Kopplung Matthias Imgrund (Interviewter) Ökonometrisches Modell Peter Schnitzer (Interviewter) Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V. Simon Müller (Interviewter) Sachverständigenrat für Umweltfragen Science and Technology Studies Teilkonditionalisierte possibilistische Prognose Umweltbundesamt Umweltökonomische Gesamtrechnung Volkswirtschaftliche Gesamtrechnung Wuppertal Institut für Klima, Umwelt, Energie GmbH Zentrum für Europäische Wirtschaftsforschung GmbH Zentrum für Sonnenenergie- und Wasserstoff-Forschung BadenWürttemberg

Abbildungen und Tabellen

Abbildung 1: Überblick über den analytischen Rahmen | 40  Abbildung 2: Bestimmung der untersuchten Community | 59  Abbildung 3: Prozesstyp sequenzielle Trennung | 117  Abbildung 4: Prozesstyp iterative Trennung | 123  Abbildung 5: Prozesstyp interaktive Verschränkung | 127  Abbildung 6: Übersicht der Fälle im Spektrum der Prozesstypen | 134  Tabelle 1: Überblick der Fallauswahl | 94  Tabelle 2: Übersicht der elementaren Argumente nach Fällen | 145  Tabelle 3: Übersicht der komplexen Argumente nach Fällen | 167  Tabelle 4: Übersicht der Interpretationen der Modelle | 183

Anhang

A.1

L EITFÄDEN

A.1.1

Leitfaden der ersten Interviewwelle

Thema

Nr.

Erzählanregung

Nachfrage

Formales Intro

i

- Aufnahme - Vertraulichkeit (alles, was Sie mir sagen, ist vertraulich, d.h. kein Dritter wird Aufnahme hören noch Transskript sehen) - Anonymisierung, d.h. aus den verschriftlichten Interviews kann kein Rückschluss auf Ihre Person oder Einrichtung geschlossen werden (Namen, Orte, Modellnamen) - Band kann jederzeit gestoppt werden, wenn wir also Dinge berühren, die Sie nicht auf Band haben möchten, sagen Sie mir das bitte. - Ich bin an Ihrer persönlichen Meinung, Erfahrung und Sichtweise interessiert. Es gibt also keine richtigen oder falschen Antworten. - Ablauf: Leitfaden strukturiert Interview, dient in erster Linie als Gedächtnisstütze für mich. Er beinhaltet Fragen zu 5 Blöcken. Je nach dem Verlauf des Gespräches würde ich manche ergänzen oder weglassen. - Bevor es los geht: Haben Sie noch Fragen? - Bitte um Einverständnis mit der Aufnahme auf Band.

Einleitung

ii

- Energiemodelle: Modelle selbst, wie sie funktionieren, aber auch wie Sie in der Praxis eingesetzt werden.

240 | M ODELLIERTE Z UKUNFT

Thema

Nr.

Erzählanregung

Nachfrage

- Habe Sie als Autor einiger Publikationen über das Modell [Name] gefunden, welches mich besonders interessiert… Modell [Name des Modells]

- Aufbau - räumliche Auflösung - benötigte Daten (z.B. VGR) - modelltheoretischer Hintergrund

1

Könnten Sie das aktuelle Modell [Name des Modells] für mich beschreiben?

2

Wozu wird es eingesetzt?

Wird es ausschließlich im Kontext der Energieversorgung eingesetzt?

3

Können Sie beschreiben, welche Entwicklungsgeschichte das Modell hat?

- Was war der ursprüngliche Anlass für die Entwicklung? - Welche Änderungen wurden im Lauf der Zeit vorgenommen? - Erinnern Sie sich, was jeweils der Grund für die Weiterentwicklung war?

Bei welchen Studien oder Projekten wurde das Modell eingesetzt?

(die 3 wichtigsten aus jüngerer Zeit)

Modell + Studie 4

5

Was für eine Aufgabe hatte das Modell bei diesen Studien?

- Warum wurde bei diesen Studien überhaupt das Modell eingesetzt? Was ist die besondere Leistung des Modells dabei? - Modell als Automatisierung (sonst zu zeitaufwendigen Rechnens) - Modell als systemati-

A NHANG

Thema

Nr.

Erzählanregung

| 241

Nachfrage sche Vereinfachung der Realität - Könnte man zu den gleichen Ergebnissen der Studie auch ohne das Modell kommen?

Studie

Praxis des Erstellens

6

Wurden bei all diesen Studien Szenarien verwendet?

- Was verstehen Sie unter einem Szenario? - Was ist der Unterschied zu einer Prognose? - Wieso werden überhaupt Szenarien verwendet? Haben sie einen Vorteil?

7

Erinnern Sie sich an die Motivation, die diesen Studien zugrunde lag?

- Gab es einen Auftraggeber? - (genuin) wissenschaftliches Interesse? - Fragen des Auftraggebers (die Sie mit der Studie beantwortet haben)

8

Welchen Fragen wurde in diesen Studien nachgegangen?

- Gibt es spezifische Unterschiede zwischen den Studien? - Was haben sie inhaltlich gemeinsam?

9

Können Sie beschreiben wie das Erstellen einer solchen Studie typischerweise vonstattengeht?

- zeitlicher Ablauf - Auftraggeber - Zustandekommen des Auftrags - Vorgaben - Recherche / Datenbeschaffung - Modell anpassen / füttern

242 | M ODELLIERTE Z UKUNFT

Thema

Nr.

Erzählanregung

Nachfrage -

Annahmen Validierung Schreiben der Studie Aufgabenteilung unter Mitarbeitern? - weitere Beteiligte außerhalb des Institutes? Modellieren allgemein

10

Was ist für Sie ganz allgemein ein Modell?

Zur Person (Schlussfrage)

11

Wie sind Sie selbst zur Modellierung gekommen?

Epilog

12

Dürfte ich mich denn nochmals bei Ihnen melden, wenn ich jetzt in der Auswertung auf Unklarheiten stoße?

13

Darf ich Sie in etwa einem halben Jahr nochmals interviewen?

Abbildung - Was wird abgebildet? - Sind die im Modell nachgebildeten Prozesse in der Realität beobachtbar? Vereinfachung der Realität - Geben die Gleichungen im Modell also in der Realität beobachtbare Prozesse wieder? kompliziertes Gleichungssystem - Was repräsentieren diese Gleichungen?

A NHANG

A.1.2

| 243

Leitfaden der zweiten Interviewwelle

Thema

Nr.

Erzählanregung

Nachfrage

Formales Intro

i

- Aufnahme des Interviews und Transkription - Tonbandaufnahme und Transkript vertraulich - Anonymisierte Darstellung der Ergebnisse: Aus den Darstellungen kann nicht auf Ihre Person oder Ihr Institut geschlossen werden - Ablauf: Leitfaden ist meine Gedächtnisstütze; Band kann jederzeit gestoppt werden - Ich bin an ihrer persönlichen Einschätzung und Erläuterung interessiert, es gibt in diesem Sinne also kein richtig oder falsch - Noch Fragen? - Bitte um Einverständnis mit der Aufnahme auf Band

Einleitung

ii

- Wie auch in unserem letzten Gespräch geht es um Ihre persönlichen Erfahrungen im Umgang mit dem Modell [Name des Modells] im Zusammenhang mit Szenarioanalysen. - Beim letzten Gespräch haben wir uns ja bereits sehr ausführlich über unterschiedliche Projekte unterhalten, bei denen das Modell eingesetzt wurde. - Nun ist unser Gespräch aber ja schon ein Jahr her...

Aktuelle Projek- 1 te, neue Entwicklungen

Was hat sich denn seit dem letzten Gespräch bei Ihnen getan?

- Sind neue Projekte mit dem Modell [Name des Modells] bearbeitet worden? - Gibt es neuere Entwicklungen beim Modell, vielleicht auch andere Modelle?

Einstieg Szenario

Ich habe in meiner Untersuchung den Eindruck gewonnen, dass im Feld der Energiemodellierung in den meisten Projekten Sze-

- Wieso machen ganz konkret Sie Szenarioanalysen mit Ihrem Modell?

2

244 | M ODELLIERTE Z UKUNFT

Thema

Nr.

Erzählanregung

Nachfrage

narioanalysen gemacht werden. Wie kommt das Ihrer Einschätzung nach? Szenario / Szenarioanalyse

3

Was ist für Sie eine Szenarioanalyse oder ein Szenario?

- Hat eine Szenarioanalyse, so wie Sie es hier machen, bestimmte typische Elemente oder eine bestimmte, typische Struktur? (z.B. Annahmen, Parameter, Aussagen über die Zukunft) - Haben Ihrer Ansicht nach alle Szenarien einer Studie die gleiche Rolle? - Welche Rolle spielt ein Referenz- oder Business-as-usualSzenario? - Welche Bedeutung haben Einzelszenarien für Gesamtaussage? - Wer definiert die konkreten Szenarien, bzw. das, wodurch sie sich unterscheiden? - bestimmte Darstellungsweise?

4

Welche Fragestellungen werden denn in konkreten Studien mit den Szenarioanalysen behandelt?

- Wie ist das denn in den konkreten Studien gewesen, war die Art, wie Sie Szenarien eingesetzt haben, immer gleich, oder gab es da Unterschiede?

A NHANG

Thema

Nr.

Erzählanregung

| 245

Nachfrage - Können Sie da unterschiedliche Typen von Fragen erkennen? (Die Zukunft allgemein beschreiben vs. Bewertungen vs. Abwägungen) - Wie wird die Fragestellung einer Szenarioanalyse erarbeitet? (Team, Auftraggeber)

5

Welche Aussagen werden Ihrer Ansicht nach getroffen?

- Was denken Sie, was möchte uns ein Szenario über die Welt sagen? - Was denken Sie, was wird mit einem Szenario über die Zukunft ausgesagt?

Modell + Szena- 6 rio

Ich würde nun gerne die Verbindung zum Modell [Name des Modells] herstellen. Wie hängen die Szenarien mit diesem Modell zusammen?

- Warum verwenden Sie überhaupt dieses Modell im Zusammenhang mit Szenarioanalysen? - Nehmen Sie ein Szenario eher als ein Output oder ein Input des Modells? - Wenn Sie jetzt konkrete Fragestellung mit Szenarioanalysen mit Ihrem Modell bearbeiten, gibt es da einen typischen Arbeitsablauf oder ist es jedes Mal anders? - Aus welchen wesentli-

246 | M ODELLIERTE Z UKUNFT

Thema

Nr.

Erzählanregung

Nachfrage chen Arbeitsschritten besteht der Ablauf? - Ist der Arbeitsablauf eher sequenziell oder eher iterativ?

7

Können Sie beschreiben, welche Arbeitsschritte insbesondere mit dem Modell [Name des Modells] zu leisten sind, wenn Szenarien gemacht werden?

- Welche Anpassungen müssen vorgenommen werden? (Algorithmen, Gleichungen, Datenbanken, Kalibrierung, Schätzung) - Was wird nicht angepasst, sondern beibehalten? Woher stammen diese Dinge (Daten) dann? - Wie wird die Fragestellung für das Modell übersetzt oder in das Modell „eingearbeitet“? - Wie werden die Szenarien für das Modell übersetzt oder in das Modell „eingearbeitet“? Wie spiegeln sich die Szenarien in den Anpassungen wieder?

Modell (hier ggf. 8 kürzen)

Sie hatten das Modell [Name des Modells] als ein [Modelltyp] charakterisiert. Könnten Sie noch mal kurz erklären, was damit gemeint ist?

- Welche Idee liegt dem Modell Ihrer Ansicht nach zugrunde? - Gibt es eine explizite Theorie, die zugrunde liegt? - Wodurch unterscheidet es sich in Ihrer Wahrnehmung von den an-

A NHANG

Thema

Nr.

Erzählanregung

| 247

Nachfrage deren Modelltypen [...]? - Wie funktioniert das Modell? - Gibt es Algorithmen? Was machen die Algorithmen?

Die Zeit

9

Was ist der Output des Modells [Name des Modells]?

- Gibt es mehrere Rechenläufe (je Szenario)? - Wie hängen Ergebnisse mit Szenarien zusammen? Unterschiede? - Was ist mathematisch gesprochen das Ergebnis / der Output des Modells? - Was beschreibt das Ergebnis / der Output?

10

Szenarien haben ja irgendwas mit Zeitverläufen zu tun. Können Sie mir beschreiben, wo im Modell [Name des Modells] die Zeit berücksichtigt wird oder ins Spiel kommt?

- Steckt die Zeit explizit in den Gleichungen? Oder steckt sie in den Daten (z.B. in den Parametern der Technologien)? - Enthält die Lösung eines Rechenlaufes schon Angaben zu verschiedenen Jahren? Oder muss das dann noch nachträglich zu einem Zeitverlauf zusammengesetzt werden? - Hangelt sich das Modell von Jahr zu Jahr?

248 | M ODELLIERTE Z UKUNFT

Thema

Nr.

Erzählanregung

Nachfrage (Timestep vs. Perfect Foresight vs. dynamisch vs. rekursivdynamisch)

Prognose

11

Ich habe festgestellt, dass einige Kollegen mit ihren Modellen auch Prognosen machen. Ist das bei Ihnen auch so?

- Worin bestehen dann die Unterschiede zum Einsatz bei Szenarien? - andere Fragestellung? - anderes Vorgehen? (z.b. Anzahl der Modellläufe) - andere Ergebnisse? - anderer Geltungsanspruch? - Was ist für Sie eine Prognose?

Sensitivitätsanalyse (optional)

12

Ich habe festgestellt, dass die meisten Kollegen mit ihren Modellen auch Sensitivitätsanalysen machen. Ist das bei Ihnen auch so?

- Wozu wird sie gemacht? - Worin besteht der Unterschied zum Szenario? - anderes Vorgehen? (z.b. Anzahl der Modellläufe) - andere Ergebnisse? - andere Interpretation?

ACHTUNG: hier darf max. 1 Stunde überschritten sein! Modell-anspruch 13

…Modellverständnisse unterschiedlich… Was kann uns Ihrer Ansicht nach das Modell [Name des Modells] über die Welt sagen?

- Wo liegen Ihrer Ansicht nach die Grenzen der Aussagefähigkeit des Modells [Name des Modells]? (Vollständigkeit des Ausschnitts; Adäquatheit der Abstraktion) - Ich muss zugeben, dass es mir nicht gelungen

A NHANG

Thema

Nr.

Erzählanregung

| 249

Nachfrage ist, gut zu durchschauen, wie diese Frage innerhalb ihrer wissenschaftlichen Community behandelt wird. Was ist da Ihre Einschätzung? - Welche Probleme werden gesehen? Wie wird versucht, diese zu lösen? Eher erkenntnistheoretisch oder eher pragmatisch?

Zukunftsverständnis

14

Meiner Wahrnehmung nach wird mit Szenarien eine gewisse Offenheit gegenüber der Zukunft ausgedrückt (alternative Pfade; Gestaltbarkeit). Gleichzeitig werden Szenarien aber oft als WennDann-Beziehungen verstanden, damit liegt auch ein deterministisches Verständnis zugrunde (Kausalität). Mir erscheint das widersprüchlich, wie sehen Sie das?

- Spielt die Tatsache, dass deterministische Modelle verwendet werden, eine Rolle? - Beschränkung auf bestimmte Zukünfte? - Wie sehen Sie sich selbst in Ihrer Arbeit: Haben Sie das Gefühl, frei die Zukunft beschreiben zu können, oder fühlen Sie sich eher eingeschränkt, etwa durch die Beschränkungen des Auftraggebers?

250 | M ODELLIERTE Z UKUNFT

Thema

Nr.

Politikberatung 15 vs. Wissenschaft

Schlussfrage

16

Erzählanregung Mich interessiert Ihre Arbeit u.a. deshalb, weil diese Arbeit beides ist, Wissenschaft und Politikberatung. Mein Eindruck ist nach der ersten Welle, dass sich hieraus auch ein Spannungsfeld aufbaut. Nehmen Sie das auch so war?

Wir haben ja nun schon zwei Gespräche miteinander geführt und wir haben ja ganz unterschiedliche Aspekte angesprochen. - Hatten Sie aber vielleicht eigentlich auch Fragen zu anderen Dingen erwartet, die ich nicht gestellt habe? - Haben Sie selbst noch Dinge bemerkt, die in diesem Themenkomplex angesprochen werden sollten, nun aber fehlen?

Nachfrage - Wichtige Stellen in Ihrer Arbeit, in denen solche Spannungen auftreten? (Wissenschaftlicher Anspruch; Einschränkung der Freiheit; Eröffnung von Möglichkeiten; Mitgestalten; Aushandlungen vorher, Ergebnispräsentation nachher) - Wie ist es bei der Rezeption Ihrer Studien? Haben Sie den Eindruck, dass Sie da immer so verstanden werden, wie Sie sich das wünschen?

A NHANG

A.1.3

| 251

Leitfaden des Interviews mit Peter Schnitzer

Thema

Nr.

Erzählanregung

Nachfrage

Formales Intro

i

Einleitung

ii

Ich untersuche, wie mit Hilfe von Modellen Energieszenarien erstellt werden. Wie im letzten Interview interessiere ich mich vor allem für [Name des Modells] und würde Ihnen gerne dazu ein paar Fragen stellen.

Schnittstelle Modell + Szenario (Eröffnungsfrage)

1

Mit dem Modell [Name des Modells] werden ja Energieszenarien gemacht. Können Sie erzählen, wie das vonstattengeht? Wie kommt man vom Modell zu den Szenarien?

Szenario

2

Was ist für Sie ein Szenario?

- Aufnahme des Interviews und Transkription - Tonbandaufnahme und Transkript vertraulich - Anonymisierte Darstellung der Ergebnisse: Aus den Darstellungen kann nicht auf Ihre Person oder Ihr Institut geschlossen werden - Ablauf: Leitfaden ist meine Gedächtnisstütze; Band kann jederzeit gestoppt werden - Ich bin an ihrer persönlichen Einschätzung und Erläuterung interessiert, es gibt in diesem Sinne also kein richtig oder falsch - Noch Fragen? - Bitte um Einverständnis mit der Aufnahme auf Band

Was sind genau die Ergebnisse? Lösungen von Gleichungen (mathematisch); Zeitverläufe (inhaltlich); quantitativ vs. qualitativ; endogene vs. exogene Größen

- Welche Aussage wird mit einem Szenario getroffen? - Wann verwendet man es? - Vorteile / Nachteile von Szenarien - Einzelnes Szenario? - Unterschied zur Prognose?

252 | M ODELLIERTE Z UKUNFT

Thema

Nr.

Erzählanregung

Nachfrage

Szenariostudie

3

Welchen Fragen wird in Szenariostudien typischerweise nachgegangen?

- Themen - Art der Fragestellung (Wann Szenario und wann Prognose?) - Jüngere Beispielstudien

4

Wie ist eine Studie typischerweise aufgebaut?

- Struktur: Gleichwertige Pfade vs. Differenzbildung (Isolation von Effekten) - Inhalt: Welche Bestandteile hat eine Studie? - Aussage: Welche Aussage wird mit der Studie getroffen?

Modelleinsatz

5

Wie werden genau die Ergebnisse mit dem Modell produziert?

- Welche Aufgabe hat das Modell? (Rechenhilfe vs. Übersetzer) - Inputs - Was macht der Algorithmus? (Zielgröße, „Systemkosten“?) - Spezielle Nachfrage: Was ist ein „Solver“? - Was ist genau das „Modell“? (Geltungsanspruch)

Ablauf allgemein

6

Welche Tätigkeiten müssen Sie machen, bevor Sie dann ENTER drücken und das Modell rechnen lassen?

- Auswahl des Modells bei jedem Auftrag? - Dateninput - Modellanpassungen (siehe Frage 7) - Kalibrierung - Annahmen übersetzen (siehe Frage 8)

Anpassungen

7

Müssen Anpassungen des Modells vorgenommen werden? Welche?

- Daten - Algorithmus - Wie hängen die vom Auftrag ab?

A NHANG

| 253

Thema

Nr.

Erzählanregung

Nachfrage

Parametrisierung

8

Wie kommt man vom Auftrag zum quantitativen Input?

- „Storyline“? - Muss ein Ziel vorgegeben werden? (Ist Ziel dann Annahme? Welche Parameter repräsentieren Ziel?)

Szenariostudie + Modell (Integrierende Frage)

9

Welche Elemente des Prozesses der Erstellung tauchen dann am Ende im Bericht auf?

- Welche tauchen nicht auf? Warum nicht? - Welche sind Bestandteil der Szenarien? - Wo kommen diese Elemente her? Auftraggeber? eigene Annahmen? - Wie tauchen die Modellergebnisse auf?

Validierung (Optional)

10

Welche Aussage wird insgesamt getroffen und wie wird diese validiert?

- Wie werden Annahmen validiert? - Wie werden Modellinputs validiert? - Wie wird das Modell validiert? - Wie werden Modelloutputs validiert?

Zur Motivation (Schlussfrage)

11

Wenn Sie jetzt diese besprochene Arbeit mit Modellen und Szenarien betrachten, Was macht Ihnen daran am meisten Spaß?

Epilog

12

Darf ich mich bei Unklarheiten nochmal bei Ihnen melden?

254 | M ODELLIERTE Z UKUNFT

A.2

K ATEGORIENSYSTEM

Kategorien Ebene 1

Kontext

Erstellungsprozess

Kategorien Kategorien Ebene 2 Ebene 3 Wissenschaftliche Community/ Wissenschaftliches Selbstverständnis Beratungskontext / Politik Eigene Weltanschauung, Ideologie, politische Position Institutioneller Rahmen Modellentwicklung Zustandekommen und Aushandlung des Auftrags Fragestellung Daten / Empirie Modell als programmiertechnisches Konstrukt Modell als mathematisches Konstrukt Parametrisierung des Modells Modellläufe Numerische Ergebnisse Interpretation der Ergebnisse Schlussfolgerungen, Empfehlungen Gutachten, Bericht

Kategorien Ebene 4

A NHANG

Kategorien Ebene 1

Kategorien Kategorien Ebene 2 Ebene 3 Rezeption durch Auftraggeber, Presse u.a. Interaktion mit Auftraggeber Individuelles Verständnis des Begriffs „Szenario“

Interpretation der Modellläufe

Interpretation/ Aussagen/ Begründungen

Bedeutung des Modells

| 255

Kategorien Ebene 4

Kategorische Vorhersage Bedingte VorherEinzelner Lauf sage Konsistente, mögliche Zukunft Wirkung via Differenz der Läufe Vergleich/ Gegenüberstellung mögSet von Läufen licher Zukünfte Sensitivitätsanalyse Repräsentation von (realweltlicher) Struktur Modell als RepräRepräsentation von sentation/ ZielsysWechselwirkungen tem des Modells Repräsentation von Verhalten über Zeit Ökonometrie/ Keynes Modell als Theo- Allgemeines rie/ Theorie des Gleichgewicht/ Modells Neoklassik Theorie der Optimierung

256 | M ODELLIERTE Z UKUNFT

A.3

T RANSKRIPTIONSREGELN UND D ARSTELLUNG DER EMPIRISCHEN D ATEN

Die Zitate aus den Interviews geben die Form wieder, in der die Aufzeichnungen transkribiert wurden. Da es in der Analyse nicht um eine linguistische Betrachtung ging, sondern vielmehr die Inhalte der Äußerungen untersucht werden sollten, wurde eine einfache Transkriptionsform gewählt (in Anlehnung an Flick 2007, S. 379 ff.). Dialektale Sprechweisen, undeutliche Aussprache sowie gleichzeitiges Sprechen wurden nicht transkribiert. Es wurden die in der folgenden Tabelle dargestellten Konventionen verwendet: Symbol

Bedeutung

/

Wort- oder Satzabbruch des Sprechers

[…]

Auslassung durch den Interpreten

[WORT; CD]

Einsetzung eines Inhaltes durch den Interpreten, der entweder aus dem Kontext erschlossen wird oder aus einem ausgelassenen Satzteil übertragen wird

[WORT; anonym.]

Ersatz eines Namens oder einer Bezeichnung durch den Interpreten aus Gründen der Anonymisierung

Zwei Punkte ohne Klammern symbolisieren eine kurze Sprechpause von maximal einer Sekunde Dauer

Drei Punkte ohne Klammern symbolisieren eine lange Sprechpause von mehr als einer Sekunde Dauer

[WORT?; unverständlich]

Unsichere Transkription mit bestem Tipp des Interpreten darüber, was an der Stelle gesagt wurde

Die Quellenangabe zu Interviewzitaten erfolgt in folgender Weise: Nach einem Zitat werden im Haupttext oder in einer Fußnote zunächst die Initialen des Pseudonyms des Falls genannt. Die darauf folgende Abkürzung „Int.“ gefolgt von der Nummer der Erhebungswelle gibt das Interview an. Die zuletzt angehängten

A NHANG

| 257

Zahlen sind die Absatznummern der zitierten Passage im Transskript. Eine Ausnahme bilden die Zitate von Peter Schnitzer. Da diese nur aus einem Interview stammen (vgl. Abschnitt 5.4.3), wird hier auf die Interviewnummer verzichtet.

A.4

A RGUMENTE

A.4.1

Kategorische possibilistische Prognose (KAPP)

P1: Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an. P2: Es ist möglich, dass die realen Größen X die Werte a annehmen. K1: Also (aus P1 und P2): Es ist möglich, dass die realen Größen Y die Funktionswerte m(a) annehmen.

A.4.2

Teilkonditionalisierte possibilistische Prognose (TKPP)

P3: Nehmen die realen Größen XB bestimmte Werte aB an und nehmen die realen Größen XNB bestimmte Werte aNB an, dann nehmen die realen Größen Y die Funktionswerte m(aB, aNB) an. P4: Es ist möglich, dass die realen Größen XNB die Werte aNB annehmen. K2: Also (aus P3 und P4): Es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB annehmen, dann die realen Größen Y die Funktionswerte m(aB, aNB) annehmen.

A.4.3

Kategorische deterministische Prognose (KADP)

P5: Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an. P6: Die realen Größen X nehmen die Werte a an. K3: Also (aus P5 und P6): Die realen Größen Y nehmen die Funktionswerte m(a) an.

258 | M ODELLIERTE Z UKUNFT

A.4.4

Konditionale deterministische Prognose (KODP)

P7: Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an.

A.4.5

Gegenüberstellung possibilistischer Prognosen (GPP)

Elementares Argument KAPP 1 P8:

Nehmen die realen Größen X bestimmte Werte a an, dann nehmen die realen Größen Y die Funktionswerte m(a) an.

P9:

Es ist möglich, dass die realen Größen X die Werte a annehmen.

ZK1: Also (aus P8 und P9): Es ist möglich, dass die realen Größen Y die Funktionswerte m(a) annehmen. Elementares Argument KAPP 2 P10: Nehmen die realen Größen X bestimmte Werte a* an, dann nehmen die realen Größen Y die Funktionswerte m(a*) an. P11: Es ist möglich, dass die realen Größen X die Werte a* annehmen. ZK2: Also (aus P10 und P11): Es ist möglich, dass die realen Größen Y die Funktionswerte m(a*) annehmen. Hauptkonklusion HK1: Also (aus ZK1 und ZK2): (i) Es ist möglich, dass die realen Größen Y die Funktionswerte m(a) annehmen und (ii) es ist möglich, dass die realen Größen Y die Funktionswerte m(a*) annehmen.

A NHANG

| 259

A.4.6 Gegenüberstellung teilkonditionalisierter possibilistischer Prognosen (GTPP) Elementares Argument TKPP 1 P12: Nehmen die realen Größen XB bestimmte Werte aB an und nehmen die realen Größen XNB bestimmte Werte aNB an, dann nehmen die realen Größen Y die Funktionswerte m(aB, aNB) an. P13: Es ist möglich, dass die realen Größen XNB die Werte aNB annehmen. ZK3: Also (aus P12 und P13): Es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB annehmen, dann die realen Größen Y die Funktionswerte m(aB, aNB) annehmen. Elementares Argument TKPP 2 P14: Nehmen die realen Größen XB bestimmte Werte aB* an und nehmen die realen Größen XNB bestimmte Werte aNB* an, dann nehmen die realen Größen Y die Funktionswerte m(aB*, aNB*) an. P15: Es ist möglich, dass die realen Größen XNB die Werte aNB* annehmen. ZK4: Also (aus P14 und P15): Es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB* annehmen, dann die realen Größen Y die Funktionswerte m(aB*, aNB*) annehmen. Hauptkonklusion HK2: Also (aus ZK3 und ZK4): (i) Es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB annehmen, dann die realen Größen Y die Funktionswerte m(aB, aNB) annehmen und (ii) es ist möglich, dass, wenn die realen Größen XB bestimmte Werte aB* annehmen, dann die realen Größen Y die Funktionswerte m(aB*, aNB*) annehmen.

260 | M ODELLIERTE Z UKUNFT

A.4.7

Isolation von Effekten mit deterministischem Referenzlauf

Elementares Argument KODP 1 (Referenzlauf) P16: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av) an. Elementares Argument KODP 2 (Eingriff ins Zielsystem) P17: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an. Zusätzliche Prämissen P18: Die realen Größen K nehmen die Werte ak an. ZK5: Also (aus P16-P18): (i) Nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak, av) an und (ii) nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an. P19: Gilt (i) Nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak, av) an und (ii) nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an, so gilt auch: Führt ein reales Ereignis H dazu, dass die realen Größen V nicht die Werte av, sondern av* annehmen, dann hat dieses Ereignis den Effekt, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen. Hauptkonklusion HK3: Also (aus ZK5 und P19): Führt ein reales Ereignis H dazu, dass die realen Größen V nicht die Werte av, sondern av* annehmen, dann hat dieses Ereignis den Effekt, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen.

A NHANG

A.4.8

| 261

Isolation von Effekten mit konditionalisiertem Referenzlauf

Elementares Argument KODP 1 (Referenzlauf) P20: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av) an. Elementares Argument KODP 2 (Eingriff ins Zielsystem) P21: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an. Zusätzliche Prämissen P22: Gilt (i) Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak, av) an und (ii) Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an, so gilt auch: Führt ein reales Ereignis H dazu, dass die realen Größen V nicht die Werte av, sondern av* annehmen, und nehmen die realen Größen K bestimmte Werte ak an, dann hat dieses Ereignis den Effekt, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen. Hauptkonklusion HK4: Also (aus P20 bis P22): Führt ein reales Ereignis H dazu, dass die realen Größen V nicht die Werte av, sondern av* annehmen, und nehmen die realen Größen K bestimmte Werte ak an, dann hat dieses Ereignis den Effekt, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen.

262 | M ODELLIERTE Z UKUNFT

A.4.9

Isolation von Effekten nur über den relativen Unterschied

Elementares Argument KODP 1 (Referenzlauf) P23: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av) an. Elementares Argument KODP 2 (Eingriff ins Zielsystem) P24: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an. Zusätzliche Prämissen P25: Gilt (i) Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak, av) an und (ii) Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an, so gilt auch: Führt ein reales Ereignis H dazu, dass sich die Werte der realen Größen V um av-av* ändern, dann hat dieses Ereignis den Effekt, dass sich die Werte der realen Größen Y um m(ak,av)-m(ak,av*) ändern. Hauptkonklusion HK5: Also (aus P23-P25): Führt ein reales Ereignis H dazu, dass sich die Werte der realen Größen V um av-av* ändern, dann hat dieses Ereignis den Effekt, dass sich die Werte der realen Größen Y um m(ak,av)-m(ak,av*) ändern.

A NHANG

| 263

A.4.10 Isolation von Effekten mit possibilistischem Referenzlauf Elementares Argument KODP 1 (Referenzlauf) P26: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av) an. Elementares Argument KODP 2 (Eingriff ins Zielsystem) P27: Nehmen die realen Größen K bestimmte Werte ak an und nehmen die realen Größen V bestimmte Werte av* an, dann nehmen die realen Größen Y die Funktionswerte m(ak,av*) an. Zusätzliche Prämissen P28: Es ist möglich, dass die realen Größen K die Werte ak annehmen. ZK6: Also (aus P26-P28): Es ist möglich, dass {(i) wenn die realen Größen V bestimmte Werte av annehmen, dann die realen Größen Y die Funktionswerte m(ak, av) annehmen und (ii) wenn die realen Größen V bestimmte Werte av* annehmen, dann die realen Größen Y die Funktionswerte m(ak,av*) annehmen}. P29: Gilt: Es ist möglich, dass {(i) wenn die realen Größen V bestimmte Werte av annehmen, dann die realen Größen Y die Funktionswerte m(ak, av) annehmen und (ii) wenn die realen Größen V bestimmte Werte av* annehmen, dann die realen Größen Y die Funktionswerte m(ak,av*) annehmen}, so gilt auch: Es ist möglich, dass {wenn ein reales Ereignis H dazu führt, dass die realen Größen V nicht die Werte av, sondern av* annehmen, dann dieses Ereignis den Effekt hat, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen}. Hauptkonklusion HK6: Also (aus ZK6 und P29): Es ist möglich, dass {wenn ein reales Ereignis H dazu führt, dass die realen Größen V nicht die Werte av, sondern av* annehmen, dann dieses Ereignis den Effekt hat, dass die realen Größen Y nicht die Funktionswerte m(ak, av), sondern m(ak,av*) annehmen}.

Literatur

Bach, S., Bork, C., Kohlhaas, M., Lutz, C., Meyer, B., Praetorius, B., Welsch, H. (2001): Die ökologische Steuerreform in Deutschland. Eine modellgestützte Analyse ihrer Wirkungen auf Wirtschaft und Umwelt. Heidelberg: Physica. Baumgartner, T. und Midttun, A. (1987a): Energy Forecasting: Science, Art, and Politics. In: T. Baumgartner und A. Midttun (Hg.) The politics of energy forecasting – A comparative study of energy forecasting in Western Europe and North America. Oxford: Clarendon Press. S. 3-10. Baumgartner, T. und Midttun, A. (Hg.) (1987b): The politics of energy forecasting – A comparative study of energy forecasting in Western Europe and North America. Oxford: Clarendon Press. Baumgartner, T. und Midttun, A. (1987c): The Socio-Political Context of Energy Forecasting. In: T. Baumgartner und A. Midttun (Hg.) The politics of energy forecasting – A comparative study of energy forecasting in Western Europe and North America. Oxford: Clarendon Press. S. 11-29. Beck, U. (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt a. M.: Suhrkamp. Betz, G. (2006): Prediction or Prophecy? The Boundaries of Economic Foreknowledge and Their Socio-Political Consequences. Wiesbaden: Deutscher Universitätsverlag. Betz, G. (2007): Probabilities in climate policy advice: A critical comment. Climate Change, 85, S. 1-9. Betz, G. (2010): What’s the Worst Case. Analyse & Kritik, 32/01, S. 87-106. BMWT und BMU (2010): Energiekonzept der Bundesregierung. [pdf] Verfügbar über: [Zugriff am 19.01.2015].

266 | M ODELLIERTE Z UKUNFT

Böhringer, C. (1996): Allgemeine Gleichgewichtsmodelle als Instrument der energie- und umweltpolitischen Analyse. Theoretische Grundlagen und empirische Anwendung. Frankfurt am Main: Lang. Böhringer, C. (1999): Die Kosten des Klimaschutzes. Zeitschrift für Umweltpolitik & Umweltrecht, 22/3, S. 369-384. Böhringer, C. und Wiegard, W. (2003): Methoden der angewandten Wirtschaftsforschung: Eine Einführung in die numerische Gleichgewichtsanalyse. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Böschen, S. und Weis, K. (2007): Die Gegenwart der Zukunft. Perspektiven zeitkritischer Wissenspolitik. Wiesbaden: VS Verlag für Sozialwissenschaften. Borup, M., Brown, N., Konrad, K. und van Lente, H. (2006): The Sociology of Expectations in Science and Technology. Technology Analysis & Strategic Management, 18/3/4, S. 285-298. Brinckmann, A. (2006): Wissenschaftliche Politikberatung in den 60er Jahren. Die Studiengruppe für Systemforschung, 1958 bis 1975. Berlin: Ed. Sigma. Brooks, H. und McDonald, A. (2000): The International Institute for Applied Systems Analysis, the TAP Project, and the RAINS Model. In: A. C. Hughes und T. P. Hughes (Hg.) Systems, experts, and computers – The systems approach in management and engineering, World War II and after. Cambridge, Mass. [u.a.]: MIT Press. S. 413-431. Brost, M. (2010): Spiel gegen die Zeit. DIE ZEIT, 19.08.2010/34 [pdf] Verfügbar über: [Zugriff am 19.01. 2015]. Brown, N., Rappert, B. und Webster, A. (2000): Contested futures. A sociology of prospective techno-science. Aldershot [u.a.]: Ashgate. Brown, S. (1968): Scenarios in Systems Analysis. In: E. S. Quade und W. I. Boucher (Hg.) Systems analysis and policy planning – Applications in defense. New York: Elsevier. S. 298-310. Brun, G. und Hirsch Hadorn, G. (2009): Textanalyse in den Wissenschaften. Inhalte und Argumente analysieren und verstehen. Zürich: vdf Hochschulverlag. Büscher, C. und Schippl, J. (2013): Die Transformation der Energieversorgung: Einheit und Differenz soziotechnischer Systeme. Technikfolgenabschätzung – Theorie und Praxis, 22/2, S. 11-19. Capros, P., Karadeloglou, P. und Mentzas, G. (1990): An empirical assessment of macroeconometric and CGE approaches in policy modeling. Journal of Policy Modeling, 12/3, S. 557-585.

L ITERATUR

| 267

Carrier, M. und Nordmann, A. (2011): Science in the Context of Application: Methodological Change, Conceptual Transformation, Cultural ReOrientation. In: M. Carrier und A. Nordmann (Hg.) Science in the Context of Application. Dordrecht: Springer. S. 1-7. Cartwright, N. (1989): Nature’s capacities and their measurement. Oxford: Oxford University Press. Chakravartty, A. (2011): Scientific Realism. In: E. N. Zalta (Hg.) The Stanford Encyclopedia of Philosophy (Summer 2011 Edition). Verfügbar über: [Zugriff am 19.01.2015] Clark, P. (2011): Doubts raised over Europe’s green energy plan. Financial Times, 07. Nov., S. 7. Coates, J. (1996): Herman Kahn: An appreciation. Futures, 28/8, S. 787-789. Cropley, A.J. (2002): Qualitative Forschungsmethoden. Eine praxisnahe Einführung. Eschborn b. Frankfurt a.M.: Dietmar Klotz. DeLeon, P. (1973): Scenario Designs. An overview. [pdf.] Verfügbar über: [Zugriff am 19.01. 2015]. Den Butter, F.A. und Morgan, M.S. (2000): Empirical models and policymaking: interaction and institutions. London, New York: Routledge. Deutsche Bundesregierung (2011): Regierungserklärung von Bundeskanzlerin Angela Merkel zur Energiepolitik „Der Weg zur Energie der Zukunft“ vom 09.06.2011 (Mitschrift). [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Deutscher Bundestag (2010): Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Bärbel Höhn, Hans-Josef Fell, Sylvia Kotting-Uhl, weiterer Abgeordneter und der Fraktion BÜNDNIS 90/DIE GRÜNEN – Drs. 17/1176 – Vorgaben für die Energieszenarien der Bundesregierung. BT-Drs. 17/1370. Berlin. Deutscher Bundestag (Hg.) (2002): Endbericht der Enquete-Kommission „Nachhaltige Energieversorgung unter den Bedingungen der Globalisierung und Liberalisierung“. BT-Drs. 14/9400. Berlin. DEWI GmbH, E.ON Netz, EWI, RWE Transportnetz Strom und VE Transmission (2005): Energiewirtschaftliche Planung für die Netzintegration von Windenergie in Deutschland an Land und Offshore bis zum Jahr 2020 (DENA Netzstudie I). [Gutachten im Auftrag der DENA; pdf] Verfügbar über: [Zugriff am 19.01.2015].

268 | M ODELLIERTE Z UKUNFT

Dieckhoff, C. (2009): Modelle und Szenarien. In: D. Möst, W. Fichtner und A. Grunwald (Hg.) Energiesystemanalyse – Tagungsband des Workshops „Energiesystemanalyse“ vom 27. November 2008 am KIT Zentrum Energie, Karlsruhe. Karlsruhe: Universitätsverlag. S. 49-60. Dieckhoff, C., Fichtner, W., Grunwald, A., Meyer, S., Nast, M., Nierling, L., Renn, O., Voß, A. und Wietschel, M. (Hg.) (2011): Energieszenarien. Konstruktion, Bewertung und Wirkung – „Anbieter“ und „Nachfrager“ im Dialog. Karlsruhe: KIT Scientific Publishing. Diefenbacher, H. und Johnson, J. (1987): Energy Forecasting in West Germany: Confrontation and Convergence. In: T. Baumgartner und A. Midttun (Hg.) The politics of energy forecasting – A comparative study of energy forecasting in Western Europe and North America. Oxford: Clarendon Press. S. 6184. DIW, DLR, GWS, ISI und ZSW (2011): Kurz- und langfristige Auswirkungen des Ausbaus der erneuerbaren Energien auf den deutschen Arbeitsmarkt. [Gutachten im Auftrag des BMU; pdf] Verfügbar über: [Zugriff am 19.01.2015]. DIW, DLR, ZSW und IZES (2008): Analyse und Bewertung der Wirkungen des Erneuerbare-Energien-Gesetzes (EEG) aus gesamtwirtschaftlicher Sicht. [Gutachten im Auftrag des BMU; pdf] Verfügbar über: [Zugriff am 05.11. 2013; Gutachten am 19.01.2015 nicht mehr im Internet auffindbar]. DLR, IWES und IFNE (2010): Langfristszenarien und Strategien für den Ausbau der erneuerbaren Energien in Deutschland bei Berücksichtigung der Entwicklung in Europa und global. „Leitstudie 2010“. [Gutachten im Auftrag des BMU; pdf] Verfügbar über: [Zugriff am 19.01.2015]. Eichhammer, W., Jochem, E., Mannsbart, W., Schlomann, B., Schön, M. und Wietschel, M. (2004): Exkurs: Zum Verständnis von Szenarien. In: P. Markewitz und H. Ziesing (Hg.) Politikszenarien für den Klimaschutz – Langfristszenarien und Handlungsempfehlungen ab 2012 (Politikszenarien III). Untersuchungen im Auftrag des Umweltbundesamtes. [pdf] Verfügbar über: [Zugriff am 19.01.2015], S. 36-38. EnWG (2005/2014): Energiewirtschaftsgesetz (EnWG) vom 7. Juli 2005 (BGBl. I S. 1970, 3621), zuletzt geändert durch Art. 6 G v. 21.7.2014 [pdf] Verfüg-

L ITERATUR

| 269

bar über: [Zugriff am 19.01.2015]. Epple, K. (1979): Theorie und Praxis der Systemanalyse. Eine empirische Studie zur Überprüfung der Relevanz und Praktikabilität des Systemansatzes. München: Minerva-Publikation. EWI, Amprion GmbH, DEWI GmbH, EnBW Transportnetze AG, IWES, TenneT TSO GmbH, 50Hertz Transmission (2010): Integration erneuerbarer Energien in die deutsche Stromversorgung im Zeitraum 2015-2020 mit Ausblick 2025. dena-Netzstudie II – Endbericht des Gutachter-Konsortiums. [Gutachten im Auftrag der DENA; pdf] Verfügbar über: [Zugriff am 19.01. 2015]. EWI, GWS und Prognos AG (2010): Energieszenarien für ein Energiekonzept der Bundesregierung. [Gutachten im Auftrag des BMWT und BMU; pdf] Verfügbar über: [Zugriff am 19.01.2015]. EWI und Prognos AG (2005): Energiereport IV. Die Entwicklung der Energiemärkte bis zum Jahr 2030. Energiewirtschaftliche Referenzprognose. Kurzfassung. [Gutachten im Auftrag des BMWA; pdf] Verfügbar über: [Zugriff am 19.01.2015]. EWI und Prognos AG (2007): Energieszenarien für den Energiegipfel 2007 (inklusive Anhang 2 %-Variante). Endbericht. [Gutachten im Auftrag des BMWT; pdf] Verfügbar über: [Zugriff am 19.01.2015]. Farrell, A., VanDeveer, S.D. und Jäger, J. (2001): Environmental assessments: four under-appreciated elements of design. Global Environmental Change, 11, S. 311-333. Fink, A. und Siebe, A. (2006): Handbuch Zukunftsmanagement. Werkzeuge der strategischen Planung und Früherkennung. Frankfurt am Main [u.a.]: Campus-Verlag. Fischedick, M. (2001): Vom Würfel zum Energiemodell. In: O. Langniß und M. Pehnt (Hg.) Energie im Wandel – Politik, Technik und Szenarien einer nachhaltigen Energiewirtschaft. Berlin [u.a.]: Springer. S. 233-240. Flick, U. (2007): Qualitative Sozialforschung. Eine Einführung. 5. Auflage. Reinbek bei Hamburg: Rowohlt-Taschenbuch-Verlag.

270 | M ODELLIERTE Z UKUNFT

Förster, G. (2002): Szenarien einer liberalisierten Stromversorgung. Analyse. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. FORUM (Hg.) (1999): Energiemodelle zum Klimaschutz in Deutschland. Strukturelle und gesamtwirtschaftliche Auswirkungen aus nationaler Perspektive. Heidelberg: Physica. FORUM (Hg.) (2002): Energiemodelle zum Kernenergieausstieg in Deutschland. Effekte und Wirkungen eines Verzichts auf Strom aus Kernkraftwerken. Heidelberg: Physica. FORUM (Hg.) (2004a): Energiemodelle zum europäischen Klimaschutz. Der Beitrag der deutschen Energiewirtschaft. Münster: LIT. FORUM (Hg.) (2004b): Energiemodelle zum Klimaschutz in liberalisierten Energiemärkten. Die Rolle erneuerbarer Energieträger. Münster: LIT. FORUM (Hg.) (2007): Energiemodelle zu Innovation und moderner Energietechnik. Analyse exogenen und endogenen technischen Fortschritts in der Energiewirtschaft. Münster: LIT. Frigg, R. und Hartmann, S. (2012): Models in Science. In: E. N. Zalta (Hg.) The Stanford Encyclopedia of Philosophy (Fall 2012 Edition). Verfügbar über: [Zugriff am 19.01.2015] Gardiner, S.M. (2006): A Core Precautionary Principle. The Journal of Political Philosophy, 14/1, S. 33-60. Gausemeier, J., Plass, C. und Wenzelmann, C. (2009): Zukunftsorientierte Unternehmensgestaltung. Strategien, Geschäftsprozesse und IT-Systeme für die Produktion von morgen. München [u.a.]: Hanser. Ghamari-Tabrizi, S. (2005): The worlds of Herman Kahn. The intuitive science of thermonuclear war. Cambridge, Mass. [u.a.]: Harvard Univ. Press. Gonschior, P. (1979): Die Berücksichtigung Technologischer Entwicklungen in Input-Output-Analysen. In: J. Seetzen, R. Krengel und G. von Kortzfleisch (Hg.) Makroökonomische Input-Output-Analysen und dynamische Modelle zur Erfassung technischer Entwicklungen mit Beispielen aus der Energietechnik, Rohstofftechnik, Chemietechnik, Maschinenbautechnik. Basel [u.a.]: Birkhäuser. S. 27-33. Gramelsberger, G. (2010): Computerexperimente. Zum Wandel der Wissenschaft im Zeitalter des Computers. Bielefeld: transcript. Greenpeace, EREC, DLR und Ecofys BV (2007): Energy [R]evolution. A sustainable world energy outlook. [Gutachten im Auftrag von Greenpeace und EREC; pdf] Verfügbar über: [Zugriff am 19.01.2015]. Greenpeace, EREC, Global Wind Energy Council und DLR (2012): Energy [R]evolution. A sustainable world energy outlook. [Gutachten im Auftrag von Greenpeace, EREC und GWEC; pdf] Verfügbar über: [Zugriff am 19.01. 2015]. Greeuw, S.C., van Asselt, M.B., Grosskurth, J., Storms, C.A., Rijkens-Klomp, N., Rothman, D.S. und Rotmans, J. (2000): Cloudy crystal balls. An assessment of recent European and global scenario studies and models. [pdf] Verfügbar über: [Zugriff am 19.01. 2015]. Grüne-Yanoff, T. (2009a): Learning from Minimal Economic Models. Erkenntnis, 70/1, S. 81-99. Grüne-Yanoff, T. (2009b): Preface to ‚Economic Models as Credible Worlds or as Isolating Tools?‘. Erkenntnis, 70/1, S. 1-2. Grunwald, A. (2002): Technikfolgenabschätzung – eine Einführung. Berlin: Ed. Sigma. Grunwald, A. (2011a): Energy futures: Diversity and the need for assessment. Futures, 43/8, S. 820-830. Grunwald, A. (2011b): Der Lebensweg von Energieszenarien – Umrisse eines Forschungsprogramms. In: C. Dieckhoff, W. Fichtner, A. Grunwald, S. Meyer, M. Nast, L. Nierling, O. Renn, A. Voß und M. Wietschel (Hg.) Energieszenarien – Konstruktion, Bewertung und Wirkung – „Anbieter“ und „Nachfrager“ im Dialog. Karlsruhe: KIT Scientific Publishing. S. 11-24. Häfele, W., Anderer, J., McDonald, A. und Nakicenovic, N. (1981a): Energy in a Finite World (Volume I). Paths to a Sustainable Future. Cambridge, Mass: Ballinger. Häfele, W., Anderer, J., McDonald, A. und Nakicenovic, N. (1981b): Energy in a Finite World (Volume II). A Global Systems Analysis. Cambridge, Mass: Ballinger. Hahn, F. (2006): Von Unsinn bis Untergang: Rezeption des Club of Rome und der Grenzen des Wachstums in der Bundesrepublik der frühen 1970er Jahre. Dissertation. Albert-Ludwigs-Universität Freiburg. [pdf] Verfügbar über: [Zugriff am 19.01.2015].

272 | M ODELLIERTE Z UKUNFT

Hake, J. (2000): Die Programmgruppe Systemforschung und Technologische Entwicklung im Forschungszentrum Jülich. TA-Datenbank-Nachrichten, 9/2, S. 72-76. Hansson, S.O. (2004): Great Uncertainty About Small Things. Techné: Research in Philosophy and Technology, 8/2, S. 26-35. Hansson, S.O. (2011): Coping with the Unpredictable Effects of Future Technologies. Philosophy and Technology, 24, S. 137-149. Hausman, D.M. (1992): The inexact and separate science of economics. Cambridge [u.a.]: Univ. Press. Henssen, H. (2002): Was sind Energieszenarien, was können sie leisten? [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Hillerbrand, R. (2009): Epistemic Uncertainties in Climate Predictions. A Challenge for Practical Decision Making. Intergenerational Justice Review, 3, S. 94-99. Hughes, A.C. und Hughes, T.P. (2000a): Systems, experts, and computers. The systems approach in management and engineering, World War II and after. Cambridge, Mass. [u.a.]: MIT Press. Hughes, T.P. und Hughes, A.C. (2000b): Introduction. In: A. C. Hughes und T. P. Hughes (Hg.) Systems, experts, and computers – The systems approach in management and engineering, World War II and after. Cambridge, Mass. [u.a.]: MIT Press. S. 1-26. Hájek, A. (2012): Interpretations of Probability. In: E. N. Zalta (Hg.) The Stanford Encyclopedia of Philosophy (Winter 2012 Edition). Verfügbar über:

[Zugriff am 19.01.2015]. Ichikawa, J.J. und Steup, M. (2013): The Analysis of Knowledge. In: Edward N. Zalta (Hg.) Stanford Encyclopedia of Philosophy (Fall 2013 Edition). Verfügbar über: [Zugriff am 19.01.2015]. IER (2007): Energieprognose Bayern 2030. Forschungsbericht. [Gutachten im Auftrag des Bayerischen Staatsministeriums für Wirtschaft und Medien, Energie und Technologie; pdf] Verfügbar über: [Zugriff am 19.01.2015]. IER, RWI und ZEW (2010): Die Entwicklung der Energiemärkte bis 2030. Energieprognose 2009. [Gutachten im Auftrag des BMWi; pdf] Verfügbar über: [Zugriff am 19.01.2015].

L ITERATUR

| 273

IER, WI und Prognos AG (2002): Szenarienerstellung für die EnqueteKommission „Nachhaltige Energieversorgung“ des Deutschen Bundestages. [Gutachten im Auftrag der Enquete-Kommission „Nachhaltige Energieversorgung“; pdf] Verfügbar über: [Zugriff am 19.01.2015]. Intergovernmental Panel on Climate Change (Hg.) (2000): Special Report on Emissions Scenarios. Verfügbar über: [Zugriff am 19.01.2015]. International Energy Agency (2006): World Energy Outlook 2006. Paris: International Energy Agency. International Energy Agency (2012): World Energy Outlook 2012. Paris: International Energy Agency. Jardini, D.R. (2000): Out of the Blue Yonder: The Transfer of Systems Thinking from the Pentagon to the Great Society, 1961-1965. In: A. C. Hughes und T. P. Hughes (Hg.) Systems, experts, and computers – The systems approach in management and engineering, World War II and after. Cambridge, Mass. [u.a.]: MIT Press. S. 311-357. Jochem, E. (1984): Der Ruf der Energiebedarfsprognosen. In: F. Lücke (Hg.) Ölkrise: 10 Jahre danach – Texte der Jahrestagung 1983 der Gesellschaft für Energiewissenschaft und Energiepolitik e.V. Köln: Verl. TÜV Rheinland. S. 269-286. Kahn, H. (1960): On Thermonuclear War. Princeton, New Jersey: Princeton University Press. Kahn, H. (1962): Thinking about the Unthinkable. New York: Horizon Press. Kahn, H. und Wiener, A.J. (1967): The Year 2000: A Framework for Speculation on the Next Thirty-Three Years. London, Toronto: Macmillan, CollierMacmillan. Kelle, U. und Susann, K. (2010): Vom Einzelfall zum Typus. Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. Wiesbaden: VS Verlag für Sozialwissenschaften. Knight, F.H. (1921): Risk, Uncertainty, and Profit. Boston: Hart, Schaffner & Marx; Houghton Mifflin Co. Knorr, K.D. (1980): Die Fabrikation von Wissen. Versuch zu einem gesellschaftlich relativierten Wissensbegriff. Kölner Zeitschrift für Soziologie und Sozialpsychologie, Sonderheft 22, S. 226-245. Knuuttila, T. (2005): Models, Representation, and Mediation. Philosophy of Science, 72/5, S. 1260-1271.

274 | M ODELLIERTE Z UKUNFT

Knuuttila, T. (2011): Modelling and Representing: An artefactual approach to model-based representation. Studies in History and Philosophy of Science, 42/2, S. 262-271. Knuuttila, T., Merz, M. und Mattila, E. (2006): Editorial: Computer Models and Simulations in Scientific Practice. Science Studies, 19/1, S. 3-11. Koch, M., Harnisch, J. und Blok, K. (2003): Systematische Analyse der Eigenschaften von Energiemodellen im Hinblick auf ihre Eignung für möglichst praktische Politik-Beratung zur Fortentwicklung der Klimaschutzstrategie. Forschungsbericht 299 97 311 UBA-FB 000440. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Kosow, H., Gaßner, R. (2008): Methoden der Zukunfts- und Szenarioanalyse. Überblick, Bewertung und Auswahlkriterien. Verfügbar über: [Zugriff am 19.01.2015]. Kraus, M. (1988): Energieprognosen in der Retrospektive. Analyse von Fehlerursachen der Prognose/Ist-Abweichung von Energiebedarfsschätzungen in der Bundesrepublik Deutschland von 1950 bis 1980. Dissertation. Fridericiana Karlsruhe (heute Karlsruher Institut für Technologie). Krause, F., Bossel, H., Müller-Reißmann, K. (1980): Energie-Wende. Wachstum und Wohlstand ohne Erdöl und Uran – Ein Alternativ-Bericht des ÖkoInstituts/Freiburg. Frankfurt am Main: Fischer. Krengel, R. (1986): Das Deutsche Institut für Wirtschaftsforschung. (Institut für Konjunkturforschung); 1925 - 1979. Berlin: Duncker und Humblot. Kronenberg, T., Martinsen, D., Pesch, T., Sander, M., Fischer, W., Hake, J., Markewitz, P. und Kuckshinrichs, W. (2011): Energieszenarien für Deutschland: Stand der Literatur und methodische Auswertung. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Kuosa, T. (2011): Evolution of futures studies. Futures, 43, S. 327-336. Labys, W. (2006): Modeling and Forecasting Primary Commodity Prices. Burlington VT: Ashgate Publishing Co. Lamnek, S. (2005): Qualitative Sozialforschung. Lehrbuch. 4. Auflage. Weinheim, Basel: Beltz. Lenhard, J., Küppers, G. und Shinn, T. (Hg.) (2006): Simulation. Pragmatic Construction of Reality. Dordrecht [u.a.]: Springer. Lentsch, J. und Weingart, P. (2011): Introduction: the quest for quality as a challenge to scientific policy advice: an overdue debate? In: J. Lentsch und P. Weingart (Hg.) The Politics of Scientific Advice. Institutional Design for Quality Assurance. Cambridge et al.: Cambridge University Press. S. 3-18.

L ITERATUR

| 275

Levi, I. (1980): The Enterprise of Knowledge. An Essay on Knowledge, Credal Probability, and Chance. Cambridge, Mass: MIT Press. Levien, R.E. (2000): RAND, IIASA, and the Conduct of Systems Analysis. In: A. C. Hughes und T. P. Hughes (Hg.) Systems, experts, and computers – The systems approach in management and engineering, World War II and after. Cambridge, Mass. [u.a.]: MIT Press. S. 433-462. Linßen, J., Markewitz, P., Martinsen, D. und Walbeck, M. (2006): Zukünftige Energieversorgung unter den Randbedingungen einer großtechnischen CO2Abscheidung und Speicherung. Abschlussbericht des Forschungsvorhabens FKZ 0326889. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Loulou, R., Remme, U., Kanudia, A., Lehtila, A. und Goldstein, G. (2005): Documentation for the TIMES Model – Part I. [pdf] Verfügbar über: [Zugriff am 19.01. 2015]. Mäki, U. (1992): On the method of isolation in economics. Poznan Studies in the Philosophy of Sciences and the Humanities, 26, S. 319-354. Mäki, U. (2004): Some Truths about Truth for Economists and their Critics and Clients. In: P. Mooslechner, H. Schuberth und M. Schürz (Hg.) Economic policy under uncertainty – The role of truth and accountability in policy advice. Cheltenham [u.a.]: Elgar. S. 9-39. Mai, T., Logan, J., Nate, B., Sullivan, P. und Bazilian, M. (2013): Re-Assume. A Decision Maker’s Guide to Evaluating Energy Scenarios, Modeling, and Assumptions. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Mannermaa, M. (1991): In search of an evolutionary paradigm for futures research. Futures, 23/4, S. 349-372. Mayring, P. (2008): Qualitative Inhaltsanalyse. Grundlagen und Techniken. 10. Auflage. Weinheim [u.a.]: Beltz. Meadows, D., Meadows, D., Zahn, E. und Milling, P. (1972): Die Grenzen des Wachstums. Bericht des Club of Rome zur Lage der Menschheit. Stuttgart: Dt. Verl.-Anst. Meister, M. (2011): Soziale Koordination durch Boundary Objects am Beispiel des heterogenen Feldes der Servicerobotik. Dissertation. Technische Universität Berlin. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Mindell, D.A. (2000): Automation’s Finest Hour: Radar and System Integration in World War II. In: A. C. Hughes und T. P. Hughes (Hg.) Systems, experts,

276 | M ODELLIERTE Z UKUNFT

and computers – The systems approach in management and engineering, World War II and after. Cambridge, Mass. [u.a.]: MIT Press. S. 27-56. Mißler-Behr, M. (1993): Methoden der Szenarioanalyse. Wiesbaden: Deutscher Universitäts-Verlag. Monton, B. und Mohler, C. (2008): Constructive Empiricism. In: E. N. Zalta (Hg.) The Stanford Encyclopedia of Philosophy (Winter 2008 Edition). Verfügbar über: [Zugriff am 19.01.2015]. Morgan, M.S. und Morrison, M. (Hg.) (1999): Models as Mediators – Perspectives on Natural and Social Science. Cambridge: Cambridge University Press. Morrison, M. (1999): Models as autonomous agents. In: M. S. Morgan und M. Morrison (Hg.) Models as Mediators – Perspectives on Natural and Social Science. Cambridge: Cambridge University Press. S. 38-65. Morrison, M. und Morgan, M.S. (1999): Models as mediating instruments. In: M. S. Morgan und M. Morrison (Hg.) Models as Mediators – Perspectives on Natural and Social Science. Cambridge: Cambridge University Press. S. 10-37. Nissler, D. (2011): Energieszenarien im Umweltbundesamt. In: C. Dieckhoff, W. Fichtner, A. Grunwald, S. Meyer, M. Nast, L. Nierling, O. Renn, A. Voß und M. Wietschel (Hg.) Energieszenarien – Konstruktion, Bewertung und Wirkung – „Anbieter“ und „Nachfrager“ im Dialog. Karlsruhe: KIT Scientific Publishing. S. 105-119. Nitsch, J. (2008): Leitstudie 2008. Weiterentwicklung der „Ausbaustrategie Erneuerbare Energien“ vor dem Hintergrund der aktuellen Klimaschutzziele Deutschlands und Europas. [Gutachten im Auftrag des BMU; pdf] Verfügbar über: [Zugriff am 19.01.2015]. Nützenadel, A. (2005): Stunde der Ökonomen. Wissenschaft, Politik und Expertenkultur in der Bundesrepublik 1949 - 1974. Göttingen: Vandenhoeck und Ruprecht. Öko-Institut e.V., Institut für Energie- und Klimaforschung, Systemforschung und Technologische Entwicklung am Forschungszentrum Jülich, DIW und ISI (2013): Politikszenarien für den Klimaschutz VI. TreibhausgasEmissionsszenarien bis zum Jahr 2030. [Gutachten im Auftrag des UBA; pdf] Verfügbar über: [Zugriff am 19.01.2015].

L ITERATUR

| 277

Pestel, E., Bauerschmidt, R., Gottwald, M., Hübl, L., Möller, K., Oest, W. und Ströbele, W. (1978): Das Deutschland-Modell. Herausforderungen auf dem Weg ins 21. Jahrhundert. Stuttgart: Dt. Verl.-Anst. Plett, H. (1954): Ökonometrische Nachfrageuntersuchung in der Energiewirtschaft. Möglichkeiten und Grenzen; mit Beispielen der Anwendung. München: R. Oldenbourg. Popp, R. und Schüll, E. (Hg.) (2009): Zukunftsforschung und Zukunftsgestaltung. Beiträge aus Wissenschaft und Praxis (gewidmet Rolf Kreibich zum 70. Geburtstag). Berlin [u.a.]: Springer. Prognos AG und GWS (2009): Auswirkungen von verschärften Klimaschutzzielen auf Wirtschaftsstruktur sowie Wachstum und Beschäftigung in Deutschland und in der EU. [Gutachten im Auftrag der RWE AG; pdf] Verfügbar über: [Zugriff am 19.01. 2015]. Remme, U. (2006): Zukünftige Rolle erneuerbarer Energien in Deutschland: Sensitivitätsanalysen mit einem linearen Optimierungsmodell. Disserstation. Universität Stuttgart. [pdf] Verfügbar über: [Zugriff am 19.01. 2015]. Rescher, N. (1998): Predicting the Future. An Introduction to the Theory of Forecasting. Albany, NY: State Univ. of New York Press. Rey, G. (2012): The Analytic / Synthetic Distinction. In: Edward N. Zalta (Hg.) Stanford Encyclopedia of Philosophy (Summer 2012 Edition). Verfügbar über: [Zugriff am 19.01.2015]. Sarewitz, D., Pielke, R.A. und Byerly, R. (Hg.) (2000): Prediction. Science, Decision-Making and the Future of Nature. Washington, D.C. [u.a.]: Island Press. Schimank, U. (2005): Differenzierung und Integration der modernen Gesellschaft. Beiträge zur akteurzentrierten Differenzierungstheorie 1. Wiesbaden: VS Verlag für Sozialwissenschaften. Schlenzig, C. (1998): PlaNet: Ein entscheidungsunterstützendes System für die Energie- und Umweltplanung. Dissertation. Universität Stuttgart. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Schützeichel, R. (2007): Soziologie des wissenschaftlichen Wissens. In: R. Schützeichel (Hg.) Handbuch Wissenssoziologie und Wissensforschung. Konstanz: UVK-Verlagsgesellschaft. S. 306-327.

278 | M ODELLIERTE Z UKUNFT

Schützeichel, R. (2008): Beratung, Politikberatung, wissenschaftliche Politikberatung. In: S. Bröchler und R. Schützeichel (Hg.) Politikberatung. Stuttgart: Lucius und Lucius. S. 5-32. Seetzen, J., Krengel, R. und von Kortzfleisch, G. (Hg.) (1979): Makroökonomische Input-Output-Analysen und dynamische Modelle zur Erfassung technischer Entwicklungen. Mit Beispielen aus der Energietechnik, Rohstofftechnik, Chemietechnik, Maschinenbautechnik. Basel [u.a.]: Birkhäuser. SRU (2010): 100% erneuerbare Stromversorgung bis 2050: klimaverträglich, sicher, bezahlbar. Stellungnahme. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Star, S.L. (2010): This is Not a Boundary Object: Reflections on the Origin of a Concept. Science, Technology & Human Values, 35/5, S. 601-617. Star, S.L. und Griesemer, J.R. (1989): Institutional Ecology, „Translations” and Boundary Objects: Amateurs and Professionals in Berkley’s Museum of Vertebrate Zoology, 1907-39. Social Studies of Science, 19, S. 387-420. Statistisches Bundesamt (2013): Volkswirtschaftliche Gesamtrechnungen. Wichtige Zusammenhänge im Überblick 2012. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Stuible, A. (2002): Ein Verfahren zur graphentheoretischen Dekomposition und algebraischen Reduktion von komplexen Energiesystemmodellen. Dissertation. Universität Stuttgart. [pdf] Verfügbar über: [Zugriff am 19.01.2015] Sugden, R. (2000): Credible worlds: the status of theoretical models in economics. Journal of Economic Methodology, 7/1, S. 1-31. Sugden, R. (2009): Credible Worlds, Capacities and Mechanisms. Erkenntnis, 70, S. 3-27. Svetlova, E. und Dirksen, V. (2014): Models at Work – Models in DecisionMaking. Science in Context, 27/04, S. 561-577. Teske, S. (2011): Energy [R]evolution Scenarios. In: C. Dieckhoff, W. Fichtner, A. Grunwald, S. Meyer, M. Nast, L. Nierling, O. Renn, A. Voß und M. Wietschel (Hg.) Energieszenarien – Konstruktion, Bewertung und Wirkung – „Anbieter“ und „Nachfrager“ im Dialog. Karlsruhe: KIT Scientific Publishing. S. 121-140. Van der Heijden, K. (1996): Scenarios: the art of strategic conversation. Chichester [u.a.]: Wiley.

L ITERATUR

| 279

Van Egmond, S. und Zeiss, R. (2010): Modeling for Policy. Science Studies, 23/1, S. 58-78. Van Fraassen, B.C. (1980): The scientfic image. Oxford et al.: Oxford University Press. Von Auer, L. (2003): Ökonometrie. Eine Einführung. 2. Auflage. Berlin [u.a.]: Springer. Walbeck, M., Wagner, H., Martinsen, D. und Bundschuh, V. (1988): Energie und Umwelt als Optimierungsaufgabe. Das MARNES-Modell. Berlin [u.a.]: Springer. Wehling, P. (2001): Jenseits des Wissens? Wissenschaftliches Nichtwissen aus soziologischer Perspektive. Zeitschrift für Soziologie, 30/6, S. 465-484. Weingart, P. (2005): Die Stunde der Wahrheit. Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft. Weilerswist: Velbrück Wissenschaft. Weingart, P. (2006): Erst denken, dann handeln? Wissenschaftliche Politikberatung aus der Perspektive der Wissens(chaft)soziologie. In: S. Falk, D. Rehfeld, A. Römmele und M. Thunert (Hg.) Handbuch Politikberatung. Wiesbaden: VS Verlag für Sozialwissenschaften. S. 35-44. Weingart, P., Kielmansegg, P.G., Ash, G.M., Hüttl, R.F., Kurth, R., Mayntz, R., Münkler, H., Neidhardt, F., Pinkau, K., Renn, O. und Schmidt-Aßmann, E. (2008): Leitlinien Politikberatung. [pdf] Verfügbar über: [Zugriff am 19.01.2015]. Weingart, P., Lentsch, J. (2008): Wissen – Beraten – Entscheiden. Form und Funktion wissenschaftlicher Politikberatung in Deutschland. Weilerswist: Velbrück. Welsch, H. (1996): Klimaschutz, Energiepolitik und Gesamtwirtschaft. Eine allgemeine Gleichgewichtsanalyse für die Europäische Union. München: Oldenbourg. Werbos, P.J. (1990): Econometric techniques: theory versus practice. Energy The International Journal, 15/3-4, S. 213-236. West, G.R. (1995): Comparison of Input-Output, Input-Output Econometric and Computable General Equilibrium Impact Models at the Regional Level. Economic Systems Research, 7/2, S. 209 - 227. Wilms, F.E.P. (Hg.) (2006): Szenariotechnik. vom Umgang mit der Zukunft. Bern [u.a.]: Haupt Verlag. Winsberg, E. (1999): Sanctioning Models. Science in Context, 12/2, S. 275-292. Winsberg, E. (2009): Computer Simulation and the Philosophy of Science. Philosophy Compass, 4/5, S. 835-845.

280 | M ODELLIERTE Z UKUNFT

Winsberg, E. (2010): Science in the age of computer simulation. Chicago: The University of Chicago Press. ZEW, IER, ISI, ifeu - Institut für Energie- und Umweltforschung GmbH, ZIV Zentrum für integrierte Verkehrssysteme GmbH, Institut Wohnen und Umwelt GmbH, Institut für Solare Energieversorgung und Hessisches Landesamt für Umwelt und Geologie (2006): Integriertes Klimaschutzprogramm Hessen - InKlim 2012. Endbericht. [Gutachten im Auftrag des Hessischen Ministeriums für Umwelt, Energie, Landwirtschaft und Verbraucherschutz; pdf] Verfügbar über: [Zugriff am 19.01.2015].

Science Studies Edgar Grande, Dorothea Jansen, Otfried Jarren, Arie Rip, Uwe Schimank, Peter Weingart (Hg.) Neue Governance der Wissenschaft Reorganisation – externe Anforderungen – Medialisierung 2013, 374 Seiten, kart., zahlr. Abb., 32,80 €, ISBN 978-3-8376-2272-0

Anna-Sophie Jürgens, Tassilo Tesche (Hg.) LaborARTorium Forschung im Denkraum zwischen Wissenschaft und Kunst. Eine Methodenreflexion Juni 2015, ca. 340 Seiten, kart., zahlr. Abb., ca. 34,99 €, ISBN 978-3-8376-2969-9

Kirsten Schmidt Was sind Gene nicht? Über die Grenzen des biologischen Essentialismus 2013, 348 Seiten, kart., 29,99 €, ISBN 978-3-8376-2583-7

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Rudolf Stichweh Wissenschaft, Universität, Professionen Soziologische Analysen (Neuauflage) 2013, 360 Seiten, kart., 34,80 €, ISBN 978-3-8376-2300-0

Tristan Thielmann, Erhard Schüttpelz (Hg.) Akteur-Medien-Theorie 2013, 776 Seiten, Hardcover, zahlr. Abb. , 39,80 €, ISBN 978-3-8376-1020-8

Cheryce von Xylander, Alfred Nordmann (Hg.) Vollendete Tatsachen Vom endgültig Vorläufigen und vorläufig Endgültigen in der Wissenschaft September 2015, ca. 320 Seiten, kart., ca. 34,99 €, ISBN 978-3-8376-2542-4

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Andrea Adams Psychopathologie und »Rasse« Verhandlungen »rassischer« Differenz in der Erforschung psychischer Leiden (1890-1933) 2013, 338 Seiten, kart., 34,99 €, ISBN 978-3-8376-2468-7

Catarina Caetano da Rosa Operationsroboter in Aktion Kontroverse Innovationen in der Medizintechnik 2013, 392 Seiten, kart., zahlr. z.T. farb. Abb., 34,80 €, ISBN 978-3-8376-2165-5

Tobias Cheung Organismen. Agenten zwischen Innen- und Außenwelten 1780-1860 2014, 348 Seiten, kart., 34,99 €, ISBN 978-3-8376-2646-9

Diego Compagna (Hg.) Leben zwischen Natur und Kultur Zur Neuaushandlung von Natur und Kultur in den Technikund Lebenswissenschaften Juni 2015, ca. 250 Seiten, kart., ca. 32,80 €, ISBN 978-3-8376-2009-2

Gert Dressel, Wilhelm Berger, Katharina Heimerl, Verena Winiwarter (Hg.) Interdisziplinär und transdisziplinär forschen Praktiken und Methoden 2014, 366 Seiten, kart., 34,99 €, ISBN 978-3-8376-2484-7

Matthias Groß Experimentelles Nichtwissen Umweltinnovationen und die Grenzen sozial-ökologischer Resilienz

Gudrun Hessler, Mechtild Oechsle, Ingrid Scharlau (Hg.) Studium und Beruf – Studienstrategien – Praxiskonzepte – Professionsverständnis Perspektiven von Studierenden und Lehrenden nach der Bologna-Reform 2013, 314 Seiten, kart., 29,80 €, ISBN 978-3-8376-2156-3

Oliver Ibert, Felix C. Müller, Axel Stein Produktive Differenzen Eine dynamische Netzwerkanalyse von Innovationsprozessen 2014, 234 Seiten, kart., 32,99 €, ISBN 978-3-8376-2699-5

David Kaldewey Wahrheit und Nützlichkeit Selbstbeschreibungen der Wissenschaft zwischen Autonomie und gesellschaftlicher Relevanz 2013, 494 Seiten, kart., 39,99 €, ISBN 978-3-8376-2565-3

Fabian Karsch Medizin zwischen Markt und Moral Zur Kommerzialisierung ärztlicher Handlungsfelder März 2015, 256 Seiten, kart., zahlr. Abb., 32,99 €, ISBN 978-3-8376-2890-6

Sibylle Peters (Hg.) Das Forschen aller Artistic Research als Wissensproduktion zwischen Kunst, Wissenschaft und Gesellschaft 2013, 262 Seiten, kart., 29,80 €, ISBN 978-3-8376-2172-3

2014, 202 Seiten, kart., 29,99 €, ISBN 978-3-8376-2855-5

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de