Nach der Wirtschafts- und Finanzkrise: Ansätze für eine erfolgreiche Geld-, Finanz- und Immobilienpolitik: Festschrift für Hans-Hermann Francke zum 70. Geburtstag [1 ed.] 9783428540525, 9783428140527

»Geld-, Finanz- und Immobilienpolitik« sind die Themen, die während der letzten 40 Jahre im Zentrum des wissenschaftlich

109 85 7MB

German Pages 400 Year 2013

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Nach der Wirtschafts- und Finanzkrise: Ansätze für eine erfolgreiche Geld-, Finanz- und Immobilienpolitik: Festschrift für Hans-Hermann Francke zum 70. Geburtstag [1 ed.]
 9783428540525, 9783428140527

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Studien zur Kredit- und Finanzwirtschaft Studies in Credit and Finance Band 190

Nach der Wirtschafts- und Finanzkrise: Ansätze für eine erfolgreiche Geld-, Finanz- und Immobilienpolitik Festschrift für Hans-Hermann Francke zum 70. Geburtstag

Herausgegeben von Alexander Eschbach, Jochen Michaelis, Harald Nitsch und Alexander Spermann

Duncker & Humblot · Berlin

Alexander Eschbach, Jochen Michaelis, Harald Nitsch und Alexander Spermann (Hrsg.)

Nach der Wirtschafts- und Finanzkrise: Ansätze für eine erfolgreiche Geld-, Finanzund Immobilienpolitik

Studien zur Kredit- und Finanzwirtschaft Studies in Credit and Finance (bis Band 178: Untersuchungen über das Spar-, Giro- und Kreditwesen Abteilung A: Wirtschaftswissenschaft Begründet von Fritz Voigt) Herausgegeben von Horst Gischer, Christoph J. Börner, Ulrich Burgard, Bernhard Herz, Peter Reichling und Thomas Spengler

Band 190

Nach der Wirtschafts- und Finanzkrise: Ansätze für eine erfolgreiche Geld-, Finanz- und Immobilienpolitik Festschrift für Hans-Hermann Francke zum 70. Geburtstag

Herausgegeben von Alexander Eschbach, Jochen Michaelis, Harald Nitsch und Alexander Spermann

Duncker & Humblot · Berlin

Gedruckt mit freundlicher Unterstützung des Deutschen Sparkassenund Giroverbandes e.V., Bonn, sowie der Deutschen Immobilien-Akademie an der Universität Freiburg GmbH, Freiburg.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten © 2013 Duncker & Humblot GmbH, Berlin Fremddatenübernahme: L101 Mediengestaltung, Berlin Druck: Berliner Buchdruckerei Union GmbH, Berlin Printed in Germany ISSN 1861-0951 ISBN 978-3-428-14052-7 (Print) ISBN 978-3-428-54052-5 (E-Book) ISBN 978-3-428-84052-6 (Print & E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706

Internet: http://www.duncker-humblot.de

Vorwort „Je weniger wahrscheinlich die Gelegen­heit ist, desto schlimmer wird es sein, sie zu versäumen, wenn sie sich ergibt, denn die Erfahrung, die sie bietet, wird fast einzigartig sein.“

Zu den unwahrscheinlichen, aber erfahrungsversprechenden Gelegenheiten gemäß diesem Zitat aus Friedrich August von Hayeks „Verfassung der Freiheit“ zählen zweifelsohne das Verfassen von Promotionen, das Antreten einer wissenschaftlichen Assistenzstelle oder das Eingehen von guten Freundschaften. Zumal dann, wenn es sich beim Doktorvater, Vorgesetzten oder Freund um eine Persönlichkeit wie Hans-Hermann Francke handelt. Mit dieser Festschrift wollen Schüler, Kollegen und Freunde von HansHermann Francke ihn und sein Schaffen zu seinem 70. Geburtstag würdigen – und ihm auch ein wenig Freude bereiten mit einer Schrift, die in dem Ehrgeiz konzipiert ist, zumindest einige seiner vielfältigen wissenschaft­ lichen Interessen zu streifen. Hans-Hermann Francke wurde am 12. August 1943 in Posen geboren. Obwohl mehr Bremer denn Hamburger Jung entschied er sich für die Universität Hamburg, um dort von 1965 bis 1970 Volkswirtschaftslehre zu studieren. Karl Schiller und Helmut Schmidt können wohl zu seinen frühen Vorbildern gezählt werden. Vom liberalen und weltoffenen Hamburg zog es ihn dann ins konservativere Freiburg – alle drei Eigenschaften dürften ihm damals auch schon charaktereigen gewesen sein. In Freiburg lernte er als junger Hochschulassistent Friedrich August von Hayek kennen, der ihn sicherlich ebenso prägte wie sein akademischer Lehrer und Doktorvater, Werner Ehrlicher. Im Jahr 1974 promovierte er über das Thema „Banken­ liquidität und Zins als Orientierungsvariable der Geldpolitik“, 1980 habilitierte er sich mit einer Arbeit über die „Portfolioeffekte öffentlicher Kreditnahme. Ihre Bedeutung für die private Realvermögensbildung und deren Finanzierung“. Seine weiteren beruflichen Stationen manifestierten das fortwährende Pendeln zwischen Hamburg und Freiburg. Den ersten Ruf erhielt er 1985 auf eine Professur für Finanzwissenschaft an der Universität der Bundeswehr, heute Helmut-Schmidt-Universität Hamburg. Gut drei Jahre später ging es wieder retour, 1988 übernahm er als Nachfolger von Werner Ehr­ licher den Lehrstuhl für Finanzwissenschaft und Monetäre Ökonomie an der

6 Vorwort

Universität Freiburg, den er bis zu seiner Pensionierung 2008 innehatte. Weiterhin im Norden Hamburgs, genauer in Klein Nordende, wohnend war er vermutlich der Pendler mit dem längsten Arbeitsweg in Deutschland. Sein Umfeld hat ihn hierfür stets bedauert, was er indes ebenso stets zurückgewiesen hat, denn die langen Bahnfahrten waren oftmals die einzigen Zeiten, in denen er neben Fachartikeln und Diplomarbeiten auch mal in Ruhe den „kicker“ studieren konnte. Wie die Titel seiner Dissertation und Habilitation vermuten lassen, beschäftigte sich Hans-Hermann Francke in seiner Forschungsarbeit zunächst vor allem mit finanzwissenschaftlichen und geldpolitischen Fragestellungen. 1992 und 1998 ge­ hörte Francke mit seiner Unterzeichnung der beiden Professoren-Aufrufe gegen eine übereilte Euro-Einführung zu den frühen Warnern, denen im Lichte heutiger Erfahrungen Recht gegeben werden muss. Auch in seinen Schriften zeigte er Weitblick und verfasste beispielsweise bereits 1993 einen Artikel mit dem Titel: „Zukunftsprobleme der europäischen Integration – von Maastricht zu einem europäischen Finanzausgleichssystem?“ Im Jahr 2000 erhielt er die Ehrendoktorwürde der Universität Basel. Francke war lange Zeit auch geschäftsführender Herausgeber der bei Duncker & Humblot erscheinenden Zeitschrift „Kredit und Kapital“, und bis vor Kurzem war er Akademischer Leiter der Verwaltungs- und Wirtschafts-Akademie (VWA) Freiburg sowie Akademischer Leiter der Deutschen Immobilien-Akademie (DIA) an der Universität Freiburg. Es war in den 1990er Jahren, dass Francke seine Leidenschaft für die Immobilie als Wissenschaftsgegenstand entdeckte und „Immobilienökonomie“ als bei den Studenten gern gesehenes Wahlfach an der Universität etablierte. Entsprechend seinem breiten Forschungsinteresse von der Finanzwissenschaft über die Geldpolitik bis hin zur Immobilienökonomie ist denn auch die Gliederung dieses Buches thematisch dreigeteilt. Die Strecke zwischen Klein Nordende und Freiburg wurde Francke nicht nur wegen der schnellen ICE-Verbindung zu kurz – Asien weckte sein Interesse. Zunächst beteiligte er sich an wissenschaftlich motivierten Ausflügen ins japanische Nagoya, um die Freundschaft zwischen der dortigen und der hiesigen Universität zu fördern. Nach ersten Erfahrungen mit chine­ sischen Doktoranden in den neunziger Jahren intensivierte er in den 2000er Jahren die Partnerschaft und den Austausch zwischen der Universität Freiburg und den chinesischen Partnern der Chi­nese Academy of Social Sciences. Durch sein Engagement konnten Austauschprogramme für junge chinesische und deutsche Wissenschaftler realisiert werden, in deren Genuss die letzte Generation seiner Doktoranden z. B. in Form von Forschungsaufenthalten in Peking und Shanghai kam. Den chinesischen Gästen hierzulande galten seine uneingeschränkte Gastfreundschaft und Aufmerksamkeit, und

Vorwort7

jeder konnte spüren, dass Francke tatsächlich schon als Kind von China fasziniert gewesen sein musste, wie er es gelegentlich bekundete. Das Arbeiten mit jungen, „hungrigen“ Menschen war und ist eine fortwährende Antriebsfeder für Hans-Hermann Francke. Der Volkswirt spricht hier von einer Pareto-Verbesserung, die Doktoranden und Mitarbeiter profitierten von seiner Eloquenz und Begeisterungsfähigkeit, Hans-Hermann Francke profitierte vom Engagement und Zusammenhalt seiner Schüler. Wie eng das Band zwischen Doktorvater und ehemaligen Doktoranden war und bis heute ist, zeigt der Umstand, dass weitaus mehr Schüler bereit waren, an dieser Festschrift mitzuarbeiten, als dass Platz für jeden Artikel gewesen wäre. Befähigter Pädagoge, exzellenter Rhetoriker, weitblickender Ökonom, der neben den Formeln Platz für Ökonomie ließ – Francke war als Professor für Volkswirtschaftslehre sicherlich an seiner richtigen Stelle. Dass er dabei stets auch Menschlichkeit und Großzügigkeit walten ließ, machte die Bekanntschaft mit ihm besonders wertvoll. Hans-Hermann Francke und seiner Frau Ursula wünschen wir mit dieser Festschrift stellvertretend für all seine ehemaligen Schüler und Kollegen von Herzen alles Gute. Berlin / Kassel / Mannheim / Eschborn und Freiburg, im August 2013

Die Herausgeber

Inhaltsverzeichnis I. Monetäre Ökonomie Renate Ohr und Mehmet Özalbayrak Heterogenität in der Europäischen Währungsunion: Zur Bedeutung unterschiedlicher Exportelastizitäten  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Wolf Schäfer Transnationales Blockfloating: Die Euro-Zone muss sich konsolidieren  . . . . 41 Hans-Helmut Kotz Geld und Kredit – konventionell und unkonventionell  . . . . . . . . . . . . . . . . . . 49 Jochen Michaelis Und dann werfen wir den Computer an – Anmerkungen zur Methodik der DSGE-Modelle  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Henner Schierenbeck Zur Kritik an starren gesetzlichen Zinshöchstgrenzen für Konsumentenkredite (am Beispiel der Schweiz)  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 Dierk Brandenburg and Joe Hanmer Bank Liquidity: Will 30 Days Make a Difference?  . . . . . . . . . . . . . . . . . . . . . 91 Michael Carlberg Die große Rezession  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 II. Finanzwissenschaft Wolfgang Scherf unter Mitwirkung von Alois Oberhauser Schuldenpolitik zwischen Stabilisierung und Konsolidierung  . . . . . . . . . . . . . 127 Bernd Raffelhüschen und Johannes Vatter Vom kranken Mann Europas zur Insel der Glückseligkeit: Eine zufriedenheitsökonomische Perspektive auf die deutsche Volkswirtschaft  . . . . . . . . . . . 143 Günter Müller Telematik: „Von Kommunikation zum Wissen?“  . . . . . . . . . . . . . . . . . . . . . . . 161

10 Inhaltsverzeichnis Alexander Batteiger, Knut Blind und Jan Peuckert Deutschland als Leitmarkt für Null-Emission-Fahrzeuge  . . . . . . . . . . . . . . . . 179 Alexander Spermann Bedingungsloses Grundeinkommen: Schnapsidee oder Geniestreich?  . . . . . . 205 Alexander Eschbach Staatsverschuldung, Sozialausgaben und die kommende Tyrannei der Demografie  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 III. Immobilienökonomie Sven Bienert Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion – Was bietet die Forschung nach Zertifikaten und Co.?  . . . . . . . . . . . . . . . . . . . 251 Robert Göötz Cutting the Cake  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Wolfgang Kleiber Der landwirtschaftliche Grundstücksmarkt  . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 Marianne Moll-Amrein und Daniela Schaper Ermittlung des Gebäudewertanteils von Renditeobjekten in Gebieten mit hohem Bodenpreisniveau  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 Harald Nitsch und Kyungsun Park Tobins q aus der Perspektive der Verkehrswertermittlung  . . . . . . . . . . . . . . . . 349 Heinz Rehkugler und Jan-Otto Jandl Das Vermieter-Mieter-Dilemma bei der energetischen Sanierung von Wohngebäuden – Probleme und Lösungsansätze  . . . . . . . . . . . . . . . . . . . 363 Über die Autoren  . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393

I. Monetäre Ökonomie

Heterogenität in der Europäischen Währungsunion: Zur Bedeutung unterschiedlicher Exportelastizitäten Von Renate Ohr und Mehmet Özalbayrak

I. Einleitung Eine Währungsunion benötigt ein gewisses Maß an Homogenität der beteiligten Länder, wenn die einheitliche Geld- und Währungspolitik funktionieren soll. Für die Europäische Währungsunion sollte die Erfüllung der Maastrichter Konvergenzkriterien diese Homogenität gewährleisten. Mittlerweile ist deutlich geworden, dass diese Kriterien nicht genügen, um die Effizienz der Währungsunion zu garantieren, sondern dass weitere Aspekte einbezogen werden müssen. Zudem hat sich gezeigt, dass auch die Theorie der Endogenität des optimalen Währungsraums (Rose  /  Frankel 1998, De Grauwe / Mongelli 2005) in der Europäischen Währungsunion (EWU) nicht hinreichend bestätigt werden kann und statt konvergenten ökonomischen Entwicklungen Divergenz in wichtigen gesamtwirtschaftlichen Daten festzustellen ist. So weisen Länder wie Griechenland, Spanien, Portugal seit Beginn der Währungsunion eine anhaltend höhere Inflationsrate als etwa Deutschland auf, so dass sich in diesen Ländern eine – die Wettbewerbsfähigkeit nachhaltig schwächende – signifikante reale Aufwertung ergeben hat. Das starke Auseinanderdriften der realen Wechselkurse innerhalb des Euroraums spiegelt sich zugleich in stark divergierenden Leistungsbilanz­ entwicklungen wider.1 Die seit 2010 bestehende Eurokrise ist daher auch nicht allein auf die zu hohe Staatsverschuldung einiger Länder zurückzuführen, sondern auch auf die sich sehr stark auseinander entwickelnde internationale Wettbewerbsfähigkeit der Partnerländer. Die daraus resultierenden chronischen Leistungsbilanzungleichgewichte führten zu weiteren Spannungen innerhalb des Euroraums. Die Heterogenität der Euroländer, die eine effiziente gemeinsame Geldund Währungspolitik erschwert, zeigt sich jedoch nicht nur in unterschiedlichen Lohn- und Preisentwicklungen, sondern auch in unterschiedlichen Reaktionen auf Preis- oder Wechselkursveränderungen. Differieren die 1  Vgl.

Ohr (2009), S. 24.

14

Renate Ohr und Mehmet Özalbayrak

Preis- und Wechselkurselastizitäten, aber auch die Einkommenselastizitäten im Außenhandel zwischen den Europartnern, so werden etwa Veränderungen des Außenwerts des Euro oder Veränderungen in der Weltkonjunktur zu unterschiedlichen Folgen für die Mitgliedsländer führen. Aber auch die internen realen Wechselkursveränderungen in Folge divergierender Inflationsraten können sich dann unterschiedlich stark auf die jeweiligen Handelsströme auswirken – je nach Preiselastizität der Export- und Importnachfrage. Um die Heterogenität innerhalb des Euroraums und die damit verbundenen Probleme besser erfassen zu können, ist es daher nicht nur wichtig, die Entwicklung der realen effektiven Wechselkurse der einzelnen Länder zu analysieren, sondern auch die Reaktion auf die damit verbundenen Wettbewerbsveränderungen. Dies soll im vorliegenden Beitrag geschehen, wobei zunächst nur die Exportseite herangezogen wird und hierfür die Preis- bzw. Wechselkurselastizitäten und die Einkommenselastizitäten betrachtet werden.2 Zudem soll der Handel zwischen EWU-Partnern vom Handel mit Drittländern unterschieden werden. Es zeigt sich dabei, dass auch in den Wechselkurs- und Einkommenselastizitäten eine deutliche Heterogenität zwischen den Euroländern vorliegt. Darüber hinaus wird deutlich, dass die Handelsströme innerhalb der EWU in anderer Form auf reale Wechselkursänderungen reagieren als gegenüber Drittländern. Der vorliegende Artikel gliedert sich im Weiteren wie folgt: Zunächst wird ein kurzer Literaturüberblick über vorhandene Untersuchungen zu Preis- und Einkommenselastizitäten im Außenhandel verschiedener Länder gegeben. In Kapitel 3 wird die Methodik der eigenen empirischen Untersuchung erläutert. In Kapitel 4 werden die Resultate vorgestellt und diskutiert. Die Arbeit schließt mit einer Zusammenfassung der Ergebnisse und einem Ausblick.

II. Literaturüberblick Es gibt mittlerweile eine Reihe von Beiträgen, die die Außenhandelselastizitäten für verschiedene Länder untersuchen. Dabei werden zumeist die Export- und Importelastizitäten separat betrachtet. Die bisherigen Analysen unterscheiden sich dabei sowohl in der Schätzmethodik als auch in der Auswahl der Variablen und der Handelspartner. Hinsichtlich der Methodik (aber auch zeitlich) kann man in der Literatur grob zwei Kategorien unterscheiden. Zunächst gab es die Phase, in der solche Elastizitäten mit einfa2  Wir beschränken uns hier vorerst auf die Betrachtung der Exporte, da die Wettbewerbsfähigkeit eines Landes zumeist primär an seiner Fähigkeit gemessen wird, seine Produkte auf den internationalen Märkten absetzen zu können. Vgl. European Commission (2009), S. 18 ff.



Heterogenität in der Europäischen Währungsunion

15

chen Schätzmethoden, wie OLS, ermittelt wurden, in jüngerer Zeit überwiegen Ansätze, in denen die Elastizitäten mit Hilfe der Kointegrationsanalyse untersucht werden. Aus der „Vor-Kointegrations-Epoche“3 seien im Folgenden kurz drei Beiträge vorgestellt. Houthakker / Magee (1969) beispielsweise untersuchen die Exportnachfrageelastizitäten einer Reihe von industrialisierten Ländern für den Zeitraum 1951–1966.4 In der Exportnachfragefunktion sind die realen Güterexporte der betrachteten Länder vom Welteinkommen und von den Preisen abhängig. Das Welteinkommen wird dabei durch einen Index des aggregierten Bruttosozialprodukts von 26 Handelspartnern approximiert, die mit ihren jeweiligen Anteilen an den Gesamtexporten gewichtet werden. Das erwartete Vorzeichen des Schätzers für die Einkommensvariable ist positiv. Die Preisvariable in der Exportnachfragefunktion wird durch den Quotienten aus inländischem Exportpreisindex und aggregiertem Exportpreisindex der 26 Handelspartner gebildet. Steigt der Wert des Quotienten, so wertet das betrachtete Land real gegenüber seinen Konkurrenten auf, so dass eine negative Abhängigkeit der Exporte von dieser Preisvariablen zu erwarten ist. Bei der Schätzung dieser Exportnachfragefunktion mittels OLS finden Houthakker / Magee in den meisten Fällen die antizipierten Vorzeichen bestätigt. Insgesamt sind nach dieser Untersuchung die Exporte der betrachteten Industrieländer sehr einkommenselastisch, wobei die Schätzer auch überwiegend statistisch signifikant sind. Die Preiselastizitäten sind dagegen meist unelastisch, teilweise nicht signifikant oder weisen sogar das falsche Vorzeichen auf.5 So liegen die Werte der Einkommenselastizität der Exportnachfrage in Portugal, Spanien, Frankreich und den Niederlanden zwischen 1,4 und 1,9, und in Italien und Deutschland sogar zwischen 2,4 und 2,95. Hinsichtlich der Preiselastizitäten sind die Exporte von Italien, Portugal, Spanien und den Niederlanden mit Werten zwischen –0,03 und –0,82 unelastisch, während die Exporte Frankreichs mit –2,27 sehr elastisch auf Preisänderungen reagieren. Deutschland weist nach dieser Studie eine positive, jedoch nicht signifikante Preiselastizität auf.6 Auch Wilson  /  Takacs (1979) benutzen eine OLS-Schätzung. Sie untersuchten die Handelselastizitäten für Kanada, Deutschland, Frankreich, Japan, Großbritannien und die USA, jeweils bezüglich der übrigen Länder aus 3  Meurers

(2002), S. 39. Jahresdaten für die Schätzung verwendet wurden, ist der Stichprobenumfang allerdings relativ gering. 5  Vgl. Houthakker / Magee (1969), S. 112 ff. 6  Wir greifen hier und im Folgenden nur jene Länder heraus, die für den späteren Vergleich mit unseren eigenen Ergebnissen relevant sind. 4  Da

16

Renate Ohr und Mehmet Özalbayrak

dieser Gruppe. Der Beobachtungszeitraum umfasst die Jahre 1957–1971, hier jedoch auf Grundlage von Quartalsdaten. Das Einkommen der Handelspartner wird durch den exportgewichteten Index der industriellen Produktion der oben genannten Länder bzw. (bei den USA) des Bruttonationaleinkommens approximiert. Die Bedeutung der preislichen Wettbewerbsfähigkeit für die Exportnachfrage wird hier nicht durch eine Variable, sondern durch drei Variable gemessen, indem der reale effektive Wechselkurs aufgesplittet wird: Als getrennte Variablen werden die gewichteten ausländischen Großhandelspreisindizes, der inländische Großhandelspreisindex und der nominale effektive Wechselkurs aufgenommen, um zu untersuchen, ob Preisveränderungen und Wechselkursveränderungen sich in unterschiedlicher Weise auf den Handel auswirken. Da der nominale effektive Wechselkurs hier mengennotiert ist, wird bei einer nominalen Aufwertung ein Rückgang der Exportnachfrage erwartet. Wilson / Takacs kommen zu dem Ergebnis, dass das Einkommen bei fast allen Ländern einen statistisch signifikanten und relativ starken (positiven) Einfluss auf die Exporte hat, während die Preis- und Wechselkurselastizitäten, je nach Land, sehr unterschiedlich hoch ausfallen.7 So liegen die Einkommenselastizitäten der Exportnachfrage in Deutschland und Frankreich bei 1,1 bzw. 2,1 und die (Inlands)Preis- und Wechselkurselastizitäten bei –1,9 bzw. –0,4.8 Ähnlich wie die Autoren zuvor haben auch Warner / Kreinin (1983) Export­ elastizitäten mit OLS geschätzt, und zwar für 19 industrialisierte Länder und den Zeitraum 1971–1978 (anhand von Quartalsdaten). Das Einkommen des Rests der Welt wurde durch das gewichtete Bruttoinlandsprodukt von 23 Haupthandelspartnern approximiert. Weitere unabhängige Variable der Exportnachfragefunktion sind der heimische Exportpreis, der gewichtete Exportpreis der Haupthandelspartner sowie der nominale effektive Wechselkurs in Mengennotierung und der erwartete Wechselkurs. Die Schätzer zeigen die erwarteten Vorzeichen und sind überwiegend statistisch signifikant. Die Schätzer der Preis- und Wechselkursvariablen sowie der Einkommensvariablen zeigen länderabhängig unterschiedlich starke Effekte auf die realen Exporte. Die Exporte Frankreichs, Deutschlands und Italiens sind mit Werten zwischen 0,46 und 0,81 relativ einkommensunelastisch, wohingegen Niederlande und Österreich mit Werten von 1,19 bzw. 1,39 elastischer auf Einkommensänderungen reagieren. Hinsichtlich der Wechselkurselastizität sind die Exporte der europäischen Länder in der Regel elastisch, unterscheiWilson / Takacs (1979), S. 267 ff. Preiselastizitäten bezogen auf den Inlandspreis haben hier fast immer denselben Wert wie die entsprechenden Wechselkurselastizitäten. Die Preiselastizität bezogen auf die Auslandspreise ist dagegen in allen Fällen sehr viel höher. 7  Vgl. 8  Die



Heterogenität in der Europäischen Währungsunion

17

den sich jedoch in der Höhe sehr stark voneinander.9 So reagieren die Exporte Deutschlands, der Niederlande und Österreichs mit Werten zwischen –4 und –2 relativ stark auf Veränderungen des Wechselkurses, die Exporte Spaniens und Italiens dagegen mit einer Wechselkurselastizität im Bereich von –1,1 deutlich schwächer. Schon diese drei Beispiele zeigen recht unterschiedliche Ergebnisse für die Auswirkungen realer Wechselkursänderungen auf die Exporte – seien sie durch Preisveränderungen oder nominale Wechselkursveränderungen hervorgerufen. In einem ausführlichen Überblick zu bis Anfang der 1980er Jahre durchgeführten empirischen Studien zu Preis- und Einkommenselastizitäten im Außenhandel zeigen auch Goldstein / Khan (1985) diese Heterogenität in den Ergebnissen auf.10 Diese mag teilweise auf die unterschiedlichen betrachteten Zeiträume zurückzuführen sein, aber auch auf die unterschiedliche Definition der Preisvariablen und der Einkommensvariablen. Problematisch bei Schätzungen von Elastizitäten mittels OLS ist jedoch zudem, dass ein langfristiger Zusammenhang zwischen den Variablen geschätzt wird, der nicht unbedingt existiert.11 Dies trifft insbesondere auch auf makroökonomischen Zeitreihen zu, die meist einen stochastischen Trend aufweisen und daher nicht stationär sind. Bei einer einfachen Regression solcher Zeitreihen können dann sogenannte Scheinregressionen auftreten. Die Folge sind ein hohes R2 und als statistisch signifikant ausgewiesene Beziehungen zwischen den Variablen, die aber nicht kausal sind. Die bisherigen OLS-Schätzungen sind somit nicht generell als falsch einzustufen, jedoch müsste nachträglich ausgeschlossen werden, dass die Ergebnisse auf Grund von Scheinregressionen zustande gekommen sind. Eine mögliche Lösung zur Vermeidung von Scheinregressionen ist die Differenzenbildung der trendbehafteten Zeitreihen, bis diese stationär sind. Das Problem bei dieser Vorgehensweise ist jedoch, dass Informationen verloren gehen und das Schätzmodell daher ebenfalls zu Fehlern führen kann.12 Die Möglichkeit, eine Scheinregression zwischen trendbehafteten Zeitreihen 9  Auch hier werden die Preiselastizitäten getrennt von den Wechselkurselastizitäten untersucht. Sie unterscheiden sich jeweils von den Wechselkurselastizitäten und sind in einigen Ländern etwas größer als diese (etwa in Deutschland oder Frankreich), in einigen Ländern etwas geringer (etwa in Italien oder Österreich). Die absoluten Unterschiede zwischen den Ländern zeigen sich aber bei den Preiselastizitäten in ähnlichem Maße wie bei der Wechselkurselastizität. 10  Vgl. Goldstein / Khan (1985), S. 1078 ff. 11  Schon Yule (1926) zeigte bei einem Experiment, in dem zufällig Zeitreihen generiert wurden und anschließend regressiert wurden, dass statistisch signifikante Zusammenhänge zwischen den Variablen existieren können, obwohl es keinen kausalen Grund dafür gibt. Vgl. Yule (1926), S. 2. 12  Vgl. auch im Folgenden Meurers (2002), S. 39 ff.

18

Renate Ohr und Mehmet Özalbayrak

auszuschließen und dennoch Niveauvariablen für die Schätzung zu nutzen, bietet jedoch die Kointegrationsanalyse von Engle / Granger (1987) und Johansen (1988). Dabei wird überprüft, ob zwischen den Variablen ein langfristiges Gleichgewicht besteht. Sofern dies der Fall ist, kann eine Scheinregression in der Schätzung ausgeschlossen werden. Die Kointegrationsanalyse bildet daher die Grundlage aktuellerer Studien zu Handelselastizitäten. So untersuchten beispielsweise Hooper  /  Johnson  /  Marquez (2000) die Handelselastizitäten der G-7 Staaten gegenüber dem Rest der Welt im Zeitraum 1975–1994 mit Hilfe der Kointegrationsanalyse (auf der Basis von Quartalsdaten). Die realen Exporte werden in Abhängigkeit vom Bruttoinlandsprodukt der Partnerländer sowie dem relativen Exportpreis zum Rest der Welt, als Proxy für den realen effektiven Wechselkurs, modelliert. Insgesamt kann für jede Exportnachfragefunktion der G-7 Länder eine Kointegrationsbeziehung nachgewiesen werden. Die langfristigen Einkommenselastizitäten der Exportnachfrage liegen für Deutschland, Frankreich und Italien zwischen 1,4 und 1,6 und sind statistisch signifikant. Gleiches gilt auch für die Preiselastizitäten, deren Höhe sich bei den drei genannten Länder zwischen –0,2 und –0,9 bewegt.13 Eine weitere Untersuchung von Handelselastizitäten mit Hilfe der Kointegrationsbeziehung findet sich in Bahmanii-Oskooee / Brooks (1999a). Um einen Aggregationsbias zu vermeiden, werden dort aber bilaterale Handelsströme analysiert. Die Autoren betrachten dabei die Effekte des Einkommens und des realen Wechselkurses auf die bilateralen Ex- und Importe der USA gegenüber Kanada, Deutschland, Großbritannien, Frankreich, Japan und Italien für den Zeitraum 1973–1996 (mit Quartalsdaten). Dabei werden die Elastizitäten mit Hilfe des Full Information Maximum Likelihood Verfahrens nach Johansen / Julius (1990) geschätzt. Das Einkommen der Handelspartner zur Schätzung der Einkommenselastizität der Exporte wird durch das reale Bruttoinlandsprodukt der Partnerländer approximiert. Die Bedeutung der preislichen Wettbewerbsfähigkeit für die Exportnachfrage wird über den Einfluss des realen Wechselkurses14 ermittelt. Im Ergebnis kann für alle Exportnachfragegleichungen eine Kointegrationsbeziehung nachgewiesen werden. Es zeigt sich, dass die Exporte der USA nach Deutschland und Frankreich mit Werten von 1,22 bzw. 1,66 relativ einkommenselastisch reagieren, die Exporte nach Italien mit dem Wert 0,06 jedoch relativ einkommensunelastisch sind. Auf Änderungen des realen Wechselkurses reagieren dagegen die Exporte nach Italien mit einer Elastizität von Hooper / Johnson / Marquez (2000), S. 8. reale Wechselkurs wird aus dem GDP-Deflator der USA multipliziert mit dem Dollarkurs und dividiert durch den GDP-Deflator des betreffenden Landes berechnet. 13  Vgl. 14  Der



Heterogenität in der Europäischen Währungsunion

19

–1,07 stärker als die Exporte nach Deutschland und Frankreich (Elastizitäten von –0,48 bzw. –0,88). Einen anderen Ansatz zur Bestimmung von Preiselastizitäten im Außenhandel verschiedener EU-Länder wählen Imbs / Méjean (2010). Sie ermitteln auf Grundlage eines Nachfragemodells mit CES-Präferenzen die Preiselastizitäten der aggregierten Handelsströme durch die gewichteten Durchschnitte der sektorspezifischen Substitutionselastizitäten. Aufbauend darauf werden länderspezifische Preiselastizitäten der aggregierten Importe und Exporte auf Basis von Jahresdaten (für den Zeitraum 1995–2004) geschätzt. Die Preiselastizitäten der Exporte der Länder Deutschland, Frankreich und Italien sind mit Werten zwischen –1,6 und –1,67 sehr ähnlich. Die Preis­ elastizitäten der Exporte Spaniens, Griechenlands und Italiens liegen mit Werten zwischen –1,9 und –2,1 etwas höher.15 Eine Schätzung der Einkommenselastizitäten ist unter den Rahmenbedingungen dieses Modells nicht möglich. Eine weitere Studie befasst sich speziell mit den Exportelastizitäten Deutschlands und differenziert zudem nach der regionale Ausrichtung der Exporte – je nachdem, ob sie in die EWU oder in Länder außerhalb des Euroraums gehen (Stahn 2006). Dabei werden unterschiedliche Beobachtungszeiträume betrachtet, ein langer Zeitraum zwischen 1980 und 2004 sowie ein kürzerer Zeitraum zwischen 1993 und 2004. Für die Schätzung der Exporte in Länder außerhalb der EWU wird ein Aggregat von Ländern, bestehend aus Kanada, Japan, Dänemark, Norwegen, Schweden, Großbritannien, Schweiz und den USA zugrunde gelegt. Für den Handel innerhalb der EWU werden die Exporte in die Euro11-Länder als Aggregat untersucht. Als Proxy für die Entwicklung der realen Nachfrage auf dem Exportmarkt dient die Variable „Marktgröße“. Sie bestimmt sich aus den realen Importen von Gütern und Dienstleistungen der jeweiligen Handelspartner Deutschlands, gewichtet mit dem deutschen Exportanteil der Länder an den Gesamtexporten Deutschlands für das Jahr 2000. Die preisliche Wettbewerbsfähigkeit geht mit dem realen Wechselkurs gegenüber dem jeweiligen Handelspartner in die Schätzgleichung ein. Die Analyse basiert auf der Schätzung eines Fehlerkorrekturmodells, nachdem mit Hilfe des JohansenVerfahrens Kointegrationsbeziehungen festgestellt wurden. Im Rahmen dieser Untersuchung hat die Exportmarktentwicklung mit einer Elastizität von ca. 0,9 für die Intra-EWU-Exporte und 0,8 für die Extra-EWU-Exporte einen signifikanten und positiven Einfluss, der aller15  Vgl. Imbs / Méjean (2010), S. 29. Die Autoren nehmen noch einige Modellmodifikationen vor, die auch die Elastizitätswerte ändern, kommen jedoch in allen Fällen zu dem Ergebnis, dass die Preiselastizitäten der Exportnachfrage in weniger entwickelten Ländern generell höher sind als in weiter entwickelten Ländern.

20

Renate Ohr und Mehmet Özalbayrak

dings geringer ist als der Einfluss der Aktivitätsvariable Einkommen in den bisher aufgeführten Studien. Für den kürzeren Beobachtungszeitraum ergeben sich Elastizitäten nahe eins. Die Preiselastizitäten betragen für die Exporte in den Euroraum 0,9 bzw. 0,6 und für die Exporte zu Ländern außerhalb der EWU 0,6 bzw. 0,7.16 Für den kürzeren Zeitraum werden geringere Elastizitäten, die jedoch überwiegend statistisch insignifikant sind, geschätzt. Zusammenfassend stellt die Autorin fest, dass die Preiselastizität zum einen geringeren Einfluss auf die Exporte hat als die Exportmarktentwicklung und zum anderen auch über die Zeit abgenommen hat. Eine weitere Arbeit, die sich mit den Export- und Importelastizitäten im Kontext der EU auseinander setzt, ist jene von Ketenci / Uz (2011). Die Autoren untersuchen die Handelselastizitäten der gesamten EU gegenüber einer Reihe von Ländern und Ländergruppen. Grundlage ihrer Analyse ist der Beobachtungszeitraum zwischen 1980 und 2007 auf Basis von Quartalsdaten. Die Schätzung wird im Rahmen einer Kointegrationsanalyse basierend auf den Bounds-Testing-Ansatzes von Peseran et al. (2001), welcher im folgenden Kapitel III genauer beschrieben wird, durchgeführt. Die abhängige Variable sind die Exportwerte zu laufenden Preisen,17 die unabhängigen Variablen sind das Einkommen der Exportpartner, approximiert durch deren reales BIP, und der verbraucherpreisbasierte reale Wechselkurs. Zwar konnten für die meisten bilateralen Exportnachfragefunktionen Kointegrationsbeziehungen nachgewiesen werden, jedoch sind die Koeffizienten für die Wechselkurselastizität in den meisten Fällen nicht signifikant und überwiegend sehr klein. Die Einkommenselastizitäten dagegen sind überwiegend signifikant aber, mit Werten weit unter eins, eher unelastisch. Einzig für die Exporte der EWU Länder in die USA wurde eine höhere Einkommenselastizität mit dem Wert 1,68 geschätzt und auch eine – im Vergleich zu den anderen betrachteten Ländern – mit –0,64 höhere (und signifikante) Wechselkurselastizität. Eine sehr aktuelle Arbeit, die die (realen) Exporte der EWU-Länder untersucht, stammt von Bayoumi et al. (2011). Die Autoren untersuchen die Exportnachfrageelastizitäten der EWU-Länder in ihrer Gesamtheit hinsichtlich ihrer Exporte in den Euroraum einerseits und in Drittländer andererseits mithilfe einer Panelschätzung für den Zeitraum zwischen 1980 und 2009 (Jahresdaten). Dabei testen sie für die Preis- bzw. Wechselkursabhängigkeit der Exporte verschiedene Definitionen für den realen Wechselkurs (verbrau16  Die unterschiedlichen Werte hängen davon ab, ob bei dem Fehlerkorrekturmodell die Schätzung der Lang- und Kurzfristdynamik gemeinsam oder separat durchgeführt wird. 17  Dies wird damit begründet, dass keine Exportpreisindizes verfügbar waren, um die reale Exportentwicklung zu bestimmen.



Heterogenität in der Europäischen Währungsunion

21

cherpreis-, lohnkosten-, exportpreis- und produzentenpreisbasierter realer Wechselkurs). Die Ergebnisse zeigen in der Summe, dass die Extra-EWUExporte der Eurozone immer geringer auf Änderungen des realen Wechselkurses reagieren als die Intra-EWU-Exporte der Eurozone, wobei sich dieser Unterschied seit der Gründung der EWU noch verstärkt hat.18 Ferner reagieren die Extra-EWU-Exporte stärker auf Veränderungen des Einkommens als die Intra-EWU-Exporte.19 In dem hier vorgestellten kurzen Literaturüberblick zeigt sich, dass es schon eine Reihe von Untersuchungen zu den Preis- und Einkommenselastizitäten im Außenhandel gibt, wobei die Studien jedoch zum Teil zu recht unterschiedlichen Ergebnissen kommen. In den aktuelleren Beiträgen rückt dabei die Betrachtung der EU bzw. der EWU vermehrt in den Fokus. So wurden von Stahn (2006) die Unterschiede in den Exportnachfrageelastizitäten Deutschlands für den Handel innerhalb und außerhalb der EWU analysiert. Ketenci / Uz (2011) untersuchten den Handel der gesamten EU gegenüber einzelnen Ländern, und Bayoumi et al. (2011) betrachteten die Exportnachfrageelastizitäten der Euroländer als Gruppe im Handel mit EWU-Partnern bzw. mit Drittländern. Bayoumi et al. konnten zwar für die EWU als Ganzes nachweisen, dass die Wechselkurselastizitäten der Exporte innerhalb der EWU höher sind als gegenüber Drittländern, für einzelne Länder wurden jedoch keine Elastizitäten ermittelt. Die Autoren verweisen jedoch darauf, dass eine länderspezifische Analyse hilfreich wäre, um mehr Aufschluss über die Unterschiede in den Elastizitäten zu erhalten. Vor diesem Hintergrund befasst sich die folgende Untersuchung mit den Exportelastizitäten einzelner Euro-Länder. Dabei werden – um einen Aggregationsbias zu vermeiden – bilaterale Exporte herangezogen, und zwar jeweils zu einem Haupthandelspartner in der EWU und zu einem Haupthandelspartner außerhalb der EWU. Dies soll zum einen Antwort auf die Frage geben, ob zwischen den EWU-Ländern signifikante Unterschiede in den Elastizitäten vorliegen. Zum anderen soll festgestellt werden, ob es auch bei den Exportnachfrageelastizitäten der einzelnen Länder Unterschiede gibt, je nachdem ob sie an EWU-Partner oder an Länder außerhalb der EWU exportieren.

18  Vgl. Bayoumi et al. (2011), S. 15. Die Preiselastizitäten sind dabei (in absoluten Werten) fast immer kleiner als Eins. 19  Vgl. ebd. (2011), S. 14. Die Einkommenselastizitäten bewegen sich dabei zwischen 1,35 und 1,93.

22

Renate Ohr und Mehmet Özalbayrak

III. Methode und Daten Wie schon erläutert, können bei der Schätzung einer Exportnachfragefunktion, deren Grundlage makroökonomische Zeitreihen sind, die einen stochastischen Trend aufweisen können, Scheinregressionen nicht ausgeschlossen werden. Um dieses Problem zu vermeiden, wird im Folgenden daher auf das Kointegrationsverfahren zurückgegriffen. Ein Nachteil der Kointegrationsanalysen nach Engle / Granger (1987) und Johansen (1988) ist jedoch, dass alle Variablen des Schätzmodells integriert gleicher Ordnung d (I(d)) sein müssen. Das bedeutet, dass eine d-malige Differenzenbildung die zuvor nicht-stationären Zeitreihen in stationäre Zeitreihen überführt. Die Linearkombination wiederum muss dann integriert der Ordnung x  1). Diese beschreibt das Verhalten der Notenbank in Abhängigkeit von der Entwicklung von Inflation und BIP, relativ zu deren Ziel- oder Gleichgewichtswerten (π*, y*), dabei könnte auch d = 0 sein. (1)

y = y* – a (r – r*)  [Gütermarktgleichgewicht]

(2)

πt + 1 = π* + b (yt – y*)  [Angebotskurve]

(3)

r = r* + c (π – π*) + d (y – y)*  [geldpolitische Reaktionsfunktion]

Das Konsensus-Modell war in einem weiteren Sinne sparsam: Geld kam darin nicht mehr vor.7 Zudem war es besonders schön, denn es konnte aus dem vernünftigen Verhalten von Wirtschaftssubjekten hergeleitet werden, die sich im Rahmen ihrer Restriktionen bewegten. Dieses Modell vermochte vor allem die empirischen Konstanten – das, was Nicholas Kaldor in anderem Zusammenhang stilisierte Fakten nannte – gut abzubilden. Es war deshalb das Arbeitspferd der Wahl, gerade auch in Notenbanken. 6  In den international führenden Lehrbüchern dominiert dagegen weiterhin das (Hicks-Hansen) IS-LM-Modell, obwohl dieses die seit mindestens einem Vierteljahrhundert vorherrschende Steuerung eines kurzfristigen Zinses (den Politiksatz) nicht gut abbilden konnte. David Romer hat die LM-Kurve durch eine monetäre Regel ersetzt (2000 und 2013). Gute Darstellungen des 3-Gleichungs-Modells finden sich allerdings in den Lehrbüchern von Peter Spahn (2012), Hans-Joachim Jarchow (2010) oder Wendy Carlin / David Soskice (2006). 7  Das ist nicht ganz korrekt, denn man benötigte die Geldmenge, um den angestrebten Zins zu erhalten.



Geld und Kredit – konventionell und unkonventionell

57

Das Modell hatte aber eine große Lücke: In ihm konnte die Nord-Atlantische Krise, als welche sie Willem Buiter anfangs bezeichnete, nicht stattfinden. Es gab ja kein Geld. Und es gab erst recht keine abgeleiteten Finanzkonstrukte (wie die bereits erwähnten credit default swaps, collateralized debt obligations und all die anderen strukturierten Produkte, Krahnen 2005). Die ermöglichten vor allem auch eines: einen besonders hohen Schuldenhebel (Verhältnis von Aktiva zu Eigenkapital). Ein geringes Eigenkapitalpolster bedeutet aber zugleich eine hohe Anfälligkeit gegen Störungen. Sie bedeutete vor allem eine hohe Abhängigkeit von stets friktionslos funktionierenden Märkten. Liquidität, ob in den Märkten oder bei der Anschlussfinanzierung, musste problemlos sein. Ab dem August 2007 war sie es aber nicht mehr (siehe oben). Fragwürdig war das neue Konsensus-Modelles aber nicht nur, weil es die heraufziehende Finanzkrise nicht diagnostizieren konnte, mithin auch keine gegenwirkenden Maßnahmen entwickeln konnte. Mindestens ebenso kritisch war, dass seine Anwender, da sie kein Problem zu sehen vermochten, das zügige Gegenhalten, wie es von den Marktoperateuren in den Notenbanken immer nachhaltiger gefordert wurde, eher verlangsamten. Erst die Lehman-Insolvenz am 15. September 2008 beendete diese (vor allem auch notenbank-internen) Diskussionen. Mit der Lehman-Insolvenz fiel auch der Vorhang für zwei zuvor insbesondere in Deutschland vorherrschende Deutungen der Lage – (1) keine Ansteckung und (2) Abkoppelung (von einer eventuellen negativen US-Entwicklung). An beiden Deutungen war bemerkenswert, dass sie in klarem Widerspruch zu konventionellen analytischen Positionen standen (Kotz 2008). Einmal, dass identische Produkte recht schnell einen einheitlichen Preis haben (no-arbitrage Bedingung). Deshalb hätte es, wie bereits angedeutet, verblüfft, wenn nur die mit Subprime-Hypotheken unterlegten Papiere wackelig geworden wären – und nicht dagegen alle, nach dem gleichen Muster gebauten Produkte, ob sie nun mit Krediten für Unternehmensaufkäufe oder Studentendarlehen besichert waren. Zweitens schien es, ebenfalls im Vorhinein und auf Basis der typischen quantifizierten Modelle, auch unwahrscheinlich, dass fast ein Viertel der Weltwirtschaft (die USA) in die Rezession geriete – und Europa davon nicht betroffen wäre. Gegengehalten wurde aber erst, nachdem die Gefahr einer Implosion nicht mehr zu leugnen war. In Deutschland wurden am Ende sogar zwei Konjunkturpakete aufgelegt, nachdem zuvor derartiges nicht nur für unnötig, sondern als wirkungslos („Strohfeuer“) erklärt wurde. Und natürlich federten bei uns auch die automatischen Stabilisatoren ab, wohl jenseits eines Umfangs, der einfach im Rahmen des Stabilitäts- und Wachstumspaktes zu legitimieren war.

58

Hans-Helmut Kotz

Das Problem des Konsensus-Modelles ist allerdings nicht, so Benjamin Friedman, dass es falsch, sondern dass es unvollständig ist: „Once the central bank’s policy interest rate has reached the zero lower bound, the model implicitly portrays monetary policy as impotent to undertake any further economic stimulus. It leaves no room even to consider the kinds of additional measures that many central banks undertook during and in the aftermath of the 2007-9 crisis“ (Friedman 2013, S. 7). Konventionelle Politik kam im Standardmodell durch die Steuerung über den Zins zum Ausdruck. Die war aber spätestens an der Nullzinsgrenze am Ende. Dort wurde Geldpolitik aber eben nicht wirkungslos, denn es gab all die zusätzlichen Maßnahmen, auf die Ben Friedman abstellte, eben die unkonventionellen oder nicht-standardmäßigen Interventionen. Es ist also klar, es fehlt etwas. Eine vierte Gleichung, mindestens.8 Diese soll bei Ben Friedman das Verhältnis zwischen dem von der Notenbank determinierten Politiksatz (r) und dem für die privaten Entscheidungen relevanten Marktzins (ρ), also dem Zins, der wichtig für die Finanzierungsund Investitionsentscheidungen des privaten Sektors ist, erfassen: (4)

( A)

ρ t = (1 - δ ) rt + δ rt e + ϕ R + Z t t



[Zinsgleichung]   

In der vierten Gleichung werden zwei weitere Risiken erfasst. Einmal das Ausfallrisiko, und zwar durch das Verhältnis von riskanten zu gesamten An-

( A)

lagen:  R . Und zweitens die Laufzeitprämie, die Anleger für längere Bindungsfristen verlangen. Es gibt also eine Fristenstruktur. (Für den Fall, dass δ = 0 ist, entspricht die Laufzeit der privaten Aktiva der Frist des Politik­ satzes. Dann werden auch die Erwartungen der Privaten über den Politiksatz, rte , belanglos.) Das revidierte Modell erfordert zudem eine veränderte Interpretation der IS-Kurve.9 In der taucht jetzt nämlich der Zins auf, der relevant für die privaten Ausgabeentscheidungen ist. Geld und Kredit spielen also wieder eine Rolle.

8  Vorschläge in gleicher Richtung finden sich bei Woodford (2010) oder in der im Entstehen befindlichen 3., erheblich veränderten Auflage des ausgezeichneten Lehrbuchs von Wendy Carlin / David Soskice. 9  Ben Friedman weist zu Recht darauf hin, dass es sich hier um keine klassische IS-Kurve handelt, sondern um das Optimierungskalkül eines repräsentativen Agenten, der seinen Konsum über die Zeit glättet. Die uns eigentlich interessierenden Politikvariablen sind (als Parameter) im Achsenabschnitt der IS.



Geld und Kredit – konventionell und unkonventionell

59

IV. Unabgestimmte Radien: Europäische Geldpolitik, nationale Bankpolitik „What, of course, is remarkable and unique about the move to EMU and the Euro is the absence of an accompanying federalisation of governmental and fiscal functions. This divorce between monetary (federal) centralization and governmental decentralization at the level of the nation state … is the source of potential tensions.“ Charles Goodhart, 1998

In der mittlerweile so genannten Großen Finanzkrise, die ja als Bankenkrise begann, musste auch dadurch Gegengehalten werden, dass Banken stabilisiert oder auch abgewickelt wurden. Das geschah allerdings in den USA und in Deutschland auf unterschiedliche Weisen. In beiden Ländern wurden die Lehren aus der nordischen Bankenkrise Anfang der 1990er in Betracht gezogen. Die USA jedoch re-kapitalisierte mit öffentlichen Mitteln und ohne viel Federlesens ihre systemrelevanten Banken – und schloss viele kleinere Institute getreu der seit Anfang der 1990er von der U. S. Einlagensicherung, der FDIC, verfolgten prompt-corrective-action Philosophie. In Deutschland wurde, nachdem bis in den September 2008 hinein kein Bedarf für einen so genannten Plan B gesehen wurde (nota bene: keine Ansteckung, Abkoppelung), dann doch der Sonderfonds Finanzmarkstabilisierung (SoFFin) gegründet. Als Schubladenprojekt lag er bereits eine Weile vor. Von dessen drei Instrumenten – Garantien, Aufkauf problematischer Aktiva und Re-Kapitalisierung – wurde in erster Linie das nicht (direkt) haushaltswirksame GarantieInstrument genutzt. Es wurden auch zwei Abwicklungsbanken gegründet. Das Re-Kapitalisierungsinstrument wurde allerdings nur in geringem Umfang und weit zögerlicher als in den USA eingesetzt. Das war die Situation in Deutschland, das aus der Perspektive der Zahlungsfähigkeit robusteste EWU-Mitgliedsland, mit einem vergleichsweise kleinen Bankenproblem. Weit schwieriger waren die kriselnden Banken für Irland, das sich an ihnen überhob, und Spanien, dessen Regionalbanken zu viele zahlungsgestörte Immobilienkredite auf den Büchern hatten. (Griechenlands Überschuldung war insbesondere ein Problem des öffentlichen Sektors. Portugal hatte nie Anschluss gefunden.) In der Verantwortung für derartige kredit- und dann bankpolitischen Schwierigkeiten sind zuallererst die Aufseher und Regulatoren sowie die fiskalpolitischen Instanzen. Damit sind sie in der EWU eine Aufgabe der Mitgliedsländer. Sofern diese aber überfordert sind, ist die Geldpolitik betroffen. In der EWU steht diese auf nationaler Ebene natürlich nicht mehr

60

Hans-Helmut Kotz

zur Verfügung. (Mit Ausnahme der so genannten emergency liquidity assistance, die die nationalen Zentralbanken unter Vorbehalt einer Zustimmung des EZB-Rates Instituten gewähren können.) Bereits das Fehlen einer solchen Rückhaltelinie vermag in fragilen Situationen, wie wir aus den Krisenmodellen zweiter Generation wissen, eine kritische Entwicklung zu befördern (Ragot 2013). Die Finanzmarktturbulenzen, unter dieser Chiffre lief die Krise offiziell bis zum Lehman-Fall, hatten jedenfalls gravierende realwirtschaftliche Folgen. Banken, insbesondere große, schwächelten. Ihre Verletzlichkeit spiegelte das Ausmaß ihrer Positionen im Immobiliensektor, ob indirekt, also über strukturierte Produkte, wie vor allem im Falle einiger deutscher Banken, oder direkt. Funktionsfähige Banken – Intermediäre – sind aber die Voraussetzung für eine zielgerechte Übertragung der monetären Impulse. Das setzt vor allem auch einen robusten Interbankengeldmarkt voraus. Dieser aber segmentierte sich, und zwar mit dem Ausbrechen der Staatschuldenkrise im Frühjahr 2010, die ansteckend war, nun immer mehr auch nach nationalen Grenzen. Eine derartige Schuldnersegmentierung war beziehungsweise ist kein Marktfehler. Vielmehr ist es vollkommen rational, dass sich Bankengläubiger fragen, wer – welcher Staat – am Ende hinter einer Bank steht. Es ist damit auch unmittelbar einleuchtend, weshalb die Konditionen für einen Kreditnehmer aus Innsbruck schlechter sind als für einen in allen sonstigen Attributen identischen Kreditnehmer aus Bozen. Wer dies, nämlich unterschiedliche monetäre Bedingungen in einem einheitlichen Währungsraum nicht hinnehmen will, braucht nicht nur einheitliche Regeln, sondern auch deren einheitliche Umsetzung. Man braucht vor allem auch ein glaubwürdiges Restrukturierungs- und Abwicklungsregime und am Ende ebenfalls eine einheitliche, verlässliche Absicherung der Einlagen (Schoenmaker 2013). Ansonsten muss man sich mit gravierenden Unebenheiten zufrieden geben. Diese erschweren die einheitliche Geldpolitik erheblich. Sie lassen immer wieder Zerfalls-Szenarien, das was in Neusprech, seit 2012, Redenominationsrisiko heißt, plausibel erscheinen. Das ist eine Debatte, die in den USA seit langem nicht mehr vorstellbar ist. Sie hängt damit zusammen, dass in den Vereinigten Staaten der Radius von monetärer und finanzieller Integration, im Ergebnis eines historischen Lernprozesses, immer stärker angenähert wurde. Der Zusammenhang zwischen Finanzmarktintegration und Währungsunion wurde in der Debatte im Vorlauf zur Euro-Einführung nicht sehr beachtet. Vielmehr wurden, mit Bezug auf die Arbeiten von Robert Mundell, Peter Kenen und Ronald McKinnon vor allem die realwirtschaftlichen Bedingungen betont, die vorliegen sollten, damit eine einheitliche Geldpolitik



Geld und Kredit – konventionell und unkonventionell

61

Graphik 3 zeigt die Prämien, die ein Anleger bezahlt, um sich gegen den Ausfall von Banken der Währungsunion zu versichern. Dabei gibt es einen sehr engen Gleichlauf mit den CDS-Prämien für die Mitgliedsländer oder auch deren Zinsspreads relativ zu deutschen Bundesanleihen, auch weil die Banken in ihre SubSovereigns investiert haben. Vor allem aber, weil aus Investorensicht die Schuldnerqualität des Sitzlandes wichtig für die Einschätzung der Bankbonität ist. Das bedeutet, dass der Zugang zu den privaten Interbankenmärkten für einige nationale Banksysteme erschwert ist. Diese hängen mithin von der EZB-Refinanzierung in besonderem Maße ab. Das zeigt Graphik 4.

funktioniert – grenzüberschreitende Arbeitsmigration, flexible relative Preise, vor allem Löhne, sowie ein Mindestmaß an fiskalischem Föderalismus (zum Abfedern vorübergehender Störungen). Richard Cooper verwies zudem darauf, dass es eine möglichst große Schnittmenge bei den wirtschaftspolitischen Zielvorstellungen geben sollte. Die mit der Währungsunion verbundenen Konsequenzen für die Finanzmarktintegration wurden dagegen seltener bedacht. Allerdings machte etwa Charles Goodhart immer wieder darauf aufmerksam, dass das Herausnehmen eines Risikos nicht sicherstellte, dass dieses nicht an andere Stelle auftauchte. Die Volatilität der (nominalen) Wechselkurse, zum Beispiel, die die EWU ja beendete, könnte einfach durch regionale Kredit- oder Anleiheblasen ersetzt werden. Etwa dadurch ausgelöst, dass aufgrund uneinheit­ licher Inflationsraten regional divergierende Realzinsen entstünden. Das ist geldpolitisch bedeutsam. Denn in einer Währungsunion werden die Nationen aus der monetären Perspektive zu Gliedstaaten. Was das heißt, konnten wir sehen, als Irland, Portugal, Griechenland und später dann Spanien den Zugang zu den Märkten verloren. Wir konnten es insbesondere e contrario erkennen: an den Zinsniveaus und den Zinsaufschlägen von England und Italien. England, hinter dem die Bank von England stand, hatte deutlich niedrigere Zinsen und (damit auch) Spreads (relativ zu Bundesanleihen) als Italien. Aus der Perspektive von potentiellen Investoren ist dies einfach: Sie haben eine Abneigung, zu hohe Liquiditätsrisiken einzugehen. Die von den

62

Hans-Helmut Kotz

Marktteilnehmer als nicht komplett unrealistisch eingeschätzte Option des Austritts, so heftig sie auch bestritten werden mag, hat einen Preis. Im europäischen Falle führte diese Konstellation zu einer besonderen Form der fiskalpolitischen Dominanz – mit Konsequenzen für die Art der unkonventionellen Politik. Da die EZB die bei weitem stärkste europäische Institution ist, war sie in dem Spiel mit den 17 Eurogruppen Finanzministern der geborene Feigling. Sofern sie nicht intervenierte, riskierte sie, dass das System auseinanderfiel. Das Wertpapierankaufprogramm vom Mai 2010, die 3-jährigen langfristigen Refinanzierungsoperationen vom Jahreswechsel 2011 / 2012 ebenso wie das im September 2012 angekündigte (konditionierte) Programm zum Ankauf kurzfristiger Schuldverschreibungen im Sekundärmarkt (OMT, für outright monetary transactions) folgen alle dieser Logik. Es wird jeweils Zeit gekauft, die die Fiskalpolitik zu Problemlösungen nutzen sollte. Dass die EZB von den Mitgliedsländern regelmäßig in diese Situation gebracht wird, beschädigt natürlich deren Unabhängigkeit. Aber: was wäre, was ist für die EZB die Alternative? Die wirtschaftlichen Kosten eines Zerbrechens des Eurosystems sind enorm (für einige: prohibitiv), die politischen Zielverzichte kaum zu ermessen.

V. Geld und Kredit, weitere Fragen Joseph Stiglitz und Bruce Greenwald schreiben: „Der Schlüssel zum Verstehen monetärer Ökonomie ist die Nachfrage und das Angebot an ausleihbaren Mitteln, die wiederum ein Verständnis der Bedeutung und der Folgen von unvollständigen Informationen und der Rolle von Banken voraussetzt (2003, S. 2, Übersetzung HHK). Darüber hinaus muss Geldpolitik, im Einklang mit dieser These, auch die Rolle der Nicht-Bank Banken, die heute Schattenbanken heißen, bei ihrer Politikformulierung einbeziehen. Denn diese funktionalen Substitute (Kotz, Francke 2000) haben einen entscheidenden Einfluss auf die monetären Bedingungen, eben das Angebot und die Nachfrage an ausleihbaren Mitteln. Die Bedeutung des Repo-Bankings hatten wir skizziert, ebenso wie die der stärker finanzmarkbasierten Kontrolle des Kreditrisikos. Damit ist (war?) eine ausgeprägte Abhängigkeit von robusten Refinanzierungsmärkten verbunden. Die strukturellen Reformen, die nunmehr in den USA (Dodd-Frank Act), dem Vereinigten Königreich (Vickers-Report) und Europa (Liikanen-Bericht) auf den Weg gebracht werden, verändern die Mikro-Struktur der Bankenmärkte und damit den Resonanzboden der Notenbankpolitik. Geldpolitik wird besonders schwierig, wenn sie es mit entlang nationaler Grenzen segmentierten Interbankenmärkten zu tun hat. Das aber ist in der EWU der Fall. Das Geld ist europäisch, die Finanzierung immer stärker



Geld und Kredit – konventionell und unkonventionell

63

national. Dahinter stehen eine ungleiche Betroffenheit durch die Krise und vor allem auch unterschiedliche Fähigkeiten, mit deren Folgen umzugehen. Die über die Zeit innerhalb der Währungsunion von einigen Mitgliedsländern aufgehäuften Leistunsgbilanzdefizite haben sich zu Nettoverschuldungspositionen entwickelt, die die privaten Märkte plötzlich nicht mehr finanzieren wollten. Zum sonst fälligen sudden stop kam es nicht, da die EZB mittels ihres Target2 Systems eine weitere Intermediationsrolle übernahm, diesmal zwischen Mitgliedsländern. Im Zusammenhang mit der europäischen Variante von Geld und Kredit sind Fragen zu einem weiteren Trilemma – nationale Bankpolitik, grenzüberschreitendes Bankgeschäft, finanzielle Stabilität (Schoenmaker 2013) – aufgeworfen worden, die für die Währungsunion existentiell sind. Bei dem unheiligen Mundell-Dreieck lösten sich die Spannungen eben nicht mit dem Ablauf Zeit (Endogenität der OCA-Kriterien). Das ist beim zweiten unheiligen Dreieck genauso wenig zu erwarten. Die Große Finanzkrise hat tiefgreifende Spannungen in der Architektur der EWU offengelegt. Halbfertige Konstruktionen sind nicht nur anfällig. Sie haben es schwer, wenn überhaupt, zu überwintern – viel mehr lassen sie allerdings auch nicht erwarten. Wer die EWU weiterhin für ein gutes, entwicklungsfähiges Projekt hält, wie der Autor dieser Zeilen, muss sich also Überlegungen über die Existenzbedingungen einer funktionierenden Währungsunion machen. Diese müssen eben auch die Fragen, die aus der (aus guten Gründen bereits in den Römischen Verträgen von 1957) angestrebten Finanzmarktintegration erwachsen, institutionell beantworten. Literatur Adrian, Tobias / Shin, Hyun Song (2009): Money, Liquidity, and Monetary Policy, in: American Economic Review, Bd. 99 / Nr. 2 (Mai), S. 600–605. Blinder, Alan (2004): The Quiet Revolution. Central Banking Goes Modern, Yale: YUP. Borio, Claudio / Disyatat, Piti (2009): Unconventional Monetary Policies: An Appraisal, BIS Working Papers, Nr. 292. Brunnermeier, Markus (2009): Deciphering the Liquidity and Credit Crunch 2007– 2008, in: Journal of Economic Perspectives, Bd. 23 / Nr. 1, S. 77–100. Cour-Thimann, Philippine / Winkler, Bernhard (2012): The ECB’s Non-Standard Monetary Policy Measures: The Role of Institutional Factors and Financial ­ Structure, in: Oxford Review of Economic Policy, Bd. 28 / Nr. 4, S. 765–803. de Servigny, Arnaud / Zelenko, Ivan (2001): Le Risque de Crédit. Nouveaux Enjeux Bancaires, Paris: Dunod.

64

Hans-Helmut Kotz

Edwards, Franklin / Mishkin, Frederic (1995): The Decline of Traditional Banking: Implications for Financial Stability and Regulatory Policy, in: Fed New York Economic Policy Review, Juli, S. 27–47. Francke, Hans-Hermann (1975): Bankenliquidität und Zins als Orientierungsvariable der Geldpolitik, Berlin: Duncker & Humblot. – (1982): Portfolioeffekte öffentlicher Kreditnahme – ihre Bedeutung für die private Realvermögensbildung und deren Finanzierung, Berlin: Duncker & Humblot. Freixas, Xavier / Rochet, Jean-Charles (1997): Microeconomics of Banking, Cambridge, MA: MIT Press. Friedman, Benjamin (2013): The Simple Analytics of Monetary Policy: A PostCrisis Approach, AEA Meetings, San Diego, Januar 2013. Geanakoplos, John (2011): Solving the Present Crisis and Managing the Leverage Cycle, in: Fed New York Economic Policy Review, August, S. 101–131. Goodfriend, Marvin (2002): Monetary Policy in the New Neoclassical Synthesis: A Primer, in: International Finance, Bd. 5 / Nr. 2, S. 165–191. Goodfriend, Marvin (2007): How the World Achieved Consensus on Monetary Po­­licy, in: Journal of Economic Perspectives, Bd. 21/Nr. 4, S. 47–68. Goodhart, Charles (1989): Money, Information and Uncertainty, London: Mac Millan. – (1998): The Two Concepts of Money: Implications for the Analysis of Optima Currency Areas, in: European Journal of Political Economy, Bd. 14, S. 407–432. Gorton, Gary (2012): Misunderstanding Financial Crises. Why We Don’t See Them Come?, Oxford: OUP. Kotz, Hans-Helmut (2005): Les banques: découpées en morceaux puis oubliées, in: Olivier Pastré (ed.): La nouvelle économie bancaire, Paris: Economica, S. 79–85. – (2008): Finanzmarktkrise – eine Notenbanksicht, in: Wirtschaftsdienst, H 5. 291–296. Kotz, Hans-Helmut / Francke, Hans-Hermann (2000): Innovationen in der Finanzintermediation: Mikro- und Makroaspekte, in: Hans-Hermann Francke / Hans-Helmut Kotz / Eberhart Ketzel (Hrsg.): Finanzmärkte im Umbruch, Berlin: Duncker & Humblot, S. 39–51. Kotz, Hans-Helmut / Nagel, Joachim / Schaaf, Jürgen (2011): Central Bank Liquiditiy Management: Underwriting Stability in a Challenging Environment, Banque Central du Luxembourg, Revue de la stabilité financière, 2011, S. 114–125. Krahnen, Jan (2005): Der Handel von Kreditrisiken: Eine neue Dimension des Kapitalmarktes, in: Perspektiven der Wirtschaftspolitik, 6. Jg., Nr. 4, S. 499–519. Ragot, Xavier (2013): Les banques centrales dans la tempête, in: Philippe Askenazy /  Daniel Cohen (Hrsg.), 5 Crises. 11 Nouvelles questions d’économie contemporaine, Paris. Albin Michel, S. 371–423. Romer, David (2000): Keynesian Macroeconomics without the LM Curve, in: Journal of Economic Perspectives, Bd. 14 / Nr. 2, S. 149–169.



Geld und Kredit – konventionell und unkonventionell

65

Schoenmaker, Dirk (2013): Governance of International Banking. The Financial Trilemma, Oxford: OUP. Shin, Hyun Song (2009): Reflections on Northern Rock: The Bank Run that Heralded the Global Financial Crisis, Journal of Economic Perspectives, Bd. 24 / Nr. 1, S. 101–119. Stiglitz, Joseph / Greenwald, Bruce (2003): Towards a New Paradigm in Monetary Economics, Cambridge: CUP. Woodford, Michael (2010): Financial Intermediation and Macroeconomic Analysis, in: Journal of Economic Perspectives, Bd. 24 / Nr. 1, S. 21–44.

Epilog Hans-Hermann Francke traf ich das erste Mal vor knapp drei Jahrzehnten, anlässlich einer Jahrestagung des Vereins für Socialpolitik in München. Wir waren direkt am Diskutieren – vor allem über Geld und Kredit, was wir bis heute tun. Über die Jahre hatten wir viele gemeinsame Vorhaben. Daraus sind unter anderem Veröffentlichungen zum Management öffentlicher Schulden, zur europäischen Währungsunion und zu Finanzmarktinnovationen und Notenbankpolitik entstanden. Wir haben eine Vielzahl gemeinsamer Veranstaltungen gemacht, an der Deutschen Immobilien Akademie, in die Hans-Herrmann sehr viel Zeit investiert hat, an der Universität Freiburg, aber auch in Frankfurt, Hannover, Suzhou oder Peking. Seit Ende der 1990er haben wir beide als Team Hans-Herrmanns Freiburger Lieblingsvorlesung – Geld und Kredit – angeboten, die ich dann in 2003 von ihm übernahm. Ich schulde Hans-Hermann Dank für eine nunmehr lange währende Freundschaft – und ich freue mich auf unseren weiteren Vorhaben. Ein paar Fragen sind stichwortartig im Abschnitt V aufgelistet.

Und dann werfen wir den Computer an – Anmerkungen zur Methodik der DSGE-Modelle Von Jochen Michaelis „The state of macro is good.“ Olivier Blanchard (2009)

Nicht alle Ökonomen teilen die Einschätzung des IWF-Chefökonomen, von den Nicht-Ökonomen ganz zu schweigen. Die Kluft zwischen den professionellen Makroökonomen und der (Fach-)Öffentlichkeit ist nicht zuletzt angesichts der Finanz- und Wirtschaftskrise größer geworden. Vordergründig mag dies in dem Vorwurf münden, die Makroökonomen hätten mit ihren Modellen die Krise nicht vorhergesehen, aber dies ist mehr Reflex der Unkenntnis darüber, was Modelle leisten oder eben nicht leisten können. Etwas tiefer geht der Vorwurf, die in der Forschung dominierenden DSGE (Dynamic Stochastic General Equilibrium)-Modelle seien „blutleer“, die Makro reduziere sich weitgehend auf das Hantieren mit griechischen Buchstaben, die ökonomische Intuition ginge verloren. Wenn selbst solide ausgebildete Diplom-Volkswirte die Grundmechanismen von Schocks und / oder Politikmaßnahmen nicht mehr nachvollziehen können, dann geht die Akzeptanz und damit die entscheidende Voraussetzung für eine Umsetzung in die Wirtschaftspolitik verloren. Ziel dieses Beitrags ist es zu verdeutlichen, warum wir auf der einen Seite solche abstrakten Modelle für die Forschungsfront benötigen, warum wir aber gleichwohl bspw. im Hörsaal an dem Verwenden kleiner handlicher Modelle festhalten sollten.

I. Makro: ein Schnelldurchlauf Die Geschichte der Makroökonomik soll hier unterteilt werden in zwei Abschnitte: vor Lucas (1976) und nach Lucas (1976). Startpunkt der modernen Makroökonomik ist unstrittig Keynes (1936). Basierend auf Überlegungen zur Konsumtheorie, Investitionstheorie und Geldnachfragetheorie entwickelte er die Idee eines Gleichgewichts bei Unterbeschäftigung, das letztlich nur durch Eingriffe des Staates via Geld- und Fiskalpolitik beseitigt werden kann. Auch heute noch gehört das IS / LM-

68

Jochen Michaelis

Modell zum Standardkanon der makroökonomischen Lehrbücher, für Generationen von Studenten war (und ist) es der erste Berührungspunkt mit der Makro.1 Das Mundell / Fleming-Modell erweitert den Rahmen um Aspekte der offenen Volkswirtschaft; Kernaussage: die Wirksamkeit des stabilitätspolitischen Instrumentariums ist eine Frage des Wechselkurssystems. Eine erste stochastische IS / LM-Analyse liefert Poole (1970), der zeigt, dass eine Stabilisierungspolitik, die die Outputvarianz zu minimieren trachtet, maßgeblich davon abhängt ist, ob es sich bei den zu absorbierenden Schocks primär um reale IS- oder um monetäre LM-Schocks handelt. In den 60er und 70er Jahren wurde der keynesianische Ansatz mehr und mehr verfeinert, das Resultat waren die makroökonometrischen Konjunkturmodelle mit zum Teil mehreren hundert Strukturgleichungen und einer entsprechend hohen Zahl an endogenen Variablen. Als Beispiel für ein auf bundesdeutsche Verhältnisse zugeschnittenes Modell sei das SYSIFO-Modell von Hansen und Westphal (1983) genannt. Die Auseinandersetzung über das Für und Wider dieser Ansätze ist Gegenstand der maßgeblich auch in Kredit und Kapital geführten Keynesianismus / Monetarismus-Debatte (vgl. Ehrlicher und Becker 1978). Die Hauptprotagonisten dieser Debatte, u. a. James Tobin, Franco Modigliani, Paul Samuelson und Milton Friedman, lieferten sich einen zum Teil (v)erbittert geführten Wettstreit der Argumente, ein prägnanter Überblick über diese Diskussion findet sich bei Modigliani (1977). Den Einschnitt markiert Lucas (1976). Sein Hauptpunkt: Die Strukturparameter der gängigen Konjunkturmodelle sind nicht exogen, sondern politik­ abhängig und damit endogen. Wenn Strukturparameter wie bspw. die private Sparquote oder die Wechselkurselastizität der Güterexporte oder die Zinselastizität der Investitionen divergieren je nach betrachteter Politikmaßnahme, dann kann nicht mit ein und demselben Modell die relative Vorteilhaftigkeit der verschieden Politikmaßnahmen bewertet werden. Dann ist es nicht möglich zu sagen, um den Output um ein Prozent zu erhöhen, muss die Geldmenge um x Prozent erhöht oder alternativ der Steuersatz um y Prozent gesenkt werden, und je nach Politikpräferenz wird dann die „bessere“ Maßnahme gewählt. Wenn die Strukturkonstanz im Sinne von politik­ invarianten Modellparametern nicht gegeben ist, dann ist dem Vergleich der Boden entzogen. Als einschlägiges Musterbeispiel möge das Ricardianische Äquivalenztheorem dienen, was unterstellt, dass die Privaten in Antizipation zukünftiger Steuerzahlungen bei Budgetdefiziten mit einer Erhöhung der 1  Die Sozialisation mit dem IS / LM-Modell kann recht weit gehen. In den Worten von Robert Solow: Wenn er morgens um drei Uhr geweckt und gefragt werden würde, was bei einer expansiven Geldpolitik passiere, er würde sofort vor dem geistigen Auge die LM-Kurve nach rechts verschieben.



Anmerkungen zur Methodik der DSGE-Modelle

69

Sparquote reagieren (Michaelis 1989). Ein Modell, das Geld- versus Fiskalpolitik bei Unterstellung identischer Sparquoten diskutiert, kann folglich völlig in die Irre führen. Die Lucas-Kritik war ein Schlag ins Kontor der herkömmlichen Makroökonomik, egal ob keynesianisch oder monetaristisch geprägt. Und dieser Schlag war kraftvoll geführt, d. h. es gab de facto keine Kritik an der LucasKritik, sie wurde über die Lager hinweg allgemein akzeptiert. Wie sind die Makroökonomen mit der Lucas-Kritik umgegangen? Zwei Wege hat man beschritten. Erstens, im Hörsaal wurde diese Kritik schlicht ignoriert, die bisherigen Ansätze wurden und werden weiter unterrichtet. Und zweitens, die Forschung fokussiert sich seitdem auf die „Mikrofundierung der Makro“, d. h. die Makromodelle sind zu formulieren in Parametern, die als politikinvariant anzusehen sind. Dies sind insbesondere die Präferenzen ­ (Nutzenfunktionen) der Haushalte und technologische Restriktionen wie Produktionsfunktionen. Die erste Modellgeneration, die der Lucas-Kritik voll Rechnung getragen hat, sind die Real Business Cycle-Modelle. Autoren wie Prescott (1986) oder King und Plosser (1984) haben den Kern der Lucas-Kritik, wonach Erwartungen über zukünftige Ereignisse das heutige Verhalten beeinflussen, modellmäßig abbilden und in seinen Konsequenzen analysieren können. Haushalte sind intertemporale Nutzenmaximierer, Firmen sind intertemporale Gewinnmaximierer, alle Akteure agieren mit rationalen Erwartungen, d. h. sie liegen zwar nicht in jeder Periode richtig mit ihrer Prognose zukünftiger Ereignisse, aber sie liegen zumindest nicht systematisch falsch und können daher nicht systematisch und dauerhaft getäuscht werden. Die Konsequenzen für die Stabilisierungspolitik waren fatal: Sie kann nicht systematisch die realen Variablen der Ökonomie wie Produktion oder Beschäftigung beeinflussen. Die RBC-Ansätze haben allerdings das Kind mit dem Bade ausgeschüttet. In einer Welt mit perfekten Arbeits- und Gütermärkten und perfekt informierten Akteuren ist eine absorbierende Stabilisierungspolitik gar nicht vonnöten. Fluktuationen in Größen wie Beschäftigung und Produktion sind keine zu korrigierenden Ungleichgewichtsphänomene, sondern Reflex von Anpassungsreaktionen der Akteure auf Schocks in der Güternachfrage, den Grenzkosten, der Produktionstechnologie. Dass damit jede Schwankung in den Makrovariablen als Gleichgewichtsphänomen aufzufassen war, stand indes im eklatanten Widerspruch zu den Daten. Insbesondere die europäischen Ökonomen standen der Hypothese sehr skeptisch gegenüber, wonach die zum Teil zweistelligen Arbeitslosenraten in erster Linie Spiegelbild eines intertemporalen Optimierungskalküls bezüglich Arbeitszeit und Freizeit sein sollten.

70

Jochen Michaelis

Die Unzufriedenheit mit den Implikationen der RBC-Modelle war groß, gleichwohl akzeptierte auch die „keynesianische Schule“ den methodischen Ansatz der intertemporalen Optimierung unter exakt spezifizierten Budgetrestriktionen plus rationale Erwartungen. Die Neuerung der neu-keynesia­ nischen Theorie in den 80er Jahren bestand nun darin, Marktimperfektionen mit dem Nutzen- bzw. Gewinnmaximierungskalkül kompatibel zu machen. Zu nennen sind hier bspw. Preisänderungskosten, die konstante Preise als gewinnmaximale Antwort auf Nachfrageschocks implizieren können (Mankiw 1985); Informationskosten, die es rational machen nicht perfekt informiert zu sein (Mankiw und Reis 2002); die Love-of-Variety- Annahme von Dixit und Stiglitz (1977), die den Unternehmen Preissetzungsspielräume gestattet; die Annahme heterogener Arbeitskräfte, die eine Lohnsetzung oberhalb der Grenzrate der Substitution zwischen Konsum und Freizeit erlaubt (Blanchard und Kiyotaki 1987). Die Anreicherung der RBC-Modelle mit den genannten „mikrofundierten“ Imperfektionen ist die Geburtsstunde der DSGE-Modelle.

II. Bausteine der DSGE-Modelle Es sind insbesondere die Zentralbanken, die eine große Nachfrage nach modellgestützter Politikberatung entwickelt haben und daher als Motor der einschlägigen Forschung aufgetreten sind. Beispiele sind die DSGE-Modelle der Bank of England (BEQM), der US-amerikanischen Fed (SIGMA), der Schwedischen Reichsbank (RAMSES) oder das New Area-Wide Model of the Euro (NAWM) der Europäischen Zentralbank. Eine detaillierte Beschreibung dieser Modelle findet sich u. a. bei Tovar (2009). Das von der EZB verwendete NAWM basiert in seinen Grundzügen auf Smets und Wouters (2003). Es ist speziell auf den Euroraum zugeschnitten, als eines der ersten „fully fledged“ DSGE-Ansätze stand es Pate bei der Entwicklung einer Vielzahl anderer Modelle. Daher soll es zumindest in seinen Grundelementen kurz skizziert werden. Betrachtet wird eine geschlossene Volkswirtschaft mit Haushalten, Firmen, Staat und Zentralbank als Akteuren. Innerhalb des Wirtschaftsraums wird nicht zwischen einzelnen Ländern oder Regionen unterschieden, der Zuschnitt auf den Euroraum erfolgt über die Verwendung euro-weiter Variablen bei der Kalibrierung des Modells. Ausgangspunkt sind Haushalte, die eine intertemporale Nutzenfunktion maximieren, nutzenstiftend sind Konsum und Freizeit, die Haushalte haben einen unendlichen Planungshorizont. Das Einkommen einer Periode unterteilen die Haushalte in Ausgaben für den Erwerb von Konsumgütern und den Erwerb von Wertpapieren (Ersparnisbildung), die Euler-Gleichung beschreibt den optimalen intertemporalen



Anmerkungen zur Methodik der DSGE-Modelle

71

Konsumstrom. Des Weiteren sind die Haushalte Anbieter des Produktionsfaktors Arbeit, und da jeder Haushalt über eine spezifische Arbeitsvarietät verfügt, ist er monopolistischer Arbeitsanbieter. Die nutzenmaximale Lohnsetzung durch die Haushalte ist gleichbedeutend mit der Arbeitszeit / FreizeitEntscheidung in einfacheren Ansätzen. Interessanterweise wird eine cashless economy unterstellt, d. h. Geld ist weder Argument der Nutzenfunktion noch Teil der Budgetrestriktion – eine generelle und gemeinhin akzeptierte Eigenschaft der monetären DSGE-Modelle: sie abstrahieren von der Modellierung von Geld! Die Unternehmen fragen Arbeit und Kapital (Ersparnisse) nach, um differenzierte Güter herzustellen. Die monopolistische Konkurrenz auf den Gütermärkten erlaubt es ihnen einen gewinnmaximalen Preis durchzusetzen, der oberhalb der Grenzkosten liegt. Der dritte Akteur, der Staat, wird in völlig rudimentärer Form abgebildet. Die Ausgaben bestehen im Kauf von (Konsum-)Gütern, die Finanzierung erfolgt über lump sum-Steuern. Agenten mit unendlichem Zeithorizont und ohne Liquiditätsbeschränkungen sowie die Abwesenheit von verzerrenden Konsum- oder Einkommensteuern sind die Ingredienzen für Ricardianische Äquivalenz. Mit anderen Worten, im Smets  /  Wouters-Modell hat staatliche Fiskalpolitik weder kurz- noch langfristige Effekte. Gerade angesichts der jüngsten Ereignisse im Euroraum ist diese Modelleigenschaft nicht mehr sinnvoll zu rechtfertigen, entsprechende Modifikationen wurden und werden daher vorgenommen.2 Die Geldpolitik wird üblicherweise – und auch bei Smets und Wouters – mittels einer verallgemeinerten Taylor-Regel modelliert. Die Zentralbank setzt den Zins, sie reagiert mit Zinsanpassungen, falls es zu Abweichungen vom Inflationsziel kommt und / oder eine Outputlücke besteht. Um abrupte Zins­ änderungen zu vermeiden, wird ein Zinsglättungsmotiv unterstellt. Das solchermaßen skizzierte Grundgerüst wird sodann ergänzt um nominale und reale Rigiditäten. Imperfekt flexible Güterpreise werden erzeugt über das Calvo (1983) pricing, d. h. es wird angenommen, dass die Unternehmen die Preise für ihre Güter nicht in jeder Periode anpassen können, sondern bspw. als Reflex von Preisänderungskosten mit einer bestimmten Wahrscheinlichkeit für mehrere Perioden beibehalten (müssen). Analog bildet man rigide Nominallöhne ab, Lohnkontrakte gelten über mehrere Pe­ rioden, den Lohnsetzern ist es nicht möglich, die Löhne in jeder Periode zu adjustieren. Reale Rigiditäten folgen aus Kapitalstockanpassungskosten, die 2  Zu nennen sind bspw. Coenen / Straub (2005), die das Smets  / Wouters-Modell um Nicht-Ricardianische Haushalte erweitern; Kumhof / Laxton (2007), die zwischen verschiedenen Quellen der Nicht-Neutralität differenzieren; und Coenen et al. (2012), die die Höhe der Fiskalmultiplikatoren über die verschiedenen DSGE-Modelle hinweg vergleichen.

72

Jochen Michaelis

bspw. quadratisch mit der Investitionshöhe steigen, oder aus Fixkosten der Güterproduktion. Die Grundversion des Smets / Wouters-Modells umfasst damit neun endogene Variable: die Güterproduktion, den Konsum, die Investitionen, die Beschäftigung, den Kapitalstock, den Reallohn, den Realwert des Kapitalstocks, die Inflationsrate und den Zinssatz. Das stochastische Verhalten der Volkswirtschaft wird getrieben durch die Berücksichtigung von zehn verschiedenen exogenen Schocks, wobei unterschieden wird zwischen Schocks in der Güternachfrage (Präferenzen, Staatskäufe), Güterangebot (Produktivität, Arbeitsangebot), Preis- und Lohnaufschlägen und monetären Schocks bspw. im Inflationsziel. Die Schocks sind angenommen als AR(1), also als autoregressive Prozesse erster Ordnung. Des Weiteren umfasst das Smets  /  Wouters-Modell 32 Strukturparameter, die die Eigenschaften der Nutzenfunktion, der Technologien und der Schocks abbilden sollen. Die Lösung eines DSGE-Modells à la Smets / Wouters erfolgt in der Regel in vier Schritten: 1. Ermittlung des nicht-stochastischen (second best) Gleichgewichts der Ökonomie Zunächst gilt es zu klären, welche Werte für Produktion, Beschäftigung etc. sich einstellen, wenn keinerlei Schocks zu beobachten sind bzw. alle Schocks abgeklungen sind. Dieses sich bei flexiblen Löhnen und Preisen einstellende Gleichgewicht ist „nur“ second best, da es noch Verzerrungen aus der monopolistischen Konkurrenz auf den Güter- und Arbeitsmärkten beinhaltet. Weil bei monopolistischer Konkurrenz die (flexiblen) Güterpreise oberhalb der Grenzkosten liegen und die (flexiblen) Nominallöhne oberhalb der Grenzrate der Substitution zwischen Konsum und Freizeit liegen, sind Produktion und Beschäftigung im Vergleich zur vollständigen Konkurrenz nach unten verzerrt. 2. Ermittlung des first best-Gleichgewichts und log-Linearisierung um diesen Steady state Die skizzierten Verzerrungen der monopolistischen Konkurrenz werden korrigiert mit Hilfe von staatlichen Subventionen. Eine über lump sumSteuern finanzierte Subvention an die Unternehmen sorgt für Preis gleich Grenzkosten, eine über lump sum-Steuern finanzierte Zahlung an die monopolistischen Arbeitsanbieter sorgt für Lohnsatz gleich Grenzrate der Substitution zwischen Konsum und Freizeit. Das solchermaßen generierte first best-Gleichgewicht dient als Ausgangspunkt für die log-Linearisierung. Das Verhalten der Ökonomie wird mithin nicht beschrieben in den jeweiligen Grundgleichungen, sondern es wird approximiert durch ein lineares Gleichungssystem.



Anmerkungen zur Methodik der DSGE-Modelle

73

3. Festlegung der Strukturparameter Um der Lucas-Kritik Rechnung zu tragen, ist die Volkswirtschaft zu beschreiben mit Hilfe von „tiefen“ Strukturparametern, also Parametern, die als unabhängig von der unterstellten Politik anzusehen sind. Die Quantifizierung von Parametern wie der Zeitpräferenzrate oder dem Grad der Risikoaversion oder der Grenzrate der Substitution zwischen je zwei Güterva­ rietäten oder der Substitutionselastizität zwischen Kapital und Arbeit oder dem Gewicht des Inflationsziels in der Zielfunktion der Zentralbank etc. pp. erweist sich meist als größte Herausforderung für die Entwickler und Verwender von DSGE-Modellen. Die Festlegung der Parameter erfolgt derart, dass sie bestimmte theoretische Momente und stilisierte Fakten der beobachteten Daten so genau wie möglich widerspiegeln. Als Methoden stehen die Kalibrierung der Modelle sowie ökonometrische (bayesianische) Schätzverfahren zur Verfügung, wobei letztere aufgrund gestiegener Computerkapazitäten an Bedeutung gewonnen haben. Ein exzellenter Überblick über die einschlägigen Methoden findet sich bei Canova (2007). 4. Und dann werfen wir den Computer an: Generierung von Impuls-Antwort-Funktionen In einem letzten Schritt wird das Modell nun genutzt, um die Wirkungsweise verschiedener Schocks zu diskutieren. In der Ausgangssituation befindet sich die Ökonomie annahmegemäß im first best-Gleichgewicht, dann tritt ein Impuls sprich Schock auf. Das Modell liefert sodann die zeitliche Entwicklung und die Anpassung aller endogenen Variablen (Impuls-Antwort-Funktionen). Da das Modell ausschließlich in politikunabhängigen Strukturparametern formuliert ist, ist eine Wohlfahrtsanalyse der Wirkungsweise von Schocks und / oder Politikmaßnahmen grundsätzlich möglich.

III. Anmerkungen zur Methodik Die nachfolgenden Anmerkungen fokussieren sich zunächst auf die skizzierte Vorgehensweise bei der Lösung eines DSGE-Modells. Die „Standardkritik“ an den Annahmen der DSGE-Modelle soll erst in einem zweiten Schritt angesprochen werden. Wie oben erwähnt, wird bei der Generierung der Impuls-Antwort-Funk­ tionen aus primär technischen Gründen nicht das ursprüngliche Modell zugrunde gelegt, sondern eine lineare Approximation. Die log-Linearisierung um das first best-Gleichgewicht hat weitreichende und meines Erachtens fatale Konsequenzen: a) Die Prämisse, wonach sich die Ökonomie in der Ausgangssituation im first best-Gleichgewicht befindet, ist eine irreale Verzerrung des Start-

74

Jochen Michaelis

punkts: Der Staat zahlt keine Subventionen an die monopolistischen Unternehmen, er zahlt keine Subventionen an die monopolistischen Arbeitsanbieter. Gegeben dieses Faktum ist allenfalls das second bestGleichgewicht als geeigneter Startpunkt anzusehen, also das Gleichgewicht bei flexiblen Löhnen und Preisen. Durch Schocks generierte Abweichungen vom Steady State werden also überzeichnet, die Differenz zwischen first und second best-Gleichgewicht wird dem Schock zugeschrieben und signalisiert ggf. einen politischen Handlungsbedarf, der de facto nicht besteht. b) Durch die Unterstellung einer linearen Funktion werden Ursache und Wirkung als proportional angenommen. Dies mag für kleine Schocks eine geeignete Approximation sein, weil die Differenz zwischen dem tatsächlichen und dem approximierten Wert recht gering ist. Für große Schocks hingegen wird diese Differenz sehr schnell sehr groß, sodass die Approximation letztlich in die Irre führt. Mit anderen Worten, große Schocks wie sie jetzt in der aktuellen Finanz- und Wirtschaftskrise aufgetreten sind, können mit Hilfe der DSGE-Modelle kaum vernünftig abgebildet und in ihren Folgewirkungen für die Makroökonomie abgeschätzt werden. c) Das Ausblenden von Nicht-Linearitäten verstößt gegen die intendierte Mikrofundierung, es werden an sich relevante Informationen „gestrichen“ und nicht genutzt. d) Durch die Linearisierung des Gleichungssystems werden die zweiten Ableitungen nach den jeweiligen Argumenten gleich null gesetzt. Damit aber blendet man Risikoüberlegungen de facto aus. Wie aus der Mikroökonomik bekannt, erfordert die Modellierung von Risikoaversion und damit das Vorhandensein von Risikoprämien konkave Nutzenfunktionen. Man denke an das Arrow-Pratt-Maß der (absoluten) Risikoaversion, AP = -(u ¢¢ ( x ) / u ¢ ( x )), das nur für negative zweite Ableitungen, u ¢¢ ( x ) < 0 , positive Werte annimmt. Setzt man infolge der Linearisierung die zweite Ableitung gleich null, so unterstellt man sofort risikoneutrale Akteure. e) Die Literatur greift diesen Kritikpunkt auf und arbeitet zunehmend mit second order-Approximationen (vgl. Schmitt-Grohé und Uribe (2004) sowie Benigno und Woodford 2012). Hiermit ist es möglich, positive Risikoprämien abzubilden, allerdings müssen diese Prämien als konstant unterstellt werden. Ausgeblendet sind damit weiterhin Änderungen in der Risikoabschätzung und damit zeitvariable Risikoprämien, da dies eine Approximation dritter Ordnung erfordern würde. Benigno et al. (2013) vertiefen diesen Punkt.



Anmerkungen zur Methodik der DSGE-Modelle

75

Die „Standardkritik“ an den DSGE-Modellen ist in der Regel wenig DSGE-spezifisch, viele Argumente betreffen Punkte, die in anderem Gewande bereits in den 60er und 70er Jahren hoch kontrovers diskutiert worden sind. An erster Stelle steht – wie kann es anders sein – die Annahme rationaler Erwartungen. Die Individuen kennen die Struktur des Modells, sie agieren unter vollständigen Informationen, die den Wirtschaftssubjekten attestierten Fähigkeiten gleichen denjenigen eines Zentralplaners (de Grauwe 2010). Kein Wissenschaftler wird ernsthaft behaupten, dass Individuen tatsächlich über diese Fähigkeiten verfügen. Aber was folgt daraus? Ist ein Szenario, bei dem sich Individuen dauerhaft und systematisch täuschen (lassen), in dem sie bspw. Periode für Periode die tatsächliche Inflationsrate unterschätzen, eine realistischere Alternative? Bei der Beschäftigung mit dieser Frage kommt zumindest dem Verfasser dieser Zeilen schnell der Vergleich von Joan Robinson in den Sinn, wonach eine Landkarte im Maßstab 1:1 zwar realistisch aber unbrauchbar sei. Gerade weil Landkarten Details weglassen und damit „unrealistisch“ sind, sind sie informativ und im wahrsten Sinne des Wortes zielführend. Mit anderen Worten, aus „unplausiblen“ Annahmen wie rationale Erwartungen folgen nicht notwendigerweise unplausible und unbrauchbare Aussagen und Prognosen. Die Suche nach Alternativen treibt mittlerweile Generationen von Mikro- und Makroökonomen um, und die Fortschritte sind durchaus immens, was bspw. am Entstehen eines eigenen Wissenschaftszweigs, der Behavioural Economics, abgelesen werden kann. Gleichwohl muss konstatiert werden, dass die Behavioural Economics bis dato kein allgemein akzeptiertes Alternativmodell vorgelegt hat, das das Verhalten der Wirtschaftssubjekte kohärent und unstrittig realistischer beschreibt. In der DSGE-Literatur gibt es diverse Ansätze, die die Annahme rationaler Erwartungen auflockern (vgl. Milani 2012 für einen Survey). Zu unterscheiden ist zwischen Ansätzen, die in erster Linie die Informa­ tionsstruktur variieren aber ansonsten grundsätzlich an der Rationalitäts­ annahme festhalten, und Ansätzen, die gänzlich andere Heuristiken unterstellen. Evans und Honkapohja (2001) analysieren Lernprozesse und gehen der Frage nach, ob bei adaptivem Lernen letztlich doch das Gleichgewicht bei rationalen Erwartungen erreicht wird. Sie bejahen – mit Einschränkungen – diese Frage und schlussfolgern, dass bei plausiblen Hypothesen über das Lernverhalten zwar der Anpassungsprozess nach einem Schock deutlich modifiziert, der Steady State aber durch das Gleichgewicht bei rationalen Erwartungen gut beschrieben wird. Problematisch ist der Fall multipler Gleichgewichte.

76

Jochen Michaelis

Modifikationen in den Eigenschaften der Schocks sind Gegenstand der „News“-Literatur. In den traditionellen Ansätzen kennen die Wirtschaftssubjekte zwar die Struktur der Ökonomie, aber die in einer Periode auftretenden Schocks sind stets gänzlich unerwartet, erst nach ihrer Realisation werden sie beobachtet und verarbeitet. Beaudry und Portier (2006) sowie Schmitt-Grohé und Uribe (2012) brechen diese Annahme auf und unterstellen, dass die Individuen bereits heute Informationen („news“) erhalten über zukünftige Schocks, die sich dann in der erwarteten Form realisieren können aber nicht müssen. Der Vorteil dieser Unterteilung von Schocks in eine erwartete und eine unerwartete Komponente liegt ist der Möglichkeit, starke Schwankungen in den Makrovariablen wie Produktion und Beschäftigung erklären zu können ohne Vorhandensein entsprechend starker Schocks. Konjunkturabschwünge erfordern nicht länger negative (Technologie-)Schocks.3 De Grauwe (2010) und andere Kritiker der DSGE-Modelle lehnen diese Modifikationen als bloße „Reparaturen“ ab. Ein in seinem Grundaufbau nicht akzeptables Modell wird hilfsweise wieder und wieder ergänzt und modifiziert, um die Diskrepanz zwischen tatsächlich beobachtbaren Daten und Modellprognosen zu vermindern. De Grauwe (2010) propagiert stattdessen eine Abkehr von der Annahme rationaler Erwartungen und eine Hinwendung in Richtung Behavioural Economics. Die Wirtschaftssubjekte verwenden einfache Heuristiken, um das Verhalten bestimmter Variablen zu prognostizieren. In Analogie zu dem Fundamentalisten-Chartisten-Ansatz aus der Finanzmarkttheorie geht er davon aus, dass ein (endogener) Teil der Wirtschaftssubjekte extrapoliert, d. h. sie schreiben die in der Vorperiode beobachteten Werte bspw. für die Inflationsrate und die Outputlücke fort und erwarten dieselben Werte für die zukünftige Periode. Die Konsequenzen dieser Heuristik für die Zeitpfade der Makrovariablen lassen sich ermitteln, ein Vergleich mit dem sich bei rationalen Erwartungen ergebenen Muster ist möglich. Eine andere prominente Heuristik sind die rule-ofthumb-Konsumenten, die annahmegemäß weder sparen noch einen Kredit aufnehmen, sondern in jeder Periode genau ihr gesamtes verfügbares Einkommen für Konsum ausgeben. Gali et al. (2004) diskutieren die Implikationen für verschiedene Zinsregeln, Coenen und Straub (2005) analysieren die Konsequenzen für die Höhe des Fiskalmultiplikators. 3  Dem Kenner wechselkurstheoretischer Modelle ist dieses Argumentationsmuster wohl vertraut, dort firmiert es unter der Bezeichnung „Peso“-Problem. Wechselkursänderungen erklären sich mit der Erwartung einer zukünftigen Politikänderung, die dann aber nicht eintritt. Der empirische Nachweis ist kaum führbar, denn die beobachtbaren Fundamentaldaten (Wirtschaftspolitik) sind konstant bzw. unverändert, der Wechselkurs zeigt aber gleichwohl – scheinbar unmotivierte – Ausschläge.



Anmerkungen zur Methodik der DSGE-Modelle

77

Solche Heuristiken können stets ein gewisses Maß an Plausibilität für sich beanspruchen, aber können sie die rationalen Erwartungen wirklich ersetzen? Hier ist meines Erachtens große Skepsis angezeigt. Ein minimales Erfordernis an ein „vernünftiges“ Modell ist innere Kohärenz, es muss in sich schlüssig sein. Ein Modell, das als Gleichgewichtswert eine positive Inflationsrate ausgibt, das aber auf der Annahme fußt, die Wirtschaftssubjekte gehen stets von einer Null-Inflation aus, ist unlogisch und kann und darf niemals als Fundament bspw. für wirtschaftspolitische Maßnahmen dienen. Ein Modell, bei dem systematisch gegen die Grundregeln der Mathematik verstoßen wird, indem bspw. systematisch falsch addiert oder subtrahiert wird, würde auch niemand als akzeptabel und als gute Proxy für die richtige Lösung ansehen. Rationale Erwartungen sind die einzige Hypothese, bei der innere Kohärenz sichergestellt ist. Mit der Spezifikation der Erwartungsbildungshypothese verfügt der Modellierer über einen Freiheitsgrad, der leicht dazu verführt, eine mehr oder weniger willkürliche Heuristik zu unterstellen, die einen besseren Fit mit den Daten generiert. Da die Zahl prima facie plausibler Heuristiken nahezu unbegrenzt ist, ist es eher trivial eine Heuristik herauszufiltern, die für das spezifische Problem bzw. Modell besser abschneidet als rationale Erwartungen. Um beim Vergleich mit den Rechenregeln zu bleiben: Lässt man Rechenfehler zu und kann zudem noch über die Art des Rechenfehlers entscheiden, dann ist das Erhalten der gewünschten Lösung kein Problem mehr. Würden wir auf solche Ansätze vertrauen? – wohl eher eine rhetorische Frage. Sofern nur irgendeine und nicht immer dieselbe Heuristik zu einem besseren Fit führt, ist die Art der Abweichung von rationalen Erwartungen nahezu beliebig. Und ist der Preis der Aufgabe rationaler Erwartungen eine Abkehr von innerer Kohärenz, dann ist meines Erachtens der Preis zu hoch. Ein gleichfalls heftig umstrittener Punkt ist die Annahme des repräsentativen Individuums, die in den DSGE-Modellen aber auch anderen Makromodellen in der Regel getroffen wird. Auch hier gilt, dass niemand ernsthaft behaupten will, dass es keine Heterogenität gebe und alle Individuen gleich seien. Aber Makroökonomen stehen vor dem Aggregationsproblem: wie kann man die Entscheidungen einzelner Haushalte oder Firmen gewissermaßen aufsummieren, um zu gesamtwirtschaftlichen Größen zu gelangen? Die Denkfigur des repräsentativen Individuums basiert auf der Annahme homothetischer Präferenzen. Ist bei gegebenen Preisen die Aufteilung des Budgets auf die einzelnen Konsumgüter unabhängig vom Einkommen (lineare Engelkurven), so kann gezeigt werden, dass das Verhalten der Makroökonomie unabhängig ist von der Einkommensverteilung und daher die Makroökonomie sich verhält wie ein „repräsentativer“ Agent. Homothetische Präferenzen sind die Standardannahme in der Mikroökonomik. Anders formuliert,

78

Jochen Michaelis

der Verweis auf Heterogenitäten bspw. in Form einer ungleichen Einkommensverteilung ist nicht hinreichend für eine Abkehr vom repräsentativen Haushalt. Vielmehr muss gezeigt werden, dass die Prämisse homothetischer Präferenzen keine gute Approximation ist. Die in Lewbel (2008) skizzierten Studien legen dies in der Tat nahe, wenngleich die empirische Ablehnung homothetischer Präferenzen nicht sofort mit dem Aufzeigen einer überlegenen Alternative einhergeht. Hier ist weiterer Forschungsbedarf angezeigt, ein erster Ansatz ist Foellmi und Zweimüller (2006), die auf der Basis nicht-homothetischer Präferenzen die Rolle der Einkommensverteilung für das makroökonomische Gleichgewicht diskutieren. Die Unzufriedenheit mit der Hypothese rationaler Erwartungen in Verbindung mit der Denkfigur des repräsentativen Individuums hat die Suche nach Alternativen zum DSGE-Ansatz forciert, ein zunehmend beachteter Zweig sind die Multi-Agenten-Systemen (vgl. Tesfatsion und Judd 2006 sowie LeBaron und Tesfatsion 2008). Hier werden Gruppen von Haushalte, Gruppen von Unternehmen etc. betrachtet, die unter Verwendung bestimmter Lernalgorithmen miteinander interagieren. Über Computersimulationen lässt sich dann das Resultat dieser Interaktion ermitteln, wobei der Fokus weniger auf das Aussehen der jeweiligen Gleichgewichte liegt, sondern im Vordergrund steht der Koordinationsprozess der Akteure. Dieser Ansatz lenkt die Aufmerksamkeit auf Anpassungsmechanismen, die bei den DSGEModellen klar zu kurz kommen. Allerdings gilt meines Erachtens auch hier die bereits oben genannte Kritik an der Kritik rationaler Erwartungen. Der Modellierer ist de facto frei in der Wahl der Zahl und der Zusammenstellung der Agenten (Haushalte, Firmen, Institutionen), er ist de facto frei in der Wahl der unterstellten Lernalgorithmen. Daher ist es wiederum ein Leichtes, ein Szenario zu finden, das einen besseren Fit aufweist als die DSGE-Modelle, die zumindest bei rationalen Erwartungen über diese Freiheitsgrade nicht verfügen.

IV. Und was haben wir gelernt? DSGE-Modelle sind Konjunkturmodelle. Sie wollen und sollen das kurzfristige Verhalten einer Volkswirtschaft abbilden und Prognosen ermöglichen über Zeiträume von ein, zwei, drei Quartalen. Damit befriedigen sie eine Nachfrage, die in erster Linie von wirtschaftspolitischen Akteuren wie Regierungen oder Zentralbanken entfaltet wird. Aus (meiner) Sicht des akademischen Makroökonomen stellt sich indes die Frage, ob die Volkswirtschaftslehre sich hiermit nicht auf ein Gebiet begibt, bei dem sie letztlich über keinen komparativen Vorteil verfügt. In der kurzen Frist kommt eine Vielzahl von Faktoren zum Tragen (Schocks, Anpassungsreaktionen, psychologische Effekte etc.), die in ihrer Gesamtheit die konkreten Realisatio-



Anmerkungen zur Methodik der DSGE-Modelle

79

nen von Variablen wie Preise, Löhne, Produktion oder Beschäftigung beeinflussen, die aber in ihren individuellen Beitrag nicht identifizierbar sind. In der kurzen Frist ist das weiße Rauschen immens. Die Suche nach dem Modell mit dem besten Fit für die kurze Frist erscheint frucht- oder – krasser formuliert – aussichtslos. Deutlich stärker sind Volkswirte bei der Analyse der mittleren und langen Frist: Was bleibt übrig nach Abklingen des weißen Rauschens? Die Analyse von Fundamentalfaktoren, die über längere Zeiträume zum Tragen kommen, das ist die Stärke der VWL. Welche Strukturreformen sind notwendig, um die gleichgewichtige Arbeitslosigkeit zu senken? Welche institutionelle Verankerung der Geldpolitik verspricht am ehesten Preisstabilität? Welche Anpassungsreaktionen sind bei Regulierungen und / oder Steuern zu erwarten? – Dies sind die Fragen, zu denen Volkswirte Substantielles beisteuern können. Die Frage, wie sich die Güterproduktion im nächsten Quartal entwickeln wird, gehört eher nicht dazu. Weil aber die Nachfrage nach Konjunkturprognosen auch auf ein Angebot seitens der Volkswirte stoßen soll und muss, gilt es trotz der skizzierten Grenzen die einschlägigen Konjunkturmodelle weiter zu entwickeln. Um der Lucas-Kritik Rechnung zu tragen, müssen auch diese Weiterentwicklungen formuliert werden in politikinvarianten Strukturparametern, was auf eine Fortschreibung bzw. Verfeinerung der DSGE-Modelle hinausläuft. Der hierfür zu zahlende Preis: die Volkwirtschaftslehre droht an Kommunika­ tionsfähigkeit zu verlieren. Wenn intuitive Begriffe wie die Sparquote oder die Lohnelastizität des Arbeitsangebots oder die Preiselastizität der Güternachfrage nicht mehr Verwendung finden können, sondern ersetzt werden durch intertemporale Substitutionselastizität des Konsums oder inverse Frisch-Elastizität des Arbeitsangebots oder Calvo-Parameter, dann ist das auch einer wohlwollenden Wirtschaftspolitik oder einer interessierten Öffentlichkeit nicht vermittelbar. Es ist zu befürchten, dass die Diskrepanz zwischen makroökonomischer Forschung und ökonomischer Intuition eher größer wird. Es ist die Aufgabe der universitären Ausbildung, hier in die Rolle des Übersetzers zu schlüpfen. Viele in den DSGE-Modellen abgeleitete Resultate sind aus der Standardmakro lange bekannt, viele Resultate lassen sich mit dem einfachen Instrumentarium eines ISLM-Modells oder des MundellFleming-Modells herleiten und begründen, und genau dies muss im Hörsaal geschehen. Nur mit solch einfachen, nicht mikrofundierten und im Sinne von Joan Robinson unrealistischen Modellen kann man die Studierenden packen und aufzeigen, dass in der Volkswirtschaftslehre wichtige Themen bearbeitet werden. Hans-Hermann Francke war und ist ein solcher Übersetzer. Dank seines unschlagbaren „Bauchgefühls“ war die ökonomisch rele-

80

Jochen Michaelis

vante Lösung eines Problems meist schnell gefunden. Dank seines enormen rhetorischen Geschicks hat er seine Hörer immer wieder mit seiner Begeisterungsfähigkeit anstecken und vermitteln können, dass man gewissermaßen seines Lebens nicht wieder froh werde, wenn man diesen ökonomischen Sachverhalt nicht verstanden habe. Das ist gelebte VWL, und es bleibt zu hoffen, dass sie den griechischen Buchstaben nicht zum Opfer fällt.

Epilog Jeder Mensch wird sich an einige Weggabelungen erinnern, wo die Entscheidung für links oder rechts den späteren Werdegang bestimmt haben. Bei mir war einer dieser Gabelpunkte der Besuch im Büro von HansHermann Francke zu seiner Zeit an der Universität der Bundeswehr Hamburg. Ich war Mitarbeiter bei Herrn Carlberg, wir kannten uns daher nur flüchtig. Gleichwohl kam Hans-Hermann auf mich zu und schlug vor, mit ihm nach Freiburg zu wechseln, zu habilitieren und die Hochschullehrerlaufbahn einzuschlagen. Ich war perplex, aber nach einigem Zögern habe ich sein Angebot angenommen. Obwohl man die Alternative ja nicht kennen kann, bin ich überzeugt, ich habe die richtige Abzweigung gewählt. Die Zusammenarbeit in Freiburg war eigentümlich und besonders, er hatte einen Lehrstuhl für Finanzwissenschaft und Monetäre Ökonomie, ich habilitierte über Arbeitsmarktökonomik. Er hatte dank seines Bauchgefühls die Lösung eines ökonomischen Problems in Sekundenschnelle parat, ich war auf der Suche nach einem einschlägigen Modell. Trotz oder vielleicht auch wegen der bekannt unterschiedlichen Herangehensweisen kamen wir zueinander. Dass am Ende des Tages für die Frage, ob man einen guten Job macht oder nicht, letztlich nur das Engagement und die Hingabe für die Sache zählt, war Hans-Hermann immer klar, ich habe es – hoffentlich – von ihm gelernt. Literatur Beaudry, Paul / Portier, Franck (2006): Stock Prices, News, and Economic Fluctuations, in: American Economic Review, Vol. 96, S. 1293–1307. Benigno, Gianluca / Benigno, Pierpaolo / Nisticò, Salvatore (2013): Second-order Approximation of Dynamic Models with Time-Varying Risk, NBER Working Paper No. 16633, in: Journal of Economic Dynamics and Control, im Druck. Benigno, Pierpaolo / Woodford, Michael (2012): Linear-quadratic Approximation of Optimal Policy Problems, in: Journal of Economic Theory, Vol. 147, S. 1–42. Blanchard, Olivier (2009): The State of Macro, in: Annual Review of Economics, Vol. 1, S. 209–228.



Anmerkungen zur Methodik der DSGE-Modelle

81

Blanchard, Olivier / Kiyotaki, Nobuhiro (1987): Monopolistic Competition and the Effects of Aggregate Demand, in: American Economic Review, Vol. 77, S. 647– 666. Calvo, Guillermo (1983): Staggered Prices in a Utility Maximizing Framework, in: Journal of Monetary Economics, Vol. 12, S. 383–398. Canova, Fabio (2007): Methods for Applied Macroeconomic Research, Princeton University Press. Coenen, Günter / Erceg, Christopher J. / Freedman, Charles / Furceri, Davide / Kumhof, Michael / Lalonde, René / Laxton, Douglas / Lindé, Jesper / Mourougane, Annabelle /  Muir, Dirk / Mursula, Susanna / Resende, Carlos de / Roberts, John / Roeger, Werner /  Snudden, Stephen / Trabandt Mathias / in’t Veld, Jan (2012): Effects of Fiscal Stimulus in Structural Models, in: American Economic Journal: Macroeconomics, Vol. 4, No. 1, S. 22–68. Coenen, Günter / Straub, Roland (2005): Does Government Spending Crowd in Private Consumption? Theory and Empirical Evidence for the Euro Area, in: International Finance, Vol. 8, No. 3, S. 435–470. De Grauwe, Paul (2010): Top-Down versus Bottom-Up Macroeconomics, in: CESifo Economic Studies, Vol. 56, S. 465–497. Dixit, Avinash / Stiglitz, Joseph (1977): Monopolistic Competition and Optimum Product Diversity, in: American Economic Review, Vol. 67, S. 297–308. Ehrlicher, Werner / Becker, Wolf-Dieter (Hrsg.) (1978): Die Monetarismus-Kontroverse, in: Beihefte zu Kredit und Kapital, Heft 4. Evans, George / Honkapohja, Seppo (2001): Learning and Expectations in Economics, Princeton University Press. Galí, Jordi / López-Salido, David / Vallés, Javier (2004): Rule-of-Thumb Consumers and the Design of Interest Rate Rules, in: Journal of Money, Credit, and Banking, Vol. 36, S. 739–763. Foellmi, Reto / Zweimüller, Josef (2006): Mass Consumption, Exclusion, and Unemployment, CEPR Discussion Paper No. 5824. Hansen, Gerd / Westphal, Uwe (Hrsg.) (1983): SYSIFO: ein ökonometrisches Konjunkturmodell für die Bundesrepublik Deutschland, Frankfurt / Main. Keynes, John Maynard (1936): The General Theory of Employment, Interest, and Money, London: Macmillan. King, Robert / Plosser, Charles (1984): Money, Credit, and Prices in a Real Business Cycle, in: American Economic Review, Vol. 64, S. 363–380. Kumhof, Michael / Laxton, Douglas (2007): A Party without a Hangover? On the Effects of US Government Deficits, IMF Working paper 07 / 202. LeBaron, Blake / Tesfatsion, Leigh (2008): Modeling Macroeconomics as Open-Ended Dynamic Systems of Interacting Agents, in: American Economic Review, Vol. 98, S. 246–250.

82

Jochen Michaelis

Lewbel, Arthur (2008): Engel Curves, in: The New Palgrave Dictionary in Economics, 2. Auflage. Lucas, Robert (1976): Econometric Policy Evaluation: A Critique, in: CarnegieRochester Conference Series on Public Policy, Vol. 1, S. 19–46. Mankiw, Gregory (1985): Small Menu Costs and Large Business Cycles: A Macro­ economic Model of Monopoly, in: Quarterly Journal of Economics, Vol. 101, S. 455–470. Mankiw, Gregory / Reis, Ricardo (2002): Sticky Information versus Sticky Prices: A Proposal to Replace the New Keynesian Philips Curve, in: Quarterly Journal of Economics, Vol. 117, S. 1295–1328. Michaelis, Jochen (1989): Staatsverschuldung als Quelle der Nicht-Neutralität – Ein Beitrag zum Ricardianischen Äquivalenztheorem, in: Kredit und Kapital, Vol. 22, S. 453–469. Milani, Fabio (2012): The Modeling of Expectations in Empirical DSGE-Models: A Survey, in: Advances in Econometrics, Vol. 28, S. 1–36. Modigliani, Franco (1977): The Monetarist Controversy or, Should We Forsake Stabilization Policy?, in: American Economic Review, Vol. 67, No. 2, S. 1–19. Poole, William (1970): Optimal Choice of Monetary Instruments in a Simple Stochastic Macro Model, in: Quarterly Journal of Economics, Vol. 84, S. 197–216. Prescott, Edward (1986): Theory Ahead of Business-Cycle Measurement, in: Carnegie-Rochester Conference Series on Public Policy, Vol. 25., S. 11–44. Schmitt-Grohé, Stephanie / Uribe, Martin (2004): Solving Dynamic General Equilibrium Models using a Second-order Approximation of the Policy Function, in: Journal of Economic Dynamics and Control, Vol. 28, S. 755–775. – (2012): What’s News in Business Cycles?, in: Econometrica, Vol. 80, S. 2733– 2764. Smets, Frank / Wouters, Raf (2003): An Estimated Dynamic Stochastic General Equilibrium Model of the Euro Area, in: Journal of the European Economic Associa­ tion, Vol. 1, S. 1123–1175. Testatsion, Leigh / Judd, Kenneth (Hrsg.) (2006): Handbook of Computational Economics, Vol. 2, Agent-Based Computational Economics, Amsterdam. Tovar, Camilo (2009): DSGE Models and Central Banks, in: Economics: The OpenAccess, Open-Assessment E-journal, Vol. 3, No. 16, S. 1–31.

Zur Kritik an starren gesetzlichen Zinshöchstgrenzen für Konsumentenkredite (am Beispiel der Schweiz) Von Henner Schierenbeck

Prolog Als betriebswirtschaftlicher Kollege des Nationalökonomen Hans-Hermann Francke hatte ich mich (bei Ralf-Bodo Schmidt) 1978 etwa zur gleichen Zeit wie er an der Universität habilitiert. Während seine akademischen Wege ihn dann von Freiburg nach Hamburg und wieder zurück nach Freiburg führten, war mein erster Ruf Münster und dann später Basel (Schweiz). Wenngleich unsere Fachausrichtung naturgemäß recht unterschiedlich war, gab es doch über die Klammer ‚Geld und Finanzen‘ eine gewisse Gemeinsamkeit. Starke persönliche und freundschaftliche Bezüge ergaben sich dann aber über unsere gemeinsame Arbeit an der Deutschen Immobilienakademie (DIA) und der DIA Consulting, einem von uns zusammen mit anderen gegründeten Beratungsgesellschaft. Der vorliegende Beitrag beschäftigt sich mit der Frage, ob ein gesetzlich verordneter starrer Höchstzins für Konsumentenkredite seine beabsichtige Schutzfunktion wirksam erfüllen kann und welche möglicherweise unerwünschten Nebenwirkungen zu erwarten sind. Akzeptiert man grundsätzlich den Anspruch des Gesetzgebers auf Verwirklichung eines speziellen Konsumentenschutzes für Kreditnehmer, so ist nur folgerichtig, dass eine regulatorische Umsetzung die folgenden drei Punkte umfassen sollte: 1. Die kreditgebenden Banken werden verpflichtet, die spezielle Kreditkapazität der Kreditnehmer zu überprüfen und eine angemessene Relation zwischen Rückzahlungspflicht (Zinsen und Tilgung) und den hierfür verfügbaren Einkommen jenseits der Pfändungsgrenzen sicher zustellen. 2. Die kreditgebenden Banken müssen durch Angabe eines Effektivzinses Transparenz sicherstellen, so dass die Kreditnehmer in der Lage sind, das für sie günstigste Angebot am Markt auszuwählen. In den Effektivzinssätzen sind festgelegte Kostenkomponenten vollständig einzubeziehen.

84

Henner Schierenbeck

3. Die Banken werden unter die Kuratel eines fix definierten Höchstzinses gestellt, den sie nicht überschreiten dürfen bzw. bei dessen Überschreitung das Geschäft als nichtig angesehen wird. Während man die ersten beiden Punkte als grundsätzlich sinnvoll ansehen kann und diese auch bei einem Blick über die Grenzen in vielen europäischen Ländern sowie im europäischen Gesetzesvergleich ihr entsprechendes Pendant haben, gilt dies für den dritten Punkt, die Definition einer starren Zinshöchstgrenze, nicht. Zwar gibt es in fast allen anderen Ländern sogenannten Wucherzinsparagraphen und die postulierte Zinshöchstgrenze soll offensichtlich diese Funktion erfüllen, doch ist ernsthaft zu fragen, ob eine wie auch immer geartete, starre Höchstzinsgrenze angesichts schwankender Zinssätze an den Märkten und angesichts der weltweiten Zinsinterdependenzen eine sinnvolle Regelung des Wucherzinsproblems darstellt. Folgerichtig sind auch im europäischen Ausland die entsprechenden Vorschriften in dem Sinne flexibel ausgestattet, dass sie entweder, wie in Großbritannien, einzelfallorientiert von den jeweiligen Gerichten festgelegt werden oder dass sie als Höchstabweichung von einem Durchschnittszins bestimmt werden. Setzt man die jeweils geltenden Durchschnittszinssätze mit 1 an gilt für Deutschland beispielsweise der Faktor 2, für Frankreich der Faktor 1,33 und für Italien der Faktor 1,5 zur Bestimmung der als Wucher geltenden Zinssätze. Ohne auf die in den einzelnen Vorschriften zum Ausdruck kommenden unterschiedlichen Vorstellungen eines Wucherzinses selbst eingehen zu wollen, ist doch klar, dass hier das jeweilige Zinsniveau die entscheidende Benchmark zur Bestimmung des Höchstzinssatzes ist. Genau dieses Element fehlt jedoch dem Ansatz des zur Revision anstehenden Schweizerischen Konsumkreditgesetzes (KKG), wo ein starrer Höchstzins von 15 % angestrebt wird. Eine starre Höchstzinsgrenze wäre unproblematisch, wenn sie so hoch angesetzt würde, dass sie über dem Bereich der möglichen Zinssätze läge, die sich bei einer entsprechend seriösen und professionellen Kreditkalkulation der Banken ergeben würden. In einem solchen Fall wäre eine entsprechende Gesetzesvorschrift allerdings irrelevant, hätte also keinerlei Auswirkungen. Die Crux einer starren Höchstzinsgrenze besteht also darin, dass sie, um überhaupt Wirksamkeit zu erlangen, den Bereich der relevanten Zinssätze begrenzen muss und sich dabei die Frage gefallen muss, welche Wirkungen eine solche Vorschrift in bezug auf das Verhalten der Marktparteien hat. Es ist deshalb in einem ersten Schritt zu prüfen, ob die entsprechende Höchstzinsgrenze von 15 % in der Schweiz in dem Bereich der nichtrelevanten Restriktion liegt (Abbildung 1: Konstellation A) oder ob sie den Bereich der relevanten Zinssätze im Konsumentenkreditgeschäft zumindest zeitweise schneiden wird (Konstellation B). Ist letzteres der Fall, so



Kritik an Zinshöchstgrenzen für Konsumentenkredite

85

Abbildung 1: Konstellationen bei Höchstzinsvorschrift

sind die Lenkungswirkungen einer solchen Zinshöchstgrenze im Einzelnen zu analysieren. Abbildung 1 verdeutlicht die Problemstellung allgemein. Aus betriebswirtschaftlicher Sicht ist der Konsumentenkreditzins das Ergebnis aus dem jeweils relevanten Markteinstandszins für den Anbieter und der Soll- bzw. Mindestmarge, die auf den Einstandszins kalkuliert wird. Die Mindestmarge im Sinne einer (voll-)kostenorientierten Marge setzt sich dabei aus dem auf das jeweilige Kreditgeschäft umgerechneten (1) StandardRisikokosten, (2) Standard-Betriebskosten und (3) Eigenkapitalkosten zusammen (vgl. auch Abbildung 2 sowie ausführlicher Schierenbeck 2003, S. 304 ff.). Damit ergibt sich die Notwendigkeit, für diese drei Komponenten sowie für den relevanten Markteinstandszins Grössenordnungen zu quantifizieren, um die Spannbreite möglicher, auf der Grundlage moderner Bankbetriebslehre entwickelten Kalkulationssätze für solche Kreditgeschäfte zu bestimmen. • Zu (1): Standard-Risikokosten Diese Sätze werden auf der Basis statistisch-mathematischer Verfahren zur Kalkulation des „erwarteten Verlusts“ bei Ausfall des Kreditnehmers infolge von Bonitätsproblemen des Schuldners bestimmt. Die Grössenordnungen, mit denen hier üblicherweise kalkuliert werden muss, liegen zwischen 0,5 % (bei effizienter Kreditwürdigkeitsprüfung und restriktiver Kreditpolitik) und 1,5 % (in der Spitze und im Einzelfall allerdings weit darüber).

86

Henner Schierenbeck

Akquisitions1,5 % und Marketing1,0 % kosten

Mittelwert unterer Wert Bearbeitungs- 5,5 % und Abwicklungs3,5 % kosten Standard- 1,5 % Risikokosten 0,5 %

9,7 %

vollkostenorientierte Kreditkondition

oberer Wert

vollkostenorientierte Mindestmarge

Eigen- 1,2 % kapitalkosten 0,6 %

7,65 % 5,6 %

Refinanzierungszins

Abbildung 2: Mindestmargenkalkulation im Konsumentenkreditgeschäft

• Zu (2a): Bearbeitungs- und Abwicklungskosten Die Kostenmargen erhöhen sich generell durch die Umsetzung der Vorschriften des KKG zum Konsumentenschutz. Dessen ungeachtet sind sie stark abhängig vom Standardisierungs- und Automatisierungsgrad der Bearbeitungs- und Abwicklungsprozesse, was wiederum ein entsprechend hohes Geschäftsvolumen und eine Spezialisierung auf dieses Geschäftssegment voraussetzt. Problematisch ist, dass die anfallenden Kosten vorgangsabhängig und damit volumensunabhängig entstehen. Bei kleinen Losgrössen (insbesondere bei Kreditvolumina pro Einzelgeschäft von unter 10.000 CHF oder sogar unter 5.000 CHF schlagen sich die Kosten somit stark überproportional in den Kostenmargen nieder). Geht man von einem Durchschnittswert von ca. 20.000 CHF pro Einzelkredit aus, sind marktgängige Normalkostensätze zwischen 3,5 % und 5,5 % anzutreffen, mit allerdings – wie gesagt – stärkerer Abweichung nach oben bei kleineren Kreditvolumina und geringerem Effizienzgrad in der Abwicklung bzw. Bearbeitung. • Zu (2b): Akquisitions- und Marketingkosten Solche sind stark durch die restriktiven Bestimmungen in bezug auf Werbung und Kundenansprache in der Schweiz bestimmt und können bezogen auf eine durchschnittliche Losgrösse von ca. 20.000 CHF bei Konsumentenkrediten einen Kostenwert von zwischen normalerweise 1 % und 1,5 % ausmachen.



Kritik an Zinshöchstgrenzen für Konsumentenkredite

87

• Zu (3): Eigenkapitalkosten Diese sind aufgrund der erforderlichen Eigenmittelunterlegung des Konsumentenkreditgeschäftes, und speziell für die Abdeckung von „unerwarteten Verlusten“, die über die kalkulierten Standard-Risikokosten hinaus anfallen können, zu kalkulieren (vgl. hierzu ausführlicher Schierenbeck 2003, S. 516  ff. und Schierenbeck  /  Lister  /  Kirmße 2008, S. 154  ff.). Die hierfür notwendige Eigenmittelunterlegung wird zum einen durch EBK-Vorschriften geregelt. Zum anderen lassen sich interne Risikomodelle zur Schätzung des Eigenmittelbedarfs einsetzen. Verknüpft man diese mit den Eigenkapitalkostensätzen schweizerischer Banken (die in der Regel aus dem Capital Asset Pricing Model abgeleitet werden), so ergeben sich Eigenkapitalkosten, die bezogen auf das relevante Kreditvolumen typischerweise in Grössenordnungen von zwischen 0,6 % und 1,2 % liegen. Die Untersuchung zeigt in Abbildung 2 deutlich, dass selbst bei Abschneiden von Extremwerten im oberen Bereich die vollkostenorientierte Mindestmarge bei Konsumentenkrediten realistischerweise bis zu 9,7  % ansteigen kann, dass sie in sehr günstigen Konstellationen bis auf 5,6 % absinken kann und der Mittelwert aus beiden in der Grössenordnung von 7,6 % bis 7,7 % liegt. Die oberen Werte gelten – wie bereits erwähnt – vor allem dann, wenn schlechtere Bonitäten kombiniert mit kleineren und mittleren Kreditvolumina und ungünstiger Risikodiversifikation des Konsumentenkreditportfolios sowie unterdurchschnittlicher Effizienz der Abwicklungsund Bearbeitungsprozesse zusammenkommen. Es stellt sich auf der Grundlage dieser Ergebnisse nun die weitergehende Frage, wie hoch der Refinanzierungszins sein darf, um bei einer vorgegebenen Höchstzinsgrenze von 15 % bei Konsumentenkrediten voll abgedeckt zu werden. Zu diesem Zweck sind für den Zeitraum von 1986 bis Juni 2000 die marktzinsorientierten Refinanzierungssätze für Konsumentenkredite mit 36 Monaten Laufzeit mit ihren Minima und Maxima in den jeweiligen Jahren empirisch erhoben worden. Grundlage hierfür sind die Geld- und Kapitalmarktsätze für die Fristigkeiten von einem Monat bis drei Jahren, die mit den Cash Flow-Tilgungstranchen aus dem Kapitaldienst bei üblicherweise annuitätischer Tilgung der Konsumentenkrediten verknüpft wurden (zur methodischen Vorgehensweise siehe Schierenbeck 2003, S. 176 ff.). Das Ergebnis ist in folgender Abbildung 3 zusammengefasst. Wie erwartet gibt es für eine starre Höchstzinsgrenze von 15 % keine Probleme in Niedrigzinsphasen, wie sie in der Schweiz während der zweiten Hälfte der 90er Jahren und bis heute (2012) geherrscht haben. Allerdings gab es in der davor liegenden Hochzinsphase – das war praktisch im gesamten Zeitraum von 1989–1993 – eine Konstellation, wo ein Höchstzins von 15 % keine vollständige Kostendeckung erlaubt hätte. Da nicht auszu-

88

Henner Schierenbeck Höchstzins 15 % –

vollkostenorientierte Mindestmarge 9,7 %

=

5,6 %

Spielraum für Refinanzierungszins 5,3 %

1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000

7,65 %

7,35 %

oberer Wert

Mittelwert

unterer Wert

9,4 %

Maximalwerte

Minimumwerte

5,17 % 4,69 % 4,98 % 7,87 % 8,70 % 8,21 % 8,15 % 5,70 % 4,95 % 4,91 % 3,28 % 2,73 % 2,75 % 3,31 % 4,17 %

4,27 % 3,92 % 3,22 % 4,98 % 7,71 % 7,42 % 5,95 % 4,07 % 4,21 % 2,49 % 2,42 % 2,06 % 1,84 % 1,66 % 2,87 %

Zinssätze in Konflikt mit Höchstzinssatz

Empirische Analyse der Refinanzierungssätze 1986–2000 (Juni) Quelle: Datastream, eigene Berechnungen

Abbildung 3: Zulässige Höhe des Refinanzierungszinses bei Höchstzinsgrenze von 15 % und vollkostenorientierter Mindestmarge

schliessen ist, dass sich in der Zukunft Hochzins- und Niedrigzinsphasen wieder abwechseln werden und im übrigen zumindest der Zweifel erlaubt ist, ob die Schweiz ihre Position als Niedrigzinsinsel in Zukunft dauerhaft verteidigen können wird, gibt es eine hohe Wahrscheinlichkeit dafür, dass es auch in Zukunft immer wieder Zeiträume geben wird, in denen die Zinshöchstgrenze von 15 % die Durchsetzung einer vollkostenorientierten Kreditkondition wirksam begrenzen wird. Damit muss sich eine solche gesetzliche Regelung notwendigerweise mit den hieraus resultierenden Lenkungswirkungen auseinander setzen. Grundsätzlich gilt, dass gesetzliche Zinsobergrenzen, die es nicht erlauben, die entsprechend entstandenen Kosten auf die Kreditkonditionen zu überwälzen,



Kritik an Zinshöchstgrenzen für Konsumentenkredite

89

in marktwirtschaftlichen Systemen naturgemäss ein Fremdkörper sind. Sie führen, wenn marktliche Überwälzungsmechanismen von Produktions- und Vertriebskosten nicht genutzt werden dürfen, fast notwendigerweise zu ökonomischen Fehlallokationen und insbesondere zu (häufig unerwünschten) Ausweichhandlungen der betroffenen Marktteilnehmer: • Sie bilden Anreize für die Verlagerung von Angebotsstrukturen in nicht von der Regulierung erfasste Bereiche und drängen Nachfrager in Grauzonen der Finanzmärkte. • Sie führen zu strukturellen Verwerfungen mit manchmal unabsehbaren Konsequenzen. So hat die in den 50er Jahren für US-Banken Geld geltende Höchstzinsvorschrift für Termin- und Spareinlagen (die sogenannte Regulation Q) nicht nur zu einer Schädigung der Einleger in Hochzinsphasen beigetragen, sondern auch ihren Teil zur Entstehung des Eurodollar-Marktes beigetragen haben, indem ausländische Banken und institu­ tionelle Anleger ihre Dollar-Guthaben nicht in den USA hielten, sondern auf internationalen Finanzmärkten anboten. Wenngleich auch das KKG keine so weitreichenden Konsequenzen auslösen wird, sind doch die schlechten Erfahrungen mit solchen starren Höchstzinsverordnungen bedenkenswert. Auch sollte berücksichtigt werden, dass ein solches aus marktwirtschaftlicher Perspektive atavistisch anmutendes Gesetz schon wegen seiner möglichen Präjudizwirkungen für andere Bereiche des Finanzsektors äusserst problematisch ist, in jedem Fall aber dem Image des Finanzplatzes Schweiz als einem weltoffenen, international vernetzten Marktplatz nicht unbedingt zuträglich sein wird. • Da nachgewiesener weise Konstellationen auch in Zukunft wahrscheinlich sind, in denen eine solche Höchstzinsvorschrift das Geschäftsfeld „Konsumentenkredite“ strukturell unrentabel macht, wären die Banken gleichsam behördlicherseits gezwungen, dieses Geschäftsfeld zumindest zeitweise aufzugeben oder aber diesem so produzierten Problem durch eine allen betriebswirtschaftlichen Überlegungen Hohn sprechende weitgehende Strategie der Quersubventionierung zu begegnen: (1) Ins Auge sticht eine zeitliche Quersubventionierung dergestalt, dass die Anbieter es darauf anlegen müssten, in Niedrigzinsphasen entsprechende Gewinnreserven zu bilden, um damit in Hochzinsphasen die Geschäfte zu subventionieren. Die Prognose wäre damit nicht abwegig, dass bei Gültigkeit einer starren Höchstzinsvorschrift die Kreditzinsen in der Niedrigzinsphase weniger stark sinken würden, um die nicht auskömmlichen Zinssätze in der Hochzinsphase zu kompensieren. Die Kreditnehmer in Niedrigzinsphasen würden also die Kreditnehmer in der Hochzinsphase subventionieren.

90

Henner Schierenbeck

(2) Ebenfalls zu erwarten ist eine stärkere Risiko-Quersubventionierung in dem Sinne, dass vor allem in Hochzinsphasen schlechte Bonitätsrisiken einen vergleichsweise zu günstigen Kreditzins zu zahlen hätten, wo hingegen die guten Risiken eine vergleichsweise zu hohe Risikoprämie entrichten müssten. (3) Zuletzt wäre auch zu erwarten, dass zur künstlichen Zinssenkung in Hochzinsphasen eine Betriebskosten-Quersubventionierung betrieben würde, und zwar in dem Sinne, dass die kleinen Kreditbeträge relativ bevorzugt würden und die grösseren Volumina pro Kreditfall dies durch einen vergleichsweise höheren Zins zu bezahlen hätten. In allen drei Fällen wird das Prinzip verursachungsgerechter Preis- und Konditionsgestaltung durchlöchert. Es stellt sich somit ernsthaft die Frage, ob die Befürworter einer solchen Höchstzinsvorschrift diese naheliegenden Konsequenzen hinreichend bedacht haben. Zusammenfassend gilt, dass dem Ziel des Konsumentenschutzes wohl besser gedient wäre, wenn eine Regelung des Wucherzinses, wie sie in den Nachbarländern praktiziert wird (und eingangs beschrieben wurde), eingeführt würde oder aber dass zumindest die Höchstzinsvorschrift durch eine Höchstmargenregelung ersetzt würde, die allerdings auf die besonderen Kostenbedingungen im Konsumentenkreditgeschäft (wie das im einzelnen dargelegt wurde) abstellen müsste. Eine starre Höchstzinsregelung, wie sie im KKG propagiert wird, ist jedenfalls abzulehnen. Dadurch, dass sie nicht marktkonform ist und vielfältige Ausweichhandlungen, deren mögliche Konsequenzen nicht im Sinne der Regulierung liegen können, geradezu provoziert, schafft sie insgesamt mehr Probleme, als sie gegebenenfalls zu lösen in der Lage ist. Literatur Schierenbeck, Henner (2003): Ertragsorientiertes Bankmanagement, Band 1: Grundlagen, Marktzinsmethode und Rentabilitäts-Management, 8. Auflage, Wiesbaden. Schierenbeck, Henner / Lister, Michael / Kirmße, Stefan (2008): Ertragsorientiertes Bankmanagement, Band 2: Risiko-Controlling und integrierte Rendite- / Risikosteuerung, 9. Auflage, Wiesbaden.

Bank Liquidity: Will 30 Days Make a Difference? By Dierk Brandenburg and Joe Hanmer

I. Bank Liquidity: How we got where we are It is widely accepted today that the origins of the banking crisis can be traced back to poor liquidity management in the banking sector and lack of transparency in the run-up to the events that unfolded from the summer of 2007. Banks had increasingly relied on short-term wholesale funding in their operations, mainly to fund a carry trade in low yielding securities such as senior asset backed bonds that were perceived to be close to risk free before the US housing crisis broke in late 2006. This development – partly fuelled by excess supply of USD through US money market funds (McGuire / von Peter 2009) – was poorly understood by market participants and regulators because a significant part of banks’ portfolios were funded off balance sheet through special purpose vehicles such as asset-backed commercial paper conduits or structured investment vehicles (Brandenburg 2006). While tightly monitored by ratings agencies these vehicles effectively engaged in maturity transformation and monetary transmission, albeit without direct access to a lender of last resort (Tabe 2010). While the behaviour appears reckless with hindsight, banks were in effect following the very basic logic to minimize reserve requirements with the central bank (Poole 1968) and so most of the effort went into minimizing their cost of funds by broadening their investor base and minimising the need for low yielding central bank reserves, cash & highly liquid assets (Matz / Neu 2007). Regulatory and central bank policies contributed to the liquidity bubble by allowing banks on one hand to use higher equity leverage by reducing regulatory capital requirements for securities with top credit ratings under Basel 2, while on the other hand taking a blind eye to regulating liquidity risk. Maximising shareholder value through (risk-adjusted) leverage was a widely accepted principle during the period of very low bond market volatility before 2007 (Brandenburg 2003). The interaction of policies and private sector incentives contributed to the build up of leverage in the global financial system and its macroeconomic and social consequences (Rajan 2010).

92

Dierk Brandenburg and Joe Hanmer

As we know now, these issues were only the proverbial tip of the iceberg as was highlighted by the string of bank failures that followed in 2008. Here leverage and the associated liquidity risk concealed in repo & derivatives markets proved to be a particularly toxic issue for systemic banks with large capital markets operations (Duffie 2011). The breakdown in liquidity intermediation in the private sector left central banks with no choice but to intervene and provide extensive liquidity support, followed by solvency measures from governments. From the perspective of the central banks it crystallized the well documented moral hazard phenomenon that encapsulated the too-big-fail doctrine, less than 20 years after the epic of the Latin American debt crisis and the US savings and loan crisis (Brandenburg 1989). It also meant that central banks were forced to take a much more active role among financial intermediaries (Mehrling 2010).

II. Policy Response to Liquidity Concerns In response to the financial crisis, the BIS published a first paper in 2008 on sound principles of liquidity management. This consisted of 17 principles for managing and supervising liquidity risk. They included establishing a liquidity risk tolerance, more severe stress test scenarios and enhanced public disclosure around liquidity. In 2010 the Basel Committee published formal guidance and introduced the concepts of a short-term Liquidity Coverage Ratio and a long-term Net Stable Funding Ratio, which cover all three of these principles. They set minimum levels of liquidity that each bank should maintain, encapsulate stressed scenarios and would be publicly disclosed to the market. Given that central banks and banking regulators had been discussing global standards for liquidity risk for more than 20 years, it is remarkable that they were able to agree on global standards for the first time. For a central bank, the definition of what constitutes a liquid asset that can be used as collateral against central bank funds goes to the core of its raison d’etre, an independent functioning of monetary policy, making it hard to reach an international accord (Goodhart 2011). However, the quick progress on the micro prudential level was overshadowed by macroeconomic developments, i. e. the drastic change in liquidity preferences, the collapse of the money multiplier and the threat of deflation in the wake of the recession and the debt crisis. As a result banks and non-banks started hoarding liquidity and stopped lending, thus threatening the effectiveness of monetary policy.



Bank Liquidity: Will 30 Days Make a Difference?

93

So, just at the moment when global consensus emerged that banks should share a higher liquidity burden and thus reduce the likelihood for central banks of being called upon as a lender of last resort, the latter had to engage in a far more radical expansion of their own balance sheets than they had ever imagined. Against the backdrop of this macroeconomic picture, the tough new liquidity regime would have meant that central banks would need to purchase even more low quality financial assets from the private sector to provide the banking system with sufficient high quality assets to meet the regulatory requirements. An additional pressure point for liquidity reforms arises from ongoing efforts to reduce moral hazard in the banking system by shifting the financial risk from taxpayers to banks’ creditors under forthcoming global reso­ lution regimes (European Commission). These reforms have the potential to significantly impact the access and pricing of private sector funding sources for banks. It thus comes as no surprise that the LCR and NSFR have been subject to much discussion and alteration. Finally, in January 2013 the Group of Governors & Head of Supervision, which oversees the Basel Committee, published what was widely considered a major watering down of the global framework. Originally an observation period by regulators began in 2011 with the intent to introduce a minimum standard for the LCR in 2015 and NSFR in 2018 but in the new proposals they plan to gradually introduce the LCR, meaning banks will not have to meet the 100 % requirement until 2019. Crucially, regulators decided to change the original wording around the use of liquid assets during times of stress. The proposals now include the provision for the ratio to fall below the required minimum in times of stress. So where are we left? In this paper we derive the liquidity position of a sample of global banks from the public accounts to highlight the challenges the market has in assessing the liquidity position of a bank. This is a major threat to the regulators’ goal that more market discipline should lead to better balance sheets. Given the counteracting macro policy by central banks of providing abundant liquidity support to banks, we find little correlation at the micro level between the liquidity position of a bank and the pricing of its debt and equity. It appears to us that more than 5 years since the beginning the crisis and after countless negotiations, policy makers are only beginning to unentangle the web between macro and micro-prudential policies, while central bankers

94

Dierk Brandenburg and Joe Hanmer

remain burdened as lenders of last resort. As investors we are back to the old rule that an illiquid bank cannot stay solvent for long without central bank help, nor can an insolvent bank stay liquid without being (eventually) recapitalized. Only central bankers will ever know whether 30 days make a difference.

III. Overview of Regulatory Principles & Definitions The principle of the Liquidity Coverage Ratio is to “promote short-term resilience of a bank’s liquidity risk profile” and the Net Stable Funding Ratio is to “promote resilience over a longer time horizon by creating incentives to for banks to fund their activities with more stable sources of funding”. The definition of the liquidity coverage ratio is that the ratio of high quality liquid assets, as defined below, to total net cash outflows over the next 30 calendar days must be over 100 %. Initially banks were expected to maintain an LCR over 100 % at all times which effectively rendered that part of their balance sheet completely illiquid for management purposes. This has been relaxed and in times of stress banks may now use this liquidity and temporarily fall below the 100 % minimum. The scenario for cash outflows includes loss of deposits, a loss of funding in wholesale markets, loss of short term financing, contractual outflows, draws on commitments and the potential need for a bank to buy back debt. It is designed to replicate the severity of liquidity stress that occurred in 2008. High quality liquid assets (HQLA) are defined as low credit risk, easy to value, securities that have low correlation with equities and are listed on a recognised exchange. In theory, these assets are therefore easily convertible to cash at short notice or within the 30 day time horizon of the LCR. The calculation of total regulatory HQLAs required is complex and includes different haircuts depending on the level of risk. Level 1 assets have to account for at least 60 % of HQLAs and can consist only of cash, central bank reserves and domestic and certain other government debt. There is an overall cap of 40 % on Level 2 assets such as corporate and covered bonds. Within this limit banks can purchase up to 15 % corporate bonds & equities, subject to a 50 % haircut on their market value. Total net outflows are equal to outflows minus the minimum of inflows and 75 % of outflows, all in the next 30 days. Different funding sources without contractual maturities are prescribed different outflow factors depending on their perceived stability. For example, a 5 % haircut is applied to retail deposits and a 40 % haircut is applied to corporate deposits. These requirements are reduced to 3 % and 20 % respectively if the deposits are



Bank Liquidity: Will 30 Days Make a Difference?

95

covered by a prefunded deposit insurance fund. To the contrary, it is assumed that a bank can always roll 100 % of its funding from a central bank. Likewise on the asset side, is assumed that undrawn loan facilities are used at a rate of 30 % or 40 % for interbank lines. The net stable funding ratio (NSFR) is a longer term measure of liquidity that targets the structure of the balance sheet, primarily whether a bank is over-reliant on short term funding and cannot fund their assets with stable, long term liabilities. The definition of the ratio is that the ratio of available stable funding (ASF) and the required amount of stable funding (RSF) be greater than 100 %. Stable funding is meant to capture all liabilities that can be relied upon as stable sources of funding for the one year time horizon. It is calculated by weighting the banks’ sources of funding depending on their stability. It will include roughly 100 % of the banks’ capital and preferred stock, 90 % of a bank’s stable deposits, 80 % of its less stable deposits and 50 % of its unsecured wholesale funding. The required stable funding is meant to capture all on and off-balance sheet assets that could not be readily converted into cash within the 12 month time horizon of the ratio. The total is therefore a weighted sum of all a bank’s assets depending on how readily they can be converted to cash, so for example cash is weighted at 0 % and corporate bonds at 20 %. The intention of the NSFR is to make banks term-out their funding as much as possible. To encourage this, banks will have to submit their assets and liabilities in buckets of 0–3 months, 3–6 months, 6–9 months and 9–12 months. This is to make sure that banks realise that the regulator will prefer funding that is in the 9–12 month bucket than in the 0–3 month bucket even though it is within the time frame of the NSFR. It should be noted that the NSFR is simpler in its design and potentially more transparent to outside investors of a bank that rely on publicly available information. Given that it is a longer term structural requirement it is also less likely to interfere with macro stability, though it does fundamentally constrain a banks’ ability to engage in its core business of maturity intermediation. Beyond the two new proposed measures banks will continue to be monitored under other metrics which are: contractual maturity mismatch, concentration of funding, available unencumbered assets, LCR by currency and market related monitoring tools. •• Contractual maturity mismatch attempts to bucket a banks inflows and outflows into defined time bands and request that the inflows and outflows are matched in each time band.

96

Dierk Brandenburg and Joe Hanmer

•• Concentration of funding is to be measured by the funding sourced from each counterparty, the liabilities sourced from each product or instrument and liabilities by currency. The concentration must not be too large in each, and this will be judged on a case by case basis by each bank’s regulator and take into account the stress in the banking system at the time. •• Available unencumbered assets that are marketable as collateral in secondary markets or eligible for central bank standing facilities; this measure has become more important as central banks expand their balance sheets and increase asset encumbrance at banks. •• The extra constraint of meeting the LCR by currency could be quite demanding for certain institution that operate and have assets in many difference currencies. The requirement has its origins in the volatility of currency swap markets during the financial crisis as well as the desire by host country regulators to gain regulatory control over local subsidiaries of foreign banks. New approaches to bank recovery and resolution also require a careful assessment of intra-group liquidity flows to assess the solvency of a bank (Bank of England / FDIC 2012). The latter point may sound highly technical, but the so-called subsidiarisation does play a key role in limiting cross border capital flows, as witnessed in the Eurozone from 2010 (Buiter  /  Rahbari  /  Michels 2011). The subsidiary question has also been raised in connection with a number of other regulatory initiatives designed to curb the moral hazard embedded in too-big-fail, such as the High-level Expert Group on reforming the structure of the EU banking sector (Liikanen Report).

IV. Lack of Disclosure is an Impediment to Market Discipline Given the complexity of the new framework it is hard for market-based investors to assess the liquidity position of a bank on the basis of their financial accounts or other publicly available information. Regulators have acknowledged this and several initiatives are underway to remedy the situation (Financial Stability Board 2012). However, given the high degree of sensitivity of liquidity information, in particular on dealings with central banks, it is unlikely that policy makers will consider detailed disclosure on liquidity positions as desirable from a macroprudential perspective. It is also likely that banks will take the view that arbitrary rules, e. g. the 30 day time period can be managed by creating financial instruments that fall just outside this band, e. g. through a 31 day evergreen note. Likewise, banks will be looking for ways to minimise the cost of holding low yielding assets, e. g. through collateral swaps (Deutsche Bundesbank 2012). These



Bank Liquidity: Will 30 Days Make a Difference?

97

financial innovations (which do nothing for economic value in the longterm) shifts are notoriously hard to track.

V. Study of Banks Liquidity Ratios This study attempts to measure the liquidity positions of major global banks and assess the difficulty that market participants have in judging the strength of a global bank’s balance sheet and to investigate how much these measures impact the pricing of a bank’s capital structure. 1. Overcoming Problematic Disclosure Practices Liquid asset definitions and disclosures vary widely. Banks mostly disclose two definitions; primary liquid assets and secondary liquid assets. Primary assets are mainly cash and liquid government bonds whereas secondary assets include corporate bonds, securitizations etc. Both measures can be useful in an analysis but their definitions vary widely between each bank. However the primary liquid assets measure usually matches closer with the HQLA definition above and will give a better idea of the structural adjustments required. The sensitivity of this information deters enhanced disclosure but more importantly there is no uniformity in disclosure between jurisdictions and even within them. To overcome this we need to adjust each bank’s disclosed liquidity numbers to be as homogeneous as possible. In this study we applied judgement to each situation to get as close to the BIS definition of HQLA as possible. Looking at the balance sheet of large international banks we find a wide degree of disclosure on the overall asset & liability structure, which makes estimating the NSFR very difficult. For instance, the UK banks have more advanced disclosure on such items as the durations of assets and liabilities, the make-up of funding and the granularity of the loan book than for example the French or Italian banks. This means that calculating an accurate NSFR is much easier for some banks than others. To overcome differences in disclosure we use national averages such as the breakdown of deposits between different maturities and the breakdown of the bond / securities portfolio for cases where there is no disclosure. In addition, we use a bottom-up approach to the liability side when necessary and calculate the amount of covered bonds and long term wholesale funding from individual securities outstanding.

98

Dierk Brandenburg and Joe Hanmer

2. Net Stable Funding Ratios We estimated the NSFR of 32 European banks on the basis of the above adjustments. The results are displayed bank by bank in Annex 1. The summary results are in Table 1 below. In our analysis the aggregate shortfall to meet a 100 % NSFR target for the largest 32 European banks was € 1.2 trillion at the end of 2011. Table 1 NSFR – Summary NSFR (Median)

Shortfall (Millions of Euros)*

Shortfall % LT Debt

Shortfall as % Deposits

Shortfall as % Loans

Swiss German Nordic UK Dutch Spanish Italian French

101 % 104 %   92 % 104 %   89 %   89 %   85 %   83 %

3,300 19,500 107,500 110,000 165,000 171,000 185,000 442,500

3 % 21 % 35 % 46 % 57 % 55 % 150 % 92 %

1 % 11 % 19 % 16 % 17 % 16 % 21 % 26 %

2 % 8 % 11 % 12 % 13 % 12 % 16 % 21 %

Total

  93 %

1,200,000

62 %

19 %

14 %

Banks

* Shortfall only includes banks with a deficit.

We found a high correlation between the NSFR of banks within the same country. This shows that the structure of a banking system, no matter how global the bank, is a large contributor to a bank meeting the NSFR requirement. For example tax exempt savings products (e. g. Livret A and life insurance) reduce the French deposit market making it hard for banks to fund their balance sheet with deposits. There are a number of ways for banks to address their funding shortfall. We estimate banks would have to increase their existing long-term funding by 62 % to meet their existing asset base. Alternatively banks can raise the volume of their corporate or retail deposits by around 19 % or shrink their loan books by around 14 %. Using bond markets to fill the funding gap would be the most costly way of adjusting the balance sheet and would have a negative impact on capital generation and lending spreads. These adjustments to the banking systems balance sheet structure can have a pro-cyclical effect that adds pressure on central banks to provide



Bank Liquidity: Will 30 Days Make a Difference?

99

long-term refinancing operations, similar to the ECB tenders in January 2012. Likewise, increased competition for deposits can undermine monetary policy goals. Access to funding markets is cyclical and depends on banks’ credit quality and availability of high quality collateral e. g. for covered bonds. Table 2 LCR Outflows and Inflows (Post-factor) as a Percentage of Balance Sheet Liabilities* Category

Group 1 banks

Group 2 banks

Unsecured retail and small business customers

2.1 %

2.5 %

Unsecured non-financial corporates

4.5 %

2.9 %

Unsecured sovereign, central bank, public sector entities (PSEs) and other counterparties

1.4 %

0.8 %

Unsecured financial institutions and other legal entities

5.1 %

3.8 %

Other unsecured wholesale funding incl. unsecured debt issuance

1.5 %

0.7 %

Secured funding and collateral swaps

1.8 %

1.2 %

Collateral, securitisations and own debt

0.8 %

0.3 %

Credit and liquidity facilities

2.6 %

0.7 %

Other contractual and contingent cash outflows including derivative payables

1.2 %

0.6 %

21.1 %

13.6 %

Financial institutions

2.3 %

2.6 %

Retail and small business customers, non-financial corporates and other entities

1.7 %

1.6 %

Secured lending

1.7 %

0.7 %

Other cash inflows including derivative receivables

0.1 %

0.1 %

Total inflows**

5.8 %

5.0 %

Outflows to …

Total outflows** Inflows from …

* As reported in the net stable funding ratio. ** May contain rounding differences. *** For the purposes of this table, the 75 % cap is only applied to the “total inflow” category.

100

Dierk Brandenburg and Joe Hanmer

3. Liquidity Ratios that Proxy the LCR The LCR measures the total outflows in a 30 day stressed period and requires enough liquid assets to cover that total, however, as discussed above, calculating an outflow number like this is impossible given current disclosures. As a first step, available HQLAs were derived from each banks’ disclosure of securities holdings and unencumbered assets. On that basis we calculate the liquidity of bank relative to its short-term funding of less than 1 year and its total liabilities. The difficulty is how to judge these ratios relative to the cumulative net outflow requirement of the LCR. The Basel Committee (2012) carried out a study on 212 banks including the largest banks in Europe. The results are reproduced in Table 2. The paper discloses the total inflows and outflows as a percentage of banks’ total liabilities. The difference between outflows and inflows gives us an estimate for net outflows as a percentage of liabilities of 8.6 %-15.3 % depending on the size, location, and business model of the bank. We therefore take the most strenuous measure of bank needing to have 15 % of total ­liabilities as HQLAs to cover a LCR requirement of 100 %. The alternative measure compares liquid assets to total short-term funding less than 1 year. This puts a greater emphasis on wholesale funding but shows a bank’s ability to survive in funding markets during times of stress. There are regulatory minimum requirements but market practice puts this requirement between 100–150 %. In our study we find ratios that vary widely between banks, ranging from 12 % to 165 %. Results are summarized in table 3 and the details with bank by bank data can be found in Annex 1. The total implied LCR shortfall for all banks in our study against a 15 % ratio of liquid assets to total liabilities was € 927 billion and the shortfall to meet a 100 % ratio of liquid assets to short-term funding was € 1,743 billion. To fill these gaps banks can increase their overall liquid assets, mainly by purchasing local government debt. To fill our estimated shortfall to total liabilities would require a 49 % (39 % to meet short-term funding shortfall) increase in cash and local government debt holdings. Alternatively they can keep as many liabilities outside of the 30-day window as possible – this can happen in a number of ways. Banks will compete for term deposits longer than 30 days and money market funds may find themselves having to extend their maturities for banks to be willing to take their deposits. As mentioned above new structures will evolve with the use of evergreen repos becoming more popular, especially in the US. Finally banks can use some of the same levers that can improve their NSFR ratio such as terming out their funding profile, reducing lending (a 6–8 % reduction

15 % 14 % 13 % 12 % 10 % 11 % 13 %   5 %

11 %

Swiss German Nordic UK Dutch Spanish Italian French

Total

927,000

–  22,000  45,000  66,000  84,000 100,000 157,000 453,000

Shortfall (Millions of Euros)*

  49 %

  0 %   13 %   27 % 104 %   57 %   91 %   30 %   90 %   8 %

  0 %   3 %   3 %   6 %   7 %   8 %   5 % 21 %

Shortfall % Cash Shortfall as % Loans & Government Debt

* Shortfall to meet a 15 % ratio, only includes banks with a deficit. ** Shortfall to meet a 100 % ratio, only includes banks with a deficit.

Ratio (Median)

Banks

HQLA / Total Liabilities

  11 %

164 %   79 % 109 %   67 %   61 % 107 % 140 %   38 %

Ratio (Median)

Table 3 Liquidity Ratios – Summary

739,500

–  63,000 –  30,000 107,000 111,500  13,500 414,500

  39 %

  0 %   38 %   0 %   18 %   72 % 175 %   12 %   83 %

Shortfall % Cash Shortfall (Millions of & Government Debt Euros)**

HQLA / Short-term Funding

  6 %

  0 % 10 %   0 %   2 %   9 %   9 %   1 % 20 %

Shortfall as % Loans

Bank Liquidity: Will 30 Days Make a Difference? 101

102

Dierk Brandenburg and Joe Hanmer

would be required to meet our targets) and increasing deposits in place of ST funding. Likewise the effects on monetary policy transmission and the wider economy are similar to those of the NSFR, which were discussed above. There is also a strong link between central bank policies such as quantitative easing and LCR. Due to its short-term nature, the LCR could potentially also interfere with open market operations, though this effect has shown to be minimal (Bech / Keister 2012). 4. Correlation Between Liquidity Ratios and Cost of Capital We now look at how markets value the perceived liquidity position of banks. If higher liquidity & funding ratios make banks safer, then this should ultimately be reflected in the cost of capital. Banks with higher liquidity should have lower spreads in the credit default swap market. Banks that need to make costly adjustments to their balance sheet that could reduce their EPS should underperform in the equity market. The underlying question is whether investors are rewarded for selecting banks on the basis of their liquidity characteristics. Annex 1 shows the estimates of three liquidity ratios (NSFR, HQLA to total liabilities and HQLA to short-term funding). The first ratio, liquid assets / total liabilities, is the closest we get to an LCR and as described above we equate a ratio of 10–15 % to an LCR of 100 % depending on the bank. Only a few banks are over 15 % on our measure and the median of all banks is 11.2 %, meaning most banks would have a shortfall to meet the LCR. The second ratio, as a percentage of short term funding, shows that only 4 banks in our sample meet the 100 % requirement that would mean they can cover all of their short term funding with liquid assets. The median of this ratio is 65.7 % but the range is extremely wide which implies that this ratio is a good differentiator between banks but this comes with the caveat that the level of liquid assets required will depend on the structure and riskiness of an institution, so 100 % will not be an appropriate benchmark for all banks. The median NSFR ratio of 93 % shows that banks are close to meeting this ratio already. Although the range is quite wide (77 % – 124 %), meaning some banks require more balance sheet adjustment than others. The next part of the analysis tries to gauge how much these measures of liquidity affect market pricing of banks debt and equity. Columns 5 and 6 in Annex 1 show each bank’s CDS spread at the time the ratio was calcu-



Bank Liquidity: Will 30 Days Make a Difference?

103

lated and one year later. Column 7 shows the corresponding total return. Column 8 measures the total return of the equity. Over the period in question bank equity returned 41 % and CDS contracts had a total return of 8 % (equivalent to around 120bps of spread compression). Finally column 9 shows the 5Yr average ROE which is calculated as the mean of each banks ROE over the period of 2008–2012. This is a proxy for relating liquidity ratios to price / book premiums or discounts. Table 4 Correlations of Liquidity Ratios to Market Factors  

CDS Spread CDS Spread 2011YE 2012YE (Inverted) (Inverted)

2012 CDS Return

2012 ROE 5YR Equity Total Average Return

Liquidity Ratio

30 %

31 %

–19 %

–11 %

21 %

Liquid Assets / ST Funding

27 %

  2 %

  –4 %

  18 %

24 %

NSFR

41 %

48 %

–21 %

–7 %

13 %

Table 4 shows the correlation between the calculated ratios and the market factors chosen. Some of the results are intuitive and some are not. For instance, total return on the banks’ equity shows very little correlation to the level of liquidity at each bank, which means the market seems to be ignoring any differences in adjustment cost between banks that may be required to bring balance sheets in line with the new regulatory regime. The level of liquidity did not prove to be a good indicator of total perceived credit risk of a bank as shown by the low correlation between the liquidity ratios and the 2011YE CDS spread. It also proved to be a poor indicator of the spread performance over the coming year. Of the liquidity ratios, the NSFR is the best predictor of CDS spreads, showing a 41 % correlation to spread levels at the time and a 48 % correlation to future CDS spreads. The NSFR has much more detail in it than our calculated liquidity ratios as it is a weighted ratio of assets to liabilities, so is in essence a measure of the quality of a bank’s balance sheet. Whereas the liquidity ratios are more simplistic and only measure the amount of HQLA each bank holds. It is therefore not surprising that the NSFR has more explanatory power than the liquidity ratios. The final correlations between the ratios and ROE fall in between those of spread levels and market performance of CDS and equities. For ROE it

104

Dierk Brandenburg and Joe Hanmer

is actually the two LCR ratios that have a higher correlation than the NSFR, suggesting that price / book multiples are sensitive to differences in the LCR.

VI. Conclusion In this paper we have summarized the incoming Basel 3 liquidity framework for banks and its impact on a macro and micro economic basis. Our analysis of 32 European banks concludes that it is very difficult for investors to overcome the disclosure deficiencies of banks and estimate reliable ratios. We expect that an agreement by regulators on a global standard for measuring liquidity risk will over time improve transparency. While it is not impossible to estimate ratios based on current disclosure, a comparison with cost of capital and returns shows that the market hardly distinguishes the liquidity characteristics of banks in the short-term. So the regulatory goal of more market discipline on banks’ risk taking remains elusive. This can be explained by the long implementation period of the new regime at the micro level and the much bigger impact that central bank policies have on bank liquidity at the macro level.

Epilog Als Doktorand von Prof Dr. H.-H. Francke wählte ich, Dierk Brandenburg, 1989 das damals gerade hochaktuelle Thema der Amerikanische Sparkassenkrise für meine Dissertation, die ich 1993 abschloss. Die Ereignisse in den USA galten damals als die mit Abstand teuerste immobiliengetriebene Bankenkrise weltweit, obwohl die Kosten von $ 130 Mrd für den Steuerzahler aus heutiger Sicht eher wenig erscheinen. Solvenz, Liquidität und Bankenaufsicht standen im Mittelpunkt meiner Analyse. Mein beruflicher Werdegang führte mich folgerichtig zur Bank für Internationalen Zahlungsausgleich nach Basel, wo ich während der neunziger Jahre die Einführung von zunächst Basel 1 und dann den Umbruch zu Basel 2 erlebte. Nach einschlägigen Erfahrungen mit Solvenzanforderungen für Banken ging es nach London zu einem der größten weltweiten Anbieter von Geldmarktfonds, wo Liquidität im Mittelpunkt stand. 2007 fand ich mich daher 14 Jahre nach meiner Dissertation im Zentrum der globalen Krise, die bis heute andauert. In diesem Aufsatz untersuche ich zusammen mit meinem Mitarbeiter die neuen Liquiditätsanforderungen für Banken, ein weiterer Schritt auf meinem Weg, der vor 20 Jahren in Freiburg begann.

Banco Popular Barclays BBVA BNP Caixabank Commerzbank Credit Agricole Danske Bank DNB Handelsbanken HSBC ING Intesa KBC Lloyds Monte Paschi Nordea RBS Santander SEB Societe Generale Standard Chartered Swedbank UBI Unicredito BPCE UBS Credit Suisse Deutsche Bank Rabobank Santander UK ABN Amro Median

Bank

3,3 % 15,1 % 11,1 % 5,2 % 13,1 % 10,9 % 5,7 % 5,2 % 12,3 % 19,3 % 10,0 % 8,6 % 11,2 % 13,3 % 10,5 % 12,0 % 9,8 % 16,0 % 14,9 % 19,6 % 5,7 % 13,8 % 14,9 % 4,4 % 9,6 % 4,7 % 15,2 % 15,4 % 15,0 % 18,1 % 10,5 % 6,7 % 11,2 %

Liquidity Ratio

12 % 123 % 81 % 33 % 110 % 54 % 37 % 24 % 41 % 71 % 90 % 60 % 57 % 123 % 88 % 51 % 41 % 99 % 101 % 82 % 28 % 107 % 56 % 32 % 42 % 22 % 72 % 165 % 73 % 102 % 99 % 37 % 65,7 %

Liquid Assets /  ST Funding 77 % 101 % 82 % 80 % 89 % 94 % 86 % 81 % 82 % 106 % 117 % 82 % 92 % 101 % 87 % 81 % 95 % 105 % 94 % 94 % 85 % 124 % 97 % 90 % 81 % 83 % 103 % 99 % 109 % 99 % 97 % 89 % 93,0 %

NSFR 810 205 360 260 194 297 265 298 169 145 253 218 485 475 325 553 177 346 346 239 334 179 236 106 546 321 172 143 195 290 n.a. 263 263

CDS Spread 2011YE 401 127 282 151 260 155 155 117 79 71 109 107 277 174 133 485 77 161 260 102 170 93 106 285 301 177 96 91 94 155 n.a. 130 151

CDS Spread 2012YE 27 % 6 % 7 % 8 % –1 % 9 % 8 % 11 % 6 % 5 % 9 % 7 % 14 % 18 % 12 % 9 % 6 % 12 % 7 % 9 % 11 % 6 % 8 % –7 % 17 % 10 % 5 % 4 % 6 % 9 % n.a. 9 % 8 %

CDS Total Return

Annex 1: Ratios and Market Information Used in Case Study

n.a. 57 % 35 % 55 % –9 % 22 % 75 % 48 % 41 % 36 % 46 % 18 % 27 % 166 % 87 % 51 % 31 % 48 % 35 % 62 % 92 % 20 % 56 % 41 % 52 % n.a. 41 % 24 % 31 % n.a. n.a. n.a. 41 %

2012 Equity Total Return 2 % 10 % 18 % 12 % 3 % 0 % 6 % 5 % 14 % 14 % 10 % 7 % 5 % 0 % –11 % 4 % 14 % 0 % 14 % 11 % 6 % 13 % 9 % –2 % 4 % 2 % –11 % 7 % 8 % 10 % 16 % 2 % 7 %

ROE 5YR Average

Bank Liquidity: Will 30 Days Make a Difference? 105

106

Dierk Brandenburg and Joe Hanmer

References Bank of England / Federal Deposit Insurance Corporation (FDIC): Resolving Globally Active, Systemically Important, Financial Institutions, London / Washington 2012. Basel Committee on Banking Supervision: International framework for liquidity risk measurement, standards and monitoring, BIS 2009. – Results of the Basel III monitoring exercise as of 30 June 2011, BIS 2012. – Basel III: The Liquidity Coverage Ratio and liquidity risk monitoring tools, BIS 2013. Bech, Morten / Keister, Todd: On the liquidity coverage ratio and monetary policy implementation, BIS Quarterly Review December 2012. Brandenburg, Dierk: Die Amerikanische Sparkassenkrise, Centaurus 1989, Pfaffenweiler. – Capital as a Scarce Resource: Managing Value in a Financial Institution, in: Goldschmidt, Nils: Wunderbare WirtschaftsWelt. – Die New Economy und ihre Herausforderungen, Nomos 2003. – Sound Liquidity Management as an Investment Criterion, in: Matz, Leonard / Neu, Peter: Liquidity Risk, Measurement and Management, Wiley 2007. Buiter, Willem / Rahbari, Ebrahim / Michels, Juergen: The implications of intra-Eurozone imbalances in credit flows, CEPR Policy Insight No. 57, 2011. Deutsche Bundesbank: Low interest rates and the search for yield: a challenge for insurers and banks Financial Stability Review 2012, Deutsche Bundesbank 2012. Duffie, Darrel: How Big Banks Fail, Princeton 2011. European Commission: Proposal for a Directive of the European Parliament and of the Council establishing a framework for the recovery and resolution of credit institutions and investment firms, Brussels 2012. Financial Stability Board: Enhancing the Risk Disclosure of Banks, Basel 2012. Goodhart, Charles: The Basel Committee on Banking Supervision, A History of the Early Years, Cambridge 2011. High-level Expert Group on reforming the structure of the EU banking sector: Final Report, European Union 2012. Matz, Leonard / Neu, Peter: Liquidity Risk, Measurement and Management, Wiley 2007. McGuire, Patrick / von Peter, Goetz: The US dollar shortage in global banking, in: BIS Quarterly Review, March 2009. Mehrling, Peter: The New Lombard Street: How the Fed Became the Dealer of Last Resort, Princeton 2010. Poole, William: “Commercial bank reserve management in a stochastic model: implications for monetary policy”, in: Journal of Finance, Vol. 23, 1968, pp 769–91.



Bank Liquidity: Will 30 Days Make a Difference?

107

Rajan, Raghuram: Fault Lines: How Hidden Fractures Still Threaten the World Economy, Princeton 2010. Tabe, Henry: The Unravelling of Structured Investment Vehicles: How Liquidity Leaked Through SIVs: Lessons in Risk Management and Regulatory Oversight, Toth 2010.

Die große Rezession Von Michael Carlberg1

I. Ein Rückgang in der marginalen privaten Konsumquote 1. Einige numerische Beispiele Dieser Abschnitt beruht auf einem IS-LM-Modell mit Liquiditätsfalle. Das heißt, es gibt kein Crowding Out. Vermögenspreisblasen beziehen sich sowohl auf Immobilienblasen als auch auf Aktienblasen. Ein Zusammenbruch von Vermögenspreisblasen bedeutet, dass die Vermögenspreise fallen während die Verbindlichkeiten (Schulden) unverändert bleiben. Das Ergebnis ist, Millionen von Menschen haben eine schlechtere Bilanz. Mit anderen Worten, Millionen von Menschen haben mehr Schulden. Millionen von Menschen müssen ihren Konsum vermindern, um ihre Schulden abbauen zu können. Deshalb reduzieren Millionen von Menschen ihr Einkommen. Die Produktion und das Einkommen hängen ab vom autonomen privaten Konsum, von der marginalen privaten Konsumquote, sowie von den privaten Investitionen. Eine Zunahme im autonomen privaten Konsum bewirkt eine Zunahme in der Produktion und im Einkommen. Eine Zunahme in der marginalen privaten Konsumquote bewirkt eine Zunahme in der Produktion und im Einkommen. Umgekehrt, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Und eine Zunahme in den privaten Investitionen bewirkt eine Zunahme in der Produktion und im Einkommen. Nun werden einige sehr wichtige Schocks betrachtet, ausgehend von der marginalen privaten Konsumquote. Fall eins. Am Anfang ist die marginale private Konsumquote 0.9. Der Schock führt dann dazu, dass die marginale private Konsumquote auf 0.8 fällt. Das Ergebnis ist, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Darüber hinaus, ein Rückgang in der marginalen 1  Herr Francke und Herr Carlberg waren gemeinsam Professoren an der HelmutSchmidt-Universität Hamburg.

110

Michael Carlberg

privaten Konsumquote von 0.9 auf 0.8 verursacht einen Rückgang von Produktion und Einkommen von 1000 auf 500. Fall zwei. Am Anfang ist die marginale private Konsumquote 0.9. Der Schock führt dann dazu, dass die marginale private Konsumquote auf 0.7 fällt. Das Ergebnis ist, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Darüber hinaus, ein Rückgang in der marginalen privaten Konsumquote von 0.9 auf 0.7 verursacht einen Rückgang von Produktion und Einkommen von 1000 auf 333. Fall drei. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.6. Daraufhin fallen Produktion und Einkommen von 1000 auf 250. Fall vier. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.5. Daraufhin fallen Produktion und Einkommen von 1000 auf 200. Fall fünf. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.4. Daraufhin fallen Produktion und Einkommen von 1000 auf 167. Fall sechs. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.3. Daraufhin fallen Produktion und Einkommen von 1000 auf 143. Und so weiter. 2. Eine Feinabstimmung Dieser Abschnitt beruht auf einem IS-LM-Modell mit Liquiditätsfalle. Das heißt, es gibt kein Crowding Out. Nun werden einige sehr wichtige Schocks betrachtet, ausgehend von der marginalen privaten Konsumquote. Fall eins. Am Anfang ist die marginale private Konsumquote 0.9. Der Schock führt dann dazu, dass die marginale private Konsumquote auf 0.89 fällt. Das Ergebnis ist, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Darüber hinaus, ein Rückgang in der marginalen privaten Konsumquote von 0.9 auf 0.89 verursacht einen Rückgang von Produktion und Einkommen von 1000 auf 909. Fall zwei. Am Anfang ist die marginale private Konsumquote 0.9. Der Schock führt dann dazu, dass die marginale private Konsumquote auf 0.88 fällt. Das Ergebnis ist, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Darüber hinaus, ein Rückgang in der marginalen privaten Konsumquote von 0.9 auf 0.88 verursacht einen Rückgang von Produktion und Einkommen von 1000 auf 833. Fall drei. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.87. Daraufhin fallen Produktion und Einkommen von 1000 auf 769.



Die große Rezession

111

Fall vier. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.86. Daraufhin fallen Produktion und Einkommen von 1000 auf 714. Fall fünf. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.85. Daraufhin fallen Produktion und Einkommen von 1000 auf 667. Fall sechs. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.84. Daraufhin fallen Produktion und Einkommen von 1000 auf 625. Und so weiter. 3. Eine weitere Feinabstimmung Dieser Abschnitt beruht auf einem IS-LM-Modell mit Liquiditätsfalle. Das heißt, es gibt kein Crowding Out. Nun werden einige weitere sehr wichtige Schocks betrachtet, ausgehend von der marginalen privaten Konsumquote. Fall eins. Am Anfang ist die marginale private Konsumquote 0.8. Der Schock führt dann dazu, dass die marginale private Konsumquote auf 0.79 fällt. Das Ergebnis ist, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Darüber hinaus, ein Rückgang in der marginalen privaten Konsumquote von 0.8 zu 0.79 verursacht einen Rückgang von Produktion und Einkommen von 500 zu 476. Fall zwei. Am Anfang ist die marginale private Konsumquote 0.8. Der Schock führt dann dazu, dass die marginale private Konsumquote auf 0.78 fällt. Das Ergebnis ist, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Darüber hinaus, ein Rückgang in der marginalen privaten Konsumquote von 0.8 zu 0.78 verursacht einen Rückgang von Produktion und Einkommen von 500 zu 455. Fall drei. Angenommen, die marginale private Konsumquote geht von 0.8 zu 0.77. Daraufhin fallen Produktion und Einkommen von 500 auf 435. Fall vier. Angenommen, die marginale private Konsumquote geht von 0.8 zu 0.76. Daraufhin fallen Produktion und Einkommen von 500 auf 417. Fall fünf. Angenommen, die marginale private Konsumquote geht von 0.8 zu 0.75. Daraufhin fallen Produktion und Einkommen von 500 auf 400. Fall sechs. Angenommen, die marginale private Konsumquote geht von 0.8 zu 0.74. Daraufhin fallen Produktion und Einkommen von 500 auf 385. Und so weiter.

112

Michael Carlberg

4. Die Dynamik Dieser Abschnitt beruht auf einem IS-LM-Modell mit Liquiditätsfalle. Das heißt, es gibt kein Crowding Out. Im langfristigen Gleichgewicht sind Produktion und Einkommen 1000. Nun werden hier einige sehr wichtige Schocks betrachtet. Zum Beispiel, die marginale private Konsumquote geht von 0.9 zu 0.8. Wie sieht dann der entsprechende Anpassungsprozess aus? Fall eins. Am Anfang ist die marginale private Konsumquote im langfristigen Gleichgewicht. Mit anderen Worten, die marginale private Konsumquote ist 0.9. Der Schock bedeutet, dass sich die marginale private Konsumquote schrittweise an 0.8 annähert. Schritt Schritt Schritt Schritt Schritt Schritt Schritt Schritt



eins ist zwei ist drei ist vier ist fünf ist sechs ist sieben ist acht ist

900 820 756 705 664 631 605 584

Und so weiter. Das neue langfristige Gleichgewicht ist 500. Fall zwei. Am Anfang ist die marginale private Konsumquote im langfristigen Gleichgewicht. Mit anderen Worten, die marginale private Konsumquote ist 0.9. Der Schock bedeutet, dass sich die marginale private Konsumquote schrittweise an 0.7 annähert. Schritt Schritt Schritt Schritt Schritt Schritt Schritt Schritt



eins ist zwei ist drei ist vier ist fünf ist sechs ist sieben ist acht ist

800 660 562 493 445 412 388 372

Und so weiter. Das neue langfristige Gleichgewicht ist 333.



Die große Rezession

113

Fall drei. Am Anfang ist die marginale private Konsumquote im langfristigen Gleichgewicht. Mit anderen Worten, die marginale private Konsumquote ist 0.9. Der Schock bedeutet, dass sich die marginale private Konsumquote schrittweise an 0.6 annähert. Schritt Schritt Schritt Schritt Schritt Schritt Schritt Schritt

eins ist zwei ist drei ist vier ist fünf ist sechs ist sieben ist acht ist

700 520 412 347 308 285 271 263

Und so weiter. Das neue langfristige Gleichgewicht ist 250. Das endgültige Gleichgewicht. Fall eins. Das anfängliche Gleichgewicht ist 1000. Das endgültige Gleichgewicht ist 500. Fall zwei. Das anfängliche Gleichgewicht ist 1000. Das endgültige Gleichgewicht ist 333. Fall drei. Das anfängliche Gleichgewicht ist 1000. Das endgültige Gleichgewicht ist 250. Fall vier. Das anfängliche Gleichgewicht ist 1000. Das endgültige Gleichgewicht ist 200. Fall fünf. Das anfängliche Gleichgewicht ist 1000. Das endgültige Gleichgewicht ist 167. Fall sechs. Das anfängliche Gleichgewicht ist 1000. Das endgültige Gleichgewicht ist 143. Fall sieben. Das anfängliche Gleichgewicht ist 1000. Das endgültige Gleichgewicht ist 125.

114

Michael Carlberg

Fall acht. Das anfängliche Gleichgewicht ist 1000. Das endgültige Gleichgewicht ist 111. Fall neun. Das anfängliche Gleichgewicht ist 1000. Das endgültige Gleichgewicht ist 100.

II. Eine Zunahme in der marginalen privaten Sparquote Dieser Abschnitt beruht auf einem IS-LM-Modell mit Liquiditätsfalle. Das heißt, es gibt kein Crowding Out. Vermögenspreisblasen beziehen sich sowohl auf Immobilienblasen als auch auf Aktienblasen. Ein Zusammenbruch von Vermögenspreisblasen bedeutet, dass die Vermögenspreise fallen während die Verbindlichkeiten (Schulden) unverändert bleiben. Das Ergebnis ist, Millionen von Menschen haben eine schlechtere Bilanz. Mit anderen Worten, Millionen von Menschen haben mehr Schulden. Millionen von Menschen müssen ihre Ersparnis steigern, um ihre Schulden abbauen zu können. Deshalb reduzieren Millionen von Menschen ihr Einkommen. Die Produktion und das Einkommen hängen ab vom autonomen privaten Konsum, von der marginalen privaten Konsumquote, sowie von den privaten Investitionen. Eine Zunahme im autonomen privaten Konsum bewirkt eine Zunahme in der Produktion und im Einkommen. Eine Zunahme in der marginalen privaten Sparquote bewirkt eine Abnahme in der Produktion und im Einkommen. Umgekehrt, eine Abnahme in der marginalen privaten Sparquote bewirkt eine Zunahme in der Produktion und im Einkommen. Und eine Zunahme in den privaten Investitionen bewirkt eine Zunahme in der Produktion und im Einkommen. Nun werden einige sehr wichtige Schocks betrachtet, ausgehend von der marginalen privaten Sparquote. Fall eins. Am Anfang ist die marginale private Sparquote 0.1. Der Schock führt dann dazu, dass die marginale private Sparquote auf 0.2 steigt. Das Ergebnis ist, eine Zunahme in der marginalen privaten Sparquote bewirkt eine Abnahme in der Produktion und im Einkommen. Genauer gesagt, eine Zunahme in der marginalen privaten Sparquote von 0.1 auf 0.2 verursacht eine Abnahme von Produktion und Einkommen von 1000 auf 500. Fall zwei. Am Anfang ist die marginale private Sparquote 0.1. Der Schock führt dann dazu, dass die marginale private Sparquote auf 0.3 steigt. Das Ergebnis ist, eine Zunahme in der marginalen privaten Sparquote bewirkt eine Abnahme in der Produktion und im Einkommen. Genauer gesagt, eine



Die große Rezession

115

Zunahme in der marginalen privaten Sparquote von 0.1 auf 0.3 verursacht eine Abnahme von Produktion und Einkommen von 1000 auf 333. Fall drei. Angenommen, die marginale private Sparquote steigt von 0.1 auf 0.4. Daraufhin fallen Produktion und Einkommen von 1000 auf 250. Fall vier. Angenommen, die marginale private Sparquote steigt von 0.1 auf 0.5. Daraufhin fallen Produktion und Einkommen von 1000 auf 200. Fall fünf. Angenommen, die marginale private Sparquote steigt von 0.1 auf 0.6. Daraufhin fallen Produktion und Einkommen von 1000 auf 167. Fall sechs. Angenommen, die marginale private Sparquote steigt von 0.1 auf 0.7. Daraufhin fallen Produktion und Einkommen von 1000 auf 143. Und so weiter.

III. Öffentliche Investitionen und Steuersatz Dieser Abschnitt beruht auf einem IS-LM-Modell mit Liquiditätsfalle. Das heißt, es gibt kein Crowding Out. Vermögenspreisblasen beziehen sich sowohl auf Immobilienblasen als auch auf Aktienblasen. Ein Zusammenbruch von Vermögenspreisblasen bedeutet, dass die Vermögenspreise fallen während die Verbindlichkeiten (Schulden) unverändert bleiben. Das Ergebnis ist, Millionen von Menschen haben eine schlechtere Bilanz. Mit anderen Worten, Millionen von Menschen haben mehr Schulden. Millionen von Menschen müssen ihren Konsum vermindern, um ihre Schulden abbauen zu können. Deshalb reduzieren Millionen von Menschen ihr Einkommen. Die Produktion und das Einkommen hängen ab vom autonomen privaten Konsum, von der marginalen privaten Konsumquote, von den privaten Investitionen, von den öffentlichen Investitionen, sowie vom Steuersatz. Eine Zunahme im autonomen privaten Konsum bewirkt eine Zunahme in der Produktion und im Einkommen. Eine Zunahme in der marginalen privaten Konsumquote bewirkt eine Zunahme in der Produktion und im Einkommen. Umgekehrt, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Eine Zunahme in den privaten Investitionen bewirkt eine Zunahme in der Produktion und im Einkommen. Eine Zunahme in den öffentlichen Investitionen bewirkt eine Zunahme in der Produktion und im Einkommen. Und eine Zunahme im Steuersatz bewirkt einen Rückgang in der Produktion und im Einkommen. Nun werden einige sehr wichtige Schocks betrachtet, ausgehend von der marginalen privaten Konsumquote. Fall eins. Am Anfang ist die marginale private Konsumquote 0.9. Der Schock führt dann dazu, dass die marginale private Konsumquote auf 0.8 fällt. Das Ergebnis ist, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Darüber hinaus, ein Rückgang in der marginalen

116

Michael Carlberg

privaten Konsumquote von 0.9 auf 0.8 verursacht einen Rückgang von Produktion und Einkommen von 357 auf 278. Fall zwei. Am Anfang ist die marginale private Konsumquote 0.9. Der Schock führt dann dazu, dass die marginale private Konsumquote auf 0.7 fällt. Das Ergebnis ist, ein Rückgang in der marginalen privaten Konsumquote bewirkt einen Rückgang in der Produktion und im Einkommen. Darüber hinaus, ein Rückgang in der marginalen privaten Konsumquote von 0.9 auf 0.7 verursacht einen Rückgang von Produktion und Einkommen von 357 auf 227. Fall drei. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.6. Daraufhin fallen Produktion und Einkommen von 357 auf 192. Fall vier. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.5. Daraufhin fallen Produktion und Einkommen von 357 auf 167. Fall fünf. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.4. Daraufhin fallen Produktion und Einkommen von 357 auf 147. Fall sechs. Angenommen, die marginale private Konsumquote geht von 0.9 zu 0.3. Daraufhin fallen Produktion und Einkommen von 357 auf 132. Und so weiter.

IV. Schocks und Gegenmaßnahmen: Ein einfacher Ansatz Dieser Abschnitt beruht auf einem IS-LM-Modell mit Liquiditätsfalle. Das heißt, es gibt kein Crowding Out. Vermögenspreisblasen beziehen sich sowohl auf Immobilienblasen als auch auf Aktienblasen. Ein Zusammenbruch von Vermögenspreisblasen bedeutet, dass die Vermögenspreise fallen während die Verbindlichkeiten (Schulden) unverändert bleiben. Das Ergebnis ist, Millionen von Menschen haben eine schlechtere Bilanz. Mit anderen Worten, Millionen von Menschen haben mehr Schulden. Millionen von Menschen müssen ihren Konsum verringern, um ihre Schulden abbauen zu können. Deshalb reduzieren Millionen von Menschen ihr Einkommen. Der erste Abschnitt ist gekennzeichnet durch das langfristige Gleichgewicht. Es wird angenommen, dass die Staatsschulden Null sind. Der zweite Abschnitt ist gekennzeichnet durch einen Schock. Ein Rückgang in der marginalen privaten Konsumquote verursacht einen Rückgang in der Produktion und im Einkommen. Es wird angenommen, dass die Produktion und das Einkommen sofort angepasst werden. Und es wird angenommen, dass die Staatsschulden nach wie vor Null sind. Der dritte Abschnitt ist gekennzeichnet durch eine Politikmaßnahme. Eine Zunahme in den öffentlichen Investitionen verursacht eine Zunahme in der Produktion und im Einkommen. Es wird angenommen, dass die Produktion und das Einkommen sofort angepasst werden. Und es wird angenommen, dass die Staatsschulden schrittweise steigen.



Die große Rezession

117

Der vierte Abschnitt ist gekennzeichnet durch einen weiteren Schock. Eine Zunahme in der marginalen privaten Konsumquote verursacht einen Rückgang in den öffentlichen Investitionen. Es wird angenommen, dass die Produktion und das Einkommen sofort angepasst werden. Und es wird angenommen, dass die Staatsschulden schrittweise fallen. Der fünfte Abschnitt ist gekennzeichnet durch das langfristige Gleichgewicht. Es wird angenommen, dass die Staatsschulden wieder Null sind. Was die Staatsschulden angeht, ist der Zinssatz stets Null. Und es wird angenommen, dass der zweite Abschnitt, der dritte Abschnitt, und der vierte Abschnitt die gleiche Länge haben. Der erste Abschnitt ist gekennzeichnet durch das langfristige Gleichgewicht. In einem Zahlenbeispiel ist der autonome private Konsum 20 Einheiten. Die privaten Investitionen sind 40 Einheiten. Die öffentlichen Investitionen sind ebenso 40 Einheiten. Die marginale private Konsumquote ist 0.9 Einheiten. Das Ergebnis ist, Produktion und Einkommen sind jeweils 1000 Einheiten. Es wird angenommen, dass die Staatsschulden Null sind. Der zweite Abschnitt ist gekennzeichnet durch einen Schock. Ein Rückgang in der marginalen privaten Konsumquote verursacht einen Rückgang in der Produktion und im Einkommen. Es wird angenommen, dass die Produktion und das Einkommen sofort angepasst werden. Und es wird angenommen, dass die Staatsschulden nach wie vor Null sind. In dem Zahlenbeispiel ist der autonome private Konsum nach wie vor 20 Einheiten. Die privaten Investitionen sind nach wie vor 40 Einheiten. Und die öffentlichen Investitionen sind nach wie vor 40 Einheiten. Die marginale private Konsumquote geht von 0.9 Einheiten zu 0.8 Einheiten. Das Ergebnis ist, Produktion und Einkommen gehen von 1000 Einheiten zu 500 Einheiten. Es wird angenommen, dass die Staatsschulden nach wie vor Null sind. Der dritte Abschnitt ist gekennzeichnet durch eine Politikmaßnahme. Eine Zunahme in den öffentlichen Investitionen verursacht eine Zunahme in der Produktion und im Einkommen. Es wird angenommen, dass die Produktion und das Einkommen sofort angepasst werden. Und es wird angenommen, dass die Staatsschulden schrittweise steigen. In dem Zahlenbeispiel ist der autonome private Konsum nach wie vor 20 Einheiten. Die privaten Investitionen sind nach wie vor 40 Einheiten. Die marginale private Konsumquote ist nach wie vor 0.8 Einheiten. Die öffentlichen Investitionen gehen von 40 Einheiten zu 140 Einheiten. Das Ergebnis ist, Produktion und Einkommen gehen von 500 Einheiten zu 1000 Einheiten. Der vierte Abschnitt ist gekennzeichnet durch einen weiteren Schock. Eine Zunahme in der marginalen privaten Konsumquote verursacht einen Rückgang in den öffentlichen Investitionen. Es wird angenommen, dass die Produktion und das Einkommen sofort angepasst werden. Und es wird angenom-

118

Michael Carlberg

men, dass die Staatsschulden schrittweise fallen. In dem Zahlenbeispiel ist der autonome private Konsum nach wie vor 20 Einheiten. Die privaten Investitionen sind nach wie vor 40 Einheiten. Die marginale private Konsumquote geht von 0.8 Einheiten zu 0.9 Einheiten. Die Antwort ist, die öffentlichen Investitionen gehen von 140 Einheiten zu 40 Einheiten. Der Nettoeffekt ist, dass Produktion und Einkommen jeweils 1000 Einheiten sind. Der fünfte Abschnitt ist gekennzeichnet durch das langfristige Gleichgewicht. Es wird angenommen, dass die Staatsschulden wieder Null sind. Was die Staatsschulden angeht, ist der Zinssatz stets Null. Und es wird angenommen, dass der zweite Abschnitt, der dritte Abschnitt, und der vierte Abschnitt die gleiche Zeitlänge haben. In dem Zahlenbeispiel ist der autonome private Konsum 20 Einheiten. Die privaten Investitionen sind 40 Einheiten. Die öffentlichen Investitionen sind ebenso 40 Einheiten. Die marginale private Konsumquote ist 0.9 Einheiten. Das Ergebnis ist, Produktion und Einkommen sind jeweils 1000 Einheiten.

V. Schocks und Gegenmaßnahmen: Ein fortgeschrittener Ansatz 1. 10 Jahre mit hohen öffentlichen Defiziten und weiteren 25 Jahren mit niedrigen öffentlichen Überschüssen Dieser Abschnitt beruht auf einem IS-LM-Modell mit Liquiditätsfalle. Das heißt, es gibt kein Crowding Out. Vermögenspreisblasen beziehen sich sowohl auf Immobilienblasen als auch auf Aktienblasen. Ein Zusammenbruch von Vermögenspreisblasen bedeutet, dass die Vermögenspreise fallen während die Verbindlichkeiten (Schulden) unverändert bleiben. Das Ergebnis ist, Millionen von Menschen haben eine schlechtere Bilanz. Mit anderen Worten, Millionen von Menschen haben mehr Schulden. Millionen von Menschen müssen ihren Konsum verringern, um ihre Schulden abbauen zu können. Deshalb reduzieren Millionen von Menschen ihr Einkommen. Der erste Abschnitt ist gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Der zweite Abschnitt ist gekennzeichnet durch 10 Jahre mit hohen öffentlichen Defiziten. Der dritte Abschnitt ist gekennzeichnet durch 25 Jahre mit geringen öffentlichen Überschüssen. Und der vierte Abschnitt ist wieder gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Im zweiten Abschnitt sind die öffentlichen Investitionen größer als die Steuereinnahmen, mit dem Ziel die Wirtschaft anzuregen. Und im dritten Abschnitt sind die öffentlichen Investitionen geringer als die Steuereinnahmen, mit dem Ziel die Staatsschulden abzubauen.



Die große Rezession

119

Der erste Abschnitt ist gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Die jährlichen Steuereinnahmen sind 40 Einheiten. Die jährlichen öffentlichen Investitionen sind ebenfalls 40 Einheiten. Das jährliche öffentliche Defizit ist Null. Und die jährlichen Staatsschulden sind ebenfalls Null. Der zweite Abschnitt ist gekennzeichnet durch 10 Jahre mit hohen öffentlichen Defiziten. Die jährlichen Steuereinnahmen sind nach wie vor 40 Einheiten. Die jährlichen öffentlichen Investitionen sind jetzt 140 Einheiten. Das jährliche öffentliche Defizit ist jetzt 100 Einheiten. Und die jährlichen Staatsschulden gehen jetzt von 100 Einheiten zu 200 Einheiten zu 300 Einheiten und so weiter. Der dritte Abschnitt ist gekennzeichnet durch 25 Jahre mit geringen öffentlichen Überschüssen. Die jährlichen Steuereinnahmen sind nach wie vor 40 Einheiten. Die jährlichen öffentlichen Investitionen sind jetzt Null Einheiten. Die jährlichen öffentlichen Überschüsse sind jetzt 40 Einheiten. Und die jährlichen Staatsschulden gehen jetzt von 960 Einheiten zu 920 Einheiten zu 880 Einheiten und so weiter. Der vierte Abschnitt ist wieder gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Die jährlichen Steuereinnahmen sind nach wie vor 40 Einheiten. Die jährlichen öffentlichen Investitionen sind jetzt wieder 40 Einheiten. Die jährlichen öffentlichen Überschüsse sind jetzt wieder Null Einheiten. Und die jährlichen Staatsschulden sind jetzt ebenfalls wieder Null Einheiten. Als nächstes werden die Zeitpfade betrachtet. Den Anfang machen die Zeitpfade von Steuereinnahmen und öffentlichen Investitionen. Es wird angenommen, dass die Steuereinnahmen konstant sind. Im ersten Abschnitt sind die öffentlichen Investitionen genau so groß wie die Steuereinnahmen. Im zweiten Abschnitt sind die öffentlichen Investitionen größer als die Steuereinnahmen. Im dritten Abschnitt sind die öffentlichen Investitionen kleiner als die Steuereinnahmen. Und im vierten Abschnitt sind die öffentlichen Investitionen wieder genau so groß wie die Steuereinnahmen. Im zweiten Abschnitt sind die öffentlichen Investitionen kurz aber groß. Und im dritten Abschnitt sind die öffentlichen Investitionen lang aber klein. Als nächstes folgen die Zeitpfade von öffentlichen Defiziten und öffentlichen Überschüssen. Im ersten Abschnitt ist der Staatshaushalt ausgeglichen. Im zweiten Abschnitt gibt es 10 Jahre mit hohen öffentlichen Defi­ ziten. Im dritten Abschnitt gibt es 25 Jahre mit geringen öffentlichen Überschüssen. Und im vierten Abschnitt ist der Staatshaushalt wieder ausgeglichen. Als letztes folgt der Zeitpfad von Staatsschulden. Im ersten Abschnitt sind die Staatsschulden Null. Im zweiten Abschnitt steigen die Staatsschul-

120

Michael Carlberg

den schnell. Im dritten Abschnitt fallen die Staatsschulden langsam. Und im vierten Abschnitt sind die Staatsschulden wieder Null. 2. 10 Jahre mit hohen öffentlichen Defiziten und weiteren 50 Jahren mit niedrigen öffentlichen Überschüssen Der erste Abschnitt ist gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Der zweite Abschnitt ist gekennzeichnet durch 10 Jahre mit hohen öffentlichen Defiziten. Der dritte Abschnitt ist gekennzeichnet durch 50 Jahre mit geringen öffentlichen Überschüssen. Und der vierte Abschnitt ist wieder gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Im zweiten Abschnitt sind die öffentlichen Investitionen größer als die Steuereinnahmen, mit dem Ziel die Wirtschaft anzuregen. Und im dritten Abschnitt sind die öffentlichen Investitionen geringer als die Steuereinnahmen, mit dem Ziel die Staatsschulden abzubauen. Der erste Abschnitt ist gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Die jährlichen Steuereinnahmen sind 40 Einheiten. Die jährlichen öffentlichen Investitionen sind ebenfalls 40 Einheiten. Das jährliche öffentliche Defizit ist Null. Und die jährlichen Staatsschulden sind ebenfalls Null. Der zweite Abschnitt ist gekennzeichnet durch 10 Jahre mit hohen öffentlichen Defiziten. Die jährlichen Steuereinnahmen sind nach wie vor 40 Einheiten. Die jährlichen öffentlichen Investitionen sind jetzt 140 Einheiten. Das jährliche öffentliche Defizit ist jetzt 100 Einheiten. Und die jährlichen Staatsschulden gehen jetzt von 100 Einheiten zu 200 Einheiten zu 300 Einheiten und so weiter. Der dritte Abschnitt ist gekennzeichnet durch 50 Jahre mit geringen öffentlichen Überschüssen. Die jährlichen Steuereinnahmen sind nach wie vor 40 Einheiten. Die jährlichen öffentlichen Investitionen sind jetzt 20 Einheiten. Die jährlichen öffentlichen Überschüsse sind jetzt ebenfalls 20 Einheiten. Und die jährlichen Staatsschulden gehen jetzt von 980 Einheiten zu 960 Einheiten zu 940 Einheiten und so weiter. Der vierte Abschnitt ist wieder gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Die jährlichen Steuereinnahmen sind nach wie vor 40 Einheiten. Die jährlichen öffentlichen Investitionen sind jetzt wieder 40 Einheiten. Die jährlichen öffentlichen Überschüsse sind jetzt wieder Null Einheiten. Und die jährlichen Staatsschulden sind jetzt ebenfalls wieder Null Einheiten. Als nächstes werden die Zeitpfade betrachtet. Den Anfang machen die Zeitpfade von Steuereinnahmen und öffentlichen Investitionen. Es wird



Die große Rezession

121

angenommen, dass die Steuereinnahmen konstant sind. Im ersten Abschnitt sind die öffentlichen Investitionen genau so groß wie die Steuereinnahmen. Im zweiten Abschnitt sind die öffentlichen Investitionen größer als die Steuereinnahmen. Im dritten Abschnitt sind die öffentlichen Investitionen kleiner als die Steuereinnahmen. Und im vierten Abschnitt sind die öffentlichen Investitionen wieder genau so groß wie die Steuereinnahmen. Im zweiten Abschnitt sind die öffentlichen Investitionen kurz aber groß. Und im dritten Abschnitt sind die öffentlichen Investitionen lang aber klein. Als nächstes folgen die Zeitpfade von öffentlichen Defiziten und öffentlichen Überschüssen. Im ersten Abschnitt ist der Staatshaushalt ausgeglichen. Im zweiten Abschnitt gibt es 10 Jahre mit hohen öffentlichen Defiziten. Im dritten Abschnitt gibt es 50 Jahre mit geringen öffentlichen Überschüssen. Und im vierten Abschnitt ist der Staatshaushalt wieder ausgeglichen. Als letztes folgt der Zeitpfad von Staatsschulden. Im ersten Abschnitt sind die Staatsschulden Null. Im zweiten Abschnitt steigen die Staatsschulden schnell. Im dritten Abschnitt fallen die Staatsschulden langsam. Und im vierten Abschnitt sind die Staatsschulden wieder Null. 3. 10 Jahre mit hohen öffentlichen Defiziten und weiteren 100 Jahren mit niedrigen öffentlichen Überschüssen Der erste Abschnitt ist gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Der zweite Abschnitt ist gekennzeichnet durch 10 Jahre mit hohen öffentlichen Defiziten. Der dritte Abschnitt ist gekennzeichnet durch 100 Jahre mit geringen öffentlichen Überschüssen. Und der vierte Abschnitt ist wieder gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Im zweiten Abschnitt sind die öffentlichen Investitionen größer als die Steuereinnahmen, mit dem Ziel die Wirtschaft anzuregen. Und im dritten Abschnitt sind die öffentlichen Investitionen geringer als die Steuereinnahmen, mit dem Ziel die Staatsschulden abzubauen. Der erste Abschnitt ist gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Die jährlichen Steuereinnahmen sind 40 Einheiten. Die jährlichen öffentlichen Investitionen sind ebenfalls 40 Einheiten. Das jährliche öffentliche Defizit ist Null. Und die jährlichen Staatsschulden sind ebenfalls Null. Der zweite Abschnitt ist gekennzeichnet durch 10 Jahre mit hohen öffentlichen Defiziten. Die jährlichen Steuereinnahmen sind nach wie vor 40 Einheiten. Die jährlichen öffentlichen Investitionen sind jetzt 140 Einheiten. Das jährliche öffentliche Defizit ist jetzt 100 Einheiten. Und die jährlichen

122

Michael Carlberg

Staatsschulden gehen jetzt von 100 Einheiten zu 200 Einheiten zu 300 Einheiten und so weiter. Der dritte Abschnitt ist gekennzeichnet durch 100 Jahre mit geringen öffentlichen Überschüssen. Die jährlichen Steuereinnahmen sind nach wie vor 40 Einheiten. Die jährlichen öffentlichen Investitionen sind jetzt 30 Einheiten. Die jährlichen öffentlichen Überschüsse sind jetzt 10 Einheiten. Und die jährlichen Staatsschulden gehen jetzt von 990 Einheiten zu 980 Einheiten zu 970 Einheiten und so weiter. Der vierte Abschnitt ist wieder gekennzeichnet durch einen ausgeglichenen Staatshaushalt. Die jährlichen Steuereinnahmen sind nach wie vor 40 Einheiten. Die jährlichen öffentlichen Investitionen sind jetzt wieder 40 Einheiten. Die jährlichen öffentlichen Überschüsse sind jetzt wieder Null Einheiten. Und die jährlichen Staatsschulden sind jetzt ebenfalls wieder Null Einheiten. Als nächstes werden die Zeitpfade betrachtet. Den Anfang machen die Zeitpfade von Steuereinnahmen und öffentlichen Investitionen. Es wird angenommen, dass die Steuereinnahmen konstant sind. Im ersten Abschnitt sind die öffentlichen Investitionen genau so groß wie die Steuereinnahmen. Im zweiten Abschnitt sind die öffentlichen Investitionen größer als die Steuereinnahmen. Im dritten Abschnitt sind die öffentlichen Investitionen kleiner als die Steuereinnahmen. Und im vierten Abschnitt sind die öffentlichen Investitionen wieder genau so groß wie die Steuereinnahmen. Im zweiten Abschnitt sind die öffentlichen Investitionen kurz aber groß. Und im dritten Abschnitt sind die öffentlichen Investitionen lang aber klein. Als nächstes folgen die Zeitpfade von öffentlichen Defiziten und öffentlichen Überschüssen. Im ersten Abschnitt ist der Staatshaushalt ausgeglichen. Im zweiten Abschnitt gibt es 10 Jahre mit hohen öffentlichen Defiziten. Im dritten Abschnitt gibt es 100 Jahre mit geringen öffentlichen Überschüssen. Und im vierten Abschnitt ist der Staatshaushalt wieder ausgeglichen. Als letztes folgt der Zeitpfad von Staatsschulden. Im ersten Abschnitt sind die Staatsschulden Null. Im zweiten Abschnitt steigen die Staatsschulden schnell. Im dritten Abschnitt fallen die Staatsschulden langsam. Und im vierten Abschnitt sind die Staatsschulden wieder Null.



Die große Rezession

123

Literatur Abel, Andrew B./Bernanke, Ben S. (2005): Macroeconomics, Boston. Akerlof, George A./Shiller, Robert J. (2009): Animal Spirits, Princeton and Oxford. Bernanke, Ben S. (2000): Essays on the Great Depression, Princeton. Blanchard, Olivier (2009): Macroeconomics, Upper Saddle River. Dornbusch, Rudiger/Fischer, Stanley/Startz, Richard (2008): Macroeconomics, New York. Friedman, Milton/Schwartz, Anna (1963): A Monetary History of the United States 1867–1960, Princeton. Keynes, John M. (1936): The General Theory of Employment, Interest, and Money, New York 1964. Koo, Richard C. (2009): The Holy Grail of Macroeconomics: Lessons from Japan’s Great Recession, Revised and Updated, Singapore. Krugman, Paul R. (2012): End This Depression Now!, W. W. Norton. Krugman, Paul R. / Wells, Robin (2009): Economics, New York. Soros, George (2012): Financial Turmoil in Europe and the United States, Public Affairs, New York. Svensson, Lars E. O. (2003): Escaping from a Liquidity Trap and Deflation: The Foolproof Way and Others, in: Journal of Economic Perspectives, Vol. 17, No. 4, S. 145–166.

II. Finanzwissenschaft

Schuldenpolitik zwischen Stabilisierung und Konsolidierung Von Wolfgang Scherf unter Mitwirkung von Alois Oberhauser

I. Einleitung Die Eurozone befindet sich nach verbreiteter Meinung in einer Staatsschuldenkrise. Einige europäische Staaten, allen voran Griechenland, haben das Vertrauen der Finanzmärkte verloren und gefährden damit die Währungsunion. Mit harter Sparpolitik und milliardenschweren Rettungspaketen versucht man, die Staatsfinanzen zu konsolidieren, das Vertrauen der Märkte zurückzugewinnen und den Euro zu retten. Fast schon verdrängt scheint, dass die Misere mit einer Finanz- und Bankenkrise begann, die den enormen Anstieg der Staatsschulden in vielen Ländern erst verursacht hat. Ebenso in den Hintergrund geraten ist die Tatsache, dass in einigen Krisenstaaten vor allem die Auslands- und weniger die Staatsverschuldung ein Problem darstellt. Die insofern recht einseitige Diagnose verleitet zu einer inadäquaten Therapie. Gewiss kann mit unsolider Finanzpolitik Vertrauen verspielt werden, aber durch rigide Schuldenbremsen gewinnt man es nicht einfach zurück. Sparen in der Krise erzeugt eine Rezession, die auf die öffentlichen Haushalte zurückschlägt. Geringere Staatsausgaben oder höhere Steuern vermindern die staatliche oder die private Nachfrage. Die daraus resultierenden Produktions- und Beschäftigungseinbußen sorgen für rückläufige Staatseinnahmen und wachsende Ausgaben für Arbeitslose. Sparpolitik führt daher nicht zu geringeren, sondern zu höheren Staatsdefiziten, was sich aktuell in der EU und speziell in Griechenland auch zeigt. Dieser makroökonomische Grundzusammenhang wird, speziell in Deutschland, gerne übersehen oder doch wenigstens unterschätzt. Dazu trägt bei, dass kaum ein finanzpolitisches Thema so emotional diskutiert wird wie die Staatsverschuldung. Einzelwirtschaftliche Denkweisen prägen die Debatte, wobei keineswegs der wagemutige Unternehmer, der Kredite für rentable Investitionen aufnimmt, den Maßstab liefert, sondern die sparsam wirtschaftende schwäbische Hausfrau. Staatsschulden sind damit negativ besetzt. Wer Schulden macht, lebt über seine Verhältnisse und versündigt sich an seinen Kindern und Enkeln. Diese Verteufelung ist volkswirtschaftlich unhaltbar

128

Wolfgang Scherf

und versperrt die Einsicht in die Chancen, die ein rationaler Gebrauch der Staatsverschuldung eröffnet.

II. Drei Arten der Staatsverschuldung Ob die Verschuldung eines Landes seiner wirtschaftlichen Lage angemessen ist, lässt sich nicht allein mit Blick auf die laufenden Defizite und den daraus auf Dauer resultierenden Schuldenstand beurteilen. Den Schlüssel zum Verständnis der Staatsverschuldung liefert erst die systematische Unterscheidung zwischen drei Defizitarten:1 – Das konjunkturbedingte Defizit entsteht durch Mindereinnahmen und Mehrausgaben der öffentlichen Haushalte wegen einer Rezession. – Das antizyklische Defizit umfasst Fehlbeträge, die sich aus der zusätz­ lichen Kreditfinanzierung von Konjunkturprogrammen ergeben. – Das strukturelle Defizit entspricht der Neuverschuldung, die auch in einer normal ausgelasteten Wirtschaft vorliegen würde.2 Die verschiedenen Defizitarten sind mit unterschiedlichen ökonomischen Wirkungen verbunden, die in der öffentlichen Diskussion nur selten angemessen gewürdigt und gegeneinander abgewogen werden. Wir wollen im Folgenden die Chancen und Risiken der Staatsverschuldung als Instrument der Wirtschaftspolitik taxieren. Hierzu müssen wir den Unterschied zwischen „guten“ und „schlechten“ Schulden deutlich machen. Die Überlegungen lassen sich zu folgenden Hypothesen verdichten: – Entgegen der öffentlichen Meinung liegt das Hauptproblem der Staatsverschuldung nicht in der Belastung zukünftiger Generationen, die im Falle der Inlandsverschuldung nur sehr begrenzte Bedeutung hat. – Strukturelle Defizite sind mit negativen gesamtwirtschaftlichen Wirkungen verbunden. Der Staat sollte solche Defizite vermeiden, wenn sich die Wirtschaft in einer Phase der Normalauslastung oder gar der Hochkonjunktur befindet. – Konjunkturbedingte und antizyklische Defizite haben positive gesamtwirtschaftliche Wirkungen. Der Staat muss konjunkturbedingte Defizite in 1  Diese Differenzierung geht zurück auf Oberhauser (1985, S. 340 ff.). Eine analoge Unterscheidung verwendet Ehrlicher (1979, S. 31), bei dem das konjunkturbedingte Defizit als konjunkturelles Defizit im engeren und das antizyklische Defizit als konjunkturelles Defizit im weiteren Sinne firmiert. 2  Der Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (1981, S. 161) hat zeitweise neben dem strukturellen Defizit die so genannte Normalverschuldung als (vermeintlich) unbedenklichen Teil des Defizits bei Normalauslastung gesondert berücksichtigt.



Schuldenpolitik zwischen Stabilisierung und Konsolidierung

129

jedem Fall akzeptieren. Er benötigt auch einen Spielraum für den Einsatz antizyklischer Defizite. – Jede Schuldenbremse muss sich daran messen lassen, ob sie die schlechten Schulden verhindert und die guten Schulden erlaubt. Schuldenbremsen sind gewiss gut gemeint, aber in der Regel nicht gut gemacht. Im Weiteren geht es zunächst um die Risiken struktureller und die Einsatzfelder konjunkturbedingter sowie antizyklischer Defizite. Danach werden die Spielräume für einen sinnvollen Schuldenabbau und die Rolle der Schuldenbremse hierbei erläutert.

III. Belastung zukünftiger Generationen? Das häufigste Vorurteil über die Staatsverschuldung lautet, dass damit die zukünftigen Generationen – unsere Kinder und Enkel – belastet würden. Das ist jedoch eine äußerst fragwürdige Behauptung, die auf der falschen, zumindest grob irreführenden Gleichsetzung der öffentlichen Verschuldung mit einem privaten Kredit basiert. Bei einem privaten Kredit kann man sich heute mehr leisten, muss aber in Zukunft Zinsen und Tilgung an die Gläubiger zahlen. Das ist beim öffentlichen Kredit nicht anders, mit einem wesentlichen Unterschied: Die Gesellschaft als Ganzes ist bei der Inlandsverschuldung Gläubiger und Schuldner zugleich. Der Kredit bleibt sozusagen in der Familie.3 Da zukünftige Generationen die Schulden und die Staatspapiere erben, steigt nicht nur der Schuldenstand, sondern zugleich auch die Vermögensbildung der Bürger gegenüber ihrem Staat. Auch die Zinsen zahlt die Gesellschaft an sich selbst. Als Steuerzahler finanziert der Durchschnittsbürger aus der einen Tasche, was ihm als Staatsgläubiger an Zinsen in die andere Tasche zurückfließt. Der Zins-Steuer-Kreislauf hat Verteilungswirkungen, aber nicht zwischen den Generationen. Vielmehr kann sich die funktionelle Verteilung durch Zins- und Kreditmengeneffekte zulasten der Durchschnittssteuerzahler und zugunsten der Zinseinkommensbezieher verschieben, die eher den oberen Einkommensschichten angehören (Gandenberger 1980, S. 494). Diese Umverteilung ist auch mit einer Verschiebung gefühlter Lasten zwischen den Generationen verbunden. Zukünftige Steuerzahler werden den Griff in ihre Tasche zwecks Finanzierung der Zinsen auf die Staatsverschuldung als Belastung empfinden, während zukünftige Staatsgläubiger ihre Zinserträge als 3  Diese Einsicht wird häufig mit der Formulierung „We owe it to ourselves“ (Lerner 1948, S. 256) assoziiert, so auch von Krugman (2012): „… an over-borrow­ ed family owes money to someone else; U.S. debt is, to a large extent, money we owe to ourselves“.

130

Wolfgang Scherf

wohlverdienten Lohn für den Konsumverzicht in der Vergangenheit betrachten.4 Dennoch bewirken die Zinsen keine echte Lastverschiebung zwischen den Generationen. Wird die Staatsverschuldung richtig eingesetzt, erzeugt sie gar keine realen Lasten. Wird sie falsch eingesetzt, können zwar reale Lasten entstehen, aber diese lassen sich nicht in die Zukunft verschieben. Letzteres gilt für das strukturelle Defizit, das auch bei normaler Auslastung des Produktionspotentials existieren würde. Seine Wirkungen lassen sich am besten erklären, wenn wir für den Moment Vollbeschäftigung (im Sinne von Normalauslastung) voraussetzen. Will der Staat in dieser Situation zusätzliche Ausgaben tätigen, zum Beispiel für neue Infrastrukturinvestitionen, dann steht er vor der Wahl, die Steuern zu erhöhen oder einen zusätzlichen Kredit aufzunehmen. Egal wie diese Entscheidung ausfällt, in einer vollbeschäftigten Wirtschaft muss nun ein größerer Teil des Sozialprodukts für staatliche Zwecke eingesetzt werden. Die zusätzlichen Staatsausgaben verdrängen somit zwangsläufig private Nachfrage. Hierin liegt die reale Last: Der private Sektor muss zugunsten des Staates auf Güter verzichten. Beispielsweise kann ein Unternehmen, das öffentliche Gebäude saniert, die dort eingesetzten Arbeitskräfte nicht zugleich im privaten Wohnungsbau beschäftigen. Im Falle der Kreditfinanzierung erfolgt die Verdrängung der privaten Nachfrage über Inflation. Bei Vollbeschäftigung führt die Mehrnachfrage des Staates zu Preissteigerungen, die das Realeinkommen der Arbeitnehmer und damit ihre Kaufkraft reduzieren. Die Bevölkerung leistet also Konsumverzicht und wird dadurch nicht in der Zukunft, sondern heute real belastet. Die Unternehmer profitieren davon, denn sie erzielen infolge der Mehrnachfrage höhere Preise und steigern ihre Gewinne (Scherf 1994, S. 77 ff.). Dieser Verteilungsmechanismus, der auf der Kreislauftheorie der Verteilung von Kaldor (1955 / 56, S. 94 ff.) basiert, ermöglicht eine Anpassung des Sparens an Veränderungen der Nachfrage nach investierbaren Mitteln und verhindert insoweit ein Crowding Out der Investitionen bei wachsender Staatsverschuldung. Somit können wir festhalten: Die Staatsverschuldung ist nicht geeignet, den nötigen Verzicht auf Teile des Sozialprodukts in die Zukunft zu verlagern.5 Sie hat zudem ungünstige Nebenwirkungen auf die Preisniveaustabi4  Buchanan (1958, S. 32  ff.) hat die Nutzenbetrachtung auf individualistischer Basis als Gegenkonzept zur Analyse gruppenbezogener realer Lasten entwickelt. Da die Ansätze verschiedene Lastbegriffe verwenden, ergänzen sie sich eher, als dass sie miteinander konkurrieren. 5  Nur die Auslandsverschuldung eröffnet gesamtwirtschaftlich die Möglichkeit eines intergenerativen Realtransfers. Im Ausland aufgenommene Kredite können zur



Schuldenpolitik zwischen Stabilisierung und Konsolidierung

131

lität und auf die Einkommensverteilung. Weitere unerfreuliche Wirkungen können eintreten, wenn die Zentralbank auf die Preissteigerungen mit einer restriktiven Geldpolitik reagiert. Dann können nicht nur Konsumausgaben, sondern auch private Investitionen über höhere Zinsen verdrängt werden. Soweit das geschieht, werden auch zukünftige Generationen durch ein relativ geringeres Wirtschaftswachstum real belastet. Angesichts der erst einmal steigenden Gewinne dürfte sich die Last in Form von Wachstumseinbußen (Modigliani 1961, S. 730 ff.) allerdings in Grenzen halten. Würde der Staat seine Mehrausgaben mit Steuern finanzieren, so würde sich an der realen Belastung der heutigen Generation nichts ändern. Die Belastung würde aber ehrlich ausgewiesen und wäre mit geringeren Nebenwirkungen verbunden. Das gilt jedenfalls bei einer Erhöhung der Einkommensteuer, die überwiegend eine Lohnsteuer ist. Die Arbeitnehmer wären direkt und nicht erst über höhere Preise zum Konsumverzicht gezwungen. Ihr verfügbares Einkommen und ihre Konsumausgaben würden sofort sinken und der Volkswirtschaft bliebe der Umweg über die Inflation erspart. Eine Erhöhung der Mehrwertsteuer wäre demgegenüber der schlechtere Weg. Auch die Umsatzsteuer erhöht die Preise, so dass der höhere Staatsanteil am Sozialprodukt wie bei der Kreditfinanzierung über Inflation herbeigeführt wird. Somit kommen wir zu dem Ergebnis, dass der Staat in einer vollbeschäftigten Wirtschaft keine neuen Schulden aufnehmen, sondern zusätzliche Ausgaben mit einem Stabilitätszuschlag auf die Einkommensteuer finanzieren sollte. Der Grund liegt weniger in der Belastung zukünftiger Genera­ tionen, denn die realen Lasten fallen im Wesentlichen heute an. Die negativen Stabilitäts- und Verteilungseffekte der Staatsverschuldung sprechen aber gegen ihren Einsatz. Kurzum: Strukturelle Defizite sind in der Periode, in der sie eingegangen werden, schlechte Schulden. Das gilt auch, wenn damit öffentliche Investitionen finanziert werden. Viele Ökonomen vertreten zwar die Meinung, staatliche Investitionen dürften nach dem Pay-as-you-use-Prinzip jederzeit mit Kredit finanziert werden, weil sie zukünftigen Generationen einen Nutzen stiften. Der zukünftige Nutzen ist aber auch bei Steuerfinanzierung gegeben und die Kreditfinanzierung ist keineswegs geeignet, die zukünftigen Generationen wirksam und passgenau zur Finanzierung der staatlichen Investitionen heranzuziehen. Finanzierung von Güterimporten verwendet werden, die das verfügbare Gütervolumen heute erhöhen. Zins- und Tilgungszahlungen können im Gegenzug das verfügbare Gütervolumen später reduzieren, falls sie mit zusätzlichen Güterexporten einhergehen. Zwingend ist der Realtransfer jedoch nicht, denn es können auch dauerhafte grenzüberschreitende Gläubiger-Schuldner-Beziehungen etabliert werden.

132

Wolfgang Scherf

Über die richtige Finanzierungsform entscheidet also in erster Linie die gesamtwirtschaftliche Lage zu dem Zeitpunkt, in dem die Staatsausgaben getätigt werden. Bei Vollbeschäftigung und erst recht in der Hochkonjunktur gibt es keinen guten Grund für eine Kreditfinanzierung öffentlicher Ausgaben.6 Das sieht allerdings ganz anders aus, wenn man die Rolle der Staatsverschuldung in der Rezession betrachtet.

IV. Konjunkturbedingte Defizite Die Deutschen sind ein Volk von Sparern. Jedes Jahr bilden sie neues Vermögen in dreistelliger Milliardenhöhe. Die Gegenbuchung erfolgt bei drei Gruppen von Kreditnehmern. Die deutsche Volkswirtschaft erzielt ständig Überschüsse im Außenhandel, die mit einer Vermögensbildung gegenüber dem Rest der Welt verbunden sind. Sparer geben inländischen Unternehmen Kredit, die Investitionen finanzieren wollen, und sie kaufen bereitwillig Staatspapiere.7 Als Gläubiger finden sie Kredite offenkundig in Ordnung. Dennoch halten sie die Schuldner – ihre Geschäftspartner – manchmal für unseriöse Gesellen. Die Kreditnehmer werden leicht verdächtigt, über ihre Verhältnisse zu leben. Logischerweise leben die Gläubiger dann unter ihren Verhältnissen, was aber nicht als Teil des Problems begriffen wird. In einer Rezession leben sogar ganze Volkswirtschaften unter ihren Verhältnissen. Sie schöpfen ihre Produktionsmöglichkeiten nicht aus und verzichten auf Wohlstand, der mit den vorhandenen Ressourcen geschaffen werden könnte. Die Unterauslastung des Produktionspotentials basiert typischerweise auf einer zu geringen gesamtwirtschaftlichen Nachfrage. Für Konsum und Investitionen geben die inländischen Wirtschaftssubjekte bisweilen weniger aus, als sie produzieren können. Wenn das Ausland die Lücke nicht durch seine Nachfrage schließt, kommt es zu Produktions- und 6  Der Verzicht auf neue strukturelle Defizite bedeutet freilich nicht, dass die früher gebildeten strukturellen Defizite bei Normalauslastung einfach wegfallen können. Das Ausmaß der Konsolidierung muss konjunkturverträglich sein. Daher sollte der Begriff des strukturellen Defizits im engeren Sinne für den Teil der Verschuldung reserviert werden, der in einer normal ausgelasteten Wirtschaft ohne negative Rückwirkungen auf Produktion und Beschäftigung abgebaut werden kann (Scherf 1989, S.  147 ff.). 7  Im Jahr 2011 verzeichnete die VGR für Deutschland folgende Finanzierungssalden: Private Haushalte 136 Mrd. Euro, Kapitalgesellschaften 28,6 Mrd. Euro, Staat –19,6 Mrd. Euro und Übrige Welt –145 Mrd. Euro. Der positive Saldo der Kapitalgesellschaften bedeutet, dass diese mehr gespart als netto investiert haben, was für einen natürlichen Defizitsektor ungewöhnlich ist. Die positive Vermögensbildung gegenüber dem Rest der Welt reflektiert die strukturell überschüssige deutsche Leistungsbilanz.



Schuldenpolitik zwischen Stabilisierung und Konsolidierung

133

Beschäftigungsverlusten. Dies hat Konsequenzen für den öffentlichen Haushalt. Damit der private Sektor in der Krise mehr einnehmen als ausgeben kann, muss sich der Staat verschulden, auf diese Weise die überschüssigen Ersparnisse aufnehmen und nachfragewirksam verwenden. Die Wechselwirkungen zwischen Staatshaushalt und Wirtschaftslage verdienen besondere Aufmerksamkeit. Der Staat ist der wirtschaftlichen Entwicklung teils passiv ausgesetzt, teils beeinflusst er sie aktiv mit seiner Finanzpolitik. Wir betrachten zunächst die passive Komponente der Stabilitätspolitik, die so genannten automatischen Stabilisatoren (Scherf 2012, S.  171 ff.). Wenn die Wirtschaft aufgrund eines Ausfalls privater Nachfrage in die Rezession verfällt, kommt es typischerweise zu einem negativen Multiplikatorprozess, zu einer Abwärtsbewegung, die weit über den Primäreffekt hinausgeht. Der Nachfrageausfall in der ersten Runde senkt Produktion und Einkommen, worauf die Konsumenten und Investoren in den Folgeperioden mit Ausgabekürzungen reagieren. Je stärker diese Sekundäreffekte ausfallen, umso stärker gehen Produktion und Beschäftigung zurück. Die Sozialproduktsverluste haben Rückwirkungen auf den öffentlichen Haushalt. Ohne dass der Staat irgendetwas dafür kann, treten Steuer- und Beitragsausfälle sowie Mehrausgaben für die Arbeitslosen ein, die den öffentlichen Haushalt belasten. Allein die konjunkturbedingten Defizite, die noch nichts mit expansiver Konjunkturpolitik zu tun haben, können schon zu enormen Haushaltsbelastungen führen. Ein Beispiel soll diesen Sachverhalt illustrieren. Bei einer Konjunktur­ elastizität des öffentlichen Haushalts8 von 50 Prozent erhöht eine gesamtwirtschaftliche Produktionslücke von 6 Prozent das Staatsdefizit um 3 Prozent des Produktionspotentials. Hat sich der Staat an die Vorgaben der EU gehalten und vor der Rezession nur eine Defizitquote von 0,5 Prozent realisiert, dann liegt die Defizitquote jetzt bei 3,5 Prozent des Produktionspotentials. Bezogen auf das tatsächliche Bruttoinlandsprodukt wären das bereits 3,7 Prozent (0,035 / 0,94). Eine kräftige Rezession führt also auch bei zuvor seriöser Finanzpolitik und noch ganz ohne Konjunkturprogramme zu einer Überschreitung des magischen 3-Prozent-Defizitkriteriums. 8  Die Konjunkturelastizität zeigt, wie stark der staatliche Budgetsaldo auf eine Veränderung des Bruttoinlandsprodukts reagiert. Sie wird „… im Rahmen der Berechnung struktureller Defizite in Verbindung mit einem Schätzwert für die aktuelle, konjunkturelle Abweichung des Outputs auch dazu genutzt, die einzelnen Komponenten um den konjunkturellen Einfluss zu bereinigen“ (Büttner et al. 2006, S. 25). Diese Vorgehensweise führt jedoch nicht zu einem korrekten Ausweis der strukturellen Verschuldung, wenn neben dem konjunkturbedingten auch ein antizyklisches Defizit existiert, das den Auslastungsgrad des Produktionspotentials beeinflusst.

134

Wolfgang Scherf

Die konjunkturbedingten Defizite muss der Staat in jedem Fall eingehen, um Schlimmeres zu verhüten. Würde der Staat die konjunkturbedingten Defizite nicht akzeptieren, dann würde er eine Parallelpolitik betreiben, wie Brüning in den 30er Jahren. Die Folgen wären fatal. Der Staat müsste seine Ausgaben senken oder die Steuern erhöhen. In beiden Fällen würde er die Nachfrageausfälle vergrößern und zur Verschärfung der Rezession beitragen. Dass damit genau die Haushaltslöcher wieder entstehen, die man schließen wollte, sollte schon genügen, um von einer solchen prozyklischen Finanzpolitik Abstand zu nehmen. Die konjunkturbedingten Defizite bilden die absolute Untergrenze einer ökonomisch vertretbaren Verschuldung. Die automatischen Stabilisatoren wirken nur, wenn der Staat in der Rezession seine Ausgaben für Güter und Dienste relativ zum Produktions­ potential aufrechterhält und die konjunkturbedingten Mindereinnahmen und Mehrausgaben in den öffentlichen Haushalten (inklusive der Sozialversicherungen) in Kauf nimmt. Zu beachten ist auch, dass die automatischen Stabilisatoren den Abschwung lediglich bremsen, die Wirtschaft aber nicht zur Normalauslastung zurückführen. Ihre positiven Wirkungen erkennt man nur im Vergleich zur Parallelpolitik. Sie wirken im Verborgenen und werden daher leicht unterschätzt. Immerhin werden konjunkturbedingte Defizite von Ökonomen überwiegend akzeptiert, weil sie automatische Stabilisierungseffekte sicherstellen und auch, weil sie im Aufschwung scheinbar automatisch wieder verschwinden. Letzteres stimmt freilich nur dann, wenn der Aufschwung ohne staatliches Zutun zustande kommt.

V. Antizyklische Defizite Wenn der Aufschwung auf sich warten lässt, schlägt die Stunde der aktiven Stabilitätspolitik. Hierzu muss der Staat Ausgabenerhöhungen oder Steuersenkungen vornehmen. Der Staat, der schon durch die konjunkturbedingten Defizite belastet ist, legt also zusätzlich expansive Konjunkturprogramme auf, deren Finanzierung anfangs eine weitere Erhöhung der Staatsverschuldung erfordert. Noch mehr Schulden erscheinen politisch kaum vertretbar und – bei oberflächlicher Betrachtung – auch ökonomisch problematisch. Der aktive Part der antizyklischen Finanzpolitik kann sich jedoch sogar fiskalisch lohnen, denn gut gemachte Konjunkturprogramme finanzieren sich überwiegend oder ganz von selbst (Scherf 2012, S. 173 ff.). Wie funktioniert ein solches Schuldenparadox? Der Staat bemüht sich in der Rezession, die Nachfragelücke zu schließen, z. B. durch vorgezogene und vermehrte öffentliche Investitionen. Die Mehrausgaben erfordern zunächst ein antizyklisches Defizit in gleicher Höhe. Anschließend kommt es jedoch zu einem Anstieg des Sozialprodukts. Daraus resultieren Mehrein-



Schuldenpolitik zwischen Stabilisierung und Konsolidierung

135

nahmen und Ausgabenersparnisse des Staates, die das antizyklische Defizit wieder reduzieren. Der Multiplikatorprozess, der die Wirtschaft in die Rezession geführt hat, wirkt nun in die andere Richtung. Der Nachfrageimpuls des Staates erhöht Produktion und Einkommen, worauf die Konsumenten und Investoren mit Mehrausgaben reagieren. Infolgedessen steigen Nachfrage, Produktion und Beschäftigung insgesamt um ein Vielfaches der staat­ lichen Initialzündung. Wegen des finanzpolitisch erzeugten Aufschwungs kann der Staat erheb­ liche Selbstfinanzierungseffekte erwarten. Eine Selbst- und Überkonsolidierung der antizyklischen Defizite ist theoretisch durchaus möglich. Bei einer Konjunkturelastizität des öffentlichen Haushalts von 50 Prozent reicht ein Multiplikator von 2 für eine komplette Selbstfinanzierung der Konjunkturprogramme aus. Staatliche Mehrausgaben von 100 Euro erhöhen das Sozialprodukt in diesem Fall um 200 Euro. Der Staat erhält 50 Prozent bzw. 100 Euro davon in Form von Mehreinnahmen und Ausgabenersparnissen zurück. Das entspricht exakt der ursprünglichen antizyklischen Verschuldung. Wie realistisch ist ein solches Szenario? Nachdem die Fiskalmultiplikatoren in der modernen Makroökonomie klein geredet wurden, deutet sich vor dem Hintergrund der aktuellen Erfahrungen mit der Sparpolitik an, dass man die multiplikativen Rückwirkungen auf das Sozialprodukt wohl systematisch und deutlich unterschätzt hat (Blanchard / Leigh 2012). Das gilt dann auch für die Selbstfinanzierungseffekte expansiver Fiskalpolitik (DeLong / Summers 2012, S. 235 ff.). Diese hängen zudem stark von der konkreten Gestaltung der antizyklischen Maßnahmen ab. Über die Nachfragewirksamkeit und das davon abhängige Ausmaß der Selbstkonsolidierung entscheiden die Primäreffekte der eingesetzten Instrumente. Öffentliche Investitionen schneiden hierbei gut ab, denn sie sind in voller Höhe nachfragewirksam. Das unterscheidet sie positiv von Steuersenkungen, die das verfügbare Einkommen erhöhen und nur nach Maßgabe der Konsumneigung der Steuerpflichtigen zu Mehrausgaben führen. Noch besser eignen sich Instrumente, bei denen der staatliche Mitteleinsatz schon in der ersten Runde durch private Zusatzausgaben verstärkt wird. Das gilt beispielsweise für Investitionsprämien oder Abschreibungsvergünstigungen für zusätzliche Investitionen, aber auch für die Förderung der Sanierung und Modernisierung von Altbauten, die zudem vorwiegend der einheimischen mittelständischen Wirtschaft hilft. Ein Schuldenparadox ist also durchaus möglich. Allerdings hängt die Wirksamkeit staatlicher Konjunkturprogramme nicht nur von der adäquaten Gestaltung ab. Darüber hinaus müssen andere Politikbereiche ihren Part übernehmen. Zum einen muss die Geldpolitik den Aufschwung mit niedrigen Zinsen finanzierbar machen. Das wird sie aber nur tun, wenn Produk-

136

Wolfgang Scherf

tion und Beschäftigung steigen, ohne dass zugleich oder gar dominant die Preise anziehen. Gefahr droht hier besonders von der Lohnpolitik. Nominallohnerhöhungen sind unproblematisch, solange sie sich am Produktivitätsfortschritt ausrichten. Gehen sie bei wieder anziehender Konjunktur deutlich darüber hinaus, so steigen Stückkosten und Preisniveau trotz Arbeitslosigkeit, was eine restriktive Geldpolitik und damit eine Stabilisierungskrise provoziert. Die Zinsen steigen und der Aufschwung wird abgewürgt, bevor er richtig in Gang kommt. Eine moderate Lohnpolitik ist zur Absicherung der Globalsteuerung zwingend erforderlich (Oberhauser 1986). Die oftmals als keynesianisch deklarierte Kaufkrafttheorie, nach der höhere Löhne die Wirtschaft ankurbeln, entspricht weder der Theorie von Keynes, noch den empirischen Erfahrungen seit den siebziger Jahren des 20. Jahrhunderts. Von einer konjunktur­ gerecht aufeinander abgestimmten Finanz-, Geld- und Lohnpolitik – einer konzertierten Aktion – profitieren dagegen alle. Die konjunkturbedingten und antizyklischen Defizite sind dann gut investiert. Die heutige Generation verfügt über ein höheres Sozialprodukt als das sonst der Fall wäre. Zudem tätigen der Staat und die Unternehmen höhere Investitionen, was auch den zukünftigen Generationen zugutekommt. Die konjunkturellen Defizite sind also die „guten“ Schulden. Auch wenn sich nur der antizyklische Teil der Defizite wesentlich selbst finanziert, verursacht die konjunkturelle Verschuldung kein dauerhaftes Problem. Über den Konjunkturzyklus hinweg gleichen sich gute und schlechte Phasen halbwegs aus, so dass konjunkturelle Überschüsse in besseren Zeiten zum Ausgleich der Defizite in der Rezession dienen können. Eventuelle Restdefizite wachsen sich im wahrsten Sinne des Wortes aus, denn sie verlieren in einer wachsenden Wirtschaft relativ zum Sozialprodukt schnell an Bedeutung.

VI. Strukturelle Defizite Wäre das Konzept der antizyklischen Finanzpolitik die Richtschnur der haushaltspolitischen Entscheidungen, dann gäbe es kein Schuldenproblem und wir bräuchten auch keine Schuldenbremse. Freilich hat die Politik in der Vergangenheit häufig anders gehandelt. Konjunkturelle Spielräume zur Haushaltssanierung wurden nicht genutzt, im Gegenteil, oft genug hat man sich trotz guter Konjunkturlage neu verschuldet. So sind die strukturellen Defizite entstanden, der „schlechte“ Teil der Verschuldung. Hierin zeigen sich die finanzpolitischen Sünden der Vergangenheit. Wie soll man mit diesem Problem umgehen? Manche glauben, man sollte die strukturellen Defizite am besten sofort und radikal beseitigen, unabhängig von der aktuellen Konjunkturlage. Das



Schuldenpolitik zwischen Stabilisierung und Konsolidierung

137

kann aber nicht funktionieren. Diese Defizite bilden leider den Bodensatz an Verschuldung, auf dem die Stabilitätspolitik aufbauen muss. Die positiven konjunkturellen Wirkungen der konjunkturbedingten und der antizyklischen Defizite können sich nur entfalten, wenn die bereits vorhandenen strukturellen Defizite vorläufig hingenommen werden. In der Hochkonjunktur versäumte Sparpolitik lässt sich in der Rezession eben nicht nachholen. Im Gegenteil: Der Staat würde den Konjunktureinbruch verstärken und am Ende den öffentlichen Haushalt weiter aus dem Gleichgewicht bringen. Sparpolitik in der Rezession ist ein Problem, keine Lösung (Scherf 2012, S.  175 ff.). Ein strukturelles Defizit kann nur beharrlich in konjunkturverträglichen Schritten zurückgeführt werden. In der Rezession lässt sich der Druck der leeren Kassen durchaus zur Haushaltskonsolidierung nutzen, denn er erleichtert unpopuläre Einschnitte in Staatsleistungen mit fraglicher Existenzberechtigung, insbesondere im Bereich der vielfältigen (Steuer-)Subventionen ohne nachvollziehbaren Lenkungszweck. Die restriktiven Nachfrageeffekte solcher Sparmaßnahmen müssen dann aber zeitweilig durch expansiv wirkende Instrumente kompensiert werden. Beispielsweise könnte man gruppenspezifische Vergünstigungen durch allgemeine, befristete Fördermaßnahmen nach dem Stabilitätsgesetz ersetzen. Darüber hinaus ist es unumgänglich, die restriktive Kehrseite der keynesianischen Botschaft in Zukunft zu beachten und bei guter Konjunkturlage entstehende Haushaltsspielräume konsequent für eine Rückführung der Defizite auszuschöpfen. Wohltaten in Form von Steuersenkungen oder Zusatzleistungen kann der Staat dann aber nicht mehr verteilen, auch und gerade nicht bei wieder anziehender Konjunktur. Das schließt Steuersenkungen nicht aus. Statthaft sind sie aber nur, wenn die Politik im Gegenzug die Kraft aufbringt, überflüssige Staatsleistungen abzubauen und insbesondere die zahlreichen Steuersubventionen zu beseitigen, statt neue zu schaffen. Vielleicht kann die Schuldenbremse dabei helfen, den Haushalt mittelfristig in Ordnung zu bringen. Sie soll einen Budgetausgleich über den Konjunkturzyklus hinweg erzwingen, erlaubt aber kurzfristige Abweichungen. In der Rezession sind Defizite zulässig, doch müssen sie in besseren Zeiten ausgeglichen werden, was prinzipiell der Idee einer antizyklischen Politik entspricht. Allerdings hängt das Ausmaß der Defizite, die zur Überwindung einer Wirtschaftskrise erforderlich sind, von der Länge und Tiefe der Rezession ab. Dies berücksichtigt die Schuldenbremse nicht, sondern verlangt eine symmetrische Vorgehensweise bei Abweichungen und limitiert diese für den Bund auch noch auf 1,5 Prozent des Bruttoinlandsprodukts. Letzteres engt den Spielraum der Konjunkturpolitik allzu stark ein. Wenn die Rezessionsphasen länger anhalten und kräftiger ausfallen als die Boom-

138

Wolfgang Scherf

phasen, gibt es keine volle Symmetrie der konjunkturellen Defizite und Überschüsse. Auf dem Kontrollkonto, das die auszugleichenden Beträge erfasst, bleiben dann Defizite stehen, die womöglich nie, jedenfalls nicht kurzfristig und – so steht es im Gesetz – „konjunkturgerecht“ zurückzuführen sind. Zudem ist nicht zu erwarten, dass Defizite bis 1,5 Prozent des Bruttoinlandsprodukts zur Stabilisierung ausreichen. Diese Marge wird schon bei kleineren Rezessionen und rein passiver Stabilisierung leicht überschritten. Das Bemühen, sie dennoch einzuhalten, erzwingt eine prozyklische Sparpolitik, obwohl in der gegebenen Lage das Gegenteil konjunkturpolitisch richtig wäre. Die Gefahr prozyklischer Wirkungen besteht noch aus einem anderen Grund. Die empirische Wirtschaftsforschung separiert nicht trennscharf zwischen den drei relevanten Defizitarten. Üblicherweise werden nur konjunkturbedingte und strukturelle Defizite unterschieden. Damit begeht man jedoch einen gravierenden Messfehler, denn die antizyklischen Defizite zur Finanzierung expansiver Konjunkturprogramme werden implizit als strukturell und nicht – wie es richtig wäre – als konjunkturell deklariert.9 Das Vorgehen unterminiert den konjunkturgerechten Einsatz der Staatsverschuldung und erzeugt einen unzeitigen strukturellen Konsolidierungsdruck. Die gängigen Verfahren der Konjunkturbereinigung forcieren diese Verzerrung.10 Gegen die Schuldenbremse spricht auch, dass sie das Problem der Rückführung vorhandener struktureller Defizite nicht befriedigend regelt. Diese Defizite können – von den oben erwähnten budgetneutralen Umschichtungen abgesehen – nicht in der Rezession, sondern erst nach Rückkehr zur Normalauslastung abgebaut werden. Wann eine solche Situation gegeben ist und wie lange sie anhält, entscheidet über die Konsolidierungsmöglichkeiten, nicht ein politisch gewünschter fixer Zeitplan. Daher kann man nur hoffen, dass die Schuldenbremse in der finanzpolitischen Praxis hinreichend flexibel und unter Betonung des Wortes „konjunkturgerecht“ gehandhabt wird. Sonst degeneriert sie zu einem Hemmschuh der wirtschaftlichen Entwicklung, ohne den gewünschten Defizitabbau wirklich zu befördern. Gerade die Befürworter einer soliden Budgetpolitik sollten daran kein Interesse 9  Charakteristisch ist folgender Befund: „Zwar ist ein großer Teil der Budgetdefizite durch die tiefe Rezession bedingt, doch ist auch der strukturelle Fehlbetrag recht hoch, nicht zuletzt wegen der teilweise sehr umfangreichen Konjunkturprogramme“ (Projektgruppe Gemeinschaftsdiagnose 2009, S. 74). 10  Zum Beispiel zieht der Hodrick-Prescott-Filter in einer Rezession den Trendwert der Einnahmen nach unten. Dadurch wird die konjunkturelle Lücke am aktuellen Rand zu gering ausgewiesen, das konjunkturbedingte Defizit unterschätzt und das strukturelle Defizit überschätzt. Auch das intransparente und gestaltungsanfällige Verfahren zur Ermittlung des strukturellen Defizits im Rahmen der Schuldenbremse des Bundes wirkt tendenziell prozyklisch (Truger / Will, 2012).



Schuldenpolitik zwischen Stabilisierung und Konsolidierung

139

haben. Eine negativ bewertete Sparpolitik wird auf Dauer nicht durchzuhalten sein, eine konjunkturverträgliche Konsolidierungspolitik mit als gerecht empfundener Verteilung der Lasten dagegen schon.

VII. Konjunkturgerechte Finanzpolitik Das Fazit unserer Überlegungen lautet: Wir benötigen keine Schuldenbremse, sondern eine konjunkturgerechte Finanzpolitik. Diese umfasst folgende Elemente: (1) Der Staat kann die vor der Rezession bereits bestehende Verschuldung nicht in der Rezession beseitigen, denn konjunkturbedingte und antizyklische Defizite bauen auf dem strukturellen Defizit auf. (2) Der Staat muss in der Rezession konjunkturbedingte Defizite hinnehmen, damit die automatischen Stabilisatoren funktionieren können. (3) In einer stärkeren Rezession sollte der Staat darüber hinaus wirkungsvolle Konjunkturprogramme auflegen. Die hierfür nötigen antizyklischen Defizite finanzieren sich weitgehend aus ihren expansiven Wirkungen auf das Sozialprodukt. (4) Bei Normalauslastung lassen sich neue Schulden zur Finanzierung von öffentlichen Ausgaben oder Steuersenkungen nicht rechtfertigen, auch nicht zur Finanzierung öffentlicher Investitionen. (5) Der Staat muss die wirtschaftlich guten Zeiten konsequent zur Rückführung seiner Neuverschuldung und zum Abbau der strukturellen Defizite nutzen. Nach dieser Rezeptur, die im Grunde dem nach wie vor gültigen Stabilitätsgesetz entspricht, kann man das Schuldenproblem im Griff behalten. Viel versprechende Alternativen hierzu gibt es nicht. Was am wenigsten hilft, ist die panische Angst vor einer weiteren Verschuldung, selbst wenn diese zur Konjunkturstabilisierung nötig ist. Die Finanzpolitik erweist späteren Generationen keinen Gefallen, wenn sie sich der unterlassenen Hilfeleistung für eine angeschlagene Wirtschaft schuldig macht. Man kann das auch positiv formulieren. Die Selbstfinanzierungseffekte einer antizyklischen Finanzpolitik erleichtern die Haushaltskonsolidierung, denn nichts entlastet den Staatshaushalt so stark wie ein hohes wirtschaft­ liches Wachstum. Allerdings fällt Wachstum in der Wirtschaftskrise nicht vom Himmel, sondern muss durch aktive Politik erst stimuliert werden. Die konjunkturbedingten und antizyklischen Defizite sind also Voraussetzung für eine nachfolgende wirtschaftliche und fiskalische Erholung. Der vorzeitige Tritt auf die Schuldenbremse gefährdet beides. Daher ist eine flexible

140

Wolfgang Scherf

Auslegung der prinzipiell sinnvollen, aber zu rigide konzipierten Schuldengrenze zu empfehlen. Haushaltskonsolidierung erfordert in jedem Fall genügend Wachstum und einen langen Atem, verträgt aber keinen festen Terminkalender. Eine Klarstellung erscheint vor dem Hintergrund der außerordentlichen Schuldenprobleme mancher Krisenländer zum Schluss angezeigt. Antizyklische Globalsteuerung verbunden mit dem Verzicht auf neue strukturelle Defizite ist ein taugliches Konzept für Länder mit aktuell tragbarer Schuldenstandsquote. Die vorhandenen strukturellen Defizite verlieren im Wachstum relativ zum Sozialprodukt immer mehr an Bedeutung und sie können in guten Zeiten auch aktiv konsolidiert werden. Anders verhält es sich in den Ländern, in denen die Staatsverschuldung lange vor der aktuellen Krise aus dem Ruder gelaufen ist. Sie müssen in relativ kurzer Zeit ihre fundamentalen Defekte in Staat und Wirtschaft glaubwürdig anpacken und schrittweise beheben. Nur in diesem Fall erscheint es vertretbar, die Anpassungsprozesse durch ausländische Hilfen abzufedern und den Spardruck zu reduzieren, der im Übermaß kontraproduktiv wirkt. Wirtschaftliche und politische Turbulenzen schaffen gewiss kein günstiges Umfeld für Haushaltskonsolidierung und europäische Zusammenarbeit, lassen sich aber auch nicht ganz vermeiden, wenn die Reformbereitschaft allzu schwach ausgeprägt ist.

Epilog Alois Oberhauser war von 1963 bis 1995 Professor für Finanzwissenschaft an der Albert-Ludwigs-Universität Freiburg. Die zweite finanzwissenschaftliche Professur hatte von 1988 bis 2008 Hans-Hermann Francke inne. Die beiden Lehrstuhlinhaber vermittelten den Studenten unterschiedliche wirtschaftstheoretische und wirtschaftspolitische Sichtweisen, wobei die sachliche Divergenz stets von einer hohen persönlichen Wertschätzung begleitet war. Die kollegiale Zusammenarbeit wurde nahtlos auf der Ebene der wissenschaftlichen Mitarbeiter fortgesetzt, zu denen ich damals gehörte. Nach meiner Habilitation 1993 gab mir Hans-Hermann Francke als Dekan Gelegenheit zur Vertretung einer Professur für Wirtschaftspolitik und vertraute mir dabei auch seine finanzwissenschaftliche Vorlesung an. Insbesondere auf dem Gebiet der öffentlichen Verschuldung dürften unsere Ansichten weiterhin etwas auseinander liegen. Umso reizvoller erschien es, die Festschrift für Hans-Hermann Francke durch einen Beitrag zu bereichern, der die persönliche Wertschätzung unterstreichen und zugleich frühere Debatten wiederbeleben soll. Wolfgang Scherf



Schuldenpolitik zwischen Stabilisierung und Konsolidierung

141

Literatur Blanchard, Olivier / Leigh, Daniel (2012): Are We Underestimating Short Term Fiscal Multipliers?, World Economic Outlook, October 2012, S. 41–43. Buchanan, James M. (1958): Public Principles of Public Debt, Wiederabdruck in: The Collected Works of James M. Buchanan, Vol. 2, Indianapolis 1999. Büttner, Thies / Dehne, Anita / Flaig, Gebhard / Hülsewig, Oliver / Winker, Peter (2006): Berechnung der BIP-Elastizitäten öffentlicher Ausgaben und Einnahmen zu Prognosezwecken und Diskussion ihrer Volatilität, ifo Forschungsberichte 28, München. DeLong, J. Bradford / Summers, Lawrence H. (2012): Fiscal Policy in a Depressed Economy, Broo­kings Papers on Economic Activity, Spring 2012, S. 233–274. Ehrlicher, Werner (1979): Grenzen der Staatsverschuldung, in: Bohley, Peter / Tolkemitt, Georg (Hg.), Wirtschaftswissenschaft als Grundlage staatlichen Handelns, Tübingen, S. 27–46. Gandenberger, Otto (1980): Öffentliche Verschuldung II: Theoretische Grundlagen, Handwörterbuch der Wirtschaftswissenschaft, Bd. 5, Stuttgart u. a. O., S. 480–504. Kaldor, Nicholas (1955 / 56): Alternative Theories of Distribution, in: The Review of Economic Studies, Vol. 23, S. 83–100. Krugman, Paul (2012): Nobody Understands Debt, in: New York Times, 1. Januar 2012. Lerner, Abba P. (1948): The Burden of the National Debt, in: Metzler, L. A. u. a. (Hg.), Income, Employment and Public Policy, New York, S. 255–275. Modigliani, Franco (1961): Long-Run Implications of Alternative Fiscal Policies and the Burden of the National Debt, in: Economic Journal, Vol. 71 (284), S. 730–755. Oberhauser, Alois (1985): Das Schuldenparadox, in: Jahrbücher für Nationalökonomie und Statistik, Bd. 200, S. 333–348. – (1986): Globalsteuerung erfordert lohnpolitische Absicherung, in: Körner, Heiko / Uhlig, Christian (Hg.), Die Zukunft der Globalsteuerung, Bern, S. 149–175. Projektgruppe Gemeinschaftsdiagnose (2009): Im Sog der Weltrezession. Gemeinschaftsdiagnose Frühjahr 2009, in: ifo Schnelldienst 8, S. 3–81. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (1981): Jahresgutachten 1981 / 82, Investieren für mehr Beschäftigung, Wiesbaden. Scherf, Wolfgang (1989): Zur Abgrenzung und finanzpolitischen Bedeutung verschiedener Arten der Staatsverschuldung, in: Jahrbücher für Nationalökonomie und Statistik, Bd. 206, S. 136–151. – (1994): Die Bedeutung des kaldorianischen Verteilungsmechanismus für die gesamtwirtschaftlichen Wirkungen der staatlichen Neuverschuldung, Frankfurt. – (2012): Staatsverschuldung aus kreislauftheoretischer Sicht, in: Intervention, 9. Jg., Heft 2, S. 166–188. Truger, Achim / Will, Henner (2012): Gestaltungsanfällig und prozyklisch. Die deutsche Schuldenbremse in der Detailanalyse, IMK Working Paper No. 88.

Vom kranken Mann Europas zur Insel der Glückseligkeit Eine zufriedenheitsökonomische Perspektive auf die deutsche Volkswirtschaft Von Bernd Raffelhüschen und Johannes Vatter

I. Einleitung Noch vor zehn Jahren galt Deutschland als kranker Mann Europas. Zwischen 1993 und 2003 lag das Wirtschaftswachstum hierzulande nur rund halb so hoch wie im Rest Europas. Die Arbeitslosenquote nahm Anlauf auf die 10-Prozent-Marke und die Einkommensungleichheit erreichte für die Bundesrepublik bislang unbekannte Ausmaße. Die positiven Impulse durch die Euroeinführung ließen auf sich warten und Deutschland riss mit als erstes Land die Defizitgrenze von drei Prozent. Nicht wenige Beobachter befürchteten, dass sich die Stagnation zu einer schweren Depression entwickeln könnte. Es war aber auch die Zeit weitreichender Reformen, sowohl im Hinblick auf den Arbeitsmarkt als auch im Rahmen der Sozialversicherung. Ob die Zusammenlegung von Arbeitslosen- und Sozialhilfe, die Einführung flexibler Elemente am Arbeitsmarkt oder die Schritte hin zu einer nachhaltigeren Gesundheits- und Rentenpolitik – selten hat die Republik eine derart intensive Periode innenpolitischer Reformen erlebt wie in den Jahren 2003 bis 2005. Heute, d. h. im Jahr 2013, wird Deutschland als Insel der Glückseligkeit tituliert. Das Wirtschaftswachstum der vergangenen fünf Jahre lag deutlich über dem europäischen Umfeld, die Arbeitslosenquote hat sich seit ihrem Höchststand im Jahr 2005 und trotz der tiefen Rezession des Jahres 2009 nahezu halbiert und die Markteinkommen driften (vor allem aufgrund des Beschäftigungszuwachses) nicht weiter auseinander. Während sich zahlreiche Euroländer in einer chronischen Rezession befinden und hohe Defizite aufhäufen, bewegt sich der deutsche Staatshaushalt bei moderatem Wachstum auf eine schwarze Null zu. Deutschland gilt als Garant für Stabilität und Wohlstand. Im Folgenden soll dieser offensichtliche Erfolg näher beleuchtet werden. Im Kern steht dabei die Frage, ob sich die gesellschaftliche Lebensqualität

144

Bernd Raffelhüschen und Johannes Vatter

in den vergangenen Jahren tatsächlich gemäß der beschriebenen ökonomischen Wiederbelebung verändert hat, und wenn ja, welche Einflussgrößen hierbei von zentraler Bedeutung waren. Hierzu greifen wir auf ein Instrument zurück, welches die wirtschaftswissenschaftliche Disziplin nun schon seit einigen Jahren intensiv beschäftigt. Gemeint ist die ökonomische Zufriedenheitsforschung, die sich in den vergangenen zwei Jahrzehnten in den Wirtschaftswissenschaften weitgehend etablieren konnte und sich noch immer eines großen Interesses erfreut. Aus unserer Sicht bietet die Zufriedenheitsforschung dabei eine durchaus instruktive Perspektive auf grundlegende makroökonomische Zusammenhänge und ihre Wohlfahrtswirkung. Hierzu sei angemerkt, dass unser Beitrag nur einige wenige Beobachtungen zu wesentlichen Trends und Veränderungen anstellt, wobei der Fokus vor allem auf dem Wirtschaftswachstum und dem Arbeitsmarkt liegt. Sämtliche geldpolitischen Aspekte finden dagegen aufgrund der noch immer ausgeprägten und mehrheitlich undurchsichtigen Risiken im europäischen Währungsraum keine nähere Beachtung. Weiterhin sei zur Beruhigung all jener angemerkt, die der Zufriedenheitsforschung aus einer liberalen Sichtweise skeptisch gegenüberstehen, dass dieser Beitrag keinerlei politische Interventionen oder Maßnahmen nahelegt bzw. anregt. Ziel ist es vielmehr, zu einer konsistenteren Wahrnehmung grundlegender Zusammenhänge beizutragen. Der Beitrag ist dabei wie folgt gegliedert: Das nachfolgende zweite Kapitel enthält zunächst einige Querverweise zur Diskussion über den Mehrwert der Zufriedenheitsforschung als Instrument der Wohlfahrtsmessung. In Kapitel III. werfen wir einen Blick auf die Entwicklung der Lebenszufriedenheit in Deutschland und dem europäischen Umland. Von Interesse ist dabei in erster Linie, inwieweit die subjektiven Daten mit der eingangs beschriebenen Entwicklung übereinstimmen. In Anbetracht der seit Jahren immer wieder aufkommenden Diskussion über die Notwendigkeit von Wirtschaftswachstum, liegt der Schwerpunkt des Beitrags auf der Beziehung zwischen Wachstum und subjektiver Lebenszufriedenheit (Kapitel IV.). Hierbei geht es uns einerseits darum, darzulegen, weshalb wirtschaftliches Wachstum auch heute noch essenziell für die Lebensqualität in Deutschland ist, andererseits soll in diesem Kontext auf die Veränderungen hingewiesen werden, denen diese Beziehung zuletzt ausgesetzt war. Daran anschließend geht Kapitel V. auf den tiefgreifenden Wandel am deutschen Arbeitsmarkt ein, welcher ebenfalls in enger Beziehung zu den Größen des Wirtschaftswachstums und der gesellschaftlichen Wohlfahrt steht, bevor im sechsten Kapitel ein durchaus optimistischer Blick auf die kommenden Jahre geworfen wird. Der Beitrag endet mit einer Zusammenfassung (Kapitel VII.).



Vom kranken Mann Europas zur Insel der Glückseligkeit

145

II. Zufriedenheitsforschung als Instrument der Wohlfahrtsmessung? Die Beurteilung der gesellschaftlichen Lebensqualität bzw. der sozialen Wohlfahrt durch Ökonomen erfolgt bis heute in aller Regel unter Verweis auf die objektiven Lebensbedingungen der Menschen. Ausgehend von einer makroökonomischen Perspektive geht es einem Land vor allem dann gut, wenn das Konsumniveau hoch, die Arbeitslosigkeit gering und die Preissteigerung moderat ausfällt. Dementsprechend lassen sich anhand der ökonomischen Entwicklungen der Vergangenheit auch relativ gesicherte Aussagen darüber treffen, wann es der Bevölkerung in Deutschland verhältnismäßig gut und wann weniger gut erging. So steht etwa außer Frage, dass es der westdeutschen Bevölkerung in den vom Wirtschaftswunder geprägten 1960er Jahren wesentlich besser erging als in den durch den zweiten Weltkrieg und dessen Folgen stark eingetrübten 1940er Jahren. Die Veränderungen der materiellen Lebensbedingungen waren derart umfassend, dass eine eingehendere Vermessung der sozialen Wohlfahrt nicht notwendig erschien. Betrachtet man allerdings die jüngere Vergangenheit, stellt sich die Lage keineswegs so eindeutig dar. Zwar lassen sich auch mit Blick auf die letzten Jahrzehnte deutliche Verbesserungen der ökonomischen Rahmenbedingungen feststellen, gleichwohl fällt die subjektive Perspektive häufig ambivalent aus: Waren die 1970er, 80er oder 90er Jahre tatsächlich weniger lebenswert als die heutige Zeit? Vieles deutet darauf hin, dass die absoluten ökonomischen Größen seit Mitte des 20. Jahrhunderts an Bedeutung für die gesellschaftliche Lebensqualität eingebüßt haben, während relative Einkommensgrößen und andere, nicht materielle Faktoren entsprechend wichtig geblieben bzw. wichtiger geworden sind. Als nicht primär ökonomische Einflussfaktoren sind hier etwa die Umweltqualität oder die innere und äußere Sicherheit zu nennen – Themen die im Zuge der 1970er und 1980er Jahre stark an relativer Bedeutung hinzugewonnen haben. Im Hinblick auf die abnehmende Bedeutung absoluter Einkommensgrößen mag ein Vergleich als Illustration dienen: Die Kaufkraft eines Sozialhilfeempfängers von heute liegt – legt man die Kerndaten des statistischen Bundesamtes zur allgemeinen Lohn- und Preisentwicklung zugrunde – über der Kaufkraft des durchschnittlichen Einkommens des Jahres 1960. Dennoch würde womöglich kaum jemand annehmen, dass es dem Sozialhilfeempfänger von heute besser ergeht als dem Durchschnittsbürger des Jahres 1960. In anderen Worten: Dem absoluten Kaufkraftzuwachs wird inzwischen mehrheitlich eine geringere Bedeutung zugemessen als dem relativen. Diese seit einigen Jahrzehnten spürbare Diskrepanz zwischen der ökonomischen und der allgemeinen sozialen Wohlfahrt stellt ein wesentliches Mo-

146

Bernd Raffelhüschen und Johannes Vatter

tiv für die Entstehung der (ökonomischen) Zufriedenheitsforschung dar.1 Um ein umfassendes Bild über die Lebensqualität zu bekommen und als alternativer Zugang zur Wohlfahrtsmessung, wurde bereits in den 1970er Jahren in zahlreichen Ländern damit begonnen, repräsentative Befragungen zur subjektiven Lebenszufriedenheit durchzuführen. Für Europa nimmt das Eurobarometer seit seiner Gründung im Jahr 1973 hierbei eine wesentliche Rolle ein. In Deutschland bildet seit dem Jahr 1984 das Sozio-oekonomische Panel (SOEP) das Maß aller Dinge bei der Vermessung des subjektiven Wohlbefindens.2 Die Frage „Wie zufrieden sind Sie, alles in allem, mit Ihrem Leben?“ mit ihrer 11-stufigen Antwortskala hat sich zu einer vielgenutzten Grundlage der internationalen Zufriedenheitsforschung entwickelt. Die Interpretation der Daten zum subjektiven Wohlbefinden als Näherungswert für die umfassende soziale Wohlfahrt im Sinne der gesamtgesellschaftlichen Lebensqualität, ist jedoch bis heute umstritten. Zwar legen eine Vielzahl von Studien nahe, dass die Befragungsdaten ausreichend reliabel und valide sind.3 Die Eignung für ein gesamtgesellschaftliches Wohlfahrtsmaß wird jedoch u. a. deshalb infrage gestellt, weil die Durchschnittswerte auf mittlere und lange Frist häufig einen relativ konstanten Verlauf zeigen, wodurch offenkundig sei, dass viele objektiven Verbesserungen der Lebenswirklichkeit praktisch nicht abgebildet werden.4 Dieser Einwand erscheint zwar bereits insofern unsinnig, da keineswegs alle Indikatoren auf eine stetige Verbesserung der gesamtgesellschaftlichen Lebensqualität hindeuten; man denke alleine an die Entwicklung der Arbeitslosigkeit in den vergangenen 40 Jahren. Es ist also durchaus denkbar, dass sich positive und negative Entwicklungen zuletzt häufig die Waage gehalten haben. Darüber hinaus zeigen aber Fälle wie die Entwicklung in Ostdeutschland oder die jüngsten Trends innerhalb der Eurozone, dass sich das Niveau der subjektiven Lebenszufriedenheit nicht nur auf der individuellen Ebene, sondern auch auf gesamtgesellschaftlicher Ebene deutlich und anhaltend verändern kann, womit klar sein dürfte, dass sich objektive Veränderungen durchaus auch im mittelund langfristigen Verlauf des subjektiven Wohlbefindens widerspiegeln.5 Eine umfassende Erörterung des Potentials der subjektiven Lebenszufriedenheit als allgemeines Wohlfahrtsmaß, kann an dieser Stelle nicht erfolgen. Wir sehen durch die Erkenntnisse der Zufriedenheitsforschung der verganEasterlin (1974). Wagner et al. (2007). 3  Ein relativ aktueller Überblick über die methodischen Fortschritte und beste­ henden Probleme der Zufriedenheitsforschung stammt von Kahneman / Krueger (2006). 4  Vgl. Sachverständigenrat (2010), S. 68. 5  Vgl. Frijters et al. (2004). 1  Vgl. 2  Vgl.



Vom kranken Mann Europas zur Insel der Glückseligkeit

147

genen Jahre jedoch Grund genug dafür, die subjektive Lebenszufriedenheit zumindest als einen relevanten Indikator für die gesellschaftliche Lebensqualität zu betrachten.

III. Zur Entwicklung der subjektiven Lebenszufriedenheit in Deutschland Ein Blick auf den Verlauf des subjektiven Wohlbefindens der vergangenen zwei Jahrzehnte zeigt, dass die Daten durchaus mit dem eingangs beschriebenen Bild übereinstimmen, wonach die Lebensqualität zuletzt angestiegen ist. Abbildung 1 zeigt den zeitlichen Verlauf der durchschnittlichen Lebenszufriedenheit für die Jahre 1992 bis 2010. Dabei ist zu sehen, dass – ähnlich wie in vielen anderen Industrienationen – die Erhebungen keinen eindeutigen Trend aufweisen. Vielmehr schwankt die Zufriedenheit seit den frühen 1990er Jahren um einen Wert von knapp 7,0, wobei die unmittelbare Zeit nach der deutschen Einheit, eine kurze Periode um die Jahrhundertwende sowie das Jahr 2010 als lokale Höhepunkte und die Jahre 1997 und 2004 als lokale Tiefpunkte zu nennen sind. Ohne die Daten an dieser Stelle mit jenen zur wirtschaftlichen Entwicklung zu kontrastieren, mag dem geneigten Leser dabei eine gewisse Übereinstimmung mit den Konjunkturzyklen nicht verborgen bleiben.

Quelle: Sozio-oekonomisches Panel (1992 bis 2010).

Abbildung 1: Subjektive Lebenszufriedenheit in Deutschland im Zeitablauf

148

Bernd Raffelhüschen und Johannes Vatter

Ein näherer Blick auf die separierten Zeitreihen für West- und Ostdeutschland weist einerseits auf die grundsätzliche Parallelität der Entwicklung und andererseits auf wiederkehrende Phasen der Konvergenz hin. So kam es in Ostdeutschland zwischen dem Jahr 1992 und den späten 1990er Jahren zu einer ersten und seit Mitte der 2000er Jahre zu einer zweiten Phase der Annäherung, bei der die neuen Bundesländer über den gesamten Zeitraum im Durchschnitt immerhin um über 0,6 Punkte zulegen konnten, während die Lebenszufriedenheit in Westdeutschland eher stagnierte und regelmäßig sogar unter den Werten der frühen 1990er Jahren lag.6 Am aktuellen Rand, d. h. seit dem Jahr 2004, lässt sich jedoch auch für Westdeutschland ein leicht positiver Trend feststellen, so dass die subjektive Lebenszufriedenheit auch im gesamtdeutschen Mittel bis 2010 um mehr als 0,3 Zähler zulegen konnte.7 Wirklich günstig stellt sich die derzeitige Lage Deutschlands jedoch dar, wenn man einen Vergleich mit den europäischen Nachbarländern anstellt. Denn spätestens seit der Zuspitzung der makroökonomischen Schieflage innerhalb der Eurozone, erlebt Europa eine deutliche Divergenz der Zufriedenheitswerte.8 Während die Mehrheit der südeuropäischen Länder einen erheblichen Rückgang der Zufriedenheit zu verzeichnen hat, befindet sich Deutschland, eindeutig auf der Sonnenseite. Tabelle 1 zeigt das Zufriedenheitsniveau in 28 EU-Staaten und der Türkei für die Jahre 2006 und 2011. Mit einem Anstieg auf zuletzt 7,1 ist die Lebenszufriedenheit in Deutschland zwar nach wie vor nicht herausragend, aber auch der Eurobarometer weist – ähnlich wie das SOEP – einen deutlichen Aufwärtstrend der Lebenszufriedenheit für diesen Zeitraum aus. Insbesondere in den viel diskutierten Krisenstaaten Griechenland (–1,7), Spanien (–1,1), Portugal (–0,7) und Italien (–0,5) bringen die Daten dagegen exakt jene Unsicherheit und Frustration zum Ausdruck, die die ökonomischen Rahmendaten vermuten lassen. Unbeeindruckt von alledem und höchst zufrieden zeigen sich dagegen die skandinavischen Länder. An erster Stelle steht Dänemark (8,9), das regelmäßig an der Spitze im internationalen Vergleich steht. Aber auch die Werte für die Niederlande (8,3) und Schweden (8,1) deuten auf gut funktionierende und äußerst zufriedene Gesellschaften hin. Unter den bevölkerungs6  Zur Konvergenz zwischen West- und Ostdeutschland vgl. auch Maddison / Rehdanz (2007) sowie Raffelhüschen / Vatter (2012). 7  Dieser jüngste Anstieg innerhalb der vergangenen Jahre lässt sich auch in anderen Erhebungen erkennen. Vgl. hierzu etwa die Befragungsergebnisse des European Social Survey. 8  Ein Blick auf Tabelle 1 zeigt, dass von den zehn unzufriedensten Ländern neun einen Rückgang der Lebenszufriedenheit seit 2006 erlebt haben. Im Gegensatz dazu blieb die Zufriedenheit unter den glücklichsten Ländern mehrheitlich auf einem sehr hohen Niveau.



Vom kranken Mann Europas zur Insel der Glückseligkeit

149

Tabelle 1 Lebenszufriedenheit in Europa in den Jahren 2006 und 2011 Rang 2011

Rang 2006

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29

(1) (3) (2) (4) (5) (8) (7) (6) (15) (12) (9) (10) (10) (13) (16) (19) (11) (22) (20) (21) (18) (17) (24) (25) (27) (28) (26) (23) (29)

Land Dänemark Niederlande Schweden Luxemburg Finnland Großbritannien Belgien Irland Deutschland Österreich Zypern Slowenien Malta Frankreich Tschechien Polen Spanien Slowakei Kroatien Estland Italien Türkei Lettland Litauen Ungarn Rumänien Portugal Griechenland Bulgarien

2011

2006

Trend

8.9 8.3 8.1 7.8 7.6 7.5 7.2 7.2 7.1 6.8 6.8 6.7 6.6 6.4 6.3 6.2 6.0 6.0 5.9 5.7 5.7 5.5 5.4 5.2 4.7 4.4 4.4 4.1 4.0

8.7 8.1 8.1 7.9 7.6 7.3 7.4 7.6 6.6 6.8 7.2 7.1 6.6 6.6 6.4 6.0 7.1 5.8 6.0 6.0 6.2 6.2 5.5 5.5 4.9 4.6 5.1 5.8 3.6

(+) (+) (○) (–) (○) (+) (–) (– –) (++) (○) (– –) (– –) (○) (–) (○) (+) (– – –) (+) (–) (–) (– –) (– – –) (–) (–) (–) (–) (– – –) (– – –) (++)

Quelle: Eurobarometer (2006 und 2011). Anmerkungen: Die Skalierung basiert auf der Zuweisung folgender Werte: „sehr zufrieden“ = 10, „ziemlich zufrieden“ = 6,66, „nicht sehr zufrieden“ = 3,33 und „überhaupt nicht zufrieden“ = 0. Der Indexwert setzt sich entsprechend aus den mit den anteiligen Antworten gewichteten Werten zusammen. Die Trendangabe bezieht sich auf die Differenz zwischen dem Indexwert von 2006 und 2011, wobei ein Pluszeichen einen Anstieg von mindestens 0,2, zwei Pluszeichen einen Anstieg von mindestens 0,4 und drei Pluszeichen einen Anstieg von mindestens 0,6 anzeigen (Minuszeichen entsprechend).

150

Bernd Raffelhüschen und Johannes Vatter

starken Nationen, schneidet Großbritannien (7,5) am besten ab. Ähnlich wie Deutschland, ist das Land zumindest was das subjektive Empfinden betrifft vergleichsweise gut durch die Krisensituation der zurückliegenden Jahre gekommen. Die Zahlen für Frankreich deuten dagegen eher auf eine Stagnation hin (6,4). Ausgehend von diesen Daten lässt sich festhalten, dass die subjektive Lebenszufriedenheit in Deutschland zum heutigen Zeitpunkt nicht nur über dem Niveau der Stagnationsphase in der Mitte der 2000er Jahre liegt, sondern dass die Lage in Deutschland vor allem auch vor dem Hintergrund des europäischen Umlandes positiv zu bewerten ist.

IV. Zur Notwendigkeit des Wirtschaftswachstums Die übergeordnete Debatte der ökonomischen Zufriedenheitsforschung dreht sich seit jeher um die Frage, inwieweit wirtschaftliches Wachstum in entwickelten Ländern überhaupt noch maßgeblich für die Lebensqualität der Menschen ist.9 Während bis zum Jahr 2000 die Mehrzahl der Publikationen den Zusammenhang von Wirtschaftswachstum und subjektivem Wohlbefinden infrage stellte10, weisen neuere Untersuchungen unter Verwendung umfangreicherer und höherwertigerer Daten auf einen signifikanten Zusammenhang von Wirtschaftsdynamik und allgemeiner Lebensqualität hin11, wodurch der wesentliche Angriff auf die neoklassische Ökonomie abgewehrt sein dürfte.12 Trotz der Bedeutung, die dem Bruttoinlandsprodukt nun wieder zugeschrieben wird, stellt sich jedoch die Frage, weshalb die Effekte, welche von der Wirtschaftsleistung ausgehen, verhältnismäßig klein ausfallen. Hierzu haben sich in den vergangenen Jahren mehrere Theorien etabliert.13 Neben der allgemeinen Logik des abnehmenden Grenznutzens, wonach die bereits seit Jahrzehnten erfolgte Befriedigung wesentlicher Konsumbedürfnisse naturgemäß wenig Spiel für weitere Verbesserung lässt, wird dabei insbesondere die Adaptation an höhere Konsumniveaus als zentral für den geringen Zusammenhang zwischen Wachstum und Lebenszufriedenheit angesehen. Zur Erklärung der individuellen Nutzenzugewinne im Zuge von Einkommenssprüngen verweist die Forschungsgemeinde dagegen auf die gleichbleibend hohe Bedeutung relativer Einkommens- und Konsumgrößen. Ausgangspunkt für diese Diskussion gilt die Arbeit von Easterlin (1974). u. a. Easterlin (1995) sowie Oswald (1997). 11  Vgl. u. a. Di Tella et al. (2003), Deaton (2008) sowie Stevenson / Wolfers (2008). 12  Vgl. auch Weimann et al. (2012), S. 117 ff. 13  Für einen Überblick s. Clark et al. (2008). 9  Als

10  Vgl.



Vom kranken Mann Europas zur Insel der Glückseligkeit

151

Quelle: Sozio-oekonomisches Panel (1992 bis 2010) sowie statistisches Bundesamt.

Abbildung 2: Subjektive Lebenszufriedenheit, Bruttoinlandsprodukt und Lohnentwicklung

Sie dienen neben der Adaptation maßgeblich dazu, die Diskrepanz der Bedeutung von Einkommen zwischen der mikro- und der makroökonomischen Ebene zu erklären.14 Mit Blick auf die Entwicklung der subjektiven Lebenszufriedenheit in Deutschland kommt jedoch ein weiterer wesentlicher Faktor hinzu, der im Rahmen dieser Diskussion häufig übersehen wird: So blieb das Lohnwachstum in Deutschland seit den frühen 1990er Jahren deutlich hinter dem realen Wirtschaftswachstum zurück. Abbildung 2 stellt die Entwicklung des BIP pro Kopf, die Reallöhne sowie der Lebenszufriedenheit einander gegenüber. Während das BIP pro Kopf zwischen 1992 und 2010 real um mehr als 20 Prozent zulegen konnte, blieben die Reallöhne zu großen Teilen unverändert. Das Wirtschaftswachstum machte sich stattdessen durch eine Ausdehnung von Kapitaleinkommen, eine Ausweitung der Erwerbsbeteiligung sowie durch erhebliche Gehaltszuwächse kleinerer, meist hochqualifizierter Teile der Erwerbsbevölkerung bemerkbar. Das Gros der Menschen musste dagegen auf eine Ausdehnung ihrer ökonomischen Möglichkeiten verzichten. Die Lohnzurückhaltung der vergangenen beiden Dekaden mag vor dem Hintergrund der deutschen Wiedervereinigung, des sich intensivierenden 14  Vgl.

ebd.

152

Bernd Raffelhüschen und Johannes Vatter

Quellen: Statistisches Bundesamt sowie SOEP. Anmerkungen: Die dunkle Trendlinie zeigt den Zusammenhang für den Zeitraum von 1992 bis 2008. Die helle Trendlinie bezieht sich auf die Jahre 2005 bis 2010.

Abbildung 3: Entwicklung von BIP und Lebenszufriedenheit

internationalen Wettbewerbs sowie der damit verbundenen Massenarbeitslosigkeit durchaus sinnvoll erscheinen. Gleichzeitig ist es daher aber wenig verwunderlich, dass das Wirtschaftswachstum nicht zu einem Mehr an subjektiver Lebensqualität geführt hat. Dennoch käme es einem großen Irrtum gleich, das vergangene Wirtschaftswachstum als obsolet zu betrachten. Denn die Tatsache, dass der Zuwachs an Gütern und Dienstleistungen seit der Wiedervereinigung zu keinem erkennbaren Anstieg der subjektiven Lebensqualität geführt hat, sagt noch nichts über den Einfluss des Wirtschaftswachstums aus. Entscheidend ist schließlich die Frage, wie sich die subjektive Lebenszufriedenheit entwickelt hätte, wenn sich die deutsche Volkswirtschaft über zwanzig Jahre in einer Stagnation befunden hätte. Um dies zu beantworten hilft ein Blick auf die konjunkturellen Schwankungen. Abbildung 3 stellt die reale Pro-Kopf-Wachstumsrate den Veränderungen der subjektiven Lebenszufriedenheit gegenüber. Betrachtet man die Jahreszahlen, lassen sich auf der linken Diagrammhälfte jene Jahre erkennen, in denen die deutsche Wirtschaft seit der Wiedervereinigung geschrumpft ist. Umgekehrt zeigen sich am rechten Rand die Phasen der Hochkonjunktur bzw. Jahre einer kräftigen wirtschaftlichen Erholung. In Kombination mit den Veränderungen der Lebenszufriedenheit ergibt sich ein relativ deutlicher



Vom kranken Mann Europas zur Insel der Glückseligkeit

153

positiver Zusammenhang. Während in Phasen eines Wirtschaftswachstums von mehr als 1,5 Prozent regelmäßig auch ein Anstieg der Lebenszufriedenheit zu verzeichnen war, zeigt sich für Jahre mit geringem oder sogar negativem Wirtschaftswachstum mehrheitlich eine Abnahme der subjektiven Lebenszufriedenheit. Schließt man das Krisenjahr 2009 aus der Betrachtung aus, ergibt sich ein Korrelationskoeffizient von immerhin 0,61.15 Es kann daher angenommen werden, dass die subjektive Lebenszufriedenheit im Falle einer 20 Jahre langen Stagnation deutlich unterhalb des heutigen Niveaus liegen würde. In anderen Worten: Um die Lebenszufriedenheit stabil zu halten, bedurfte es mit Blick auf den betrachteten Zeitraum einer jähr­ lichen Wachstumsrate zwischen einem und zwei Prozent. Zu beachten dabei ist jedoch, dass diese „zufriedenheitsneutrale Wachstumsrate“ keinesfalls als eine Konstante zu sehen ist. Darauf deutet insbesondere das Krisenjahr 2009 hin. Obwohl das reale Bruttoinlandsprodukt um mehr als 5 Prozent einbrach, hat sich die Lebenszufriedenheit zwischen den Jahren 2008 und 2010 signifikant erhöht. Diese demonstrative Gelassenheit der Menschen ist umso erstaunlicher, vergleicht man die Dimension der Krise mit dem eigentlich relativ überschaubaren Ausmaß vorangegangener Rezessionen. In den Jahren 1993 und 2003 lag der Rückgang der Wirtschaftsleistung bei 1,7 bzw. 0,4 Prozent, und dennoch folgte der ökonomischen Schwächephase eine erkennbare Unzufriedenheit. Während 1993 das Jahr der Ernüchterung nach dem anfänglichen Boom der Wendejahre war, steht das Jahr 2003 für die anhaltende Stagnation und Gelähmtheit der 2000er Jahre. Das Jahr 2009 scheint die Bevölkerung trotz des weitaus schärferen Produktionsrückgangs dagegen kaum in ihrer Stimmung beeinträchtigt zu haben. Betrachtet man das durchschnittliche Wachstum der Jahre 2005 bis 2010, so lag dieses bei ca. 1,5 Prozent und damit nicht über dem langfristigen Mittel seit 1990. Und trotzdem kam es zu einem deut­ lichen Anstieg der Lebenszufriedenheit.

V. Arbeitsmarkt als treibender Faktor Der wesentliche Grund sowohl für die Harmlosigkeit der Krise des Jahres 2009 als auch für den Anstieg der Lebenszufriedenheit liegt im Arbeitsmarkt. Dass das Wirtschaftswachstum auch dann essenziell für die Lebenszufriedenheit ist, wenn die große Mehrzahl der Löhne real unverändert 15  Noch deutlicher wird die Bedeutung des Wirtschaftswachstums, sofern man einen Blick auf die regionalen Entwicklungen innerhalb Deutschlands wirft. Auch hier gilt: Jene Regionen, die eine besonders intensive wirtschaftliche Dynamik erlebt haben, konnten tendenziell auch auf einen Anstieg bei der Lebenszufriedenheit hoffen. Vgl. hierzu Raffelhüschen / Vatter (2012).

154

Bernd Raffelhüschen und Johannes Vatter

Quellen: Bundesagentur für Arbeit sowie SOEP (1992 bis 2010).

Abbildung 4: Arbeitslosenquoten und Lebenszufriedenheit in West- und Ostdeutschland

bleibt, ist rückblickend vor allem mit den positiven Folgen für den Arbeitsmarkt zu erklären, der ohne Wachstum dazu neigt, eine steigende Zahl von Arbeitslosen zu produzieren. Das Wirtschaftswachstum der 1990er und 2000er Jahre war somit vor allem Mittel zum Zweck. Ein dauerhaftes Ausbleiben wirtschaftlicher Dynamik hätte schlicht zu einem noch stärkeren Anstieg der Arbeitslosigkeit geführt. Und das Phänomen der Arbeitslosigkeit wiederum – dies zeigt die Zufriedenheitsforschung mehr als deutlich – stellt auch dann ein wesentliches gesellschaftliches Wohlfahrtshemmnis dar, sofern man von der ökonomischen Verschwendung, die mit Arbeitslosigkeit einhergeht, einmal absieht.16 Welch hervorgehobene Rolle die Entwicklung des Arbeitsmarktes für die subjektive Lebenszufriedenheit spielt, lässt sich erahnen, wenn man die Dynamik der vergangenen Jahre betrachtet. Abbildung 4 zeigt die Lebenszufriedenheit in West- und Ostdeutschland in Abhängigkeit der Arbeitslosenquote. Zu erkennen sind zunächst die deutlichen Unterschiede zwischen den beiden Landesteilen, wobei die neuen Bundesländer für mehr als eine Dekade mit Arbeitslosenquoten von knapp 20 Prozent zu leben hatten, während die Arbeitslosigkeit in Westdeutschland selten über 10 Prozent lag. Gleichzeitig zeigt sich aber auch der Wandel, welcher sich seit dem Jahr 16  Vgl.

z. B. Winkelmann / Winkelmann (1998) sowie Di Tella et al. (2001).



Vom kranken Mann Europas zur Insel der Glückseligkeit

155

Tabelle 2 Arbeitslosigkeit und Wirtschaftsleistung als Indikatoren regionaler Lebenszufriedenheit Variable

Koeffizient

Wachstum des Bruttoinlandsprodukt je Einwohner um zehn Prozent (real)

0,013

Absinken der Arbeitslosenquote um ein Prozentpunkt

0,050

Quelle: Eigene Berechnungen auf Basis des SOEP (1995 bis 2010), Bundesagentur für Arbeit und VGRdL. Anmerkungen: OLS-Schätzung mit den regionalen Zufriedenheitswerten als zu erklärende Variable unter Verwendung von Jahresdummies, 303 Beobachtungen, t-Werte: Arbeitslosenquote: –11,65; ln(BIP): 1,46.

2004 vollzogen hat. Sowohl in West- als auch in Ostdeutschland kam es zu einem starken Abbau der Arbeitslosigkeit und zu deutlich ansteigenden Zufriedenheitswerten. Dies wirft nicht zuletzt auch ein positives Licht auf die Agendapolitik der Jahre 2003 bis 2005, welche maßgeblich zum Beschäftigungsaufbau der vergangenen Jahre beigetragen und dabei auch die Wachstumsschwelle, ab welcher es zu einem Beschäftigungsaufbau kommt, signifikant verschoben haben dürfte. Dass es sich zuletzt bei der Arbeitslosigkeit und nicht beim Wirtschaftswachstum um die eigentlich treibende Größe der Lebenszufriedenheit handelte, macht auch ein Blick auf die einzelnen Regionen innerhalb Deutschlands deutlich. Hierfür haben wir die SOEP-Daten in Anlehnung an die Bundesland- und Regierungsbezirksgrenzen in 19 Regionen unterteilt.17 Tabelle 2 weist die Ergebnisse einer einfachen linearen Regressionsanalyse aus, wobei die regionalen Durchschnittswerte der Lebenszufriedenheit als abhängige Variable und die regionalen Arbeitslosenquoten und Wirtschaftswachstumsraten als unabhängige Variablen Verwendung finden. Die Ergebnisse fallen deutlich aus. Die Arbeitslosenquote erweist sich als der eigentliche Bestimmungsfaktor, wohingegen die Höhe der Wirtschaftsleistung kaum etwas zur Erklärung der regionalen Zufriedenheitsunterschiede und deren Entwicklungen beiträgt. Mit einer fast viermal höheren Effektstärke legt die Schätzung nahe, dass eine ein prozentige Veränderung der Arbeitslosenquote weit mehr Einfluss auf die Lebenszufriedenheit besitzt als ein zehnprozentiger Anstieg der regionalen Wirtschaftsleistung. 17  Zur

genauen Aufteilung vgl. Raffelhüschen / Vatter (2012), S. 37 ff.

156

Bernd Raffelhüschen und Johannes Vatter

VI. Ein Ausblick: Ruhestandsberg und Lohnwachstum Während die Renditen der Arbeitsmarktreformen inzwischen weitgehend realisiert sein dürften, steht der deutschen Volkswirtschaft in den kommenden Jahren ein zweiter mindestens ebenso weitreichender Umbruch bevor. Nachdem der deutsche Arbeitsmarkt in den vergangenen 30 Jahren aufgrund der Babyboomer-Jahrgänge mit einem verhältnismäßig großen Reservoir an Arbeitskräften gesättigt war, verkehrt sich die Altersstruktur nun in ihr Gegenteil. Die deutliche Ausweitung der Erwerbsbeteiligung unter Frauen und älteren Personengruppen sowie die erfolgreiche Bekämpfung der Arbeitslosigkeit führten zwar noch einmal dazu, dass in den Jahren 2010 bis 2013 ein Höchststand mit Blick auf die Beschäftigtenzahlen erreicht wurde. Spätestens ab dem Jahr 2015 dürfte sich das Beschäftigungsvolumen jedoch deutlich reduzieren. Die gängigen Bevölkerungsprojektionen lassen keinen Zweifel daran, dass die Zahl der Menschen, die den Arbeitsmarkt aus Altersgründen verlassen schon in Kürze deutlich höher ausfällt als die Zahl der nachrückenden jungen Erwerbstätigen. Abbildung 5 zeigt jeweils die projizierte Anzahl von 20-Jährigen und 65-Jährigen. Bis 2020 ist von einer jährlichen Differenz von 200.000 Personen auszugehen, bis 2030 dürfte diese Lücke auf mehr als eine halbe Million Menschen ansteigen. Insgesamt dürfte sich die Zahl der Erwerbspersonen von zuletzt knapp 44 Millionen auf unter 40 Millionen und damit um mehr als 10 Prozent verringern.18 Welche Folgen hat dies auf die gesellschaftliche Lebensqualität? Hierzu lassen sich zwei zentrale Argumente nennen. Grundsätzlich darf angenommen werden, dass sich die Verhandlungsposition der arbeitnehmenden Bevölkerung in den kommenden Jahren erkennbar verbessern wird. Vor dem Hintergrund der bereits heute deutlich gesunkenen Arbeitslosigkeit sowie der zweifellos bestehenden internationalen Wettbewerbsfähigkeit wäre es ein allzu großes Opfer der Beschäftigten, würden die Reallöhne auch in diesem Jahrzehnt stagnieren. Wahrscheinlicher ist, dass es in den kommenden Jahren zu deutlichen Reallohnsteigerungen kommt. Dies lässt darauf hoffen, dass trotz eines verhältnismäßig geringen Wachstumspotentials, ein Zugewinn an sozialer Wohlfahrt möglich ist. Neben potentiellen Reallohnsteigerungen ist zudem damit zu rechnen, dass sich die Verknappung des Erwerbspersonenpotentials auch positiv auf die Qualität der Beschäftigungsverhältnisse auswirkt. Wirft man weiterhin einen Blick auf diejenigen, welche in den kommenden Jahren aus dem Arbeitsleben ausscheiden, lässt sich auch hier ein posi18  Vgl.

Ehing / Moog (2013).



Vom kranken Mann Europas zur Insel der Glückseligkeit

Quellen: Bundesagentur für Arbeit sowie SOEP (1992 bis 2010).

Abbildung 5: Arbeitslosenquoten und Lebenszufriedenheit in West- und Ostdeutschland

Quellen: Eigene Berechnungen auf Basis des SOEP (1992 bis 2010).

Abbildung 6: Lebenszufriedenheit im Zuge der Beendigung der Erwerbstätigkeit

157

158

Bernd Raffelhüschen und Johannes Vatter

tives Bild zeichnen. Die Zufriedenheitsdaten der letzten Jahrzehnte zeigen, dass der Übergang von der Erwerbsphase zur Rentenphase in der Mehrzahl der Fälle mit einem Anstieg der Lebenszufriedenheit einhergeht (vgl. Abbildung 6). Insbesondere die Altersphase zwischen 65 und 75 Jahren bietet für viele Menschen noch einmal die Möglichkeit, sich frei von beruflichen Zwängen selbstbestimmt neu zu orientieren oder schlicht die Entlastung des Ruhestandes zu genießen. Die gesundheitlichen Lasten des Alters dominieren das Bild dagegen erst ab einem Alter von über 75 Jahren, wenn immer größere Teile einzelner Kohorten krank, pflegebedürftig oder verwitwet sind. Bis dahin bieten die Altersjahre jedoch eine Zeit verhältnismäßig ­hoher Lebensqualität. Das Absinken des Rentenniveaus mag dabei eine dämpfende Wirkung entfalten. Mehrheitlich kann jedoch nicht von einem Rückgang der Kaufkraft bei Rentnerhaushalten ausgegangen werden, so dass die bevorstehende Ruhestandswelle aller Voraussicht auch zu einem gesamtgesellschaftlichen Anstieg der Lebensqualität beitragen dürfte. Spätestens in den 2020er Jahren – so ist zu befürchten – überwiegen jedoch die Nachteile des demographischen Übergangs. Dann steigt vor allem der Anteil der Hochbetagten deutlich an. So erhöht sich etwa der Anteil der über 80-Jährigen an der Bevölkerung von ca. 9 Prozent im Jahr 2025 auf 15 Prozent im Jahr 2050.

VII. Zusammenfassung Glaubt man der allgemeinen Berichterstattung, geht es Deutschland heute besser als vor zehn Jahren. Wir haben diese These auf der Basis subjektiver Zufriedenheitsdaten überprüft und kommen zum selben Ergebnis. So kam es seit Mitte der 2000er Jahre auch zu einem signifikanten Anstieg bei der subjektiven Lebenszufriedenheit. Betrachtet man jedoch den gesamten Zeitraum seit der Deutschen Wiedervereinigung hat sich die subjektive Lebenszufriedenheit kaum verändert, und dies trotz eines Zuwachses der realen Wirtschaftsleistung um mehr als 20 Prozent. Darin sehen wir jedoch keinen Grund, die wohlfahrtssteigernde Wirkung des Wirtschaftswachstums infrage zu stellen. Vielmehr stellen wir fest, dass die Lebenszufriedenheit ohne ein Wirtschaftswachstum in diesem Ausmaß aller Voraussicht nach auf einem deutlich niedrigeren Stand läge. Insgesamt zeigt sich, dass im langfristigen Mittel eines jährlichen Wachstums zwischen einem und zwei Prozent bedurfte, um die Lebenszufriedenheit zu stabilisieren. So hat das Wirtschaftswachstum in den vergangenen zwei Jahrzehnten insbesondere eine zentrale Rolle für die Stabilisierung der Beschäftigung gespielt. Ein direkter Effekt des Wirtschaftswachstums in Form steigender Reallöhne kann im Hinblick auf die jüngere Vergangenheit



Vom kranken Mann Europas zur Insel der Glückseligkeit

159

hingegen nicht festgestellt werden. Als treibender Bestimmungsfaktor der subjektiven Lebenszufriedenheit konnte dagegen die Arbeitslosenquote identifiziert werden. So ist der jüngste Anstieg der Lebenszufriedenheit in erster Linie den strukturellen Beschäftigungserfolgen der vergangenen zehn Jahre zuzuschreiben. Für die kommenden Jahre sprechen zwei wesentliche Argumente für eine anhaltend hohe gesamtgesellschaftliche Lebenszufriedenheit. Zum einen darf im Zuge der demografischen Umbruchsituation und nach über zwanzig Jahren der Lohnzurückhaltung wieder verstärkt mit Kaufkraftzuwächsen gerechnet werden. Zum anderen steht mit der Generation des Baby-Booms ein erheblicher Teil der Bevölkerung vor einer Phase potentiell hoher Lebensqualität.

Epilog Bernd Raffelhüschen wurde 1995 direkter Kollege von Hans-Hermann Francke auf dem zweiten finanzwissenschaftlichen Lehrstuhl der Universität Freiburg und blieb dies bis zu dessen Emeritierung im Jahr 2010. Seitdem fehlt ihm etwas. Vielen Dank für die gemeinsame Zeit. Johannes Vatter war von 2007 bis 2008 wissenschaftliche Hilfskraft am Lehrstuhl von Hans-Hermann Francke und betreute insbesondere die makroökonomischen Grundlagenveranstaltungen. Er erlebte Hans-Hermann Francke als charismatischen und unverwechselbaren Lehrer, dessen Veranstaltungen sich sowohl rhetorisch als auch didaktisch deutlich von anderen hervorhoben. Literatur Clark, Andrew E. / Frijters, Paul / Shield, Michael A.: Relative Income, Happiness, and Utility: An Explanation for the Easterlin Paradox and Other Puzzles, in: Journal of Economic Literature, Vol. 46, Heft 1, 2008, S. 95–144. Deaton, Angus: Income, Health, and Well-Being around the World: Evidence from the Gallup World Poll, in: Journal of Economic Perspectives, Vol. 22, Heft 2, 2008, S. 53–72. Di Tella, Rafael / MacCulloch, Robert J. / Oswald, Andrew J.: Preferences over Inflation and Unemployment: Evidence from Survey of Happiness, in: The American Economic Review, Vol. 91, Heft 1, 2001, S. 335–341. – The Macroeconomics of Happiness, in: The Review of Economics and Statistics, Vol. 85, Heft 4, 2003, S. 809–827. Easterlin, Richard A.: Does Economic Growth Improve the Human a Lot? Some Empirical Evidence, in: David, Paul A. / Reder, Melvin W. (Hrsg.): Nations and

160

Bernd Raffelhüschen und Johannes Vatter

Households in Economic Growth: Essays in Honor of Moses Abramowitz, Academic Press 1974, S. 89–125. – Will Raising the Incomes of All Increase the Happiness of All?, in: Journal of Economic Behavior and Organization, Vol. 27, Heft 1, 1995, S. 35–48. Ehing, Daniel / Moog, Stefan: Erwerbspersonen- und Arbeitsvolumenprojektionen bis ins Jahr 2060, in: Journal of Labour Market Research, 2013, erscheint demnächst. Frijters, Paul / Haisken-Denew, John P. / Shields, Michael A.: Money Does Matter! Evidence from Increasing Real Income and Life Satisfaction in East Germany Following Reunification, in: The American Economic Review, Vol. 94, Heft 3, 2004, S. 730–740. Kahneman, Daniel / Krueger, Alan B.: Developments in the Measurement of Subjective Well-Being, in: Journal of Economic Perspectives, Vol. 20, Heft 1, 2006, S. 3–24. Maddison, David / Rehdanz, Katrin: Are Regional Differences in Utility Eliminated over Time? Evidence from Germany, SOEPpapers 16, 2007. Oswald, Andrew J.: Happiness and Economic Performance, in: The Economic Journal 107, Heft 445, 1997, S. 1815–1831. Raffelhüschen, Bernd / Vatter, Johannes: Wie zufrieden ist Deutschland?, in: Deutsche Post Glücksatlas 2012, Knaus, 2012, S. 30–44 und 97–116. Sachverständigenrat (zur Begutachtung der gesamtwirtschaftlichen Entwicklung): Wirtschaftsleistung, Lebensqualität und Nachhaltigkeit: Ein umfassendes Indikatorensystem, Expertise im Auftrag des Deutsch-Französischen Ministerrates, 2010. Stevenson, Betsey / Wolfers, Justin: Economic Growth and Subjective Well-Being: Reassessing the Easterlin Paradox, NBER Working Paper No. 14282, 2008. Wagner, Gert G. / Frick, Joachim R. / Schupp, Jürgen: The German Socio-Economic Panel Study, Evolution and Enhancements, in: Schmollers Jahrbuch, Vol. 127, Heft 1, 2007, S. 139–170. Weinmann, Joachim / Knabe, Andreas / Schöb, Ronnie: Geld macht doch glücklich. Wo die ökonomische Glücksforschung irrt, 2012, Schäffer Poeschel, Stuttgart. Winkelmann, Liliana / Winkelmann, Rainer: Why Are the Unemployed so Unhappy? Evidence from Panel Data, in: Economica, Vol. 65, Heft 257, 1998, S. 1–15.

Telematik: „Von Kommunikation zum Wissen?“ Von Günter Müller

I. Telematik: „Aller Anfang ist schwer“ Man bezeichnet Zeitabschnitte in der Kulturgeschichte der Menschheit oft nach den dominanten Materialien oder Technologien. Danach könnte die Informationsgesellschaft durch Dienste aus den „Wolken“ (cloud Computing) zur Wissensgesellschaft werden. Dienste für alle Gelegenheiten sind heute jederzeit – meist kostenlos – verfügbar und kennzeichnen den Weg von Kommunikation zu zweckorientiertem Wissen bezogen aus dem Internet. Bisher hat das Fach Telematik diese Entwicklung aktiv begleitet. Auch wirtschaftlich hat sich durch die Telematik viel getan. Das Internet erweist sich bis heute als die wesentliche Triebkraft um Transaktionskosten so drastisch zu senken, dass der virtuelle Markt oder die Internetökonomie in Deutschland innerhalb von weniger als 20 Jahren einen Anteil von über 20 % an der Wertschöpfung erringen konnte. Es gilt aber zu bedenken, dass es zunehmend schwieriger wird, die Sicherheit und Privatsphäre aufrechtzuerhalten. Die Grenzen der Internetgesellschaft geraten in Sicht. Da ein Aussteigen oder „Opt-out“ unmöglich scheint, werden in Zukunft weitere wichtige Güter virtualisiert und erhöhen die Abhängigkeiten.

II. Wirtschaft – Telematik: „Welche Kommunikation ist das Ziel?“ Die Telematik, wie wir sie heute definieren, bezeichnet das Zusammenspiel von Kommunikation und Informatik. Die Kommunikation übernimmt den Transport und die Informatik sorgt für die Dienste. Die 80er und 90er Jahre des vorigen Jahrhunderts waren der Zeitraum, in dem sich entschied, dass das Internet zu seiner heutigen hegemonialen Stellung in der Kommunikation aufstieg. Von einer alles beherrschenden Stellung des Internet kann aber erst seit dessen kommerzieller Nutzung gesprochen werden; d. h. nach dem Abschalten des ARPAnet im Jahre 1990. Damals war das Ziel die

162

Günter Müller

Herstellung der technischen Kommunikation, heute ist es die Verbreitung und der Zugang zu Wissen. Sollten vor 1985 Rechner miteinander gekoppelt werden, durften dazu nur die Netze der PTTs (Postal, Telephone, Telegraph) genutzt werden, auch wenn billigere Lösungen möglich waren. Insbesondere die technisch unbegründbar hohen Telekommunikationskosten, die nur auf Sprache und Fax limitierten Anwendungen und die damit offenbar gewordene Rückständigkeit der PTTs, führten u. a. zu Deregulierungsvorschlägen, die in Deutschland zunächst die Endgeräte und ab 1988 auch die Netze für den Wettbewerb freigegeben haben. Der Erfolg bezogen auf die Ausweitung des Angebots ist offensichtlich. Die Postgesellschaften besaßen eine weltweit dominierende Infrastruktur für die Kommunikation und schickten sich an, das Informationszeitalter oder die Digitalisierung zu dominieren und nach dem Telefon – schließlich auch die Rechnernetze bereitzustellen. Dabei waren sich die beteiligten Protagonisten nicht einmal einig, wie denn ein Rechnernetz zu definieren sei. Während die IT-Hersteller vor allem Großrechner verbinden und mit ihren Anwendungen im Wettbewerb bestehen wollten, bangten die PTTs um ihr Monopol bei der Sprachkommunikation. Das dritte Lager – repräsentiert durch das Internet – war eine kleine akademische Randgruppe, die niemand ernst nahm. Die vier konkurrierenden Kommunikationsmodelle Die konkurrierenden Vorschläge und Strategien unterschieden sich im Netzwerkmodell1, den Eigentumsrechten, der Behandlung von Anwendungen und der Art und Weise, wie die Netze betrieben und weiterentwickelt werden sollten. (1) POTS (Plain old Telephone Service) war ein Spottname für die Öffentlichen Telefonievermittlungsnetze (englisch: PSTN (Public Switched Telephone Network)). Bezogen auf die Netzfunktionalität wollten die PTTs keine Trennung von Anwendung und Kommunikation. Dies verwunderte nicht, wenn man bedenkt, dass die PTTs nicht von den Netzen, sondern von ihrer Nutzung lebten. Fax und Sprache waren die beiden einzigen Anwendungen der POTS. Andere Dienste – wie Fernschreiber – hatten lange Zeit parallele Teilnetze, die 1980 zum „dienste­ integrierenden digitalen Netz“, dem ISDN (Integrated Services Digital Network) zusammengefasst wurden. 1  Cypser

(1991), S. 34 ff.



Telematik: „Von Kommunikation zum Wissen?“

163

(2) SNA (Systems Network Architecture) wurde 1974 von der IBM eingeführt und war bis 1990 das bedeutendste Rechnernetz der Welt. Es ist teilweise heute noch in Betrieb. Die seit 1980 nahezu monopolistisch den IT-Markt beherrschenden digitalen Netzarchitekturen der IBM und ihrer Konkurrenz, die despektierlich unter dem Sammelbegriff BUNCH (Burroughs, Univac, NCR, Control Data, Honeywell) zusammengefasst wurden, waren konzeptionell identisch und hatten zumeist ein betriebswirtschaftliches Anwendungsspektrum. Die Begrenzung auf Mainframes behinderte die Fortentwicklung von SNA und ließ die Überzeugung aufkommen, dass nicht nur die PTTs, sondern auch die IBM die technische Entwicklung und den schon absehbaren Siegeszug der PCs (Personal Computer) „verschlafen“ habe. (3) Das OSI-Referenzmodell (Open Systems Interconnection) wurde ab 1978 von der ISO (International Standards Organisation) und den PTTs mit dem Ziel entwickelt, eine Architektur zu schaffen, die als Richtlinie für die Förderung einer Rechner-zu-Rechner-Kommunikation dienen konnte. Das ISO-OSI-Referenzmodell wurde 1982 verabschiedet und besteht aus zwei Teilen: Einerseits den Protokollen und andererseits aus den Aufgabenbeschreibungen für die Dienste. Es handelt sich um ein hierarchisches Netzmodell, das die Kommunikation in sieben Schichten unterteilt. Die grundlegende Idee dabei ist, dass jede Schicht einen Teil der Gesamtleistung des Systems erbringt. Durch diese Modularisierung war es möglich Realisierungen von Schichten zu ändern oder auszutauschen, ohne dass andere Schichten davon betroffen waren2. Die formale Brillanz des OSI-Referenzmodells war auch seine größte Schwäche. Interoperabilität war nur bei vollständiger Übereinstimmung der Kommunikationssoftware möglich. Der Ruf nach der „Killerapplikation“ zur Deckung der erheblichen Infrastrukturkosten war ebenso verständlich, wie letztlich vergeblich. Die Vielzahl kleiner Anwendungen ist für den Erfolg des Internet verantwortlich. (4) Mit dem Internet begann alles sehr einfach. ARPA (Advanced Projects Research Agency) schrieb 1968 ein damals durchaus herausforderndes Experiment aus. Vier Großrechner im Westen der USA sollten verbunden werden. IBM lehnte eine Teilnahme wegen der aus ihrer Sicht absehbaren Unwirtschaftlichkeit ab. Der Zuschlag ging dann völlig überraschend an Bold, Beranek & Newman (BBN), ein Beratungsunternehmen für Bauakustik. Im Dezember 1969 konnte ein funktionsfähiges Netzwerk zwischen dem Stanford Research Institute (SRI) und den Universitäten Santa Barbara, Los Angeles und Salt Lake City auf Basis 2  Müller

et al. (2003), S. 31 ff.

164

Günter Müller

von IMP (Interface Message Processor) demonstriert werden. Heute wissen wir, das war die Geburt des Internet. Die Technologiepolitik, sowohl der PTTs als auch der IT-Industrie, mutet unvorstellbar „naiv“ an. Man war zu technikfixiert und vergaß die Zusammenarbeit mit der Wirtschaft und den Nutzern, um letzlich die wirtschaftlichen und institutionellen Vorteile des Internet in das eigene Angebot zu integrieren. Das Paketprinzip des Internet erwies sich allen anderen Netzwerkmodellen zum Aufbau einer globalen Infrastruktur als überlegen. Technisch und zugleich politisch am wichtigsten war jedoch die Erkenntnis, dass Netzwerke nicht auf der Netzwerk­ebene verbunden werden dürfen, sondern aus Bestehendem zusammengefügt werden muss. Es entstand ein globales Netz ohne nationale Rücksichtnahme, aber mit Einbezug des Bestehenden in allen Nationen. Die gesellschaftliche Leitlinie „ freedom of action, user empowerment, end-user responsibility, and lack of controls in the net, that limit or regulate what user can do“3 zeigt die Hinwendung zu Nutzern und weg vom Diensteanbieter.

Abbildung 1: Technische Entwicklungsschritte

Die Kommunikation geht heute zunehmend weg von Mensch zu Mensch und hin zur Kommunikation mit Dingen. Der Weg ist noch nicht zu Ende. In Abb. 1 wird die Entwicklung zusammengefasst, die sich seit den Smartphones fast schon realisiert hat.4 Im Mittelpunkt des Bestrebens des Mobile Computing steht die Erweiterung hin zum Pervasive Computing und damit 3  Blumenthal / Clarke 4  Müller

(2001), S. 70. et al. (2007), S. 520 f.



Telematik: „Von Kommunikation zum Wissen?“

165

die Einbeziehung des Kontextes, z. B. bei der Dienstauswahl und die Anpassbarkeit an die Veränderungen der Umwelt. Die Miniaturisierung und die Vielfalt der involvierten Geräte und Dienste macht es immer weniger wahrscheinlich, dass solche Informationssysteme von Menschen konfiguriert oder gesteuert werden können. Wie kann man etwas steuern und kontrollieren, was man nicht mehr sieht? Die Systeme handeln in Zukunft autonom, was für den Finanzbereich schon heute – zu vieler Leidwesen – der Fall ist. Das Internet der Menschen wird zum Internet der Dinge.

III. Telematik: „Daten sind die Triebkräfte der Wissensgesellschaft“ Das wirtschaftliche Motiv zur Datensammlung ist in den Individualisierungstendenzen der Kunden zu sehen, auf die Unternehmen reagieren, sie aber auch verstärken. Bezogen auf die Technik, ist immer diejenige Technik als Sieger hervorgegangen, die zum einen den Nutzern die Suchkosten veringert hat und die zum anderen den Anbietern es erlaubte, die Wechselkosten zu beeinflussen. Dazu braucht man Daten über die Nutzer. Nur so können die Investitionen gesichert werden. Die Auslagerung, und damit die Professionalisierung der Datensammlung durch spezialisierte Dienste, machen Daten und Schlussfolgerungen (Inferenzen) bzw. deren Verfügbarkeit zur Handelsware. Man nennt die aktuellen Dienste des Internet, wie Google und Facebook daher auch datenzentrisch. Solche datenzentrischen Dienste sind die aktuell wirtschaftlich günstigste, effizienteste, genaueste und globalste Form zur Datensammlung. Sie sind durch folgende Eigenschaften gekennzeichnet: Zunächst sind sie frei für jedermann zugänglich und „scheinbar“ kostenlos nutzbar. Der Preis wird meist verborgen durch Aufzeichnung persönlicher Daten entrichtet. Während bei Diensten des statischen Web 1.0 zwar persönliche Daten gesammelt werden, sind es im Web 2.0 nicht nur die Daten, sondern die aktuell noch in den Anfängen steckenden Möglichkeiten zur Ableitung neuer Daten aus bestehenden Datensammlungen. Die Inferenzen sind seit langem Gegenstand wirtschaftsinformatischer Forschungen und werden unter dem Schlagwort des „Business Intelligence“ zusammengefasst, worunter prominent die Verfahren des „Web Mining“ gehören. Inferenzen sind damit eine kreative und originäre Leistung datenzentrischer Dienste. Sie nicht unmittelbar personenbezogen und werden daher auch nicht von Regulierungsmaßnahmen erfasst. Dennoch basieren sie auf personenbezogenen Daten. Es gehört zu den Mythen der Sicherheitsforschung,5 dass es personenbezogene Daten 5  Müller

(2012b), S. 5.

166

Günter Müller

sein müssen, die von Relevanz für die Wirtschaft seien. Statt der persön­ lichen Identifikation sind Unternehmen eher an statistischen Klassifizierungen interessiert, die zu „Mustern“ des Konsumentenverhaltens bzw. zur Klassenbildung führen. Muster sind im Gegensatz zu Profilen nicht einem Individuum zugeordnet. Privatheit – wie wir sie bislang verstehen – ist dann gefährdet, wenn einzelne Personen identifizierbar sind. Das Geschäft mit Daten erfordert aber nicht notwendigerweise persönliche Identifikation. Lediglich die Zuordnung zu Klassen muss mit einem hohen Genauigkeitsgrad möglich sein, wobei letztlich der Gesamteffekt zur Erreichung geschäftlicher Interessen und nicht die Genauigkeit der Identifikation entscheidet.

IV. Nutzer – Telematik: „Informationsdefizite führen zu Ungleichheit“ Privatheit ist im Deutschen ein Kunstwort, dessen Bedeutung, neben dem üblichen Begriff Privatsphäre, das amerikanische „Privacy“ umfassen soll. Hierbei handelt es sich um eine ethische oder soziologische Kategorie, die in der „Juris Prudens“ indirekt durch die informationelle Selbstbestimmung oder in den Wirtschaftswissenschaften als Eigenschaft von Produkten eine wichtige Rolle spielt. In ökonomischer Hinsicht ist Privatheit dann von Relevanz, wenn sie auf das Marktverhalten Einfluss nimmt, z. B. wenn im Vertrauen auf Erfüllung eines Privatheitsversprechens ein Kauf getätigt oder abgelehnt wird. In einzelwirtschaftlicher Betrachtung wird Privatheit daher als eine Eigenschaft von Produkten betrachtet, die gleichberechtigt neben anderen Eigenschaften, wie z. B. verwendeten Materialien, die Wertbestimmung beeinflusst. Beispielsweise kaufen Kunden mit der Präferenz einer gerechten Arbeitswelt Fair-Trade Kaffee, weil damit ein Signal auf die Herstellungsweise gegeben wird. In gesamtwirtschaftlicher Sicht stellt sich die Sache anders dar. Hier ist Privatheit dann bedroht, wenn eine Seite die Fähigkeit erwirbt, die Verfügbarkeit von Informationen zu beeinflussen. Eine ungleiche Verteilung von Zugang und Verfügbarkeit von Informationen führt zu Kaufentscheidungen, die zu Ineffizienzen bei der Allokation von Ressourcen führen und daher den Wohlstand potentiell negativ beeinflussen können. Insgesamt ist davon auszugehen, dass Informa­ tionsdefizite einer Seite die in Abbildung 2 skizzierte Auswirkungen auf Märkte haben. Während die Ordinate die Zahl der Transaktionen kennzeichnet, beschreibt die Abszisse den Grad an Privatheit. Es ist die Annahme dieser Kurve – empirische Untersuchungen zum Verhältnis von Privatheit und wirtschaftlicher Dynamik fehlen bislang –, dass kein Datenschutz ebenso wie vollständiger Datenschutz die wirtschaftliche Interaktion zum Erliegen bringen würde.6 6  Müller

(2012a), S. 144.



Telematik: „Von Kommunikation zum Wissen?“

167

Abbildung 2: Datenschutz und wirtschaftliche Interaktion

Die wichtigsten und wirtschaftlich relevantesten Szenarien der zukünftigen Telematik sind der E-Commerce und die sozialen Netzwerke. Während sich der E-Commerce auf die Nutzung des zusätzlichen elektronischen Kanals zwischen Kunden und Anbietern konzentriert und beachtliche Fortschritte in der gesamtwirtschaftlichen Effizienz erzielt hat, sind die sozialen Netze in ihren wirtschaftlichen Wirkungen noch unerforscht. Die Individualisierung der Beziehung von Nachfrager und Anbieter durch das Internet verlangt von Anbietern die Kenntnis persönlicher Daten der Kunden, um am Markt bestehen zu können. Wertschöpfungsketten werden zunehmend kooperativ unter Mitwirkung der Kunden oder verteilt durch Koordination ausführbar. Zur Koordination sind auch persönliche Daten notwendig, deren Sammlung und Auswertung gegenwärtig selbst einer Spezialisierung und damit dem wirtschaftlichen Wettbewerb unterliegt. Daher werden zunehmend Informationen von Dritten mit Aussicht auf Ertrag gesammelt, verkauft und verwertet. Prinzipiell kann bezüglich der Kenntnis des Umfangs einer Transaktion zwischen einer begrenzten und erweiterten Sichtweise unterschieden werden. Bei Rabattkarten ist die Datensammlung mit der Transaktion verbunden und der Benutzer hat eine erweiterte Kenntnis über den Zweck der mit der eigentlichen Transaktion verbundenen Handlung. Bei vielen Web 2.0 Diensten ist die Kenntnis des Nutzers limitiert oder begrenzt, da er im besten Fall über die Datensammlung informiert ist, aber die spätere Nutzung und deren Rückwirkung nicht kennt. Zwei wesentliche Varianten können unterschieden werden. Zum einen erwerben Organisationen persönliche Daten durch Ankauf oder sie bieten einem Teil ihrer attraktiven Dienste als Gegenleistung für die Überlassung persönlicher Daten an.

168

Günter Müller

Die zweite Form ist aktuell im „Rennen um Daten“ vorne. Aus gesamtwirtschaftlicher Sicht ist es nun die Herausforderung an eine Vertrauensinfrastruktur dafür zu sorgen, dass es nicht systematisch zu Ungleichverteilungen von Informationen kommt. Aus einzelwirtschaftlicher Sicht ist zu klären, ob und welche Privatheitsforderungen Geschäftsmodelle ermöglichen, die zur individuellen und gesamtwirtschaftlichen Wohlfahrt beitragen. Dazu wäre es hilfreich, wenn für die Privatheit ein wirtschaftlicher Gegenwert ermittelt werden könnte, der angibt, was Privatheit dem Einzelnen wert ist. Aus Anbietersicht bildet dann die Erwartung in die Einhaltung z. B. des Privatheitsversprechens einen Teil des Entgeltes, den der Nachfrager für ein Produkt zu zahlen hätte. Gibt es keinen Preis, ist Regulierung eine Option. Dies ist beim gesetzlichen Datenschutz der Fall, der davon ausgeht, dass der Schutz für die wirtschaftliche Entwicklung einen positiven Beitrag zur gesellschaftlichen Verfassung leistet. Wirtschaftlichkeit ist nicht das primäre Ziel. So verlangt das Bundesdatenschutzgesetz, aber auch die Fair Trade Richtlinien der OECD, dass Daten nur für einen bestimmten Zweck erhoben und falsche Daten korrigiert werden müssen. Über Datensammlungen muss also Transparenz für alle interessierten Marktteilnehmer bestehen. Moderne Verfahren der Business Intelligence und flexible, kundenorientierte Managementtechniken zur nachhaltigen Aufrechterhaltung der Kundenbeziehungen nutzen persönliche Datenbestände, die zunehmend gesammelt werden, ohne die Betroffenen zu informieren oder gar unmittelbar einem vorbestimmten Zweck zugeordnet zu werden. In diesem Falle bezahlt der Nachfrager für den Erwerb eines Produktes einen informationellen Preis, den er nicht abschätzen kann. Diese Datensammlungen können in späteren Transaktionen Grundlage für die Interaktion von Marktteilnehmern werden, deren Existenz und Bedeutung nur einer Seite bekannt zu sein braucht. Es ist dann von einer verzögerten Wirkung der Daten in nachfolgenden Transaktionen auf die Kundenentscheidung auszugehen. Durch die Einschaltung des Intermediärs „Datenzentrischer Dienst“ ist eine Transaktion in zwei zusammenhängende Teiltransaktionen aufgespalten, die zu Datenaggregation (Big Data) führt. In Abb. 3 ist die Struktur einer solchen zweiwertigen Transaktion dargestellt. In der Beziehung des Kunden – er ist ja der eigentliche Datenanbieter – zum Intermediär wird durch die Nutzung eines attraktiven Dienstes beim Kunden ein wirtschaftlicher Wert v1 erzeugt. Der Nutzen des Intermediär liegt in dem Vertrieb der dabei anfallenden persönlichen Daten, wozu er die Daten zuvor aufzeichnen muss. Der Nachfrager solcher Daten im zweiten Teil der Transaktion ist ein finaler Datenkonsument oder Datennutzer. Die Beziehung des Intermediär zu diesem finalen Datenkonsumenten erzeugt den wirtschaftlichen Wert v2. Eine solche zweiwertige Transaktion ist dadurch gekennzeichnet, dass der Wert v2 erst durch das Geschäft v1 entstehen kann. Ferner wirkt der Wert v2 meist nicht unmittelbar auf die



Telematik: „Von Kommunikation zum Wissen?“

169

Abbildung 3: Zweiwertige, verzögerte Transaktionen7

von Kunden ausgelöste Transaktion, sondern beeinflusst erst verspätet oder verzögert für eine andere Transaktion das Kundenverhalten. Unabhängig davon ob es sich nun um eine direkte bzw. zyklische Rückkopplung handelt, es kommt zu Datenaggregationen über deren exakten Inhalt der Kunde beim gegenwärtigen technischen Stand wenig weiß. Diese Datensammlungen legen dem Anbieter Bedürfnisse der Kunden offen, die es denkbar werden lassen, dass Transaktionen zu Stande kommen, die ohne eine solche Kenntnis nicht stattgefunden hätten. Bezogen auf den Kenntnisstand des Kunden zeigen zahlreiche empirische Untersuchungen, dass nicht von einer generellen Unkenntnis der Datenaggregation ausgegangen werden kann. Im Gegenteil; es ist sich die überwiegende Mehrheit der Kunden bewusst, dass persönliche Daten gesammelt und aggregiert werden. Für den primären Datenanbieter, überwiegen die mit dem Medium verbundenen Vorteile die Risiken, die eine Nichtteilnahme bedeuten würde. Der Einsatz nutzenstiftender datenzentrischer Dienste senkt die Kosten zur Durchführung einer Transaktion und erhöht damit die individuelle Produktivität. Gesamtwirtschaftlich lassen Untersuchungen einen positiven Beitrag zur Gesamtwohlfahrt vermuten. Im deutschen Wirtschaftsraum erheben alle Unternehmen, die ihre Geschäftsprozesse automatisiert haben, also ca. 65 % der Unternehmen, persönliche Daten ihrer Kunden, ihrer Mitarbeiter und Geschäftspartner. Die positive Seite der Nutzung persönlicher Daten ist die bessere Befriedigung von Kundenwünschen. Um zu verhindern, dass dabei entstehende Informationsdefizite zu Ineffizienzen bzw. zu nachvertraglichem Andersverhalten führen, stehen für die Automatisierung der Vertrauensplattform prinzipiell zwei verschiedene Maßnahmen zur Verfügung: •• Signaling: Die Anbieter geben von sich aus ein Signal, wie sie es mit der Privatheit von überlassenen Daten halten. Tatsächlich lässt sich empirisch 7  Müller

(2012a).

170

Günter Müller

Abbildung 4: Positive Rückkopplungseffekte8

nachweisen, dass viele Marktteilnehmer versuchen durch Nutzung solcher Signale (z. B. Gütesiegel), Informationsdefizite zu vermeiden und Privatheit als Verkaufsargument einsetzen. •• Screening: Hierbei nimmt die uninformierte Marktseite Kosten auf sich, um durch Informationsbeschaffung ihre Informationsdefizite auszugleichen z. B. zu kontrollieren, ob das „Signaling“ der Wirklichkeit entspricht. Shop-Bots, Kataloge und das kollaboratives Filtern zusammen mit dem von Google angebotenen Dashboard sind Beispiele für Privatheitsmechanismen zur Erhöhung der Transparenz für den Kunden. Fasst man zusammen, dann sind die Kosten, die für Mechanismen zum Signalling und Screening anfallen, nur dann aus wirtschaftlicher Sicht gerechtfertigt, wenn die Privatheit als Bestandteil der Produktbeschreibung entsprechend vom Kunden bewertet und honoriert wird. Signalling und Screening sind jedoch nur dann ein Differenzierungsmerkmal, wenn die Wahl zwischen verschiedenen Anbietern gegeben ist. Beim E-Commerce konnte bislang beobachtet werden, dass eine Tendenz zur Monopolbildung besteht. Gegenwärtige datenzentrische Dienste verteidigen ihren Informa­ tionsvorsprung dadurch, dass sie sich als natürliche Monopole bezeichnen. Aus ökonomischer Sicht sind Monopole dann „natürlich“, wenn sie mit sinkenden Durchschnittskosten einhergehen. Ist dies der Fall, dann kann ein größeres Unternehmen die Nachfrage günstiger bedienen als kleinere Mit8  Müller / Eymann / Kreutzer

(2003), S. 304.



Telematik: „Von Kommunikation zum Wissen?“

171

bewerber. Auf internetbasierten Märkten führen – neben sinkenden Stückkosten – oftmals jedoch weitere Faktoren zur Monopolsituation. Hier sind insbesondere die in Freiburg untersuchten und in Abbildung 4 dargestellten positiven Rückkopplungseffekte zu nennen. Es ist bisher keine bewiesene, sondern eine hypothetische Annahme, dass Informationsdefizite bei detenzentrischen Dienste entstehen. Sollten diese nachgewiesen werden, sind Ungleichgewichte und Ineffizienzen unvermeidbar.

V. Telematik: „Technik und Wissen?“ Bis heute applaudiert man Vinton Cerf und Robert Kahn, den „Erfindern“ des Internet für ihre technischen Beiträge. Hat doch ihre Technik zu einer verbesserten Welt geführt. Man vergisst, ebenso wie bei den andern Internetpionieren, dass sie ihren „Platz im Olymp“ eher durch das Schaffen von Institutionen, herausragendem Management und gutem Urteilsvermögen verdanken, das auf folgenden damals revolutionären Annahmen beruht: 1. Es ist gerade heute nur schwer vorstellbar, dass die politischen Institu­ tionen das „Nervensystem“ für die entstehende Informationsgesellschaft zentral organisiert werden könnte. Internet hat die Dezentralisierung des Wissens und dessen individuelle ungeplante Zusammenstellung ermöglicht. 2. Es waren nicht die technischen Kriterien, sondern das Zusammenspiel von technischen Optionen und gesellschaftlicher Adaption und Akzeptanz durch Nutzer und Wirtschaft, das zur Akzeptanz des Internet und der geradezu kambrischen Evolution von Diensten führte. 3. Standardisierung ist für technische Neuerungen zu langsam, so dass man heute von einem „Hase- und Igel-Wettlauf“ zwischen den Standardisierungsgremien und Internet reden muss.9 Es gibt wenig öffentlich verfügbares Wissen über die Existenz von Informationsdefiziten. Die Abfolge der datenzentrischen Dienste geschieht in den vier Schritten – Sammlung, Verwendung, Nutzen und Schutz –, die nachfolgend kurz skiziiert werden, um danach zur Aussage zu gelangen, ob eine technische Vermeidung von Informationsdefiziten möglich scheint, wie sie aktuell von allen IT Anbietern propagiert und implizit auch von der Gesetzgebung wohl fälschlicherweise angenommen wird.

9  Müller

(2008b), S. 3 ff.

172

Günter Müller

1. Datensammlung Ausgehend von der in Freiburg durchgeführten Umfrage aus dem Jahre 2005 mit dem Titel „Stille Revolution“ im E-Commerce10 wird die Entwicklung vom bloßen Sammeln von Daten zur Bildung von Inferenzen als eine sich wirtschaftlich ergebende Erweiterung des Geschäftsmodells neuer Dienste skizziert. Die Sammlung von Daten zur Beeinflussung der Wertschöpfung und des Kaufverhaltens sind die Eckpunkte, die zu Informationsdefizite führen. Anbieter des Web 2.0 liefern zusammen mit den Verfahren der „Business Intelligence“ weit bessere und vor allem billiger zu erhaltende Daten als dies z. B. die herkömmliche Marktforschung vermag. Die Skaleneffekte sind auf ihrer Seite. Privatheit wird daher oft als orthogonal zum Erlösmodell des Web 2.0 charakterisiert. Prinzipiell ist der Wert der Daten aus wirtschaftlicher Sicht unbestritten, so dass marktliche Regelungen in der aktuellen Diskussionen zur Privatheit zunehmend an Relevanz gewinnen, da der regulative Ansatz zu versagen scheint. 2. Datenverwendung Aus Nutzersicht relevant ist heute jedoch nicht die Datensammlung, sondern deren Verwendung. Die Mechanismen der Nutzungskontrolle umfassen alle Techniken, die das „Screening“ ermöglichen, und womit die im „Signalling“ angegebenen „Privatheitsversprechen der Anbieter“ überprüft werden können. Hier erweist sich das Datenschutzgesetz als „Papiertiger“. Daten werden von datenzentrischen Diensten aus Gründen der nicht zweckbezogenen Dokumentation mit dem Ziel der späteren Auswertung für unbestimmte Zeit gesammelt. Dies widerspricht den Prinzipien des aktuellen Datenschutzes, wonach eine Beziehung zum Zweck der Datensammlung bekannt sein muss und damit auch die Zeitdauer der Speicherung, sowie die Möglichkeit zur Korrektur gefordert wird. Ordnungspolitisch ist die Nutzungskontrolle problematisch, da sie als ein Verstoß gegen das Prinzip des Schutzes von Eigentum gesehen werden könnte, verlangt sie doch Einblicke in die Prozesse des Dienstanbieters. Während es bei den erhobenen Daten noch vorstellbar ist, Transparenz zu ermöglichen, ist dies bei Inferenzen nur schwer durchzusetzen. Woher soll man wissen, welche „Lehren“ aus den gesammelten Daten gezogen wurden und wie diese in zyklischen Transaktionen verwendet werden? Ferner bleibt verborgen, welchen Nutzen Daten tatsächlich gestiftet haben.

10  Sackmann / Strüker

(2005), S. 8 ff.



Telematik: „Von Kommunikation zum Wissen?“

173

3. Nutzen Das Nutzerverhalten, das durch die Delegation von potenziellen wirtschaftlichen Nachteilen in der Zukunft aufgrund des Nutzens „im Jetzt“ charakterisiert werden kann, wird vielfach als „Paradox“ bezeichnet, das man beseitigen müsse. Schlagworte dazu sind der den „mündigen“ Nutzer ermöglichende „Internetführerschein“. Trotz aller Bemühungen in den letzten 10 Jahren zeigen nahezu alle Untersuchungen, dass seit 1998 bis heute die Verhaltensweisen und Einstellungen der Nutzer zum Datenschutz in etwa gleich geblieben sind. Danach sind etwa 25 % der Nutzer trotz aller Schulungen eher unwillig in die Nutzung von PET (Privacy Enhancing Technology) zu investieren. Die Motivation ist dabei zu je 25 % eine Abstinenz von den Diensten oder eine zu optimistische Einschätzung der Gefahren der Datenverwendung. 50 % der Nutzer sind als an der Privatheit interessiert zu bezeichnen. Sie sind aber ebenso wie die „Optimisten“ nur bereit ein Minimum ihrer Zeit in die Folgen der Datensammlung zu investieren.11 4. Schutz Zur Definition des Schutzes hat Müller bereits 1999 Schutzziele formuliert.12 Kryptographie ist die Disziplin, die Vertraulichkeit gewährleistet, digitale Signaturen und „Infrastrukturen zum Management öffentlicher Schlüssel (PKI)“ erlauben die Feststellung und das Verbergen der Identität. Privacy Enhancing Technologies (PET) basieren alle auf der Einhaltung von Sicherheitseigenschaften, die zum einen bekannt sind und zum anderen bei Verletzung nicht zum Zugang zu Daten führen. Es ist eine unbestreitbare Erkenntnis, dass die PET-Verfahren nur eine geringe Akzeptanz bei den Nutzern gefunden, da man an der Wirksamkeit der Technik und an deren Nutzerfreundlichkeit zweifelt. Während PET auf die Einhaltung von Datensparsamkeit bestehen, ist das Geschäftsmodell der Dienste des Web 2.0 auf das Gegenteil, also die Verfügbarkeit von Daten angelegt. Die Ziele von PET und Web 2.0 widersprechen sich. Die Ursache für die Nutzung von datenzentrischen Diensten sind Anreize und nicht Besorgnisse. Das Web 2.0 soll für Nutzer „Gutes“ ermöglichen, während Privatheitsmechanismen „Schlechtes“ verhindern sollen. Privatheit unterscheidet sich zudem von Sicherheit. Letztere befasst sich mit der Verschlüsselung von Daten, so dass diese allen denen verborgen bleiben, die keinen Zugang erhalten sollen. Voraussetzung dafür ist, dass Kom11  Kaiser

(2003), S. 12. (1999).

12  Müller / Rannenberg

174

Günter Müller

munizierende sich vertrauen, während sich Interakteure bei der Forderung nach Privatheit eben nicht vertrauen. Die Datensparsamkeit als die Grundlage der rechtlichen Regelungen plädiert dafür, dass man nichts an Daten freigibt, wenn es die Sache nicht erfordert. Die PET-Technologien versetzen den Nutzer theoretisch in die Lage, das Interaktionsverhältnis zu kontrollieren, was jedoch nicht den primären Zweck einschließt, den eine Transaktion haben soll. Bezüglich PET-Technologien sind drei Konzepte zu unterscheiden: 1. Die Identitätskontrolle stellt Verfahren zur Authentifikation bereit, die bei positivem Ausgang einen Zugang zu den Daten oder Diensten ermöglichen und gleichzeitig über Pseudonyme und Anonymität ein hohes Maß an Datensparsamkeit zulassen. 2. Die Nutzungskontrolle ergänzt die Verfahren zur Regelung der Zugangskontrolle durch die Überwachung der Handlungen nach dem Datenzugriff. In einer Freiburger Umfrage zeigt sich, dass über 80 % der Nutzer private Daten abgeben würden, wenn sie sich sicher wären, dass sie in die vereinbarte Verwendung ihrer Daten vertrauen könnten.13 3. Die forensische Kontrolle verzichtet vollständig auf den Schutz von persönlichen Daten, zeichnet im Gegenzug aber alle Nutzungen der Daten samt deren Verursacher auf. Sollten Vereinbarungen zwischen Anbieter und Nachfrager getroffen sein (security policies), können Verletzungen zwar nicht verhindert, aber entdeckt und potenziell sanktioniert werden. Der Nachteil ist, dass die Aufzeichnung ein lohnenswertes Objekt für Privatheitsverletzungen bildet.14 Zur Anonymität hat Chaum (1981) Möglichkeiten und Grenzen technisch definiert.15 Anonymität behindert Interaktion und damit wirtschaftliche Tätigkeit. Zwei Eigenschaften moderner IT-Infrastrukturen machen es nahezu unmöglich, vorgeplante Privatheit einzuhalten, wie sie in PET notwendige Bedingung sind: 1. Die Umsetzung einer vertrauenswürdigen Zugriffskontrolle würde mit den gegenwärtigen Mechanismen einen zentralen und globalen Vertrauensanker voraussetzen16, der selbst wieder nicht zu 100 % sicher wäre. 2. Das Internet ist hochdynamisch und ermöglicht so die spontane Vernetzung von Personen und Prozessen, um wechselnde wirtschaftliche Ziele zu erreichen. PET basiert auf vorigen Absprachen und schließt Spontanität aus. So begrenzen PETs die wirtschaftliche Dimension von datenzen13  Kaiser / Reichenbach

(2002), S. 2014 ff. (2008), S. 17 ff. 15  Chaum (1981). 16  Accorsi / Sato / Kai (2008), S. 226 ff. 14  Accorsi



Telematik: „Von Kommunikation zum Wissen?“

175

trischen Diensten auf die „Gutwilligkeit“ von Akteuren, ihre Absichten bekannt zu geben und doch zu wissen, dass sie bei diesem Versprechen ohne Systemüberblick handeln.17 PET schützen vor unberechtigtem Zugriff, ermöglichen aber keine Reaktion auf Unverhergesehenes und beobachten nicht den möglichen wirtschaftlichen Nutzen einer Transaktion.

VI. Gesellschaft – Telematik: „Privatheit“ – ein Auslaufmodell? Internet Privacy unterscheidet sich von der sonstigen Privatsphäre dadurch, dass informatische Mechanismen angewendet werden müssen, um persönliche Daten zu schützen. Solche Mechanismen basieren auf den Prinzipien der Zugangskontrolle. Danach liegt der Mangel an Akzeptanz an ihrem für wirtschaftliche Absichten unzureichendem Technikmodell. PET realisieren das Verbergen und das Zeigen von persönlichen Daten, während alle wirtschaftlichen Nutzungen sich auf die Verwendung der Daten konzentrieren. Wird die Privatheit dadurch zu einem Auslaufmodell? Die nachfolgenden vier Fragen sollen auf Defizite sowohl der technischen, regulativen und der marktliche Lösungsvorschläge hinweisen18, die die Ursache sind, dass Privatheit einen zunehmend geringeren Stellenwert im Internet einnimmt: 1. Die größte Gefahr für die Privatheit kommt von einem unautorisierten Zugang zu Informationen? Aus wirtschaftlichen Gründen ist es der Sinn einen positiven Nutzen zu erzeugen und dabei Privatheit zu bewahren. Zugang ist sekundär. 2. Privatheit ist dann gegeben, wenn keine Personenidentifizierende Informationen (PII) erfasst sind? Im Wirtschaftlichen ist die Einzelperson weniger von Interesse als vorhersehbares Verhalten von Gruppen. Es genügt statistische Genauigkeit. Exakte oder algorithmische Informationen sind nicht relevant. 3. Kompetenz und Optionen zur Wahl der Formen und des Ausmaßes der Privatheit sind die Grundpfeiler der informationellen Selbstbestimmung? Dies überfordert die informationelle Basis der Beteiligten, wobei niemand die gegenwärtigen und zukünftigen Querbeziehungen abschätzen kann. 4. Datenschutz ist nicht nur eine Sache über Individuen? Ist nun aber Transparenz eine Lösung? Nun – das Internet ist kein privater Raum. Wer im Internet ist, will nicht alleine sein, aber man will auch 17  Müller 18  Müller

(2008b). (2012a), S. 177

176

Günter Müller

nicht ausspioniert werden. In den USA ist so, dass man aus dem Internet erst dann für sich einen privaten Raum erzeugt, wenn man dies äußert, also eine „opt-out“ Variante wählt. In Europa bleibt man solange im privaten Bereich, bis man explizit ausdrückt, dass man mitmachen möchte, also eine „Opt-in“ Variante wählt. Dieser Unterschied ist die Ursache, wenn von kulturellen atlantischen Differenzen gesprochen wird und Europa den Ruf einträgt, man behindere den technischen Fortschritt. Dennoch Transparenz ist eine wirtschaftlich unbekannte Größe.

Epilog Kurz nach Hans-Hermann Francke kam auch ich nach Freiburg. Trotz aller fachlichen Unterschiede haben wir die Transdisziplinarität immer gesucht und uns auch gegenseitig – meist nach der Arbeit in den Freiburger Lokalen – beeinflusst. Anfangs haben wir digitales Geld als neuen Internetdienst konzipiert und leidvoll erfahren, dass der technischen Idee und der wirtschaftlichen Ersparnis doch erhebliche gesellschaftliche Hürden gegenüber stehen, die letztlich zwar digitale Zahlungssysteme, aber eben kein digitales Geld zulassen. Heute im Angesicht der Bankenkrise weiß man eher, dass dies ein Fehler war. Man sollte nicht alles einer anonymen Technik übergeben. Aus den Gesprächen mit Hans-Hermann Francke entstanden für mich fruchtbare Anregungen, und die technische Evolution des Internet und seine Beziehungen zur Wirtschaft und Gesellschaft bestimmte meine Arbeit fortan. Dafür meinen besten Dank. Literatur Accorsi, Rafael (2008): Automated Counterexample-Driven Audits of Authentic System Records. Dissertation, Universität Freiburg. Accorsi, Rafael / Sato, Yoshinori / Kai, Satoshi: Compliance-Monitor zur Frühwarnung vor Risiken, in: Wirtschaftsinformatik, Vol. 50, No. 5, 2008, S. 375–382. Acquisti, Alessandro (2009): Nudging Privacy – The Behavioral Economics of Personal Information. IEEE Security & Privacy Vol. 7, No. 6, S. 72–75. Blumenthal, Marjory S. / Clarke, David D. (2001): Rethinking the Design of Internet, in: ACM Trans. on Internet Technology, Vol. 1, No. 1, S. 70–109. Buchmann, Johannes (2012), Internet Privacy, Springer Heidelberg. Cypser, Rudolph J. (1991): Communications for Cooperating Systems, OSI, SNA and TCP / IP, Addison-Wesley. Kahn, Robert E. / Cerf, Vinton G. (1999): What is The Internet (And What Makes It Work), Dec. 1999, http://www.cnri.reston.va.us  /  what_is_internet.html (Zugriff am 2008-05-01).



Telematik: „Von Kommunikation zum Wissen?“

177

Kaiser, Johannes (2003): Besteht eine Beziehung zwischen Nutzbarkeit und Sicherheit? Praxis der Informationsverarbeitung und Kommunikation, Vol. 26, No. 1, S. 48–51. Kaiser, Johannes / Reichenbach, Martin (2002): Evaluating security tools towards usable security, in: Proceedings of the IFIP 17th World Computer Congress – TC13 Stream on Usability: Gaining a Competitive Edge, S. 2014 ff. Müller, Günter (2008a): Fremdorganisation, Selbstorganisation und evolutionäres Management, in: Wirtschaftsinformatik, Vol. 50, No. 2, S. 133–135. – (2008b): Abschlussbericht zum Schwerpunktprogramm Sicherheit der DFG, http://www.telematik.uni-freiburg.de / spps / abschlussbericht.php, (Zugriff 201308-02). – (2012a), Vertrauensinfrastruktur und Privatheit in: Buchmann, Johannes (Hg.), Internet Privaxy, Springer Heidelberg. – (2012b): Die Mythen von Transparenz und Sicherheit, (http:www.telematik.unifreiburg.de / content / Ehrungen.). Müller, Günter / Accorsi, Rafael / Höhn, Sebastian / Kähmer, Martin / Strasser, Moritz (2007): Sicherheit im Ubiquitous Computing: Schutz durch Gebote?, in: Mattern, F.: Die Informatisierung des Alltags : Leben in smarten Umgebungen, Springer Berlin, S. 513–532. Müller, Günter / Blanc, Robert P. (1987): Networking in Open Systems, Springer Verlag, Heidelberg. Müller, Günter / Kreutzer, Michael / Eymann, Torsten (2003): Telematik- und Kommunikationssysteme, Oldenbourg Verlag. Müller, Günter / Krüger, Gerhard (1988): LAN and OSI Based Heterogeneous Campusnetworks, in: Krüger, G., Müller, Günter (Hrsg.): Hector, Vol. ii, Springer Verlag, S. 11–30. Müller, Günter / Rannenberg, Kai (1999): Multilateral Security, Addison Wesley. Sackmann, Stefan / Strüker, Jens (2005): E-Commerce Enquete, Stuttgart KIT Verlag Stuttgart.

Deutschland als Leitmarkt für Null-Emission-Fahrzeuge Von Alexander Batteiger, Knut Blind und Jan Peuckert

I. Problemstellung Anfang 2013 veröffentlichte eine von der Regierung der Vereinigten Staaten von Amerika beauftragte Expertengruppe einen Bericht zum Klimawandel. Werden keine Gegenmaßnahmen eingeleitet, ist eine Erhöhung der globalen Mitteltemperatur zwischen 2,2 und 5,5 Grad Celsius bis Ende des Jahrhunderts zu erwarten.1 Im Gleichen Zeitraum wurden in Harbin (China) Feinstaubbelastungen gemessen, die die für westliche Verhältnisse schon großzügig bemessene Skala der chinesischen Regierung nicht mehr erfassen konnte. Chinas Vizepremier Li Keqiang räumte ein, dass China seine bisherige Wachstumsdynamik nicht fortsetzen könne.2 Unterdessen fand in Detroit die Northamerican Motor Show statt. Die Highlights der Automobilmesse waren eine 565 PS starke E-Klasse aus dem Hause Mercedes oder Pickup-Trucks wie der neue Ford F-150. Das Motto der Neuvorstellungen wurde im Spiegel unter „Luxus und Leistung“ zusammengefasst.3 Von befragten Führungskräften der Automobilbranche ist inzwischen anderes zu vernehmen. Sie nennen Umweltschutz, Urbanisierung und sich ändernde Nutzungskonzepte als die drei großen Treiber der Automobilbranche bis 2020. Als wichtigste Antwort auf diese Trends gelten unter anderem die Reduzierung der Motorleistung (downsizing) und Elektromobilität, welche sowohl batterieelektrische Fahrzeuge (BEV) als auch Brennstoffzellenfahrzeuge (FCEV) einbezieht.4 Betrachtungsgegenstand dieser Arbeit sind Personenkraftwagen (PKW), die lokal durch ihren Antriebsstrang keine Emissionen verursachen, sogenannte Null-Emission-Fahrzeuge (Zero-Emission-Vehicles ZEV)5. Sowohl BEV als auch FCEV erfüllen dieses Kriterium vollständig. 1  NCADAC

(2013). Zeitung (16.01.2013). 3  Grünweg (16.01.2013). 4  KPMG (2012). 5  CEPA (2012). 2  Süddeutsche

180

Alexander Batteiger, Knut Blind und Jan Peuckert

Bis heute zählen in Deutschland und den USA die Leistung des Motors und die Größe des Fahrzeugs zu den entscheidenden Verkaufsargumenten. In anderen Märkten scheinen sich die Vorzeichen zu ändern. Der ToyotaKonzern konnte in den ersten drei Quartalen des Jahres 2012 weltweit mehr als eine Million Hybrid-Fahrzeuge verkaufen.6 Japan gilt als Leitmarkt für Hybridfahrzeuge7 und Toyota ist seinen Konkurrenten in dieser Technologie voraus. Die wirkliche Revolution in der Automobilbranche, also die vollständige Elektrifizierung der Antriebsstränge, steht noch bevor. Eine der entscheidenden Fragen in der Automobilbranche ist: Welches Land hat Leitmarkt-Potenzial für Null-Emission-Fahrzeuge?

II. Leitmarktkonzept Die Grundlagen für das Konzept von Lead-Märkten8 wurden am Zentrum für europäische Wirtschaftsforschung (ZEW) insbesondere durch Marian Beise gelegt. Lead-Märkte werden wie folgt definiert: „Lead-Märkte sind regionale Märkte – in der Regel Länder –, die ein bestimmtes Innovationsdesign früher als andere Länder nutzen und über spezifische Eigenschaften (Lead-Markt-Faktoren) verfügen, die die Wahrscheinlichkeit erhöhen, dass in anderen Ländern das gleiche Innovationsdesign ebenfalls breit angenommen wird.“9

Unter einem Innovationsdesign versteht Beise eine technische Spezifikation einer Innovationsidee. Er stellt klar, dass das Land, in dem eine Innovation entwickelt wurde, nicht zwangsläufig deren Leitmarkt sein muss. Innovationen werden zuerst in einem Land bevorzugt und angenommen und können danach global zum führenden Produkt werden. Nach Beise ist die Bereitschaft zur Nutzung von Innovationen in allen Industrieländern gleich. Außerdem stellt der Autor heraus, dass es einen Bedarf oder einen Nutzen von Innovationen gibt und dass daraus die Adaption des Innovationsdesigns resultiert. Deswegen werden in einer Leitmarkt-Analyse keine Eigenschaften der Technologie, sondern nur die des Marktes untersucht. Leitmärkte treten nur dann auf, falls internationale Unterschiede in den Marktbedingungen kompensiert werden können. Das Entstehen eines weltweit dominanten Innovationsdesigns kann dadurch befördert werden, dass internationale Standards gesetzt werden oder bedeutende Skalenerträge anfallen.10

6  TMC

(2012). (2013). 8  Im Folgenden werden Lead-Märkte und Leitmärkte synonym verwendet. 9  Beise (2006), S. 45. 10  Beise (2006). 7  ZEW



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

181

1. Leitmarkt-Faktoren Ein Leitmarkt ist durch Nachfrage-, Preis- und Kosten-, Export-, Transfer- und Marktstrukturvorteile gekennzeichnet. •  Nachfragevorteile Nach Beise besitzt ein Markt dann einen Nachfragevorteil, „… wenn die lokalen Marktbedingungen die Bedingungen in anderen Ländern vorwegnehmen“.11 Ein Land adaptiert an der Spitze eines globalen Trends ein Innovationsdesign zuerst, das später von anderen Ländern übernommen wird. Es nimmt antizipativ globale Trends, wie Demografie, Umweltschutz, Urbanisierung oder Bevölkerungswachstum vorweg. Hieraus kann es den höchsten Nutzen für die nationale Wirtschaft aus einer Innovation ziehen.12 Auch der Vorsprung im Aufbau einer Infrastruktur kann ein internationaler Trend sein.13 Nach Hippel haben Leitmärkte denselben Nachfragevorteil wie Lead Users, welche früher bestimmte Bedürfnisse entdecken und entwickeln, die andere Nutzer erst später wahrnehmen.14 Analog gilt, dass die Marktbedingungen in Leitmärkten die Bedingungen in anderen Ländermärkten vorwegnehmen. Hieraus resultiert nach Beise ein Nachfragevorteil.15 •  Preis- und Kostenvorteile Preis- und Kostenvorteile von Ländermärkten bestehen, „… wenn der relative Preis des länderspezifischen Innovationsdesigns gegenüber demjenigen in anderen Ländern abnimmt“.16 Zu Beginn ist der relative Preis des bevorzugten Innovationsdesigns im Leitmarkt niedriger als der Preis anderer Designs. Durch Skalenerträge, Verbundeffekte oder Standardisierung können weitere Kostensenkungen erreicht werden. Sobald diese groß genug sind, ersetzt das Innovationsdesign des Leitmarkts langfristig aus Kostengründen die des Lag-Marktes. Dies entspricht der bekannten Hypothese der Globalisierung der Märkte.17 Sie besagt, dass Innovationsdesigns, die billiger werden, auch in Ländern dominant werden, die vorher ein anderes Innovationsdesign bevorzugten. Beise und Cleff stellen in den von ihnen betrachteten Fallstudien fest, dass sinkende relative Preise am häufigsten 11  Beise

(2006), S. 121. (2005). 13  Beise / Cleff (2004). 14  Hippel (2007). 15  Beise (2006), S. 124 f. 16  Beise (2006), S. 125. 17  Levitt (1983). 12  Beise / Rennings

182

Alexander Batteiger, Knut Blind und Jan Peuckert

internationale Nachfrageunterschiede kompensieren.18 Außerdem können Preis- und Kostenvorteile auch aus unterschiedlichen Faktorpreisen resultieren. •  Exportvorteile Die Wahrscheinlichkeit steigt, dass ein Innovationsdesign weltweit zum dominanten Design wird, wenn es von Beginn an darauf ausgelegt ist, auch auf anderen Märkten potenziell erfolgreich zu werden.19 Eine weitere Bedingung für Exportvorteile ist eine Ähnlichkeit des Leitmarkts zu anderen Ländern und entspricht der Hypothese von Vernon, dass eine möglichst große Übereinstimmung im kulturellen, klimatischen, sozialen und wirtschaftlichen Faktoren die Wahrscheinlichkeit erhöht, Produkte erfolgreich auf ausländischen Markt zu bringen.20 Außerdem können Konsumenten in einem Land sensibel auf globale Trends, wie den Klimawandel reagieren.21 Des Weiteren ist es von Bedeutung, ob ein Land generell eine starke Exportorientierung aufweist.22 •  Transfervorteile Innovationen können international erfolgreich werden, wenn die Adaption eines Innovationsdesigns in einem Markt einen Einfluss auf das Adaptationsverhalten auf einem anderen Markt hat.23 Der sogenannte demonstration effect wurde oftmals als wichtiger Mechanismus für die Ausbreitung von Innovationen beschrieben.24 So sinken die Unsicherheiten und Risiken für Nutzer in Lag-Märkten, wenn man den Erfolg einer Innovation im Leitmarkt beobachten kann. Des Weiteren sind internationale Transfermittler wie zum Beispiel Touristen, Geschäftsleute oder multinationale Unternehmen für die Entstehung von Transfervorteilen von Bedeutung.25 •  Marktstrukturvorteile Durch höhere Wettbewerbsintensität ist es wahrscheinlicher ein Innova­ tionsdesign zu finden, das sowohl für den Heimatmarkt als auch den ande18  Beise / Cleff

(2004). (2004). 20  Vernon (1979). 21  Beise / Rennings (2005). 22  Beise (2006), S. 131. 23  Beise / Rennings (2005). 24  Kalish et al. (1995) und Mansfield (1968). 25  Beise (2006), S. 135. 19  Beise / Cleff



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

183

rer Länder vorteilhaft ist.26 Wettbewerb wird oftmals als Determinante für den internationalen Innovationserfolg beschrieben. Dies wird damit begründet, dass Kunden bei intensivem Werben durch starken Wettbewerb wählerischer werden und sich somit nur die besten Innovationsdesigns durchsetzen können.27 Auch Beise sieht im Wettbewerb der Innovationsdesigns Gründe für den späteren weltweiten Erfolg. Märkte mit einer geringen Anzahl an Markteilnehmern haben in der Regel kein perfekt auf die lokalen Bedürfnisse angepasstes Produktdesign. Entscheidend für die Wettbewerbsintensität auf Leitmärkten ist die Anzahl der am Markt angebotenen und somit konkurrierenden Innovationsdesigns.28 •  Regulierungsvorteile Von manchen Autoren wird ein sechster Leitmarkt-Faktor, der Regulierungsvorteil genannt. Laut Rennings und Smidt (2010) zeichnet sich ein Regulierungsvorteil eines Landes dadurch aus, dass das Gesetzgebungsverfahren es Firmen erlaubt, mittel- bis langfristig zu planen und sie gleichzeitig unter Druck setzt innovative Ideen umzusetzen. Als Beispiel führen die Autoren den Markt für Elektrizitätserzeugung an. Er ist gekennzeichnet durch hohe Anfangsinvestitionen und lange Amortisationsdauern. Falls die regula­ tiven Rahmenbedingungen mittel- bis langfristig unsicher sind, kann dies zu verspäteten Investitionsentscheidungen oder gar zu deren Unterlassung führen.29 •  Verhältnis der einzelnen Faktoren untereinander Nach Beise sind die Leitmarkt-Faktoren zunächst als eigenständige Mechanismen der Internationalisierung von lokalen Innovationen anzusehen. Prinzipiell kann ein Land auch aufgrund eines einzigen Faktors zum Leitmarkt werden. In der Regel ist damit zu rechnen, dass mehrere LeitmarktFaktoren sich gegenseitig verstärken und das Zusammentreffen mehrerer vorteilhafter Bedingungen einen Leitmarkt auszeichnet. Die LeitmarktAnalyse kann jedoch nicht durch ein theoretisches Modell erklären, welche Leitmarkt-Faktoren letztlich für den Erfolg eines bestimmten Innovationsdesign entscheidend sind. Ziel ist es, ein vergleichsweise einfaches Bewertungsschema zu erstellen, um Länder nach ihrer Eignung zur Einnahme einer Leitmarkt-Rolle für ein Innovationsdesign zu ordnen.30 26  Beise / Cleff

(2004). (1990). 28  Beise (2006), S. 138. 29  Rennings / Smidt (2010). 30  Beise (2006), S.139–140. 27  Porter

184

Alexander Batteiger, Knut Blind und Jan Peuckert

2. Leitmärkte für Umweltinnovationen Klemmer et al. definieren Umweltinnovationen wie folgt: „Umweltinnovationen umfassen alle Innovationen, die der Verbesserung der Umwelt dienen, gleichgültig, ob diese Innovationen auch unter anderen – namentlich ökonomischen – Gesichtspunkten vorteilhaft wären.“31

Umweltinnovationen treten in Märkten auf, in denen Produkte unerwünschte Externalitäten verursachen. Durch Regulierung versucht der Gesetzgeber umweltfreundlichere Innovationsdesigns am Markt zu etablieren.32 Ohne gezielte Förderung müssten sie sowohl ökonomisch als auch ökologisch vorteilhaft sein. Durch Jacob et al. wurden Fallstudien von Umweltinnovationen analysiert. Folgende Kriterien für Leitmärkte für Umweltinnovationen konnten bestimmt werden: (1) Durch nationale Politik oder Druck von Nichtregierungsorganisationen entstehen Anreize für Nutzer, eine Innovation anzunehmen, die ein internationales Umweltproblem adressiert. (2) Die internationale Dimension der Problematik kreiert eine potenzielle Nachfrage sowohl im Heimatmarkt als auch in anderen Märkten. (3) Leitmärkte für umweltfreundliche Technologien werden oftmals durch nationale Regulierung initiiert, welche potenziell in andern Ländern genutzt werden. Die Diffusion von Gesetzgebung und Innovationsdesign stehen in einem engen Zusammenhang. (4) Die Diffusion von innovativer Umweltpolitik kann unterstützt werden durch internationale Organisationen und das Lernen von anderen Ländern (lessondrawing). (5) Die internationale Diffusion von Umweltinnovationen kann durch vielfältige Mechanismen wie Kostenreduktion, Exportorientierung und Überlegenheit des Innovationsdesigns gefördert werden.33 Im Folgenden werden zwei Fallstudien kurz vorgestellt. Die Einführung von Katalysatoren in den USA begann in Kalifornien. Es wies lange Zeit die höchste Fahrzeugdichte der Welt auf, wodurch Luftverschmutzung früh zum Problem wurde. So erlies Kalifornien schon Ende der 70 Jahre Emissionsrichtlinien für Stickoxide, welche nur durch den Einsatz von Katalysatoren erreicht werden konnten. Nach und nach übernahmen mehrere Staaten der USA und später auch Japan die Regulierung wodurch der Katalysator zum weltweiten Standard wurde.34 Für effiziente Fahrzeuge ist Deutschland Leitmarkt. Als Antwort auf hohe Kraftstoffpreise machte in den neunziger Jahren das „Drei-Liter-Auto“ 31  Klemmer

et al. (1999). (2005). 33  Jacob et al. (2005). 34  Beise / Rennings (2004). 32  Beise / Rennings



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

185

Schlagzeilen. Da der theoretische Wirkungsgrad von Dieselmotoren höher liegt als bei Benzinmotoren, wurden Anstrengungen unternommen, diese Technologie weiterzuentwickeln. Dieselmotoren wurden sowohl dynamischer als auch effizienter. Am „Drei-Liter-Auto“ bestand aufgrund des hohen Kaufpreises kaum Interesse, effiziente Antriebe mit hoher Leistung wurden jedoch stark nachgefragt.35 3. Anwendung des Konzeptes Leitmarkt Das Leitmarktkonzept findet sich in der Innovationspolitik der Europäischen Kommission und der Bundesregierung wieder. Die Europäische Kommission startete 2007 das Projekt „Eine Leitmarktinitiative für Europa“. Kern der Initiative war eine nachfrage- statt technologieorientierte Innovationsförderung. Sie sollte einen breiten Marktbereich abdecken sowie durch gezielte aufeinander abgestimmte flexible politische Instrumente das Entstehen von Leitmärkten unterstützen. Es wurden eHealth, Schutztextilien, nachhaltiges Bauen, Recycling, Konsum- und Industriegüter aus Biomasse (bio-based products) und erneuerbare Energien ausgewählt und jeweils passende Märkte identifiziert. Für diese wurden Aktionspläne erstellt unter der Maßgabe, folgende politische Instrumente einzusetzen: (1) Koordinierte Gesetzgebung und Modifizierung von Gesetzen. (2) Nutzung von öffentlicher Beschaffung um innovative Produkte und Dienstleistungen zu fördern. (3) Ein konsistenteres Normungs-, Kennzeichnungs- und Zertifizierungswesen, um die Diffusion von Innovationen und das Entstehen von Leitmärkten anzuregen. (4) Andere unterstützende Maßnahmen, um die genannten Instrumente angebotsseitig zu unterstützen.36 Die Evaluation der Ergebnisse stellte sich schwierig dar, da die gewählten Märkte Segmente von anderen Märkten waren und somit keine einzelnen Statistiken vorlagen. Die hohen Erwartungen an das neue Konzept der Innovationsförderung konnten nur bedingt erfüllt werden. Ob die Leitmarktinitiative für Marktwachstum gesorgt hat, kann nach derzeitigem Stand noch nicht beantwortet werden. Folgendes ließ sich generalisieren. Das Entstehen von Netzwerke für öffentliche Beschaffung hatte positive Auswirkungen auf drei der sechs gewählten Märkte. Insbesondere in Verbindung mit europäischen Standards, die für eine Harmonisierung der Märkte sorgen und somit Wettbewerb ermöglichen, kann Innovation gefördert werden. Außerdem war einer der Erfolgsfaktoren die Bereitschaft der Industrie zu kooperieren. Im Bereich eHealth und Erneuerbare Energien hatte die Leitmarktinitiative 35  Beise / Rennings 36  EUC

(2011).

(2005).

186

Alexander Batteiger, Knut Blind und Jan Peuckert

kaum Einfluss auf deren Entwicklung. Zwar gab es große Fortschritte bei der Implementierung von Erneuerbaren Energien, diese waren aber nicht auf die Leitmarktinitiative zurückzuführen. Für einen langfristigen Erfolg der Leitmarktinitiative werden Nachfolgeprojekte sowie höhere finanzielle Zuwendungen benötigt. Die Stärke der Leitmarktinitiative liegt darin, dass sie ein Pilotprojekt für die Anwendung von innovationspolitischen Instrumenten ist, die sonst in dieser Form nicht hätten koordiniert werden können.37 •  Nationaler Entwicklungsplan Elektromobilität Die Bundesregierung beschloss 2009 den Nationalen Entwicklungsplan Elektromobilität und setzt sich zum Ziel, Deutschland zum Leitmarkt für Elektromobilität zu machen. Als Erfolgskriterium wurden eine Million zugelassene Elektrofahrzeuge bis 2020 definiert. Als Potenziale der Elektromobilität wurden unter anderem Klimaschutz, Sicherung der Energieversorgung, Ausbau des Technologie- und Industriestadtortes und Verringerung lokaler Emissionen durch den Verkehrssektor aufgeführt.38 Laut dem Fortschrittsbericht der Nationalen Plattform Elektromobilität sind die Grundlagen, Leitanbieter im Bereich Elektromobilität zu werden, geschaffen. Um den Fortschritt nicht zu gefährden wurden folgende Maßnahmen vorgeschlagen: (1) Die angestoßenen Forschungs- und Entwicklungsprojekte müssen umgesetzt und verstetigt werden. (2) Fach- und Führungskräfte für Elektromobilität müssen ausgebildet werden. (3) Fortführung der Prozesse im Bereich Normung im nationalen und internationalen Kontext.39 Aus heutiger Sicht scheint die Erreichbarkeit der Ziele jedoch fraglich. Sollte sich nichts an der Förderung ändern, geht selbst die Leitung der Nationalen Plattform Elektromobilität von maximal 600.000 Elektrofahrzeugen im Jahr 2020 aus.40

III. Technologien und Märkte für Null-Emission-Fahrzeuge Unterschiede zwischen ZEV und konventionellen Fahrzeugen bestehen in der Energiespeicherung und -wandlung. Im Bereich der Wasserstofftechnologien haben sich FCEV gegen Verbrennungsmotoren durchgesetzt.41 FCEV sind von Natur aus Hybrid-Fahrzeuge, da zum Ausgleich der diskontinuierlichen Leistungsabnahme Batterien verbaut sind. Insbesondere für große 37  EUC

(2011).

38  Bundesregierung

(2009). (2012). 40  Handelsblatt (20.06.2012). 41  Bakker et al. (2012). 39  NPE



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

187

Fahrzeuge und längere Reichweiten gelten FCEV als geeignet.42 Im Gegensatz zu FCEV haben BEV in geringen Stückzahlen ihren Weg in den Markt gefunden. So wurden 2012 global 120.000 BEV verkauft.43 Dies entspricht jedoch einem Anteil im Promille-Bereich in Relation zu über 84 Mio. produzierten Fahrzeugen.44 Im Bereich der Premiumfahrzeuge ist Tesla die führende Marke. Nach dem Erfolg des Tesla Roadsters, wurde 2012 die Limousine Model S auf den Markt gebracht. Schon 2013 wird erwartet, circa 20.000 Fahrzeuge auszuliefern.45 Sowohl bei FCEV als auch BEV erfolgt der Antrieb elektrisch und somit lokal emissionsfrei und vergleichsweise leise. Im urbanen Kontext kommt dieser Vorteil voll zum Tragen. Dennoch gibt es weder für FCEV noch für BEV derzeit funktionierende Geschäftsmodelle, die für einen Massenmarkt tauglich wären, da insbesondere die Anschaffungskosten zu hoch sind.46 Unter der Maßgabe, dass Verbrennungsmotoren durch strenge Regulierung von Schadstoffemissionen verteuert werden, können sich die Gesamtbetriebskosten von ZEV ab 2025 denen von Fahrzeugen mit Verbrennungsmotoren angleichen.47 Außerhalb des Automobilmarktes gibt es schon heute funktionierende Märkte für ZEV im individuellen Personenverkehr. Seit 2008 hat sich in Deutschland die Zahl jährliche Absatzzahl von Elektrofahrrädern von circa 110.000 auf 400.000 erhöht. Die Kunden zeigen mit mehr als 1500 € je Elektrofahrrad eine dreimal höhere Zahlungsbereitschaft als für normale Fahrräder.48 Dies ist durch einen zusätzlichen Nutzen begründet, der darin besteht, dass bspw. Senioren Radtouren auch in hügligen Regionen unternehmen oder Arbeitnehmer morgens entspannt und somit unverschwitzt zur Arbeit fahren können.49 In China waren 2010 circa 120 Mio. E-Bikes, also elektrische Roller oder Motoräder im Einsatz.50 Ab 1996 wurden im Stadtgebiet von Shanghai keine neuen Lizenzen für Zweiräder mit Verbrennungsmotor erteilt. Ein Jahr später zogen mehrere chinesische Städte nach. Im Jahr 1999 wurde ein landesweiter Standard für E-Bikes durchgesetzt, was zu steigenden Verkaufszahlen führte. Schon 2005 wurden mehr als 10 Mio. E-Bikes jährlich 42  McKinsey

(2010). (2012). 44  OICA (2013). 45  Tesla (2012). 46  Plötz et al. (2012) und McKinsey (2010). 47  McKinsey (2010). 48  ZIV (2012). 49  NOW (2012). 50  Economist (2010). 43  PIKE

188

Alexander Batteiger, Knut Blind und Jan Peuckert

abgesetzt. Durch die hohen Stückzahlen konnten die Kosten massiv gesenkt werden, so dass E-Bikes inzwischen als das wirtschaftlichste Fortbewegungsmittel in Städten gelten.51 Durch staatliche Regulierung wurde China zum mit Abstand größten Markt für E-Bikes.

IV. Potenzielle Leitmärkte für ZEV Für die Einführung von ZEV im individuellen Personenverkehr gibt es derzeit und in naher Zukunft noch keine ökonomische Notwendigkeit. Zweifelsohne dienen ZEV jedoch der Umwelt. Ein Kriterium für Leitmärkte von Umweltinnovationen ist, dass diese in der Regel im Leitmarkt für das konventionelle Innovationsdesign entstehen. Deutschland ist Leitmarkt für Premiumfahrzeuge52, die oftmals technologisch eine Vorreiterrolle einnehmen. Diese sind in der Regel groß und stark motorisiert und haben hohe jährliche Laufleistungen. Für diesen Fahrzeugtyp gelten FCEV als das wahrscheinlichste Innovationsdesign für ZEV.53 Somit soll unter Berücksichtigung der Besonderheiten des deutschen Automobilmarktes das Leitmarkt-Potenzial Deutschlands für FCEV ermittelt werden. Deutschland war nach China (16,3 Mio.), den USA (8,4 Mio.) und Japan (7,8 Mio.) mit circa 6,3 Mio. produzierten Fahrzeugen im Jahr 2011 der viertgrößte Produktionsstandort weltweit. Unter den 20 größten Automobilherstellern der Welt sind 16 in diesen Ländern beheimatet.54 •  Deutschland In Deutschland pendelt seit zehn Jahren die Zahl der Neuzulassungen um die 3,2 Mio. Fahrzeuge. Bis heute dominieren Fahrzeuge mit Verbrennungsmotoren den Markt. 2012 hatten erst 1,3 % aller Neuzulassungen alternative Antriebe, bei 2.695 Neuzulassungen von BEV. In Summe, also Hybrid- und BEV-Fahrzeuge, wurden 2012 knapp 25.000 Fahrzeuge mit elektrischen Antrieb oder Hilfsantrieben zugelassen. Trotz hoher Benzinpreise wurde 2012 ein Rekord bei der durchschnittlichen Motorisierung von Neuwagen verzeichnet.55 Hohe Leistung einhergehend mit Größe scheint für Kunden ein entscheidender Faktor beim Kauf zu sein. Die Clean Energy Partnership (CEP) ist das europaweit größte Demonstrationsprojekt für Wasserstoffmobilität. Derzeit sollen wasserstoffbasierte 51  Weinert

et al. (2007). (2009). 53  McKinsey (2010). 54  OICA (2013). 55  KBA (2012a, 2012b, 2012c, 2013). 52  ZEW



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

189

Mobilitätskonzepte zur Marktreife gebracht werden. Aktuell sind im Zuge des CEP 130 Wasserstofffahrzeuge sowie 28 Wasserstofftankstellen in Betrieb. Bis 2015 soll deutschlandweit ein Netz von mindestens 50 Wasserstofftankstellen entstehen. Weitere 10 Jahre später sind bis zu 1.000 Tankstellen bundesweit angedacht.56 •  Vereinigte Staaten von Amerika Die USA sind mit circa 12,7 Mio. Neuzulassungen der größte Automobilmarkt der Welt.57 Da nur 8,4 Mio. Fahrzeuge lokal produziert wurden, mussten 2011 in etwa 4,3 Mio. Fahrzeuge importiert werden. Ende 2011 waren 75.000 BEV in den USA zugelassen, wovon 18.000 in den Jahren 2010 und 2011 zugelassen wurden.58 Der Marktanteil von Hybridfahrzeigen betrug 2011 circa 3 % was absolut in etwa 300.000 Fahrzeugen entspricht.59 1999 wurde das California Fuel Cell Programme gestartet. Den Testflotten der Automobilhersteller werden Wasserstofftankstellen zur Verfügung gestellt. Acht davon sind öffentliche Tankstellen, 15 weitere nur durch Projektpartner nutzbar. In den gesamten USA sind derzeit 54 Wasserstofftankstellen sowie 51 Wasserstofffahrzeuge im Einsatz.60 Für ein das vollständige Land umfassendes Netz an Wasserstofftankstellen gibt es keine konkreten Pläne. Bis Ende 2015 sind in Kalifornien weitere 68 Wasserstofftankstellen geplant.61 •  China In den letzten fünf Jahren haben sich die Absatzzahlen an PKW in China mehr als verdoppelt und lagen 2011 bei 12,2 Mio.62 Alternative Antriebe und Elektrofahrzeuge spielen eine untergeordnete Rolle im chinesischen Automobilmarkt. In Summe wurden 2011 circa 8.500 BEV- und HybridFahrzeuge zugelassen. Für sogenannte New Energy Vehicles (NEV) gibt es einen 10 Jahresplan. Unter NEV werden FCEV, BEV und Plugin-Hybride verstanden. Es sind Förderungen hauptsächlich für BEV vorgesehen.63 56  CEP

(2013). (2012a). 58  IEA-HEV (2012). 59  EPA (2012). 60  NREL (2012). 61  FCT (2012b). 62  VDA (2012a). 63  IEA-HEV (2012). 57  VDA

190

Alexander Batteiger, Knut Blind und Jan Peuckert

Zur EXPO 2010 in Shanghai wurden 90 FCEV in einer Flotte von über 1000 NEV eingesetzt. Diese wurden größtenteils von internationalen Herstellern für die Zeit der EXPO 2010 zur Verfügung gestellt. Derzeit laufen keine größeren Demonstrationsprojekte für Wasserstoffmobilität in China. Ende 2012 gab es in China vier stationäre und fünf mobile Wasserstofftankstellen. Bis heute wurden keine Pläne, ein nationales Tankstellennetz aufzubauen, bekanntgegeben.64 •  Japan Japan war mit über 4,2 Mio. verkauften Fahrzeugen im Jahr 2011 der drittgrößte Automobilmarkt der Welt.65 Die Bevölkerungsdichte Japans ist sehr hoch, was dazu führt, dass 70 % der Neuzulassungen Kleinwagen sind. Japanische Fahrzeuge werden auf das Fahren in Städten optimiert. Deshalb erlangten Hybridfahrzeuge dort zuerst Marktreife. So ist laut der Internationalen Energieagentur Japan sowohl in der Batterie- als auch der Hybridtechnologie führend.66 Auch das ZEW sieht Japan als Leitmarkt für die beiden Technologien.67 Im Jahr 2011 wurden in Japan 660.000 Hybridfahrzeuge zugelassen, dies entspricht einem Marktanteil von circa 15 %. In keinem Land der Welt ist der Anteil an Fahrzeugen mit Hybridantrieben so hoch wie in Japan. Des Weiteren wurden circa 10.000 BEV zugelassen68. Ende 2012 waren in Japan 13 Wasserstofftankstellen installiert, drei weitere sollen bis Mitte 2013 folgen. Es wurde von der japanischen Regierung ein Plan für den Aufbau eines Wasserstofftankstellennetzes in Auftrag gegeben, welcher bis 2015 die Installation von 100 Tankstellen vorsieht. In Japan gibt es kein großes koordiniertes Demonstrationsprojekt für Wasserstofffahrzeuge. Japanische Hersteller testen ihre Fahrzeuge selbstständig und in Demonstrationsprojekten anderer Länder.69

V. Bestimmung des Leitmarkt-Potenzials Die Bestimmung des Leitmarkt-Potenzials wurde für alle Länder, in denen mehr als eine Million PKW jährlich produziert werden, durchgeführt. Der Iran und die Tschechische Republik wurden, obwohl sie dem Kriterium entsprechen, nicht berücksichtigt. Beide sind als Leitmärkte jedoch ungeeig64  FCT

(2012c). (2013). 66  IEA-HEV (2012). 67  ZEW (2013). 68  JAMA (2012). 69  FCT (2012a). 65  JAMA



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

191

net. So gibt es gegen den Iran ein Handelsembargo und die hohen Produktionszahlen in der Tschechischen Republik sind auf ein Tochterunternehmen des Volkswagen-Konzerns zurückzuführen. 1. Indikatoren und Quelle Zur Bestimmung des Leitmarkt-Potenzials Deutschlands wurden 17 Leitmarkt-Indikatoren für die fünf Leitmarkt-Faktoren entwickelt und erhoben. Die verwendeten Indikatoren sowie deren Zuordnung zu den LeitmarktFaktoren werden in Tabelle 1 dargestellt. Es wurde, so es möglich war, auf Datensätze von Datenbanken internationaler Organisationen, wie UN Comtrade oder Worldbank Database zurückgegriffen, um möglichst gute vergleichbare Daten zu erhalten. Produktions- und Verkaufszahlen von PKW wurden über die Automobilverbände der jeweiligen Länder beziehungsweise die Vereinigung der Automobilhersteller (OICA) ermittelt. Fehlende Daten wurden durch Mittelwerte ersetzt und somit neutral bewertet. Der Betankungsdruck von FCEV wurde international standardisiert. Durch die Umstellung wurden viele Fahrzeuge außer Betrieb gesetzt. Deshalb sind die Zahlen der FCEV-Flotten nicht vergleichbar. Auch die geplanten Wasserstofftankstellen wurden nicht modelliert, da es nur verlässliche Quellen für Japan, Deutschland und die USA gibt. Tabelle 1 Leitmarkt-Faktoren und -Indikatoren LeitmarktFaktor

Beschreibung

Indikatoren

Nachfrage

Regulierung

km pro Liter Brennstoff (2010; 2020); Energieimporte in  %

Preis / Kosten

Marktgröße

Anzahl H2-Tankstellen 2012; Produktion PKW + LCV (2006 und 2011); Verkauf PKW + LCV (2006 und 2011)

Faktorkosten

Tankstellenpreis Diesel, Benzin (2010)

Exportstärke

Saldo Produktion Neuzulassungen (2006; 2011); Differenz Exporte Importe PKW in Mio. USD 2011

Export

Marktstruktur Konkurrierende Antriebe Transfer

Verkauf BEV und Hybridfahrzeuge (2011)

Internationalität Internationale Touristen (2011), Anzahl internationale Abflüge (2011)

192

Alexander Batteiger, Knut Blind und Jan Peuckert

•  Indexbildung Für jeden Leitmarkt-Faktor wurde in einem ersten Schritt eine Hauptkomponentenanalyse durchgeführt. Preis- und Kostenvorteile konnten nicht durch einen Hauptfaktor beschrieben werden und teilen sich deswegen in die Marktgröße und Faktorkosten auf. Beise schlägt zur Indexbildung Mittelwerte vor.70 Die Robustheit der Ergebnisse wurde durch Indexbildung über den Mittelwert ohne den für ein Land jeweils höchsten beziehungsweise niedrigsten Faktorwert sowie über den Median der Faktorwerte geprüft. Aus Abbildung 1 lässt sich erkennen, dass alle vier Varianten der Indexbildung zu ähnlichen Ergebnissen kommen. Das Ergebnis der Analyse wird nicht durch Ausreißer bestimmt. 2. Bewertung der Ergebnisse Aus Abbildung 1 kann man erkennen, dass das Leitmarkt-Potenzial für ZEV in Japan und Deutschland besonders ausgeprägt ist. Generell gelten positive Werte über eins als hohes Leitmarkt-Potenzial. Dieser Wert wird, unter Berücksichtigung aller Leitmarkt-Faktoren, von Japan und DeutschJapan Deutschland USA China Frankreich Spanien Großbritannien Südkorea Median

Brasilien

MW ohne Min

Indien

MW ohne Max

Kanada

MW

Russland Mexiko –1

–0,5

0

0,5

1

Abbildung 1: Leitmarkt-Potenzial ZEV (Eigene Darstellung) 70  Beise

(2006).

1,5



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

193

land knapp erreicht. Es folgen die USA und mit deutlichem Abstand China. Unter den Schwellenländern erreicht nur China zumindest teilweise positive Werte. Ein Leitmarkt für FCEV ist in Schwellenländern nicht zu erwarten. Im Folgenden sollen die Ergebnisse der vier Länder mit dem höchsten Leitmarkt-Potenzial diskutiert werden. Ein besonderes Augenmerk liegt auf der Regulierung von CO2-Emissionen. Diese ist für Verbrennungsmotoren kritisch, da physikalisch-technische Grenzen existieren, die nicht unterschritten werden können. Selbst im Jahr 2050 können für größere Fahrzeuge 100 g CO2 / km nicht erreicht werden.71 Die in der EU und Japan gegenwärtig diskutierten Grenzwerte liegen jedoch darunter. •  Japan Japan ist das Land mit dem höchsten Leitmarkt-Potenzial für FCEV. So ist Japan in den Hauptfaktoren Regulierung, Exportstärke und konkurrierenden Antriebe führend. Resultierend aus der hohen Zahl an Neuzulassungen von Hybridfahrzeugen und BEV ergibt sich ein Wettbewerb zwischen den konkurrierenden Innovationsdesigns. FCEV werden teilweise auch als konsequente Weiterentwicklung von Hybridfahrzeugen gesehen. Somit ist eine führende Position im Bereich der konkurrierenden Antriebe doppelt vorteilhaft. Regulierung 3 2 Konkurrenz Antriebe

1 0

Marktgröße

–1 –2 –3

Internationalität

Faktorkosten

Exportstärke

Abbildung 2: Hauptfaktoren Japan (Eigene Darstellung) 71  McKinsey

(2010), S. 31.

194

Alexander Batteiger, Knut Blind und Jan Peuckert

Auch in Punkto Regulierung gibt es kein Land, das besser abschneidet. Schon heute sind die Fahrzeuge in Japan die effizientesten weltweit.72 Die Emissionsziele für CO2 zählen zu den niedrigsten der Welt.73 Doch Japan wartet mit einer Besonderheit auf. Die Regulierungsauflagen werden bei Neuzulassungen schon heute ohne Probleme erreicht und sogar unterschritten. Die Regulierung folgt aber eher dem voranschreitenden Stand der Technik. In Japan scheinen somit andere Mechanismen als die Regulierung von CO2-Emissionen zu wirken.74 Japan ist bekanntermaßen ein exportstarkes Land und nimmt folglich eine Führungsposition im Bereich der Exportstärke ein. Die einzige Schwäche des japanischen Marktes ist die mangelnde Internationalität. Es könnte somit an potenziellen Transfermittlern mangeln, die einem dominanten Innovationsdesign aus Japan weltweit zum Durchbruch verhelfen. •  Deutschland Das Land mit dem zweithöchsten Leitmarkt-Potenzial ist Deutschland. Auch hier ist erkennbar, dass für nahezu alle Hauptfaktoren führende Positionen eingenommen werden. Eine Schwäche liegt im Bereich der konkurrierenden Antriebe. In Deutschland haben Fahrzeuge mit alternativen Antrieben äußerst geringe Marktanteile. Dies ist dem hohen Marktanteil deutscher Automobilhersteller geschuldet, welche dem Trend zur Hybridisierung der Antriebsstränge erst spät gefolgt sind. Für das Leitmarkt-Potenzial im Bereich FCEV ist dies ein Nachteil. BMW hat auf diesen Umstand schon reagiert und durch eine gemeinsame Absichtserklärung eine verstärkte Kooperation mit dem Toyota-Konzern bekundet. Beide Konzerne wollen gemeinsam unter anderem an der Entwicklung von FCEV, an Leichtbau, und der Elektrifizierung des Antriebsstranges arbeiten.75 Eine weitere Schwäche ist eigentlich die Marktgröße des Heimatmarktes. Diese wird aber durch die ausgeprägte Exportstärke der deutschen Automobilhersteller ausgeglichen. In Punkto Regulierung ist Deutschland, bzw. Europa gemeinsam mit Japan führend. Für 2020 wird in der Europäischen Union ein Emissionsgrenzwert von 95 g CO2 / km diskutiert. Dies würde bedeuten, dass die Automobilhersteller in Europa zwischen 2011 und 2020 jährliche Effizienzsteigerungen in Höhe von 3,8 % erreichen müssen.76 Ein Wert, der für größere Fahrzeuge schwer zu erreichen sein wird. Der Verband der Deutschen Au72  IEA

(2012). (2012). 74  ICCT (2012). 75  BMW (2012). 76  ICCT (2012). 73  ICCT



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

195

Regulierung 3 2 Konkurrenz Antriebe

1 0

Marktgröße

–1 –2 –3

Internationalität

Faktorkosten

Exportstärke

Abbildung 3: Hauptfaktoren Deutschland (Eigene Darstellung)

tomobilindustrie (VDA) weist darauf hin, dass die CO2-Regulierung Innovationen fördern und Wettbewerbsfähigkeit sichern müsse.77 Es wird betont, dass Hersteller großer Fahrzeuge überproportional von der Regulierung betroffen wären. Daraus könnte ein Markt für alternative Antriebe für große Fahrzeuge entstehen. In Europa soll der Flottenverbrauch eines Herstellers reguliert, das heißt, über alle verkauften Fahrzeugen eines Herstellers müssen Grenzwerte eingehalten werden.78 Auch sollen abgesetzte ZEV einen Multiplikator für den Flottenverbrauch erhalten, was einen Anreiz zum Verkauf von ZEV bietet.79 Für den Fall, dass Grenzwerte nicht eingehalten werden, sind Strafzahlungen vorgesehen. •  Vereinigte Staaten von Amerika Das Marktvolumen, die Internationalität und konkurrierende Antriebskonzepte sind die Leitmarkt-Stärken der USA. Nach wie vor haben die USA den größten Automobilmarkt der Welt. Neben Japan, ist die USA das einzige große Industrieland, in dem Hybridfahrzeuge einen signifikanten Anteil an den Neuzulassungen haben. Somit scheinen lokal vorteilhafte Bedingungen für die Elektrifizierung der Antriebsstränge vorzuliegen. Das große 77  VDA

(2012b). (2012). 79  ICCT (2012). 78  IEA

196

Alexander Batteiger, Knut Blind und Jan Peuckert Regulierung 3 2 Konkurrenz Antriebe

1 0

Marktgröße

–1 –2 –3

Internationalität

Faktorkosten

Exportstärke

Abbildung 4: Hauptfaktoren USA (Eigene Darstellung)

Manko ist die Exportschwäche. Um den lokalen Bedarf zu decken müssen jährlich über 4 Mio. Fahrzeuge importiert werden. Im Gegenzug werden kaum Fahrzeuge exportiert. In den USA werden nicht die CO2-Emissionen, sondern die durchschnittliche Reichweite je Gallone reguliert. Für Fahrzeuge mit Verbrennungsmotoren ergeben sich keine Unterschiede in der Regulierung, da ein direkter physikalischer Zusammenhang besteht. Die bisherige Regulierung in den USA war jedoch nicht so streng wie in Europa oder Japan. Bis 2025 soll ein Grenzwert von 109 g CO2 / km erreicht werden. Dies entspricht jährlichen Effizienzsteigerungen in Höhe von 4,8 % zwischen 2011 und 2025.80 Absolut sind die Grenzwerte jedoch höher als in Japan oder Europa. Die Regulierung von ZEV in Kalifornien konnte nicht operationalisiert werden. Es wurde ein Gesetz erlassen, dass den Fahrzeugflotten der Hersteller verpflichtende Anteile an ZEV vorschreibt. Ab 2018 müssen nach derzeitigem Stand 4,5 % aller Neuzulassungen eines Herstellers in Kalifornien ZEV sein. Danach soll der Anteil jährlich um 2,5 % bis auf 18 % im Jahr 2025 steigen.81 Falls dieser Anteil nicht eingehalten wird, müssen Automobilhersteller Strafzahlungen leisten. Hieraus kann ein Leitmarkt für ZEV entstehen. 80  ICCT

81  CCAA

(2012). (2012).



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

197

•  China Für China ergibt sich ein niedriges Leitmarkt-Potenzial, obwohl insbesondere die Luftqualität der Metropolen von ZEV profitieren könnte. Hinsichtlich der Marktgröße hat China Leitmarkt-Potenzial. Es ist zu erwarten, dass China bald zum größten Automobilmarkt der Welt werden wird. Nichtsdestotrotz sprechen einige Gründe gegen China als Leitmarkt. Nach wie vor sind die Kosten für Benzin und Diesel sehr niedrig, was sich schlecht auf die Wirtschaftlichkeit von konkurrierenden Antriebskonzepten auswirkt. Unter anderem deshalb haben Hybridfahrzeuge und BEV bis heute kaum Marktanteile in China erobern können. In China sind die kurzfristigen Reduktionsziele für CO2-Emissionen von PKW so wenig ambitioniert, dass hieraus keine Nachfrage für ZEV resultieren wird.82 Für 2020 ist ein Grenzwert von 117 g CO2 / km in der Diskussion.83 Regulierung 1.5 1 Konkurrenz Antriebe

0.5

Marktgröße

0 –0,5 –1

Internationalität

Faktorkosten

Exportstärke

Abbildung 5: Hauptfaktoren China (Eigene Darstellung)

VI. Diskussion der Ergebnisse Unter Berücksichtigung aller Leitmarkt-Faktoren ergibt sich das höchste Leitmarkt-Potenzial für Japan und Deutschland gefolgt von den USA. Es ist nicht zu erwarten, dass ZEV in Deutschland aus rein ökonomischen Grün82  IEA-HEV 83  ICCT

(2012). (2012).

198

Alexander Batteiger, Knut Blind und Jan Peuckert

den signifikante Marktanteile in naher Zukunft erorbern werden. Auch ein zusätzlicher Nutzen ist bei ZEV derzeit nicht erkennbar. Sowohl bezüglich Kaufpreis, Leistung, Reichweite und Tankinfrastruktur müssen selbst bei FCEV Restriktionen hingenommen werden. Ein möglicher zusätzlicher Nutzen könnte für Kunden darin bestehen, nach außen ihr ökologisch nachhaltiges Lebensgefühl sowie Vermögen darzustellen. Für einen Massenmarkt sind Konzepte, die beim Tesla Roadster funktionieren, ungeeignet. Somit kann zeitnah ein Leitmarkt für ZEV beziehungsweise FCEV in Deutschland nur durch innovationspolitische Instrumente entstehen. Die Regulierung von CO2-Emissionen ist einer der entscheidenen Faktoren für die Implementierung von FCEV. Japan und die Europäischen Union nehmen hier eine Vorreiterrolle ein. Insbesondere deutsche Premiumhersteller könnten durch Regulierung gezwungen werden, einen Teil ihrer Flotte in Europa auf alternative Antriebskonzepte umzustellen. Jedoch haben Hersteller wie Mercedes und BMW schon reagiert und vertreiben inzwischen auch Kleinwägen. Diese senken die durchschnittlichen CO2-Emissionen ihrer Fahrzeugflotten. Im Gegensatz zur Regulierung in Japan sind die Hersteller in Deutschland technologisch gefordert, um die Emissions-Standards einzuhalten. Aus diesem Druck seitens des Gesetzgebers könnten Innovationen entstehen. Auch von anderer Seite entsteht Druck. Greenpeace fordert für Europa noch weit härtere Grenzwerte, für 2020 zum Beispiel von 80 g CO2 / km. Fünf Jahre später soll der Wert auf 60 g CO2 / km sinken.84 Sollten die Grenzwerte seitens der europäischen Kommision drastisch gesenkt werden, ist damit zu rechnen, dass ZEV durch Regulierung Marktreife erlangen werden. Die bisher vorgeschlagenen Grenzwerte sind noch mit optimierten Verbrennungsmotoren und intelligenter Flottenpolitik zu erreichen. Außerdem haben sich Verbandsvertreter schon positioniert, um die Ziele der Europäischen Union zu torpedieren. Es ist also nicht zu erwarten, dass kurzfristig ein Markt für ZEV durch die Setzung anspruchsvoller Regulierungsziele in Deutschland entstehen wird. Die vorliegende Analyse kann nicht dazu dienen, verschiedene Formen der Regulierungen zu vergleichen. So wird in Kalifornien ein Quotenmodell bevorzugt, das nicht in der Modellierung berücksichtigt werden konnte. Tesla, ein in Kalifornien beheimateter Hersteller von BEV, vertreibt relativ erfolgreich batterieelektrische Sportwagen. Ähnliches dürfte mit der Limousine Model S gelingen. Somit sind BEV in Kalifornien zumindest im Segment der Luxus-Fahrzeuge angekommen. Unter Umständen bleibt der Gesetzgeber aufgrund von positiven Erfahrungen im zweiten Anlauf hart und hält an der Regulierung fest und ermöglicht somit einen Markt für ZEV in Kalifornien. 84  Greenpeace

(2012).



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

199

Der Katalysator ist ein Beispiel wie, von Regulierung in Kalifornien ausgehend, ein Innovationsdesign zum globalen Standard werden konnte. Schlussendlich soll auf den japanischen Markt eingegangen werden. Japan gilt schon heute als Leitmarkt für Hybrid-Fahrzeuge und BEV. Obwohl hauptsächlich europäische Studien zu ZEV betrachtet wurden, und im Gegensatz zu anderen Ländern die Regulierung der CO2-Emissionen dem Stand der Technik folgt, hat Japan das höchste Leitmarkt-Potenzial für ZEV. Ein für sich betrachtet erstaunliches Ergebnis, das weitere Forschungsfragen aufwirft.

VII. Zusammenfassung und Fazit Der Verkehrssektor ist für bedeutende Anteile der globalen CO2-Emission sowie der lokalen Schadstoff- und Schallemissionen verantwortlich. NullEmission-Fahrzeuge, also batterieelektrische Fahrzeuge und Brennstoffzellenfahrzeuge, gelten als mögliche Lösungsansätze für die Problematiken und gerade deswegen als Antriebskonzepte der Zukunft. Die Bundesregierung proklamierte 2009, Deutschland solle zum Leitmarkt für Elektromobilität werden. Japan ist schon heute im Bereich der batterieelektrischen Fahrzeuge und Hybridfahrzeuge Leitmarkt, Deutschland für Premiumfahrzeuge und effiziente Antriebe. In der vorliegenden Arbeit wurde das Leitmarkt-Potenzial für Null-Emission-Fahrzeuge unter besonderer Berücksichtigung von Brennstoffzellenfahrzeugen modelliert. Hierfür wurden Leitmarkt-Faktoren und die ihnen zu Grunde liegenden Leitmarkt-Indikatoren entwickelt, erhoben und mittels einer Faktorenanalyse ausgewertet. Japan und Deutschland sind, gefolgt von den Vereinigten Staaten von Amerika, besonders geeignet, eine Leitmarkt-Rolle für Null-Emission-Fahrzeuge in Zukunft einzunehmen. Das Leitmarkt-Potenzial Chinas und anderer Schwellenländer ist gering. Literatur Bakker, S. / Van Lente, H. / Meeus, M. T. H. (2012): Dominance in the prototyping phase – The case of hydrogen passenger cars, in: Research Policy, 41. Jg., S. 871–883. Beise, M. (2006): Die Lead-Markt-Strategie: Das Geheimnis weltweit erfolgreicher Innovationen, Springer Berlin Heidelberg. Beise, M. / Cleff, T. (2004): Assessing the lead market potential of countries for innovation projects, in: Journal of International Management, 10. Jg., S. 453–477. Beise, M. / Rennings, K. (2004): The impact of national environmental policy on the global success of next-generation automobiles, in: International Journal of Energy Technology and Policy, 2. Jg., S. 272–283.

200 –

Alexander Batteiger, Knut Blind und Jan Peuckert (2005): Lead markets and regulation: a framework for analyzing the international diffusion of environmental innovations, in: Ecological Economics 52. Jg., S. 5–17.

BMW (2012): BMW Group und Toyota Motor Corporation wollen Zusammen­arbeit ausbauen URL http: /  / www.bmwgroup.com / d / 0_0_www_bmwgroup_com / in vestor_relations / corporate_news / news / 2012 / Ausbau_Zusammenarbeit_Toyota. html (Zugriff 21.01.2013). Bundesregierung (2009): BMWi – Pressemitteilungen URL http:  /   /  www.bmwi.de  /  DE / Presse / pressemitteilungen,did=309868.html (Zugriff 08.01.13). CCAA (2012): Zero Emission Vehicle Regulation: 2018 and Subsequent Model ­Years URL http: /  / www.arb.ca.gov / msprog / zevprog / 2011zevreg / attachb3.pdf (Zugriff 21.06.2012). CEP, Clean Energy Partnership (2013): URL http:  /   /  www.cleanenergypartnership. de / uploads / tx_cepdownloadsv2 / Veroeffentlichung_Projektergebnisse-11_4_ NKBF98-1.pdf (Zugriff 22.06.12). CEPA (2012): California Environmental Protection Agency – Air Resources board – California Clean Vehicle Incentives URL http: /  / www.arb.ca.gov / msprog / zev prog / factsheets / clean_vehicle_incentives.pdf (Zugriff 11.21.12). Economist (2010): China’s electric-bicycle boom: Pedals of fire. The Economist. EIA, Energy Information Agency (2012): Annual Energy Review 2011 URL http: /  / www.eia.gov / totalenergy / data / annual / pdf / aer.pdf (Zugriff 19.01.2013). EPA, United States Environment Protection Agency (2012): Light-Duty Automotive Technology, Carbon Dioxide Emissions, and Fuel Economy Trends: 1975 Through 2011 URL http: /  / www.epa.gov / otaq / cert / mpg / fetrends / 2012 / 420r120 01a.pdf (Zugriff 14.01.2013). EUC, Europäische Kommision (2011): final-eval-lmi_en.pdf URL http: /  / ec.europa. eu / enterprise / policies / innovation / policy / lead-market-initiative / files / final-evallmi_en.pdf (Zugriff 09.10.2012). FCT, FuelCellToday (2012a): Fuel Cell Electric Vehicles: The Road Ahead, URL http: /  / www.fuelcelltoday.com / media / 1711108 / fuel_cell_electric_vehicles_-_ the_road_ahead.pdf (Zugriff 12.12.2012). –

(2012b): The Fuel Cell Industry Review 2012 URL http: /  / www.fuelcelltoday. com / media / 1713685 / fct_review_2012.pdf (Zugriff 10.01.2013).



(2012c): Fuel Cells and Hydrogen in China 2012 URL http: /  / www.fuelcellto day.com / media / 1587227 / fuel_cells_and_hydrogen_in_china_2012.pdf (Zugriff 15.01.2013).

Greenpeace (2012): http: /  / www.greenpeace.org / eu-unit / en / News / 2012 / Europe-inthe-slow-lane-on-car-efficiency-standards /  (Zugriff 29.08.2012). Grünweg, T. (2013): Detroit Auto Show: Amerika im Größenwahn – SPIEGEL ONLINE SPIEGEL ONLINE. URL http: /  / www.spiegel.de / auto / aktuell / messe rundgang-in-detroit-die-trends-und-neuheiten-der-autoshow-2013-a-877577. html (Zugriff 17.01.2013).



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

201

Handelsblatt (2012): Elektrostrategie: Autoindustrie sieht sich für Elektromobilität gerüstet – Industrie – Unternehmen – Handelsblatt URL http: /  / www.handelsblatt.com / unternehmen / industrie / elektrostrategie-autoindustrie-sieht-sich-fuerelektromobilitaet-geruestet / 6774116.html (Zugriff 09.01.2013). Hippel, E. (2007): The Sources of Innovation, in: Boersch, C. / Elschen, R. (Eds.), Das Summa Summarum des Management, Gabler-Verlag, S. 111–120. ICCT (2012): Global Transportation Energy and Climate Roadmap – The impact of transportation policies and their potential to reduce oil consumption and greenhouse gas emissions URL http: /  / theicct.org / sites / default / files / publica tions / ICCT %20Roadmap %20Energy %20Report.pdf (Zugriff 15.01.13). IEA (2012): Technology Roadmap Fuel Economy of Road Vehicles URL http: /  / www. iea.org / publications / freepublications / publication / Fuel_Economy_2012_WEB. pdf (Zugriff 15.01.2013). IEA-HEV (2012): Hybrid and Electric Vehicles: The Electric Drive Capture The Imagination URL http: /  / www.ieahev.org / assets / 1 / 7 / IA-HEV_2011_annual_re port_web.pdf (Zugriff 06.11.2012). Jacob, K. / Beise, M. / Cleff, T. / Jänicke, M. (2005): Lead markets for environmental innovations: with … 20 tables. Physica-Verlag, Heidelberg u. a. JAMA, Japan Automobile Manufacturers Association (2012): Fiscal 2010 Domestic Alternative-Energy and Fuel-Efficient  /  Eco-Friendly Vehicle Shipments URL http: /  / www.jama-english.jp / statistics / eco_friendly / 2011 / 121030_ref.html (Zugriff 14.01.2013). –

(2013): JAMA – Japan Automobile Manufacturers Association, Inc URL http: /  / www.jama-english.jp / index.html (Zugriff 14.01.2013).

Kalish, S. / Mahajan, V. / Muller, E. (1995): Waterfall and sprinkler new-product strategies in competitive global markets, in: International Journal of Research in Marketing, 12. Jg., S. 105–119. KBA (2012a): Kfz-Bestand.pdf URL http: /  / www.statistik-berlin-brandenburg.de / Ein zelseiten / ZwanzigJahreBBB / Kfz-Bestand.pdf (Zugriff 07.01.2013). –

(2012b): KBA Emissionen, Kraftstoffe URL http: /  / www.kba.de / cln_030 / nn_ 191064 / DE / Statistik / Fahrzeuge / Neuzulassungen / EmissionenKraftstoffe / 2011 __n__herkoemmliche__antriebe__tabelle.html (Zugriff 02.01.2013).



(2012c): KBA Monatliche Neuzulassungen URL http: /  / www.kba.de / cln_030 /  nn_330190 / DE / Statistik / Fahrzeuge / Neuzulassungen / MonatlicheNeuzulassun gen / 2012 / 201211GV1monatlich / 201211__n__barometer__teil2__tabelle.html (Zugriff 02.01.2013).



(2013): KBA Motorisierung URL http: /  / www.kba.de / cln_033 / nn_191088 / DE /  Statistik / Fahrzeuge / Neuzulassungen / Motorisierung / n__motorisierung__pkw__ zeitreihe__techn__merkmale.html (Zugriff 02.01.2013).

Klemmer, P. / Lehr, U. / Löbbe, K. (1999): Umweltinnovationen: Anreize und Hemmnisse, Analytica V.-G.

202

Alexander Batteiger, Knut Blind und Jan Peuckert

KPMG (2012): Global Automotive Executive Survey 2012 URL http: /  / www.kpmg. com / GE / en / IssuesAndInsights / ArticlesPublications / Documents / Global-auto motive-executive-survey-2012.pdf (Zugriff 16.12.2012). Levitt, T. (1983): The Globalisation of Markets, in: Harvard Business Review, 63. Jg. Mansfield, E. (1968): Industrial Research and Technological Innovation: An Econometric Analysis, W.W. Norton & Company. McKinsey (2010): Ein Portfolio von Antriebssystemen für Europa: Eine faktenbasierte Analyse. NCADAC, National Climate Assessment Development Advisory Committee (2013): Executive Summery Climat Change Report 2013 http: /  / ncadac.globalchange. gov / download / NCAJan11-2013-publicreviewdraft-chap1-execsum.pdf (Zugriff 17.01.2013). NOW (2012): Nationale Organisation Wasserstoff- und Brennstoffzellentechnologe (NOW). Elektromobil auf zwei Rädern – Erfahrungen aus den Modellregionen. NPE (2012): Fortschrittsbericht der Nationalen Plattform Elektromobilität (Dritter Bericht) URL http: /  / www.bmu.de / files / pdfs / allgemein / application / pdf / bericht _emob_3_bf.pdf (Zugriff 02.08.12). NREL (2012): National Renewable Energy Laboratory, . Controlled Hydrogen Fleet and Infrastructure Analysis.URL http: /  / NREL / PR-5600-54475 (Zugiff 14.12.2012). OICA (2013): OICA „Production Statistics“ URL http: /  / oica.net / category / produc tion-statistics /  (Zugriff 02.01.2013). PIKE, Pike Research Institute (2013): Electric Vehicle Markte Report URL http: /  / www.pikeresearch.com / wordpress / wp-content / uploads / 2012 / 12 / EVMF12-Executive-Summary.pdf (Zugriff 06.01.2013). Plötz, P. / Gnann, T. / Wietschel, M. (2012): Total Ownership Cost Projection for the German Electric Vehicle Market with Implications for its Future Power and Electricity Demand, in: 7th Conference on Energy Economics and Technology Infrastructure for the Energy Transformation, S. 12. Porter, M. (1990): The Competitive Advantage of Nations, in: Harvard Business Review. Rennings, K. / Smidt, W. (2010): A Lead Market Approach towards the Emergence and Diffusion of Coal-Fired Power Plant Technology, Ep. Süddeutsche Zeitung (2013): Umweltverschmutzung in China: Regierung sieht blindes Wachstum als Smog-Ursache. http: /  / www.sueddeutsche.de / politik / umwelt verschmutzung-in-china-regierung-sieht-blindes-wachstum-als-smog-ursache-1. 1574234 (Zugriff 17.01.2013). Tesla (2012): Q3 2012 Shareholder Letter URL http: /  / files.shareholder.com / down loads / ABEA-4CW8X0 / 2258370883x0x611344 / 42cb80fa-6f64-4e48-93ff-2da 29de21acc / Q3 %202012 %20Shareholder %20Letter %20Final.pdf (Zugriff 07.02.2013).



Deutschland als Leitmarkt für Null-Emission-Fahrzeuge

203

TMC, Toyota Motors Company (2012): Worldwide Sales of TMC Hybrids Top 4 Million Units | TOYOTA MOTOR CORPORATION GLOBAL WEBSITE URL http: /  / www2.toyota.co.jp / en / news / 12 / 05 / 0522.html (Zugriff 15.01.2013). VDA, Verband der Automobilindustrie (2012a): VDA Jahresbericht 2012. Verband der Automobilindustrie. –

(2012b): VDA – CO2-Regulierung muss Innovationen fördern und Wettbewerbsfähigkeit sichern URL http: /  / www.vda.de / de / meldungen / news / 20120711 -1.html (Zugriff 15.01.2013).

Vernon, R. (1979): The Product Cycle Hypothesis In A New International Environment. Oxford Bulletin of Economics and Statistics 41, 255–267. Weinert, J. / Ma, C. / Cherry, C. (2007): The transition to electric bikes in China: history and key reasons for rapid growth, in: Transportation, 34. Jg., S. 301– 318. ZEW, Zentrum für europäische Wirtschaftsforschung (2009): Die Bedeutung der Automobilindustrie für die deutsche Volkswirtschaft im europäischen Kontext. URL ftp: /  / ftp.zew.de / pub / zew-docs / gutachten / AutomobEndBericht_final.pdf (Zugriff 02.12.2012). –

(2013): Kooperationen ZEW Lead Markets, AP2: Fallstudien URL http: /  / kooperationen.zew.de  /   l ead-markets  /   p rojektbeschreibung  /   a p2-fallstudien.html (Zugriff 14.01.13).

ZIV, Zweirad Industrie Verband (2012): Zahlen – Daten – Fakten zum Fahrradmarkt in Deutschland. URL http: /  / www.ziv-zweirad.de / public / pk_2012-ziv-praesen tation_21-03-2012.pdf (Zugriff 12.12.2012).

Bedingungsloses Grundeinkommen: Schnapsidee oder Geniestreich? Von Alexander Spermann

I. Einleitung Zehn Jahre nach der Reform der Grundsicherung besteht weitgehend Einigkeit, dass die Hartz-Reformen und die Agenda 2010 wesentlich zur im europäischen Vergleich hervorragenden Performance des deutschen Arbeitsmarktes beigetragen haben (vgl. Bonin 2013, Bräuninger et al. 2013, Rinne / Zimmermann 2013, Schneider 2012). Das Kernstück der Hartz-Reformen war die Zusammenlegung von Arbeitslosenhilfe und Sozialhilfe zu einer steuerfinanzierten Grundsicherung – im Volksmund Hartz IV tituliert. Die Reform der Grundsicherung ist in den letzten zehn Jahren immer wieder kontrovers diskutiert worden. Dabei standen sich die drei Konzepte – Kombilohn, Workfare und bedingungsloses Grundeinkommen häufig als unversöhnbare Alternativen gegenüber (vgl. Spermann 2010). Die Aus­ ­ einandersetzung wird mit verbaler Härte geführt: Hartz IV wird als offener Strafvollzug gebrandmarkt, das bedingungslose Grundeinkommen als Schnapsidee bezeichnet und als Träumerei diskreditiert. Für Reflektieren und Infragestellen liebgewordener eigener Positionen bleibt keine Zeit. Für Leser, die sich diese Fähigkeit bewahrt haben, ist dieser Beitrag geschrieben. Der Autor, ein ehemaliger Kritiker des Bedingungslosen Grundeinkommens und Befürworter einer kombinierten Workfare-Kombilohn-Lösung (vgl. Spermann 2007, Genz / Spermann 2007), plädiert dabei für eine mittelfristig angelegte Reform der Grundsicherung in Richtung auf ein Bedingungsloses Grundeinkommen. Dazu sollten kleinere Reformschritte, die in Richtung dieser Vision zielen, kontinuierlich evaluiert werden.

II. Naives Menschenbild und unfinanzierbar? Die Grundidee des bedingungslosen Grundeinkommens bedeutet für die deutschen Verhältnisse im Jahr 2013 schlicht und einfach: 1.000 Euro für jeden – bedingungslos. Tausend Euro für alle, ob reich oder arm, ob alt oder jung, um ein Leben ohne Existenzangst verwirklichen zu können, und um die Freiheit, tun zu können, was man will, und um eine veränderte Gesell-

206

Alexander Spermann

schaft zu ermöglichen, in der jede Person nach ihren Fähigkeiten und Neigungen tätig sein könnte. Der prominenteste Vertreter für diese Idee ist Götz Werner (vgl. Werner  /  Göhler 2010). Simple Ideen sind faszinierend und besorgniserregend zugleich. 1. Faszination und Sorge Faszinierend, weil mit einem Schlag der Wildwuchs unterschiedlicher Sozialleistungen auf eine Grundsicherungsleistung reduziert wird. Faszinierend, weil administrativ aufwändige und menschlich häufig entwürdigende Bedürftigkeitsprüfungen entfallen. Faszinierend, weil das Demokratieprinzip – ein Mensch, eine Stimme – konsequent in der Grundsicherung umgesetzt wird. Besorgniserregend, weil reich und arm dieselbe Grundsicherungsleistung beziehen. Besorgniserregend, weil vielleicht viele Menschen – meist die anderen – nicht mehr arbeiten wollen. Besorgniserregend, weil aus Steuerzahlern in großem Umfang Transferempfänger werden. In der Regel werden Diskussionen zum bedingungslosen Grundeinkommen mit dem Finanzierungsargument totgeschlagen. Es ist zu teuer. Das ist das harmlose Ende der Debatte. Weniger harmlos ist die Gegenargumentation, die sich auf das Menschenbild bezieht. So wird argumentiert, dass das Menschenbild naiv sei: Die Menschen würden nicht ohne wirtschaftlichen Zwang arbeiten und auch nicht ihren eigenen Talenten folgen, sondern im Nichtstun verharren. 2. Naives Menschenbild? Liebermann (2012) geht der Frage nach, ob das Menschenbild des Grundeinkommens eine Wunschvorstellung oder Wirklichkeit ist. Dazu analysiert er in einem ersten Schritt das Menschenbild der Demokratie. Dieser Vergleich ist sehr lehrreich. Liebermann macht deutlich, dass die Staatsbürger in einer Demokratie die bedingungslosen Träger aller Rechte sind – diese Rechte sind an keine Gegenleistung gebunden. Um sie zu erhalten und um sie zu behalten, ist keine spezifische Leistung erforderlich. Dementsprechend sind die Autonomie-Herausforderungen und -Erwartungen, die im Grundgesetz an die Bürger formuliert sind, sehr hoch. Die Mündigkeit der Bürger wird vorausgesetzt. Wobei die Mündigkeit inzwischen im Alter von 18 Jahren beginnt – und sie gilt in modernen Demokratien unabhängig von Einkommen, Vermögen, Geschlecht, Rasse, Gesinnung oder Religionszugehörigkeit. Das klingt aus heutiger Sicht selbstverständlich. So würde im Europa des 21. Jahrhunderts niemand zum Beispiel das Wahlrecht für Frauen in Frage stellen. Fast vergessen ist es, dass Frauen in Spanien, Portugal



Bedingungsloses Grundeinkommen: Schnapsidee oder Geniestreich?

207

und in der Schweiz noch bis in die siebziger Jahre des letzten Jahrhunderts nicht wählen durften. Liebermann kommt zu dem Schluss: „Das Menschenbild eines Bedingungslosen Grundeinkommens ist das Menschenbild der Demokratie“ (Liebermann 2012, S. 18). Der Vorwurf der Naivität des Menschenbildes bezieht sich insbesondere auf die ökonomischen Verhaltensreaktionen der Menschen bei der Einführung eines Bedingungslosen Grundeinkommens. Die entscheidende Frage ist: Wird weniger gearbeitet, wenn statt einer Grundsicherung mit Bedürftigkeitsprüfung eine Grundsicherung ohne Bedingungen eingeführt wird? Befürworter argumentieren, dass die Menschen vom Joch der Erwerbsarbeit befreit werden – und ihren wahren Talenten folgen werden. Arbeitsverweigerung wird keine maßgebliche Rolle spielen, denn Menschen sind glücklicher mit Arbeit als ohne Arbeit. Gegner argumentieren, dass insbesondere junge Menschen und gering Qualifizierte ihre Arbeitskraft nicht mehr am Arbeitsmarkt anbieten werden, weil Arbeitsanreize durch das relative hohe Grundsicherungsniveau und die fehlende Gegenleistungsverpflichtung entfallen. Auffällig ist: Stellt man Besserverdienenden die Frage nach der Arbeitsangebotsreaktion, dann lautet die typische Reaktion: Ich würde ja weiterarbeiten, aber die anderen würden sich auf die faule Haut legen. Werner / Göhler (2010, S. 57) sprechen vom gespaltenen Menschenbild: „Wir Menschen haben eben oftmals zwei Menschenbilder, ein gutes für uns selbst und ein schlechtes für die anderen“. Vor diesem Hintergrund haben Haigner et al. (2012) eine repräsentative Umfrage in Deutschland zum Bedingungslosen Grundeinkommen durchgeführt. Sie kommen zu dem Ergebnis, dass es durch die Einführung eines Bedingungslosen Grundeinkommens kaum zu einer Veränderung der insgesamt angebotenen Erwerbsarbeit kommen dürfte. Das liegt daran, dass der Rückgang im Arbeitsangebot der derzeitig Erwerbstätigen durch den Eintritt bisher nicht Erwerbstätiger fast vollständig kompensiert wird. Die Wissenschaftlicher um den Linzer Ökonomen Friedrich Schneider sind sich jedoch bewusst, dass eine Umfrage keine ausreichende empirische Evidenz ist – sie empfehlen weiterführende Labor- und Feldexperimente sowie Mikrosimulationen, um mehr Erkenntnisse zu gewinnen. Und was tun finanziell abgesicherte Menschen? Dazu liegen keine systematischen und empirisch belastbaren Langzeitstudien vor. Anekdotische Evidenz deutet jedoch darauf hin, dass sie arbeiten – Nichtstun ist keine befriedigende Alternative. Lebenslaufanalysen heutiger Leistungsträger der Gesellschaft und insbesondere von Migrantenkindern liefern Anhaltspunkte, dass irgendwann irgendjemand in diese Menschen investiert und an sie geglaubt hat (vgl. Allmendinger 2012, Daimagüler 2011). Werner / Göhler (2010, S. 70) bringen es auf den Punkt: „Ob durch Stipendien, Erbschaften

208

Alexander Spermann

oder Lottogewinne – wer ökonomisch abgesichert ist, kann seine Geschicke in die eigene Hand nehmen. Ein bedingungsloses Grundeinkommen belohnt keine Leistung, sondern ermöglicht sie erst“. 3. Feldexperiment in Namibia Das derzeit bekannteste Feldexperiment mit einem Bedingungslosen Grundeinkommen wurde in den Jahren 2008 und 2009 in der Region Otji­ vero in Namibia durchgeführt. Alle Dorfbewohner unter 60 Jahren erhielten in dieser Zeit einen Euro je Monat. Die wissenschaftliche Evaluation des Modellprojekts entspricht zwar nicht höchsten wissenschaftlichen Standards. So wurde aus ethischen Gründen kein streng randomisierter Experiment mit Kontrollgruppen durchgeführt. Doch gab es deskriptive Projektdokumentationen, die auf vier Datenquellen basierte: Eine Ausgangserhebung vor Beginn des Modellversuchs, eine Paneluntersuchung mit zwei Befragungszeitpunkten, Interviews mit Verantwortlichen und Fallstudien. Daraus ergab sich ein Datensatz mit 398 Personen aus 52 Haushalten für die Ausgangserhebung im November 2007. Durch Zuwanderung nahm die Zahl der am Projekt Beteiligten stark zu – um 27 % innerhalb des ersten Jahres. Der Projektbericht bezieht sich lediglich auf das erste Jahr des Modellversuchs (vgl. Basic Income Grant Coalition 2009). Dennoch ergibt der Vorher-Nachher Vergleich einen ersten Eindruck. Die Unterernährung ging von 42 auf 17 Prozent zurück, die Einkünfte aus Klinikgebühren verfünffachten sich, was auf eine bessere medizinische Versorgung durch mehr Krankenhausbesuche hindeutet, die Zahl der mit Aids-Medikamenten behandelten Patienten erhöhte sich um das Zwölffache, die Verschuldung der privaten Haushalte ging um 43 % in die Höhe. Mehr Schüler als zuvor konnten die Schule besuchen: Vor Einführung des Grundeinkommens gaben 49 % der Haushalte an, dass ihre Kinder nicht regelmäßig die Schule besuchten, nach der Einführung bezahlten 90 % der Eltern das Schulgeld. Die Schulabbrecherquote sank von 40 % auf 0 Prozent – innerhalb eines Jahres. Weiterhin ging die Kriminalitätsrate um 36,5 % zurück. Was die Arbeitsmarktdaten betrifft, so sank die Arbeitslosenquote von 60 % auf 45 %, die Zahl der Selbstständigen stieg um 300 %, die Zahl der Angestellten um 17 %, das Durchschnittseinkommen stieg um 29 % – innerhalb eines Jahres. Hauptursache für das Wachstum der Haushaltseinkommen war die verstärkte Aufnahme selbstständiger Beschäftigung (z. B. Ziegelproduktion, Bäckerei, Schneiderei). Einschränkend ist zu vermerken, dass diese deskriptive Analyse keine kausale Interpretation der Einführung eines Bedingungslosen Grundeinkommens erlaubt. Auch liegt keine fiskalische Analyse vor, so dass Kosteneffizienzanalysen nicht möglich sind.



Bedingungsloses Grundeinkommen: Schnapsidee oder Geniestreich?

209

Trotz dieser sichtbaren Erfolge stellte die namibische Regierung die Finanzierung des Projekts Ende 2009 ein – und verweigerte die bundesweite Einführung. Dank privater Spenden konnte das Projekt bis Ende 2012 durchgeführt werden. Eine Mission der Vereinten Nationen unter Leitung von Magdalena Sepulveda im Oktober 2012 empfahl nach einem Aufenthalt in der Otjivero-Region der namibischen Regierung, das Bedingungslose Grundeinkommen im gesamten Land einzuführen. Die UN-Mission war davon überzeugt, dass das Projekt zur Armutsreduzierung, zum verbesserten Zugang zu Gesundheitseinrichtungen und Bildung und zu verringerter Kriminalität wesentlich beitrug (vgl. United Nations 2012). 4. Mikrosimulationsergebnisse: Einfach zu teuer Ein Totschlagargument in der Debatte um das Bedingungslose Grundeinkommen lautet: Unfinanzierbar! Es kursieren unterschiedliche Werte für fiskalische Kosten, die in dreistellige Milliardenbeträge gehen (vgl. Sachverständigenrat 2006, Fuest / Peichl 2009). Vor der Wirtschafts- und Finanzkrise sorgten solche Größenordnungen für ein politisches Begräbnis erster Klasse. Heute sind solche Zahlen zwar weiterhin unvorstellbar, doch beim Aufspannen von Rettungsschirmen und Schnüren von Rettungspaketen wird mit Summen bis zu 1000 Milliarden € hantiert. Doch weshalb soll die Einführung eines Bedingungslosen Grundeinkommens so teuer sein? Werte in dieser Größenordnung sind das Ergebnis von Mikrosimulationen und allgemeinen Gleichgewichtsmodellen. Das liegt an zwei Effekten. Zum einen werden Millionen bisheriger Netto-Steuerzahler zu Netto-Transferempfängern. Zum anderen ist eine Reduzierung des Arbeitsangebots bisherig Erwerbstätiger zu erwarten. Beide Teileffekte treiben die fiskalischen Kosten in die Höhe. Hinzu kommen mögliche negative dynamische Effekte: Soziale Normen wie die Arbeitsnorm könnten gefährdet werden, so dass es gesellschaftsfähig wird, nicht erwerbstätig zu sein. Auch könnten die Qualifizierungsbemühungen reduziert werden, wenn sich diese Anstrengungen relativ weniger lohnen. Einführungskosten und die fiskalischen Kosten möglicher negativer dynamischer Effekte könnten zu dreistelligen Milliardenbeträgen durch die Einführung eines Bedingungslosen Grundeinkommens führen (vgl. Spermann 2007). 5. Kritik der Mikrosimulationsergebnisse Doch sind die zugrundeliegenden Verhaltensannahmen richtig? Mikrosimulationen und allgemeine Gleichgewichtsmodelle sind vergangenheitsorientiert und nur für die Abschätzung marginaler Reformen geeignet – bei

210

Alexander Spermann

großen Reformen versagen sie, wie die Erfahrungen mit Mikrosimulationen zu den Hartz-Reformen eindrucksvoll belegen. Da der Autor an zwei der im Folgenden zitierten Simulationsstudien als Forschungsbereichsleiter am Zentrum für Europäische Wirtschaftsforschung (ZEW) beteiligt war, sind die Ausführungen als kritische Methodenreflektion zu verstehen. •  Beispiel 1: Minijob-Reform Im Zuge der Hartz II-Reform waren zum 1. April 2003 die Anhebung der Verdienstgrenze von 325 Euro auf 400 Euro, der Wegfall der Stundengrenze von 15 Stunden pro Woche und die Versicherungsfreiheit einer im Nebenerwerb geringfügig entlohnten Beschäftigung geregelt worden. Die Mikrosimulationen Arntz et al. (2003) und Steiner / Wrohlich (2004) kommen zu dem Ergebnis, dass geringe Beschäftigungseffekte zu erwarten sind. Steiner / Wrohlich (2004, S. 112) sprechen von 50.000 zusätzlich beschäftigten Personen bzw. 36.000 Vollzeitäquivalenten. Beide Autorenteams machen jedoch darauf aufmerksam, dass diese Aussage aufgrund der Begrenzung des Simulationsmodells nur für Minijobber als ausschließlich geringfügig entlohnte Beschäftigte gilt. Der Beschäftigungseffekt für Minijobber als Nebenbeschäftigte ließ sich nicht simulieren. Aus theoretischen Überlegungen und empirischer Evidenz der Vergangenheit leiteten Arntz et al. (2003) ab, dass der wesentliche Beschäftigungseffekt der Minijob-Reform im Bereich der Nebenjobs zu erwarten ist. In der Realität nahm die Zahl der Minijobs sehr stark zu – bei den Hauptjobs im Zeitraum zwischen März 2003 und März 2004 um 523.100 Beschäftigte (plus 13 Prozent), bei den Nebenjobs um 850.000 Beschäftigte (plus 121 Prozent). Vor der Reform waren nach empirischen Schätzungen knapp fünf Millionen geringfügig beschäftigt, ein Jahr nach der Reform dagegen über sechs Millionen (vgl. Bundesagentur für Arbeit 2004, S. 3), im Dezember 2012 waren es über 7 Millionen (vgl. Minijobzentrale 2013). Mikrosimulationen unterschätzten die Beschäftigungseffekte um den Faktor zehn – und konnten den wesentlichen Effekt der Reform auf die Nebenjobs überhaupt nicht abbilden. •  Beispiel 2: Arbeitslosengeld II-Reform (Hartz IV) Die Zusammenlegung der Arbeitslosen- und Sozialhilfe für erwerbsfähige Personen zum so genannten Arbeitslosengeld II (= Hartz IV) zum 1. Januar 2005 ist ein weiteres Beispiel für die Grenzen von Mikrosimulationen bei größeren Reformen. Die Arbeitsangebotseffekte und Verteilungswirkungen werden von Arntz et al. (2007) mit Hilfe eines Mikrosimulationsmodells untersucht. Die fiskalischen Kosten der Hartz IV-Reform werden als gering angesehen. Wäre diese Studie als ex ante-Evaluation im Jahr 2004 veröffent-



Bedingungsloses Grundeinkommen: Schnapsidee oder Geniestreich?

211

licht worden – die fiskalischen Kosten der Hartz IV-Reform von durchschnittlich 40 Milliarden € im Jahr wären völlig unterschätzt worden (vgl. Möller et al. 2009, FAZ v. 2.3.2013). Das liegt daran, dass zwei wichtige Verhaltensreaktionen der Menschen nicht simuliert werden konnten (vgl. Arntz et al. 2007, S. 69). Zum einen ließ sich in der Realität eine Aufspaltung von Haushalten beobachten, so dass die Kosten der Unterkunft für die staatlichen Träger höher als erwartet ausfielen. Zum anderen blieben Veränderungen der Inanspruchnahme der Grundsicherungsleistungen (take-up rate) in der Simulation unberücksichtigt. Durch das u. U. als geringer empfundene Stigma bei der Beantragung von Grundsicherungsleistungen nach der Hartz IV-Reform hätte sich die Antragstellung durch an sich Antragsberechtigte (hidden poor) deutlich erhöhen können. In der Praxis schnellte die Zahl der Hartz IV-Empfänger – völlig unerwartet – über die 5 Millionen-Grenze, so dass diese Effekte offensichtlich relevant und kostenerhöhend waren. •  Beispiel 3: Workfare Der Workfare-Ansatz versteht sich als Alternative zu Kombilohnmodellen und dem Bedingungslosen Grundeinkommen (vgl. Spermann 2010). Er beruht auf dem Prinzip von Leistung und Gegenleistung – der Staat gewährt Grundsicherungsleistungen nur dann, wenn eine Gegenleistung auf dem privaten oder öffentlichen Arbeitsmarkt erbracht wird. Das Workfare-Prinzip stellt das Niveau der Grundsicherung ausdrücklich nicht in Frage, sondern leistet einen Beitrag zu seinem Fortbestand durch seine Konzentration auf die tatsächlich Bedürftigen. Eine Mikrosimulation dieses Reformvorschlags kommt zu einem eindeutigen Ergebnis: Die Einführung von Workfare in Deutschland bei unverändertem Niveau der Grundsicherung im Jahr 2006 führt zu 828.000 zusätzlich Beschäftigten und fiskalischen Einsparungen in Höhe von 31,8 Milliarden Euro (vgl. Bonin / Schneider 2006). Bei genauerer Betrachtung zeigen sich die Grenzen der Mikrosimulation, weil wichtige, in der Realität relevante Verhaltensreaktionen ausgeblendet werden (vgl. ausführlich Michaelis  /  Spermann 2010). Insbesondere bleibt unberücksichtigt, dass Grundsicherungsempfänger durch Erwerb des Status Erwerbsunfähigkeit Leistungen in gleicher Höhe erhalten können. Je stärker eine Gegenleistung für die Grundsicherung eingefordert wird, desto höher ist der Anreiz für Grundsicherungsempfänger in die Erwerbsunfähigkeit auszuweichen. In Ländern, in denen Workfare umgesetzt wurde, ist genau diese Verhaltensreaktion zu beobachten. So verdoppelte sich zum Beispiel der Anteil erwerbsunfähiger Personen in den USA zwischen 1985 und 2006 (vgl. Autor / Duggan 2006). Deshalb ist Vorsicht geboten, wenn Reformvorschläge mit dem Verweis auf Ergebnisse aus Mikrosimulationen verworfen oder hochgelobt werden.

212

Alexander Spermann

Bei fundamentalen Reformen sind zuverlässigere empirische Methoden notwendig – die Forschung zu den Effekten des Bedingungslosen Grundeinkommens steckt noch in den Kinderschuhen. In einem anderen Beitrag plädiere ich dafür, dass die ökonomischen Effekte des Bedingungslosen Grundeinkommens durch Feldexperimente wie in Namibia erforscht werden sollten (vgl. Spermann 2012).

III. Zwischenschritte zum „Bedingungslosen Grundeinkommen bis 2020“ Die Vorstellung, ein bedingungsloses Grundeinkommen könne in einer offenen Volkswirtschaft wie Deutschland mit Arbeitnehmerfreizügigkeit in der Europäischen Union, von heute auf morgen eingeführt werden, ist völlig unrealistisch. Realistisch ist es jedoch, Reformschritte in Richtung auf ein bedingungsloses Grundeinkommen einzuführen. Welche Reformbausteine könnten das sein? Hierzu werden in diesem Beitrag Vorschläge unterbreitet. Ausgangspunkt ist die bestehende Grundsicherung und das bestehende Steuersystem in Deutschland. Die steuerfinanzierte Grundsicherung setzt sich aus dem Arbeitslosengeld II (derzeit: 382 € je Monat für eine alleinstehende Person) und den Kosten der Unterkunft zusammen. Das einkommensteuerliche Existenzminimum (Grundfreibetrag) beträgt derzeit für Alleinstehende 8.130 € im Jahr, also 678 € je Monat. Nach Liebermann (2012, S. 15) ist der systematische Unterschied zwischen einem Bedingungslosen Grundeinkommen und einer Negativen Einkommensteuer der Bereitstellungsmodus des Grundeinkommens und dessen normative Struktur. Während beim Bedingungslosen Grundeinkommen der Vorrang der Erwerbstätigkeit aufgehoben wird, bewahrt ihn die Negative Einkommensteuer. Die Negative Einkommensteuer erzeugt eine Steuergutschrift im Falle einer negativen Steuerschuld, wenn eine definierte Mindesteinkommensgrenze unterschritten wird. Die Negative Einkommensteuer ist demnach eine kompensatorische Leistung, die auf einen Mangel an (durch Erwerbstätigkeit erzieltem) Einkommen reagiert. Folgende Zwischenschritte auf dem Weg zu einem bedingungslosen Grundeinkommen könnten sukzessive bis 2020 realisiert und evaluiert werden, wenn in einer Übergangsphase der Bereitstellungsmodus der Negativen Einkommensteuer genutzt wird (vgl. Spermann 2001 für eine detaillierte Darstellung der Negativen Einkommensteuer): •• Finanzamtslösung: Das Finanzamt ist Ansprechpartner für alle Erwerbstätigen. Wer weniger als das Existenzminimum verdient, bekommt seine negative Steuerschuld ausbezahlt. Damit befinden sich ausschließlich Nicht-Erwerbstätige im Grundsicherungssystem.



Bedingungsloses Grundeinkommen: Schnapsidee oder Geniestreich?

213

•• Auszahlung des Grundfreibetrags und des Kinderfreibetrags: Damit wird jedem Bürger bewusst, dass er ein bedingungsloses Grundeinkommen erhält. •• Bedingungslose Gewährung der bedarfsorientierten Grundsicherung im Alter: Damit wird bedingungslos ein Grundsicherungsniveau im Alter gewährleistet – unabhängig von der Erwerbsbiografie. 1. Finanzamtslösung Im derzeitigen Grundsicherungssystem finden sich Nicht-Erwerbstätige und Erwerbstätige. Nicht-Erwerbstätige erhalten Grundsicherungsleistungen, für Erwerbstätige gelten Hinzuverdienstgrenzen: Bis zu einem Bruttoeinkommen von 100 € wird nichts angerechnet, zwischen 100 und 800 € werden 80 % angerechnet, zwischen 800 und 1200 € wird für Kinderlose 90 % angerechnet, darüber kommt es zur Vollanrechnung. Diese Arbeitsanreize im Grundsicherungssystem führen dazu, dass etwa die Hälfte der so genannten Aufstocker Minijobs mit geringer Stundenzahl ausübt, nur ein kleiner Teil von ihnen ist trotz Vollzeitbeschäftigung wegen zu geringer Stundenlöhne bedürftig (vgl. Dietz et al. 2009). Die Konnotation des Begriffs Aufstocker hat sich demnach in ihr Gegenteil verkehrt: Nicht mehr das Vollzeiteinkommen wird durch Transfers aufgestockt, sondern durch die Grundsicherung werden geringfügige Einkommen aufgestockt. Eine Veränderung der Hinzuverdienstgrenzen in Verbindung mit der Finanzamtslösung könnte eine deutliche institutionelle Verbesserung bringen. So plädiert der Sachverständigenrat für veränderte Hinzuverdienstgrenzen im Sinne einer Geringfügigkeitsschwelle (Modul 1). Damit würde bis zu einem Bruttoeinkommen von 200 € eine Vollanrechnung gelten (Transferentzugsrate von 100 %). Die Einsparungen sollen verwendet werden, um die Transferentzugsrate in höheren Einkommensbereichen zu senken, so dass höhere Einkünfte und höhere Stundenzahlen finanziell attraktiv werden. Eine solche marginale Reform lässt sich durch Mikrosimulationen abschätzen – das in Szenario I simulierte Modul 1 führt demnach zu leicht posi­ tiven Arbeits­angebotseffekten (+41.000 Personen) und leicht erhöhtem Arbeitsvolumen (+0,4 %) sowie mehr Beschäftigung in Arbeitszeitkategorien mit 40 Stunden und mehr. Auch nimmt die Partizipationsquote geringfügig zu (vgl. Sachverständigenrat 2006). Die Grundsicherungsleistungen werden derzeit ausschließlich über die Jobcenter ausgezahlt – der Verwaltungsaufwand für Personal, Technik und Gebäude wird nach Angaben des Vorstands der Bundesagentur für Arbeit für das Jahr 2011 auf etwa fünf Milliarden Euro geschätzt, die Kosten je Antrag dürften jedoch aufgrund der Komplexität und der teilweise manuel-

214

Alexander Spermann

len Bearbeitung hoch sein. Die Finanzämter berechnen die Steuerschuld – das Verwaltungsverfahren ist durch Elster bereits jetzt stark automatisiert, so dass es relativ kostengünstiger sein dürfte. Es wäre ein Forschungsprojekt wert, folgenden Reformvorschlag zu simulieren: Erhöhung der Geringfügigkeitsschwelle auf die Minijob-Einkommensgrenze (derzeit 450 €) zugunsten verbesserter Arbeitsanreize in den höheren Einkommensbereichen und Auszahlung der Steuerschuld der Erwerbstätigen über die Finanzämter. Basierend auf der Erfahrung mit Mikrosimulationsmodellen erwarte ich folgendes Ergebnis: Die Vollanrechnung von Minijobs ergäbe Ersparnisse, die verbesserten Arbeitsanreize werden zu mehr Vollzeitjobs führen, so dass fast nur noch Vollzeiterwerbstätige übrig bleiben. Sollten diese Vollzeiterwerbstätigen aufgrund niedriger Stundenlöhne und / oder ihres Familienstand eine negative Steuerschuld aufweisen, erhalten sie eine monatliche Steuergutschrift. Fast alle Aufstocker wären dann echte Aufstocker im Sinne der ursprünglichen Konnoation – der Gang zum Jobcenter wäre überflüssig, ihr Ansprechpartner wären die Finanzämter. Die Verwaltungskosten je Fall sollten nach einer Übergangsperiode deutlich sinken. Ein solcher Reformschritt ist kalkulierbar und ohne große Risiken für das Steuer- und Transfersystem. Isoliert betrachtet bringt er allerdings noch wenig für die Vision eines Bedingungslosen Grundeinkommens. 2. Auszahlung des Grund- und Kinderfreibetrags Die Auszahlung des Gegenwerts von Freibeträgen ist verwaltungstechnisch bereits heute üblich. So wird das Kindergeld ausbezahlt, wenn es nach einer Vergleichsrechnung vorteilhafter als der steuerliche Kinderfreibetrag ist (Familienleistungsausgleich nach dem Einkommensteuergesetz). Diese Auszahlungslogik lässt sich auch auf den Grundfreibetrag übertragen und implementieren. Wenn Kindergeld als Transfer auf das eigene Konto überwiesen wird, dann nimmt man den Transfer unmittelbar wahr. Wenn der Kinderfreibetrag bei der Berechnung der Steuerschuld berücksichtigt wird, ist die Wahrnehmung für Nicht-Kenner des Familienleistungsausgleichs eingeschränkt. Würde der Grundfreibetrag monatlich als Steuergutschrift ausbezahlt und als Grundeinkommen deklariert, dann wäre alleine durch die veränderte Auszahlungsmethode ein Bewusstseinswandel möglich. Es würde klar, dass bereits heute jeder erwerbstätige Bürger ein Grundeinkommen erhält – soweit er erwerbstätig ist und eine Steuererklärung abgibt. Ein solcher Reformschritt lässt sich in Pilotversuchen testen und evaluieren. Die verwaltungstechnischen Probleme dürften beim heutigen Stand der Automatisierung überschaubar sein. Insbesondere müssen die Konsequenzen



Bedingungsloses Grundeinkommen: Schnapsidee oder Geniestreich?

215

für die Liquidität geprüft werden – das Cash-Management Thema dürfte jedoch für die deutschen Finanzämtern genauso lösbar sein wie für die US-Steuerbehörden. 3. Bedingungslose Grundsicherung im Alter Die bedarfsorientierte Grundsicherung im Alter, die seit 2003 existiert, stellt im heutigen System sicher, dass das Existenzminimum bei Erwerbstätigen im Alter nicht unterschritten wird. Damit besteht ein Anspruch auf eine über dem Sozialhilfeniveau liegende Grundsicherung, wenn das eigene Einkommen und Vermögen unzureichend ist (vgl. Marburger 2013). Die bestehende Grundsicherung ist nicht bedingungslos, sondern an eine Bedürftigkeitsprüfung und frühere Erwerbstätigkeit geknüpft. Ein Reformschritt in Richtung bedingungslosen Grundeinkommen könnte es sein, einer zufällig ausgewählten Gruppe von Schulabgängern ein bedingungsloses Grundeinkommen im Alter zu versprechen, während eine statistisch vergleichbare Kontrollgruppe das bestehende System durchläuft. Ein solches, so genanntes soziales Experiment über einen Zeitraum von zehn Jahren ist geeignet, die Anreizeffekte auf Ausbildung und Berufswahl zu evaluieren. Diese Vorgehensweise ist bei Reformen international nicht unüblich. So wurde zum Beispiel ein kanadisches Transferprogramm für alleinerziehende Mütter über einen Zehnjahreszeitraum wissenschaftlich evaluiert (vgl. Card / Hyslop 2005). Damit ließen sich umfangreiche Kenntnisse über die Wirkungsweise von Zuschüssen gewinnen.

IV. Fazit Ein geflügeltes Wort sagt: Die Utopien von gestern sind die Realitäten von heute. Das klingt abgedroschen, passt jedoch im Zusammenhang mit der Diskussion des Bedingungslosen Grundeinkommens. Denn die Auseinandersetzung mit dieser Vision erfordert die Bereitschaft, das eigene Denken grundsätzlich in Frage zu stellen. Der Vergleich zu den großen Paradigmenwechseln ist zutreffend. Vor Kopernikus war die Welt eine Scheibe. Wie soll man denn auf einer Kugel laufen können? Unvorstellbar! Vor der Abschaffung der Sklaverei wurde einfache Arbeit von Sklaven verrichtet. Wer soll denn ansonsten diese Arbeit machen? Unvorstellbar! Vor der Einführung des Frauenwahlrechts waren Männer in Machtpositionen unter sich. Wie sollen vernünftige Entscheidungen mit emotionalen Frauen getroffen werden? Unvorstellbar! Auf die Vision eines Bedingungsloses Grundeinkommens muss man sich einlassen, sie denken und fühlen – und sich am Ende selbst überzeugen,

216

Alexander Spermann

formuliert Götz Werner in seinen Vorträgen. In der heutigen Zeit findet dieses Sicheinlassen unter email-Bombardement und Telefonaten im Fünfminutentakt im beruflichen und privaten Umfeld auch in akademischen Kreisen zu selten statt. Einfacher sind reflexartige Reaktionen der Ablehnung, so dass die eigene Weltsicht nicht in Frage gestellt werden muss. Psychologen empfehlen – ernsthaft – stundenlange Waldspaziergänge ohne Smartphones, um wieder zu sich zu kommen und sich fundamentalen Fragen stellen zu können (vgl. Winterhoff 2013). Das Bedingungslose Grundeinkommen ist keine Schnapsidee, sondern ein Geniestreich, dessen Genialität erst nach reiflicher Reflektion erkannt wird. Auch die Idee einer negativen Einkommensteuer faszinierte nicht nur etliche Nobelpreisträger – die Auseinandersetzung mit dieser Idee führte zum Umbau des amerikanischen Wohlfahrtsystems. Heute ist ein System von Steuergutschriften (Earned Income Tax Credit) in Kombination mit gesetzlichen Mindestlöhnen das Hauptinstrument der Armutsbekämpfung in den USA. Meine persönliche Erfahrung ist es: Es lohnt sich, die eigenen reflexartigen Reaktionen – naives Menschenbild, ist zu teuer – zurückzustellen. Stattdessen sollten sich freiheitsorientierte Menschen nicht weiter blenden lassen, sondern sich auf einen fundamentalen, ergebnisoffenen Reflexionsprozess einlassen. Das Ergebnis dieses Prozesses kann durchaus sein: Mit der Kombination aus Kombilohn und Workfare-Elementen sind wir auf der sicheren Seite (vgl. Genz / Spermann 2007, Fuest / Peichl 2009). Damit macht man nichts falsch, verfolgt aber auch keine freiheitsorientierte Vision der Grundsicherung. Heute denke ich, dass die Übertragung des Menschenbilds der Demokratie auf die Ordnung der Grundsicherung zu einer Vision eines Bedingungslosen Grundeinkommens führt. Ein großes Reformprojekt im Bereich der sozialen Sicherung lässt sich aber auch mit Blick auf den demografischen Wandel begründen (vgl. Spermann 2013). Drei Elemente dieses Reformprojekts wurden in diesem Beitrag erstmals vorgestellt. Ist das nicht alles illusionär? Überhaupt nicht! Aus politökonomischer Sicht ist die Realisierung eines Bedingungslosen Grundeinkommens in Verbindung mit einem Konsumsteuersystem zwar am ehesten in Demokratien mit junger Population wie zum Beispiel Brasilien und Indien zu erwarten. In beiden Ländern werden Pilotprojekte umgesetzt. Vorstellbar ist es aber auch, dass ein reiches Land wie die Schweiz, dass die Abstimmung mit den Füßen in einer offenen Volkswirtschaft gut kontrollieren kann und eine ausgeprägte Evaluationskultur besitzt, ein entsprechendes Reformprojekt auf den Weg bringen könnte. Aber der ehemalige „sick man of Europe“ und heutige „European Champion“ Deutschland könnte auch für eine Überra-



Bedingungsloses Grundeinkommen: Schnapsidee oder Geniestreich?

217

schung gut sein. Es wird sich zeigen, ob das Bedingungslose Grundeinkommen eine Idee ist, deren Zeit im 21. Jahrhundert gekommen ist. Literatur Allmendinger, Jutta: Schulaufgaben. Wie wir das Bildungssystem verändern müssen, um unseren Kindern gerecht zu werden, 2012, München. Arntz, Melanie / Clauss, Markus / Kraus, Margit / Schnabel, Reinhold / Spermann, Alexander / Wiemers, Jürgen: Arbeitsangebotseffekte und Verteilungswirkungen der Hartz-IV-Reform, in: IAB-Forschungsbericht Nr. 10 / 2007. Arntz, Melanie / Feil, Michael / Spermann, Alexander: Die Arbeitsangebotseffekte der neuen Mini- und Midijobs – eine ex-ante Evaluation, in: Mitteilungen aus der Arbeitsmarkt- und Berufsforschung, 2003, 36. Jg., S. 271–290. Autor, David / Duggan, Mark: The Growth in the Social Security Disability Rolls: A Fiscal Crisis Unfolding, in: Journal of Economic Perspectives, 2006, 20. Jg., S. 71–96. Basic Income Grant Coalition: Der entscheidende Unterschied, Das Grundeinkommen in Namibia, Forschungsbericht, 2009, www. bignam.org. Bonin, Holger: Das deutsche Jobwunder speist sich aus vielen Quellen, in: Wirtschaftsdienst, 93. Jg, 2013, 148–151. Bonin, Holger / Schneider, Hilmar: Workfare: Eine wirksame Alternative zum Kombilohn, in: Wirtschaftsdienst, 86. Jg., 2006, S. 645–650. Bräuninger, Michael / Michaelis, Jochen / Sode, Madlen: 10 Jahre Hartz-Reformen, in: HWWI Policy Paper No. 73, 2013. Bundesagentur für Arbeit: Mini- und Midijobs in Deutschland, Sonderbericht, 2004, Nürnberg. Card, David / Hyslop, D. R.: Estimating the effects of a time-limited earnings subsidy for welfare-leavers, Econometrica, 54. Jg., 2005, S. 1723-70. Daimagüler, Mehmet Gürcan: Kein schönes Land in dieser Zeit, Das Märchen von der gescheiterten Integration, 2011, Gütersloh. Dietz, Martin / Müller, Gerrit / Trappmann, Mark: Warum Aufstocker trotz Arbeit bedürftig bleiben, in: IAB-Kurzbericht Nr. 2 / 2009, Nürnberg. Fuest, Clemens / Peichl, Andreas: Grundeinkommen vs. Kombilohn: Beschäftigungsund Finanzierungswirkungen und Unterschiede im Empfängerkreis, 2009, IZA Standpunkte Nr. 11. Genz, Hermann / Spermann, Alexander: Das Mannheimer Grundsicherungsmodell – der Weg, zu einer effizienteren und gerechteren Grundsicherung ohne Absenkung des Arbeitslosengeld II-Niveaus, 2007, ZEW Discussion Paper 07-002. Haigner, Stefan D.  /  Jenewein, Stefan / Schneider, Friedrich / Wakolbinger, Florian: Ergebnisse der ersten repräsentativen Umfrage in Deutschland zum Bedingungs­

218

Alexander Spermann

losen Grundeinkommen, in: Werner, Götz W. / Eichhorn, Wolfgang / Friedrich, Lothar (Hrsg.), Das Grundeinkommen, 2012, Karlsruhe, S. 195–210. Liebermann, Sascha: Das Menschenbild des Grundeinkommens – Wunschvorstellung oder Wirklichkeit?, in: Werner, Götz W. / Eichhorn, Wolfgang / Friedrich, Lothar (Hrsg.), Das Grundeinkommen, 2012, Karlsruhe, S. 12–19. Marburger, Horst: SGB XII – Sozialhilfe: Grundsicherung im Alter und bei Erwerbsminderung: Vorschriften und Verordnungen; Mit praxisorientierter Einführung, 11. Auflage, 2013. Michaelis, Jochen / Spermann, Alexander: Geringqualifizierte Arbeit, Marktlöhne und Sozialpolitik: Konzepte für Deutschland, in: Apolte, Thomas  /  Vollmer, Uwe (Hrsg.), Bildungsökonomik und Soziale Marktwirtschaft, Schriften zu Ordnungsfragen der Wirtschaft, Band 91, Stuttgart, 2010, S. 173–201. Minijobzentrale: Aktuelle Entwicklungen im Bereich der geringfügigen Beschäftigung, IV. Quartal 2012, Essen. Möller, Joachim / Walwei, Ulrich / Koch, Susanne / Kupka, Peter / Steinke, Joß: Der Arbeitsmarkt hat profitiert, Fünf Jahre SGB II: Eine IAB-Bilanz, IAB-Kurzbericht Nr.  29 / 2009. Rinne, Ulf / Zimmermann, Klaus F.: Is Germany the North Star of Labor Market Policy, 2013, IZA Discussion Paper No. 7260. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung: Arbeitslosengeld II reformieren: Ein zielgerichtetes Kombilohnmodell, Expertise im Auftrag des Bundesministers für Wirtschaft und Technologie, 2006, Wiesbaden. Schneider, Hilmar: Wie nachhaltig ist das deutsche Jobwunder? Eine Reformbilanz, 2012, IZA Standpunkte Nr. 51. Spermann, Alexander: Negative Einkommensteuer, Lohnsubventionen und Langzeitarbeitslosigkeit, Finanzwissenschaftliche Schriften, 104, 2001, Frankfurt am Main. – Das Solidarische Bürgergeld – Anmerkungen zur Studie von Michael Opielka und Wolfgang Strengmann-Kuhn, in: Borchard, Michael, Das Solidarische Bürgergeld – Analysen einer Reformidee, Lucius & Lucius, 2007, Stuttgart, S. 143–162. – Bedingungsloses Grundeinkommen, Kombilohn, Workfare – Grundsicherung quo vadis?, in: Vanberg, Viktor J.  /  Gehrig, Thomas  /  Tscheulin, Dieter K. (Hrsg.), ­Freiburger Schule und die Zukunft der sozialen Marktwirtschaft, 2010, S. 102– 121. – Die ökonomischen Effekte des bedingungslosen Grundeinkommens sollten durch Feldexperimente erforscht werden, in: Werner, Götz W.  /  Eichhorn, Wolfgang / Friedrich, Lothar (Hrsg.), Das Grundeinkommen, 2012, Karlsruhe, S. 236– 245. – Die Demografiestrategie der Bundesregierung – ein Weg zu mehr Wohlstand?, in: Wirtschaftsdienst, 93. Jg, 2013, S. 165–169. Steiner, Viktor / Wrohlich, Katharina: Work Incentives and Labor Supply Effects of the ‚Mini-Jobs Reform‘ in Germany, in: Empirica, 32, S. 91–116.



Bedingungsloses Grundeinkommen: Schnapsidee oder Geniestreich?

219

United Nations: United Nations Special Rapporteur on extreme poverty and human rights, Magdalena Sepulveda, Mission to Namibia from 1 to 8 October 2012, Preliminary Observations and Recommendations (www.bignam). Werner, Götz W. / Göhler, Adrienne: 1000 € für jeden. Freiheit, Gleichheit, Grundeinkommen, 2010, Berlin. Winterhoff, Michael: Generation Y oder Generation Chips, Vortrag am 5.3.2013 beim 3. Demografiekongress für die Metropolregion FrankfurtRheinMain.

Epilog Dieser Beitrag ist zu Ehren meines Doktorvaters und Habil-Betreuers, Prof. Dr. Dr. h. c. Hans-Hermann Francke, geschrieben. Seine Impulse zum Nachdenken über fundamentale Themen und sein Anliegen, freiheitsorientierte institutionelle Rahmenbedingungen zu fördern, bewegten mich zur – sicherlich – lebenslangen Auseinandersetzung mit dem Thema Grund­ sicherung. Die individuellen Rahmenbedingungen zur Weiterverfolgung dieser Gedanken am Lehrstuhl waren so hervorragend, dass ich sie über zehn Jahre in Anspruch nahm und nehmen durfte. Ich werde diese grandiose Zeit nie vergessen. Vielen Dank!

Staatsverschuldung, Sozialausgaben und die kommende Tyrannei der Demografie Von Alexander Eschbach

I. Einleitung Die Kettenreaktion von Krise auf dem US-Subprime-Markt, allgemeiner Immobilienkrise, Bankenkrise, Finanzmarktkrise und schließlich Weltwirtschaftskrise führte in vielen OECD-Ländern in den letzten Jahren zu einem Anstieg der Staatsverschuldung, wie er in solchem Tempo bislang allenfalls in Kriegsjahren stattgefunden hat. Nach der Darstellung vieler Politiker könnte man sogar den Eindruck bekommen, als wären die heute anzutreffenden Verschuldungsberge ihrem überwiegenden Teil nach den aufgezählten Krisen geschuldet.1 Dieser Eindruck täuscht.2 In diesem Artikel zeigen wir zunächst, dass die eigentliche Ursache der heute anzutreffenden Staatsverschuldungsquoten nicht in kurzfristigen Krisenreaktionen sondern in der langfristig andauernden wohlfahrtstaatlichen Entwicklung liegt.3 Sodann richten wir Hauptaugenmerk dieser Arbeit auf die Bestimmungsgründe der Sozialausgaben und können in einer Querschnittsanalyse von 21 OECD-Ländern4 im Zeitraum 1980–2009 den Alten1  So erklärte z. B. Angela Merkel in einem Gespräch mit den Vertretern der Spitzenverbände der deutschen Wirtschaft im März 2010, dass das „sehr hohe Defizit“ dieses Jahres „nur und ausschließlich der Krise geschuldet“ sei (Bundeskanzleramt 2010). 2  Für die implizite Verschuldung formuliert dies klar Bernd Raffelhüschen: „Die hohe Verschuldung ist nicht der Krise geschuldet, sondern Ausdruck der Tatsache, dass wir seit Jahrzehnten über unsere Verhältnisse leben … Vor allem versprechen wir mehr Sozialleistungen, als wir uns in Zukunft werden leisten können.“ (Siems 2010) Für die explizite Verschuldung zeigen wir dies auch im Verlauf dieser Arbeit. 3  Natürlich gibt es auch die umgekehrte Wirkrichtung: So wie der Wohlfahrtsstaat zu Staatsverschuldung führt, können Verschuldungskrisen auch zu Krisen des Wohlfahrtsstaates führen. Zu dieser Argumentation siehe Obinger (2012). 4  Im Folgenden auch als „OECD21“ bezeichnet und im Einzelnen mit folgenden Abkürzungen versehen: A = Österreich, AUS = Australien, B = Belgien, CDN = Kanada, CH = Schweiz, D = Deutschland, DK = Dänemark, E = Spanien, F = Frankreich, FIN = Finnland, GB = Vereinigtes Königreich, GR = Griechenland I = Italien,

222

Alexander Eschbach

quotienten als zentrale Einflussgröße identifizieren. Schließlich zeigen wir im Schlussteil dieser Arbeit, welche Implikationen sich aus den gewonnenen Erkenntnissen für Deutschland angesichts seiner zu erwartenden demografischen Entwicklung ergeben.

II. Der Anstieg der Staatsverschuldung und Sozialausgaben seit 1980 Die Staatsverschuldung ist in den letzten Jahren im Zuge der Finanzkrise5 so schnell gestiegen wie selten zuvor. Durch diskretionäre Bankenrettungsund Konjunkturprogramme, aber auch durch die sich automatisch einstellenden Einnahmeausfälle und höheren Sozialausgaben ist die Staatsverschuldungsquote im Durchschnitt von 21 OECD-Ländern zwischen 2007 und 2013 um mehr als die Hälfte gestiegen, von 63 Prozent auf über 96 Prozent (vgl. Diagramm 1). Damit haben die Schulden ein Niveau erreicht, welches im historischen Vergleich in der Regel zu negativen Auswirkungen auf die Realwirtschaft führt, wie z. B. einem nachlassenden Wirtschaftswachstum.6 Ausmaß und Folgen des Problems dürfen jedoch nicht darüber hinwegtäuschen, dass der in der Krisenzeit erfolgte Anstieg nur ein Drittel der vorhandenen Schuldenberge erklären kann. Zwei Drittel der Schulden sind hingegen bereits vor 2007 angefallen – in Zeiten ohne vergleichbare Wirtschaftskrise. Alleine in den Jahren 1980 bis 1996 stieg die Verschuldungsquote von 43 auf 75 Prozent, ein Anstieg um fast drei Viertel. Einen ersten Einblick in die Ursache dieser Entwicklung liefert Diagramm 1, welches neben der Entwicklung der Staatsverschuldung auch die der Sozialausgaben als größten Ausgabenposten moderner Industrienationen zeigt, beide jeweils als über den Durchschnitt von 21 OECD-Ländern ermitteltem Anteil am BIP. Für die Sozialausgaben liegen Daten nur bis 2009 vor. Bereits optisch fällt der relative Gleichlauf beider Zeitreihen auf, wobei ihr Abtragen auf unterschiedlich skalierten Achsen nicht über deren Niveauunterschied hinwegtäuschen soll. Tatsächlich lässt eine Regressionsanalyse 83 Prozent der Staatsverschuldung durch die um eine Periode verzögerte Sozialausgabenreihe erklären.7 Zwar ist dies ein für Zeitreihen nicht ungeIRL = Irland, J = Japan, N = Norwegen, NL = Niederlande, NZ = Neuseeland, P = Portugal, S = Schweden, USA = Vereinigte Staaten von Amerika. 5  Wir bedienen uns dem Begriff der Finanzkrise, um die eingangs aufgelistete Krisenabfolge zusammenzufassen. 6  Reinhart / Rogoff (2010) können zeigen, dass Länder, die mindestens fünf Jahre Verschuldungsquoten von mindestens 90 % aufweisen, auf mehr als 1 % Wirtschaftswachstum verzichten müssen. 7  Demnach führt übrigens ein Sozialausgabenanstieg von einem Prozent zu einer um vier Prozent höheren Staatsverschuldungsquote.

28%

100%

26%

90%

24%

Öffentliche Sozialausgaben

80%

(linke Skala)

70%

22% 20%

Staatsverschuldung (rechte Skala)

18% 16%

1980

1985

1990

1995

2000

2005

60% 50%

2010

223

Staatsverschuldung in % des BIP

Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

Öffentliche Sozialausgaben in % des BIP



40%

Quelle: OECD 2012, SOCX 2012, eigene Berechnung.

Diagramm 1: Staatsverschuldung und öffentliche Sozialausgaben in den OECD21-Ländern

wöhnlich hoher Wert, aber auch der Test auf Granger-Kausalität zeigt mit einer Irrtumswahrscheinlichkeit von weniger als 5 Prozent, dass GrangerKausalität vorliegt und diese ausgeht von den Sozialausgaben auf die Staatsverschuldung. Die Sozialausgaben laufen somit der Staatsverschuldung voraus und können diese erklären. Für einen engen Zusammenhang beider Größen spricht auch die Betrachtung der Entwicklung in den einzelnen OECD-Ländern. Diagramm 2 zeigt die Veränderung von Sozialausgaben- und Staatsverschuldungsquote im Zeitraum 1980 bis 2009. Die Länder mit dem größten Anstieg der Staatsverschuldung sind tendenziell auch die Länder mit dem größten Sozialausgabenanstieg. Dass dies nicht nur für Länder wie Japan und Frankreich zutrifft, sondern bezeichnenderweise auch für die Euro-Krisenländer Griechenland, Portugal, Italien und Spanien, wirft nebenbei ein interessantes Licht auf die tieferen Ursachen der Euro-Staatsverschuldungskrise. Neben dem empirischen Befund spricht schließlich auch politökonomisch vieles für einen engen Zusammenhang zwischen Staatsverschuldung und Sozialausgaben, da deren Schuldenfinanzierung anstelle einer Steuerfinanzierung in der Gegenwart auf weniger Widerstand beim Wähler stößt. Wenn nun die Staatsverschuldung offensichtlich vor allem getrieben wird durch die Entwicklung der Sozialausgaben, was treibt dann diese? Betrach-

224

Alexander Eschbach 20% P

Sozialausgabenanstieg

15% CH 10% N IRL DK NZ

-30%

5%

0%

-5%

GR

F E FL B

I A CDN

AUS GB USA D S 20% NL

J

R² = 0,3153

70%

120%

Staatsverschuldungsanstieg

Quelle: OECD 2012, SOCX 2012, eigene Berechnung.

Diagramm 2: Anstieg der Sozialausgaben und der Staatsverschuldung in 21 OECD-Ländern, 1980–2009

ten wir zunächst Stand und Entwicklung der Sozialausgaben im Ländervergleich. Diagramm 3 zeigt deren Stand 2009. Deutschland, welches unter der Regierungszeit Gerhard Schröders kontinuierlich die dritthöchsten Ausgaben im OECD21-Vergleich aufwies, konnte sich mittlerweile etwas absetzen auf einen Platz im oberen Mittelfeld, begünstigt durch die unter Schröder erfolgten Reformen der Agenda 2010 und den Wirtschaftsaufschwung 2006 und 2007. Allerdings liegt es weiterhin oberhalb des OECD-Durchschnitts. Frankreich hingegen hat eine umgekehrte Entwicklung genommen. Bereits 2004 hat es das langjährige Vorbild wohlfahrstaatlicher Entwicklung, Schweden, auf Platz eins abgelöst – eine Position, die zusammen mit dem erwähnten Verschuldungsanstieg Frankreichs und einem Präsidenten, der ähnlich wie Schröder 1998 zunächst auf einen Wiederausbau des Wohlfahrtsstaates setzt, wenig Gutes für die Stabilität des Euro-Raumes in den nächsten Jahren erwarten lässt. Traditionell mit dem schlankesten Sozialstaat kommen nach wie vor die angelsächsischen Länder aus.8 Im Schnitt der OECD21 liegen die Sozialausgaben bei 28,4 Prozent, wovon knapp 8  Auch die in den angelsächsischen Ländern im Vergleich höheren privaten So­ zialausgaben können deren niedrige öffentliche Sozialausgabenquoten nicht hinreichend erklären, wie wir in Eschbach (2011) feststellen konnten.

Öffentliche Sozialausgaben 2009 in % des BIP



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

225

34% 32% 30% 28% 26% 24% 22% 20% 18% 16% 14% 12%

Quelle: SOCX 2012.

Diagramm 3: Öffentliche Sozialausgaben in 21 OECD-Ländern, 2009

zwei Drittel auf die Rentenversicherung und Gesundheitsversicherung als den beiden größten Ausgabenposten zurückzuführen sind. Betrachten wir als nächstes in Diagramm 4 die Entwicklung der Sozialausgaben in Deutschland im Vergleich zu den übrigen 20 untersuchten OECD-Ländern. Die deutsche Sozialausgabenquote konnte in den 1980er Jahren unter der Regierungszeit Helmut Kohls bei etwa 24 Prozent bemerkenswert konstant gehalten werden9 und stieg nach der Wiedervereinigung jedoch deutlicher als im OECD-Vergleich auf Werte um die 28 Prozent an. Erst die Hochkonjunktur 2006 und 2007 vor der Finanzkrise ließ die Sozialausgaben wieder merklich zurückführen – übrigens fast ausschließlich (zu etwa 90 Prozent) aufgrund des steigenden Bruttoinlandproduktes als Bezugsbasis, nicht aufgrund absolut rückläufiger Sozialausgaben. Im Vergleich mit Deutschland zeigen die OECD20-Länder im Durchschnitt eine überraschend ähnliche Entwicklung. Im Zeittrend wachsen beide ungefähr gleich schnell und mit den fast gleichen Schwankungen, was auf allgemeine Gesetzmäßigkeiten hindeutet, welche die Sozialausgaben zu beeinflussen scheinen. Gleichzeitig bleibt es bei einem erklärungsbedürftigen Niveauunterschied. 9  Auf einen der Gründe für die relative Ausgabenstabilität in den 1980 kommen wir bei unseren Ausführungen über die Demografie noch zu sprechen.

226

Alexander Eschbach

30% 28%

Deutschland

26% 24% 22%

OECD20

20% 18% 16%

1980

1985

1990

1995

2000

2005

Quelle: SOCX 2012, eigene Berechnung. Gestrichelte Linien: lineare Zeittrends.

Diagramm 4: Öffentliche Sozialausgaben in Deutschland und 20 weiteren OECD-Ländern

III. Eine kurze Einführung in die wohlfahrtsstaatliche Literatur Aufschluss über diese ähnliche Entwicklung im Zeitverlauf und hartnäckigen Niveauunterschiede liefert die reichhaltige Literatur zur Erforschung der Sozialausgaben und des Wohlfahrtsstaates. Im Wesentlichen lassen sich fünf Erklärungsansätze ausmachen: die sozioökonomische Schule, die Machtressourcentheorie, die institutionalistische Theorie, die Theorie vom Politikerbe und die internationalistische Theorie, die wir im Folgenden in der gebotenen Kürze vorstellen.10 Die sozioökonomische Schule stellt den „ältesten maßgeblichen Theoriezweig“ (Schmidt / Ostheim 2007) zur Erklärung wohlfahrtsstaatlicher Entwicklung dar. Als früher und prominenter Vertreter ist Adolph Wagner zu nennen, mit dem nach ihm benannten „Wagnerschen Gesetz“ der wachsenden Ausdehnung der Staatstätigkeit. Prozesse wie Urbanisierung, (De-)Industrialisierung, Änderungen der Familienstruktur und die Demographie spielen in diesem Theoriestrang die entscheidende Rolle. Einen bedeutenden Beitrag für die modernere Forschung stellt Wilensky (1975) dar. Er sieht 10  Ein Überblick über diese Erklärungsansätze findet sich bei Schmidt (2007). Er unterscheidet sogar zwischen sechs Denkrichtungen, da er die Machtressourcen­ theorie zusätzlich unterteilt in eine Machtressourcentheorie gesellschaftlicher Gruppen oder Klassen und in die Parteiendifferenzlehre.



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

227

durch die Sozialversicherungen den „wirtschaftlichen Wert“ von Kindern „unterminiert“ (ebd. S. 47). Der daraus resultierende Geburtenrückgang verstärkt die Alterungsprozesse durch die Industriealisierung und bewirkt einen Sozialausgabenanstieg, befördert auch durch eine stetig anwachsende Wohlfahrtsbürokratie. Im Gegensatz zur sozioökonomischen Schule finden sich in der Machtressourcentheorie kaum deterministische Entwicklungsgesetze. Hier wird der Wohlfahrtsstaat beeinflusst durch die unterschiedlichen Machtverhältnisse und Interaktionen zwischen Klassen, Parteien und sonstigen Interessensgruppen. In der klassensoziologischen Variante (Stephens 1979, Korpi 1980) sind die Gewerkschaften zentrale Einflussgröße, daneben wird in der Parteiendifferenztheorie (Hibbs 1977, Tufte 1978) die Rolle der Parteien untersucht. Sozial- und christdemokratische Parteien gelten danach als „wohlfahrtstaatliche Parteien“ (Obinger / Kittel 2003) und wirken expansiv auf die Sozialausgaben, Rechtsparteien bzw. wirtschaftsliberale Parteien hingegen bremsend. Während der Einfluss traditioneller Parteien auf den Wohlfahrtstaat bereits seit den 1970er Jahren erforscht wird, befindet sich die Forschung bezüglich des Einflusses grüner Parteien auf die Sozialausgaben noch in den Kinderschuhen. Zu Unrecht, wie wir meinen und wie ein erster Blick in die Empirie verrät: Unter den neun Ländern mit den höchsten Sozialausgaben finden sich auch die sieben Länder mit den höchsten Stimm­ anteilen für grüne Parteien: Deutschland, Frankreich, Belgien, Schweiz, Österreich, Schweden und Finnland.11 Die institutionalistische Theorie untersucht die demokratischen Prozesse, Regeln und Institutionen mit ihren systematischen Anreizstrukturen und Politikergebnissen. Sie basiert auf den Stimmenkauf- und Stimmenmaximierungsargumenten von Schumpeter (1942) und Downs (1957) und steht in der Tradition der Public Choice Theorie. Einen wegführenden Beitrag liefert Lijphart (1984, 1999), der mit seinen Verfassungscharakterisierungen in 11  Es fällt auf, dass sich hierunter kein angelsächsisches Land befindet, was sich sowohl mit Mentalitäts- als auch mit Wahlrechtsunterschieden erklären lässt. Die Rolle grüner Parteien bei der Erklärung von Sozialausgaben darf unserer Ansicht nach in Konsequenz aber nicht dadurch klein geredet werden, dass man ihr die Funktion eines bloßen Dummys für (nicht-)angelsächsische Länder zuspricht. Die gleichzeitige Präferenz angelsächsischer Länder für geringe grüne Wahlergebnisse und niedrige Sozialausgaben könnte eine entsprechende Argumentation zwar nahe legen. Eine solche Gleichsetzung würde aber an der differenzierteren Wirklichkeit vorbeigehen. So haben z. B. unter den angelsächsischen Ländern in unserem Datenbeispiel lediglich die USA und Großbritannien keine grünen Wähleranteile, Kanada, Neuseeland und Irland hingegen durchaus. Die alternative Verwendung eines solchen Dummys an Stelle der Grünen würde in der Regression darüber hinaus zu einem nichtsignifikanten Ergebnis für den Dummy kommen, der Erklärungsgehalt der Schätzgleichung entsprechend deutlich absinken.

228

Alexander Eschbach

Wettbewerbs- und Konsensdemokratien den Grundstein zahlreicher empirischer Studien gelegt hat. Zentrale Untersuchungsgegenstände der institutionalistischen Theorie sind demnach z. B. der Einfluss von direkter Demokratie, Föderalismus oder Wahl- und Regierungssystemen. Roubini  /  Sachs (1989) können beispielsweise zeigen, dass die Anzahl der Regierungsparteien die Staatsausgaben erhöht, Persson / Tabellini (1999) zeigen die bremsende Ausgabenwirkung von präsidentiellen Systemen und Mehrheitswahlrecht. Nach der Theorie vom Politikerbe wirken sich weit in die Vergangenheit zurückreichende gesellschafts-, wirtschafts- und sozialpolitische Entscheidungen noch heute aus auf die unterschiedlichen Wohlfahrtstaatregimes und Sozialausgabenniveaus (Flora / Alber 1981, Esping-Andersen 1990). Mehrere Studien kommen beispielsweise zu dem Schluss, dass alleine bereits das Alter der Demokratien oder der Sozialversicherungsprogramme bis heute das Sozialausgabenniveau beeinflusst (vgl. auch Wilensky 1975, S. 10: „all social insurance systems mature“). Nach einer etwas differenzierteren Argumentation findet sich in dem volkswirtschaftlichen Finanzierungssystem eines Landes ebenfalls ein sich bis heute auswirkendes Politikerbe. Die unterschiedlichen Entwicklungen der Länder hin zu überwiegend banken­ finanzierten Systemen einerseits oder kapitalmarktfinanzierten Systemen anderseits nahm ihren Lauf bereits im 18. und 19. Jahrhundert.12 Dass diese historischen Weichenstellungen als Politikerbe tatsächlich bis heute fortwirken zeigt Tabelle 2, nach welcher auch im Untersuchungszeitraum 1980– 2009 kontinentaleuropäische Länder wie Deutschland, Österreich, Frankreich und Italien sowie Japan bis heute eher zur Bankenfinanzierung neigen, die angelsächsischen Länder hingegen zur Kapitalmarktfinanzierung. Die Konsequenzen dieses unterschiedlichen Erbes veranschaulichen Hicks  /  Kennworthy (1998). Sie sehen die Bankenfinanzierung z.  B. in Deutschland im 19. Jahrhundert mit ihren engen Verknüpfungen zwischen Banken, Unternehmensnetzwerken und Staat als wesentliche Voraussetzung für die Heranbildung korporatistischer Strukturen. Dieses Stakeholdersystem begünstigte in Folge auch die Entstehung von Industrie- und Arbeitgeberverbänden (Zysman 1983) auf der einen und von Gewerkschaften auf der anderen Seite (Stephens 1979). Demgegenüber übernahmen in den angelsächsischen Ländern eher dezentralisierte Kapitalmärkte die volkswirtschaftliche Finanzierungsfunktion, so dass dort bis heute den klassischen Stakeholder-Akteuren weniger Bedeutung zukommt. Unterstützung bekommt dieser Argumentationsstrang durch die Tatsache, dass die meisten korporatistischen Variablen in heutiger Zeit deutlich stärker mit der Bankenfinanzierung korreliert sind, als mit der in der Literatur im Allgemeinen sehr viel 12  Siehe Allen / Gale (1995) zu den historischen „Wasserscheiden“ dieser unterschiedlichen Entwicklung.



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

229

stärker in Verbindung mit Korporatismus gebrachten Variable der Sozialdemokratie. Dass Haushalte in Kapitalmarktfinanzierungssystemen auch mehr Möglichkeiten und Anreize zu privater sozialer Vorsorge haben, dürfte auch zu erwarten sein. Allen / Gale (1995) können entsprechend auch eine größere Bedeutung von betrieblichen Altersvorsorgeprogrammen in Ländern mit Kapitalmarktfinanzierung feststellen. Schließlich stehen sich in der internationalistischen Theorie zwei gegensätzliche Denkrichtungen gegenüber. Nach der Kompensationsthese (Cameron 1978) kommt dem Sozialstaat eine kompensierende Versicherungsfunktion zu, um Schwankungen des internationalen Handels auszugleichen. Nach der Effizienz- bzw. Disziplinierungsthese (Bates / Lien 1985) hingegen sorgen die weltweit mobilen Kapitalströme für eine Begrenzung des Wohlfahrtsstaates und der zu dessen Finanzierung erforderlichen Besteuerung.

IV. Querschnittsanalyse der Sozialausgaben Um die Bestimmungsgründe für die Sozialausgaben zu identifizieren, überprüfen wir im Folgenden die empirische Relevanz der skizzierten Theo­ rien anhand einer Querschnittsanalyse von 21 OECD-Ländern, für welche nach der aktuellen Sozialausgabenstatistik der OECD (SOCX 2012) Zahlen von 1980 bis 2009 vorliegen. Die von uns betrachtete Sozialausgabenquote umfasst die öffentlichen Sozialausgaben und die privaten Pflichtausgaben.13 Sie erklären wir anhand der über die Untersuchungsperiode ermittelten Durchschnitte mehrerer unabhängiger Variablen.14 Als erste unabhängige Variable nehmen wir das reale Wirtschaftswachstum in unsere Untersuchung auf. Die Erklärung ist banal, müsste doch die Sozialausgabenquote als sich auf das Bruttoinlandprodukt (BIP) beziehende Größe fallen, je stärker das BIP steigt. Zudem dürfte ein hohes Wirtschaftswachstum eine Reihe von sozialen Problemen abmildern, wie z. B. Arbeitslosigkeit, weshalb wir von einem klar negativen Zusammenhang zwischen Sozialausgabenquote und realem Wirtschaftswachstum ausgehen, wie er sich auch in Diagramm 5 zu erkennen gibt.15 13  Aufgrund ihres Zwangscharakters zählen wir die privaten Pflichtausgaben zu den öffentlichen Sozialausgaben hinzu und meinen im Folgenden stets beide Aus­ gabenkategorien, wenn wir von (öffentlichen) Sozialausgaben oder der Sozialausgabenquote reden. 14  Bei den unabhängigen Altersvariablen haben wir statt der Durchschnittsgröße 1980–2009 allerdings deren Endniveau 2009, Anfangsniveau 1980 oder deren Anstieg 1980–2009 verwendet. 15  Der im Diagramm zitierte Erklärungsgehalt von 26 Prozent wäre übrigens doppelt so hoch, würde man das „Wirtschaftswunderland“ des Untersuchungszeitraumes, Irland, nicht in die Regression mit aufnehmen.

230

Alexander Eschbach

Reales Wirtschaftswachstum 1980–2009

6%

IRL

5% 4% 3% 2%

AUS

GR N

USA CDN

NZ

GB P J NL

1% 0% 15%

20%

E

FL A F S B CH D DK I R² = 0,2599

25% Sozialausgabenquote 2009

30%

35%

Quelle: OECD 2012, SOCX 2012, eigene Berechnungen.

Diagramm 5: Reales Wirtschaftswachstum und Sozialausgabenquote

Schätzgleichung 1 (wie alle folgenden Schätzungen in Tabelle 1 zu finden) führt denn auch zu dem Ergebnis eines auf mittlerem Niveau signifikant negativen Zusammenhangs zwischen realem Wirtschaftswachstum und Sozialausgaben. Ist das nun bereits des „Rätsels Lösung“ – das Wirtschaftswachstum als bestimmender Erklärungsgrund der Sozialausgabenquote? Um diese Frage zu beantworten, untersuchen wir als nächstes das wichtigste Argument der sozioökonomischen Schule, die Demografie. Diagramm 6 zeigt den engen positiven Zusammenhang zwischen der Sozialausgabenquote und dem Altenquotient im Jahr 2009. Entsprechend operationalisieren in Schätzung 2 die Demografie in Form des Altenquotienten16. Die Hinzunahme des Altenquotienten 2009 zum realen Wirtschaftswachstum entzieht letzterem jedoch zu unserer Überraschung fast vollständig die Erklärungskraft, der Altenquotient scheitert hingegen nur knapp am schwa16  Wir schließen uns in dieser Arbeit dem Gebrauch der gemeinhin verwendeten Definition des Altenquotienten als Verhältnis der über 64-Jährigen im zur Bevölkerung im Alter von 20 bis 64 Jahren an. In einer früheren Arbeit (Eschbach 2011) haben wir hingegen mit der „Altersquote“ gearbeitet und sie definiert als Verhältnis der über 64-Jährigen zur Bevölkerung unter 65. Dies hat inhaltlich aus unserer Sicht nach wie vor den Vorteil, dass auch die Kinder und Jugendlichen den „Alten“ gegenübergestellt werden und somit im Gegensatz zum Altenquotienten auch etwaige Veränderungen der Geburtenrate der letzten 20 Jahre berücksichtigt. Selbstverständlich sind Altenquotient und Altersquote überaus stark korreliert, so dass wir uns aus Gründen der Vergleichbarkeit der üblichen Operationalisierung des Faktors Demografie durch den Altenquotienten anschließen.



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

231

Tabelle 1 Querschnittsanalyse der öffentlichen Sozialausgaben in 21 OECD-Ländern 1980–2009 1 Reales Wirtschaftswachstum

–2,54 –2,58**

Altenquotient 2009

2 –1,15 –0,91

3

4

5

6

–0,68 –0,75

0,39 1,66

Altenquotient 1980

0,92 0,92 0,79 0,77 4,40*** 5,66*** 5,99*** 5,67***

Anstieg Altenquot. 1980–2009

0,29 1,69

Grüne

0,35 2,88**

0,34 0,34 3,59*** 3,52***

0,39 1,79*

0,43 2,48**

Regierungstyp

0,01 0,01 3,44*** 3,50***

Bankenfinanzierung Konstante Adj. R2 F-Statistik N

0,40 2,34**

0,00 0,99 0,32 0,18 12,69*** 2,07*

0,05 0,79

0,03 0,64

0,02 0,56

0,02 0,53

22,1 %

28,7 %

63,6 %

68,4 %

80,7 %

80,6 %

6,67

5,02

12,63

15,40

21,87

17,66

21

21

21

21

21

21

Erste Zeile: Regressionskoeffizient. Zweite Zeile: t-Statistik, ggf. mit Signifikanzniveau (z. B. *** = 1 %).

chen Signifikanzniveau von 10 %. Die Erklärung hierfür liegt in der deut­ lichen Korrelation beider Größen, wie Diagramm 7 verdeutlicht. „Alte“ Gesellschaften weisen demnach ein deutlich geringeres Wirtschaftswachstum auf, als „junge“, und der entscheidende Einflussfaktor auf die Entwicklung der Sozialausgaben ist nicht das Wirtschaftswachstum, sondern die auch das Wirtschaftswachstum bestimmende demografische Entwicklung einer Gesellschaft. Schätzung 3 untersucht den Einfluss dieser zentralen Variablen wohlfahrtstaatlicher Forschung genauer. Wir teilen hierzu den Altenquotienten 2009 auf in sein Ursprungsniveau 1980 und in den von 1980 bis 2009 erfolgten Anstieg des Altenquotienten. Obwohl sich mit der zusätzlichen erklärenden Variable die Zahl der Freiheitsgrade reduziert, steigt der Erklärungsgehalt der Schätzgleichung in Form des bereinigten R2 deutlich von 29 % auf 64 % an. Der Altenquotient 1980 erzielt ein hochsignifikantes Ergebnis, der Anstieg des Altenquotienten verfehlt das schwache Signifikanzniveau äußerst

232

Alexander Eschbach 35% F

Sozialausgabenquote 2009

DK S

A B

30% FIN CH E

N

25%

IRL

I D

P GR

NL NZ

20%

GB

CDN

USA

R² = 0,3281

AUS 15% 15%

20%

25%

30%

35%

Altenquotient 2009 Quelle: OECD 2011, SOCX 2012. Gestrichelte Linien: Durchschnittswerte beider Variablen.

Reales Wirtschaftswachstum, 1980–2009

Diagramm 6: Sozialausgabenquote und Altenquotient 2009

6,0%

IRL

5,0% 4,0%

AUS

3,0%

USA NZ

2,0%

E GB FL A

GR P S

CDN NL B CHDK F

1,0% 0,0% 15,0%

N

J D I R² = 0,4422

20,0%

25,0%

30,0%

35,0%

40,0%

Altenquotient 2009 Quelle: OECD 2011, OECD 2012

Diagramm 7: Reales Wirtschaftswachstum und Altenquotient



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

233

knapp, während das Wirtschaftswachstum weiter an Erklärungskraft verliert und aufgrund dessen in die weiteren Schätzungen nicht mehr mit aufgenommen wird. Nachdem wir die sozioökonomische Theorie mit dem Altersaufbau einer Gesellschaft als zentraler Determinante wohlfahrtstaatlicher Ausgaben bestätigen konnten, wenden wir uns in Schätzung 4 zusätzlich der Machtressourcentheorie zu. Die Regierungsanteile von Sozialdemokraten, Christdemokraten und säkularen konservativen Parteien erzielen keine signifikanten Ergebnisse im Beisein der anderen bereits berücksichtigten Variablen (ohne Abbildung). Lediglich für sich genommen stehen die beiden erstgenannten Parteiengruppen in einem positiven Zusammenhang mit den Sozialausgaben, die Konservativen in einem negativen. Stabile signifikante Ergebnisse lassen sich hingegen mit dem Stimmanteil grüner Parteien bei nationalen Wahlen erzielen. Wie Schätzung 4 bis 6 zeigen, üben sie im Beisein der übrigen Variablen einen schwach bis mittelstarken signifikanten Einfluss auf die Sozialausgaben aus. Dass den traditionellen Parteien kaum noch Erklärungskraft hinsichtlich der Sozialausgabenunterschiede zwischen den Ländern zukommt, mag an ihrem ganz im Sinne der Downschen (1957) Theorie über Jahrzehnte einhergehenden Angleichungsprozess liegen. Lediglich die noch „neuen“ Grünen – in längst nicht allen Ländern bereits so etabliert wie in Deutschland – haben diesen Anpassungsprozess noch nicht vollendet. Als Partei der Hochgebildeten, Besserverdiener und Beamten17 profitieren sie zwar nicht in erster Linie von höheren Sozialausgaben, haben der Umverteilung als Postmaterialisten und Idealisten aber auch wenige ideologische Hemmnisse gegenüberzusetzen. Im Gegenteil, stellen neue Sozialprogramme doch neue Betätigungsfelder und Berufschancen für ihre klassische Wählerklientel dar, ohne dass diese aufgrund ihrer materiellen Besserstellung die Kosten dieser Sozialprogramme merklich spüren würde. Um die dritte bedeutende Schule zur Erklärung des Wohlfahrtstaates, die institutionalistische Theorie, abzubilden, nehmen wir in Schätzung 5 die Variable „Regierungstyp“ mit auf. Es handelt sich hierbei um eine synthetische Variable, in welche die Einflüsse sowohl des Regierungs- als auch des Wahlsystems mit eingehen. Sie nimmt den Wert „1“ an, wenn nur eine Partei die Regierung stellt. Dieser Regierungstyp wird begünstigt in präsidentiellen Systemen und beim Mehrheitswahlrecht. Höhere Werte stehen hingegen für Mehrparteien-, Minderheiten- oder Übergangsregierungen, wie sie beim Verhältniswahlrecht entstehen können. 17  Zu Untersuchungen der Wähler- und Mitgliederstruktur der Grünen sei auf die Arbeiten des Parteienforschers Franz Walter oder auf das 2012 erschienene Buch „Die Grünen“ des Meinungsforschers Manfred Güllner verwiesen.

234

Alexander Eschbach

Dass die Variable in Schätzung 5 hoch signifikant ist und einen expansiven Einfluss auf die Sozialausgaben ausübt, überrascht nicht. Notwendige Haushaltskonsolidierungen lassen sich in nur von einer Partei gestützten Regierungen leichter und schneller durchsetzen, als in Koalitionsregierungen. In diesen wiederum kommt der der Demokratie inne liegende Stimmenkauf-Mechanismus zum Tragen: Zustimmung für Maßnahmen zur Befriedigung der eigenen Wählerklientel wird erkauft mit ebensolchen Zugeständnissen an den Koalitionspartner, mit ineffizient hohen Ausgabenniveaus als Folge. Wie schon bei der Aufnahme der Grünen in die Regressionsschätzung ändern sich auch bei der Aufnahme des Regierungstyps die Signifikanz und die Koeffizienten der anderen Variablen kaum – ein Zeichen für die Güte der Schätzung. Als nächstes überprüfen wir die Theorie vom Politikerbe und untersuchen mit Aufnahme der Variablen „Bankenfinanzierung“ in Schätzung 6, inwiefern unterschiedliche volkswirtschaftliche Finanzierungssysteme auch einen Einfluss auf die Ausprägung des Sozialstaates haben. Die Variable „Bankenfinanzierung“ kann keinen Beitrag zur Erklärung der Sozialausgaben liefern. Ihr Ergebnis ist nicht signifikant, und ihre Aufnahme schadet der Güte der Regressionsgleichung, wie der sinkende Wert der F-Statistik verdeutlicht, wenngleich auch die übrigen Variablen von der „Bankenfinanzierung“ nicht beeinträchtigt werden. Das Ergebnis überrascht uns, konnten wir doch mit der Finanzierungsstruktur in Eschbach (2011) für den Untersuchungszeitraum 1980–2005 mit Finanzierungssystemkennzahlen von Levin (2002) durchaus signifikante Schätzwerte erzielen. Wie können wenige Jahre einen solchen Bedeutungsverlust erzeugen? Diagramm 8 zeigt den Verlauf der Bankkredite und der Aktienmarktkapitalisierung, jeweils als Anteile am BIP im Durchschnitt der OECD21. Während das Bankkreditvolumen einen mehr oder minder stetig steigenden Verlauf aufweist, ist die Aktienmarkkapitalisierung deutlich volatiler und ist im Zuge der Finanzkrise deutlich eingebrochen. Verwerfungen wie diese auf dem Finanzmarkt in den Jahren 2008 und 2009 mit ihren Aktiencrashs und Bankenkrisen, unterschiedliche Konjunkturverläufe in den Untersuchungsländern, aber auch unterschiedliche Entwicklungen der Gesetzgebung haben die Ausprägung in banken- versus kapitalmarktfinanzierte Länder in diesem Zeitraum teils deutlich revidiert. Tabelle 2 gibt das Verhältnis von Banken- zu Kapitalmarktfinanzierung (also die Variable „Bankenfinanzierung“) an und unterteilt den Zeitraum mit verfügbaren Daten von 1989 bis 2009 in zwei Perioden, 1989 bis 1999 und 2000 bis 2009. Insgesamt lässt sich für den Durchschnitt der OECD21 nur



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

235

150 120 90 60 30

Bankkredite Aktienmarktkapitalisierung

0

Quelle: World Bank 2012, eigene Berechnungen.

Diagramm 8: Anteile der Bankkredite und Aktienmarktkapitalisierung – gemessen am BIP, Durchschnitt von 21 OECD-Ländern, 1989–2009 Tabelle 2: Verhältnis von Bankkrediten zur Aktienmarktkapitalisierung 1989–1999 2000–2009 Entwicklung 1989–1999 2000–2009 Entwicklung Österreich Deutschland Portugal Italien Frankreich Japan Spanien

7,19 3,51 2,93 2,62 2,24 2,23 2,22

3,83 2,30 3,49 1,94 1,10 1,47 1,63

53 % 65 % 119 % 74 % 49 % 66 % 73 %

3,28

2,25

69 %

Norwegen Neuseeland Finnland Belgien Irland Griechenland Schweiz

2,22 2,05 1,46 1,39 1,32 1,29 1,24

1,55 3,27 0,54 1,17 2,70 1,12 0,66

70 % 159 % 37 % 84 % 205 % 87 % 53 %

1,57

1,57

100 %

Kanada Niederland Australien Dänemark Großbritannien Schweden USA

1,22 1,14 1,07 1,02 0,94 0,62 0,54

1,06 1,54 0,92 2,61 1,17 0,94 0,43

87 % 135 % 86 % 255 % 125 % 150 % 79 %

0,94

1,24

132 %

OECD21

1,93

1,69

88 %

Quelle: World Bank 2012, eigene Berechnungen.

236

Alexander Eschbach

ein leichter Rückgang der Dominanz der Bankenfinanzierung feststellen, sie fällt im Vergleich beider Perioden von 1,93 auf 1,69. Die spannende Entwicklung findet jedoch in den einzelnen Ländern statt. Teilt man die 21 Länder in drei Gruppen entsprechend ihrer Ausgangsposition in der ersten Periode, so lässt sich für die zunächst deutlich bankenfinanzierten Länder ein deutlicher Rückgang dieser Dominanz von 3,28 auf 2,25 feststellen. Umgekehrt weisen die zunächst deutlich kapitalmarktfinanzierten Länder eine Bewegung hin zu mehr Bankenfinanzierung auf: der Wert steigt von 0,94 auf 1,24. Die zunächst dreifach so hohe Ausprägung der bankenfinanzierten Länder schrumpft so auf eine nunmehr doppelt so hohe Ausprägung gegenüber den kapitalmarktfinanzierten Ländern. Diese Annäherung zwischen den Ländergruppen und teilweise sogar Umkehrung typischer Finanzierungsausprägungen (z. B. im Falle Frankreichs, welches von traditioneller Banken- zu Kapitalmarktdominanz wechselt, oder Irland, welches den umgekehrten Verlauf nimmt), haben offensichtlich zu dem Verlust der bisherigen Erklärungskraft der Finanzierungssysteme geführt. Bleibt als letztes die Überprüfung der internationalistischen Theorie. Auch sie scheitert an der völligen Bedeutungslosigkeit der erklärenden Variablen der Außenhandelsquote (Summe von Exporten und Importen im Verhältnis zum BIP), weshalb wir auf ihre Darstellung verzichten.

V. Implikationen und Ausblick Die Querschnittsanalyse der öffentlichen Sozialausgaben von 21 OECDLändern im Zeitraum 1980 bis 2009 kann mit den von uns gewählten Operationalisierungen die sozioökonomische Schule, die Machtressourcentheorie und die institutionalistische Theorie bestätigen, nicht jedoch die Theorie vom Politikerbe und die internationalistische Theorie. Triebkräfte wohlfahrtstaatlicher Ausgaben sind demnach alte bzw. alternde Gesellschaften, Mehrparteien- oder sogar Minderheitenregierungen sowie grüne Parteien. Welche Implikationen ergeben sich hieraus für die zu erwartende Entwicklung der Sozialausgaben hierzulande bis zum Jahr 2035?18 Schauen wir uns zur Beantwortung dieser Frage zunächst einmal in Tabelle 3 an, welche Positionen Deutschland innerhalb der untersuchten relevanten Variablen einnimmt. Ohnehin startet Deutschland bei der abhängigen Variable mit einem Sozialausgabenniveau 2009 im oberen Mittelfeld. Und 18  Da sich eventuell künftig ändernde Geburtenraten auf den Altenquotienten bis zum Jahr 2035 kaum auswirken, da in dessen Berechnung ja nur die mindestens 20 Jahre alten Einwohner einfliessen, stellt der Zeitraum bis 2035 ein geeignetes Prognosefenster dar.



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

237

Tabelle 3 Die Schätzvariablen im Länderranking Rang

Sozialausgaben 2009

Altenquotient 2009

Anstieg Altenquotient 2009–2035

Stimmanteil Grüne 1980–2009

Regierungstyp 1980–2009

1 2 3 4 5

F DK S A B

32,4 % 30,4 % 30,2 % 30,0 % 29,7 %

J I D S GR

36,6 % 33,3 % 33,2 % 30,7 % 29,1 %

D J NL A CDN

26,1 % 24,8 % 24,0 % 22,6 % 21,3 %

B D A FIN CH

8,0 % 6,4 % 5,6 % 5,2 % 5,1 %

DK S N IRL F

4,7 3,9 3,8 3,2 3,2

6 7 8 9 10

FIN I D CH E

29,4 % 29,4 % 29,0 % 28,1 % 26,0 %

B P F A FIN

28,9 % 28,6 % 28,5 % 28,0 % 27,9 %

I FIN CH F B

21,3 % 20,9 % 20,3 % 20,1 % 19,5 %

F NL S NZ AUS

3,5 % 3,5 % 3,5 % 3,0 % 2,3 %

I CH FIN E NZ

3,2 3,0 3,0 2,9 2,5

11 12 13 14 15

P GB N GR NL

25,8 % 25,0 % 24,8 % 23,9 % 23,8 %

DK GB CH E N

27,6 % 27,5 % 27,5 % 27,0 % 24,8 %

P E NZ GR AUS

18,4 % 18,3 % 18,2 % 17,3 % 17,2 %

IRL I CDN GR J

1,6 % 1,3 % 1,0 % 0,1 % 0,0 %

J NL B D A

2,4 2,3 2,2 2,0 1,9

16 17 18 19 20 21

IRL J NZ USA CDN AUS

23,6 % 23,1 % 21,2 % 19,5 % 19,2 % 18,2 %

NL AUS CDN NZ USA IRL

24,6 % 22,5 % 22,0 % 21,5 % 21,4 % 18,1 %

DK N USA S IRL GB

17,0 % 15,7 % 15,6 % 12,9 % 12,8 % 12,5 %

P DK GB E N USA

0,0 % 0,0 % 0,0 % 0,0 % 0,0 % 0,0 %

P AUS CDN GR GB USA

1,8 1,6 1,6 1,0 1,0 1,0

Quelle: Armingeon et al. 2012, OECD 2011, SOCX 2012, eigene Berechnungen.

bei den unabhängigen Variablen nimmt es in drei von vier Fällen einen der ersten drei Plätze ein. Deutschland ist 2009 das drittälteste der untersuchten Länder und weist von 2009 bis 2035 die größte erwartete Alterung in Form eines steigenden Altenquotienten auf. Zwar wissen wir nicht, wie sich zukünftig die Wahlergebnisse grüner Parteien entwickeln werden, in der Vergangenheit waren diese in Deutschland jedoch überdurchschnittlich stark und wenig lässt darauf spekulieren, dass sich dies künftig ändern wird. Der einzige Lichtblick ergibt sich aus dem Regierungstyp. Mit bislang kleinstmöglichen Regierungskoalitionen von nur zwei Parteien weist es einen Wert von „2“ auf und liegt somit eher im Bereich kleiner, stabiler Regierungen. Allerdings igno-

238

Alexander Eschbach

riert der Index schon jetzt, dass CDU und CSU zwei Parteien sind und sich trotz ihrer engen Verwandtschaft bei Koalitionsvereinbarungen und beim Regierungsalltag durchaus Unterschiede ergeben, welche die erwähnten Prozesse des Stimmentauschs- und Stimmenkaufs auslösen können. Als eines der aktuelleren Beispiele sei die Einführung des weniger von der CDU als vielmehr von der CSU propagierten Betreuungsgeldes (auch als „Herdprämie“ tituliert) erwähnt, deren Zustimmung durch die FDP erkauft wurde durch den Wegfall der Praxisgebühr. Konzentrieren wir uns jedoch aufgrund der erwarteten Stabilität beim Regierungstyp und der Ungewissheit zukünftiger Wahlergebnisse auf die mit relativer Gewissheit eintretende demografische Veränderung bis 2035. Sie ist deswegen relativ sicher, da in den nächsten beiden Jahren mit keinem drastischen Anstieg der Geburtenrate zu rechnen ist und später geborene Kinder bis zum Jahr 2035 noch nicht 20 Jahre alt sein werden und den Altenquotienten (Verhältnis der über 65-Jährigen zu den 20 bis 64-Jährigen) somit nicht beeinflussen werden. Sieht man von einer unerwarteten medizinischen Revolution ab, die drastisch das Sterbeverhalten beeinflussen würde, dürfte die größte Unsicherheit der demografischen Entwicklung bis 2035 in der Migration liegen. Aber auch diese ist in der Projektion der Bevölkerungsentwicklung seitens der OECD (2011) mit einem mittleren Szenario bereits berücksichtigt. Um die Bedeutung der kommenden demografischen Entwicklung in Deutschland wirklich erfassen zu können, ist ein Blick auf sie aus längerfristiger Perspektive unerlässlich. Nur so wird die Nichtvergleichbarkeit der letzten 20 Jahre mit den kommenden 20 Jahren deutlich und ein allzu statisches Erwartungsbild verhindert. Diagramm 9 zeigt die Entwicklung und die Prognose des Altenquotienten 1950 bis 2050. Es verbirgt sich hinter diesem Diagramm nicht nur die statistische, demografische Größe des Altenquotienten. Vielmehr ist es Abbild deutscher Geschichte und Politik der letzten 100 Jahre und erlaubt neben Einblicken in die Vergangenheit auch solche in die Zukunft. Zunächst steigt der Altenquotient seit den 1950er Jahren an, wie man es für eine reifende und deutlich prosperierende Industriegesellschaft erwarten würde, kommt 1979 aber zu einem Halt und ist bis 1987 sogar rückläufig. Der Grund hierfür liegt in der Urkatastrophe des 20. Jahrhunderts, mit den 1914 in den Krieg Gezogenen, die keine Kinder zeugten, und den an Hunger oder Krankheiten gestorbenen Säuglingen der Kriegsjahre und ersten Nachkriegsjahre. Wie bei jeder Katastrophe gibt es auch hier Profiteure, auch wenn diese auf diesen Umstand gerne verzichtet hätten. So ist es schwerlich vorstellbar, dass ohne diese traurige demografische Dividende



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

239

70% 60% 50% 40% 30%

2013 Altenquotient

20% 10% 0%

Quelle: OECD 2011.

Diagramm 9: Entwicklung und Prognose des Altenquotienten in Deutschland

1984 der damalige Bundesarbeitsminister Norbert Blüm die großzügigen Vorruhestandsregelungen hätte einführen können. Auch die in den 1980er Jahren relativ stabilen Rentenversicherungsbeiträge wären sonst nicht möglich gewesen. Dass Kohl und Blüm die ja offenkundig nur vorübergehende Atempause bei der demografischen Entwicklung nicht für eine rechtzeitige, grundlegende Rentenreform genutzt haben, ist sicherlich unverzeihlich, politökonomisch jedoch erklärbar. Erst 2002 ist der Altenquotient wieder auf jenes Niveau angewachsen, dass er zuletzt 1979 aufwies, aber da war schon Schröder vier Jahre Kanzler. In seine Regierungszeit fiel – ähnlich dem Zünden einer ersten Raketenstufe – ein kräftiger Anstieg des Altenquotienten, der sich ab 2005 wieder deutlich verlangsamte – Spätfolge des Zweiten Weltkrieges. Angela Merkel hatte entsprechend bislang Glück. Ihre komplette bisherige Regierungszeit war geprägt von einer noch vergleichsweise moderaten Altersentwicklung, mit 2013 als Jahr des geringsten Altersanstiegs in dieser Phase. Doch schon im nächsten Jahr, wird der Altenquotient wieder deutlich zunehmen und aufgrund der Generation der „Baby-Boomer“ bis 2032 mit einer von Jahr zu Jahr steigenden Dynamik zulegen – gleichsam einer zweiten Raketenstufe, die die Gesellschaft in Deutschland in bislang unbekannte Welten stoßen wird. Um die „Schubkraft“ dieser „Rakete“ mit konkreten Zahlen zu verdeut­ lichen: Von 2009 bis 2035 wird der Altenquotient von 33,2 auf 59,3 um über

240

Alexander Eschbach

26 Prozentpunkte wachsen. Statt 33 Rentner muss die Bevölkerung im erwerbsfähigen Alter dann knapp 60 Rentner finanzieren.19 Der jährliche Anstieg des Altenquotienten beträgt ziemlich genau 1,0 Prozentpunkt und ist damit fünfmal schneller, als in den letzten knapp drei Jahrzehnten: Von 1980 bis 2009 stieg der Altenquotient um lediglich 6,1 Prozentpunkte, oder um 0,2 Prozentpunkte pro Jahr. Die Auswirkung des erwarteten Anstiegs des Altenquotienten auf die Sozialausgaben können wir mittels der gewonnenen Erkenntnisse aus der Querschnittsanalyse abschätzen. In der Regressionsschätzung geht ein Anstieg des Altenquotienten um einen Prozentpunkt einher mit einer um gut ein Drittel Prozentpunkt höheren Sozialausgabenquote (vgl. Schätzungen 5 und 6 in Tabelle 1). Entsprechend dürfte der von 2009 bis 2035 zu erwartende Anstieg des Altenquotienten um 26 Prozentpunkte zu einem Anstieg der Sozialausgabenquote um etwa neun Prozentpunkte, von 28 Prozent auf 37 Prozent führen. Mit annähernd 40 Prozent läge dann eine Sozialausgabenquote vor, die von konservativen Politikern für die Staatsausgaben insgesamt auch schon mal als Ziel angegeben wird, zumindest, solange sie sich in der Opposition befinden.20 Es dürfte aus dem bislang Geschilderten klar geworden sein, dass die jüngere Vergangenheit und nähere Zukunft im Hinblick auf die demografische Zusammensetzung der Gesellschaft nicht mehr vergleichbar sein werden. Neben den beschriebenen Folgen für die Sozialausgabenentwicklung ergeben sich hieraus auch Implikationen für Wirtschaft und Gesellschaft, deren Schilderung den Rahmen dieser Arbeit aber sprengen würde. Zumindest auf einige politische Folgen und Überlegungen wollen wir zum Schluss dieser Arbeit noch eingehen. Grundsätzlich wird es mit Fortschreiten der Zeit politisch nicht leichter, sich auf die Veränderungen einzustellen. Denn die Altersentwicklung der Gesellschaft sorgt nicht nur für gesteigerten Handlungsbedarf, um ein Kollabieren der sozialen Sicherungssysteme zu vermeiden. Sie reduziert gleichzeitig auch die Handlungsmöglichkeiten, da die Gruppe der Älteren immer 19  Die Zahl ist nicht ganz korrekt. Sie ignoriert die allgemeine Verlängerung der Lebensarbeitszeit (Rente mit 67 bzw. bis dahin vielleicht sogar mit 69) ebenso wie im Gegenzug bereits vor Erreichen dieser Altersgrenze in Rente gehende Personen. 20  Der geneigte Leser möge mir diese leicht zynische Bemerkung verzeihen. Sie entspringt den enttäuschten Erwartungen angesichts beobachteter Realität. So spricht z. B. das Diskussionspapier „Neue Soziale Marktwirtschaft“ der CDU Deutschlands, welches unter dem Vorsitz der Parteivorsitzenden Angela Merkel erarbeitet und im August 2001 der Öffentlichkeit vorgestellt wurde, von einer „anzustrebenden Senkung der Staatsquote auf unter 40 %“ – ein Ziel, mit welchem CDU / CSU dann auch in den Bundestagswahlkampf 2002 gezogen sind, seit einigen Jahren aber in Vergessenheit zu geraten sein scheint.



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

241

mächtiger wird und deren Besitzstände kaum mehr angetastet werden können. So lässt sich die steigende Altenquotientenkurve in Diagramm 9 auch als Kurve der Reformnotwendigkeit ablesen, und ihren Kehrwert als Indikator von Reformbereitschaft und Reformmöglichkeit eines Landes. Die Sprengkraft, die sich aus dieser Zwickmühle ergibt, scheint von der Politik entweder noch nicht recht verstanden zu sein, oder – wahrschein­ licher – sie wird von ihr aufgrund der Schumpeterschen Zwänge der Stimmenmaximierung ignoriert. Niemand möchte den schwarzen Peter ziehen und die Kürzungen an sozialen Leistungen als Erster vornehmen, was Pierson (1996) treffend als Politik der „blame avoidance“ bezeichnet hat. Auch die Politik der Bundesregierung scheint auf solchem Kalkül zu beruhen. Nach Berechnungen des Freiburger Finanzwissenschaftlers Bernd Raffelhüschen haben die Bundesregierungen seit 2005 den Wohlfahrtstaat deutlich stärker ausgebaut bzw. planen dies mit neuen Leistungen wie der Lebensleistungsrente und höheren Kinderanrechnungszeiten bei die Rentenversicherung zu tun, als ihn konsolidiert. Selbst bei Berücksichtigung des Reformschrittes „Rente mit 67“ verbleibt ein künftiges Ausgabenplus von mehreren hundert Milliarden Euro.21 Die Politik geht mit ihrem Ausweichen vor dem Problem nicht nur die geschilderten Risiken höherer Anpassungskosten und politischer Nichtreformierbarkeit ein. Zwei zusätzliche Probleme werden den Wohlfahrtstaat und dessen Finanzierbarkeit künftig gefährden. Denn zum einen wurde mit der im Grundgesetz verankerten Schuldenbremse ein Instrument geschaffen, welches sich in den kommenden Jahren in der Praxis zwar erst noch bewähren muss, zumindest aber die Erwartung weckt, als könnte es zukünftig einer auf Schulden basierten Finanzierung des Wohlfahrtstaates den Riegel vorschieben. Die Verteilungskämpfe dürften angesichts dann steigender Steuern und Beiträge oder kompensierender Leistungskürzungen zunehmen. Zum anderen darf angesichts der jüngsten Entwicklungen in der europäischen Politik bezweifelt werden, dass sich künftige Bundesregierungen überhaupt noch den Luxus erlauben können, sich alleine den deutschen demografischen und sozialpolitischen Problemen widmen zu können. Käme es z. B. nach den Plänen des EU-Ratspräsidenten Van Rompuy, würde auf europäischer Ebene eine „Fiskalkapazität“ eingerichtet werden, um länderspezifische Schocks abzufedern. Dabei sollen die Mitgliedsländer je nach ihrer Lage im Konjunkturzyklus und ihrer Arbeitsmarktentwicklung in die Kapazität ein21  Siehe Siems (2012). Wie sehr die politischen Reformen der sozioökonomischen Wirklichkeit hinterherhinken, verdeutlicht der Umstand, dass die Fachwelt längst die „Rente mit 69“ diskutiert. Zu ihren Verfechtern gehört der Sachverständigenrat (2011).

242

Alexander Eschbach

zahlen, oder sich auszahlen lassen. Konsequent zu Ende gedacht wäre nach einer solchen Umverteilung je nach Arbeitsmarktentwicklung auch eine solche je nach demografischer oder gesundheitspolitischer Entwicklung denkbar. Dass diese angesichts der europäischen Mehrheitsverhältnisse zu Gunsten des nach wie vor vergleichsweise wirtschaftsstarken Deutschlands aus­ fallen würde, ist nicht zu erwarten. Zu Recht spricht der journalistische ­Kommentar22 vom „Brüsseler Konjunkturlenker“ und dem „Einstieg in die europäische Sozialunion“, käme es zu einer solchen „Fiskalkapazität“. Gleiche Befürchtungen träfen für eine konsequente Umsetzung der makroökonomischen Überwachung, der Beseitigung von „Ungleichgewichten“ in der EU oder der Einrichtung von Eurobonds zu. All diese Maßnahmen würden die nationalen Haushaltsrechte der EU-Mitgliedsstaaten massiv einschränken und im Wesentlichen von Brüssel kontrollierte Umverteilungsströme zu Lasten Deutschlands freisetzen. Gefährlich ist die Situation für unser Land nicht zuletzt auch aufgrund der Target-2-Salden im Euro-Raum. Diese dienen der vom „Club Med“ dominierten EZB faktisch als Faustpfand gegenüber einer Vertretung nationaler Interessen Deutschlands. Zwar hat Deutschland im Zuge seiner von Jahr zu Jahr angehäuften Leistungsbilanzüberschüsse beträchtliche Forderungen gegenüber dem Ausland erwirtschaftet, deren Begleichung die Last des kommenden Alterungsprozesses mildern könnte.23 Doch wären diese Ersparnisse im Extremfall eines Auseinanderbrechens des Euros weitgehend wertlos.24

VI. Fazit Entgegen dem von manchen Politikern geschürten Eindruck ist die in vielen OECD-Ländern herrschende hohe Staatsverschuldung zu ihrem weitaus größeren Teil nicht durch die Finanzmarktkrise entstanden. Vielmehr hat der Wohlfahrtstaat in Konkretisierung der seit Jahrzehnten steigenden Sozialausgaben die Staatsfinanzen zunehmend in die Krise gebracht. Mittels einer Querschnittsanalyse von 21 OECD-Ländern lässt sich als Hauptursache des expandierenden Wohlfahrtsstaates die demografische Entwicklung ausmachen. Die sich hieraus ergebenden Implikationen sind besonders schwerwiegend für die zukünftige Entwicklung in Deutschland, wie es Diagramm 10 zu22  Werner Mussler im Leitartikel der FAZ vom 10.12.2012 („Erst Transferunion, dann Sozialunion“). 23  Zu dem Zusammenhang zwischen Demografie und Zahlungsbilanzströmen siehe auch Matthes / Römer (2005). 24  Zum Target-2-System und dessen Interpretation siehe auch Sinn (2012).



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

Sozialausgabenquote 2009

35%

F DK

S

B

30%

25%

GB

N

IRL 20%

15% 10%

243

EP GR

FL I

15%

AUS

D

CH NL

NZ USA

A

CDN

20%

J

25%

30%

Anstieg der Altersquote 2009–2035 Quelle: OECD 2011, SOCX 2012. Gestrichelte Linien: Durchschnittswerte beider Variablen.

Diagramm 10: Sozialausgabenquote 2009 und erwarteter Anstieg des Altenquotienten 2009 bis 2035

sammenfassend zum Ausdruck bringt: Deutschland befindet sich im rechten oberen Quadranten des Schaubildes und besticht damit durch bereits heute überdurchschnittlich hohe Sozialausgaben und einer in Zukunft rapide alternden Gesellschaft. Kein anderes der untersuchten 21 OECD Länder – nicht einmal Japan – wird bis 2035 so stark altern wie Deutschland. Im Zuge dieses Alterungsprozesses ist in Deutschland von 2009 bis 2035 mit einem Anstieg der Sozialausgabenquote von 28 auf 37 Prozent zu rechnen. Steuern und Beiträge zur Finanzierung dieses Ausgabenanstieges dürften erhöht werden, die Leistungen gleichzeitig gekürzt und die Verteilungskämpfe massiv zunehmen. Mit dem parallel zur Alterung der Gesellschaft wachsenden Reformbedarf sinkt aber auch die Reformbereitschaft und -fähigkeit. Bereits heute dürften die Rentner eine der mächtigsten Wählergruppen sein, wie aktuelle Zugeständnisse wie die verbesserte Anrechenbarkeit von Erziehungszeiten bei der Rente oder die Diskussion um die Lebensleistungsrente zeigen. Ihre Macht wird sich zukünftig noch erheblich steigern: kommen 2013 auf 100 Personen im erwerbsfähigen Alter 34 Personen im Alter von 65 Jahren oder höher, so wird sich diese Zahl bis 2035 auf 60 erhöhen.25 Die Implikationen dieser Entwicklung reichen tief in Arbeitswelt und Familienalltag hinein. 25  Zu der politischen Ökonomie des alternden Medianwählers siehe auch Bardt /  Dickmann (2005).

244

Alexander Eschbach

Zwar könnte Deutschland zumindest die fiskalischen Folgen dieses Alterungsprozesses abmildern, indem es die in den vergangenen Jahrzehnten durch seine Leistungsbilanzüberschüsse angesammelten Ersparnisse einlöst. Doch drohen diese im Falle eines Scheiterns des Euros weitgehend wertlos zu werden. Auch von der EU droht Ungemach. Wenig deutet daraufhin, dass sich Deutschland mit der derzeitigen Ausrichtung seiner Parteien langfristig der Schaffung einer europäischen Transfer- und Sozialunion entziehen kann. Käme zu der Bewältigung der eigenen demografischen Herausforderung auch noch die Übernahme solcher Lasten der europäischen Partner, dürften die fiskalischen, realwirtschaftlichen und gesellschaftspolitischen Folgen das Land an die Grenzen seiner Leistungsfähigkeit bringen.

Epilog Als bereits in jungen Jahren politisch interessierter und aktiver Mensch begeisterte ich mich von Beginn an für die finanzwissenschaftlichen Vorlesungen von Herrn Professor Hans-Hermann Francke. Das Durchhalten im Grundstudium hatte sich gelohnt. Sein rhetorisches Geschick mit klar strukturierten Gedankengängen und gern gezeigtem, stets jedoch wohldosiert eingesetztem schauspielerischen Talent, fesselten den Zuhörer und erleichterten die Aufnahme des Vorlesungsinhaltes ungemein. Der größte Lerneffekt stellte sich bei mir jedoch regelmäßig ein durch die für Professor Francke so typischen, provokativen Zuspitzungen des Arguments. Sie verblüfften, regten zum Widerspruch an, überzeugten letztlich aber doch. Es waren diese Momente, die aus seinem Standpunkt eines klassischen Liberalen kein Geheimnis machten und zumindest mein (wirtschafts-)politisches Bewusstsein auf eine ganz neue Stufe stellten. Neben seinem pädagogischen Geschick und seinen ökonomischen Einsichten beeindruckte Professor Francke nicht zuletzt aber auch durch seine Großzügigkeit und Menschlichkeit. Ich freue mich, dass ich von 2005 bis zu seiner Pensionierung 2008 als Assistent an seinem Lehrstuhl habe arbeiten dürfen.



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

245

Literatur Allen, Franklin / Gale, Douglas (1995): „A welfare comparison of intermediaries and financial markets in Germany and the US“, in: European Economic Review, Vol. 39, No. 2, S. 179–209. Armingeon, Klaus et al. (2012): Comparative Political Data Set I, 1960–2010, Institute of Political Science, University of Berne. Bardt, Hubertus / Dickmann, Nicola (2005): Politische Ökonomie des Alterns, in: Perspektive 2050 – Ökonomik des demographischen Wandels, Institut der deutschen Wirtschaft Köln. Köln, Deutscher Instituts-Verlag, S. 371–390. Bates, Robert H. / Lien, Da-Hsiang D. (1985): „A Note on Taxation, Development and Representative Government“, in: Politics and Society, Vol. 14, S. 53–70. Bundeskanzleramt (2010): Pressekonferenz Merkel – deutsche Wirtschaft. http:// www.bundeskanzlerin.de / Content / DE / Mitschrift / Pressekonferenzen / 2010 / 03 /  2010-03-05-spitzengespraech-deutsche-wirtschaft.html Cameron, David R. (1978): „The Expansion of the Public Economy: A Comparative Analysis“, in: The American Political Science Review, Vol. 72, No. 4, S. 1243– 1261. Downs, Anthony (1957): „An Economic Theory of Political Action in a Democracy“, in: The Journal of Political Economy, Vol. 65, No. 2, S. 135–150. Eschbach, Alexander (2011): Pfade in den Leviathanstaat? Determinanten der öffentlichen Sozialausgaben in 21 OECD-Ländern, 1980–2005, Berlin, Duncker & Humblot. Esping-Andersen, Gøsta (1990): The Three Worlds of Welfare Capitalism. Cambridge, Polity. Flora, Peter / Alber, Jens (1981): Modernization, Democratization, and the Development of Welfare States in Western Europe, in: The Development of Welfare States in Europe and America, Peter Flora und Arnold Heidenheimer, New Brunswick, Transaction Books. Güllner, Manfred (2012): Die Grünen: Höhenflug oder Absturz? Freiburg, Herder Verlag. Hibbs, Douglas A. Jr. (1977): „Political parties and macro economic policies“, in: American Political Science Review, Vol. 71, S. 467–487. Hicks, Alexander / Kenworthy, Lane (1998): „Cooperation and Political Economics Performance in Affluent Democratic Capitalism“, in: American Journal of Sociology, Vol. 103, S. 1631–1672. Internationaler Währungsfonds (2012): World Economic Outlook: Coping with High Debt and Sluggish Growth, Washington. Korpi, Walter (1980): „Social policy and distributional conflict in the capitalist democracies: a preliminary comparative framework“, in: West European Politics, Vol. 4, S. 296–316.

246

Alexander Eschbach

Levine, Ross (2002): „Bank-Based or Market-Based Financial Systems: Which Is Better?“, in: Journal of Financial Intermediation, Vol. 11, S. 398–428. Lijphart, Arend (1984): Democracies: patterns of majoritarian and consensus government in twenty-one countries. New Haven, Yale University Press. – (1999): Patterns of Democracy, New Haven und London, Yale University Press. Matthes, Jürgen / Römer, Christof (2005): Kapitalmärkte, in: Perspektive 2050 – Ökonomik des demographischen Wandels, Institut der deutschen Wirtschaft Köln, Köln, Deutscher Instituts-Verlag, S. 293–319. Mussler, Werner (2012): Erst Transferunion, dann Sozialunion, Leitartikel in: FAZ vom 10.12.2012, S. 1. Obinger, Herbert (2012): „Die Finanzkrise und die Zukunft des Wohlfahrtsstaates“, in: Leviathan, Vol. 40, No. 3, S. 441–461. Obinger, Herbert / Kittel, Bernd (2003): Parteien, Institutionen und Wohlfahrtsstaat – Politisch-institutionelle Determinanten der Sozialpolitik in OECD-Ländern, in: Politische Ökonomie – Demokratie und wirtschaftliche Leistungsfähigkeit, H. Obinger, U. Wagschal und B. Kittel, Wiesbaden, VS Verlag für Sozialwissenschaften, S. 355–384. OECD (2011): Society at a Glance 2011 – OECD Social Indicators, Paris, OECD. – (2012): Economic Outlook 92, Paris, OECD. Persson, Torsten / Tabellini, Guido (1999): Political Economics and Public Finance, in: Handbook of Public Finance, Amsterdam: North Holland. Pierson, Paul (1996): „The New Politics of The Welfare State“, in: World Politics, Vol. 48, No. 2, S. 143–179. Reinhart, Carmen M. / Rogoff, Kenneth S. (2010): „Growth in a Time of Debt“, in: American Economic Review, Vol. 100, No. 2, S. 573–578. Roubini, Nouriel / Sachs, Jeffrey D. (1989): „Government Spending and Budget Deficits in the Industrial Countries“, in: Economic Policy, Vol. 4, No. 8, S. 99–132. Sachverständigenrat (2011): Herausforderungen des demografischen Wandels: Expertise des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung, Wiesbaden, Statistisches Bundesamt. Schmidt, Manfred G. / Ostheim, Tobias (2007): Die sozioökonomische Schule, in: Der Wohlfahrtsstaat, Manfred G. Schmidt, T. Ostheim, N. A. Siegel und R. Zohln­ höfer, Wiesbaden, VS Verlag für Sozialwissenschaften, S. 29–39. Schmidt, Manfred G. / Ostheim, Tobias / Siegel, Nico / Zohlnhöfer, Reimut (2007): Der Wohlfahrtsstaat – Eine Einführung in den historischen und internationalen Vergleich, Wiesbaden. Schumpeter, Joseph (1942): Capitalism, Socialism, and Democracy, New York, ­Harper & Row. Siems, Dorothea (2010): Sechs-Billionen-Lücke – Forscher setzt deutsche Schulden dreimal höher an, in: Welt Online vom 21.03.2010.



Staatsverschuldung, Sozialausgaben und Tyrannei der Demografie

247

– (2012): Wohlfahrtsstaat – Merkels Reformen kosten halbe Billion Euro, in: Welt Online vom 16.12.2012. Sinn, Hans-Werner (2012): „Die Target-Falle. Gefahren für unser Geld und unsere Kinder“, München, Hanser-Verlag. SOCX (2012): „Social Expenditure Database“, von www.SourceOECD.org / database /  socialexpenditure. Stephens, John D. (1979): The Transition from Capitalism to Socialism, London, Macmillan. Tufte, Edward R. (1978): Political Control of the Economy, Princeton, Princeton University Press. Wilensky, Harold L. (1975): The Welfare State and Equality: Structural and Ideological Roots of Public Expenditures, Berkeley, University of California Press. World Bank (2012): Financial Structure Dataset, Washington D.C., World Bank. Zysman, John (1983): Government, Markets, and Growth, Ithaca, Cornell University Press.

III. Immobilienökonomie

Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion – Was bietet die Forschung nach Zertifikaten und Co.? Von Sven Bienert

Prolog Lieber Hans-Hermann: Ich nahm im September 1996 bei der Verwaltungs- und Wirtschaftsakademie sowie der Deutschen Immobilienakademie in Freiburg mein Immobilienstudium parallel zu meinem „klassischen“ BWL-Studium in Lüneburg auf. Damals war ich mir nicht sicher, ob sich die Immobilienwirtschaft in Wissenschaft und Praxis als eigene und insbesondere anerkannte Disziplin in Deutschland durchsetzen wird. Es gab noch fast keine Studiengänge hierzulande und die Wahrnehmung war stark auf „Makler“ mit dem entsprechenden Image reduziert. Ich bin dann letztlich zum Glück bei meiner Leidenschaft „den Immobilien“ hängen geblieben. Dies insbesondere da Du mir, lieber Hans-Hermann, nicht nur Deine Begeisterung mitgegeben hast, sondern mir auch die Möglichkeit einer externen Dissertation bei Dir am Lehrstuhl in Freiburg eröffnet hast. Ich werde dies und insbesondere auch Deine Vorlesungen nie vergessen. Man brauchte bei Dir nicht die „üblichen“ Ablenkungen, denen sich Studenten während so mancher Vorlesung heutzutage gerne widmen. Deine Ausführungen waren immer packend! Ich habe schon lange Deinen Neujahrsgruß aus dem Jahr 2009 in meinem Büro aufgehängt. Ich nehme an, Du erinnerst Dich noch an das darauf befindliche Zitat, welches ja zur Ruhe und Besonnenheit ermahnt. Ich nehme mir (zu) wenig Zeit zum Lesen außerhalb der Berge an Fachliteratur. Ein Buch, welches ich jedoch verschlugen habe war Heinrich Harrers „Sieben Jahre …“ – mir ist über die Jahre nur ein Satz wirklich daraus hängengeblieben, der Dir sicher gefällt: „Aber ich habe in diesem Land gelernt, die Ereignisse der Welt mit Ruhe zu betrachten und mich nicht von ihnen in Zweifel stürzen und hin- und herwerfen zu lassen.“1

1  Vgl.

Harrer (1952), S. 58.

252

Sven Bienert

I. Zusammenfassung & Einleitung Der langfristige Strukturwandel der letzten Jahrzehnte hat Gesellschaft, Regierungen, Märkte und insbesondere Akteure der Immobilienwirtschaft beeinflusst. Die ökonomische, ökologische und soziale Bringschuld, die der Immobilienwirtschaft im Kontext der Nachhaltigkeit obliegt, erfordert gezielte Perspektiven und Handlungsanweisungen auf globaler und regionaler Ebene. Grüne Gebäude tragen positive Effekte zur nachhaltigen wirtschaftlichen Entwicklung bei, indem sie umweltfreundliche, energetisch-optimierte und soziokulturelle Merkmale in ihrer Bauweise und der Bewirtschaftung integrieren. Zudem belegen empirische Studien den positiven finanziellen Mehrwert einer verantwortungsvollen Orientierung auf Unternehmens- und Objektebene, was dem Megatrend „Nachhaltigkeit“ zusätzlichen Auftrieb verleiht. Forschungsbereiche im Zusammenhang mit Nachhaltigkeit umfassen in der Immobilienwirtschaft neben dem vorgenannten Bereich des „Green Pricings“ jedoch auch exemplarisch die Bereiche Corporate Social Responsibility, Nachhaltigkeits-Reporting oder die Auswirkungen von Extremwetterereignissen auf Immobilien.

II. Branchenverantwortung – Appell zu mehr Ernsthaftigkeit Auch wenn wir alle (oder zumindest viele von uns) das oftmals schon zur Phrase verkommene Schlagwort der „Nachhaltigkeit“ nicht mehr hören wollen: Der Umbau unserer (Immobilien-)Wirtschaft hin zu einem nachhaltigen Wirtschaftsgefüge ist der mit Abstand wichtigste Themenkomplex unserer Generation. Unter Nachhaltigkeit wird in Anlehnung an Brundtland verstanden: „Dauerhafte Entwicklung ist Entwicklung, die die Bedürfnisse der Gegenwart befriedigt, ohne zu riskieren, dass künftige Generationen ihre eigenen Bedürfnisse nicht befriedigen können“.2 Zur Konkretisierung hat sich der sog. Drei-Säulen-Ansatz nach Elkington (1994) durchgesetzt, der auch in der Immobilienwirtschaft in angepasster Form Anwendung findet. Dabei geht es um die simultane Berücksichtigung von ökonomischen, sozio-kulturellen und ökologischen Zielen. Wir haben in unserem täglichen Wirken und insbesondere in den Führungspositionen – und natürlich auch im Rahmen der Forschung sowie der laufenden Lehrtätigkeit – für diesen Umbau wesentliche Beiträge zu leisten. Wichtiger noch: wir müssen erkennen, dass wir nur noch einen sehr begrenzten Zeitraum haben, um diese Gestaltungsspielräume mit tragfähigen und zukunftsträchtigen Inhalten auszufüllen. 2  Vgl.

Brundtland-Bericht (1987), S. 46.

Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

253

Ökologie • Reduzierung des Schadstoffausstoßes der Immobilie • Minimierung der Lebenszykluskosten in Bezug auf den Gesamtenergiebedarf • Reduktion des Flächenverbrauches

Soziale Aspekte • Ressourcenerhalt für künftige Generationen • Steigerung der Mitarbeiterproduktivität in den Objekten: • Mitarbeiterkomfort • Mitarbeitergesundheit • Mitarbeiterzufriedenheit

Ökonomie • Minimierung der Lebenszykluskosten von Immobilien • Wohlfahrtsmaximierung • Reduktion der Kosten bei Umbau- und Erhaltungsinvestitionen im Vergleich zum Neubau

Nachhaltige Immobilienwirtschaft

Abbildung 1

Der Immobilienwirtschaft obliegt im Kontext einer wirtschaftlichen, umweltbezogenen sowie sozialen Betrachtung eine besondere Verantwortung. Das kumulierte Immobilienvermögen aus Wohnen, Nicht-Wohnen und Ausrüstungen mit ca. 8.800 Mrd. Euro sowie einer Bruttowertschöpfung der Bau- und Immobilienwirtschaft von rund 390 Mrd. Euro (2008) in Deutschland heben den Stellenwert innerhalb der Volkswirtschaft hervor.3 Gleichzeitig wurde die Bau- und Immobilienwirtschaft als einer der größten Treiber der Ressourcenverknappung und der Klimaschädigung identifiziert. Unter Umweltgesichtspunkten ist die Branche laut OECD-Angaben mit dem Bau, dem Betrieb und dem Rückbau von Gebäuden sowie baulicher Anlagen für 25 %–40 % des Energieverbrauchs, ca. 30 % des Rohstoffverbrauchs, 30 %–40 % der Treibhausgasemissionen, 30 %–40 % des Abfallaufkommens sowie 20 % des weltweiten Trinkwasserverbrauchs verantwortlich.4 Dies verdeutlicht die tragende Rolle der Immobilienwirtschaft bei der Internalisierung negativer externer Effekte, um dem fortschreitenden Klimawandel entgegenzutreten. Diese Verantwortung für mehr nachhaltiges Wirtschaften dürfen wir nicht reaktiv wahrnehmen oder als Bürde verstehen. Wir müssen aktiv nach neuen Geschäftsmodellen suchen, wir müssen die Größe haben, auch über einen kurzfristigen Pay-off hinweg zu agieren und wir müssen ernsthaftes Engagement zeigen. 3 4

Vgl. Zentraler Immobilienausschuss ZIA (2009), S. 19 ff. Vgl. Nelson et al. (2010).

254

Sven Bienert

III. Nachhaltigkeit: Modethema vs. Megatrend Die gesamte Nachhaltigkeitsdiskussion muss sich laufend der Frage stellen, ob sich die Entwicklungen nicht nur als eine vorübergehende Erscheinung und als ein Marketingtool entpuppen oder ob ein positiver Wertbeitrag und eine dauerhafte Veränderung nachweisbar sind? Die Antwort hierzu fällt eindeutig aus: Nachhaltigkeit ist einer der Megatrends unserer heutigen Zeit und keine vorübergehende Marketingmaßnahme. Der langfristige Strukturwandel impliziert sogar, dass es sich möglicherweise um den nächsten Kondratjew-Zyklus handelt, d. h. einen sehr langfristigen Aufschwung. Wachstumsraten von über 30 %, ein grundlegender gesellschaftlicher Wandel in Richtung sozialer Verantwortung sowie ständige Folgeinnovationen auf dem Gebiet des nachhaltigen Wirtschaftens sind klare Indizien für diese Hypothese. Dampfmaschine/ Baumwolle

Stahl/ Eisenbahn

Elektrotechnik/ Petrochemie/ Informationstechnik/ Nachhaltigkeit? Chemie Computer Automobil

1800

1850

1900

1950

1990

20XX

I. Kondratjew

II. Kondratjew

III. Kondratjew

IV. Kondratjew

V. Kondratjew

VI. Kondratjew

Abbildung 2

Ein Strukturwandel setzt dabei eine Vielzahl von systemimmanenten, aber auch exogenen Ursachen voraus. Eine Entwicklung in diesem Kontext ist, dass bei einer Betrachtung der Ergebnisse der unzähligen umfragebasierten Studien zum Thema Nachhaltigkeit eine klare Tendenz bei den Resultaten feststellbar ist. Allgemein steigt das Bewusstsein der Befragten in Bezug auf Nachhaltigkeit und damit in indirekter Verbindung stehend auch deren Zahlungsbereitschaft für „Produkte“, die diesen Kriterien entsprechen. Diese Realität hat auch das Nachhaltigkeitsbewusstsein der immobilienwirtschaftlichen Akteure geschärft. Begriffe wie „Green Building“ bzw. „Sustainable Property“ und „Responsible Property Investment“ haben zunehmend Einzug in die Branche gehalten.5 Treiber der gesamten Entwicklung sind bei genauer Betrachtung insbesondere die Endkunden. Der Faktor „Preis“ ist damit nicht mehr das alleinige Entscheidungskriterium. Darüber hinaus richten 5

Vgl. Roberts et al. (2007).



Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

255

Quelle: IRE|BS Kompetenzzentrum für Nachhaltigkeit in der Immobilienwirtschaft 2012

Abbildung 3

praktisch alle Unternehmen ihre Aktivitäten zunehmend an den veränderten gesetzlichen Rahmenbedingungen der Europäischen Union aus, die eine verstärkte Internalisierung der negativen Externen Effekte beim Verursacher von klimaschädigenden Handlungen forciert. Spätestens seit der Einführung der Energieausweise in Folge der European Performance of Building Directive (EPBD) im Jahr 2003 und der abermaligen Verschärfung der Energieeinsparverordnung (EnEV 2014) auf Bundesebene, ist das Thema Nachhaltigkeit in der Immobilienwirtschaft präsent.6 Die aktuelle Novelle sieht für Neubauten die Anhebung der Effizienzstandards in zwei Schritten (2014 und 2016) vor. Der zulässige Primärenergiebedarf für Neubauten wird dabei jeweils um durchschnittlich 12,5 % reduziert, die Wärmedämmung der Gebäudehülle muss um durchschnittlich 10 % verbessert werden. Öffentliche Neubauten müssen ab 2019 bereits im Niedrigstenergiestandard errichtet werden und alle übrigen Neubauten ab 2021. Es ist beabsichtigt, dass der Bundestag den Neuregelungen noch vor der Sommerpause im Jahr 2013 zustimmen soll, sodass die EnEV Anfang 2014 in Kraft treten könnte. Zu erwarten ist, dass durch die normativen Rahmenbedingungen auch in Zukunft laufend höhere Anforderungen an die Immobilien- und Bauwirtschaft herantragen werden. Exemplarisch wird gegenwärtig dem Themen6  Vgl. http://www.epbd-ca.eu / ; Bundesministerium für Verkehr, Bau und Stadt­ entwicklung BMVBS (2008).

256

Sven Bienert

kreis Wasserverbrauch und dessen Reduktion von Seiten der EU viel Aufmerksamkeit geschenkt.7 Essentiell scheint folglich das Verhalten der Protagonisten in der Immobilienwirtschaft und unterstreicht, welch folgenreiche Konsequenzen aus den jeweiligen Maßnahmen sowie der Handlungsausrichtung resultieren können. Nachhaltiges Denken und Wirtschaften sollte deshalb Grundlage von immobilienwirtschaftlichen Entscheidungsprozessen sein.8 1. Marktteilnehmer reagieren auf breiter Front Die Markteilnehmer, insbesondere in der Immobilienwirtschaft reagieren mittlerweile auf breiter Front auf die veränderten Rahmenbedingungen. Bisher wurde immer ins Feld geführt, dass ein sog „Teufelskreis“ besteht, der durch gegenseitige Schuldzuweisungen den Durchbruch „grüner“ Immobilien verhindert (vgl. Abbildung 3). Ein sog. Green Building, also ein „grünes Gebäude“ ist allgemein ein Objekt, welches Energieressourcen effizient nutzt, CO2-Emission im Vergleich zu konventionellen Vergleichsobjekten reduziert, ein optimales Raumklima sowie eine optimale Raumqualität bereitstellt und aufgrund seiner Ausgestaltung, Errichtung und Nutzung negative Einflüsse auf das ökologische sowie soziale Umfeld minimiert. Unter einer „grünen Immobile“ versteht die Branche in der Praxis insbesondere Objekte, die eines der führenden Zertifizierungssysteme durchlaufen haben und als Ergebnis ein entsprechendes Nachhaltigkeits-Label tragen dürfen. In Deutschland anerkannt und verbreitet sind insbesondere das DGNB-Sigel9, LEED10 und BREEAM.11 Der Veränderungsprozess in Bezug auf eine verstärkte Nachhaltigkeitsorientierung wird dabei nicht mehr nur von Einzelnen getragen. Mittlerweile haben sich große Konzerne auf Unternehmensebene längst einer Nachhaltigkeitsagenda mit strikter Corporate Social Responsibility (CSR) verschrieben, um Wettbewerbsvorteile zu erreichen oder zu sichern.12 Diese CSR7  Vgl. http://ec.europa.eu / environment / eussd / pdf / report_22082012.pdf /  United Nations Environment Programme UNEP (2011). 8  Vgl. Brounen / Kok (2010). 9  DGNB: Deutsche Gesellschaft für nachhaltiges Bauen, www.dgnb.de 10  LEED: Leadership in Energy and Environmental Design (aus den USA stammend), www.usgbc.org 11  BREEAM: BRE Environmental Assessment Method (aus England stammend), www.breeam.org 12  Vgl. Cajias / Bienert (2011).



Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

257

Agenda bestimmt ihr Anmietungsverhalten bzw. bestimmt die Errichtung neuer Objekte.13 Zu den Vorreitern gehören hier neben den oft zitierten Büromietern wie großen Anwaltskanzleien oder Wirtschaftsprüfer aber auch Handelskonzerne wie die Metro Group oder auch die REWE Group. Auch wenn in angespannten Märkten die oft erhofften höheren Mieten z. T. nicht durchsetzbar sind, so ist in jedem Fall die schnellere und höhere Auslastung der jeweiligen Immobilien zu verzeichnen. Auch Entwickler haben diesen Trend erkannt und fordern zertifizierte Gebäude von den Bauunternehmen. Auch gibt es bereits diverse Fondskonzepte, die auf nachhaltige Immobilien zum Teil abstellen. Insgesamt lässt sich somit festhalten: •• Mieter sind bereit höhere Mietkosten zu tragen bzw. große Unternehmen verlangen zertifizierte Gebäude als Mindeststandard. •• Initiatoren nehmen höhere Investitionskosten in Kauf, wenn die resultierenden Werte bei Fertigstellung die höheren Investitionskosten tragen. •• Bauherren und Planer bieten umfangreiche Leistungen im Bereich „Nachhaltigkeit“ an. •• Endinvestoren fragen vermehrt „grüne“ (Fonds-)Produkte nach.

Abbildung 4

13  Vgl.

Waddock (2009); Porter / Kramer (2006).

258

Sven Bienert

IV. Zertifikat macht noch keine nachhaltige Immobilienwirtschaft Der Begriff „Nachhaltigkeit“ wird jedoch gegenwärtig im Sinne der reinen Vermarktung zu Unrecht (über-)strapaziert – viel zu selten wird eine thematisch-inhaltliche Diskussion geführt bzw. werden die Themenkomplexe wissenschaftlich aufgearbeitet. Beinahe könnte man den Eindruck gewinnen, dass Nachhaltigkeit in der Immobilienwirtschaft bereits bei einem DGNB-Gold Zertifikat für eine Trophy-Immobilie endet. Dass der gewählte Standort „funktioniert“ und das Objekt langfristig auf Marktnachfrage stößt, ist wohl ebenso wichtig. Überspitzt gesagt: Was nutzt der Umwelt ein A-Klasse Kühlschrank, wenn ich ihn unter Volldampf und bei offener Tür in die Wüste stelle? Bei einer eingehenderen Betrachtung wird jedoch schnell deutlich, dass Green Buildings und die in den Zertifikaten ausgedrückte Qualität dieser „Hardware“ nur einen kleinen Ausschnitt der notwendigen grundlegenden und strukturellen Veränderungen ausmachen (kann). Es geht nicht nur um die Objekte, es geht ebenso um Portfolio- und Unternehmensbetrachtungen. Es geht um Prozesse, Stakeholderinteressen, Renditeanforderungen, Finanzierungsstrukturen, Governance usw., d. h. Nachhaltigkeit betrifft alle Bereiche und alle Marktteilnehmer. Exogene Faktoren wie bspw. steigende Energiepreise, die EU-Regulierungen zur Energieeffizienz, die deutsche Energiewende sowie endogene Faktoren, wie die verstärkte Nachfrage nach kostenoptimierten Flächen, verstärktes Anlegerinteresse an „grünen Anlagen“ (wie z. B. Responsible Property Investment), die Integration von Corporate Social Responsibility in die Unternehmensstrategie sowie die Implementierung grüner Mietverträge sind nur einige wenige der unzähligen Beispiele, die diesen Wandel weiter vorantreiben. Die Sensibilisierung institutioneller Investoren sowie der breiten Öffentlichkeit, einhergehend mit der stärkeren inhaltlichen und empirischen Auseinandersetzung, heben den Stellenwert der Nachhaltigkeitsthematik auf eine neue, weitaus exponiertere Stufe. Der oben genannten Breite der Nachhaltigkeitsdiskussion muss sich auch die immobilienwirtschaftliche Forschung stellen. Das Konzept der Nachhaltigkeit prägt bereits die Dynamik sowie die Abläufe internationaler Immobilienmärkte und ist Teil mikro- und makroökonomischer Entscheidungen. In der weiteren Folge sollen kurz exkursorisch dem Leser einzelne Ausschnitte der Nachhaltigkeitsforschung innerhalb der Immobilienwirtschaft dargelegt werden, um einen kleinen Überblick über den Stand der Diskussion und der deutschen Beiträge zu den Forschungsagenden zu geben.

Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

259

V. Status Quo in der Nachhaltigkeitsforschung 1. Green Princing – Isolierung des „Grünen Mehrwertes“ auf Objektebene als beliebte „Spielwiese“ Aus kaufmännischer Sicht war und ist die wichtigste (und erste) Frage, die es zu beantworten galt: Does Sustainability pay off? Weltweit beschäftigt sich deshalb die Wissenschaft mit der Frage der Rentabilität nachhaltiger Investments auf Objekt- und Unternehmensebene. Eine der wesentlichen Entwicklungen war hierzu sicher der im Oktober 2006 veröffentlichte SternReport (2006). Erst seit diesem Zeitpunkt gibt es auch Studien, die sich mit der Quantifizierung von Nachhaltigkeit in der Immobilienwirtschaft auseinandersetzen. Allen Resultaten ist eines gemeinsam: es kann einen „grünen“ Mehrwert geben, dieser ist messbar und er steigt tendenziell. In Bezug auf die Messbarkeit des Mehrwertes dieser nachhaltigen Immobilien lichtet sich ebenfalls langsam der Horizont. Studien, die den Mehrwert nachhaltiger Immobilien untersuchen, unterscheiden sich grundsätzlich hinsichtlich der immobilienspezifischen Nutzungsart, des beobachteten Zielmarktes und der betrachteten Nachhaltigkeitsdefinition im Sinne variie-

Schnellere Vermietung und geringere Leerstände

Moderate Verbräuche & Betriebskosten

Steigende Attraktivität

? Mieterlöse / RENT Sinkende Risiken/ YIELD

Steigende Preise/ PRICE

Abbildung 5

260

Sven Bienert

render Labels. Dabei gilt es einen Zusammenhang zwischen möglicherweise exogenen Größen wie (sinkenden) Energiekosten, (höherer) Nutzerzufriedenheit, (schnellerer) Vermietung, (besserem) Nachhaltigkeits-Zertifikatergebnis etc. und den wesentlichen endogenen Größen wie (höheren) Miet­ erlösen, (moderaterer) Risikostruktur und letztlich (höheren) Werten aufzuzeigen. Hedonische Regressionsmodelle bilden hierbei die Grundlage, um den Mehrwert der zusätzlichen Kosten zu isolieren und transparent darzustellen. Insbesondere in der Immobilienwirtschaft ist die Herausforderung, ausreichende und valide (Vergleichs-)Daten für die komplexen Modelle zu finden, besonders virulent. Die Ergebnisse der sehr komplexen Forschungsarbeiten zu diesem Themenbereich kann man wie folgt zusammenfassen: Es gibt einen Mehrwert, aber dieser ist kein Automatismus und natürlich auch von den lokalen Marktgegebenheiten abhängig. Darüber hinaus ist bereits ersichtlich, dass sich langfristig eher ein Abschlag für die Gebäude einstellen wird, die diesen neuen (effizienteren) Marktstandard nicht mehr erfüllen können. Die Zweifler dieser Ergebnisse verkennen in der aktuellen Diskussion oft zwei Dinge: 1. Mehrwert heißt nicht immer „mehr Miete heute“ (gerade in Mietermärkten sind die Vorteile eher eine schnellere Vermietung, geringere Fluktuation etc.) 2. Wenn ich mein Objekt nicht heute für künftige Anforderungen aufstelle (also nicht „future proof“ bin), dann muss ich mich auch nicht wundern, wenn ich nach dem Auslaufen der Erstvermietung ggf. aus dem Markt ausscheide. Die Vorreiterrolle des US-amerikanischen Immobilienmarktes in der Verbreitung von Green Buildings spiegelt sich seit zehn Jahren in einer exponentiellen Wachstumsrate der Zertifizierungen wider. Gemessen am Forschungsoutput bzgl. des LEED- sowie Energy Star-zertifizierten amerikanischen Büro- und Handelsimmobilienmarktes nehmen wohl die University of Maastricht und die University of Reading den Spitzenplatz der weltweiten Forschung ein. Ihren hedonischen Modellen zufolge können Nachhaltigkeitsmerkmale – nach Bereinigung um immobilienspezifische Faktoren – im Durchschnitt zu erhöhten Miet- und Preisprämien führen. Laut Reichardt et al. (2012) zeigt sich insbesondere für nachhaltige Handelsimmobilien eine signifikant positive Marktprämie. Die Investment Property Databank IPD beschäftigt sich ebenfalls mit dieser Frage und stellt für den australischen Markt fest, dass NABERS-zertifizierte Büroimmobilien ebenfalls höhere Returns aufweisen als nicht-zertifizierte. Erste Ergebnisse für den europäischen Markt wurden durch das Projekt IMMOVALUE oder bspw. die deutschen ökologischen Mietpreisspiegel geliefert. Energieausweise erhöhen die Transparenz im Rahmen von Immobilien­ investitionen auf Investoren- sowie Mieterseite zusätzlich und eignen sich

USA

USA

USA

Schweiz

EinfamilienD- Nienburg häuser

Fuerst and McAllister (2008)

Pivo and Fischer (2010)

Pivo and Fischer (2011)

Salvi et. al (2010)

Wameling (2010)

Bienert, IMMOVALUE 2008

Büro

Nettokaltmiete

Mietpreise Leerstandsraten

Transaktionspreise

+

+ +

+

+

9,5%

7% - 17% 10% - 18%

Ca. 1,40 €/m² pro reduzierte kWh/m²a

6%

Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

Abbildung 6

Energieverbäuche / Anstieg um 100%

LEED, Energy Star

Primärenergiebedarf pro m² und Jahr (kWh/m²a)

Mietpreise

Büro, Verkauf, Industrie und Wohnungen

MINERGIE-Label

0,9% 0,1%... 0,7%... 0,007% für jede Einheit Zunahme der Laufdistanz

+ + + -

Marktwert (Büro, Verkauf) Marktwert (Wohnungen) NOI (Büro, Verkauf) Income Returns/Cap Rates

„Walkability“ (Laufdistanz zu folgenden Einrichtungen: Schulen, Einzelhandel, Lebensmittelläden, Erholungs- und Freizeiteinrichtungen) gemessen als „Laufdistanz-Score“ von 0-100

Büro

Wohnungen

2,7% - 8,2% 4,8% - 5,2% 0,2% - 1,3% 6,7% - 10,6% 0,4% - 1,5%

+ + + + -

Net Operating Income (NOI) Mietpreise Leerstandsraten Marktwert Income Returns/Cap Rates

31% - 35% 6%

8% 3%

Energy Star Label; Nähe zu öffentlichem Nahverkehr; Lage in städtebaulichen Sanierungsgebieten

+ +

11,1% 5,9% 13,0% 6,6%

0,50 €/m²

0,38 €/m²

+ +

Leerstandsraten

+ + + +

+

+

+/- Größenordnung

Transaktionspreise Mietpreise

LEED Energy Star

Energy Star

LEED

Transaktionspreise Mietpreise Transaktionspreise Mietpreise

Mietpreise

Einfluss auf

LEED, Energy Star

Büro

Deutschland Büro

Wiley, Benefield and USA Johnson (2008)

USA

Fuerst and McAllister (2010)

Büro

Büro

USA

Eichholtz, Kok and Quigley (2010)

Primärenergiekennwert unter 175kWh/m²a

Primärenergiekennwert unter 250 kWh/m²a

NutzungsBezug Nachhaltigkeit typ

Mehrfamilienhäuser

Land

City of Darmstadt, DeutschRental Index, (2010) land

Studien/ Autoren

261

262

Sven Bienert

darüber hinaus als geeignete Komponente zur Bestimmung der Zahlungsbereitschaft. Studien bezogen auf den niederländischen, deutschen und schweizerischen Wohnungsmarkt (Brounen et al. 2010; Cajias et al. (2012) und Salvi et al. 2008) stellen einen positiven Zusammenhang zwischen der tatsächlichen Energieeffizienz und der finanziellen Vorteilhaftigkeit fest. Im nicht-europäischen Kontext zeigten Yoshida et al. (2011) für Japan, dass allein die Energieeffizienz eine höhere Marktkapitalisierung für zertifizierte Gebäude im Vergleich zu den Kontrollobjekten generieren kann. Insgesamt kann weltweit ein empirischer Nachweis hinsichtlich der intrinsischen Werthaltigkeit nachhaltiger Immobilien geliefert werden, ihre Evidenz hängt jedoch von den vorherrschenden Marktanpassungen und -zyklen ab. Wissenschaftliche Studien zur Quantifizierung monetärer Auswirkungen nachhaltigkeitsrelevanter Merkmale auf Objektebene sowie deren Integra­ tion in bestehende Bewertungsmethoden umfassen mittlerweile eine beträchtliche Anzahl. Der Fokus dieser Studien liegt aus Gründen der Markttransparenz, Marktpenetration bzw. der Datenverfügbarkeit zumeist auf dem US-amerikanischen Markt mit Schwerpunkt auf den Labels LEED und Energy Star. Als Zielvariablen werden in diesen Untersuchungen meistens Miete und Verkaufspreis im Zusammenhang mit einer möglichen Prämie verwendet. Franz Fürst, University of Cambridge und Gastprofessor am IRE|BS Kompetenzzentrum für Nachhaltigkeit in der Immobilienwirtschaft, hat mehrere Studien dazu durchgeführt und konnte in der aktuellsten Untersuchung von 2011 signifikante Preisprämien feststellen. Ähnliche Ergebnisse zeigen sich in der Studie von Nils Kok et al. (2010). Beide Studien beziehen sich auf Büroimmobilien. Die auf dem Schweizer MINERGIE-Zertifikat basierenden Untersuchungen mit einer rund 6-prozentigen Mietprämie erscheinen angesichts der ebenso auf Energieeffizienz ausgerichteten Gesetzgebung als geeignetere Vergleichsgröße. Auch andere europäische Studien stellen das Thema Energieeffizienz in den Mittelpunkt ihrer Untersuchung, bspw. die EU-Initiative IMMOVALUE. Neben den empirischen Ergebnissen stellt sich aber auch die Frage nach der Integration von Nachhaltigkeit in die Immobilienbewertungspraxis. In Zusammenarbeit mit dem IRE|BS Kompetenzzentrum für Nachhaltigkeit in der Immobilienwirtschaft wurde bspw. im Zuge des NUWEL-Projektes hierzu ein integrativer Ansatz entwickelt.



Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

263

2. Mehrwert nachhaltiger Unternehmen sowie CSR, GRI, CRESS und Co. Die Nachhaltigkeit auf Unternehmensebene ist in den letzten Jahren zu einem wichtigen Bestandteil der Strategie global agierender Unternehmen geworden. Die Begriffe „Corporate Social Responsibility“ (CSR) oder „Environmental Social and Governance“ (ESG) signalisieren die Bereitschaft des Unternehmens, soziokulturelle, mitarbeiterbezogene sowie ökologische Aspekte in Einklang mit dem Triple-Botton-Line Ansatz zu integrieren. Für den optimalen Einsatz einer Nachhaltigkeitsstrategie als steuerbarer Produktionsfaktor dürfen eine langfristige Planung und die jährliche Steuerung nicht fehlen, um die finanziellen Ziele des Unternehmens zu unterstützen. In der Entwicklung globaler Märkte sind nachhaltige Unternehmen somit Vorreiter hinsichtlich globalen Denkens und Medienwirksamkeit sowie mit einem großen Wachstumspotenzial behaftet. Gerade zum Thema CSR gibt es zunehmend Forschungsinitiativen in der Immobilienwirtschaft. Zu nennen sind exemplarisch das European Sustainable Investment Forum EuroSIF, United Nations Environment Programme Finance Initiative und der Deutsche Corporate Governance Kodex. Die Immobilienwirtschaft hat einen erheblichen Fortschritt hinsichtlich der Implementierung von Nachhaltigkeitsstrategien gemacht, welche weit über die Investition in Green Buildings hinausgehen. Sie umschließt darüber hinaus die Auseinandersetzung mit CO2-Bilanzen, Wasserverbräuchen, Förderprogrammen, Verhaltenskodizes sowie zuletzt Green Leases und impliziert im Zuge einer ernstgemeinten Nachhaltigkeitsstrategie eine langfristige Denkweise, die sich selbst in veränderten Anlagestrategien und erwarteten Payback-Zeiträumen widerspiegelt. Da auch in der Wirtschaft gilt: tue Gutes und rede darüber, rücken strukturierte Ansätze für Nachhaltigkeitsberichte verstärkt in den Vordergrund. Im Zuge der Nachhaltigkeitsberichterstattung haben sich die Richtlinien der Global Reporting Initiative (GRI), der sog. G3.1 Standard, und insbesondere das seit Ende 2011 verfügbare immobilienwirtschaftliche Sector Supplement „CRESS“ als Leitfaden für das Reporting nachhaltiger Aktivitäten etabliert. Die Anzahl an GRI-Berichten wächst weltweit kontinuierlich, in der Immobilienwirtschaft aktuell sogar exponentiell. Forschungsarbeiten zu diesen Themen umfassen bspw. Cajias et al. (2012) des IRE|BS Kompetenzzentrums für Nachhaltigkeit in der Immobilienwirtschaft oder auch von Ioannou et al. (2011) von der Harvard Business School.

4.9992 5.7996

2

3.6122***

3.1341***

5.7796 6.5095

+

Abbildung 7

4.0316***

3.5937***

3.9386 ***

2.4719 **

-1.1386

4.5010***

0.4026

-1.6552*

5.6063 6.3934

1.6533

1.4456

0.6414 -2.3216

-0.1227

-12.2269

-2.8116***

+ 3.7210***

3.7495 ***

3.5458 ***

-2.0699**

3.0128***

-0.5805

4.2189*** N 160 160 160 Pseudo R² 31.91 26.62 30.87 LogL -112.8836 -121.6552 -114.5966 F-stat 0.0000 0.0000 0.0000 75 CSR_latent = 0 30 CSR_latent = 1 55 CSR_latent = 2 Unabhängige Variable: CSR_latent ist eine latente variable mit drei Kategorien. Unternehme, deren verantwortungsvolle Informationsbereitstellung qualitative hoch ist, gehören zu der höchsten Kategorie. Unternehmen, die nur generelle Informationen über ihre nachhaltigen Aktivitäten (qualitative Informationen) veröffentlichen, gehören zu der nächsten Kategorie.

1

+

1.7877

3.5789***

β9 1.5924 β10

-1.7102*

1.0581

β7 β8 2.9515***

0.0859

-8.1849

1.2354

Skandinavien Jahr Platzhalter

West Europa

-0.3546

-2.7995***

0.9786 -1.4219

0.7058 -1.9463

-0.0757

-12.640

3.3965***

β6

β4 β5

Log(Volatilität) RoA

Log(Alter)

Information Risk

Quelle: Cajias, M. / Bienert, S., 2011: Does Sustainability Pay Off for European Listed Real Estate Companies?

 Volatilität (-)

 Human Resources (+)

 Größe (+)

 Finanzielle Transparenz (+)

durch:

zeichneten sich im Durchschnitt aus

Nachhaltige Immobilien-AGs

Tabelle I: Die Einflussfaktoren einer verantwortungsvollen Informationsbereitstellung Regression via maximum Likelihood Model 1 Model 2 Model 3 Variabel / Koeffizient Koeff. Z-Stat Koeff. Z-Stat Koeff. Z-Stat β1 0.3628 3.0961*** Log(MWert) 0.5117 4.7442*** 0.4028 3.4723*** β2 0.1723 2.0905** Audit Gebühr 0.2465 4.1247*** β3 0.3662 3.7250*** Log(Angestellte) 0.4110 4.1674***

Real Estate Sustainability – Welche Faktoren beeinflussen Nachhaltigkeit? 264 Sven Bienert



Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

265

Evidenz für den positiven Wertbeitrag einer solchen Strategie zeigen die Studien der IRE|BS. Darin wird festgestellt, dass die konsequente Implementierung einer Nachhaltigkeitsstrategie sowohl den Marktwert von Immobilienunternehmen als auch die Renditegenerierung signifikant steigert (Senkung nicht-diversifizierbaren Risikos eines Unternehmens, des sog. idiosyncratic risk). Auffallend war eine deutliche Steigerung der Nachhaltigkeitsaktivitäten der Unternehmen im Laufe der Jahre sowie ein NordSüd-Gefälle – Skandinavische Länder waren erwartungsgemäß spezifisch im Bereich der sozialen Aktivitäten sehr fortgeschritten. Eine Herausforderung stellt in diesem Zusammenhang abermals die Messbarkeit der nachhaltigen Unternehmensagenda dar. Die wenigsten Unternehmen publizierten zum Zeitpunkt unserer ersten Erhebungen einen eigenen Nachhaltigkeitsreport, weshalb die Kriterien für einen Nachhaltigkeitsscore selbst erhoben werden mussten. Weiters zeigt sich in den Studien auf Basis europäischer Immobilien­ aktiengesellschaften, dass die Umsetzung der Nachhaltigkeitsstrategie eine verbesserte Wahrnehmung von Investoren und Kapitalmärkten hinsichtlich des zukünftigen Unternehmensrisikos zur Folge hat. Immobilienunternehmen, deren Renditegenerierungsstrategie auf traditionellen Kennzahlen basiert, beschränken somit ihr Risikokalkül, welches anhand einer Nachhaltigkeitsstrategie erweitert werden kann.

Quelle: Cajias, M. / Bienert, S., 2011: Does Sustainability Pay Off for European Listed Real Estate Companies?

Abbildung 8

266

Sven Bienert

3. Zertifikate und kein Ende in Sicht Nur in Teilen eine „spannende“ wissenschaftliche Fragestellung ist das gesamte Feld der international bekannten Zertifikate. Kritisch zu beurteilen ist aus deutscher Sicht der Angebotsengpass an Green Buildings. Lediglich rund 190 Immobilien wurden bisher deutschlandweit mit dem Gütesiegel der Deutschen Gesellschaft für Nachhaltiges Bauen (DGNB) ausgezeichnet. Bei einem gesamten Immobilienbestand in Deutschland von über 40 Millionen Gebäuden erscheint die geringe Anzahl an bereits zertifizierten Gebäuden als marginal. Die Herausforderung erwächst folglich sowohl im Bereich der Zertifizierungssysteme für Bestandsimmobilien als auch in Bezug auf unterschiedliche Nutzungstypen, um die Bandbreite an Zertifizierungsmöglichkeiten zu erweitern. Labels wie LEED (USA), BREEAM (UK) und DGNB (D) haben mittlerweile in Form von Bestandszertifikaten sowie durch die Entwicklung weiterer Zertifizierungsschemata für unterschiedliche Gebäudetypen reagiert. Diese umfassen beispielsweise Mischnutzung, Hotelgebäude, Industriebauten sowie Stadtquartierszertifizierungen. Wie genau die Inhalte zu differenzieren sind und welche Aspekte in das Gesamtergebnis einfließen sollen, wird in Wissenschaft und Praxis weiter heftig diskutiert. Im internationalen Vergleich kristallisieren sich zwei marktführende Labels heraus: BREEAM und LEED. Die internationale Vergleichbarkeit von Zertifikaten ist laut einer Studie von Reed et al. (2009) zum Thema „International Comparison on Sustainable Rating Tools“ auf Grund unterschiedlicher Kriterienausprägungen und -gewichtungen stark eingeschränkt, was zu Verwirrungen bei den Stakeholdern führt und somit die Transparenz einschränkt. Eine internationale Vereinheitlichung liegt jedoch in weiter Ferne. Aktuelle Forschungen beschäftigen sich im Zusammenhang mit Zertifikaten mit deren Ausbreitungsmustern und wie ggf. die Verbreitung weiter forciert werden kann. Zu nennen sind hier Studien von Kontokosta (2011) oder Kok et al. (2010), welche gesetzliche Förderprogramme, die regionale politische Struktur sowie makroökonomische Aggregate als beeinflussende Variable betrachten. 4. Grüne Mietverträge als Lösung der Principle-Agent-Theory In Zeiten der Fokussierung auf Corporate Social Responsibility (CSR) und Immobilienzertifikate hält seit Kurzem auch der Begriff Green Leases verstärkt Einzug in die Branche. Die Bewirtschaftungsphase tritt dabei in den Fokus. Schließlich sollte eine nicht-„grüne“ Nutzung die geschaffenen technischen Voraussetzungen eines Green Buildings nicht in ihrer Wirkung konterkarieren. So soll ein „Green Lease“ durch seine besondere Ausgestaltung Mieter sowie Vermieter zu einer möglichst umweltfreundlichen Nut-



Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

267

zung der Immobilie veranlassen. Eine allgemeingültige Antwort auf die Frage, welchen Inhalt ein „Green Lease“ haben muss, lässt sich kaum geben. Zu zahlreich und verschieden sind die Aspekte, von denen die Antwort abhängt: Neu- vs. Bestandsgebäude, Neu- vs. Anschlussvermietung, Ausstattung des Gebäudes, Art der Nutzung sowie Single- vs. Multi-Tenant. Um diese Herausforderungen zu adressieren und dabei Licht in das Dunkel möglicher „grüner“ Mietvertragsklauseln zu bringen, hat eine Projektgruppe des Zentralen Immobilien Ausschusses (ZIA e. V.) unter der Leitung von Freshfields, bestehend aus führenden Immobilienunternehmen sowie dem IRE|BS Kompetenzzentrum für Nachhaltigkeit in der Immobilienwirtschaft, einen Regelungskatalog für Green Leases erstellt und veröffentlicht (www. der-gruene-mietvertrag.de). Weitere Forschungsarbeiten in diesem Bereich wurden bspw. von der Royal Institution of Chartered Surveyors, RICS, oder auch aktuell von Stephen Miller, University of Idaho, (2011) mit dem Titel „Commercial Green Leasing in the Era of Climate Change: Practical Solutions for Balancing Risks, Burdens, and Incentives“ durchgeführt. 5. Extremwetterereignisse und Immobilienwerte Aufgrund des bereits beschriebenen Anteils der Immobilienwirtschaft an den globalen Treibhausgasemissionen spielen Anstrengungen zur Steigerung der Energieeffizienz von Gebäuden eine wichtige Rolle zur Eindämmung des Klimawandels (Mitigation). Der Klimawandel ist jedoch bereits in vollem Gange und wird sich in Zukunft sogar noch verstärken. Versicherungen registrieren einen kontinuierlichen Anstieg der Häufigkeit extremer klimatologischer Ereignisse und der damit verbundenen Schäden für die Immobi­ lienwirtschaft. Das gehäufte Auftreten langandauernder Hitzewellen sowie verheerender Hagel-, Sturm- oder Überschwemmungsereignisse stellt Bauherren, Investoren aber auch Versicherungen vor neue Herausforderungen, denen einerseits mit einer angepassten Bauweise andererseits mit der Vermeidung besonders gefährdeter Standorte begegnet werden muss (Adaption). Eine wesentliche Frage dabei wird sein, wie die damit verbundenen Kosten zwischen Eigentümern und Versicherern verteilt werden und wie sich Naturrisiken möglicherweise direkt in veränderten Immobilienpreisen niederschlagen werden. Hierzu bearbeitet die IRE|BS bspw. das Projekt ImmoRisk, dessen Ziel es ist, den Akteuren der Immobilienwirtschaft (Investoren, Versicherungen, Eigentümern, Raumplanern etc.) ein möglichst realitäts­ nahes Werkzeug zur (Natur-)Risikoabschätzung bereitzustellen. Insbesondere da die Bewertung von Naturrisiken bis dato so gut wie gar nicht in die immobilienwirtschaftliche Praxis integriert ist, stellt ein solches Werkzeug einen wichtigen Beitrag zur Erhöhung der Transparenz auf dem Immobi­ lienmarkt dar. Weitere Forschungsarbeiten auf diesem Gebiet stammen bei-

268

Sven Bienert

spielsweise vom Potsdam Institut für Klimafolgenforschung oder dem Karlsruher Institut für Technologie. Im Zusammenhang mit der ökonomischen Nachhaltigkeit werden auch die Auswirkungen der Finanzkrise auf die Immobilienmärkte intensiv hinterfragt.

VI. Herausforderungen und Implikationen Die vorgenannten Forschungsbereiche sind natürlich nur ein kleiner Ausschnitt der vielfältigen Nachhaltigkeitsforschungslinien. Die Immobilienwirtschaft steht vor Herausforderungen zur Bekämpfung des Klimawandels und der Reduzierung von Treibhausgasemissionen. Regulierungen auf europäischer und insbesondere auf deutscher Ebene haben zum Ziel, den CO2Ausstoß um 20 % zu senken, einen klimaneutralen Gebäudebestand zu erreichen sowie die Modernisierungsrate zu verdoppeln. In diesem Kontext stehen immobilienwirtschaftliche Entscheider vor veränderten Rahmenbedingungen, die sowohl Chancen als auch Risiken eröffnen. Eine Wende hinsichtlich traditioneller Unternehmensstrategien findet bereits statt, zukunftsorientierte, nachhaltige Strategien sind gefragt. Der Staat forciert eine Energiewende, die verschärfte Anforderungen an die Marktteilnehmer stellt, aber gleichzeitig mittels Förderprogrammen unterstützt. In globaler Hinsicht beschäftigen sich Staaten und insbesondere der „Global Compact“ der Vereinigten Nationen mit dem Thema Nachhaltigkeit und widmen sich hierbei explizit der intergenerationellen Bedeutung einer nachhaltigen Weltwirtschaft. Basierend auf zehn Prinzipien gilt dabei, im Kontrast zu anderen Wirtschaftssektoren, die Schaffung einer nachhaltigen, globalen Immobilienwirtschaft als primäres Ziel hinsichtlich der Eindämmungspotenziale. Seit Rio+20, im Rahmen des Corporate Sustainability Forums der UN, sind sich sowohl Staats- und Regierungschefs als auch die Privatwirtschaft einig, dass eine gemeinsame Zukunft strategische Lösungen benötigt, um ein nachhaltiges Gleichgewicht zu schaffen oder zumindest zu ermöglichen. In Anbetracht der internationalen Wahrnehmung sowie der unternommenen Anstrengungen in Hinblick auf nachhaltiges Handeln in Kombination mit den gewonnenen wissenschaftlichen Erkenntnissen eines grünen Mehrwertes wird das Thema Nachhaltigkeit auch zukünftig einen übergeordneten Stellenwert einnehmen.



Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

269

Literatur Bays, Wolfgang / Busmann, Johannes / Jung, Stephan / Pleus, Rüdiger / Striebich, Klaus (2010): Energie, German Council Congress 2010. Bienert, Sven / Schützenhofer, Christian / Leopoldsberger, Gerrit / Bobsin, Kerstin / Leutgöb, K. / Hüttler, Walter / Popescu, Daniela / Mladin, Emilia-Cerna / Boazu, Rodica / Koch, David / Edvardsen, Dag-Fjeld (2011): Integration of Energy Performance and Life-Cycle Costing into Property Valuation Practice, IMMOVALUE-Project. Brounen, Dirk / Kok, Nils (2010): On the Economics of EU Energy Labels in the Housing Market, in: RICS Research. Cajias, Marcelo / Bienert, Sven (2011): Does Sustainability Pay Off for European Listed Real Estate Companies? The Dynamics between Risk and Provision of Responsible Information, in: Journal of Sustainable Real Estate, Vol. 3, S. 211– 231. Cajias, Marcelo / Fürst, Franz / McAllister, Pat / Nanda, Anupam (2011): Do Responsible Real Estate Companies Outperform their Peers?, European Real Estate Society Conference 2011. Cajias, Marcelo / Geiger, Peter / Bienert, Sven (2012): Green Agenda and Green Performance: Empirical Evidence for Real Estate Companies, in: Journal of European Real Estate Research, Vol. 5, No. 2, 2012. Cajias, Marcelo / Piazolo, Daniel (2012): The Effect of Environmental Performance on the Value of Buildings, European Real Estate Society Conference 2012. Deutsche Gesellschaft für Nachhaltiges Bauen DGNB (2012): http://www.dgnb.de Eichholtz, Piet / Kok, Nils / Quigley, John (2010): Doing Well by Doing Good? Green Office Buildings, in: American Economic Review, Vol. 100, S. 2492–2509. Elkington, John (1994): Towards the Sustainable Corporation – Win-win-win Business Strategies for Sustainable Development, in: California Management Review, Vol. 36, No. 2, S. 90–100. EPRA – European Public Real Estate Association (2009): Best Practices Recommendations Juli 2009. – (2010): EPRA Sustainability Reporting Committee. GRI CRESS Response and Proposal for EPRA BPR – Juni 2010. European Commission: Energy Performance of Buildings Directive, www.epbd-ca.eu Fürst, Franz / McAllister, Pat (2010): Green Noise or Green Value? Measuring the Effects of Environmental Certification on Office values, in: Real Estate Economics, Vol. 70, S. 1–25. – (2011): Eco-labeling in commercial office markets: Do LEED and Energy Star offices obtain multiple premiums?, in: Ecological Economics, Vol. 70, No. 6, S. 1220–1230. Global Reporting Initiative (2010): Sustainability Reporting Guidelines. – (2010): Construction and Real Estate Sector Supplement CRESS Reporting Guidelines.

270

Sven Bienert

Harrer, Heinrich (1952): Sieben Jahre in Tibet. Mein Leben am Hofe des Dalai Lama. Ullstein, Wien. Ioannou, Ioannis / Serafeim, George (2011): The Consequence of Mandatory Corporate Sustaianbility Reporting, in: Harvard Business School, Working Paper 11– 100. Kok, Nils / McGraw, Marquise / Quigley, John (2010): The Diffusion of Energy Efficiency in Building, in: American Economic Review, Vol. 101, No. 3, S. 77–82. Kontokosta, Constantine (2011): Greening the Regulatory Landscape: The Spatial and Temporal Diffusion of Green Building Policies in US Cities, in: Journal of Sustainable Real Estate, Vol. 3, S. 68–90. Leopoldsberger, Gerrit / Bienert, Sven / Brunauer, Wolfgang / Bobsin, Kerstin / Schützenhofer, Christina (2011): Energising Property Valuation – Putting a Value on Energy-Efficient Buildings, in: The Appraisal Journal, Vol. 79, No. 2, S. 112–125. Lorenz, David / Lützkendorf, Thomas (2011): Sustainability and Property Valuation – Systematisation of existing approaches and recommendations for future action, in: Journal of Property Investment & Finance, Vol. 29, S. 644–676. Meins, Erika / Lützkendorf, Thomas / Lorenz, David / Leopoldsberger, Gerri / Frank, ­Sarah  /  Bukhard, Hans-Peter / Stoy, Christian / Bienert, Sven (2011): Nachhaltigkeit und Wertermittlung von Immobilien – Leitfaden für Deutschland, Österreich und die Schweiz (NUWEL). Miller, Stephan (2011): Commercial Green Leasing in the Era of Climate Change: Practical Solutions for Balancing Risks, Burdens, and Incentives, in: Environmental Law Reporter, News & Analysis, Vol. 40, No. 5, S. 10487. Nelson, Andrew / Rakau, Oliver / Doerrenberg, Philipp (2010): Green Buildings – A Niche becomes Mainstream, RREEF Research. Piazolo, Daniel (2011): Nachhaltigkeit und Benchmarking, Vortrag an der Universität Regensburg, 15.07.2011. Piazolo, Daniel / Wilke, Elaine (2011): Studien Immobilienperformance und Energieeffizienz, IPD Investment Property Databank GmbH. Porter, Michael / Kramer, Mark (2006): Strategy and Society – The Link between Competitive Advantage and Corporate Social Responsibility, in: Harvard Business Review, Vol. 84, No. 1, S. 78–92. Reed, Richard / Bilos, Anita / Wilkinson, Sara / Schulte, Karl-Werner (2009): International Comparison of Sustainable Rating Tools, in: Journal of Sustainable Real Estate; Vol. 1, No. 1, S. 1–22. Reichardt, Alexander / Fürst, Franz / Rottke, Nico (2012): Sustainable Building Certification and the Rent Premium: A Panel Data Approach, in: Journal of Real Estate Research, forthcoming. Roberts, Claire / Rapson, Dan / Shiers, David (2007): Social Responsibility: Key Terms and their Uses in Property Investments, in: Journal of Property Investment & Finance, Vol. 25, S. 388–400.



Immobilienwirtschaft im Licht der Nachhaltigkeitsdiskussion

271

Salvi, Marco / Horejájová, Andrea / Müri, Ruth (2008): Minergie macht sich bezahlt, CCRS und Zürcher Kantonalbank. Solow, Robert (1991): An Economist’s Perspective. Paper presented at the Eighteenth J. Seward Johnson Lecture on the Marine Policy Center. Stern, Nicolas (2006): Stern Review on the Economics of Climate Change, Cambridge University Press. Waddock, Sandra (2004): Parallel Universes: Companies, Academics, and the Progress of Corporate Citizenship, in: Business and Society Review, Vol. 109, S. 5–42. United Nations Economic Commission for Europe, Working Party on Land Administration and Real Estate Market Advisory Group (2010): Policy Framework for Sustainable Real Estate Markets – Principles and Guidance for the Development of a Country’s Real Estate Sector. United Nations Environment Programme (2011): Buildings Investing in energy and resource efficiency. Yoshida, Jiro / Sugiura, Ayako (2011): Which „Greenness“ is Valued? Evidence from Green Condominiums in Tokyo, Green Building Finance and Investments: Prac­ tice, Policy and Research, Maastricht. Zentraler Immobilien Ausschuss e. V. (2011): Nachhaltigkeit in der Immobilienwirtschaft – Kodex, Berichte und Compliance. Zentraler Immobilienausschuss ZIA (2009): Bericht über die Wohnungs- und Immobilienwirtschaft in Deutschland. – (2012): Regelungsempfehlungen der Projektgruppe Green Lease.

Cutting the Cake Von Robert Göötz

Prolog Mein Studium an der Albert-Ludwigs-Universität in Freiburg zählt zu meinen schönsten Lebensabschnitten. Das Hauptstudium (und damit mein weiterer Werdegang) war geprägt durch eine Begegnung mit Hans-Hermann Francke („HHF“) in einem Aufzug der Universität. In kurzen Sätzen machte mir HHF klar, dass es nur eine Disziplin in der Volkswirtschaftslehre gäbe – den Monetarismus. Diese Begegnung war nachhaltig. Ich legte meinen Studienschwerpunkt auf Finanzwissenschaften und promovierte in den Jahren 1993–1996 am Lehrstuhl von Hans-Hermann Francke. Nicht über den Monetarismus – sondern über Immobilienmärkte und Steuerrecht. Dies zählte ebenfalls zu den Leidenschaften von HHF – und wurde zu einer der meinigen. Eine kurze Einführung in das moderne Real Estate Asset Management zur Schaffung neuer Ansätze zur Konstruktion von Immobilienderivaten und begleitenden Instrumenten. Der deutsche Immobilienmarkt, respektive die deutsche Immobilienwirtschaft, wird im internationalen Kontext gemeinhin sehr divergierend betrachtet. Auf der einen Seite wird den deutschen Marktteilnehmern häufig mangelnde Professionalität und zu geringe Affinität zum Kapitalmarkt nachgesagt, auf der anderen Seite gelten die deutschen Immobilienmärkte als die stabilsten weltweit. So falsch kann es also nicht sein, was wir in Deutschland tun. Gleichwohl sind die kapitalmarktnahen Instrumente im deutschen Immobilienmarkt nicht sehr entwickelt.

274

Robert Göötz

I. Einführung in das Moderne Real Estate Asset Management 1. Real Estate Asset Management im Wandel Nicht zuletzt mit dem Konkurs der US-Investmentbank Lehman-Brothers1 als eine der Folgen der US-amerikanischen Subprime-Krise der Jahre 2007 ff. und der darauf folgenden Verwerfungen an den internationalen Finanz- und Kapitalmärkten wurde die enge Verflechtung von Finanz-, Immobilien- und Kapitalmärkten für alle Marktteilnehmer direkt spürbar. Die Immobilienmärkte sind keine „Insel“, losgelöst von den Ereignissen benachbarter Märkte. Und ebenso wenig wie es den Immobilienmarkt, den Kapitalmarkt oder den Finanzmarkt gibt, lassen sich die Märkte entflechten und ihre Einflüsse und die Auswirkungen derselben loslösen und in einer Art „Sandbox“ isoliert betrachten.

Abbildung 1: Die Verflechtung der Märkte2

Die Märkte, als Summe ihrer Teilmärkte, sind eng miteinander verknüpft und erzeugen wechselseitige Abhängigkeiten untereinander. Beispielsweise sind der Immobilienmarkt und der Finanzmarkt über das Hypothekengeschäft untrennbar miteinander verwoben. Zum Zweck der Kapitalanlage verbriefte Immobilien sind unstrittig fester Bestandteil des Kapitalmarktes; 1  Lehman Brothers Holdings Inc., im Folgenden „Lehman“, zeigte am 15. September 2008 der zuständigen US-Aufsichtsbehörde den Bankrott an und beantragte das sog. „Chapter 11 Verfahren“. 2  Quelle: ideen-park GmbH, 2010. Siehe auch Göötz (2010), S. 765.



Cutting the Cake

275

das mehrstöckige Verbriefen von Realkrediten führt die drei Märkte zusammen. Wenige Jahre nach dem Zusammenbruch von Lehman ist die europäische Schuldenkrise das bestimmende Thema. Die Spekulationen an den Kapitalmärkten haben zu Tage gefördert, was man wusste, aber vielleicht nicht in dieser Klarheit sehen wollte. Das ist das „über die eigenen Verhältnisse leben vieler Staaten“ auf der einen Seite und das gewachsene Bewusstsein über die Marktmacht der Kapitalmärkte auf der anderen Seite. Die Kapitalmärkte, und namentlich die Reaktionen ihrer Teilnehmer, sind die bestimmende Größe für das Wohl und Wehe an den anderen Märkten. Dies ist für sich genommen nicht neu – neu ist nur die Klarheit darüber, zu der viele Marktteilnehmer an anderen Märkten jetzt gelangt sind. Was viele Branchen schon hinter sich haben, muss die deutsche Immobilienwirtschaft noch nachholen. Die Situation und die Entscheidungsparameter für die Immobilienwirtschaft haben sich grundlegend geändert. Heute dominieren die Kapitalmärkte und ihre Vorgaben die Teile der Immobilienmärkte, auf welchen verbrieften Immobilien gehandelt werden und sämt­ liche Immobilien-Entscheidungen, welche aus Anlagegesichtspunkten heraus getroffen werden. Der Druck der Kapitalmärkte ist das beherrschende Thema und fordert eine zunehmende Anpassung an die Usancen und Regeln des Kapitalmarktes einschließlich einer zunehmenden Professionalisierung und Internationalisierung der Immobilienmärkte und der ihrer Marktteilnehmer. In der Folge sind einige der bislang angewendeten Betrachtungsweisen, Definitionen und Abgrenzungen, insbesondere der deutschen Immobilienmarktteilnehmer, nicht mehr zeitgemäß und müssen überarbeitet und angepasst werden. So zum Beispiel der Begriff und das Verständnis des Asset Managements. Kommend von einem hochgradig spezialisierten und sehr effizienten Kapitalmarkt und dem tief fundierten theoretischen Unterbau, ist es nicht weiter verwunderlich, dass zum Beispiel der BVI3 den Begriff des Portfolio­ managements in seinem Lexikon nicht nennt. Wohl aber definiert der BVI Asset Management wie folgt: „Asset Management bedeutet die Steuerung eines Anlageportefeuilles nach Risiko- und Ertragsgesichtspunkten. Die Dienstleistung wird von Finanzintermediären angeboten. Sie umfasst die Vorbereitung und Umsetzung von Anlageentscheidungen zur Verfügung des Geldvermögens Dritter.“4

Diese Definition und darin dokumentierte Sichtweise entspricht der des Kapitalmarktes und spiegelt dessen Erwartungen wider. Ganz im Sinne von 3  Bundesverband 4  Quelle:

der Investment- und Asset Manager e. V. www.bvi.de; Zugriff am 30.10.2012 um 15:30h.

276

Robert Göötz

Williams, Hicks, Markowitz und anderen findet ein echtes Portfolio Management im Form einer sinnvollen Kombination von unterschiedlichen Assets bzw. Asset-Klassen statt.5 Dementsprechend wird im Rahmen des Investments die Aufteilung eines Gesamt-Vermögens auf verschiedene Asset-Klassen wie z. B. Aktien, Geldmarktanlagen, verzinsliche Wertpapiere oder eben Immobilien vorgenommen. Das Asset Management übernimmt dabei die Gesamtverantwortung für eine Asset-Klasse im Rahmen der Vorgaben des Investors.6 Diese Sichtweise steht in deutlichem Widerspruch zu einem Teil der deutschsprachigen immobilienwirtschaftlichen Literatur. Hier wurde in jüngerer Zeit eine kontroverse Diskussion über die Definition und Einordnung der Begriffe Portfolio Management und Asset Management in den immobilienwirtschaftlichen Kontext geführt. Teilweise gab es Bemühungen, Asset Management als eine Meta- oder Zwischenebene zwischen Objekt- und Portfolio-Ebene zu definieren.7 Diese Bemühungen erscheinen aus drei Gründen verwunderlich: 1. Die professionalisierten Kapitalmarktteilnehmer kennen seit vielen Jahren die Disziplin des Asset-Liability-Management und wenden diese stringent an.8 Dies geht in manchen Unternehmen so weit, dass für die einzelnen Assetklassen nicht nur einzelne Abteilungen, sondern gar einzelne, hochspezialisierte Firmen gegründet werden.9 2. Es werden die „echten“, quasi „natürlichen“ Aggregationsstufen der Immobilienwirtschaft und ihre wechselseitigen Abhängigkeiten nicht ausreichend berücksichtigt. Anstatt von der quasi gegebenen Schüttung Mietfläche – Objekt – Bestand auszugehen, wurde versucht, Management5  Vgl. in diesem Sinn: Williams (1938), S. 55 ff; Hicks (1939), S. 126 ff.; Markowitz (1952), S. 77 ff. 6  Vgl. Göötz (2010), S. 764 f. 7  Vgl. in diesem Sinn z. B. Teichmann (2007), S. 9; Kämpf-Dern (2010), S.  40 ff. Ganz anders etwa Quante (2011), S. 156 f. oder Gondring (2009), S. 610 ff. und Gondring / Wagner (2010). 8  Den Anfang machte die Versicherungswirtschaft als eine Gruppe der großen, professionellen Kapitalanleger. Es folgten Pensionskassen, Kapitalanlagegesellschaften, Investmentgesellschaften und größere Bestandshalter. Vgl. hierzu die Grundlagen von Redington (1952) und Wilkie (1986) sowie die späteren Arbeiten von Gessner (1978, 1979, 1987) und anderen. Das Modell wurde beständig erweitert, verbessert und fortentwickelt und ist heute Basis für die „Dynamic Financial Analysis“, das „Value Based Management“ und „Risk Based Capital“ bis hin zum „Stress-Test“ der BaFin. Vgl. hierzu auch: Göötz (2000), S. 380. 9  Ein gutes Beispiel hierfür ist der deutsche Allianz Konzern. Hier kümmert sich z. B. die Tochter Pimco Investors um die festverzinslichen Papiere, während die Allianz Real Estate sich um die Immobilienanlagen kümmert. Vgl. hierzu auch: Göötz (2000), S. 380.



Cutting the Cake

277

Ebenen und Hierarchien zu finden und zu definieren. Und dies, obwohl die Kapitalmarkt- und Portfoliotheorie uns lehrt, dass die unterschied­ lichen Aggregationen von Assets und das Umgehen mit diesen und den damit verbundenen Risiken die entscheidenden Größen sind. 3. Seit geraumer Zeit ist in der angelsächsischen Literatur der Begriff Asset Management diskutiert, eingeführt und auf die Immobilienwirtschaft übertragen. Dubben und Sayce definierten bereits 1991: „Asset Management is defined as the process of maximizing value to a property or a portfolio of properties from acquisition to disposition within the objectives defined by the owner. This concept uses strategic planning, which includes investment analysis and operation and marketing analysis, as well as the positioning of a property in the market place in accordance with market trends and conditions.“10 Ihnen vorangegangen war Maury Seldin. Schon im Jahr 1980 definierte er Real Estate Asset Management als „general process of managing all aspects of real estate assets, including acquisition and disposition, devising management strategies, management of building / facility operations, finan­ cial management, and all aspects of accounting and reporting on real estate held.“11 Wohlgemerkt „on all real estate held“ (Seldin 1980) bzw. „to a property or a portfolio of properties“ (Dubben / Sayce 1991). Zurecht stellt sich die Frage, warum Teile der immobilienwirtschaftlichen deutschsprachigen Literatur wie auch Teile der deutschen Immobilienwirtschaft sich so schwer mit dem Begriff des Real Estate Asset Management tun und versuchen, das REAM als Management-Ebene zwischen Immobilien-Portfolio-Ebene und Objekt-Ebene „hinzudefinieren“.12 Warum fällt es schwer, die Sichtweise des Kapitalmarktes als maßgeblich anzusehen, wenn Immobilien letztlich nur eine Assetklasse von vielen sind?13 Wenn man die vorstehenden Überlegungen zusammenführt und um eine der grundlegenden Erkenntnisse der Portfoliotheorie, ein akzeptiertes Risiko­ niveau bestimmt die Rendite,14 ergänzt, gelangt man zu einem sehr einfaDubben / Sayce (1991), S. 84. Seldin (1980), S. 5. 12  Vgl. hierzu z. B. gif (2004), Kämpf-Dern (2010), S. 40 oder Teichmann (2007), S. 9. 13  Eine Begründung mag in der geringen Kapitalmarktorientierung der deutschen, ­mittelständisch geprägten Immobilienunternehmen liegen. Hinzu kommen „gewachsene“ Begriffe und Disziplinen wie etwas das ALM, welche nicht oder nur sehr rudimentär für die eigene Unternehmung adaptiert werden. Vgl. auch Göötz (2010), S. 766. 14  Vgl. in diesem Sinn: Hicks (1939), S. 126 bzw. Markowitz (1952), S. 77. 10  Vgl. 11  Vgl.

278

Robert Göötz

chen, aber dennoch präzisen Verständnis des modernen Real Estate Asset Management. Asset Management und damit auch das Real Estate Asset Management ist eine Teil-Leistung des Asset-Liability Management.15 Es ist ein Prozess, eine revolvierende Tätigkeit – und nicht etwa eine hierarchisch angeordnete Management-Ebene.16 Einer der wesentlichen Dreh- und Angelpunkte ist das gezielte Steuern des Risikoniveaus auf den unterschiedlichen Aggregationsstufen des Immobilienbesitzes. Real Estate Asset Management wird somit zu einem dynamischen Prozess, der sich über alle Aggregationsstufen der Immobilie (Mietfläche – Objekt – Bestand) hinweg erstreckt. Jede einzelne Position im Anlagevermögen (z. B. Aktienbestand, Rentenbestand, Immobilienbestand etc.) muss beständig hinterfragt und überprüft werden. Dazu müssen Überlegungen angestellt werden, was mit jeder Einzelposition geschehen soll und wie sich dies auf den Gesamtbestand auswirken wird, damit – je nach Zielvorgaben – die Performance steigt, das Investment-Risiko sinkt oder etwa die Fungibilität oder die Vermarktbarkeit verbessert werden. Es sind also für jede einzelne Position in einem Bestand konkrete Handlungsanweisungen zu formulieren und im Zuge des AMProzesses abzuarbeiten.17 Wesentliche Bestandteile des Real Estate Asset Management sind das Risiko Management und das Financial Engineering mit dem Ziel, den Immobilienbesitz in seiner Gänze permanent zu optimieren. Es ist das Ziel, den Immobilienbesitz zu gestalten, diesem bestimmte Eigenschaften wie etwa Volatilitäten hinzuzufügen bzw. bestehende Eigenschaften wie etwa mangelnde Fungibilität zu korrigieren. Real Estate Asset Management kann wie folgt definiert werden, um ein Leistungsbild zu erzeugen, dass den geänderten Anforderungen der Marktteilnehmer, den geänderten Rahmenbedingungen der Märkte und den gesetzlichen Grundlagen entspricht. 15  ALM ist ein Managementansatz, bei dem die Risiken aus dem leistungswirtschaftlichen und finanzwirtschaftlichen Bereich unternehmenszielbezogen aufeinander abgestimmt werden. ALM beinhaltet im Kern die zielgerichtete Koordination der Steuerung der Aktiva und Passiva, der Abstimmung der Anlageportfolios (Assets) mit den durch eingegangenen Verpflichtungen (Liabilities). 16  Asset Management ist eine kontinuierliche, aktive Tätigkeit, keine Funktion oder Hierarchie. 17  Es geht um das Formulieren und Abarbeiten von konkreten Maßnahmen für jede einzelne Position in einem Bestand. Und dies unter Berücksichtigung von Interdependenzen im Bestand, um hierdurch den Gesamtbestand in einer Assetklasse und somit ihren Beitrag zum ALM auszusteuern. Das Asset-Management setzt an beim gewünschten Beitrag einer Assetklasse zum ALM-Prozess und muss dazu zwingend und fortwährend jede Position im Bestand überprüfen und in Frage stellen.



Cutting the Cake

279

Das Real Estate Asset Management übernimmt die Gesamtverantwortung für alle Belange, die mit der Anlage von Kapital in die Assetklasse Immobilien verbunden sind. Es umfasst das Organisieren des Zusammenspiels der Leistungen auf Objekt- und Bestands-Ebene, sowohl taktisch wie strategisch und beinhaltet explizit das Managen von immobilien-spezifischen Risiken sowie das Financial Engineering. Das Real Estate Asset Management erfolgt an der Schnittstelle zu Kapitalmarkt und Finanzmarkt. Es findet in Eigentümervertretung nach den Vorgaben des Eigentümers statt. Es erstreckt sich ausdrücklich nicht auf Prozesse des Asset Liability Management, sondern ist Teil desselben und erhält aus diesem die Vorgaben – z. B. hinsichtlich absoluter Performance, Risiko-Ertragsrelationen, gebundenem Kapital, Risikoprämien etc. Das Real Estate Asset Management kann intern oder extern erbracht werden. Berichtet wird für das Asset Liability Management in der Regel an das (Gesamt-) Portfolio Management, welches sich über alle vorhandenen Assetklassen erstreckt.18 2. Die Tugenden ändern sich Die drei Tugenden der Immobilie waren früher: Lage, Lage, Lage. Heute sind es Lage, negative Korrelation und Fungibilität. Das sind die neuen Tugenden der Immobilie. Es sind die Eigenschaften, die die Qualität der Immobilie als solcher bestimmen, ihre Einzigartigkeit im Zusammenspiel mit anderen Kapitalanlagen ausmachen und ihren Wettbewerbsnachteil ausgleichen. Für eine effiziente Steuerung eines Portfolios im Markowitz’schen Sinne ist es zwingend notwendig, das Zusammenspiel über alle Assetklassen von Rendite, Risiko und Liquidität in einer gemeinsamen Betrachtung einzuführen. Eine altbekannte Forderung – das „magische Dreieck“ der Finanzwirtschaft. Wichtig und entscheidend dabei ist jedoch, dass die zu findenden Maße assetklassen-übergreifend Anwendung finden.19 Nur dann können Derivate als effektives Risikosteuerungsinstrument konstruiert werden. Damit wird deutlich, dass es innerhalb einer Assetklasse kein Portfolio Management gibt und auch nicht geben darf. Risiko und damit Volatilität in diesem Sinn Göötz (2010), S. 767 sowie RICS (2012). bildet die ursprüngliche, enge Diskussion von Markowitz über das Spannungsfeld von „Rendite vs. Risiko“. Diese wurde im Laufe der finanzwirtschaftliche Diskussion um die Größe „Liquidität“ ergänzt. Allerdings mit dem Manko, dass es bis dato keine gemeinhin akzeptierten assetklassen-übergreifende Maße für die drei Schenkel des „magischen Dreiecks“ gibt. Größere Einigkeit gibt es wohl bei den Rendite-Begriffen; die geringste wohl bei den Maßen für Liquidität. 18  Vgl.

19  Kern

280

Robert Göötz

sind innerhalb einer Assetklasse „etwas Gutes“. Die Größen müssen erhalten bleiben – der „echte“ Risiko-Hedge findet eine Ebene darüber über alle Assetklassen hinweg statt. Dazu ist es erforderlich, für jeden Gegenstand des Vermögens20 die dazugehörigen Risiken zu benennen und zumindest eine der prinzipiellen Risikostrategien – oder Mischformen – auszuwählen. Diese sind: – vermeiden / nicht eingehen, – ignorieren, – überwälzen, – bewusst tragen, – verkaufen, – versichern. Ziel ist es, eine Risk-Map zu erhalten; eine Aufstellung bewusst getroffener Entscheidungen bezüglich des Umganges mit den Risiken über alle Assets hinweg. Sodann ist es erforderlich, dass die Risiken erfasst, gemessen und bewertet werden. Dies ist gerade bei Immobilien nicht trivial, da nicht „üblichen“ Maße und Methoden nicht geeignet sind.

II. Herleitung eines „neuen“ Risikomaßes 1. Aufgabenstellung Um dem Ziel eines RE-Swaps21 näherzukommen, sind im Bereich der Bewertung der immobilienspezifischen Risiken Anstrengungen notwendig. Es ist offensichtlich, dass es den Immobilienmarkt nicht gibt. Und ebenso wenig erfüllen die Vielzahl der Immobilienmärkte die Anforderungen der Portfolio- und Kapitalmarkttheorie in Sachen der Risikoerhebung, -berechnung und -beurteilung. Schon Grundannahmen wie etwa die Wiederholbarkeit der Investition oder die beliebige Teilbarkeit werden nicht erfüllt – können und sollen auch nicht erfüllbar sein. Denn unter anderem die Einzigartigkeit einer Immobilieninvestition zählt zu den besonderen Vorteilen, welche die Assetklasse mit sich bringt. Weiterhin belegen empirische Untersuchungen, auch für die besonders transparenten US- und UK-Immobilienmärkte, dass Immobilienrenditen nicht normalverteilt sind.22 Dies gilt für einzelne Immobilien, für 20  Und

im Sinne ALM auch jeder Schuldenposition. Estate Swap. 22  Vgl. hierzu die Übersichten in Morawski / Rehkugler (2006), S. 21 f. und Müller et al. (2013), S. 7 f. 21  Real



Cutting the Cake

281

Portfolios und – mit Einschränkungen – auch für Indizes, und zwar sowohl kurzfristig als auch in the long run. Bei den deutschen Immobilienmärkten kommt erschwerend hinzu, dass sie weitaus weniger transparent sind und der bekannteste Index DIX die Märkte nur eingeschränkt abdeckt.

„Die gängigen Risikomaße des Kapitalmarkts sind auf Immobilienportfolios nicht anwendbar.“

Dies führt zu zwei ersten Schlussfolgerungen: 1.  Die Summe aus den genannten Argumenten führt dazu, dass die gängigen Methoden der Risikoberechnung auf den Immobilienmarkt (besser: die Immobilienmärkte) nicht anwendbar sind. Insbesondere schlägt das Konzept der Volatilität in der direkten Anwendung fehl.23 In einer mehr oder weniger stoischen Anwendung der Volatilität (im Wissen der NichtEignung) werden naturgemäß regelmäßig Falschaussagen aufgrund von Fehleinschätzungen an den Kapitalmarkt über die Situation der Immobilienmärkte geliefert. Dies ist vermutlich mit eine der Ursachen, warum Immobilienderivate, die eine Risikotransformation zum Ziel haben, gegenwärtig nur wenig verbreitet sind. 2. Das Ableiten von einem – wie auch immer gestalteten – Immoblienmarkt-Index auf den eigenen Bestand wird häufig fehlschlagen und fehlerhafte Ergebnisse mit sich bringen. Dies ist in der Einzigartigkeit einer jeden Immobilieninvestition begründet. Wenn beispielsweise ein Immobilienindex für Büroimmobilien einen Rückgang der Verkehrswerte von 2 % ermittelt hat, dann hat dies de facto keinerlei Bezug zu den Objekten im eigenen Bestand. Die Aussage mag auch für das eigene Portfolio zutreffen – sie muss es aber nicht. Im Gegenteil – es ist durchaus möglich, dass die eigenen Objekte an Wert gewonnen haben. Soll heißen: Wenn ein Index abschwingt, dann heißt dies (aufgrund der Einzigartigkeit der Immobilien-Investitionen) noch lange nicht, dass auch das eigene Portfolio abschwingt. Anders als bei Aktien- oder Bondmärkten ist es schlichtweg unmöglich, „den Index des Immobilienmarktes“ mit eigenen Objekten nachzubauen und 23  Vgl.

Müller et al. (2013).

282

Robert Göötz

so im eigenen Portfolio abzubilden. Das eigene Immobilienportfolio wird immer ein anderes Chancen-Risiko-Profil haben. Und dies zeigt bereits die methodische Schwäche auf, wenn das spezifische Risiko des eigenen Bestandes mit Derivaten „gehedged“ werden soll, die auf die Entwicklung eines wie auch immer gearteten Index zielen. Ergo: Wir brauchen Instrumente, die geeignet sind, die Spezifika der Assetklasse „Immobilien“ bei der Risikomessung und -steuerung besser abzubilden. Wenn man zudem das eingangs formulierte Ziel verfolgt, Immobilienderivate zur Verfügung zu stellen, die eine Risikotransformation zwischen Assetklassen herstellen, dann erweitern sich die Anforderungen an dieses neue Instrumentarium. Um den Ansprüchen von Transparenz, Einheitlichkeit und Nachvollziehbarkeit zu genügen, ist es notwendig, dass alle Assetklassen, die in einem Swap erfasst werden, über „den gleichen Kamm“ geschoren werden. Bedeutet, dass das zu schaffenden System zur Erfassung und Beurteilung der Assetklasse „Immobilien“ auch tauglich und anwendbar sein muss für andere Assetklassen. Insbesondere müssen die Ergebnisse der Erfassung und Messung in ihrer Qualität und Aussage einheitlich, nachvollziehbar und transparent sein.

„Eine Wette auf einen Immobilien-Index gleicht eher einem ungedeckten Leerverkauf als einer fundierten Risikotransformation.“

2. Überlegungen zum Total Return Ausgangspunkt bei der Konstruktion des Risikomaßes ist die Überlegung, dass nicht ein fiktiver Index abgebildet werden soll, sondern vielmehr das Risiko eines konkreten Bestandes, eines konkreten Immobilienportfolios erfasst und möglichst wirklichkeitsnahe in eine transparente Zahlenwelt gebracht werden soll. Gleichermaßen soll dieses Instrumentarium in gleicher Qualität auf andere Assetklassen anwendbar sein, um in der Fortführung der Konstruktion immobiliengestützte Derivate gestalten zu können.



Cutting the Cake

283

Ausgehend von einem konkreten Immobilienportfolio sind einige wenige Vorarbeiten notwendig. Diese betreffen die Art der erhobenen Daten und die Schüttung derselben. Es werden für jedes Objekt24 im Bestand der aktuelle und die historischen Verkehrswerte sowie eine einheitliche Berechnung der Performance in konstanten zeitlichen Rastern benötigt. Sinnvollerweise erfolgt die Berechnung der Performance als Total Return (im Weiteren „TR“), welcher konsistent für alle Objekte im Bestand bzw. für den Gesamtbestand selbst ermittelt wird.25 Die Größe TR ist jedoch in den unterschiedlichen Assetklassen nicht einheitlich belegt. Maßgeblich ist zunächst einmal die Berechnung der Performance im Sinne des Kapitalmarktes, dargestellt durch den Algorithmus des BVI (Bundesverband Investment und Assetmanagement e. V.).26 Dem BVI gehört das Who-is-Who der in Deutschland vertretenen Kapitalanlageund Investmentgesellschaften an. Sie sind mit dem von ihnen verwalteten Anlagevolumen repräsentativ für den gesamten deutschen Kapitalmarkt, so dass mit einer gewissen Berechtigung davon ausgehen werden darf, dass die Definition des BVI die Sichtweise der professionellen Marktteilnehmer widerspiegelt.27

„Immobilien müssen sich den Regeln des Kapitalmarktes annähern – nicht umgekehrt.“

Die sog. BVI-Methode28 erlaubt die Berechnung einer zeitgewichteten Rendite. Ausgehend von Investmentzertifikaten eliminiert die Methode die 24  „Objekte“ wird hier stellvertretend benutzt für alle Objekte, Projekte, Grundstücke und grundstückgleiche Rechte im Bestand. 25  Auf die Darstellung der Diskussion und Berechnung der verschiedenen möglichen Performancegrößen wird an dieser Stelle verzichtet. 26  Unsere Zielsetzung ist, ein Immobilienderivat für den Kapitalmarkt zu kons­ truieren. Schon deshalb muss das Derivat den Usancen es Kapitalmarktes genügen. Aber auch ein Blick auf die „Marktanteile“ der unterschiedlichen Assetklassen am Kapitalmarkt macht deutlich, dass sich die Immobilien den Anforderungen und Regeln des Kapitalmarktes anpassen müssen und nicht etwa umgekehrt. Vgl. hierzu auch: Göötz (2010), S. 764 ff. 27  Vgl. hierzu: Mitgliederverzeichnis und Investmentstatistik auf www.bvi.de. 28  Diese ist durchaus nicht unumstritten, findet aber in der Branche breite Akzeptanz.

284

Robert Göötz

durch die Zahlungsströme verursachten Ergebnisverzerrungen.29 Kapitalzuflüsse und -abflüsse der Anleger erfolgen durch Ausgabe bzw. Rücknahme von Zertifikaten zum jeweils gültigen Preis. Mittelbewegungen führen somit lediglich zu einer Veränderung der Anzahl der ausgegebenen Zertifikate, deren Anteilwert bleibt jedoch unverändert. Bei nicht-ausschüttenden Fonds können somit zur Renditeberechnung die Anteilwerte zum Beginn und am Ende der Betrachtungsperiode zugrunde gelegt werden.30 Bei jeder Kapitalreduzierung, der kein Anteilscheingeschäft zugrunde liegt, muss jedoch der Anteilwert bereinigt werden. Bei Ausschüttungen wird davon ausgegangen, dass sie am Ausschüttungstag wieder angelegt werden. Dadurch werden Anteilwertsprünge, die nicht marktinduziert sind, vermieden. Zur Berechnung wird sowohl der Ausschüttungsbetrag pro Anteil als auch der Anteilwert nach der Ausschüttung benötigt. Mit ihrer Hilfe wird ein Faktor bestimmt, mit dem alle Anteilwerte ab dem Ausschüttungsdatum multipliziert werden (multiplikative Vorwärtsbereinigung). Gleichermaßen ist eine multiplikative Rückwärtsbereinigung der Anteilwerte vor dem Ausschüttungszeitpunkt durch das Inverse des Bereinigungsfaktors möglich.31 Beide Vorgehensweisen liefern dieselbe Rendite. Bei mehreren Ausschüttungen innerhalb einer Periode ist ein kumulierter Bereinigungsfaktor zu verwenden. Die allgemeine Formel zur Berechnung der Periodenrendite lautet: n

r=

Kt: = Kt – 1: = Kxi: = Xi: =

K t * Õ ki - K t - 1 i =1

Kt -1

mit

ki =

K xi + X i K xi

(Anteil)Wert am Ende der betrachteten Periode (Anteil)Wert zu Beginn der betrachteten Periode (Anteil)Wert nach der i-ten Ausschüttung innerhalb der Periode Ausschüttungsbetrag (pro Anteil) der i-ten Ausschüttung

Die Berechnung des TR für Immobilienportfolios ist hinreichend diskutiert worden. Exemplarisch sei an dieser Stelle die Darstellung bei Schulte herausgegriffen.32 29  Vgl.

hierzu: BVI Berechnungsmethode auf www.bvi.de. Hessische Landesbank auf www.helaba.de im Glossar. Zugriff am 08.12.2010. 31  Ebenda. 32  Vgl. Schulte (2008), S. 824 ff. 30  Quelle:





Cutting the Cake rt =

285

Vt - Vt - 1 - I - P + S + NM n æ n xp ö æ x ö Vt - 1 + 1 I + å çç1 - ÷÷÷ Pp, t - å ççç1 - s ÷÷÷Vs, t - 1 - 1 NM ÷ ç è 12ø 2 12 2 ø p = 1è s =1

Vt: = Verkehrswert zum Zeitpunkt t

I:

= Investitionen

P: = Bruttokaufpreis neuer Liegenschaften S:

= Nettoverkaufserlös veräußerter Liegenschaften

NM: = Nettomieten xp: = Monat des Erwerbes xs: = Monat des Verkaufs

Beiden Algorithmen ist gemein, dass sie aus zwei Teilen bestehen: der laufenden Netto-Cashflow-Rendite und der Wertänderungsrendite. Unterschiede bestehen in der Ermittlung des Netto-Cashflow sowie in der Frage, welches eingesetzte Kapital zu verzinsen ist – ausgedrückt als Nenner der jeweiligen Quotienten. Um letztlich ein Derivat zwischen Assetklassen herzustellen, ist es notwendig, eine Harmonisierung der Berechnungsmethoden herbeizuführen. Die unterschiedlichen Assetklassen müssen über den gleichen „Berechnungskamm geschoren“ werden – durch einen einheitlichen, transparenten Algorithmus bewertet werden. a) Was ist das zu verzinsende Kapital? Die BVI-Methode als Standard der Kapitalmärkte stellt die Frage, was ist aus dem Kapital geworden, das zu Beginn der Periode eingesetzt wurde (Kt  – 1). Die Immobilienbranche hingegen geht davon aus, dass neben dem Kapital am Periodenbeginn die hälftigen Investitionen, die hälftigen Nettomieten sowie der Saldo der monatsgewichteten Ergebnisse aus Käufen und Verkäufen ebenfalls zu verzinsen ist. Aus dem „Immobilien-Algorithmus“ wird deutlich, dass die Immobilienbranche stillschweigend von Jahresscheiben als Periodenlänge ausgeht, während die BVI-Methode in der Festlegung der Periodenlänge völlig frei ist. Auch wird mit dem hälftigen Ansatz von Investitionen und Nettomieten eine Durchschnittsbetrachtung impliziert, der zu Grunde liegt, dass Investitionen und Nettomieten gleichmäßig ratierlich über das Jahr hinweg erfolgen. Dies ist eine starke Vereinfachung und lässt sich nur eingeschränkt auf andere Assetklassen übertragen. Hinzu kommt, dass die Frage der unterperiodischen Zahlungsströme auch in der BVI-Methode beantwortet wird – und zwar durch eine Zahlungszeitpunkt-bezogene Neu-Bewertung der An­

286

Robert Göötz

lage. Dies ist der richtigere Ansatz. Übertragen auf die Immobilienmärkte bedeutet dies, dass die Zahlungen im Netto-Cashflow ausgedrückt werden. Damit wird erklärt, ob beispielsweise eine Investition die erhoffte Wertänderung erbracht hat oder nicht. Die Frage lautet also: Was ist aus dem zu Beginn der Periode eingesetzten Kapital geworden? Welche nicht markt-induzierte Wertänderung ist durch welchen Cashflow hervorgerufen worden und wie hoch sind die Netto-Erträge aus der Anlage / dem betrachteten Portfolio selbst? b) Wie ist der Netto-Cashflow? Hier sind die Besonderheiten der Immobilien zu berücksichtigen und zwar dergestalt, dass die „Ausschüttungen“ wie sie in dem Algorithmus des BVI bezeichnet sind aus mehreren Elementen bestehen. Explizit sind die Ein- und Auszahlungen des Portfolios zu berücksichtigen – darunter auch Investitionen und Desinvestitionen. Weiter sind Annahmen über die Infla­ tionsraten der Zukunft zu treffen, um die mögliche Indexierung der Mietströme abzubilden.33 Da die Wiederanlage in dieselben Immobilien i. d. R. nicht möglich ist, muss die Wiederanlageprämisse der BVI-Methode aufgehoben werden. Dies hat u. a. zur Folge, dass die ausgekehrten Cashflows innerhalb des Betrachtungszeitraumes zeitlich bewertet werden müssen. Es soll zunächst die Annahme greifen, dass die Zahlungssaldi zumindest mit dem risikolosen Zins, ausgedrückt als „rf“, zu verzinsen sind / verzinst werden. c) Wie ist die Periodenlänge? Die Länge der betrachteten Periode sollte variabel sein können; sie sollte beispielsweise eine quartalsweise Betrachtung gleichermaßen erlauben wie auch eine Betrachtung über die gesamte Laufzeit eines noch zu definierenden Swaps. Gerade die Möglichkeit von Investitionen und Desinvestitionen während der betrachteten Periode bedingt, dass Verkehrswerte von Immobilien dem Grunde nach anlassbezogen und – je nach Betrachtung – auch mehrfach unterjährig ermittelt werden müssten. Faktisch kann dies die heutige Systematik der Verkehrswert-Ermittlung mit ihren normierten Verfahren nicht abbilden. Dies hat zur Folge, dass im Zuge der Konzeptionierung auch die Verkehrswert-Ermittlung einer kritischen Würdigung unterzogen werden muss. 33  Die Annahme über die Inflationsrate würde an dieser Stelle auch ermöglichen, eine Inflationsbereinigung vorzunehmen. Dies wird an späterer Stelle thematisiert werden.



Cutting the Cake

287

Dies ist in der Literatur hinreichend geschehen. Das Konzept der Anwendung eines Liegenschaftszinses ist letztlich eine Krücke in Ermangelung etwas Besserem. Und bei aller Fehlerhaftigkeit ist das Konzept des Verkehrswertes als Kompromiss gemeinhin akzeptiert. d) Überlegungen zum Verkehrswert Was ist eine Immobilie eigentlich wert? Das, was ein anderer bereit ist, dafür zu bezahlen. Also besitzt jede Immobilien zu jedem Zeitpunkt einen bestimmten Marktwert – ganz ähnlich zu einem Wertpapier. Der Unterschied besteht darin, dass bei einem Wertpapier die Feststellung des Marktwertes in der Regel täglich und öffentlich nachvollziehbar erfolgt. Der tägliche Marktwert einer Immobilie / eines Immobilienportfolios bleibt eine theoretische Größe – und stets ohne öffentliche Feststellung. Aus Kapitalmarktsicht ist eine Investition in Immobilien der Erwerb von Mietverträgen, respektive wird der Cashflow aus Mietverträgen gekauft. Dieser Cashflow hat mehrere Besonderheiten: – er erfolgt i. d. R. monatlich vorschüssig – er ist je nach Vertragsgestaltung inflationsgeschützt und – er ist dinglich besichert durch Boden und Gebäude. Wenn man unterstellt, dass die Nettomiete einer Immobilie letztlich Ausdruck der Unterschiede hinsichtlich Nutzungsart, Lage, Alter, … ist, dann lässt sich formulieren, dass sich der (Markt-)Wert einer Immobilie bemisst als der Barwert des diskontierten Netto-Cashflows derselben. Der Diskontsatz ist dann die entscheidende Größe für die Ermittlung des Marktwertes. Hier lässt sich mit guten Gründen an der Anwendung eines Liegenschaftszinses zweifeln.34 Die (Kapital-)Märkte haben ein Instrument, mit welchem sie ihr aktuelles Vertrauen in Immobilien als Anlage – unter Berücksichtigung der dinglichen Sicherheit – zum Ausdruck bringen: die Umlaufsrendite der Hypothekenpfandbriefe. Wechselndes Vertrauen, damit wechselnde Wertschätzung und somit wechselnde Zahlungsbereitschaft zeigen sich in den Schwankungen der Hypotheken-Pfandbriefmärkte. Tatsächlich gibt es also ein tägliches 34  In der Literatur werden zahlreiche Gründe gegen die Verwendung des Liegenschaftszinses aufgeführt. Neben theoretischen, z. B. finanzmathematischen Vorbehalten gibt es auch praktische, z. B. die geringe Repräsentativität für viele Märkte und Nutzungsarten, die Erhebung und Berechnung durch die Gutachterausschüsse und den Zeitverzug zwischen Kauffällen und Veröffentlichung. Vgl. dazu z. B. MollAmrein (2009).

288

Robert Göötz

„Stimmungsbarometer“ für die Wertschätzung gegenüber „dem“ Immobilien­ markt. Natürlich kann man einwenden, dass die Umlaufsrendite der Hypothekenpfandbriefe keine oder nur eine geringe Korrelation zu bekannten Immobilienmarktgrößen aufweist und zudem ein Misstrauen in die Bonität der Emittenten den Verlauf mitbestimmt.35 Das ist richtig – und genau darum geht es. Es geht um eine tägliche, öffentliche Bewertung von Passiv-Posi­ tionen in einem Markt, der um ein Vielfaches größer ist als einzelne Portfolien oder Adress-Ausfallrisiken. In der langen Sicht muss die Umlaufsrendite eine Einschätzung in die Sinnhaftigkeit von Investitionen in den Immobilienmarkt widerspiegeln.

„Eine Immobilie ist das wert, was ein Anderer bereit ist, für sie zu bezahlen.“

Wenn man also den individuellen Cashflow einer Immobilie als Ausdruck der individuellen Stärken und Schwächen / Chancen und Risiken einer jeden Immobilie versteht, dann sind in diesem bereits alle individuellen Spezifika wie Lage, Nutzungsart, etc. abgebildet. Es geht im Weiteren dann nur noch darum, wie die Assetklasse als solche angesehen / betrachtet wird. Und hier stellt die Umlaufsrendite des Hypotheken-Pfandbriefmarktes eine Indikation dar. Wohlgemerkt nur eine Indikation. Wenn man davon ausgeht, dass Hypothekenpfandbriefe deutscher Provenienz die gesetzlichen Grenzen voll ausschöpfen, bedeutet dies, dass ein Käufer solcher Pfandbriefe zu maximal 60 % des jeweiligen Verkehrswertes investiert ist. Mit anderen Worten: Im Falle einer Investition in Immobilien zu pari, müsste ein rationaler Investor eine höhere Verzinsung fordern. Umgekehrt kann argumentiert werden, dass durch die Begrenzung auf 60 % in mehr Immobilien und damit auch in mehr immobilienspezifische Risiken investiert werden kann.36 Da Immobilien im Gegensatz zu den Hypothekenpfandbriefen nicht täglich liquidierbar sind, binden sie das in sie investierte Kapital länger und 35  Es sei an dieser Stelle ausdrücklich das negative Beispiel der Hypo Real Estate ins Feld geführt. 36  Ein Ansatz könnte darin bestehen, die Umlaufsrendite der Hypothekenpfandbriefe um den Faktor 1 / 0,6 = 1,667 zu korrigieren, wenngleich das Problem damit noch immer nicht vollständig gelöst ist.



Cutting the Cake

289

bedingen dadurch ein anderes, höheres Risiko – namentlich die eingeschränkte Liquidität. Demzufolge muss für die Kapitalbindung im Sinne der eingeschränkten Liquidierbarkeit ein Risikozuschlag zusätzlich angesetzt werden. Wenn man von einer bestimmten Dauer zwischen der Entscheidung eine Immobilie zu verkaufen und der Realisierung des Kaufpreises ausgeht, so bemisst sich der Risikozuschlag für die Kapitalbindung von z. B. 12 Monaten als Differenz des 12-Monatsgeldes zur Einlagefazilität der EZB, also dem risikofreien Einlagezins. Folgerichtig ließe sich der Diskontzinssatz yt in unserer Betrachtung zusammensetzen aus der Umlaufsrendite der Hypotheken-Pfandbriefe und dem Risikozuschlag für die Kapitalbindung für die Dauer des erwarteten Transaktionszeitraumes. Die Berechnung des „Marktwertes“ aus Sicht des Kapitalmarktes lautet in diesem Kontext: n



MW = å NZ t (1 + yt )- t + RWn (1 + yn )- n mit t =1

NZt: = Netto-Zahlung (Netto-Miete bzw. Netto-Ausschüttung) in t RWn: = Restwert / Schlusszahlung in n yt: = Umlaufsrendite der Hypotheken-Pfandbriefe zum Zeitpunkt t, ergänzt um einen Korrekturfaktor aus Rendite Monatsgeld abzüglich Einlagefazilität37

Unterstellt man in der langen Frist geglättete Zahlungsströme z. B. durch Bildung von ratierlichen Rückstellungen etc., so nähert sich der o. g. Barwert für n → ∞ gegen den Barwert einer ewigen Rente. Für die „langlaufende“ Betrachtung bedarf es einer expliziten Annahme über die Inflationsrate p und wie stark diese auf den Netto-Zahlungsstrom wirkt. Letzteres soll durch den portfolio- / objekt-individuellen Faktor λ ausgedrückt werden. Wir korrigieren den Netto-Zahlungsstrom für t → ∞ in: NZt := (1 + λp)t · NZ und erhalten: n

MW = å (1 + λ p )t × NZ (1 + yt )- t + RWn (1 + yn )- n

t =1

n

(1 + λ p)t

t =1

(1 + yt )t

= NZ × å

-n

+ RWn (1 + yn )

37  Die Umlaufsrendite der Hypotheken-Pfandbriefe besteht aus der risikofreien Verzinsung zzgl. einem Mark-Up, der dem Risikozuschlag für das Underlying entspricht. Also muss also nun nur noch das Mark-Up für die eingeschränkte Liquidierbarkeit der Immobilien hinzugefügt werden.

290

Robert Göötz

Für die Gegenwartsbetrachtung setzen wir y = yt zum betrachteten Stichtag: n

MW = NZ × å

(1 + λ p)t

t =1

= NZ ×

t

(1 + y)

-n

+ RWn (1 + yn ) n

1 + λ p (1 + λ p) RWn + + n y y (1 + y) (1 + y)n

1+ λ p y Die Darstellung soll als Skizze zur Ermittlung eines (Kapital-)Marktwertes für eine (Immobilien-)Anlage genügen. Das Konzept basiert auf einer Bewertung von Netto-Zahlungsströmen einer Anlage durch einen Vergleichszins y.38 Wir erhalten für t → ∞ und λp  100 ha

Größengruppen

Quelle: Grundstücksmarktbericht 2011 des Oberen Gutachterausschusses in Brandenburg

Abbildung 2: Abhängigkeit des Kaufpreises von der Flächengröße bei Ackerlandverkäufen 2008–2010 im Land Brandenburg

suchung zur Abhängigkeit der bei Ausschreibungen erzielbaren Ackerlandpreise von der Flächengröße heran, so ergeben sich beim Übergang von 5 ha auf 50 ha Zuschläge von bis zu 58 % und beim Übergang von 5 ha auf 100 ha Zuschläge von bis zu 82 % (Sachsen Anhalt). Zuschläge dieser Größenordnung machen deutlich, dass die in den Kaufpreissammlungen der Gutachterausschüsse vornehmlich registrierten Verkaufsfälle von Grundstücken mit einer Fläche von bis zu 5 ha allein schon hinsichtlich des Grundstücksmerkmals „Größe“ nicht unmittelbar und auch nicht mittelbar mit den sehr viel größeren von der BVVG vermarkteten Grundstücken vergleichbar sind. Sie sind deshalb für die Marktwertermittlung von flächenmäßig deutlich größeren Grundstücken nicht geeignet (§ 15 Abs. 1 ImmoWertV). Bei dieser Sachlage ist es geradezu geboten, den Preisvergleich vorrangig auf Vergleichsdaten aus Transaktionen (Vergleichspreise) bzw. Ausschreibungsergebnissen von Verkaufslosen zu stützen, die eine mit den zu bewertenden Grundstücken vergleichbare Flächengröße aufweisen. Auch bei Heranziehung dieser Vergleichsdaten sind unterschiedliche Grundstücksflächen zu berücksichtigen, wenn nicht eine hinreichende Anzahl von Vergleichsdaten von Grundstücken zur Verfügung steht, die mit der zu bewertenden Liegenschaft eine direkt vergleichbare Grundstücksfläche ausweist: – Bei Marktwertermittlungen für Grundstücke ≥ 50 ha kommen empirisch abgeleitete (mehrdimensionale) Umrechnungskoeffizienten zur Berücksichtigung einer abweichender Grundstücksgröße und abweichender Bonität zusammen mit überregionalen Vergleichsdaten zur Anwendung unter der Bezeichnung („Größenzuschlagsmodell“ GZM).



Der landwirtschaftliche Grundstücksmarkt

317

– Bei Bewertungsobjekten mit einer Fläche von ≤  50 ha liegt unter Berücksichtigung von Zweit- und Drittgeboten sowie eines erweiterten Referenzrahmens i. d. R. eine hinreichende Anzahl von Vergleichsdaten vor.

VII. Zusammenfassung Das zur Marktwertermittlung landwirtschaftlicher Grundstücke von der BVVG angewandte „Vergleichspreissystem (VPS)“ ist eine besonders qualifizierte Form des Vergleichswertverfahrens, die konsequent darauf ausgerichtet ist, a) nicht nur die zur Marktwertermittlung geeigneten Vergleichspreise, sondern auch die aus bedingungsfreien Bietverfahren resultierenden qualifizierten Gebote als sonstige Marktindikatoren umfassend zu erfassen, b) die den Marktwert landwirtschaftlicher Grundstücke bestimmenden Parameter, insbesondere die Lage, Bonität, Grundstücksgröße, sonstige besondere Grundstücksmerkmale und die aktuelle Entwicklung auf dem landwirtschaftlichen Grundstücksmarkt bei der Marktwertermittlung zu berücksichtigen und c) die Marktwertermittlung auf eine statistisch ausreichende Anzahl von Vergleichspreisen und sonstigen Marktindikatoren zu stützen. Die Erweiterung der Datenbasis ist darin begründet, dass von der BVVG landwirtschaftliche Flächen vermarktet werden, die regelmäßig deutlich größer als 20 ha (bis zu 450 ha)23 sind, und für die Marktwertermittlung derartiger Flächenlose ansonsten keine oder nur eine unzureichende Anzahl von geeigneten Vergleichspreisen aus den Kaufpreissammlungen der Gutachterausschüsse zur Verfügung stehen. Es kommt hinzu, dass die registrierten Kaufpreise angesichts der sprunghaften Marktentwicklung in den neuen Bundesländern nicht stets dem aktuellen Stand entsprechen. Das Vergleichspreissystem (VPS) gewährleistet aufgrund der erweiterten Datenbasis eine hohe Vertrauenswürdigkeit und statistische Sicherheit der Marktwertermittlung: a) Im Vergleich zu der in Schrifttum und Rechtsprechung aufgezeigten Grenzen, nach denen bei Anwendung des Vergleichswertverfahrens zur Berücksichtigung abweichender Eigenschaften der Vergleichsobjekte von dem Bewertungsobjekt Zu- bzw. Abschläge bis zu einer Größenordnung von 40 % hingenommen werden können, wird mit den von der BVVG vorgegebenen Referenzräumen ein besonders hohes Maß an Übereinstimmung zwischen den Grundstücksmerkmalen der Vergleichsobjekte 23  Mitteilung

der Bundesregierung vom 18.11.2011 S. 2.

318

Wolfgang Kleiber

und denen des zu bewertenden Grundstücks gefordert. Dies gilt sogar für den Fall, dass mit diesen engen Grenzen nicht die geforderte „statistisch relevante“ Mindestzahl von 10 Vergleichsobjekten erreicht werden kann und der Referenzraum auf einen Radius von 30 km und + / – 15 Bodenpunkten erweitert wird. b) Da der landwirtschaftliche Grundstücksmarkt in den neuen Bundesländern im Vergleich zum übrigen Bundesgebiet durch eine überdurchschnittlich starke Preisentwicklung geprägt ist, kommt der Heranziehung möglichst aktueller Vergleichsdaten eine besondere Bedeutung zu. Mit der Einbeziehung von Grundstücksveräußerungen (Vergleichspreise) bzw. Ausschreibungsergebnissen der BVVG, die (noch) keinen Eingang in die Kaufpreissammlung gefunden haben, wird eine Marktwertermittlung nach „aktuellsten Stand“ gewährleistet. c) Der vorgegebene zeitliche Referenzraum, nach dem vornehmlich nur Transaktionen bzw. Ausschreibungsergebnissen der letzten 12 Monate (vor dem Wertermittlungsstichtag) herangezogen werden, stellt vor dem Hintergrund der überdurchschnittlich starken Preisentwicklung zugleich sicher, dass die herangezogenen Vergleichspreise auch konjunkturell der aktuellen Lage auf dem Grundstücksmarkt entsprechen. Umgekehrt wird damit die Berücksichtigung vorübergehender dem gewöhnlichen Geschäftsverkehr nicht zurechenbarer Marktausschläge bei der Marktwertermittlung ausgeschlossen. d) das „Vergleichspreissystem“ (VPS) der Bodenverwertungs- und -verwaltungs GmbH (BVVG) ist ein geeignetes Verfahren, um den Marktwert der von der Bodenverwertungs- und -verwaltungs GmbH (BVVG) zu veräußernden Grundstücke zutreffend zu bestimmen und damit die Gewährung der Europäischen Kommission eingeholt wurde und auf der Internetseite der BVVG veröffentlicht ist, staatlicher Beihilfen grundsätzlich auszuschließen.24 Dies ist das Ergebnis eines Gutachtens, das vom Bundesministerium der Finanzen auf Veranlassung.

VIII. Schlussfolgerungen Das zur Marktwertermittlung landwirtschaftlicher Grundstücke von der BVVG angewandte „Vergleichspreissystem (VPS)“ von der BVVG angewandte Verfahren ist kein Verfahren sui generis, sondern ein „reinrassiges“ Vergleichswertverfahren. Bei Anwendung dieses Verfahrens werden nicht nur Vergleichspreise, sondern umfassend alle zum Vergleich geeigneten 24  Veröffentlicht

u. a. unter www.bvvg.de / service.



Der landwirtschaftliche Grundstücksmarkt

319

Vergleichsdaten herangezogen. Dies fordert auch die Grundstücksmitteilung der EU, in der in umfassender Weise ausdrücklich die Ableitung des Marktwerts aus „Marktindikatoren“ gefordert wird. Darüber hinaus werden die zur Verfügung stehenden Vergleichsdaten unter Berücksichtigung ihrer Eignung geradezu schulbuchmäßig abgestuft in die Marktwertermittlung einbezogen, damit eine ausreichende Zahl geeigneter Vergleichsdaten („statistisch relevante“ Mindestzahl) erreicht wird. Dies entspricht exakt den Vorgaben des § 15 Abs. 1 ImmoWertV). Der besondere Vorzug des Vergleichspreissystems (VPS) der BVVG besteht vor allem auch darin, dass es vor allem die Vergleichsdaten bereithält, die speziell bei der Marktwertermittlung von Grundstückslosen mit überdurchschnittlich großen Flächen (≥  20 ha und bis zu 450 ha) benötigt werden. Wegen des hohen Anteils der von der BVVG vermarkteten Objekte am landwirtschaftlichen Grundstücksmarkt in den neuen Bundesländern und speziell an Grundstückslosen mit überdurchschnittlich großen Flächen (≥ 20 ha und bis zu 450 ha) verfügt die BVVG diesbezüglich stets über aktuelle Vergleichsdaten. Der Heranziehung dieser Daten steht nicht entgegen, dass die Daten nicht oder noch nicht in die Kaufpreissammlung des örtlichen Gutachterausschusses für Grundstückswerte nach § 195 BauGB eingepflegt worden sind.25 Zur Marktwertermittlung sind grundsätzlich alle geeignete Marktindikatoren heranzuziehen. Bei einer Marktwertermittlung würde nicht unerheblich gegen das Sachaufklärungsgebot und gegen gutachterliche Sorgfaltspflichten verletzt werden, wenn die Marktwertermittlung allein auf die Vergleichspreise der Kaufpreissammlung der Gutachterausschüsse gestützt wird und andere jedem Sachverständigen ohne weiteres zugängliche Vergleichsdaten (Marktindikatoren) unbeachtet blieben oder sogar „unterdrückt“ werden, wenn erwartet werden kann, dass ihre sachgerechte Heranziehung die Marktwertermittlung beeinflussen muss. Ein Sachverständiger, der in den neuen Bundeländern mit der Marktwertermittlung eines überdurchschnittlich großen landwirtschaftlichen Grundstücks (20 ha bis zu 450 ha) beauftragt worden ist, muss wissen, dass die Kaufpreissammlung des örtlichen Gutachterausschusses für Grundstückswerte für derartige Aufgaben regelmäßig eine unzureichende Datenbasis bildet und die wenigen dafür geeigneten Vergleichspreise zudem noch mit einem erheblichen time lag eingepflegt werden. Der örtliche Gutachterausschuss ist deshalb auch nicht in der Lage, Umrechnungskoeffizienten für die 25  Ihrer Heranziehung steht auch nicht entgegen, dass sie aus eigener Vermarktung hervorgegangen sind. Im Bereich des Wohnungsrechts kann ein Mieterhöhungsverlangen auch durch Vergleichsmieten aus eigenem Bestand begründet werden.

320

Wolfgang Kleiber

Abhängigkeit landwirtschaftlicher Bodenpreise von der Grundstücksfläche für dieses Segment abzuleiten. Von daher ist es unverzichtbar, neben der Kaufpreissammlung der Gutachterausschüsse auch Auskünfte aus der jedem Sachverständigen zugänglichen Sammlung der BVVG über Kauf- und Pachtpreise landwirtschaftlicher Flächen sowie der Höchstgebote beendeter Ausschreibungen (Acker- und Grünland sowie Wald) heranzuziehen und diese Marktindikatoren in sachgerechter Weise in die Marktwertermittlung einzustellen.

Ermittlung des Gebäudewertanteils von Renditeobjekten in Gebieten mit hohem Bodenpreisniveau Von Marianne Moll-Amrein und Daniela Schaper

I. Ausgangspunkt Erwerber kaufen Immobilien für einen Gesamtpreis. Dies entspricht der Definition des Sachenrechts gemäß BGB, wonach das Gebäude einen wesentlichen Bestandteil des Grundstücks bildet, da es untrennbar damit verbunden ist (§ 94 BGB). Wieso ist es von Belang, sich Gedanken über die Aufteilung des Kaufpreises in einen auf das Gebäude und einen auf den Grund und Boden entfallenden Anteil zu machen? Diese Frage wird vor allem unter steuerlichen Gesichtspunkten aufgeworfen. Dabei spielt es eine zentrale Rolle, dass Gebäude und Grund und Boden eine unterschiedliche Nutzungsdauer haben. Während Gebäude vergänglich sind und irgendwann zum Abriss anstehen, ist der Grund und Boden ein Wirtschaftsgut mit unendlicher Nutzungsdauer. Dies führt dazu, dass Gebäude steuerlich abgeschrieben werden können und der Gebäudewertanteil aus dem Kaufpreis zu ermitteln ist. Auf den ersten Blick scheint diese Aufgabe unproblematisch zu sein, denn der Grundgedanke einer getrennten Ermittlung von Gebäude- und Bodenwertanteil findet sich auch in den meisten Wertermittlungsverfahren wieder, die in der Immobilienwertermittlungsverordnung (ImmoWertV) normiert sind und der Ermittlung des Verkehrswertes gem. § 194 BauGB dienen. Der Verkehrswert entspricht sinngemäß dem durchschnittlich erzielbaren Kaufpreis für eine Immobilie. Danach stehen drei Verfahren zur Verfügung, (1) das Vergleichswertverfahren i. S. v. §§ 15 f. ImmoWertV, das den Wert eines Objektes aus den Kaufpreisen von vergleichbaren Objekten ableitet, (2) das Ertragswertverfahren i. S. v. §§ 17 ff. ImmoWertV, bei dem sich der Wert einer Immobilie aus den kapitalisierten Erträgen ergibt, sowie (3) das Sachwertverfahren i. S. v. §§ 21 ff. ImmoWertV, bei dem der Wert aus der Addition des Wertes der Bausubstanz, abgeleitet von den Herstellungskosten, und des Boden­ wertes resultiert.

322

Marianne Moll-Amrein und Daniela Schaper

Bereits aus dieser Kurzbeschreibung ist ersichtlich, dass der Grundgedanke der Kaufpreisaufsplittung in den Verfahren unterschiedlich zum Ausdruck kommt. Dies wird in der vorliegenden Abhandlung genauer zu betrachten sein, wobei der Schwerpunkt auf Objekte gelegt wird, deren Verkehrswert sich nach dem Ertragswert bestimmt. Die Ermittlung des Gebäudewertanteils für Renditeobjekte ist ein Thema, das für mehrere Interessengruppen in der Immobilienwirtschaft relevant ist. Zum einen ist es für den Immobilieneigentümer von Interesse, einen Eindruck von der Wirtschaftlichkeit eines Gebäudes zu bekommen. Zum anderen kann die Ermittlung von Gebäudewertanteilen im Rahmen von Objektförderungen notwendig werden.1 Vor allem aber bildet die Aufteilung von Kaufpreisen die Grundlage für die Berechnung der Abschreibung durch das Finanzamt nach dem Einkommensteuerrecht. Denn nur das Gebäude mit begrenzter Nutzungsdauer kann abgeschrieben werden, nicht aber der ewig nutzbare Grund und Boden. Vielfach werden Sachverständige damit beauftragt, den Gebäudewertanteil zu ermitteln. Dabei ergeben sich in der Praxis zum Teil ungeahnte Probleme.

II. Rechtliche Grundlagen und Verfahrensweisen in der Praxis 1. Rechtliche Grundlagen Da die Ermittlung von Gebäudewertanteilen vor allem vor einem steuerlichen Hintergrund erfolgt, beziehen sich die nachfolgenden Ausführungen vornehmlich auf diesen Gesichtspunkt. Für die Zwecke der Abschreibung neu erworbener Immobilien sind die Anschaffungskosten nachträglich in einen Bodenwertanteil und einen Gebäudewertanteil aufzuteilen. Früher erfolgte die Aufteilung mehr oder weniger willkürlich und wurde mit dem Finanzamt verhandelt. Näherungsweise wurde der Bodenwert (Grundstücksgröße  Bodenrichtwert) vom Kaufpreis abgezogen und der Rest als Gebäudewertanteil abgeschrieben.2 Probleme ergaben sich dann vor allem, wenn der Käufer eine Immobilie sehr günstig, quasi als „Schnäppchen“, erworben hatte. In der Regel wurden dann die Anschaffungskosten des Gebäudes gekürzt und nicht der Bodenwert. Dadurch verminderte sich das Abschreibungspotential.3 Diese Abzugsmethode 1  Beispielsweise für die Gewährung von Kostenzuschüssen bei Schaffung von Kindertageseinrichtungen nach dem Bayerischen Kinderbildungs- und -betreuungsgesetz (BayKiBiG). 2  Vgl. Blum / Weiss (2007), S. 258.



Ermittlung des Gebäudewertanteils von Renditeobjekten

323

wurde dann mit einem Grundsatzurteil des Bundesfinanzhofes (BFH-Urteil vom 15.01.1985, IX R 81 / 83) verworfen. 3

Nach dem Grundsatz der Einzelbewertung i. S. v. § 6 EStG sind der Bodenwert und der Gebäudewert gesondert zu ermitteln. Die Schätzung der Einzelwerte (Verkehrswerte) hat nach den anerkannten Grundsätzen für die Schätzung von Verkehrswerten von Grundstücken zu erfolgen. Maßgeblich sind dabei die Wertverhältnisse im Zeitpunkt der Anschaffung. Der Zeitpunkt der Anschaffung entspricht dem Wertermittlungsstichtag. Die Ermittlung von Verkehrswerten gem. § 194 BauGB erfolgt nach der Immobilienwertermittlungsverordnung ImmoWertV. Wie bereits erwähnt sind für die Verkehrswertermittlung drei Verfahren vorgesehen, das Vergleichswertverfahren, das Ertragswertverfahren sowie das Sachwertverfahren. Es ist das Verfahren zu wählen, das den Gepflogenheiten des gewöhnlichen Geschäftsverkehrs entspricht und für das ausreichend Datengrund­ lagen zur Verfügung stehen (siehe § 8 Abs. 1 ImmoWertV). In zahlreichen Gerichtsurteilen (z. B. bezogen auf Eigentumswohnungen: BFH-Urteil vom 15.01.1985, IX R 81  /  83, BFH-Urteil vom 10.10.2000, IX R 86 / 97; bezogen auf Mietwohngrundstücke: FG München-Urteil vom 26.10.1999, 16 K 2935  /  98; bezogen auf Kaufhausgrundstück: BFH-Beschluss vom 24.02.1999, IV B 73 / 98) wurde darüber entschieden, wie die Aufteilung eines Immobilienkaufpreises in den Gebäudewertanteil und den Bodenwertanteil für steuerliche Zwecke durchzuführen ist. Es ergeben sich hier deutliche Diskrepanzen zwischen den im Rahmen der Verkehrswertermittlung und den unter steuerlichen Gesichtspunkten anzuwendenden Verfahren. Im Rahmen der Verkehrswertermittlung werden Eigentumswohnungen im Regelfall nach dem Vergleichswertverfahren oder dem Ertragswertverfahren bewertet. Für Renditegrundstücke, die mit Mietwohnhäusern, Wohn- und Geschäftshäusern oder Gewerbeobjekten bebaut sind, ist das Ertragswertverfahren anzuwenden. Gemäß der einschlägigen Rechtsprechung ist jedoch bei Eigentumswohnungen und Mietwohngrundstücken eine Aufteilung der Anschaffungskosten bzw. des Kaufpreises mit Hilfe des Sachwertverfahrens durchzuführen. Es ist somit ein vollkommen anderes Verfahren anzuwenden als das, nach dem sich der Kaufpreis überhaupt erst ergeben hat und was somit dem Denken der Marktteilnehmer – Käufer und Verkäufer – entspricht. Das Vergleichswertverfahren wurde unter steuerlichen Gesichtspunkten für die gesonderte Ermittlung von Gebäude- und Bodenwertanteil als ungeeignet angesehen, da Vergleichswerte sich immer auf das Gesamtobjekt, 3  Vgl. Blum / Weiss (2007), S.  258 sowie www.steuerthek.de / handbuch / eigz / eigz_ eigzbmg.htm, Stand: 17.09.2012.

324

Marianne Moll-Amrein und Daniela Schaper

d. h. Gebäude- und Bodenwertanteil zusammen, beziehen. Das Ertragswertverfahren galt lange Zeit als ungeeignet, da sich der Gebäudeertragswert u. a. durch Abzug eines Bodenwertverzinsungsbetrages ergibt und somit nicht unabhängig vom Bodenwert ermittelt werden kann. Eine klare Trennung zwischen Boden- und Gebäudewertanteil erlaubt nur das Sachwertverfahren. Dabei ist der Bodenwert im Vergleichswertverfahren aus tatsächlichen Kaufpreisen oder dem Bodenrichtwert zu ermitteln. Der Wert von Gebäuden und Außenanlagen ergibt sich auf Basis der üblichen Herstellungskosten (Normalherstellungskosten) abzüglich der Alterswertminderung. Die Anwendung des Sachwertverfahrens bringt allerdings Nachteile bei der Anwendung auf Mietobjekte mit sich. „Bei einer Aufteilung nach der Sachwertmethode (wird, Anm. d. Verf.) der Anteil des Kaufpreises, der wegen der guten Vermietbarkeit der Immobilie gezahlt (wird, Anm. d. Verf.), allein dem Grund und Boden zugerechnet.“4 Denn nur der Bodenwert wird anhand von aktuellen Kaufpreisen für vergleichbare Grundstücke ermittelt, in denen die Ertragsaspekte zur Geltung kommen. Es sollte aber nach Ansicht des IV. Senats gerade bei Geschäftsgrundstücken, die üblicherweise vermietet werden und deren Grundstückswert im Wesent­lichen durch den nachhaltig erzielbaren Grundstücksertrag bestimmt wird, auch für die Kaufpreisaufteilung das Ertragswertverfahren als zutreffende Schätzungsmethode angewendet werden.“5 Im BFH-Beschluss von 1999 wurde im Fall eines rein gewerblich genutzten Grundstücks (Kaufhausgrundstück), bei dem die Erzielung von Erträgen für den Wert maßgeblich ist, angezweifelt, ob das Ertragswertverfahren für die Ermittlung des Gebäudewertanteils einerseits und des Bodenwertanteils andererseits tatsächlich ungeeignet ist. Nach aktuellem Erkenntnisstand wird von den Finanzämtern jedoch nach wie vor überwiegend eine Ermittlung von Gebäudewertanteilen mit Hilfe des Sachwertverfahrens anerkannt, da nur dieses vermeintlich eine echte getrennte Ermittlung von Gebäude- und Bodenwertanteil ermögliche. Diese Richtlinien erfahren jedoch mittlerweile eine gewisse Aufweichung, zumindest im Falle von reinen Geschäftsgrundstücken ohne Wohnanteil.

4  BFH-Beschluss

vom 24.02.1999, IVB 73/98. aus FG München-Urteil vom 26.10.1999, 16 K 2935/98 unter Bezugnahme auf BFH-Beschluss vom 24.02.1999, IV B 73/98. 5  Zitiert



Ermittlung des Gebäudewertanteils von Renditeobjekten

325

2. Vorgehensweise in der Praxis a) Aufteilung nach dem Sachwertverfahren Die Aufteilung in einen Gebäudewertanteil und einen Bodenwertanteil für steuerliche Zwecke hat also mit Hilfe des Sachwertverfahrens zu erfolgen. „Nach dem Grundsatz der Einzelbewertung sind zunächst der Bodenwert und der Gebäudewert gesondert zu bewerten und sodann die Anschaffungskosten für den Bodenanteil und Gebäudeanteil aufzuteilen.“6 Dabei muss ein gedanklicher Spagat vollzogen werden. Dies kann am Beispiel eines Mietwohnhauses in einem Hochpreisgebiet in Bayern dargestellt werden (Objektdaten siehe Darstellung 1). Die Problematik wird besonders deutlich, da es sich um ein Objekt in einer Region mit sehr hohen Bodenpreisen handelt. Objektdaten Kaufpreis:

1.200.000 €

Wertrelevante Nutzung:

Mietshaus

Lage:

sehr gut

Ausstattung: mittel Zustand: gut Wirtschaftliche Restnutzungsdauer:

70 Jahre

Reinertrag:

42.230 €

Marktübliche Nettokaltmiete:

rund 13,80  € / m2

Liegenschaftszinssatz:

3,5 %

Darstellung 1: Objektdaten Beispiel Mietwohnhaus

Das Sachwertverfahren beruht im Wesentlichen auf einer nach technischen Gesichtspunkten durchgeführten Wertermittlung. Der Sachwert umfasst den Bodenwert, den Wert der baulichen Anlagen (Gebäude, bauliche Außenanlagen, besondere Betriebseinrichtungen) und der sonstigen Anlagen. Der Bodenwert wird im Vergleichswertverfahren ermittelt und beträgt 1.000.000 €. Der Sachwert der Gebäude ergibt sich mit 460.000 €. Hinzu kommen noch die Außenanlagen in Höhe von 10.000 €. Der vorläufige Sachwert berechnet sich gemäß Darstellung 2. Es ergeben sich ein Gebäudewertanteil von 32 % und ein Bodenwertanteil von 68 %. 6  BFH-Beschluss

vom 24.02.1999 (IV B 73 / 98).

326

Marianne Moll-Amrein und Daniela Schaper Sachwertermittlung Gebäudesachwert: Außenanlagen:

460.000 € 10.000 €

Sachwert der baulichen Anlagen: Bodenwert:

470.000 € 32 % 1.000.000 € 68 %

Vorläufiger Sachwert:

1.470.000 €

Darstellung 2: Sachwertermittlung Mietwohnhaus

Eine Anpassung des vorläufigen Sachwerts an die allgemeinen Wertverhältnisse auf dem Grundstücksmarkt gemäß § 8 Abs. 2 Nr. 1 ImmoWertV entfällt hier. Die Marktanpassung ist im vorliegenden Fall insofern vorgegeben, als die Anschaffungskosten bzw. der Kaufpreis bekannt sind. Der Sachwertfaktor, mit dem die Marktanpassung durchgeführt wird, bezieht sich nach herkömmlicher Meinung auf den gesamten Sachwert, d. h. gleichermaßen Gebäude- und Bodenwert, so dass die prozentuale Aufteilung am Gesamtwert gleich bleibt. Der Sachwertfaktor beträgt rechnerisch rund 0,80. Die Anschaffungskosten in Höhe von 1.200.000 € sind entsprechend den prozentualen Anteilen von Bodenwert und Gebäudewert (Gebäude und Außenanlagen) am Sachwert aufzuteilen (siehe Darstellung 3). Der Gebäudewertanteil an den Anschaffungskosten wird auf 385.000 €, der Bodenwertanteil auf 815.000 € geschätzt.

Ermittlung von Gebäudewertanteil und Bodenwertanteil Anschaffungskosten:

1.200.000 €

Anteil Gebäude:

32 %

rd.

385.000  €

Anteil Boden:

68 %

rd.

815.000 €

Darstellung 3: Anschaffungskostenanteile Mietwohnhaus

Bei Vorhandensein besonderer objektspezifischer Grundstücksmerkmale i. S. v. § 8 Abs. 3 ImmoWertV sind Überlegungen anzustellen, ob sie dem Gebäude- oder Bodenwertanteil zuzuschreiben sind. Liegen beispielsweise die tatsächlichen Mieterträge über den marktüblichen Erträgen, wäre dies im Ertragswertverfahren durch einen Zuschlag für Overrent zu berücksichtigen. Fraglich ist jedoch, ob dies mit den Sachwertbetrachtungen der Steuerbe-



Ermittlung des Gebäudewertanteils von Renditeobjekten

327

hörden vereinbar wäre. Wo werden diese ertragsbedingten Besonderheiten oder Anomalien dann berücksichtigt? Grundlage der Verkehrswertermittlung sind rein wirtschaftliche Überlegungen. Es stellt sich somit die Frage, ob der so ermittelte Gebäudewertanteil dem tatsächlichen, wirtschaftlichen Wert entspricht? Denn letzterer sollte doch auch Grundlage einer steuerlichen Betrachtung sein. Bei den Recherchen zu diesem Thema wurden verschiedene Hochpreisregionen in Deutschland untersucht. Die gleiche Problematik zeigt sich beispielsweise in Frankfurt am Main, Düsseldorf und München. Die dortigen Gutachterausschüsse haben sich in unterschiedlicher Weise mit der Thematik auseinandergesetzt. b) Vorgehensweise des Gutachterausschusses Frankfurt am Main Gemäß § 10 Abs. 1 ImmoWertV sind Bodenrichtwerte vorrangig im Vergleichswertverfahren zu ermitteln. Findet sich keine ausreichende Zahl von Vergleichspreisen, kann der Bodenrichtwert auch mit Hilfe deduktiver Verfahren oder in anderer geeigneter und nachvollziehbarer Weise ermittelt werden. Gemäß § 196 BauGB sind Bodenrichtwerte für bebaute Gebiete mit dem Wert zu ermitteln, der sich ergeben würde, wenn der Boden unbebaut wäre. Dies entspricht auch der Definition der Bodenrichtwertrichtlinie. Der Gutachterausschuss Frankfurt hat sich mit der Problematik befasst, dass auch in kaufpreisarmen Gebieten Bodenrichtwerte zur Verfügung gestellt werden müssen. Gerade in Innenstadtlagen stehen aber häufig nur Kaufpreise von bebauten Grundstücken zur Verfügung. In seinem Immobilienmarktbericht weist der Gutachterausschuss beispielsweise darauf hin, dass die Bodenrichtwerte in Geschosswohnungsbaugebieten „nicht uneingeschränkt für den bebauten Altbestand (Mietwohnungsbau) herangezogen werden“ können, „weil die zugrunde liegenden Verkaufspreise überwiegend für Eigentumswohnungsbaumaßnahmen bezahlt werden.“7 Grundstückskaufpreise für Eigentumswohnungsbaumaßnahmen werden durch Gewinnerwartungen getrieben, die im Bereich der Bestandsimmobi­ lien häufig nicht erzielbar sind. Es wurden vom Gutachterausschuss Untersuchungen zu Bodenwertanteilen an Verkaufspreisen und zu Bodenwertanteilen an Sachwerten für verschiedene Objekttypen und Lagequalitäten angestellt. Dadurch ist die Möglichkeit gegeben, Bodenrichtwerte auf ihre Angemessenheit hin zu überprüfen, insbesondere, wenn sie lediglich durch 7  Immobilienmarktbericht 2012 des Gutachterausschusses Frankfurt am Main, S. 30.

328

Marianne Moll-Amrein und Daniela Schaper

Indexierung fortgeschrieben werden. Der Bodenwertanteil wird somit als „weicher Faktor“ für die Bodenrichtwertermittlung angesehen.8 Zudem sind die Bodenwertanteile bedeutsam für die Bemessung der steuerlichen Abschreibung. Auch lassen sich damit Bewertungsansätze plausibilisieren.9 Weicht der Bodenwertanteil eines Objektes von bundes- oder gebietsüblichen Werten ab, ist der Bodenrichtwert entsprechend zu überprüfen. Möglicherweise entspricht der Bodenrichtwert nicht der ausgeübten Nutzung oder andere Einflussgrößen wurden nicht ausreichend berücksichtigt. Ergibt sich beispielsweise rechnerisch ein sehr hoher Bodenwertanteil, obwohl der Bausubstanz am Markt noch ein erheblicher Wert beigemessen wird, lässt sich anhand der gebietsüblichen Bodenwertanteile nachweisen, dass es sich um „ungewöhnliche Marktverhältnisse handelt.“10 Als Ergebnis der Untersuchungen werden sowohl die gebietstypischen Anteile des Bodenwertes am Verkaufspreis als auch am Sachwert dargestellt. Dabei hat sich u. a. gezeigt, dass der Bodenwertanteil mit zunehmender Lagequalität und mit zunehmendem Alter der Objekte steigt. In Darstellung 4 werden einige Untersuchungsergebnisse für Objekte in sehr guten Lagen zusammengefasst.11

Anteil Bodenwert zum Verkaufspreis

Anteil Bodenwert zum Sachwert

Differenz zwischen Anteil VP und Anteil SW

Mehrfamilienhaus

48,17 %

57,61 %

–9,44 %

Wohn- und Geschäftshaus (Gewerbeanteil 21–50 %)

44,01 %

50,20 %

–6,19 %

Wohn- und Geschäftshaus (Gewerbeanteil mind. 50 %)

53,2 %

57,14 %

–3,92 %

Gebäudetyp

Quelle: Debus / Helbach (2012), S. 68, 70, 72 (auszugsweise)

Darstellung 4: Bodenwertanteile Frankfurt

Debus / Helbach (2012), S. 65. hierzu und zum Folgenden Debus / Helbach (2012). 10  Debus / Helbach (2012), S. 66. 11  Anmerkung: jeweils unter Beachtung von Regelgrundstücksgrößen, Sachwert = Gebäudewert plus Außenanlagen plus Bodenwert. 8  Vgl. 9  Vgl.



Ermittlung des Gebäudewertanteils von Renditeobjekten

329

Aus der Untersuchung wurden nur die Daten für Renditeobjekte in sehr guten Lagen ausgewählt. Bei Renditeobjekten bildet sich der Verkaufspreis auf Basis von Ertragsüberlegungen, die mit Hilfe des Ertragswertverfahrens abgebildet werden können. Es ist ersichtlich, dass die Bodenwertanteile an den Verkaufspreisen niedriger sind als an den Sachwerten. Somit sind Verkaufspreise anders aufzuteilen als Sachwerte. c) „Düsseldorfer Türmchen“ Der Gutachterausschuss Düsseldorf hat sich ebenfalls mit der Problematik auseinandergesetzt, dass in Innenstadtlagen nur wenige tatsächliche Verkäufe von unbebauten Grundstücken stattfinden. Dies ist auf die Baulandknappheit zurück zu führen. Bodenrichtwerte sind grundsätzlich aus Kaufpreisen von unbebauten Grundstücken abzuleiten. Was aber ist zu tun, wenn keine Verkäufe existieren? Der Gutachterausschuss hat hierfür einen Lösungsansatz gefunden, der als „Düsseldorfer Türmchen“ bezeichnet wird.12 Diese werden auch zur Kontrolle von innerstädtischen Bodenrichtwerten herangezogen. Dabei handelt es sich um eine Methodik, mit Hilfe von Regressionsanalysen den Bodenwert aus Kaufpreisen von bebauten Grundstücken abzuleiten. Voraussetzung dafür ist im Falle von Düsseldorf die Ermittlung von so genannten Marktrichtwerten, die zusätzlich zu Bodenrichtwerten für bestimmte Zonen ausgewertet werden.13 Marktrichtwerte werden für bebaute Grundstücke und Wohnungseigentum aus tatsächlichen Kaufpreisen abgeleitet und als Kaufpreis pro m2 Wohn- /  Nutzfläche angegeben. Die Marktrichtwerte sind hinsichtlich ihrer wertbeeinflussenden Merkmale beschrieben. Es werden entsprechende Umrechnungsfaktoren angegeben, um Anpassungen vornehmen zu können, wenn sich das tatsächliche Objekt vom Normobjekt unterscheidet. Mit Hilfe von mathematisch-statistischen Verfahren werden typisierte Wertverhältniszahlen für die drei Teilmärkte unbebaute Baulandgrundstücke (UB), bebaute Grundstücke (BB) und Wohnungseigentum (WE) ermittelt – die „Düsseldorfer Türmchen“. Sie geben das aktuelle Wertverhältnis eines bebauten Grundstücks bzw. einer Eigentumswohnung zum Boden wieder. Unterschieden werden dabei vier Gebäudegruppen mit typisierten Defini­ tionen, für die folgende Verhältniszahlen ermittelt wurden (siehe Darstellungen 5 und 6): 12  Vgl. zu den nachfolgenden Ausführungen Mann (2003) sowie Marktbericht des Gutachterausschusses Düsseldorf zum 01.01.2012, S. 25 f., Anhang S. 3, 8. 13  Vgl. Mann (2000).

II-III-geschossige Mietwohnhäuser

IV-V-geschossige Mietwohnhäuser

V-VI-geschossige gemischt genutzte Gebäude in der Innenstadt

2

3

4

1 : 2,7 : 1,6

1 : 2,1 : 3,2

1 : 2,7 : 4,0

1 : 3,1 : 3,9

in Mehrfamilienhäusern (Baujahr 1970)

in Mehrfamilienhäusern (Baujahr 1970) in Mehrfamilienhäusern oder gemischt genutzten Objekten (Baujahr 1970)

in Mehrfamilienhäusern oder gemischt genutzten Objekten (Baujahr 1970)

I-II-geschossige ­freistehende Ein-  /  Zweifamilienhäuser (Baujahr 1970) II-III-geschossige ­Mietwohnhäuser (Baujahr 1970) IV-V-geschossige ­Mietwohnhäuser (Baujahr 1970)

V-VI-geschossige ­gemischt genutzte Gebäude (Baujahr 1955)

I-II-geschossige freistehende Ein- / Zweifamilienhausgrundstücke (GFZ = 0,5)

IV-V-gesch. Mietwohn­ hausgrundstücke und III-V-gesch. gemischt genutzte Grundstücke (GFZ = 2,0)

V-VI-geschossige gemischt genutzte Grundstücke (GFZ = 4,0)

II-III-geschossige Mietwohnhausgrundstücke (GFZ = 1,0)

Wertverhältnis UB : BB : WE

Wohnungs­eigentum

Bebaute Grundstücke

Bauland

Darstellung 5: Verhältniszahlen Düsseldorf

Quelle: Marktbericht Gutachterausschuss Düsseldorf (2012), S. 25

I-II-geschossige freistehende Ein- /  Zweifamilienhäuser

1

Gebäudegruppe

330 Marianne Moll-Amrein und Daniela Schaper

BB - Baujahr 1970

WE - Baujahr 1970

1,6

0,0

0,0

BB - Baujahr 1970

WE - Baujahr 1970

UB - GFZ 4,0

1,0

BB - Baujahr 1955

3,1

WE - Baujahr 1970

3,9

Gruppe 4: V-VI-gesch. gem. Gebäude in der Innenstadt

UB - GFZ 1,0

1,0

2,1

3,2

Gruppe 2: II-III-gesch. Mietwohnhäuser

Ermittlung des Gebäudewertanteils von Renditeobjekten

Darstellung 6: Düsseldorfer Türmchen

Quelle: Marktbericht Gutachterausschuss Düsseldorf (2012), S. 25

UB - GFZ 2,0

0,5

0,5

BB - Baujahr 1970

1,5

1,5 1,0

2,0

2,0

1,0

2,5

2,5

WE - Baujahr 1970

3,0

1,0

3,5

2,7

4,0

4,5

0,0

0,5

1,0

1,5

2,0

2,5

3,0

3,5

3,0

4,0

Gruppe 3: IV-V-gesch. Mietwohnhäuser

UB - GFZ 0,5

1,0

2,7

Gruppe 1: I-II-gesch. Ein-/Zweifamilienhäuser

3,5

4,0

4,5

0,0

0,5

1,0

1,5

2,0

2,5

3,0

331

332

Marianne Moll-Amrein und Daniela Schaper

Die Wertverhältniszahlen können nun u. a. angewendet werden, um den Bodenwert eines bebauten Grundstücks abzuleiten, dessen Verkehrswert bekannt ist bzw. um den Bodenwert aus vorliegenden Kaufpreisen bebauter Objekte zu ermitteln.

Unterscheidet sich das bewertungsgegenständliche Objekt von den vier Gruppen, so sind entsprechend Anpassungen vorzunehmen. Beispielsweise gibt es bei Unterschieden zwischen dem Baujahr des Objektes und dem des Normgebäudes eine Altersfunktion, aus der sich Anpassungsfaktoren ermitteln lassen. Zusätzlich ist zu beachten, dass in TOP-Lagen, z. B. in der Innenstadt, Zuschläge von bis zu 10 % durchzuführen sind. Bei Grundstücken, die durch Verkäufe zur Begründung von Wohnungseigentum geprägt sind, sind Zuschläge von bis zu 20 % durchzuführen. 14

Die Anwendung der „Düsseldorfer Türmchen“ wird anhand des Beispiels im Grundstücksmarktbericht erläutert (siehe Darstellung 7).

Bodenwert bei einem vorliegenden Kaufpreis eines bebauten Objektes Gegeben: Kaufpreis 1.190.000,– € für ein V-geschossiges gemischt genutztes Gebäude, Baujahr 1905, gute Lage in der Innenstadt mit 660 m2 Wohn- / Nutzfläche (WF / NF) Gesucht: Bodenwert dieses Objektes, bei einer Grundstücksgröße von 235 m2 (GFZ = 3,5) Basis:

Wertverhältniszahl für gemischt genutzte Objekte, Baujahr 1955 (Gruppe 4): 3,1

Lösungsweg: 1. Kaufpreis pro m2 WF / NF (Bauj. 1905): 1.190.000,–  € /  660 m2 WF / NF = rd. 1.800,–  € / m2 2. Anpassungen an Norm Baujahr 1955:14 1.800,–  € / m2   1,07 = 1.926,–  € / m2 an Norm Gebäudeart: entfällt 3. Anwendung der Wertverhältniszahl:

1.926,–  € / m2  /  3,1 = 621,–  € / m2

4. Bodenwert pro Grundstücksfläche: 621,–  € / m2  3,5 GFZ  0,8* = 1.739,– € / m2 (oder 621,–  € / m2  660 m2 WF  /  235 m2 Grundstücksfläche) 5. Anpassung an gute Lage (bei TOP bis zu +10 %):

1.739,– € / m2  1,05 = rd. 1.800,– € / m2

6. Ergebnis (Bodenwert): 235 m2   1.800,–  € / m2 = rd. 423.000,– € (Das sind rund 35 % von 1.190.000,– € Kaufpreis.) * Korrekturfaktor von der Geschossfläche zur Wohnfläche Quelle: Marktbericht Gutachterausschuss Düsseldorf (2012), S. 26

Darstellung 7: Anwendung Düsseldorfer Türmchen 14  Der

Anpassungsfaktor ergibt sich aus der Altersfunktion gemäß Marktbericht.



Ermittlung des Gebäudewertanteils von Renditeobjekten

333

Aufgrund der statistischen Ableitung der Wertverhältniszahlen und der Anpassungsfaktoren verfügt diese Vorgehensweise über einen relativ hohen Genauigkeitsgrad und wird nach vorliegenden Erkenntnissen auch von der Finanzverwaltung anerkannt, wenn es darum geht, Gesamtgrundstückspreise aufzuteilen. d) Münchner Modell Der Gutachterausschuss München hat ein Modell entwickelt, das auf dem Ertragswertverfahren basiert, da, wie bereits erwähnt, bei Renditeobjekten der Verkehrswert als erzielbarer Kaufpreis mit Hilfe des Ertragswertverfahrens nachvollzogen wird. Das grundsätzliche Problem bei dieser Vorgehensweise besteht darin, dass im Falle von sehr hohen Bodenwerten durch Abzug des Bodenwertverzinsungsbetrages nur noch ein geringer Gebäudeertragswert verbleibt. Der tatsächlich gezahlte Kaufpreis für das unter Punkt 2. a) dargestellte Objekt, mithin also die Anschaffungskosten, werden dem Ertragswert gleichgesetzt. Mit Hilfe des Vergleichswertverfahrens wurde auf Basis tatsächlich erzielter Kaufpreise für unbebaute Grundstücke ein Bodenwert von 1.000.000 € ermittelt. Das zweigleisige oder allgemeine Ertragswertverfahren zielt darauf ab, die nur über die Restnutzungsdauer erzielbaren Erträge zu kapitalisieren und dann den Bodenwert, der eine ewige Verzinsung beinhalt, zu addieren. Aus diesem Grunde wird der Bodenwertverzinsungsbetrag in Abzug gebracht (siehe Darstellung 8).

Ertragswertermittlung (bei vollem Bodenwert) Reinertrag Abzüglich Bodenwertverzinsungsbetrag: 1.000.000 €  3,5 %

42.230 € –35.000 € 7.230 €

Reinertrag der baulichen Anlage  Barwertfaktor bei einer Restnutzungsdauer von 70 Jahren und einem Liegenschaftszinssatz von 3,5 %: 26,0 Ertragswert der baulichen Anlage zuzüglich Bodenwert

187.980 € 1.000.000 €

Ertragswert Ertragswert gerundet

1.187.980 € 1.200.000 €

Gebäudewertanteil ca. 17 % Bodenwertanteil ca. 83 % Darstellung 8: Ertragswertermittlung Mietwohnhaus (bei vollem Bodenwert)

334

Marianne Moll-Amrein und Daniela Schaper

Das Ertragswertverfahren sieht also ganz klar eine getrennte Ermittlung des Gebäudeertragswertes einerseits und des Bodenwerts andererseits vor. Auffällig ist im aufgeführten Beispiel, dass sich durch den Ansatz des nach aktuellen Kaufpreisen ermittelten Bodenwertes ein offensichtliches Missverhältnis zwischen Gebäudewertanteil und Bodenwertanteil ergibt. Handelt es sich um eine verbrauchte Bausubstanz? Würde man in solch einem Fall den Gebäudeertragswert als Grundlage für die Abschreibung heranziehen, würden Nachteile für den Steuerpflichtigen entstehen. Es handelt sich hier um einen tatsächlichen Fall, der den Verfasserinnen bekannt ist. Es kann ganz sicher gesagt, werden, dass kein potentieller Käufer auf die Idee kommen würde und auch tatsächlich nicht gekommen ist, das Objekt abzureißen. Es muss also eine andere Möglichkeit geben, die Verhältnismäßigkeit auf ein realistisches Maß zu korrigieren. Untersuchungen zu dieser Thematik hat nun der Gutachterausschuss München durchgeführt, die auch im jährlichen Grundstücksmarktbericht dargestellt sind.15 Mit dem Münchner Modell ist eine wirtschaftlich vernünftige Aufteilung in Boden- und Gebäudewertanteil auch mit Hilfe des Ertragswertverfahrens möglich. Aufgrund des sehr hohen Bodenpreisniveaus in München ergibt sich regelmäßig für Bestandsobjekte ein im Verhältnis zum Bodenwert nur geringer Gebäudewertanteil. Dies ist eine Problematik, die typisch ist für Märkte mit dynamischer Bodenwertentwicklung und einem sehr hohen Bodenpreisniveau. Die Bodenpreise werden durch Verkäufe unbebauter Grundstücke, die zum Bau von Eigentumswohnanlagen gekauft werden, nach oben getrieben. Dies hat zur Folge, dass „eine Bewirtschaftung als Mietobjekt mit ausreichender Rendite (…) kaum oder nur bei sehr hohen Mieten noch möglich“ ist. Es ergibt sich „ein nicht mehr darstellbar geringer Gebäudewertanteil.“16 Der Gutachterausschuss München hat für diese Fälle ein Rechenprogramm entwickelt, mit dem eine Minderung des Bodenwertes bei einer gleichzeitigen Reduzierung des Liegenschaftszinssatzes durchgeführt wird.17 Dies hat zur Folge, dass ein höherer Gebäudewertanteil entsteht und Gebäude- und Bodenwertanteil in einem angemessenen Verhältnis zueinander stehen. Das Endergebnis, d. h. der Ertragswert, bleibt jedoch gleich. In Darstellung 9 werden die wichtigsten Rahmendaten des verwendeten Beispiels nochmals zusammengestellt: Grundstücksmarktbericht 2011 des Gutachterausschusses München, S. 59. München (2011), S. 59. 17  Das Rechenprogramm kann als Datei vom Gutachterausschuss bezogen werden. Mit Hilfe der Zielwertsuche kommt man hier auf das gleiche Ergebnis. 15  Vgl.

16  Gutachterausschuss



Ermittlung des Gebäudewertanteils von Renditeobjekten

335

Objektdaten Reinertrag:

42.230 €

Liegenschaftszinssatz:

3,5 %

Wirtschaftliche Restnutzungsdauer:

70 Jahre

Bodenwert (voll):

1.000.000 €

Ertragswert rund:

1.200.000 €

Darstellung 9: Objektdaten Beispiel Mietwohnhaus

Der Bodenwert ist vor allem deshalb so hoch, da in ihm die erwartete Rendite aus einer zukünftigen Nutzung im Rahmen eines Neubaus zum Ausdruck kommt. Bestandsimmobilien können jedoch häufig keine ausreichend hohen Mieten erzielen wie ein Neubau. Daher ist der Bodenwert um den Anteil zu reduzieren, in dem die bei einem Neubau erzielbare Nettokaltmiete über der im Bestand erzielbaren Nettokaltmiete liegt. Es stellt sich somit die Frage, welcher Nutzung das gegenständliche Grundstück zugeführt werden würde, wenn es fiktiv unbebaut wäre. Aufgrund der Lagequalität (Top-Lage) und des niedrigen Angebots im Verhältnis zur Nachfrage würde ein Investor das Grundstück voraussichtlich mit einem Luxusobjekt, z. B. mit sehr luxuriösen Wohnungen, bebauen. Aufgrund der hohen Restnutzungsdauer des bestehenden Gebäudes würde man im gewöhnlichen Geschäftsverkehr jedoch keine Freilegung durchführen, da dies eine Vernichtung von wirtschaftlich nutzbarer Bausubstanz bedeuten würde. Recherchen haben ergeben, dass Mieten von Neubau-Luxuswohnungen in der näheren Umgebung mit vergleichbarer Lagequalität in einer Spanne von etwa 15,00 € bis 17,00 € pro m2 und mehr liegen. Die marktübliche Miete für das bestehende Objekt liegt bei durchschnittlich rund 13,80 € pro m2. Es lässt sich somit ohne weiteres eine Bodenwertreduzierung von 10 % bis 30 % begründen, da entsprechend die für das Objekt erzielbaren Mieten unter denen für lageadäquate Neubauwohnungen liegen. Zu berücksichtigen ist auch, dass der verwendete Liegenschaftszinssatz auf der Basis des vollen Bodenwertes ermittelt wurde. Um bei reduziertem Bodenwert auf den gleichen Ertragswert zu kommen, ist gleichzeitig der Liegenschaftszinssatz zu reduzieren. Mit Hilfe eines Rechnungsprogramms, das vom Gutachterausschuss zur Verfügung gestellt wird, kann der dann reduzierte Liegenschaftszinssatz ermittelt werden. Unter Berücksichtigung einiger Rundungsdifferenzen ergibt sich bei einer Bodenwertminderung um rund 20 % ein Gebäudeertragswert, der nahezu dem mit Hilfe des Sachwertverfahrens ermittelten Gebäudewertanteil entspricht (siehe Darstellung 10).

336

Marianne Moll-Amrein und Daniela Schaper

Ertragswertermittlung (bei gemindertem Bodenwert) Reinertrag Abzüglich Bodenwertverzinsungsbetrag: 800.000 €  3,4 % Reinertrag der baulichen Anlage  Barwertfaktor bei einer Restnutzungsdauer von 70 Jahren und einem Liegenschaftszinssatz von 3,4 %: 26,58 Ertragswert der baulichen Anlage zuzüglich Bodenwert Ertragswert Ertragswert gerundet

42.230 € –27.200 € 15.030 € 399.497 € 800.000 € 1.199.497 € 1.200.000 €

Gebäudewertanteil ca. 33 % Bodenwertanteil ca. 67 % Darstellung 10: Ertragswertermittlung Mietwohnhaus (bei gemindertem Bodenwert)

Der Gebäudewertanteil auf Basis des Sachwertverfahrens wurde mit rund 385.000 € ermittelt (siehe Darstellung 3). Es ergibt sich bei der Ertragswertberechnung bei gemindertem Bodenwert ein Gebäudeertragswert in nahezu gleicher Höhe bei Reduzierung des Bodenwerts um 20 % (entspricht in etwa dem Unterschied zwischen Neubaumiete und erzielbarer Bestandsmiete). Der Liegenschaftszinssatz verringert sich aufgrund der langen wirtschaftlichen Restnutzungsdauer nur geringfügig von 3,5 % auf rund 3,4 %.18 Der reduzierte Bodenwert beträgt rund 800.000 € statt der ursprünglichen 1.000.000 €. Die Differenz beträgt somit absolut 200.000 €. Erfahrungsgemäß ist in Gebieten mit hohen Bodenwerten eine Relation von Gebäudewertanteil zu Bodenwertanteil von bis zu 40:60 tragbar und wenig angreifbar. In diesem Beispiel ergab sich die Bodenwertminderung aufgrund von zum Wertermittlungsstichtag tatsächlich vorliegenden Ertragsverhältnissen. Spinnt man den hinter dem Modell stehenden Gedanken weiter, so sind auch prospektive Gedanken anzustellen. Ein Investor kauft das Baugrundstück heute, um es nach einer gewissen Entwicklungs- und Bauzeit gewinnbringend zu vermieten. D. h., es fließen in den Kaufpreis für das Grundstück Zukunftserwartungen mit ein. Bei stark steigenden Neubaumieten oder Wohnungspreisen werden die Bodenpreise zukünftige Mietsteigerungser18  Beispielsweise würde sich der Liegenschaftszinssatz bei einer Restnutzungs­ dauer von 40 Jahren deutlich stärker auf 3,1 % reduzieren. Der Gutachterausschuss bezieht sich bei der Darstellung des Modells im Wesentlichen auf Restnutzungsdauern zwischen 30 und 45 Jahren.



Ermittlung des Gebäudewertanteils von Renditeobjekten

337

wartungen also bereits heute widerspiegeln. Es entsteht der Eindruck, dass die Bodenpreise sogar schneller steigen als die Mieten. Es ergeben sich dadurch unter Umständen noch höhere Bodenwertminderungen und noch niedrigere Liegenschaftszinssätze. Noch gar nicht abzusehen sind die Auswirkungen des Mietrechtsänderungsgesetzes.19 Dies sieht vor, dass Bundesländer für Gebiete mit angespannten Wohnungsmärkten per Rechtsverordnung die Kappungsgrenze bis zur ortsüblichen Vergleichsmiete von 20 % (gem. § 558 BGB) auf 15 % absenken können. Damit werden Möglichkeiten von Mieterhöhungen in bestehenden Mietverhältnissen weiter begrenzt und die Schere zu den Neubaumieten geht weiter auf. Betroffen sind wieder vorrangig Hochpreisgebiete, wie sie insbesondere in der Stadt München vorliegen. 3. Schlussfolgerungen Den unter 2. b), c) und d) geschilderten Vorgehensweisen ist gemeinsam, dass sie auf die Ermittlung wirtschaftlicher und realistischer Bodenwerte abzielen. Ergibt sich aufgrund von wirtschaftlichen Überlegungen ein niedrigerer Bodenwert für ein tatsächlich bebautes Grundstück, stellt sich die Frage wie dies zu kategorisieren ist: Handelt es sich um eine Bodenwertdämpfung, ein besonderes objektspezifisches Grundstücksmerkmal oder eine Marktanpassung? Von einer Bodenwertdämpfung spricht man, wenn ein Abschlag vom Bodenwert allein dadurch begründet ist, dass das Grundstück bebaut ist, unabhängig davon, welcher Art die Bebauung ist.20 Ein mögliches Argument hierfür wäre die mangelnde Verfügbarkeit und Gestaltungsfreiheit für den Käufer. Besondere objektspezifische Grundstücksmerkmale im Sinne von § 8 Abs. 3 ImmoWertV sind individuelle Eigenschaften, die nur das zu bewertende Grundstück betreffen. Durch Zu- oder Abschläge lassen sich Differenzen zwischen dem ohne diese Besonderheiten ermittelten vorläufigen Ertrags- oder Sachwert auf der einen Seite sowie dem Verkehrswert oder tatsächlich erzielten Kaufpreis auf der anderen Seite erklären. Die Höhe des Zu- oder Abschlags wäre für das einzelne Objekt zu ermitteln und ergibt sich von Objekt zu Objekt dann auch in unterschiedlicher Höhe. In dem unter Punkt 2. a) und d) dargestellten Beispiel ergab sich die Differenz zwischen Sachwert und Verkehrswert bzw. Kaufpreis in erster 19  Stand 01.02.2013, Zum Zeitpunkt der Erstellung dieses Beitrags war das Gesetz bereits vom Bundesrat verabschiedet worden und musste noch ausgefertigt und verkündet werden. 20  Siehe Kleiber (2010), S. 1456.

338

Marianne Moll-Amrein und Daniela Schaper

Linie durch die Bodenwertdifferenz. Erst durch die Berücksichtigung ertragsspezifischer Gesichtspunkte in der Bodenwertermittlung resultierte bei gleich bleibendem Gebäudewertanteil ein realistischer Wert, der dem Kaufpreis entspricht. Die Situation, dass sich aufgrund von durch Neubautätigkeit überhöhten Bodenwerten unrealistische Gebäudewertanteile für Bestandsobjekte ergeben, gilt für eine Vielzahl von Objekten. Die Marktmechanismen sind für alle Objekte gleich. Es ist daher nach Auffassung der Verfasserinnen angezeigt, hier von einer Marktanpassung zu sprechen. Dies ist im Sachwertverfahren nicht in angemessener Weise möglich. Bei Anwendung des Sachwertverfahrens ist eine Berücksichtigung ertragsorientierter Gesichtspunkte allein im Bodenwert verfahrenstechnisch nicht vorgesehen. Möglichkeiten einer Anpassung des Sachwertes an die Lage auf dem Grundstücksmarkt bestehen nur mit Hilfe von Sachwertfaktoren, die vom jeweiligen Gutachterausschuss zu ermitteln sind und sich dann auf Gebäudesachwert und Bodenwert gleichermaßen beziehen. „Sachwertfaktoren stellen zugleich einen Modell- bzw. Systemkorrekturfaktor dar, wenn die angewandte Methodik der Sachwertermittlung mängelbehaftet ist.“21 Der Sachwertfaktor geht also über eine reine Marktanpassung, d. h. Anpassung an die Lage auf dem Grundstücksmarkt hinaus. Sachwertfaktoren sind „zugleich Korrekturfaktoren (…) mit denen auch System- und Modellfehler der Sachwertermittlung ausgeglichen werden (…)“.22 Im dargestellten Beispiel beträgt die Differenz zwischen Sachwert und Ertragswert insgesamt rund 270.000 €. Dies entspricht einem Marktabschlag von rund 20 % bzw. einem Sachwertfaktor von ca. 0,80. Beispielsweise konnte mit Hilfe des Münchner Modells aufgezeigt werden, dass davon bereits 200.000 € auf den Bodenwert entfallen und somit die restlichen 70.000 € auf den Gebäudesachwert. Dies zeigt, dass der Sachwertfaktor nach dem herkömmlichen Verständnis die wirtschaftlichen Aspekte nicht ausreichend nachvollzieht. Umso mehr gilt das für die Sachwertermittlung nach der neuen Sachwertrichtlinie, wie folgender Abschnitt zeigen wird.

III. Auswirkungen der neuen Sachwertrichtlinie 1. Wesentliche Neuerungen Am 18. Oktober 2012 wurde die „Richtlinie zur Ermittlung des Sachwerts – Sachwertrichtlinie – SW-RL“ veröffentlicht. Sie ersetzt die entsprechenden Bestimmungen der Wertermittlungsrichtlinie aus dem Jahr 2006. 21  Kleiber 22  Kleiber

(2013), S. 808. (2013), S. 808.



Ermittlung des Gebäudewertanteils von Renditeobjekten

339

Gegenüber der bisherigen Sachwertermittlung, welcher die „Normalherstellungskosten“ (NHK) aus dem Jahr 2000 zugrunde lagen, gibt es folgende wesentliche Neuerungen: –– Neue Kostenkennwerte – NHK 2010 – mit leicht unterschiedlicher Systematik (Anlage 1 der SW-RL). Insbesondere gibt es keine Baujahresgruppen mehr. Die Kostenkennwerte sind anhand von Gebäudearten und Gebäudestandards (früher Ausstattungsstandards) eingruppiert. –– Der Gebäudestandard wird grundsätzlich in 3, bei Ein- und Zweifamilienhäusern in 5 Standardstufen eingeteilt. –– Zu Bestimmung des anzuwendenden Standards müssen anhand einer dezidierten Aufstellung (Anlage 2 der SW-RL) einzelne Merkmale (z. B. Fenster – einfachverglast = Stufe 1, Spezialverglasung mit Schall- und Sonnenschutz = Stufe 5) des zu bewertenden Objektes eingruppiert und mit einem vorgeschriebenen Wägungsanteil (z.  B. Außenwände 23  %, Fenster / Außentüren 11 %) multipliziert werden. Der Kostenkennwert wird somit über ein filigranes Scoring-Modell bestimmt. –– Die Baunebenkosten sind in den Kostenkennwerten bereits integriert. –– Die Kostenkennwerte werden nicht mehr mit Regional- und Ortsgrößenkorrekturfaktoren angepasst. Diese Anpassung ist nun im „Sachwertfaktor“, welcher die Verbindung des vorläufigen Sachwertes zum Marktgeschehen herstellt, bereits enthalten. Für die Ableitung des Sachwertfaktors wird ein Modell vorgeschlagen (Anlage 5). –– Es wird ein Modell zur Ableitung der wirtschaftlichen Restnutzungsdauer für Wohngebäude unter Berücksichtigung von Modernisierungen eingeführt (Anlage 4). Außerdem gibt es weitere Änderungen technischer Art, die für das vorliegende Thema von nachrangiger Bedeutung sind. Der so genannte Sachwertfaktor ist nach neuem Verständnis die Relation vom vorläufigen Sachwert (d. h. Herstellungskosten der baulichen Anlagen, Außenanlagen und sonstigen Anlagen abzüglich einer Alterswertminderung, zuzüglich des Bodenwertes) zum marktangepassten vorläufigen Sachwert. Dieser entspricht dem Marktwert  /  Verkehrswert, sofern keine besonderen objektspezifischen Grundstücksmerkmale (z.  B. Bauschäden, Instandhaltungsrückstand, markt­unübliche Mietverhältnisse etc.) vorliegen. Ansonsten muss der marktangepasste vorläufige Sachwert noch entsprechend korrigiert werden, um zum (endgültigen) Sachwert bzw. zum Marktwert zu gelangen. Die Sachwertfaktoren müssen von den Gutachterausschüssen ermittelt werden. Solange keine Sachwertfaktoren, die anhand der neuen Sachwertricht­

340

Marianne Moll-Amrein und Daniela Schaper

linie berechnet wurden, vorliegen, ist die Ermittlung eines Marktwertes mit Hilfe des Sachwertverfahrens gemäß neuer SW-RL nicht möglich.23 In Bezug auf das Thema, mit Hilfe des Sachwertverfahrens die Aufteilung eines Kaufpreises bzw. Marktwertes eines ertragsorientierten Objektes bestimmen zu wollen, entstehen oder verstärken sich durch die neue Sachwertrichtlinie folgende Probleme: –– Unrealistische Herstellungskosten: Die in den NHK 2010 angegebenen Kostenkennwerte haben mit tatsächlichen Baukosten nichts mehr gemein. Dies wurde auf verschiedenen Seminaren namhafter Referenten sowie in diversen Literaturquellen ausführlich erörtert.24 Insofern ist der vorläufige Sachwert (vor Anpassung mit Hilfe des Sachwertfaktors) ein konstruierter Wert, der nur durch die Multiplikation mit einem Sachwertfaktor eine sinnvolle Bedeutung erhält. Früher wurden (i. d. R.) die Herstellungskosten durch die Korrekturfaktoren (Regionalfaktor, Ortsgrößenfaktor, Baupreisindex) an die tatsächlichen Herstellungskosten angenähert, erst die Marktanpassung (d. h. Relation Kosten / Markt) erfolgte dann mit Hilfe des Sachwertfaktors. So spiegelte der Sachwertfaktor zumindest modelltheoretisch die Tobins q-Relation, d. h. das Verhältnis von Marktwert zu Wiederbeschaffungskosten, wider, und lieferte damit einen Beitrag zu einer möglichen Investitionsentscheidung.25 Da sich der Sachwertfaktor generell auf den gesamten vorläufigen Sachwert (d. h. inkl. Bodenwert) bezieht und somit keinen sinnvollen Beitrag zu einer sachgerechten Aufteilung von Bodenwert und Gebäudewert leistet, hängt das Aufteilungsergebnis nun von willkürlich festgelegten Kennwerten (NHK 2010) ab, die weder von der Kostenseite noch von der Marktseite einen Bezug zur Realität aufweisen. Da zudem der Markt bei renditeorientierten Immobilien nicht gemäß Sachwertverfahren denkt und handelt, könnte das Aufteilungsergebnis auch gewürfelt werden. –– Es ist von diversen Gutachterausschüssen (z. B. München, Düsseldorf)26 zu vernehmen, dass die Sachwertfaktoren sich zukünftig bei bestimmten Immobilien gegenüber früher stark erhöhen, da die Kostenkennwerte der NHK 2010 z. T. erheblich niedriger sind als die mit Regionalfaktoren und Ortsgrößenfaktoren angepassten NHK 2000. Anhand von Berechnungen wird dies im nächsten Kapitel gezeigt. Für die Aufteilung eines Gesamtwertes bzw. -preises in Bodenwert und Gebäudewert mit Hilfe des Sach23  Zum Zeitpunkt der Verfassung dieses Textes liegen noch keine Sachwertfaktoren vor. Siehe hierzu auch Kleiber (2013), S. 4 f., und Vieth (2012), S. 54. 24  Siehe z. B. Kleiber (2013), S.  1520 f. 25  Siehe hierzu den Aufsatz von Nitsch (2011). 26  Siehe Mann (2012), Thiele (2012).



Ermittlung des Gebäudewertanteils von Renditeobjekten

341

wertverfahrens bedeutet dies eine Verschiebung zu Ungunsten des Gebäudewertes und führt damit ceteris paribus zu einer höheren Steuerbelastung, da Abschreibungspotentiale verloren gehen. –– Es ist anzunehmen, dass viele Gutachterausschüsse Sachwertfaktoren nur für Objekte ableiten, bei denen das Sachwertverfahren auch einschlägig ist. Somit ist ebenfalls wahrscheinlich, dass für ertragsorientierte Immobilien vielerorts keine Sachwertfaktoren zur Verfügung stehen. –– Tatsächlich wäre die Anwendung eines Sachwertfaktors, der sich gemäß des anzuwendenden Modells nach der neuen Sachwertrichtlinie auf den gesamten vorläufigen Sachwert bezieht, ohnehin obsolet, da er aufgrund der Proportionalität keinen Beitrag zu einer realistischeren Aufteilung des Gesamtwertes leistet. Hier ist jedoch zu bedenken, dass der marktangepasste (vorläufige) Sachwert noch um die besonderen objektspezifischen Grundstücksmerkmale korrigiert werden muss. Aufgrund der Heterogenität von Immobilien ist es eher die Regel als die Ausnahme, dass solche Besonderheiten existieren. Ohne die Anwendung des Sachwertfaktors verschieben sich, in Bezug auf das Gesamtergebnis, die Relationen zwischen dem vorläufigen Sachwert und den Korrekturbeträgen aufgrund der Besonderheiten. Es stellt sich außerdem die Frage, ob die Korrekturbeträge nicht entweder dem Gebäudewert (z. B. Baumängel) oder dem Bodenwert (z. B. Altlasten) zugeordnet werden müssten. Die Ausführungen zeigen, dass sich durch die neue Sachwertrichtlinie die Eignung des Sachwertverfahrens zur realistischen Aufteilung eines Marktwertes oder -preises (Anschaffungskosten) einer ertragswertorientierten Immobilie in einen Bodenwertanteil und einen Gebäudewertanteil nicht verbessert hat. Dies soll anhand von Beispielen verdeutlicht werden. 2. Beispiele / Anwendungen Im Folgenden wird das praktische Beispiel aus Punkt II. 2. a) wieder aufgenommen und ausführlicher dargestellt (siehe Darstellung 11). Die Wertermittlung nach NHK 2000 wird in Darstellung 12, die Wertermittlung nach NHK 2010 bzw. neuer Sachwertrichtlinie in Darstellung 13 durchgeführt.

342

Marianne Moll-Amrein und Daniela Schaper Objektdaten Gebäude: Mehrfamilienhaus mit 6 Wohnungen Baujahr: 2002 Baualter: 10 Jahre Gesamtnutzungsdauer: 80 Jahre Restnutzungsdauer: 70 Jahre Grundfläche: 117 m2 Bruttogrundfläche: 468 m2 Wohnfläche: 302 m2 Wertermittlungsstichtag: 31.12.2012 Grundstücksgröße: 980 m2 2 Bodenwert pro m : 1.020 € Bodenwert: 1.000.000 €

Darstellung 11: Objektdaten Beispiel Mietwohnhaus

Wertermittlung nach NHK 2000 Gebäudetyp 3.11 Mehrfamilienhaus, Keller-, Erd-, Obergeschoss, voll ausgebautes Dachgeschoss Ausstattung: mittel Ansatz Herstellungskosten 745  € / m2 BGF Baunebenkosten 14 % Regionalfaktor Bayern: 1,06 Ortgrößenfaktor: 1,00 (vorstädtischer Bereich) Baupreisindex IV / 2012: 1,244 (Basis 2000, für MFH) Außenanlagen: 10.000 € (Zeitwert pauschal) Sachwertermittlung: Herstellungskosten: Baunebenkosten: Regionalisierung: Ortsgrößenkorrektur: Zeitliche Anpassung: Alterswertminderung: Außenanlagen:

468 m2  +    –   +

745  € / m2 14,000 %  1,060  1,000  1,244 12,500 % 10.000 €

= = = = = = =

348.660,00 € 397.472,40 € 421.320,74 € 421.320,74 € 524.123,00 € 458.607,63 € 468.607,63 €

Gebäudesachwert: Bodenwert:

 

 

 

= 470.000,00 € + 1.000.000,00 €

Vorläufiger Sachwert:

 

 

 

= 1.470.000,00 €

Anteil Gebäudewert: Anteil Bodenwert:

= =

32 % 68 %

Darstellung 12: Sachwertermittlung Mietwohnhaus (NHK 2000)



Ermittlung des Gebäudewertanteils von Renditeobjekten

343

Wertermittlung nach NHK 2010 Gebäudeart Gebäudestandard Ansatz Herstellungskosten Baupreisindex IV / 2012: Außenanlagen:

4.1 Mehrfamilienhäuser mit bis zu 6 WE 3 bis 4 832,20  € / m2 BGF (s. u.) 1,062 (Basis 2010, für MFH) 10.000 € (Zeitwert pauschal)27

Ermittlung Herstellungskosten: Standardstufe Ansatz Wägung Außenwände Dächer Außentüren und Fenster Innenwände und -türen Deckenkonstruktion und Treppen Fußböden Sanitäreinrichtungen Heizung Sonstige technische Ausstattung  

3 825 €

4 5 985 € 1.190 €

Ansatz

Gewichtet

0,23 0,15 0,11 0,11

1,0 1,0 1,0 1,0

825 € 825 € 825 € 825 €

189,75 € 123,75 €   90,75 €   90,75 €

0,11 0,05 0,09 0,09

1,0 1,0 1,0 0,5

825 € 825 € 825 € 905 €

  90,75 €   41,25 €   74,25 €   81,45 €

0,06

1,0

825 €

  49,50 €

1,00

 

0,5

832,20 €

Sachwertermittlung: Herstellungskosten: Zeitliche Anpassung: Alterswertminderung: Außenanlagen:

 

  – +

Gebäudesachwert: Bodenwert:

   

   

 

Vorläufiger Sachwert:

 

 

 

468 m2

Anteil Gebäudewert: Anteil Bodenwert:

832,20  € / m2  1,062 12,500 % 10.000 €

= = = =

389.469,60 € 413.616,72 € 361.914,63 € 371.914,63 €

rund

= +

370.000,00 € 1.000.000,00 €

=

1.370.000,00 €

= =

27 % 73 %

Darstellung 13: Sachwertermittlung Mietwohnhaus (mit neuer Sachwertrichtlinie bzw. NHK 2010) 27

27  Hinweis: Der hier angenommene pauschale Ansatz der Außenanlagen ist vom verwendeten Modell des Gutachterausschusses abhängig, welches hier nicht definiert ist – siehe Anlage 5 der Sachwertrichtlinie.

344

Marianne Moll-Amrein und Daniela Schaper

Da die Kostenkennwerte der NHK 2010 niedriger sind als die mit den entsprechenden Faktoren korrigierten NHK 2000, verschiebt sich die Relation zu Ungunsten des Gebäudewertes. Tatsächlich liegt der so berechnete vorläufige Sachwert zwar näher am Verkehrswert von 1,2 Mio. €. Legt man jedoch die Ertragsdifferenzen zugrunde, mit der die Aufteilung des Verkehrswertes gemäß Münchener Modell berechnet wurde, ergibt sich mit der Berechnung gemäß neuer Sachwertrichtlinie eine für den Steuerpflichtigen schlechtere Relation. Aufgrund der bereits mehrfach beschriebenen Tatsache, dass die Kostenkennwerte gemäß NHK 2010 „konstruierte Kostenkennwerte aus der Retorte“28 sind und wenig mit realistischen Baukosten gemein haben, wird die Aufteilung des Verkehrswertes gemäß Sachwertmethode höchst fragwürdig, da der Sachwertfaktor nun „allein“ den Marktbezug herstellt. Das oben aufgeführte Beispiel bezog sich auf ein Mehrfamilienhaus, bei dem die Differenz zwischen den Ansätzen gemäß NHK 2000 und NHK 2010 noch maßvoll sind. In Darstellung 14 wird anhand von zwei Beispie-

Vergleich Ansätze:

Baujahr

Gemischt genutztes Wohn- Verwaltungsgebäude und Geschäftshaus mit ca. 30 % Gewerbeanteil ab 2000

ab 2000

Typ NHK 2000 Ausstattungsstandard Ansatz NHK 2000 Baupreisindex IV / 2012 (Basis 2000) Regionalfaktor Baunebenkosten Angepasster Ansatz NHK 2000

4 mittel 1.085 € 1,248 1,06 14 % 1.636 €

5.2 gehoben 1.670 € 1,259 1,06 15 % 2.563 €

Gebäudeart NHK 2010 Standardstufe Ansatz NHK 2010 Baupreisindex IV / 2012 (Basis 2010) Angepasster Ansatz NHK 2010

5.1 3 860 1,061 912 €

6.1 4 1685 1,060 1.786 €

724 € 55,8 %

777 € 69,7 %

Absolute Differenz Relation (NHK 2000 = 100)

Darstellung 14: Vergleich Ansätze NHK 2000 versus NHK 2010 28  Kleiber

(2013), S. 1521.



Ermittlung des Gebäudewertanteils von Renditeobjekten

345

len ein Vergleich der Ansätze für typische Renditeobjekte durchgeführt. Es wird ein Regionalfaktor von 1,06 (z. B. Baden-Württemberg, Bayern, Nord­ rhein-Westfalen) unterstellt. Es ergeben sich hohe Differenzen zwischen den Ansätzen. Bei Anwendung der neuen Sachwertrichtlinie resultieren bei der Aufteilung der Anschaffungskosten bzw. des Verkehrswertes in Bodenwert und Gebäudewert starke Nachteile für den Steuerpflichtigen gegenüber der früheren Vorgehensweise. Da der Sachwertfaktor keinen sinnvollen Beitrag zur Aufteilungsproblematik liefert, wird vermehrt deutlich, dass eine Aufteilung gemäß Sachwertverfahren zu keinen brauchbaren Ergebnissen mehr führt.

IV. Zusammenfassung und Ausblick Die Aufteilung des Anschaffungspreises bzw. Verkehrswertes einer Immobilie in einen Bodenwertanteil und einen Gebäudewertanteil ist für mehrere Fragestellungen relevant. Insbesondere aus steuerlichen Gründen muss die Aufteilung vollzogen werden, da nur der Gebäudeanteil abgeschrieben werden kann, während Grund und Boden keiner Alterswertminderung unterliegen. Die vorliegende Abhandlung analysiert das methodische Problem der Aufteilung. Nach einschlägiger Rechtsprechung ist maßgeblich das Sachwertverfahren anzuwenden, da nur dieses eine korrekte Trennung zwischen Gebäudewert und Bodenwert gewährleiste. Beim Vergleichswertverfahren wird keine solche Trennung vorgenommen und beim Ertragswertverfahren werden Bodenwert und Gebäudewert wegen Abzug der Bodenwertverzinsung vom gesamten Reinertrag nicht unabhängig voneinander ermittelt. Die Anwendung des Sachwertverfahrens zu diesem Zweck führt zu einer Reihe von Problemen, die insbesondere bei hohen Bodenwerten und renditeorientierten Grundstücken auftreten. Bei Immobilien, die zum Zwecke der Gewinn- bzw. Renditeerzielung vermietet werden, liefert das Sachwertverfahren i. d. R. keinen sinnvollen Vorschlag zur Ermittlung des Verkehrswertes oder zur Erklärung eines Anschaffungspreises. Vielmehr sind Größen wie Mieten, Kosten und Zinsen für die Wertermittlung maßgeblich, wie sie im Ertragswertverfahren zu finden sind. Eine Möglichkeit, dennoch vom Sachwert zum Verkehrswert zu gelangen, bietet der so genannte „Sachwertfaktor“, der die Relation vom (vorläufigen) Sachwert zum Verkehrswert bzw. zum Anschaffungspreis darstellt. Leider bezieht sich dieser auf den gesamten Sachwert, d. h. Bodenwert plus Gebäudewert insgesamt (ohne objektspezifische Grundstücksmerkmale), und liefert daher keinen Beitrag zur Aufteilung des gesamten Wertes. Im Zuge der neuen Sachwertrichtlinie hat der Sachwertfaktor eine noch höhere Bedeutung, da die zugrunde lie-

346

Marianne Moll-Amrein und Daniela Schaper

genden Kostenkennwerte (NHK 2010) konstruiert sind und nur der Sachwertfaktor die Verbindung zum Markt herstellt, während im früheren System die mit Baupreisindex, Ortsgrößen- und Regionalfaktoren korrigierten NHK 2000 zumindest theoretisch die Baukosten abgebildet haben. Somit gab der Sachwertfaktor über den Vergleich von Sachwert zu Verkehrswert immerhin ein – wenn auch schwaches – Indiz für die Investitionstätigkeit. Da der vorläufige Sachwert gemäß neuer Sachwertrichtlinie ohne Sachwertfaktor nun keinerlei marktbezogene Größe mehr darstellt, wird die Aufteilung eines Anschaffungspreises oder Verkehrswertes mit Hilfe des Sachwertverfahrens völlig sinnlos und führt zu einer steuerlichen Ungleichbehandlung von Steuerpflichtigen. Sobald die ersten Gutachten gemäß neuer Sachwertrichtlinie entstanden und entsprechende Klagen eingereicht sind, werden sich die Gerichte und die Finanzverwaltungen mit den neuen Gegebenheiten aus­ einander setzen müssen. Somit müssen neue Wege der Aufteilung gefunden werden, die sich an der wirtschaftlichen Realität ausrichten. Bei Anwendung des (deutschen) Ertragswertverfahrens gemäß §§ 17–20 ImmoWertV, welches ja ebenfalls eine Trennung von Gebäudewert und Bodenwert vorsieht, besteht in Gebieten mit hohen Bodenwerten häufig das Problem, dass nach Abzug der Bodenwertverzinsung am jährlichen Reinertrag ein fast nicht mehr darstellbarer kleiner Gebäudewertanteil übrig bleibt, der nach Kapitalisierung zu einem sehr niedrigen Gebäudewert führt (ein möglicher Abschreibungsbetrag geht daher gegen null). Dies hängt damit zusammen, dass Bodenrichtwerte für fiktiv unbebaute Grundstücke und Vergleichspreise unbebauter Grundstücke mitunter zu unrealistischen Bodenwerten im Rahmen der Bewertung von bebauten Grundstücken führen. Betroffen sind insbesondere Gebiete, in denen insgesamt wenig unbebaute Grundstücke verkauft werden und in denen Bodenpreise durch Gewinnbestrebungen im Rahmen von Neubau­ aktivitäten vor allem im Geschosswohnungsbau (z. T. spekulativ) nach oben getrieben wurden. Völlig realistische und vorteilhafte Investitionen, die vor 10 Jahren getätigt wurden und auch in der heutigen Zeit noch vernünftige Renditen abwerfen, erscheinen somit rein rechnerisch nahezu als Liquida­ tionsobjekte. Eine Möglichkeit, das Ertragswertverfahren dennoch zur Aufteilung des gesamten Verkehrswertes / Anschaffungspreises eines renditeorientierten Grundstücks mit hohem Bodenwertniveau zu verwenden, liefert der Gutachterausschuss München mit dem „Münchner Modell“, bei welchem die erzielbaren Mieten von bereits bebauten Grundstücken mit Mieterwartungen von unbebauten Grundstücken verglichen werden und der Bodenwert entsprechend korrigiert wird. Die Gutachterausschüsse in Frankfurt und Düsseldorf weisen Aufteilungsergebnisse mit Hilfe statistischer Methoden aus, die im Bereich des Vergleichswertverfahrens anzusiedeln sind.



Ermittlung des Gebäudewertanteils von Renditeobjekten

347

Der wirtschaftliche Wert eines Gebäudes, das der Renditeerzielung dient, ergibt sich in Abhängigkeit von dessen wirtschaftlicher Nutzung, d. h. den Ertragsverhältnissen. Insofern müssen bei der Aufteilung des Verkehrswertes / Anschaffungspreises in Bodenwert und Gebäudewert Methoden Anwendung finden, welche die wirtschaftlichen Verhältnisse widerspiegeln. Gutachterausschüsse liefern diverse Vorschläge. Weitere Modelle, die auf Anwendung des Ertragswertverfahrens und / oder des Vergleichswertverfahrens basieren, müssen gefunden werden. Das Sachwertverfahren eignet sich jedenfalls nicht.

Epilog Professor Hans-Hermann Francke bot mir, Marianne Moll-Amrein, unmittelbar nach der mündlichen Prüfung zur Diplom-Volkswirtin (Albert-Ludwigs-Universität Freiburg) im Frühjahr 2002 eine Stelle als wissenschaft­ liche Mitarbeiterin bei der Deutschen Immobilien-Akademie an der Universität Freiburg (DIA) mit der Möglichkeit zur Promotion an. Sehr gerne nahm ich diese Chance wahr. Außer der Gelegenheit, bei der DIA zu forschen, konnte ich meine Kenntnisse gleich praxisnah bei der DIA Consulting AG im Bereich der Immobilienbewertung einsetzen. Prof. Francke hatte somit für mich eine dreifache Funktion: Als Doktorvater betreute er meine Promotion, als Studienleiter der DIA war er mein wissenschaftlicher Ansprechpartner und als Aufsichtsratsvorsitzender der DIA Consulting AG der Vorgesetzte meiner praktischen Tätigkeit. Insofern habe ich ihm viel zu verdanken und freue mich außerordentlich, bei dieser Festschrift teilnehmen zu können. Nach Studium und einigen Jahren Berufserfahrung zog es mich, Daniela Schaper, zurück in die Welt der Universität, um meinen akademischen Werdegang mit einer Promotion zu ergänzen. Schon während meines Aufbaustudiums zur Diplom-Sachverständigen an der Deutschen Immobilien Akademie lernte ich Prof. Francke kennen und schätzen. Umso mehr freute ich mich über sein Einverständnis, meine Promotion als Doktorvater zu betreuen. In den Jahren meines wissenschaftlichen Arbeitens habe ich erfahren, welch entscheidende Bedeutung die Wahl des Doktorvaters hat. Im Laufe meiner Promotion hat es Prof. Francke immer wieder geschafft, mir im richtigen Moment neuen Mut zuzusprechen und neue Impulse zu geben. Ich bin Prof. Francke sehr dankbar für seine Geduld und seine Unterstützung. Deshalb ist es mir eine große Freude, an dieser Festschrift anlässlich seines 70. Geburtstages mitzuwirken.

348

Marianne Moll-Amrein und Daniela Schaper

Literatur Blum, Stephan / Weiss, Wolfgang (2007): Die steuerliche Aufteilung der Anschaffungskosten von Grundstücken, in: Grundstücksmarkt und Grundstückswert, Heft 5, 2007, S. 257–269. Debus, Michael / Helbach, Christine (2012): Ist der Bodenwertansatz beim Verkauf bei bebauten Objekten von Bedeutung?, in: Grundstücksmarkt und Grundstückswert, Heft 2, 2012, S. 65–74. Gutachterausschuss für Grundstückswerte im Bereich der Landeshauptstadt Düsseldorf (2012): Grundstücksmarkt Landeshauptstadt Düsseldorf, Stichtag 01.01.2012. Gutachterausschuss für Grundstückswerte im Bereich der Landeshauptstadt München (2011): Der Immobilienmarkt in München, Jahresbericht 2011. Gutachterausschuss für Immobilienwerte für den Bereich der Stadt Frankfurt am Main (2012): Immobilienmarktbericht für den Bereich Frankfurt am Main 2012. Kleiber, Wolfgang (2010): Verkehrswertermittlung von Grundstücken, 6. Auflage, Bundesanzeiger, Köln. – (2013): Marktwertermittlung nach ImmoWertV, Praxisnahe Erläuterungen zur Verkehrswertermittlung von Grundstücken, 7. Auflage, Bundesanzeiger, Köln. Mann, Wilfried (2000): Eine Marktrichtwertkarte, in: Grundstücksmarkt und Grundstückswert, Heft 4, 2000, S. 198–202. – (2003): „Düsseldorfer Türmchen“ – Eine neue Methode zur Ermittlung von Bodenwerten für Baulandgrundstücke, in: Grundstücksmarkt und Grundstückswert, Heft 4, 2003, S. 193–198. – (2012): Ableitung und Anwendung von Sachwertfaktoren unter Berücksichtigung der neuen SW-RL, Skript zum Bodenseeforum 2012 am 03.10.2012. Nitsch, Harald (2011): Tobins q: Vom Analyserahmen zum praktischen Tool, in: Francke  /  Rehkugler (Hrsg.), Immobilienmärkte und Immobilienbewertung, 2. Aufl. 2011, S. 101–126. Thiele, Helmut (2012): Boden-Gebäudewertanteil in Hochpreisgebieten, Vorstellung Münchner Modell – Diskussion und ähnliche Probleme im Sachwertverfahren durch die NHK 2010, Skript zum 16. Dingolfinger Baufachtag am 23.11.2012. Vieth, Matthias (2012): Berechnen oder Bewerten?, in: AIZ – Das Immobilienmagazin, Heft 12 / 2012, S. 52–55.

Tobins q aus der Perspektive der Verkehrswertermittlung Von Harald Nitsch und Kyungsun Park

I. Problemstellung Die makroökonomische Portfoliotheorie und dabei maßgeblich die Beiträge James Tobins haben die wissenschaftliche Arbeit Hans-Hermann Franckes entscheidend geprägt. Während der Fokus seiner Habilitationsschrift auf den Portfolioeffekten der Staatsverschuldung lag, bildet diese theoretische Basis auch einen wichtigen Ausgangspunkt seiner wissenschaftlichen Beiträge zur Immobilienökonomik. Schlüsselgrößen in diesem Kontext sind Tobins q und seine Komponente SPC. Ziel der vorliegenden Untersuchung ist, eine Verbindung zwischen diesen theoretischen Konzepten und der Verkehrswertermittlung zu ziehen. Im Zentrum steht dabei die Frage, welche Rückschlüsse aus der Wertermittlungspraxis und den dabei ermittelten Eingangsgrößen auf die Empirie der makroökonomischen Portfoliotheorie gezogen werden können. Vor den weiteren Überlegungen erfolgt daher zunächst die Darstellung der Konzepte von Tobins q und dem SPC. Im nächsten Schritt werden inhaltliche Übereinstimmungen und Unterschiede zwischen dem SPC und dem Liegenschaftszinssatz des Ertragswertverfahrens untersucht. Dem schließt sich die koreanische Perspektive der Ertragswertermittlung an. Den theoretischen Überlegungen ist eine empirische Untersuchung des Liegenschaftszinssatzes angeschlossen: Der Vergleich beider Konzepte legt nahe, dass der Liegenschaftszinssatz neben dem SPC auch die Erwartung zukünftiger Mietsteigerungen enthält, so dass empirische Daten des Liegenschaftszinssatzes nicht unmodifiziert als Näherungsvariable für den SPC herangezogen werden können. Wir untersuchen dieses Problem, indem wir den Zusammenhang zwischen Mietsteigerungen und Liegenschaftszinssätzen schätzen. Die Arbeit schließt mit einem Fazit.

350

Harald Nitsch und Kyungsun Park

II. Marktpreis vs. Reproduktionskosten Den Ausgangspunkt für das Verständnis von q-Wert und SPC bildet die Differenzierung, die Tobin (1968) zwischen der Behandlung existierender Kapitaleinheiten und neu zu schaffendem Realkapital zieht. Realkapital – zu dem die hier interessierenden Immobilien zählen – werden als Teil eines Portfolios gehalten, insbesondere bildet die Gleichung (1.1) Tobins1 f1(rK, rM, Y / W) W = qK

(1)

die Nachfrage der Haushalte nach bestehenden Kapitaleinheiten ab. Hierbei sind zum einen die Rendite bestehenden Kapitals rK im Vergleich zu derjenigen des Geldes rM, andererseits die Relation zwischen Einkommen Y und Vermögen W sowie W als Skalierungsfaktor ausschlaggebend. Die Marktbewertung wiederum wird durch den Faktor q abgebildet. Im Rahmen des Modells werden neue Güter, insbesondere auch Kapitalgüter, zum Preis p erstellt, die aktuell im Markt mit qp bewertet werden. Demzufolge gilt für den Kapitalstock K in (1), dass dieser zu seiner aktuellen Marktbewertung qK im Portfolio gehalten wird. Während also q zunächst die Verbindung zwischen Herstellungskosten und Marktbewertung von Kapitalgütern herstellt, erhält Tobin unter Rückgriff auf die Konsolformel einen entsprechenden Zusammenhang zwischen der Rendite rK bestehenden Kapitals und derjenigen R für neu zu schaffende Kapitaleinheiten, also der Grenzleistungsfähigkeit des Kapitals: Tobin interpretiert R als Rendite einer Kapitaleinheit, die zum Preis p erstellt wird. Da existierende Kapitaleinheiten dagegen mit qp gehandelt werden, folgt für die Rendite einer Kapitaleinheit aus dem Bestand die Rendite R / q. Demzufolge bildet q nicht nur den Zusammenhang zwischen Herstellungskosten von (ergo: neuen) Kapitaleinheiten und deren Marktbewertung, sondern auch mit Gleichung (1.3) aus Tobin (1969) den Zusammenhang zwischen deren Renditen ab:2 rK q = R

(2)

Während die Grenzleistungsfähigkeit des Kapitals R in Tobin (1969) in der kurzen Frist als exogen angenommen wird3, ist rK eine endogene Va­ riable, deren Rolle Tobin (1961) umschreibt durch:4 1  Tobin

(1969), (1969), 3  Tobin (1969), 4  Tobin (1961), 2  Tobin

S. 19. S. 20. S. 21. S. 35.

Tobins q aus der Perspektive der Verkehrswertermittlung

351

„The strategic variable … is the rate of return that the community of wealthowners require in order to absorb the existing capital stock (valued at current prices), no more, no less, into their portfolios and balance sheets. This rate may be termed the supply price of capital“.

Die Rate of Return ist damit das Spiegelbild der Preisentwicklung und vice versa. Das Verständnis der Renditeanforderungen ist daher der Schlüssel zum Verständnis der Preisentwicklung und damit zur Berücksichtigung von Marktlagen in der Immobilienbewertung. Der Verkehrswert beschreibt den Preis, zu dem unter den gegebenen Risiko- und Renditekonstellationen die Anleger bereit sind, die Liegenschaften in ihren Portfolios zu halten.

III. Tobins q und Immobilienbewertung 1. Überblick Tobins theoretischer Ansatz eröffnet zwei Verbindungen zu normierten Verfahren der Immobilienbewertung, wie sie im Rahmen der ImmoWertV niedergelegt sind. Zum einen ist das Ertragswertverfahren betroffen. Dieses leitet den Verkehrswert einer Immobilie aus dem Barwert der erwarteten zukünftigen Reinerträge der Immobilie ab. In der Terminologie Tobins betrifft dies die Variable rK, also den Supply Price of Capital. Die Rendite auf bestehendes Realkapital ist dabei im Portfoliokontext zu sehen, oder wie Tobin und Brainard (1977) ausführen:5 „A principal reason for distinguishing, at an aggregate level, between bonds and capital is their difference in risk … Risk is also crucial at a disaggregated level. Differences in the magnitude and nature of risk are probably the most important factors leading to differences of required rates of return on investment in various firms and types of capital“.

Der Supply Price of Capital rK wird also in Abwägung der Risiken von Realvermögen, insbesondere von Immobilienvermögen, und alternativen Anlageformen gebildet. In der praktischen Anwendung des Ertragswertverfahrens kommt diese Rolle dem Liegenschaftszinssatz zu. Im Folgenden wird daher untersucht, welche konzeptionellen Ähnlichkeiten zwischen der theoretischen Variablen rK und der praktischen Rechengröße Liegenschaftszinssatz bestehen. Der zweite Bezug zwischen einem normierten Verfahren betrifft das Sachwertverfahren. Der q-Wert stellt die Verbindung zwischen den Reproduktionskosten p einer neu zu erstellenden Kapitaleinheit und deren Markt5  Tobin,

J. / Brainard, W. C. (1977), S. 239.

352

Harald Nitsch und Kyungsun Park

preis her. Im Sinn der Wertermittlung entspricht die Marktbewertung bestehender Kapitaleinheiten dem Verkehrswert, während die Herstellungskosten p im Rahmen von tabellierten Normalherstellungskosten approximiert werden sollen. Wir konzentrieren uns im Folgenden jedoch auf das Ertragswertverfahren und die Schlüsselgröße Liegenschaftszinssatz. 2. Supply Price of Capital und Ertragswertermittlung a) Die deutsche Perspektive Tobins Analyse beschreibt Schwankungen des Marktwertes bestehender Kapitaleinheiten als Spiegelbild der Renditeanforderungen, damit diese Einheiten im Portfolio gehalten werden. Auch das Ertragswertverfahren setzt an der Rendite bestehender Kapitaleinheiten an. Den Ausgangspunkt der Berechnung bildet der Rohertrag (entsprechend den Mieteinnahmen), der um die Bewirtschaftungskosten gemindert wird, um zum Reinertrag zu gelangen. Die Bewirtschaftungskosten enthalten insbesondere auch einen Abschlag für das Mietausfallrisiko, so dass ein Teil der Risiken, da bereits an dieser Stelle pauschalisiert zum Ansatz gebracht, nicht in der empirisch ermittelten Rendite erfasst wird. Der so errechnete Reinertrag RE wird um die Verzinsung des Bodenwertes gemindert, wobei als Zinssatz der Liegenschaftszinssatz i eingesetzt wird. Die Differenz (RE – i BW) wird als Reinertrag der baulichen Anlagen interpretiert, der – im Gegensatz zur Bodenwertverzinsung – nur über den endlichen Zeitraum der Restnutzungsdauer des Gebäudes zum Ansatz kommt. Der Barwert dieser endlichen Rente wird durch die Rentenbarwertformel abgebildet, durch die unter Verwendung des Liegenschaftszinssatzes als Diskontierungsfaktor und der Restnutzungsdauer als Laufzeit der Rente ein Vervielfältiger V errechnet wird. Dem Barwert der endlichen Rente wird dann noch der Bodenwert hinzugerechnet, so dass in der Summe (3)

EW = (RE – i BW) V + BW

resultiert. Diese Aufspaltung in eine endliche Rente aus dem Gebäude und eine unendliche Rente aus dem Boden ist äquivalent zu einer Teilung in die konstante Rente RE über die Restnutzungsdauer des Gebäudes und der anschließenden aufgeschobenen Rente aus dem Boden, deren Laufzeit sich daran anschließt. Dies führt zu folgender Form der Ertragswertformel (4)

EW = RE V + BW / (1 + i)n

Tobins q aus der Perspektive der Verkehrswertermittlung

353

Zur Vereinfachung der Betrachtung unterstellen wir nun eine unendliche Restnutzungsdauer, wählen also auch die Perspektive der Konsolformel. Dies lässt sich anhand von Gleichung (4) einfacher durchführen, da für n → ∞ der Barwert der – nunmehr ins unendliche – aufgeschobenen Bodenwertrente Null ergibt und nur der Zusammenhang (5)

EW = RE V

verbleibt. Diese verkürzte Variante der Ertragswertformel wiederum vereinfacht sich weiter, wenn man den Grenzwert von V für n → ∞ betrachtet, denn dann tritt V → 1 / i ein und (5) vereinfacht sich zur Konsolformel (6)

EW = RE / i

Den Liegenschaftszinssatz bestimmen die Gutachterausschüsse durch den Vergleich von Kaufpreisen, die als realisierte Ertragswerte EW interpretiert werden, und den Reinerträgen RE der Objekte: Der Liegenschaftszinssatz wird so gewählt, dass der Barwert der Rente der Reinerträge dem realisierten Kaufpreis entspricht. Diese Sicht korrespondiert mit dem Supply Price of Capital, denn die Diskontierung mit rk führt dazu, dass der Barwert der zukünftigen Erträge aus der Immobile der Marktbewertung des bestehenden Kapitals gleicht. In der Logik des Ertragswertverfahrens entspricht dies dem Verkehrswert. Nachdem der Liegenschaftszinssatz aus Marktbeobachtungen gewonnen wird, spiegelt er insbesondere auch die Einflüsse des Risikos, aber auch der in (1) durch rM repräsentierten Renditen alternativer Anlagen ab. Die „Übersetzung“ dieser Einflussgrößen in den Supply Price of Capital rK wird dabei aus der Marktbeobachtung gewonnen, d. h. die komplexen Portfolioüberlegungen der Marktteilnehmer müssen nicht explizit nachvollzogen werden. Allerdings bezieht die Ableitung des Liegenschaftszinssatzes seitens des Gutachterausschusses aus den aktuell beobachtbaren Größen RE und EW nur die aktuelle Miete ein, sofern diese als nachhaltig eingestuft wird. Die Diskontierung der Erträge des Realkapitals mit rK dagegen beziehen sich auf den erwarteten Einkommensstrom aus dem Vermögensgut. Der Unterschied lässt sich erkennen, wenn man dem Dividend Discount Model Gordons6 folgend einen Wachstumspfad für die Mieten unterstellt.7 Hierbei wachsen die Reinerträge von einem aktuellen Wert RE0 mit einer konstanten Gordon, M. J. (1959) sowie Gordon, M. J. (1962). Nitsch, H. (2007); die Anwendung auf Aktien findet sich beispielsweise in Howells, P. / Bain, K. (2007), 178 f. 6  Vgl. 7  Vgl.

354

Harald Nitsch und Kyungsun Park

Wachstumsrate g, während sie mit dem SPC rK diskontiert werden. Für den Barwert BW des so gebildeten Einkommensstroms gilt dann (7)

¥

EW = å

t=0

REt

(1 + rK )t

¥

(1 + g)t

t=0

(1 + rK )t

= RE0 å

Die Summe konvergiert gegen (8)

EW = RE0

1+ g 1 = RE0 rK - g 1 + rK -1 1+ g

Setzt man in (6) den heutigen Reinertrag RE0 ein und (6) mit (8) gleich, so folgt für den Liegenschaftszinssatz (9)

1 = 1 + g bzw. i = rK - g i rK - g 1+ g

Wegen (9) enthält daher der Liegenschaftszinssatz neben dem Supply Price of Capital auch die erwartete Mietsteigerung. Dabei gilt (10)

¶i < 0 und ¶i > 0 ¶g ¶rK

Ein Anstieg des Liegenschaftszinssatzes lässt sich daher alternativ als gestiegene Renditeanforderungen rK oder einen Rückgang der erwarteten Mietsteigerungen interpretieren. Offensichtlich führen beide Ursachen zu einem Absinken des Verkehrswertes. Für die Verbindung zwischen Verkehrswertermittlung und Empirie der makroökonomischen Portfoliotheorie ergibt sich hieraus eine gewisse Asymmetrie: Zum einen schlagen wegen Gleichung (10) Änderungen im Rendite- und Risikogefüge, die den SPC beeinflussen, im Liegenschaftszinssatz durch. Daher können Überlegungen zur aktuellen Risiko- und Renditesituation über den SPC qualitativ auf den Liegenschaftszinssatz übertragen werden. Insbesondere ist ein Liegenschaftszinssatz zu wählen, der aktuelle Marktentwicklungen, etwa im Zuge der aktuellen Finanz- und Wirtschaftskrise, einfängt. Hinzu kommt allerdings mit der erwarteten Mietsteigerung eine lokal und nach Marktsegmenten differenzierte Komponente. Lokal und nach Marktsegmenten differenziert kann indes auch der SPC selbst ausfallen, wenn beispielsweise Risiken als unterschiedlich relevant für Teilmärkte

Tobins q aus der Perspektive der Verkehrswertermittlung

355

eingeschätzt werden. Ein Beispiel hierfür wäre das Inflationsrisiko, das unter der Prämisse, die Mieten seien an die Inflation anzupassen, kein Risiko des Realvermögens darstellen sollte. Dies ist jedoch in Regionen mit hohem Leerstand keine realistische Option8, da hier Miterhöhungen nur schwer durchsetzbar sein dürften und real ein Rückgang der Mieten die Folge wäre. Eine Auseinanderentwicklung der Liegenschaftszinssätze aufgrund von Inflation wäre die Folge. Diese führt dazu, dass andererseits Datensätze zum Liegenschaftszinssatz nicht unmittelbar geeignet sind, Veränderungen des SPC empirisch abzubilden, da der Liegenschaftszinssatz um die Mietsteigerungserwartung zu „bereinigen“ wäre. Hierzu müssten weitere Datenquellen, etwa Befragungen der Marktteilnehmer über die erwartete Mietentwicklung, erschlossen werden. Für die Wertermittlung wiederum sind diese relevanten Informationen bereits im Liegenschaftszinssatz eingepreist und daher aus Marktbeobachtungen gewonnen, so dass eine Schätzung durch den Gutachterausschuss nicht erforderlich ist. Dies ist aus der Sicht des Ertragswertverfahrens als Vorteil einzuordnen. b) Die koreanische Perspektive Zur Einordnung der Ertragswertermittlung im Fall Koreas ist zunächst ein Verständnis des koreanischen institutionellen Rahmens entscheidend. Es gibt in Korea Lizenzierungssysteme für die Sachverständige, und der Besitz einer solchen Lizenz ist die Voraussetzung für die Durchführung bestimmter Wertermittlungen. Für den Lizenzerwerb muss der Bewerber eine Prüfung bestehen, die vom Ministry of Land Transport and Maritime Affairs abgenommen wird9. Die führende Institution für die Sachverständige in Korea ist Korea Appraisal Board, welches im Jahr 1969 gegründet ist. Im Jahr 1999 wurde die Vereinigung koreanischer Sachverständiger (Korea Association of Property) gegründet. Während diese Institutionen koordinierend auf das koreanische Sachverständigenwesen einwirken, ist ihre Rolle doch von derjenigen der deutschen Gutachterausschüsse verschieden, da letztere Transaktionsdaten aus dem Markt sammeln und Sachverständigen zur Verfügung stellen. Im 8  Als praktische Anwendung sei die Beobachtung von Rhodes, F. G. zitiert „Investors are recognizing the impact of inflation and are competing strongly for properties that have good upside potential in both the annual income stream and the residual value of the asset.“ Rhodes, F. G. (1981), S. 234. 9  In Korea wurde im Jahr 1973 die Lizenz für die Bodenwertermittler und im Jahr 1974 die Lizenz für die Sachverständige eingeführt. Diese beiden Lizenzen wurden im Jahr 1989 in eine Lizenz für Sachverständige zusammengeführt.

356

Harald Nitsch und Kyungsun Park

Koreanischen System existiert keine entsprechende öffentlich geführte Kauf­preissammlung. Für die Erstellung von Gutachten wurde im Jahr 1999 die Wertermittlungsrichtlinie als Verordnung vom Ministry of Land Transport and Maritime Affairs eingeführt, welche bis zum letzten Jahr mehrmals modifiziert wurde (Ministry of Land Transport and Maritime Affairs; 2012). Gemäß der Wertermittlungsrichtlinie werden für die Wertermittlung drei Verfahren Sachwertverfahren, Vergleichswertverfahren, Ertragswertverfahren (Income Approach) – eingesetzt. Von diesen drei Verfahren ist das Sachwertverfahren am meisten angewendet, weil es in der Praxis an den notwendigen Transaktionsinformationen für die Anwendung der beiden anderen Verfahren fehlt. Während in der Praxis die Anwendung der drei Verfahren mit großen Datenproblemen verbunden ist und sehr empfindlich auf Fehler in den Eingangsgrößen reagieren kann, nimmt die Nachfrage nach Ertragswertverfahren zu. Dieser Ausbau der Ertragswertermittlung kann auf die zunehmende Investitionen von internationalen und institutionellen Investoren seit Ende 90er Jahre zurückgeführt werden. Das Ertragswertverfahren ist auf Immobilien zugeschnitten, die zum Zweck der Renditeerzielung erworben werden. Preisbestimmend sind sowohl die Erträge als auch die Kapitalisierungsrate. Da dieses Wertermittlungsverfahren sich in unterschiedlichen Ländern anders entwickelt hat, sind folgende Punkte näher zu untersuchen, um das länderspezifische Ertragsverfahren verstehen zu können. (A) welche Erträge von den investierten Immobilien zur Berechnung in Betracht kommen und (B) wie der Kapitalisierungszins berechnet wird – worin wir wiederum das empirische Gegenstück zum SPC Tobins sehen. (A) Erträge Die Ermittlung der Mieteinnahme bildet die Grundlage für die Bestimmung des Ertrags der investierten Immobilie. Wie man aus diesem Charakteristikum im Voraus entnehmen kann, sind wie im amerikanischen Ertragswertverfahren drei Ertragsdefinitionen von besonderer Bedeutung. (A1) Potential Gross Income (PGI) Das „Potential Gross Income (PGI)“ stellt den gesamten potentiellen Ertrag einer voll vermieteten Immobilie vor Abzug der Bewirtschaftungskosten dar. Unter dem potentiellen Ertrag werden nicht nur die Mieterträge

Tobins q aus der Perspektive der Verkehrswertermittlung

357

sondern auch Zinserträge aus dem Deposit und Maintenance Charge verstanden (Lee / Cheon; 2009). Da in Korea je nach den Mietverträgen der De­posit mindestens 10 Monatsmieten beträgt, sollen die Zinserträge vom Deposit zu den Potential Gross Income zusammengerechnet werden. Darüber hinaus ist Maintenance Charge in Korea i. d. R. als Pauschale erhoben und ist daher von den tatsächlichen Kosten unabhängig. Das System der relativ hohen Depositen bildet aus der Sicht der Tobinschen makroökonomischen Portfoliotheorie daher einen interessanten Sonderfall: Durch die Vermietung entsteht Geldvermögen in Form der Deposite, so dass eine „automatische“ Diversifikation zwischen dem Realvermögensgut Immobilie und dem Geldvermögensgut der – immerhin fast eine Jahresmiete betragenden – Deposite eintritt. Dies könnte im Sinne Tobins risikomindernd und letztlich dämpfend auf die Entwicklung des SPC einwirken.10 (A2) Effektive Gross Income (EGI) Das „Effektive Gross Income (EGI)“ beschreibt den erwarteten Ertrag der Objektbewirtschaftung unter Berücksichtigung von Leerstands- und Mietausfällen vor Abzug der Bewirtschaftungskosten. Das „Effektive Gross Income (EGI)“ wird häufig als Prozentsatz des in der Marktlage üblichen „Potential Gross Income (PGI)“ bestimmt. Mit der Anwendung vom „Effektive Gross Income Multiplier (EGIM)“ kann der Ertragswert (EW) aus dem „Effektive Gross Income (EGI)“ wie folgend errechnet werden (Lee / Cheon; 2009): (11)

EW = EGI X EGIM

(A3) Net Operating Income (NOI) Das „Net Operating Income (NOI)“, welches die Bezugsgröße für die Wertermittlung ist, ergibt sich aus dem „Effektive Gross Income (EGI)“ 10  Francke, H.-H. (1981), S.33 beschreibt die dämpfende Wirkung der Geldvermögensausweitung auf den SPC als Vermögenseffekt: „So erhöht z. B. eine einseitige Zunahme des Geldvermögensbestandes den Risikograd des Vermögensbestandes insgesamt, so dass sich die Portfoliodisponenten um eine entsprechende Zunahme der Realvermögenskomponente bemühen, um auf diese Weise das Gesamtrisiko wieder zu reduzieren. Der SPC würde dann sinken, d. h. der Vermögenseffekt expansiv wirken.“ Allerdings bezieht sich – im Gegensatz zu Franckes gesamtwirtschaftlicher Analyse der Staatsverschuldung – der hier angedeutete Effekt auf die Ebene der Immobilieneigentümer, so dass mögliche Rückwirkungen auf die gesamtwirtschaftliche Geldvermögensbildung selbst empirisch untersucht werden müssten.

358

Harald Nitsch und Kyungsun Park

nach Abzug aller Bewirtschaftungskosten vor Fremdkapitalkosten. Die Bewirtschaftungskosten sind die periodischen Aufwendungen zum Erhalt der Immobilie und ihres Ertrages. Sie werden unterteilt in fixe Kosten, variable Kosten und Replacement Allowance. Fixe Kosten sind solche, die konstant im Jahresablauf anfallen. Diese sind Grundsteuern und Versicherung. Variable Kosten, wie Heizung, Verwaltung und Reinigung, hängen von der Höhe des Mieteingangs ab. Die Replacement Allowance umfasst die Kosten für laufende Instandhaltungen und Rücklagen für größere Instandsetzungund Modernisierungsarbeiten. In der koreanischen Wertermittlungspraxis können für die Ermittlung der Bruttoerträge direkt die aktuellen, vertraglich vereinbarten Mietsätze von dem Bewertungsobjekt oder indirekt statistisch ermittelte Vergleichsmieten angesetzt werden. Mit dem NOI sind wir beim koreanischen Gegenstück zum Reinertrag angekommen, da sowohl die nicht umlagefähigen Bewirtschaftungskosten als auch das Mietausfallwagnis zum Ansatz gebracht werden. Insofern besteht eine inhaltliche Verwandtschaft zwischen den Gleichungen (5) und (11), da in beiden Fällen verkürzte, d. h. ohne getrennte Berücksichtigung der Bodenwertverzinsung ermittelte, Berechnungen erfolgen. Dennoch sind die Multiplikatoren nicht unmittelbar vergleichbar, da in (11) ja noch Bewirtschaftungskosten unberücksichtigt blieben, was durch den Multiplikator EGIM kompensiert werden muss. (B) Caprate Neben dem erzielbaren Ertrag ist die Caprate der zweite zentrale Begriff derjenigen Wertermittlungsverfahren, die den Marktwert aus dem Ertrag bestimmen. Für die Ableitung der Caprate steht in der Praxis eine Reihe von Methoden zur Verfügung. Die am häufigsten angewandte Methode für die Bestimmung der Caprate ist jedoch ihre Ableitung aus Transaktionen vergleichbarer Immobilien, die sogenannte Market Extraction Methode. Insofern besteht – neben Unterschieden im Detail der Umsetzung – doch auch eine grundlegende Übereinstimmung zwischen den in Korea verbreiteten Verfahren und dem normierten deutschen Ertragswertverfahren. Notwendige Voraussetzung der Market Extraction Methode ist die Verfügbarkeit ausreichender Marktdaten vergleichbarer konkurrierender Objekte. Zu den benötigten Daten der Vergleichsliegenschaften zählen: Preis, Ertrag, Bewirtschaftungskosten, Finanzierungskonditionen, Marktkonditionen zum Transaktionszeitpunkt. Der Sachverständige muss sicherstellen, dass das Net Operating Income der Objekten nach denselben Standards wie das des zu bewertenden Objekts

Tobins q aus der Perspektive der Verkehrswertermittlung

359

ermittelt wurde – eine Aufgabe, die im deutschen Ertragswertverfahren über die Normierung bzw. die Institution der Gutachterausschüsse gelöst wird. Darüber hinaus sollten Anpassungen für die zeitliche Differenz zwischen Transaktionsdatum und Bewertungsstichtag vorgenommen werden. Besondere Aufmerksamkeit erfordert die Überprüfung der Transaktionen auf den Verkaufspreis beeinflussende Umstände oder nicht marktkonforme Finanzierungskonditionen.

IV. Caprates und Mietwachstum 1. Eine Querschnittsanalyse deutscher Städte Mit Gleichung (9) scheitert die direkte Umrechnung von Liegenschaftszinssatz (deutsch) bzw. Caprate (Korea) an den in diesen Größen implizit abgebildeten Einflüssen des Mietwachstums. Um eine Umrechnung der Caprates in SPC und vice versa zu ermöglichen, wäre an der Größe g anzusetzen, die in dem – deterministischen – Modell Gordons ein Parameter des Wachstumsprozesses der Mieten ist. In der Realität bezieht sich der Kaufpreis der Immobilie auf die Erwartung hinsichtlich der Mietentwicklung und daher bei dem Parameter g ebenfalls um eine Erwartungsgröße. Um die Rolle von g zu konkretisieren setzen wir an einem Sample von 76 im Preisspiegel des IVD erfassten Städten an. Betrachtet wir der Zeitraum 2000–2010, für den ex post die Mietentwicklung in den betreffenden Städten bekannt ist. Ermittelt wird zunächst für das Jahr 2000 die Caprate, die wir als Verhältnis der Quadratmetermiete einer Dreizimmerwohnung aus dem Bestand relativ zu ihrem Kaufpreis messen. Diese Caprate wird nun durch die prozentuale Abweichung der Quadratmetermiete 2010 vom Ausgangswert 2000 erklärt (GrRent = prozentuales Mietwachstum 2000–2010). Dies impliziert die Hypothese, dass die im Jahr 2000 antizipierte Mietentwicklung mit der erst ex post mit Sicherheit bekannten tatsächlichen Mietentwicklung übereinstimmt. Schätzung 1 Caprate

=  5,11

2

R = 0,02

– 0,006 GrRent (–1,28)

76 Beobachtungen, Deutschland gesamt

Aufgrund der Partialbetrachtung ist das geringe R2 plausibel, allerdings erweist sich trotz erwartetem Vorzeichen der Koeffizient als insignifikant (lediglich ein Signifikanzniveau von 20 % wird erreicht). Die Gleichung wird nun dahingehend modifiziert, dass eine asymmetrische Reaktion auf

360

Harald Nitsch und Kyungsun Park

steigende bzw. fallende Mieten unterstellt wird. Diese lässt sich auch dahingehend interpretieren, dass die Erwartungen hinsichtlich steigender bzw. fallender Mieten lokal unterschiedlich effizient gebildet wurden, was sich auf die implizite Hypothese einer korrekten Antizipation (im Jahr 2000) unserer ex post Mietenwicklung (Informationsstand 2010) bezieht. Schätzung 2 Caprate

=  5,36

2

R = 0,08

– 0,02 GrRentsteigend + 0,01 GrRentfallend (–2,52)

(1,51)

76 Beobachtungen, Deutschland gesamt

Die Gleichung zeigt eine deutliche Asymmetrie: Für die Städte mit wachsenden Mieten im Zeitraum von 2000 bis 2010 hat das Mietwachstum das mit (10) erwartete negative Vorzeichen, wobei sich der Koeffizient mit einem t-Wert von –2,52 als signifikant zum Niveau 1,5 % erweist. Im Subsample der fallenden Mieten dagegen hat das Mietwachstum ein unerwartetes positives Vorzeichen und ist insignifikant. Sofern sich die Asymmetrien aus unterschiedlich effizienten Erwartungen der Mietsteigerung plausibilisieren lassen, ist nach Unterschieden zwischen alten und neuen Bundesländern zu fragen. Zum einen stehen den Marktteilnehmern in den alten Bundesländern längere Zeitreihen zur Erwartungsbildung der Immobilienpreisentwicklung zur Verfügung, zum anderen war diese durch staatliche Eingriffe in die Immobilienmärkte der neuen Bundesländer zusätzlich erschwert. Folgende Gleichung reproduziert den Ansatz aus Schätzung 1 für die alten Bundesländer. Wir behandeln also zunächst wieder die Reaktionsmuster in Städten steigender bzw. fallender Mieten symmetrisch: Schätzung 3 Caprate

=  5,09

R2 = 0,05

– 0,009 GrRent (–1,81)

67 Beobachtungen, alte Bundesländer

Das erwartete negative Vorzeichen des Koeffizienten bleibt erhalten, dessen Signifikanz steigt jedoch deutlich auf ein Niveau von 7 %. Insofern haben wir eine klare Verbesserung im Vergleich zur gesamtdeutschen Schätzung 1. Schätzung 4 wiederum greift die Idee der Schätzung 2 einer asymmetrischen Reaktion in Städten mit steigenden bzw. fallenden Mieten auf:

Tobins q aus der Perspektive der Verkehrswertermittlung

361

Schätzung 4 Caprate

=  5,35

– 0,02 GrRentsteigend + 0,02 GrRentfallend

(–2,94) (1,38) R2 = 0,12

67 Beobachtungen, alte Bundesländer

Die Konzentration auf die alten Bundesländer führt zu einer Verbesserung der Signifikanz des Mietwachstums in den Städten mit steigenden Mieten, die nunmehr ein Niveau von 0,5 % erreicht. Der t-Wert des Koeffizienten für Städte fallender Mieten dagegen geht nochmals zurück und bleibt damit insignifikant. 2. Grenzen des Ansatzes Obwohl die Ergebnisse der Querschnittsanalyse mit der Grundaussage des Gordon Modells vereinbar scheinen, ist der Ansatz in mehreren Richtungen zu erweitern. Zum einen ist die implizite Hypothese, die Marktteilnehmer antizipierten die Mietentwicklung, zu problematisieren. Wünschenswert wä­ ren hier direkte Befragungen von Marktteilnehmern bzw. die Beschränkung auf Informationen, die zum betreffenden Zeitpunkt (hier dem Jahr 2000) den Marktteilnehmern tatsächlich zur Verfügung standen. Zum anderen beschreibt die Querschnittsanalyse einen zeitlichen Ausschnitt, der durch eine Zeitreihenanalyse in einen breiteren Kontext zu setzen wäre. Dies würde jedoch insbesondere eine Modellierung der anderen Komponente im Liegenschaftszinssatz bzw. der Caprate erfordern – des SPC. Hierzu wären insbesondere alternative Ertragsraten und relative Risiken in eine Modellierung einzubeziehen.

V. Zusammenfassung Tobins makroökonomische Portfoliotheorie bildet das theoretische Fundament zur Ableitung des Diskontierungssatzes, mit dem Marktteilnehmer die erwarteten Einkommen aus Ertragsobjekten abzinsen. In der Praxis der deutschen und koreanischen Immobilienbewertung wird der Diskontierungssatz letztlich aus der Gegenüberstellung aus Miete und Preis gewonnen, so dass die Informationen über Erwartungen zur zukünftigen Mietentwicklung von dem so ermittelten Zinssatz implizit mitgetragen werden. Während somit Ergebnisse der Portfoliotheorie dem Praktiker Einblicke in die Rolle von Marktlagen für den Diskontierungssatz bieten, sind Caprates für Untersuchungen des SPC nur bedingt geeignet. Im Rahmen einer Querschnittsanalyse finden wir Hinweise, dass das erwartete Mietwachstum mit lokalen

362

Harald Nitsch und Kyungsun Park

Differenzen in Liegenschaftszinssätzen korreliert. Eine weitergehende Analyse würde jedoch insbesondere eine ausführlichere Modellierung der Erwartungen des Mietwachstums erfordern. Literatur Francke, H.-H. (1981): Portfolioeffekte öffentlicher Kreditnahme. Ihre Bedeutung für die private Realvermögensbildung und deren Finanzierung, Berlin. Gordon, M. J. (1959): Dividends, Earnings, and Stock Prices, in: The Review of Economics and Statistics, Vol. 41, No. 2, Part 1 (May, 1959), S. 99–105. – (1962): „The Investment, Financing, and Valuation of the Corporation“, Homewood. Howells, P. / Bain, K. (2007): Financial Markets and Institutions, Harlow. Lee, Y. H. / Cheon, S. J. (2009): A Study on the Estimation Rate for Direct Capitalization Method, Korea Real Estate Institute. Ministry of Land transport and Maritime Affairs (2012): Wertermittlungsrichtlinie. Nitsch, H. (2007): Inflation als Problem der Verkehrswertermittlung, in: Bobka, G. (Hg.): Spezialimmobilien von A–Z, S. 47–57, Bundesanzeiger Verlag Köln. Rhodes, F. Gene (1981): Inflation Discounting, How Appraisers Can Deal with Inflation, in The Appraisal Journal, April, S. 234–247. Tobin, J. (1961): Money, Capital, and other Stores of Value, in: American Economic Review. May 61, Vol. 51 Issue 2, S. 26–37. Tobin, J. (1969): A General Equilibrium Approach to Monetary Theory, in: Journal of Money, Credit & Banking, S. 15–29. Tobin, J. / Brainard, W. C. (1968): Pitfalls in Financial Model Building, in: American Economic Review. May 68, Vol. 58 Issue 2, S. 99–122. – (1977): Asset Markets and the Cost of Capital, in: Cowles Foundation Paper 440, Reprinted from Private Values and Public Policy, Esssays in Honor of William Fellner, Chapter 11, S. 235–262.

Das Vermieter-Mieter-Dilemma bei der energetischen Sanierung von Wohngebäuden – Probleme und Lösungsansätze Von Heinz Rehkugler und Jan-Otto Jandl

Prolog Mit dem Jubilar Hans-Hermann Francke verbindet mich, Heinz Rehkugler, eine nunmehr lange fachliche Zusammenarbeit und persönliche Freundschaft. Unter seinem Dekanat bin ich 1994 auf den Lehrstuhl für Finanzwirtschaft und Banken berufen worden. Er hat mir mit geschickten Argumenten den Wechsel von Bamberg an die Universität Freiburg schmackhaft gemacht. Kurze Zeit danach ist ihm die Gründung der Deutschen Immobilien Akademie als An-Institut an der Universität Freiburg (DIA) gelungen. Er hat mich damals gefragt, ob ich als sein Stellvertreter in der wissenschaftlichen Leitung der DIA arbeiten möchte. Gerne habe ich ja gesagt und seitdem meine Lehraktivitäten und vor allem meine wissenschaftliche Ausrichtung allmählich immer stärker in Richtung der Immobilienökonomie verschoben. Die Beurteilung von Formen der direkten und indirekten Immobilienprodukte als Assetklasse und Varianten der Finanzierung von Immobilieninvestments bilden seither die Schwerpunkte meiner wissenschaftlichen Arbeit. Wir haben in diesen nunmehr mehr als 15 Jahren gemeinsam viele neue Studienkonzepte erarbeitet, gemeinsam geforscht und gemeinsam Fachbücher herausgegeben. Dem jüngsten Forschungsprojekt in der DIA zur ökologischen und ökonomischen Beurteilung energetischer Sanierungen von Wohngebäuden entstammt das Thema, das ich für meinen Beitrag für diese Festschrift ausgewählt habe. Ich hoffe auf viele weitere Jahre der fruchtbaren Zusammenarbeit.

I. Das Problem Nicht nachwachsende Energien werden zunehmend knapp. Eher noch drängender sind die drohenden Klimafolgen infolge globaler Erwärmung aufgrund des hohen Ausstoßes von Treibhausgasen, insbesondere von CO2. Die Verbrennung fossiler Brennstoffe wird hierbei als hauptsächlicher Verursacher festgemacht.

364

Heinz Rehkugler und Jan-Otto Jandl

Die EU hat auf diese Entwicklungen reagiert und sich ehrgeizige Ziele der Energieeinsparung und der Reduzierung des CO2-Ausstoßes gesetzt. Die Bundesregierung ist mit ihrem Energiekonzept 2010 sogar noch über die europäischen Ziele hinausgegangen. Da neben dem Verkehr die Gebäude zu den großen Energieverbrauchern (ca. 40 % des Gesamtenergieverbrauchs der EU und auch in Deutschland) und CO2-Emittenten (ca. ein Drittel) zählen, liegt auf der Hand, dass der Verbesserung der energetischen Effizienz von Gebäuden und hier wiederum von Wohngebäuden als dem größten Teilsegment eine bedeutende Rolle zukommt. Die deutschen energiepolitischen Zielvorgaben sehen eine Reduktion des immobilienspezifischen Wärmebedarfs um 20 % bis zum Jahr 2020 und des Primärenergieverbrauchs um 80 % bis 2050 vor. Bis zum Jahr 2050 soll auch ein nahezu klimaneutraler Gebäudebestand erreicht werden. Da nur verhältnismäßig wenige Neubauten entstehen, muss das dominante Einsparvolumen durch eine Sanierung von Bestandsbauten erbracht werden. Zur Erreichung der Einsparziele wird eine jährliche Sanierungsrate von 2 % für notwendig gehalten. Der Umfang energetischer Sanierungen von Wohngebäuden bleibt aber mit ca. 1 % p. a. weit hinter dem Niveau zurück, das für das Erreichen der Energieeinspar- und Klimaschutzziele notwendig wäre. Das energiepolitische Konzept der Regierung setzt dominant auf die Prinzipien der marktwirtschaftlichen Lösung und der Freiwilligkeit. Die Erreichbarkeit der Einsparziele hängt damit wesentlich davon ab, ob es für die einzelnen Eigentümer und Investoren wirtschaftlich ist, Maßnahmen zur Steigerung der Energieeffizienz von Gebäuden in dem erforderlichen Umfang durchzuführen. Das scheint derzeit in vielen Fällen nicht der Fall zu sein. In einem eben abgeschlossenen Forschungsprojekt über die „Energetische Sanierung von Wohngebäuden – Wirtschaftlichkeit vs. Klimaschutz“ haben die Deutsche Immobilien Akademie Freiburg (DIA) und das Center for Real Estate Studies (CRES) der Steinbeis Hochschule Berlin u. a. Gründe dafür eruiert und empirische Daten zusammengetragen.1 Die Studie macht deutlich, dass besonders beim Haustyp des Nachkriegsbaus mit schlechter Bausubstanz, geringem Sanierungsniveau und damit sehr hohem aktuellem Energieverbrauch je m2 Wohnfläche die Wirtschaftlichkeitsrechnung häufig zu einem positiven Ergebnis führt. Aber für den größeren Teil der Gebäude, die später oder in besserer Qualität gebaut oder im Laufe der Zeit schon auf unterschiedlichen Niveaus saniert worden sind, fallen die erzielbaren Einsparungen zu gering aus, um die zumeist recht hohen Sanierungskosten zu kompensieren. Der größere Teil der Wohnungen in Deutschland ist in der Hand von Vermietern (ca. 54 %). Letztendlich muss wie beim Selbstnutzer die energe1  Vgl.

Rehkugler / Erbil / Jandl / Rombach (2012).



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

365

tische Sanierungsmaßnahme aus Sicht der Eigentümer wirtschaftlich erscheinen, damit eine energetische Investition überhaupt durchgeführt wird. Nun tritt aber das sog. Vermieter-Mieter-Dilemma hinzu. Denn der Vermieter trägt zwar die Kosten der energetischen Sanierung, der dadurch erreichte Vorteil der Energieeinsparung kommt aber nicht ihm zugute, sondern verringert die Nebenkosten des Mieters. Die entscheidende Frage ist damit, inwieweit er seine Sanierungskosten auf den Mieter überwälzen kann. Hier sind zum einen gesetzliche Vorgaben einzuhalten. Zum andern gilt es, die Fähigkeit und Bereitschaft der Mieter auszuloten, die überwälzten Sanierungsaufwendungen über eine Erhöhung der Mieten zu tragen. Für den Mieter wiederum sind die eingesparten Energiekosten der Grenzertrag, während die zusätzlich zu zahlende Miete seinen Grenzkosten entspricht. Diese Konstellation führt grundsätzlich zu suboptimalen Verhaltensweisen bzw. Ergebnissen: •• Entweder soll der Mieter bei Überwälzung der Sanierungskosten eine Mieterhöhung tragen, die möglicherweise weit über die bei ihm anfallende Einsparung und damit über die Minderung der Heiznebenkosten hinausgeht. •• Oder er wird, so er hierzu überhaupt Möglichkeiten sieht, dies verweigern bzw. tendenziell in eine Wohnung wechseln, die seinem Kalkül entspricht. Der Vermieter trägt dann das Risiko, dass er seine Sanierungskosten nicht voll auf den Mieter überwälzen kann, und unterlässt daher notwendige bzw. grundsätzlich sinnvolle Maßnahmen. Die Erreichung der Einspar­ ziele der Regierung wird dadurch gefährdet. Der folgende Beitrag wird zuerst die hauptsächlichen Einflussfaktoren auf das Vermieter-Mieter-Dilemma aufzeigen (Kapitel II.), dabei speziell die rechtlichen und faktischen Möglichkeiten der Überwälzung der Sanierungskosten beleuchten, und dann in Kapitel III. einige Vorschläge diskutieren, dieses Vermieter-Mieter-Dilemma zu lösen, zumindest zu entschärfen.

II. Einflussfaktoren der Vorteilhaftigkeit energetischer Sanierungsmaßnahmen aus Vermieterund Mieterperspektive Die Vorteilhaftigkeit energetischer Sanierungen aus Vermietersicht hängt auf der einen Seite von den Kosten der energetischen Sanierung, den Finanzierungsmöglichkeiten und den hierzu verfügbaren öffentlichen Hilfen ab. Dem stehen auf der anderen Seite die erhöhten Mieteinnahmen (und andere evtl. den Wert der Immobilie erhöhende Faktoren) gegenüber. Erträge wie Aufwendungen sind steuerlich zu berücksichtigen. Für das Mieterhöhungs-

366

Heinz Rehkugler und Jan-Otto Jandl

potenzial entscheidend ist die Höhe der möglichen Überwälzung der Sanierungskosten auf die Mieter. Sie hängt einerseits von den gesetzlichen Beschränkungen im Mietrecht und andererseits von der durch die Situation am Mietmarkt geprägten Zahlungsbereitschaft der Mieter ab. 1. Sanierungskosten und Förderprogramme Die Kosten einer energetischen Sanierung von Wohngebäuden sind ex ante schwer zu bestimmen. Sie zeigen von Immobilie zu Immobilie beträchtliche Unterschiede und differieren zum ersten wegen ihrer großen Heterogenität nach dem Alter, den Haustypen, Bauarten und energetischen Zuständen vor der Sanierung, zum zweiten wegen der Vielzahl der möglichen Kombinationen und Ausführungsarten von Sanierungsmaßnahmen, zum dritten wegen des unterschiedlichen unterstellten Ausgangs- und Zielniveaus des energetischen Zustands und zum vierten wegen der unterschiedlichen Auslegung des Kopplungsprinzips. Fast durchgängig wird in Wirtschaftlichkeitsstudien das Kopplungsprinzip unterstellt, also angenommen, dass die energetische Sanierung dann durchgeführt wird, wenn ohnehin eine Modernisierung oder Sanierung des Gebäudes ansteht. Denn dann lassen sich die Gesamtkosten der Maßnahme in die Ohnehin-Kosten und die energetischen Mehrkosten aufteilen. Eine isolierte energetische Sanierung erweist sich fast nie als wirtschaftlich.2 Allerdings wirft die Abgrenzung der Zusatzkosten von den Ohnehin-Kosten praktische Probleme auf. Dies zeigt sich in den großen Streubreiten des Ansatzes der energetischen Mehrkosten. Zusätzliche Kosten können beim Vermieter durch Mietkürzungen oder andere Unterbringungen während der Baumaßnahmen anfallen. Die folgende Übersicht zeigt die Streubreite der vollen wie der reinen Mehrkosten einer energetischen Sanierung in verschiedenen empirischen Untersuchungen, die bei einer Sanierung auf das von der EnEV 2009 für Bestandsbauten vorgeschriebene Niveau zu erwarten sind. Sollen höhere Niveaus der Energieeffizienz erreicht werden, dann steigen die energetischen Mehrkosten kräftig an und beeinträchtigen damit zumeist die Wirtschaftlichkeit der Maßnahme.3 Auf der Finanzierungsebene ist neben der Frage der Kapitalaufbringung und den zu zahlenden Zinssätzen die steuerliche Behandlung von Sanierungsmaßnahmen zu beachten. Sowohl die Fremdfinanzierungskosten als auch die Sanierungsaufwendungen selber sind grundsätzlich als Aufwand sofort absetzbar. Fördermöglichkeiten bestehen vorrangig durch zinsgünsti2  Vgl. 3  Vgl.

Henger / Voigtländer (2012). Rehkugler / Erbil / Jandl / Rombach (2012), S. 74 ff.



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

367

Tabelle 1 Gesamt- und Mehrkosten energetischer Sanierungen Vollkosten

Energiebedingte Mehrkosten

€ / m

€ / m2a

Anteil an Vollkosten

€ / m2

€ / m2a

IWU 2008 (1969–1978)

340

25,0

38

130

 9,6

IWU für BSI 2008 (1958–1968)

355

26,1

54

190

14,0

ARGE 2011 (unsaniert zu KfW 115)

539

39,7

34

183,3

13,5

ARGE 2011 (unsaniert zu KfW 100)

630

46,4

35

220,7

16,2

ARGE 2011 (unsaniert zu KfW 85)

660

48,6

34

224,4

16,5

ARGE 2011 (unsaniert zu KfW 70)

736

54,2

34

250,4

18,4

IWU für vdw 2007

324

23,8

53

173

12,7

IWU 2008 (1969–1978)

250

18,4

40

100

 7,4

IWU für BSI 2008 (1958–1968)

209

15,3

55

115

 8,5

IWU für GEWOBAU 2009

205

15,1

61

126

 9,3

Dena 2010 (KfW 100)

275

20,2

29

 80

 5,9

Dena 2010 (KfW 85)

310

22,8

35

 10

 8,1

Dena 2010 (KfW 55)

420

30,9

55

230

16,9

Empirica / LUWOGE 2010 (1861–1918)

460

33,8

41

189

13,9

Empirica / LUWOGE 2010 (1919–1948)

458

33,7

43

199

14,6

Empirica / LUWOGE 2010 (1949–1957)

323

23,8

50

163

12,0

Empirica / LUWOGE 2010 (1958–1983)

512

37,7

44

223

16,4

Empirica / LUWOGE 2010 (GMH)

446

32,8

35

157

11,6

ARGE 2011 (unsaniert zu KfW 115)

367

27,0

33

121

 8,9

ARGE 2011 (unsaniert zu KfW 100)

383

28,2

33

126

 9,3

ARGE 2011 (unsaniert zu KfW 85)

460

33,8

45

207

15,2

ARGE 2011 (unsaniert zu KfW 70)

496

36,5

43

213

15,7

Ein- und Zweifamilienhäuser

Mehrfamilienhäuser

Quelle: Henger / Voigtländer (2012), S. 28.

ge Sanierungskredite oder Investitionszuschüsse der KfW.4 Die Förderungen begünstigen hier aber nicht ausschließlich den Vermieter. Denn der rechnerische Zinsvorteil bei Inanspruchnahme von Fördermitteln verringert nach 4  Vgl.

hierzu ausführlicher Rehkugler / Erbil / Jandl / Rombach (2012), S. 77 ff.

368

Heinz Rehkugler und Jan-Otto Jandl

§ 559a, Abs. 2 BGB von Betrag der zulässigen Mieterhöhung. Die Inanspruchnahme von Förderungsmöglichkeiten kommt somit, das ist sachlich vernünftig, durch einen geringeren Mietzuschlag indirekt dem Mieter zu. 2. Überwälzbarkeit nach dem geltenden Mietrecht Die rechtlichen Möglichkeiten für Mieterhöhungen nach energetischen Sanierungen sind im BGB (§§ 558–560) geregelt. Zur Refinanzierung von Sanierungsmaßnahmen stehen dem Vermieter grundsätzlich zwei Möglichkeiten der Mieterhöhung zur Verfügung. Nach § 558 BGB kann der Vermieter die Zustimmung des Mieters zu einer Mieterhöhung verlangen, wenn die Miete seit 15 Monaten unverändert und die Miete innerhalb der letzten 3 Jahre nicht um mehr als 20 % (sog. Kappungsgrenze nach § 558 Abs. 3 BGB) erhöht wurde. Der Vermieter kann jeweils Mietspiegel, Mietdatenbank, Gutachten oder mindestens 3 Vergleichswohnungen zur Begründung der Mieterhöhung heranziehen. Bisher werden energetische Komponenten, oder sogar aktuelle Energiestandards, durch die ein weiterer Anreiz zur Sanierung entstehen könnte, jedoch nicht flächendeckend in Mietspiegeln ausgewiesen. Unabhängig von der Regelung des § 558 BGB sieht das Mietrecht mit § 559 BGB eine explizite Mieterhöhungsmöglichkeit für Vermieter vor, die Maßnahmen zur nachhaltigen Einsparung von Energie und Wasser eines Wohngebäudes durchführen. Dadurch können Vermieter 11 % der Kosten, beispielsweise energetischer Sanierungsmaßnahmen, jährlich auf den Mieter umlegen. Diese Regelung gilt unabhängig von der regulären Mieterhöhung nach § 558 BGB. Die üblichen Begrenzungen zur Mieterhöhung nach § 558 BGB, wie etwa die Kappungsgrenze, gelten für diese besondere Form der Mieterhöhung nicht. Beide Mieterhöhungsvarianten können somit kumuliert werden. Die Höhe der nach § 559 BGB umlagefähigen Sanierungskosten umfasst nicht die gesamten energetisch relevanten Kosten, sondern lediglich die über die notwendigen Instandhaltungskosten (= Ohnehin-Kosten) hinausgehenden Mehrkosten, die durch die Verbesserung des energetischen Standards anfallen. Auf die praktischen Abgrenzungsprobleme bei der Herausrechnung des umlagefähigen Sanierungsanteils und die Anforderungen an die Nachweise dieser Kostenanteile weist insbesondere die InWIS-Studie hin.5 Die Überwälzungsmöglichkeit von jährlich 11 % der energetischen Sanierungskosten legt nahe, dass der Vermieter damit problemlos seine volle 5  Vgl.

Neitzel / Dylewski / Pelz (2011), S. 31 ff.



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

369

Investitionssumme in überschaubarer Zeit amortisiert hat. Von Mietervertretern wird sie daher oft sogar als unangemessen hoch gesehen. Die Miet­ erhöhungen nach § 559 BGB werden aber Bestandteil der Grundmiete und „sind deshalb bei späteren Mieterhöhungen nach § 558 BGB in die Ausgangsmiete einzurechnen“.6 Der Zuschlag wird damit im Zeitverlauf durch die regulären Mieterhöhungen aufgezehrt.7 Die Ausgangsmiete vor Sanierung im Vergleich zur Marktmiete und deren Veränderungsrate bestimmen also, wie stark die Mieterhöhungsmöglichkeit nach § 559 BGB tatsächlich als ökonomischer Vorteil wirkt. 3. Faktische Überwälzbarkeit der Sanierungskosten am Mietmarkt Die gesetzlichen Vorschriften zu Mieterhöhungen nach energetischen Sanierungen setzen nur den Rahmen. Über die tatsächliche Überwälzbarkeit entscheidet der Mietmarkt. In vielen Berechnungen wird schlicht davon ausgegangen, dass das Marktumfeld Mieterhöhungen im gesetzlichen Rahmen zulässt. Es verwundert wenig, wenn sich dann zumeist die energetischen Sanierungen als wirtschaftlich sinnvoll erweisen. Der Mietmarkt lässt aber offenbar häufig eine volle Überwälzung nicht zu. Um das Überwälzungspotential abschätzen zu können, gilt es, das ökonomische Kalkül des Mieters und seine generelle Situation näher zu beleuchten. Bei rationaler Abwägung sollte der Mieter bereit sein, eine Mieterhöhung zu akzeptieren, die seinen Einsparungen an Heizkosten entspricht, die er nach der energetischen Sanierung bei gleichem Heizverhalten erzielt. Die durchschnittlichen Mietnebenkosten für Heizwärme betrugen in 2011 nach Angaben des Heizspiegels des Deutschen Mieterbundes je nach Energieart zwischen 0,85 € (Gas) und 1,06 € (Öl) je m2 / Monat. Dem entspricht eine durchschnittliche Energieverbrauchsmenge von 126–150 kWh / m2 / Jahr. Bei unsanierten Gebäuden sind durchaus auch Verbrauchswerte um 200  kWh / m2 / Jahr und höher denkbar. Vom angestrebten energetischen Niveau hängt ab, wie viel davon durch eine Sanierung eingespart werden kann. Sanierungen auf das nach der EnEV 2009 vorgeschriebene Niveau dürften im Schnitt den Heizenergieverbrauch um die Hälfte senken. Das entspräche damit aktuellen monatlichen Senkungen der Heiznebenkosten von 0,43–0,53  € / m2 bei durchschnittlichen Verbräuchen bzw. ca. 0,75 € / m2 bei Verbräuchen vor Sanierung um ca. 200 kWh / m2 / Jahr. Höhere Einsparniveaus müssen auch mit höheren Sanierungskosten erkauft werden. 6  So

der BGH, Urteil vom 07.10.2007, VIII ZR 332 / 06. DENA (2006), S. 41.

7  Vgl.

370

Heinz Rehkugler und Jan-Otto Jandl

Bei einer Erhöhung der Kaltmiete um diese Beträge wäre dann die sog. Warmmietenneutralität gegeben. Denn die Kaltmietenerhöhung würde genau durch die Senkung der Heiznebenkosten ausgeglichen. Hier sind allerdings zwei „Stolperfallen“ zu beachten. Zum ersten bleibt bei Annahme laufend steigender Energiepreise die jährliche Einsparung nicht konstant, sondern steigt von Jahr zu Jahr an. Damit macht es wenig Sinn, die aus Sicht des Mieters akzeptable Mieterhöhung an den Einsparungsbetrag des ersten Jahres nach der Sanierung zu knüpfen. Vielmehr ist, wenn beim Mieter Kostenneutralität angestrebt wird, die Mieterhöhung so anzusetzen, dass sie über die gesamte Zeit gerechnet dem Barwert der bei ihm über die gesamte Nutzungsdauer der sanierten Gebäudeteile anfallenden Energieeinsparungen entspricht. Diese kann in Annuitäten umgerechnet werden. Die Differenz zwischen der „einfachen“ Warmmietneutralität und dem Barwert der künftigen Energieeinsparungen hängt ausschließlich von der Höhe der erwarteten Energiepreissteigerungen ab. Bei einem Ausgangspreis von z.  B. 7 Ct  /  kWh und einer jährlichen Steigerungsrate von 3  % liegt die durchschnittliche Einsparung bei einer angenommenen Nutzungsdauer von 30 Jahren um ca. 53 % über der anfänglichen Einsparung. In diesem Fall würde also eine Mieterhöhung, die 53 % über die anfänglichen Einsparungen hinausgeht, den Mieter gerade durchschnittlich mit Zusatzkosten belasten, die durch seine Einsparungen gedeckt sind. Das würde für den Mieter aber bedeuten, dass er in den ersten Jahren mehr bezahlen müsste, als seinen Einsparungen entspricht. Der Ausgleich würde über die späteren höheren Einsparungen erreicht. Diese Verrechnungslogik wird vielen Mietern sicher schon aus Gründen der zeitlichen Verteilung der finanziellen Belastungen nicht gefallen. Damit sind wir bei der zweiten Stolperfalle. Nutzt der Mieter die Wohnung nicht in diesem gesamten Zeitraum, dann zahlt er anfangs die höhere Miete, ohne vom späteren Ausgleich zu profitieren. Er hat dann während seiner Mietzeit Kompensationsmietzahlungen erbracht, die über seine Einsparungen hinausgehen. Diese wird er nicht zu leisten bereit sein. Der Vermieter wiederum wird seine anfänglichen Sanierungskosten auf die Miete überwälzen und sie am besten in gleichen Annuitäten auf die Miete aufschlagen wollen, da dies ja auch, wenn er z. B. über einen Annuitätenkredit finanziert, seinen Belastungen entspricht. Wie oben gezeigt, liegen nun aber die energetischen Sanierungskosten und der nach Mietrecht davon überwälzbare 11-prozentige Anteil in aller Regel weit über den anfänglichen Einsparungen. Schon bei 200 € / m2 Sanierungskosten errechnet sich eine rechtlich zulässige monatliche Mieterhöhung von 1,83  € / m2 Wohnfläche, die ein Mehrfaches über der (anfänglich) erzielbaren Einsparung für den Mieter liegt. Warum soll er eine solche Steigerung hinzunehmen bereit sein?



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

371

Es gibt allerdings auch abweichende Positionen zur Frage der Akzeptanz von Überwälzungen energetischer Sanierungskosten. Laut einer Repräsentativ-Umfrage der Gesellschaft für Konsumforschung (GfK) im Auftrag des Verbands bayerischer Wohnungsunternehmen (VBW) aus dem Jahr 2007 ist die Mehrzahl der Mieter nicht bereit, sinkende Energiekosten mit einer steigenden Kaltmiete zu verrechnen.8 Fast die Hälfte der Mieter ist danach der Ansicht, dass Sanierungskosten voll durch den Vermieter getragen werden sollten. Die Überwälzbarkeit wird damit zusätzlich von der Situation am Mietmarkt und von der finanziellen Lage der Mieter abhängen. In manchen Teilmärkten, wo einem großen Angebot an Mietwohnungen eine eher geringe Nachfrage gegenüber steht, kann die Zahlungsbereitschaft der Mieter früh ausgereizt sein. Gleiches gilt für bestimmte Mieterschichten, die aufgrund ihrer Einkommenssituation nur wenig Spielraum für erhöhte Mieten haben. Mieterhöhungen werden in solchen Teilmärkten somit nicht leicht akzeptiert. Es gilt ja ohnehin zu bedenken, dass – wenn wir konsequent am Kopplungsprinzip festhalten, das sich als eine wesentliche Grundlage der Wirtschaftlichkeit der Sanierungsmaßnahmen gezeigt hat – die anstehende Mieterhöhung nicht allein durch die energetische Sanierung ausgelöst ist, sondern von anderen zumeist ebenfalls wohnwerterhöhenden Modernisierungsmaßnahmen begleitet wird. Für den Mieter gilt es dann nicht nur die Mieterhöhung aufgrund der energetischen Sanierung zu verkraften, was ihm (Stichwort Warmmietenneutralität) wohl oft isoliert gesehen noch zumutund tragbar erschiene. Vielmehr wird er oft mit einer Gesamtmieterhöhung in weit größerem Umfang konfrontiert, die dann insgesamt sein verfügbares Einkommen erheblich zusätzlich belastet. Dass dann die Widerstände größer und der Spielraum des energetischen Sanierungsanteils an den insgesamt überwälzbaren Modernisierungskosten geringer wird, versteht sich von selbst. Die aktuelle Situation in einigen Ballungszentren bestätigt dies. Anders sieht die Situation in Teilmärkten mit hohem Nachfrageüberhang bzw. bei zahlungskräftigen Mieterschichten aus. Hier lassen sich Mieterhöhungen sicher leichter durchsetzen. Leider fehlt es noch an wirklich überzeugenden, flächendeckenden Untersuchungen, wie die Marktteilnehmer reagieren und auf welchen Märkten eine Überwälzung der energetischen Sanierungskosten in welchem Umfang möglich sein wird. Letztlich lässt sich in empirischen Untersuchungen von Mietdifferenzen sanierter und unsanierter Wohnungen nicht das Überwälzungspotential, sondern lediglich das tatsächliche Überwälzungsverhalten der Vermieter feststellen. Möglicherweise reizen Vermieter ihr Überwälzungspotential ja gar 8  Vgl.

GfK (2007).

372

Heinz Rehkugler und Jan-Otto Jandl

nicht völlig aus. Dies wird z. B. bei Genossenschaften oder kommunalen Gesellschaften der Fall sein, wenn bewusst einkommensschwache Mieterschichten geschont werden sollen.9 Auch bei privaten Vermietern wird möglicherweise oft die gute langjährige Vermieter-Mieter-Beziehung nicht durch das maximale Ausschöpfen des Marktpotentials beschädigt. Nur wenn man unterstellt, dass Vermieter das Maximale dessen, was der Markt (= ihr Mieter) zu akzeptieren bereit wäre, auch tatsächlich als Mieterhöhungen ansetzen, fielen Überwälzungspotential und faktisches Mieterhöhungsverhalten zusammen. Im Folgenden werden einige schon vorliegende Untersuchungen zur Höhe der Überwälzbarkeit vorgestellt, dann gezeigt, wie groß nach den Mietspiegeln einiger Städte die Mietunterschiede zwischen sanierten und unsanierten Wohnungen sind, und anschließend die Ergebnisse einer eigenen bundesweiten Befragung präsentiert und zur Diskussion gestellt. a) Bisherige Untersuchungen Eine wertvolle Studie zum Sanierungsverhalten der Vermieter und ihrer Mieterhöhungsreaktion hat die KfW in Zusammenarbeit mit dem IW erarbeitet.10 Die breite (5.546 Antworten) Befragung von Wohngebäudesanierern ist insofern aber nicht repräsentativ für alle Wohnungseigentümer, die saniert haben, als nur solche einbezogen wurden, die über die KfW ein Förderprogramm in Anspruch genommen haben. Nach der Studie lagen die durchschnittlichen Sanierungskosten (Median) bei den privaten Haushalten bei 312 € / m2, die energetischen Mehrkosten bei 230  € / m2. Weit höher in den Sanierungskosten lagen die Unternehmen. Sie führten meist Gesamtsanierungen durch und kamen dabei auf durchschnittliche Kosten von 622 € / m2 mit einem Anteil energetischer Sanierungen von immerhin 320  € / m2. Auffällig ist, dass die privaten Vermieter und die Unternehmen in deutlich unterschiedlichem Niveau die Sanierungskosten über Mieterhöhungen weitergegeben haben. Während die privaten Vermieter die Mieten nur um durchschnittlich 10 % erhöhten, lag die Erhöhung bei den Unternehmen bei 27 % im Durchschnitt. Auch bei Berücksichtigung des Sanierungsumfangs bleibt ein beträchtlicher Unterschied bestehen. Die Prozentaufschläge der Mieterhöhungen streuen erheblich. Immerhin 46 % der privaten Vermieter 9  Dafür spricht, dass bei der Auswertung von Henger / Voigtländer (2011) die Genossenschaften und sonstigen Gesellschaften deutlich niedrigere Mieterhöhungen realisiert haben als die privaten Unternehmen. 10  Vgl. KfW / IW (2010).



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

373

hielten ihre Miete nach der Sanierung konstant, während dies nur bei 9 % der Unternehmen der Fall war11 und sogar ca. 20 % der Unternehmen Mietsteigerungen von über 50 % durchgesetzt haben. Erstaunlicherweise waren bei allen Gruppen sogar vereinzelt auch Mietsenkungen zu verzeichnen. Henger / Voigtländer12 haben, auf dieser Befragung aufsetzend, weitere Analysen vorgenommen. Die durchschnittliche absolute Mieterhöhung betrug im Median 0,55 € / m2 bzw. 0,82  € / m2 im arithmetischen Mittel. Daraus errechnet sich eine durchschnittliche Netto-Anfangsrendite von 1,5 % im Median bzw. 2,3 % im arithmetischen Mittel. Dies deckt die Sanierungskosten keineswegs ab bzw. führt zu keiner angemessenen Kapitalrendite. In Regressionsschätzungen versuchen Henger / Voigtländer dann, Einflussfaktoren der Mieterhöhung zu identifizieren. Ein positiver Zusammenhang mit der Höhe der Sanierungskosten ist eindeutig. Regionale Effekte konnten nicht nachgewiesen werden. Aber der plausible Zusammenhang zur Marktlage bestätigt sich: In Märkten mit höherem Leerstand lassen sich Mieterhöhungen schwerer durchsetzen; liegen Mieten unter dem Durchschnitt, sind Mietanhebungen leichter zu realisieren. Sanierungen auf sehr niedrige Verbrauchsniveaus lassen offenbar deutlich leichter Mieterhöhungen zu als andere. Die Deutsche Energie-Agentur (2010) untersucht in einer empirischen Analyse für sehr renovierungsbedürftige Gebäude das Mieterhöhungspotential. Auf Grundlage von 32 Beobachtungen, bei denen sowohl Daten über die aktuelle Miethöhe als auch die ortsübliche Vergleichsmiete vorliegen, stellt sich heraus, dass die Nettokaltmieten bei 30 Objekten teilweise deutlich unter der ortsüblichen Vergleichsmiete liegen und sich somit bei energetischen Sanierungen ein großes Mieterhöhungspotential schon nach § 558 BGB ergibt. Somit legt die Studie den Schluss nahe, dass das Vermieter-Mieter-Dilemma zumindest bei stark sanierungsbedürftigen Wohnungen keine große Relevanz besitzt und sich die Sanierungskosten über eine höhere Miete vom Vermieter auf die Mieter überwälzen lassen. Dass könnte allerdings eine falsche Überlegung sein, wenn man die Mieterklien­ tel und deren Belastungsfähigkeit mit berücksichtigt. Denn die Mieten vor der Sanierung werden ja nicht ohne Bedacht so niedrig gehalten worden sein.

11  Hier divergieren die Zahlen zu der Folgeuntersuchung, Henger / Voigtländer (2011) nennen ca. 20 % der Unternehmen, die ihre Miete konstant gehalten haben. 12  Vgl. Henger / Voigtländer (2011).

374

Heinz Rehkugler und Jan-Otto Jandl

b) Tatsächliche Mieten sanierter und unsanierter Wohnungen in Mietspiegeln Hinweise auf Mietdifferenzen zwischen energetisch unsanierten und sanierten Wohnungen und damit auf das Überwälzungspotential energetischer Sanierungskosten könnten die Mietspiegel liefern. Allerdings setzt dies voraus, dass dort überhaupt energetische Merkmale als miethöhenrelevant erkannt und erfasst werden. Das ist zu großen Teilen immer noch nicht der Fall,13 auch wenn zunehmend Städte ihren Mietspiegel auch nach diesen Kriterien ausrichten. Verständlicherweise können die Mietspiegel, die überhaupt energetische Merkmale erfassen, noch nicht die Mietdifferenzen enthalten, die sich aus Sanierungen entsprechend der EnEV 2009 ergaben. Ebenso wird man davon ausgehen müssen, dass das Sanierungsniveau der einzelnen Gebäudekomponenten in Mietspiegeln nur eher pauschal, also nicht nach tatsächlichen Verbrauchswerten differenziert erfasst wird. So stellt der Stuttgarter Mietspiegel eine Differenz der Kaltmieten von 5 % fest. In Berlin lässt sich keine energetisch begründete Mietdifferenz identifizieren. Frankfurt nennt Mietaufschläge sanierter Wohnungen von 2,8 %–6,5 %, Darmstadt zwischen 5,6 % und 7,4 %. In Potsdam streuen offenbar die Kaltmieten mit dem energetischen Zustand am stärksten. Es lassen sich Unterschiede zwischen 0 und 1,30 € / m2 je nach Lage ausmachen. Vergleichsweise hoch liegt der für Dortmund ermittelte Aufschlag von durchschnittlich 18 % der Kaltmiete. Folgte man den Mietspiegeln, wäre der Überwälzungsspielraum also relativ gering. Dies liegt sicher zu Teilen an der noch zu wenig differenzierten Erfassung dieser mietwertrelevanten Merkmale generell und den zu geringen Fällen energetischer Sanierungen nach hohen Standards. c) Eigene Primärerhebungen zum deutschen Wohnimmobilienmarkt Um trotz dieses Mangels zu einer ungefähren Quantifizierung der Höhe des Spreads zwischen den Mieten energetisch sanierter und nicht sanierter Wohnungen zu gelangen, haben wir eine bundesweite Umfrage unter Maklern und Sachverständigen durchgeführt.14 Über eine Internet-Umfrage wurden die Mitglieder des IVD befragt. Von den insgesamt 412 eingehenden Antworten konnten aufgrund teilweise feh13  Neitzel / Dylewski / Pelz (2011), S. 98, nennen 48 % der Mietspiegel, die in 2008 keine energetischen Differenzierungsmerkmale aufwiesen. 14  Eine umfangreichere Darstellung der Vorgehensweise und der Ergebnisse findet sich in Rehkugler / Erbil / Jandl / Rombach (2012), S. 185 ff.



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

375

lender Angaben nur knapp 300 in die Auswertung einbezogen werden. Dabei ging es uns zum einen um eine möglichst ganz Deutschland abdeckende Informationsbasis, zum andern um den Versuch einer Differenzierung der Überwälzungsmöglichkeit nach bestimmten Teilmärkten. Unsere Ausgangshypothesen hierfür waren: •• Räumlicher Teilmarkt: In nachfragegeprägten Märkten wie bspw. München oder Hamburg dürfte die Überwälzung eher und in größerem absoluten und relativen Umfang möglich sein als in Märkten mit Angebotsüberhang wie bspw. in vielen ländlichen Regionen. •• Einkommenssituation der Mieter: Mieter mit guter finanzieller Ausstattung dürften eher bereit und auch in der Lage sein, sich an Sanierungskosten zu beteiligen, als Mieter mit schlechter finanzieller Ausstattung. Als Proxy für die Einkommenssituation der Mieter soll hier die Lagequalität der Wohnung dienen, die sich in der relativen Höhe der Miete im jeweiligen räumlichen Teilmarkt widerspiegelt. Interessanterweise war für etwa die Hälfte der Antwortenden in den von ihnen beobachteten Teilmärkten kein signifikanter Unterschied zwischen den Wohnungsmieten für energetisch sanierten und unsanierten Wohnraum erkennbar. Aus den Angaben der anderen Befragten ergaben sich aber auswertbare Unterschiede zwischen den durchschnittlichen Mietpreisen pro m2 Wohnfläche für energetisch sanierten Wohnraum. Auf dem städtischen Teilmarkt waren in einfachen Lagen die Mietpreise für sanierten Wohnraum mit durchschnittlich 6,18  € / m2 etwa 17 % höher als für unsanierten Wohnraum (5,28  € / m2). Für mittlere Lagen betrug die durchschnittliche Miete in sanierten Wohnungen 7,46  € / m2 und lag damit 16 % höher als für unsanierten Wohnraum (6,43  € / m2). Die Mieten für sanierten Wohnraum in guten Lagen waren nach den Angaben im Durchschnitt mit 9,02 € / m2 etwa 15 % höher als in unsanierten Gebäuden (7,86 €  /  m2). Die relativen Mietunterschiede zeigen also überraschenderweise kaum eine Differenz. Auf dem ländlichen Teilmarkt, der wesentlich häufiger als in den Städten Angebotsüberhänge aufzuweisen hat, liegt zwar das absolute Mietniveau deutlich niedriger, aber die relativen Unterschiede zwischen den durchschnittlichen Mietpreisen sind nur unwesentlich geringer. In einfachen Lagen betrugen die Mietpreise für sanierten Wohnraum 4,32 € / m2 und lagen damit etwa 16 % höher als für unsanierten Wohnraum (5,04 € / m2). In mittleren Lagen betrug die Miete für unsanierten Wohnraum 5,23 € / m2 und für sanierten Wohnraum 5,98  € / m2 (+  14  %). Diese Differenz lag in guten Wohnlagen mit Mieten von 6,97 € / m2 für sanierten und 6,21 € / m2 für unsanierten Wohnraum bei etwa 12 %. Die Ergebnisse deuten somit – zumindest im Durchschnitt – auf eine signifikante Wirkung energetischer Sanierungen auf die Mietpreise hin, die

376

Heinz Rehkugler und Jan-Otto Jandl

über die Differenz in den Mietspiegeln deutlich hinausgeht. In Märkten mit einem Angebotsüberhang müsste sich zeigen, dass dort sanierungsbedingte Mieterhöhungen nicht im gleichen Umfang durchgesetzt werden können. Da die energetischen Sanierungskosten, wenn auf gleiche Niveaus saniert wird, unabhängig von der Marktsituation sein dürften, müssten idealtypisch die absoluten Mietdifferenzen in den Marktsegmenten gleich groß ausfallen. Je höher die absoluten Mieten sind, desto geringer müssten dann die relativen Mietdifferenzen zwischen sanierten und unsanierten Wohnungen sein. Der Mieter wird ja auch durch die Sanierung Heizkosteneinsparungen erzielen, die unabhängig von der Marktsituation und von der absoluten Miethöhe sind. Lassen sich empirisch höhere relative Mietsteigerungen bei guten Lagen (verbunden mit absolut höheren Mietsteigerungen) beobachten, dann könnte dies als Indiz gewertet werden, dass sich bei höheren Einkommen und absolut höheren Mieten leichter Sanierungskosten überwälzen lassen. Wie Abbildung 1 verdeutlicht, fällt der absolute durchschnittliche Miet­ aufschlag in nachfragegeprägten städtischen Teilmärkten durchweg höher aus als in angebotsgeprägten Märkten. Dabei nimmt der absolute Mietaufschlag in nachfragegeprägten Märkten mit der Qualität der Lage deutlich zu. Diese Tendenz ist dagegen in angebotsgeprägten Märkten nicht erkennbar. Hier kann in besseren Lagen sogar ein absolut niedrigerer Mietaufschlag als in mittleren oder einfachen Lagen beobachtet werden, der schwer erklärbar ist. Auch die relativen Mietaufschläge fallen im Schnitt in nachfragegeprägten Märkten in allen Lagen ähnlich hoch aus und unterscheiden sich im Durchschnitt auch nicht stark von den Aufschlägen in Märkten mit Angebotsüberhang. Dort findet sich sogar das überraschende Ergebnis, dass die relativen Mietaufschläge für einfache Lagen deutlich höher ausfallen als für bessere Lagen. In ländlichen Teilmärkten bestätigen sich, auf niedrigerem absolutem Niveau, grosso modo die für die städtischen Märkte gesammelten Beobachtungen. Zwar fallen die absoluten Mietaufschläge im Schnitt niedriger aus als in städtischen Märkten. Dennoch steigen hier einerseits die absoluten Aufschläge im nachfragegeprägten Umfeld ebenso mit der Lagequalität. Andererseits nehmen die relativen Mietaufschläge in nachfragegeprägten Märkten mit im Schnitt 16 % etwa die Werte der städtischen Teilmärkte an. Schlussendlich erhärten die Ergebnisse der Umfrage, dass Überwälzungen in nachfragegeprägten Märkten im absoluten Umfang tendenziell deutlich höher ausfallen als in Märkten mit Angebotsüberhängen. Auch zwischen den regionalen Teilmärkten mit Nachfrageüberhängen unterscheiden sich – wie vermutet – die beobachteten absoluten Mieterhöhungen. In städtischen Teilmärkten liegt die Miete in sanierten Wohnungen zwischen 0,90 und 1,30  € / m2 höher als in unsanierten Wohnungen. Dieser Richtwert lässt ver-



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden 2,00

€/m2

1,80

einfache Lage

mittlere Lage

377 20%

gute Lage

18%

1,60

16%

1,40

14%

1,20

12%

1,00

10%

0,80

8%

0,60

6%

0,40

4%

0,20

2%

0,00

Stadt – Nachfrageüberhang

Stadt – Angebotsüberhang

Stadt – Nachfrageüberhang

Absolut

Stadt – Angebotsüberhang

0%

Relativ

Quelle: Eigene Berechnungen

Abbildung 1: Absolute und relative Mietaufschläge in städtischen Märkten

muten, dass viele Vermieter das gesetzlich mögliche Überwälzungspotential nicht ausschöpfen können. Im ländlichen Teilmarkt sind die Aufschläge mit etwa 0,80 bis 1,00 €  /  m2 etwas niedriger. In angebotsgeprägten Märkten konnten zwar absolute Mietaufschläge in Höhe von 0,70 bis 0,80 €  /  m2 2 (Stadt) bzw. etwa 0,60 € / m (Land) beobachtet, jedoch keine signifikanten Zusammenhänge mit der Lagequalität erkannt werden. Die Befragung von Fachleuten weist eindeutig darauf hin, dass Mieterhöhungspotential bei energetischen Sanierungen vorhanden ist. Die beobachteten absoluten und relativen Höhen lassen jedoch den Schluss zu, dass die tatsächlich möglichen Überwälzungen kaum ausreichen, um die Sanierungsmaßnahmen komplett zu finanzieren. 4. Weitere Einflussfaktoren Mögliche zusätzliche Hemmnisse der Durchführung energetischer Sanierungen erwachsen daraus, dass der Vermieter vor der Durchführung der Sanierung mit Widerspruch der Mieter gegen die Maßnahme, während der Sanierung mit möglichen Mietkürzungen aufgrund der dadurch entstehenden Beeinträchtigungen und nach der Sanierung mit Widerstand gegen die vorgesehene Mieterhöhung rechnen muss. Zumindest birgt die Sanierung

378

Heinz Rehkugler und Jan-Otto Jandl

zusätzliches Potenzial für Streit und Ärger zwischen Vermieter und Mieter. Wie stark dies den Vermieter hemmen wird, von ihm eigentlich für sinnvoll betrachtete Sanierungen anzugehen, wird bei Amateurvermietern15 von ihrer Persönlichkeitsstruktur geprägt sein, generell aber auch von der Marktsitua­ tion abhängen. In Regionen und Teilmärkten, wo die Wohnungen, so der bisherige Mieter die erhöhte Miete nicht aufbringen kann oder möchte und daher auszieht, schnell und problemlos an andere vermietet werden können, wird die Bereitschaft zu einer Sanierung größer sein, als wenn man sich letztlich einen Verlust des Mieters nicht leisten kann. Was die Finanzierung von Sanierungsmaßnahmen angeht, dürften wiederum die Großvermieter im Durchschnitt deutliche Vorteile haben. Sie sind den Umgang mit Finanziers gewöhnt und scheuen sich in aller Regel nicht, wenn die nötigen Eigenmittel nicht ausreichen, auf Kredite zurückzugreifen. Auch in der Kenntnis von Finanzierungsquellen und von Förderprogrammen sowie im Umgang mit der Beantragung von Fördermitteln werden sie gegenüber den Amateurvermietern tendenziell im Vorteil sein. Ein deutlicher Unterschied zeigt sich auch in der relativen Größe der Finanzbelastung durch die Sanierung. Der typische Kleinvermieter hat nur eine Wohnung zu vermieten (z. B. die zweite Wohnung in einem Zweifamilienhaus oder eine zur Kapitalanlage erworbene Eigentumswohnung). Steht hier eine Sanierung an (im ersten Fall wohl meist dann zusätzlich auch für den selbstgenutzten Teil), dann ist die Betragsbelastung dadurch relativ hoch. Demgegenüber werden Großvermieter typischerweise die Sanierungen ihrer Wohnungsbestände zeitlich so staffeln, dass die daraus resultierende finanzielle Belastung in den allgemeinen Finanzplan des Unternehmens eingepasst werden kann und im Verhältnis zu den gesamten Mieteinnahmen und sonstigen Ausgaben nicht besonders zu Buche schlagen wird. Sanieren die Unternehmen aber größere Teile ihres Bestands recht schnell, dann sind sie vergleichbaren finanziellen Belastungen ausgesetzt. Andererseits ist für die Höhe der durch die Sanierung insgesamt erzielbaren Einsparungen die künftige Steigerungsrate der Energiepreise von wesentlicher Bedeutung. Nimmt man Steigerungsraten, wie wir sie im Durchschnitt der letzten Jahre erlebt haben, dann rechnen sich aus Sicht des Mieters über die Einsparungen an Energiekosten die Mieterhöhungen (die davon ja unabhängig sind) viel leichter und schneller, als wenn man die üblicherweise in den Prognosemodellen angesetzten, sehr moderaten Annahmen zugrunde legt.16 15  Privatpersonen

mit einer kleinen Anzahl vermietbarer Wohnungen. zu den üblichen Annahmen der Energiepreissteigerungen Rehkugler / Erbil /  Jandl / Rombach (2012), S. 57 ff. 16  Vgl.



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

379

Die beiden letzteren Aspekte werden wir allerdings in den weiteren Überlegungen vernachlässigen.

III. Lösungsansätze Wie lässt sich dieses Dilemma, dass in vielen Fällen entweder der Mieter eine über seinen Einsparungen liegende Mieterhöhung tragen soll oder dass der Vermieter zum Zeitpunkt der Sanierungsentscheidung nicht weiß, ob er auf einem Teil seiner Sanierungskosten sitzen bleibt, und er daher auf volkswirtschaftlich erwünschte Sanierungen verpflichtet, auflösen oder wenigstens abschwächen und eingrenzen? Lassen sich überhaupt Bereiche und Bedingungen angeben, bei denen es zu einer völligen oder wenigstens partiellen Deckung der Interessen von Vermieter und Mieter wie auch des Staates kommt? Wie könnte der Staat in seiner Funktion als Ordnungsmacht und als Fiskus zweckmäßige Rahmenbedingungen setzen? Er könnte zum ersten die Vorschriften zur energetischen Sanierung veroder entschärfen und darüber Zahl und Umfang energetischer Sanierungen direkt oder indirekt steuern. Zum zweiten bietet sich an, über Veränderungen des Mietrechts das Attraktivitätskalkül von Vermietern und Mietern besser abzustimmen. Zum dritten vermögen staatliche finanzielle Hilfen energetische Sanierungen zu verbilligen. Dadurch ließen sich leichter die Wirtschaftlichkeitsschwellen solcher Maßnahmen erreichen und der Umfang notwendiger Mieterhöhungen reduzieren. 1. Änderungen im Energierecht a) Verschärfung der EnEV Nach dem ursprünglichen Sanierungsfahrplan der Bundesregierung sollten die nach der EnEV zulässigen Verbrauchswerte in Drei-Jahresschritten für Neubauten wie für Bestandsgebäude laufend reduziert werden. Werden aber die Anforderungen deutlich angehoben, ohne dass zugleich am Prinzip der Wirtschaftlichkeit und der Freiwilligkeit gerührt wird, dann ist zu erwarten, dass die Sanierungsquote eher noch mehr zurückgehen wird. Denn bei einer Sanierung auf ein die jetzigen Anforderungen übersteigendes Niveau würden die Mehrkosten der energetischen Sanierung deutlich stärker steigen als die Einsparung an Energie. Entweder würden also, wo deren Überwälzung gelingt, die Mieter noch mehr über ihre Einsparungen hinaus belastet oder die Vermieter blieben auf einem größeren Teil ihrer Sanierungskosten sitzen. Der Schuss könnte also nach hinten losgehen und die erhofften Wirkungen konterkarieren.

380

Heinz Rehkugler und Jan-Otto Jandl

Auch der verschiedentlich, auch mit Blick auf andere Länder17, geforderte gesetzliche Zwang zu Sanierungen mit strikten Vorgaben der zu erreichenden Einsparziele würde die Probleme nur verschärfen. Der BUND Landesverband Berlin hat zusammen mit der IHK Berlin und dem Berliner Mieterverein ein Konzept für ein Klimaschutzgesetz Berlin entwickelt,18 an dem sich auch der Vorschlag des BUND Landesverbands Rheinland-Pfalz für ein Klimaschutzgesetz Rheinland-Pfalz orientiert.19 Der Titel des letzteren „Stufenmodell für die energetische Gebäudesanierung in RheinlandPfalz bis 2030“ lässt die zentrale Zielrichtung erkennen: in vier Stufen, die jeweils fünf Jahre umfassen, sollen die Grenzwerte des maximal zulässigen Endenergiebedarfs und der zulässigen CO2-Emissionen herabgesetzt werden. Ein Verstoß soll durch Bußgelder sanktioniert werden. Solche Modelle lösen sich vom Prinzip der Wirtschaftlichkeit und Tragfähigkeit. Die Problematik der Erhöhung der Mieten weit über die Energieeinsparungen hinaus wird aber offenbar erkannt; denn es soll eine Härtefallregelung für die Fälle greifen, wo die umlagefähigen Sanierungskosten die Heizkostenersparnis um das 2,25-fache überschreiten. Bezüglich der Wirtschaftlichkeit für die Vermieter macht es sich der Entwurf insofern leicht, als er schlicht unterstellt, dass die energetischen Sanierungen sich innerhalb von 15 Jahren amortisieren und daher betriebswirtschaftlich sinnvoll sind.20 Zwar wird mit dem Sanierungszwang den staatlichen Einsparzielen Rechnung getragen, wirkliche Lösungen des Vermieter-Mieter-Dilemmas sind hierin aber nicht zu erkennen. b) Entschärfung der EnEV Das Petitum der Verbände der großen Wohnungseigentümer weist daher auch in die entgegengesetzte Richtung. Sie fordern mehr Flexibilität in der Art und im Umfang der vorzunehmenden Sanierungen, um einerseits die Wirtschaftlichkeit der Maßnahmen und andererseits deren Sozialverträglichkeit zu sichern. Das entspannt zwar ohne Zweifel das Vermieter-MieterDilemma, da ein tendenziell geringerer Überwälzungsbedarf entsteht. Den 17  So hat Großbritannien, zusätzlich zu dem beschriebenen „Green Deal“ zur Erleichterung der Finanzierung energetischer Sanierungen, mit dem „Energy Act 2011“ einen gesetzlichen Rahmen geschafft, der alle privaten Vermieter verpflichtet, bis 2018 die Wohnungen auf einen allerdings nicht zu anspruchsvollen (Rating E nach EPC) Effizienzstandard zu bringen. Andernfalls dürfen die Wohnungen nicht mehr vermietet werden. Vgl. Department of Energy and Climate Change: Energy Act vom 18.10.2011. 18  Vgl. Sieberg (2010). 19  Vgl. BUND (2010). 20  Vgl. BUND (2010), S. 8.



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

381

staatlichen Einsparzielen liefe das allerdings entgegen. Wenn man die Forderung in dem Sinne interpretiert, dass nur wirtschaftliche Sanierungsmaßnahmen durchgeführt werden müssen (was ja erklärte Position der Regierung ist), dann lässt sich wenig dagegen vorbringen. Dann bestimmt der Entwicklungspfad der Senkung der Sanierungskosten (über technologische Verbesserungen) und der Erhöhung der Einsparungen (über steigende Energiepreise) das künftige Tempo der energetischen Sanierung des (Miet-)Wohnungsbestands. 2. „Versöhnung“ von Mietrecht und Mietmarkt a) Die aktuelle Mietrechtsreform und ihr Lösungsbeitrag Einen anderen Ansatzpunkt zur Lösung des Vermieter-Mieter-Dilemmas bietet das Mietrecht. Die aktuelle, nach langen und kontroversen politischen Diskussionen nunmehr gegen die Stimmen der Opposition vom Bundestag auf den Weg gebrachte Mietrechtsnovelle soll partielle Verschiebungen der Rechtspositionen von Vermietern und Mietern zur besseren Austarierung der Ansprüche und Verpflichtungen bringen. So greift das Mietrechtsänderungsgesetz nur Teilaspekte der Thematik auf. Die Kräfteverhältnisse werden hierdurch insoweit zugunsten der Vermieter verschoben, als künftig über den neu eingeführten § 555a–e BGB präziser geklärt ist, dass der Mieter grundsätzlich (= wenn kein Härtefall im Sinne von § 555d BGB greift) energetische Modernisierungsmaßnahmen zu dulden hat, wenn dadurch Endenergie oder nicht erneuerbare Primärenergie nachhaltig eingespart wird. In die gleiche Richtung wirkt der neu eingefügte § 536 Abs. 1a BGB, der für die Dauer von drei Monaten während solcher energetischer Modernisierungen eine Mietminderung ausschließt. Hilfreich dürfte auch sein, dass das Contracting explizit aufgenommen und in § 556c BGB nunmehr geregelt ist, dass der Mieter bei Umstellung auf das Contracting die dadurch ausgelösten Betriebskosten der Wärmelieferung zu tragen hat, soweit sie die bisherigen Kosten für Heizung und Warmwasser nicht übersteigen. Selbst diese eher geringfügigen Änderungen sind politisch umstritten, wie die Blockierung der Gesetzesvorlage durch den Bundesrat belegt. So wird dort der Ausschluss der Mietminderung moniert. Zusätzlich hat der Rechtsausschuss sogar eine Herabsetzung der nach § 559 BGB umlagefähigen Kosten auf 9 % empfohlen, dies mit der Begründung, dass zum einen die daraus resultierende Mietbelastung für viele Haushalte zu hoch sei und zum andern die aktuell niedrigen Zinsen einen so hohen Satz nicht erforderlich machten.21 Auch nachdem das Gesetz in der vorgelegten Form nun verab21  Vgl.

Bundesratsdrucksache 313 / 1 / 12: Empfehlungen der Ausschüsse, 26.6.2012.

382

Heinz Rehkugler und Jan-Otto Jandl

schiedet wurde, wird seine Wirkung auf eine Steigerung der Sanierungsrate in engen Grenzen bleiben.22 Auch an der grundsätzlichen Problematik der Überwälzbarkeit bzw. der Begrenzung wird das Gesetz nichts ändern. Nach wie vor wird es dann Teilmärkte oder Fälle geben, wo der Mieter mit Sanierungskosten belastet wird, die weit über seine Einsparungen hinausgehen. Denn wenn auch, wie die Novellierung vorsieht, die bloße Einsparung an nicht erneuerbarer Primärenergie (also an fossilen Brennstoffen) nach § 559 BGB umlagefähig ist, dann führt dies nicht notwendig auch zu einer Einsparung an Endenergie und damit zu einer Reduzierung der Heizkosten. Ebenso wird es weiterhin Fälle geben, wo die Vermieter nicht alle ihre Sanierungskosten über die Mieterhöhung entgolten bekommen, weil sie am Markt nicht durchsetzbar sind. b) Ökologischer Mietspiegel Was wäre darüber hinausgehend oder stattdessen denkbar (gewesen)? Nach Auffassung der unternehmerischen Wohnungswirtschaft könnte die objektspezifische Berücksichtigung der energetischen Komponente in Form eines Zuschlags zur Grundmiete eine Alternative zur Mieterhöhung nach § 559 BGB sein.23 Ein weiterer, damit verwandter Vorschlag findet sich in einer InWIS-Studie zum Vermieter-Mieter-Dilemma mit dem Ausweis eines festen separaten energiebedingten Zuschlags zur Miete, der nicht von der Marktsituation abhängig ist.24 Die Idee dahinter ist, dass hier die Möglichkeit von weiteren Mieterhöhungen nach § 558 unabhängig davon weiter gegeben wäre. Der energetisch bedingte Zuschlag würde darüber hinaus als Konstante hinzugefügt. Die jetzige gesetzliche Lösung schließt im Gegensatz dazu bei einer Umlage nach § 559 BGB eine weitere Mieterhöhung nach § 558 aus, bis die Erhöhung von der Marktmiete wieder erreicht wird. Diskutiert wird des Weiteren eine Aufhebung der Anrechnungspflicht öffentlicher Fördermittel bei der Höhe der nach § 559 BGB überwälzbaren Sanierungskosten und eine Begrenzung der Modernisierungsumlage z. B. auf das Doppelte der anfänglichen Energiekosteneinsparung.25 Dies sind jedoch eher kasuistische, vom politisch Durchsetzbaren getragene Vorschläge, die einer systematischen Einordnung und Begründung entbehren. 22  Deutlich optimistischer scheinen Amelung / Arentz / Jänsch / Münstermann (2012) zu sein, siehe dort S. 15. 23  Vgl. Deutscher Verband für Wohnungswesen, Städtebau und Raumordnung e. V. (2009), S. 12. 24  Vgl. Neitzel / Dylewski / Pelz (2011), S. 104 ff. So auch Klinski (2009), S. 195 ff. 25  Zu beiden Punkten vgl. Neitzel / Dylewski / Pelz, S. 108 ff. und 116 ff.



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

383

In eine etwas andere Richtung zielt ein weiterer, ebenfalls schon lange diskutierter Vorschlag: der ökologische Mietspiegel.26 Wenn der Mietspiegel die wärmetechnische Beschaffenheit eines Gebäudes explizit als eine Komponente (oder Komponentengruppe) der mietpreisrelevanten Faktoren mit ausweist, kann der Vermieter die Miete gemäß der Sanierungsbeschaffenheit erhöhen, ohne die Überwälzung nach § 559 BGB bemühen zu müssen. Die Mieterseite präferiert eindeutig diesen Weg.27 Allerdings enthält nur rund die Hälfte aller Mietspiegel in Deutschland das Merkmal Energieeffizienz, in der Mehrzahl nur in pauschaler Form, die dem effektiven Verbrauchsniveau nicht gerecht wird. Demzufolge wird die Forderung nach flächendeckenden ökologischen Mietspiegeln immer lauter. Ein solches Verfahren zur Erhöhung der Miete nach energetischer Modernisierung wäre sinnvoll und angemessen, wenn sichergestellt wäre, dass die ökologischen Mietspiegel tatsächlich die ökonomisch gerechtfertigte Mieterhöhung widerspiegeln würden. Da er aber, auch wenn er korrekt und differenziert ermittelt wird, nur wiedergibt, was tatsächlich am Markt für Mietaufschläge für energetisch sanierte Wohnungen mehr bezahlt wird, wäre man in einer eigentümlichen Situation gefangen: die faktischen Mietdifferenzen bestimmen die zulässigen Mieterhöhungen. Dass dieser Vorschlag von Vermieterseite nicht nur beim jetzigen unbefriedigenden Status der Erfassung des Sanierungszustands in den ökologischen Mietspiegeln, sondern grundsätzlich abgelehnt wird, ist daher verständlich.28 c) Das Proportionalmodell Notwendig wäre dagegen, konsequent am Grundproblem des VermieterMieter-Dilemmas anzusetzen: Der Vermieter möchte gesichert sehen, dass er seine Sanierungsaufwendungen überwälzen kann, der Mieter möchte nur (höchstens) Mieterhöhungen in dem Umfang in Kauf nehmen, die seiner Einsparung bei den Heiznebenkosten entsprechen. Die Umlage der Sanierungskosten übersteigt jedoch in aller Regel zumindest in den ersten Jahren die Einsparung weit. Als Kompromiss läge daher nahe, die zulässige Mieterhöhung tatsächlich an die beim Mieter erzielte Einsparung zu knüpfen. Für diesen wäre dann also Warmmietenneutralität gegeben. Dies hätte zur Folge, dass der Vermieter anfänglich auf einem Teil seiner Kosten (bzw. genauer, der dafür aufzuwendenden Verzinsung) hängen bleibt. 26  So geht die IWU-Studie für die Stadt Frankfurt schon 2001 sehr ausführlich auf diese Möglichkeit ein, vgl. Institut für Wohnen und Umwelt. 27  Vgl. Deutscher Verband für Wohnungswesen, Städtebau und Raumordnung e. V. (2009), S.  10 f. 28  Dagegen eher befürwortend Klinski (2009), S. 184 ff.

384

Heinz Rehkugler und Jan-Otto Jandl

Da aber mit den steigenden Energiepreisen die jährliche Einsparung des Mieters gegenüber dem früheren Zustand ebenfalls steigt, würde parallel der Mieter, wiederum immer den Einsparungen entsprechend, zunehmend belastet und der Vermieter entlastet. Dieser Teil der Miete würde also idealtypisch jährlich um die Preissteigerungsrate des Energieträgers wachsen. Dies käme vor allem der Gruppe der Mieter entgegen, die gar nicht über die gesamte Nutzungsdauer der energetisch sanierten Bauteile das Mietobjekt nutzen. Denn sie würden dann bis zur Beendigung des Mietverhältnisses auch nur die im Umfang der tatsächlichen Einsparungen erhöhte Miete bezahlen. Der elegante Nebeneffekt dieses Modells ist, dass die klassischen AgencyProbleme hier weitgehend ausgeschaltet bzw. zumindest abgemildert sind: der Vermieter hat keinen Anreiz, Sanierungen vorzunehmen, deren Kosten (unter Berücksichtigung von Förderhilfen) durch die Einsparungen nicht gedeckt sind. Denn in dem Umfang kann er keine Kompensation erwarten. Der Mieter wiederum hat auch einen Anreiz, durch sein Heizverhalten nicht zu viel Energie zu verbrauchen. Dies gilt insbesondere dann, wenn die Heizkostenersparnis, die durch die energetische Sanierung bewirkt wird, nicht nach dem faktischen Verbrauch, sondern nach dem Standardverbrauch bestimmt wird, der dem erreichten Sanierungsniveau entspricht. Verbraucht er dann mehr, als diesem Niveau entspricht, dann zahlt er über die Mieterhöhung und die Nebenkosten doppelt. Allerdings hat er nur einen geringen Anreiz, unter diesem Standardverbrauch zu bleiben, weil er davon nur partiell über die Senkung der Nebenkosten profitiert. An einem kleinen Beispiel sei das Modell erläutert. Das bisherige Verbrauchsniveau einer Mietwohnung sei 150 kWh / m2 / Jahr und führe zu Nebenkosten für die Heizwärme von 1 € / m2 / Monat. Durch die energetische Sanierung werde der Verbrauch im Standard auf genau die Hälfte, also um 75  kWh / m2 / Jahr gesenkt. Der Mietaufschlag, der die Nebenkostenreduktion genau kompensiert, läge also anfänglich bei 0,50 € / m2 / Monat. Hält sich der Mieter an diesen „Normverbrauch“, dann bleibt seine Warmmiete konstant. Verbraucht er dagegen deutlich mehr, dann zahlt er über die Mieterhöhung und die Nebenkosten doppelt. Bei einem geringeren Verbrauch bleibt der Mietaufschlag fix, während er partiell über die Reduktion der variablen Nebenkosten spart. Für den Vermieter bringt dieses Modell auf der Hand liegende Nachteile. Er hat die Sanierungskosten vorzufinanzieren und erhält nicht annuitätisch die dafür notwendigen Beträge über eine von Anfang an in diesem Umfang wirksame Mieterhöhung. Zugleich trägt er das Risiko, dass seine Sanierungskosten über den Beträgen liegen, die er kumuliert über die erhöhten Mieten zurück erhält. Das gilt u. a. dann, wenn er die Wirtschaftlichkeit der Sanierung unter der Annahme relativ hoher Energiepreissteigerungen be-



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

385

rechnet hat, die dann später so nicht eintreten. Dem steht allerdings der große Vorteil entgegen, dass die Überwälzung seiner Sanierungskosten viel besser gesichert ist, als dies bei der aktuellen Rechtslage der Fall ist. Denn er kann mit viel größerer Wahrscheinlichkeit damit rechnen, dass die Mieter dieses Überwälzungsmodell auch akzeptieren würden, das sich immer an den realisierten Einsparungen orientiert und damit den Mieter nie über das Niveau hinaus belastet, das er ohne Sanierung zu tragen hätte. Solche Vorschläge sind nicht neu. Sie sind in der Literatur in unterschiedlichen Varianten und Bezeichnungen diskutiert,29 aber bisher in der praktischen und politischen Diskussion nie ernsthaft aufgegriffen worden. Möglicherweise hat dies auch mit den operativen Problemen zu tun, die noch zu lösen sind, um das Modell praktikabel und justiziabel zu machen. Denn in der praktischen Umsetzung tun sich einige Schwierigkeiten auf. Das reine Proportionalmodell, bei dem jährlich die Kaltmiete um den Betrag steigt, der der Einsparung an Energiekosten entspricht, erfordert einige Detailregelungen. So muss festgelegt werden, wie die durch die energetische Modernisierung erzielten Einsparungen des ersten Jahres nach der Sanierung gemessen werden, die die Basis für die anfängliche Kaltmietenerhöhung bilden sollen. Die Preiskomponente dürfte hier das geringere Problem darstellen, da die Energiepreissteigerungen leicht durch Statistiken oder schlicht durch die Belege über die bezogene Energie nachweisbar sind. Schwieriger ist die Mengenkomponente zu bestimmen, also die Differenz des Verbrauchs an Energieeinheiten vor und nach der Sanierung. Je Wohnung gemessene Heizmengen sind zwar verfügbar; sie können aber durch reine Änderungen des Verbrauchsverhaltens, aber auch z. B. – als externer Faktor – durch klimatische Schwankungen beeinflusst sein. Diese Einflüsse müssten bereinigt werden. Für die klimatischen Einflüsse werden inzwischen Bereinigungsfaktoren berechnet, die genutzt werden könnten. Das Verbrauchsverhalten könnte dagegen über Fehlanreize gesteuert sein. Denn wenn die Verbrauchsdifferenz des ersten Jahres zum Verbrauch vor der energetischen Sanierung für die Höhe des Kaltmietzuschlags entscheidend ist, dann ist durchaus vorstellbar, dass vom Mieter die Einsparung bewusst niedrig gehalten und in den Folgejahren das Verbrauchsverhalten dann wieder auf das „normale“ Maß zurückfindet, um Heizkosten zu sparen. Dem könnte man entweder mit einer späteren Korrektur der Kaltmietenerhöhung auf der Basis der für mehrere Perioden gemessenen Verbräuche oder mit einer Orientierung an der bedarfstechnisch berechneten Ein29  So ausführlich bei Klinski (2009), S. 204 ff., Klinski (2010), S. 289 f., in einer etwas abgewandelten Variante bei Neitzel / Dylewski / Pelz (2011), S. 91 ff., oder, aber durchaus kritisch, als Teilwarmmietenmodell beim Institut für Wohnen und Umwelt, insbesondere S.  35 ff.

386

Heinz Rehkugler und Jan-Otto Jandl

sparung begegnen. Ersteres wird vermutlich eher zu Verärgerungen und Streitigkeiten führen, bei letzterem ist mit den bekannten Problemen des Auseinanderfallens von gemessenen und wärmetechnisch berechneten Verbräuchen umzugehen.30 Dennoch bietet sich dieser Weg über berechnete „Durchschnittseinsparungen“ als der besser objektivierbare und daher justiziable an. Für die späteren Jahre wird dann die Berechnung einfacher. Denn dann müssen regelmäßig nur noch in der gleichen Weise die Veränderungen der Energiepreise nachgewiesen werden, die den periodischen Anstieg der Kaltmiete bestimmen. Jahr für Jahr käme es damit, evtl. zusätzlich zu den „normalen“ Mieterhöhungen, zu energiekostenbedingten Anpassungen der Kaltmiete. Als vermeintlich einfacher zu handhabende Lösung wird in der Literatur31 der „energetische Pauschalzuschlag“ präferiert, der sich auch in einem Gesetzvorschlag des IVD findet.32 Danach trifft der Vermieter mit dem Mieter für eine bestimmte Zahl von Jahren eine Vereinbarung, die Kaltmiete um einen bestimmten Betrag zu erhöhen, und sichert im Gegenzug zu, dass dieser Betrag die in diesem Zeitraum zu erwartenden Einsparungen an Energiekosten nicht übersteigt. Legt man diesem Modell die gesamte geschätzte Nutzungsdauer der energetischen sanierten Bauteile zugrunde, dann unterscheidet es sich von dem obigen Modell nur insofern, als statt den jährlich mit den Energiepreisen steigenden Mieten (die genau der Verursachung entsprechen) eine annuitätische Verteilung der gesamten, über die Nutzungsdauer erwarteten Einsparungen auf die Perioden vorgenommen wird. Damit fällt für den Mieter der Kaltmietzuschlag anfänglich höher aus, bleibt dann aber über die gesamte Nutzungsdauer konstant. Er entspricht also nur in der Summe, nicht aber in der periodischen Zuordnung seinen Einsparungen. Das wird nicht in seinem Interesse sein. Vor allem bei einer Mietdauer, die unter der gesamten Nutzungsdauer liegt (was ja sehr häufig der Fall sein wird), wird er zu stark belastet und wird zurecht bei vorzeitiger Beendigung des Mietverhältnisses auf einem Ausgleich bestehen. Dieser ist recht schwierig zu berechnen. Die Vorschläge laufen daher auf eine kürzere Laufzeit der Vereinbarung hinaus. Klinski (2010) nennt als Beispiel sechs Jahre. Aber auch bei diesem Modell muss ein Nachweis der Energiepreisveränderungen erfolgen. Will man Ungerechtigkeiten ausschließen, bedarf es einer Korrektur um klimatisch bedingte Verbrauchsschwankungen, einer Berücksichtigung des Verhierzu z. B. Rehkugler / Erbil / Jandl / Rombach (2012), S. 36 ff. von Klinski (2010), S. 289 f., und Klinski (2009), S. 205 ff. 32  Vgl. IVD (2008).

30  Vgl. 31  So



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

387

brauchsverhaltens des Mieters und eines Ausgleichs bei vorzeitigem Auszug. Da haushaltsindividuelle Erfassungen des Energieverbrauchs offenbar zu aufwendig erscheinen, will Klinski (2010) das Modell jeweils nur auf das gesamte Hausobjekt beziehen, die Anwendung des Modell daher evtl. sogar auf größere Wohnobjekte beschränkt sehen. Empirica / LUWOGE sehen in ihrer Studie zum Berliner Mietwohnungsbestend die juristischen Probleme letztlich für so groß an, dass sie hierin keine Lösung sehen.33 Im reinen Proportionalmodell wie im Modell des energetischen Pauschal­ aufschlags trägt der Vermieter das Risiko, dass er nicht alle seine Sanierungskosten über die Kaltmietenerhöhung amortisiert bekommt, wenn die tatsächliche Energiepreissteigerung hinter der in seinen Wirtschaftlichkeitsberechnungen angesetzten Steigerungsrate zurückbleibt. Ansonsten schaffen die Modelle, u. E. das Proportionalmodell in einer noch besseren Weise, den angestrebten Ausgleich der Interessen des Vermieters und des Mieters in einem recht hohen Maße. Die Lösung wäre damit den jetzigen Mietrechtsregelungen deutlich überlegen und würde wohl auch nicht mehr rechtliche Probleme aufwerfen als die aktuelle Regelung. Das Ziel der Energieeinsparung wird allerdings möglicherweise etwas verfehlt, weil nunmehr kein Vermieter mehr ein Motiv hätte, unwirtschaftliche energetische Moderni­ sierungen durchzuführen, da er nicht mehr wie bei der jetzigen Regelung seine Sanierungskosten, sondern nur noch die damit erzielten Einsparungen überwälzen könnte. Da sich aber die Überwälzbarkeit am Mietmarkt auch an den Einsparungen orientieren wird, dürfte sich die Differenz in der Sanierungsaktivität in Grenzen halten. Wo das Modell allerdings deutlich versagt, sind energetische Sanierungen, die (nur) darauf gerichtet sich, den Ausstoß an Treibhausgasen zu reduzieren, damit nur den Energieverbrauch fossiler Brennstoffe durch andere, nachwachsende Energieträger zu ersetzen, aber keine Einsparungen zu erzielen. Wird also, um ein einfaches Beispiel zu wählen, eine Ölheizung durch eine Pelletsheizung ersetzt, dann ist zwar dem staatlichen Ziel der Einsparung an CO2-Ausstoß Rechnung getragen. Bei einer Koppelung der Kaltmietenerhöhung an die erzielten Energiekosteneinsparungen würde aber der Vermieter leer ausgehen, da der Mieter (bei angenommenen gleich hohen Kosten für Heizöl und Pellets) keine Reduktion seiner Heizkosten erzielt. Hier zeigt sich noch einmal deutlich, dass das Vermieter-Mieter-Dilemma letztlich ein Wirtschaftlichkeitsproblem ist:34 werden durch die energetische Sanierung einzelwirtschaftliche Vorteile geschaffen, dann ist auch etwas zwischen Vermieter und Mieter zu verteilen, also ein Anreiz da, die Sanierungen vorzunehmen, ohne einen der Partner schlechter zu stellen Empirica / LUWOGE (2010). auch Neitzel / Dylewski / Pelz (2011), S. 90.

33  Vgl 34  So

388

Heinz Rehkugler und Jan-Otto Jandl

als vorher. Nicht in privatwirtschaftliche Kalküle eingehende allgemeine Wohlfahrtseffekte lösen keine Sanierungsaktivitäten aus. 3. Erweiterung des Spielraums durch staatliche Förderungen Wenn das Vermieter-Mieter-Dilemma zu großen Teilen ein Problem der (oft mangelnden) Wirtschaftlichkeit energetischer Sanierungen ist, kann der Staat zur Entschärfung des Dilemmas auch beitragen, indem er durch finanzielle Hilfen die Wirtschaftlichkeit der Sanierungsmaßnahmen verbessert. Dies tut er auch in durchaus großem Umfang, dominant über das Programm „Energieeffizient sanieren“ der KfW wie auch das Marktanreizprogramm für erneuerbare Energien.35 Die KfW-Programme bieten Zinsverbilligungen und Tilgungszuschüsse. Hinzu kommen noch Förderprogramme der Länder. Bei einer Modernisierungsumlage nach § 559 BGB muss aber der Zinsvorteil der KfW-Förderung abgezogen werden. Der Vorteil aus der Förderung landet also formal voll beim Mieter. Für den Vermieter bleibt somit ein Anreiz aus der Förderung nur für die Fälle, wo der Markt die volle Überwälzung der Sanierungskosten nicht hergibt. Über einige „operative“ Mängel der bestehenden Förderprogramme hinaus werden generell zwei miteinander zusammenhängende Schwachpunkte der Förderlandschaft gesehen, denen mit Vorschlägen einer anderen Gestaltung der finanziellen Förderung abgeholfen werden soll: das insgesamt zu geringe Volumen der Förderprogramme und die mangelnde Absicherung der Stetigkeit der Programme aufgrund ihrer Haushaltsabhängigkeit. Hieran setzen auch Vorschläge für andere Gestaltungen von Anreizprogrammen, auf deren nähere Beschreibung hier aber verzichtet wird.36 Die beabsichtigte, aber inzwischen im Bundesrat gescheiterte Einführung einer Sonderabschreibung für die Kosten energetischer Sanierungen analog zur Denkmalschutzabschreibung hätte zur Beseitigung des diskutierten Problems wenig beigetragen, da Vermieter in der Regel ihre Sanierungskosten ohnehin sofort steuerlich geltend machen können und daher die Sonderabschreibung bis auf die Fälle des anschaffungsnahen Herstellungsaufwands ins Leere gelaufen wäre.37

Rehkugler / Erbil / Jandl / Rombach (2012), S. 77 ff. hierzu Rehkugler / Erbil / Jandl / Rombach (2012), S. 241 ff. 37  Vgl. Beck (2011), S. 63. 35  Vgl. 36  Vgl.



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

389

4. Ausgleich über andere Wertkomponenten Ein partieller Ausgleich der Interessen von Vermieter und Mieter und damit eine Entspannung des Dilemmas könnte auch darüber erfolgen, dass dem Vermieter durch die energetische Sanierung Vorteile erwachsen, die über die reine Erhöhung des Mietsatzes für die aktuellen Mieter hinausgehen. Die übliche Berechnungslogik der Vorteilhaftigkeit energetischer Sanierungen konzentriert sich auf die unmittelbaren Mieterhöhungen und deren finanzielle Effekte, lässt aber die mögliche zusätzliche Wirkung auf die Immobilienwerte weithin unberücksichtigt. Ist die Sanierung geeignet, den künftigen Leerstand niedriger zu halten und / oder die wirtschaftliche Restnutzungsdauer des Gebäudes zu erhöhen, dann muss das sinnvollerweise im Gesamtzahlungsstrom der zu erwartenden Nettomieten berücksichtigt werden. Zusätzlich könnten Imagevorteile von Gebäuden, die als nachhaltig eingestuft sind, bei potentiellen Nutzern wie bei Investoren / Käufern den Anreiz erhöhen und so zu höheren Kaufpreisen führen. Einige Untersuchungen über die Wirksamkeit von Labels der Nachhaltigkeit wie LEED oder DGNB (diese betreffen jedoch überwiegend Gewerbeobjekte) auf die Zahlungsbereitschaft bei Miete und Kauf und auf Leerstände deuten in diese Richtung.38 Diese mögliche Ausgleichskomponente ist aber zum ersten von der Marktsituation abhängig. Ob unsanierte Wohnungen wirklich höhere Leerstände aufweisen, wird in Teilmärkten mit aktuellem oder künftigem Nachfrageund Angebotsüberhang wohl unterschiedlich zu beurteilen sein. Es könnte durchaus auch sein, dass gerade unsanierte Wohnungen vermehrt nachgefragt werden, weil sie der Zahlungsfähigkeit bestimmter Mieterpopulationen mehr entsprechen. Letzteres führt zu einem zweiten Aspekt, dass die Wirksamkeit in dieser Richtung wiederum davon abhängt, ob die Sanierung wirtschaftlich ist, also die Mieterhöhung die beim Mieter erzielten Energiekosteneinsparungen nicht überschreitet. Als Drittes muss auch berücksichtigt werden, dass ein später Ausgleich der Sanierungskosten z. B. über eine längere Nutzungsdauer in der Liquiditätsbelastung anders zu sehen ist als eine z. B. annuitätische Umlage der Sanierungskosten auf die Miete. Auf diese Ausgleichskomponenten lässt sich also nicht systematisch bauen.

38  Vgl. z. B. Reichardt (2011), Eichholtz / Kok / Quigley (2010), Fuerst / McAllister (2011).

390

Heinz Rehkugler und Jan-Otto Jandl

IV. Schlussbemerkung Die Überlegungen haben gezeigt, dass das Vermieter-Mieter-Dilemma zum einen ein Dilemma mangelnder Wirtschaftlichkeit der Sanierungen und zum andern eine Folge von im Mietrecht falsch gesetzten Anreizen des Handelns von Vermieter und Mieter ist. Will man wirklich tragfähige Lösungen entwickeln, dann gilt es daher, an diesen beiden Punkten anzusetzen. Das vorgestellte Proportionalmodell ist eine Lösung, die diese beiden Aspekte zu verbinden vermag. Auch seine praktische Umsetzbarkeit konnte gezeigt werden. Es ist daher bedauerlich, dass weder die Verbände der Vermieter und der Mieter noch Regierung und Parteien dieses Modell bisher nicht ausreichend gewürdigt und für die Umsetzung in das Mietrecht geprüft haben. Literatur Amelung, Adrian / Arentz, Oliver / Jänsch, Janina / Münstermann, Leonhard: Auswirkungen staatlicher Eingriffe zur Förderung der Gebäudesanierung auf die Akteure des Immobilienmarkts, Otto-Wolff-Institut Discussion Paper 03 / 2012, Köln 2012. Beck, Hans Joachim: Ertragssteuerliche Vorteile für die energetische Sanierung von Gebäuden, in: Ummen, R.  /  Johns, S. R. (Hrsg.): Immobilien Jahrbuch 2011, S. 58–67. BUND: Vorschlag für ein Klimaschutzgesetz Rheinland-Pfalz: Stufenmodell für die energetische Gebäudesanierung in Rheinland-Pfalz bis 2030, Mainz 2010. DENA: Wirtschaftlichkeit energetischer Modernisierung im Mietwohnungsbestand, Begleitforschung zum DENA-Projekt „Niedrigenergiehaus im Bestand“, Berlin 2010. DV (Deutscher Verband für Wohnungswesen, Städtebau und Raumordnung e. V.): Klimaschutz in der Deutschen Wohnungswirtschaft – Handlungsempfehlungen der Kommission, Kurzbericht, Berlin 2009. Eichholtz, Piet / Kok, Nils / Quigley, John M.: Doing Well by Doing Good? Green Office Buildings, in: The American Economic Review, Vol. 100, No. 5, 2010, S. 2492–2509. Empirica / LUWOGE: Wirtschaftlichkeit energetischer Modernisierung im Berliner Mietwohnungsbestand, Berlin / Ludwigshafen 2010. Fuerst, Franz / McAllister, Patrick M.: The Impact of Energy Performance Certificates on the Rental and Capital Values of Commercial Property Assets, in: Energy Policy, Vol. 39, No. 10, 2011, S. 6608–6614. GfK: Repräsentativ-Umfrage: Alle sind für Klimaschutz, aber keiner will zahlen, Verband bayerischer Wohnungsunternehmen, Presseerklärung vom 4.10.2007.



Das Vermieter-Mieter-Dilemma bei der Sanierung von Wohngebäuden

391

Henger, Ralph / Voigtländer, Michael (2011): Einflussfaktoren auf die Rentabilität energetischer Sanierungen bei Mietobjekten, in: IW Trends 1 / 2011, S. 1–18. – (2012): Energetische Modernisierung des Gebäudebestands: Herausforderungen für private Eigentümer, IW Köln für Haus & Grund Deutschland, Köln 2012. IVD (Immobilienverband Deutschland): Ziele und Eckpunkte eines Gesetzentwurfs zur Beseitigung mietrechtlicher Hemmnisse beim Klimaschutz, Berlin, September 2008. IWU (Institut Wohnen und Umwelt): Mietrechtliche Möglichkeiten zur Umsetzung von Energiesparmaßnahmen im Gebäudebestand, Frankfurt / Darmstadt 2001. KfW / IW: Wohngebäudesanierer-Befragung 2010 – Hintergründe und Motive zur energetischen Sanierung des Wohngebäudebestands, Frankfurt 2010. Klinski, Stefan (2009): Rechtskonzepte zur Beseitigung des Staus energetischer Sanierung im Gebäudebestand, UBA-Studie 36 / 2009. – (2010): Energetische Gebäudesanierung und Mietrecht – Hemmnisse und Reformüberlegungen, in: Zeitschrift für Unternehmensrecht 6 / 2010, S. 283–290. Neitzel, Michael / Dylewski, Christoph / Pelz, Carina: Wege aus dem Vermieter-MieterDilemma, Konzeptstudie Bochum 2011. Rehkugler, Heinz / Erbil, Tayfun / Jandl, Jan-Otto / Rombach, Tobias: Energetische Sanierung von Wohngebäuden – Wirtschaftlichkeit vs. Klimaschutz, Freiburg 2012. Reichardt, Alexander: Sustainability in Commercial Real Estate Markets, Diss. ebs Wiesbaden 2011. Sieberg, Ulf: Erläuterungen zum Stufenmodell für ein wirksames, ökonomisches und sozialverträgliches Klimaschutzgesetz Berlin, BUND Berlin 7.9.2010.

Über die Autoren Alexander Batteiger, geb. 1982, studierte nach einer Ausbildung zum TechnischenZeichner Wirtschaftsingenieurwesen an der Technischen Universität Berlin. Seit seinem Abschluss zum Diplom-Wirtschaftsingenieur im Jahr 2013 ist er Stipendiat der Hans-Böckler-Stiftung. Er forscht im Rahmen seiner Doktorarbeit am Promo­ tionskolleg Mikroenergie-Systeme am Zentrum Technik Gesellschaft (TU Berlin). Sein Forschungsinteresse gilt dezentraler Energieversorgung, insbesondere durch erneuerbare Energien, in sogenannten Entwicklungsländern. Prof. Dr. Sven Bienert schloss nach einer Ausbildung zum Bankkaufmann zunächst das Studium zum Fachwirt der Grundstücks- und Wohnungswirtschaft als Immobilienwirt (Diplom-VWA) und drei Jahre später das Studium der Betriebswirtschaftslehre als Diplom-Kaufmann an der Universität Lüneburg ab. Seine Dissertation verfasste er an der Albert-Ludwigs-Universität Freiburg am Lehrstuhl von Prof. Francke zum Thema „Auswirkungen der neuen Eigenkapitalrichtlinien für Banken (Basel II) auf die Projektfinanzierung in der Immobilienwirtschaft“. Seit April 2010 leitet er das Kompetenzzentrum für Nachhaltigkeit in der Immobilienwirtschaft am IRE|BS Institut der Universität Regensburg und bekleidet dort auch einen Lehrstuhl. Darüber hinaus ist Herr Bienert als Sachverständiger und Berater aktiv. Prof. Dr. Knut Blind hat Volkswirtschaftslehre, Politikwissenschaft und Psychologie an der Universität Freiburg studiert. Während seines Studiums hat er ein Jahr an der Brock University in Kanada verbracht und mit dem Bachelor of Administration abgeschlossen. Schließlich hat er sowohl sein Diplom als auch seine Promotion in Volkswirtschaftslehre an der Universität Freiburg abgeschlossen. Zwischen 1996 und 2010 arbeitete er für das Fraunhofer Institut für System- und Innovationsforschung in Karlsruhe, zunächst als wissenschaftlicher Projektleiter, dann als stellvertretender Abteilungsleiter und die beiden letzten Jahre als Leiter des Competence Centers „Regulierung und Innovation“. In der Zwischenzeit wurde Knut Blind im April 2006 zum Professor für Innovationsökonomie an der Fakultät für Wirtschaft und Management an der Technischen Universität Berlin ernannt. Seit Mai 2008 hat er auch den Stiftungslehrstuhl für Standardisierung an der Rotterdam School of Management der Erasmus Universität Rotterdam inne. Im April 2010 hat er die Leitung der Forschungsgruppe Public Innovation beim Fraunhofer Institut für Offene Kommunikationssystem in Berlin übernommen. Neben zahlreichen Publikationen in internationalen wissenschaftlichen Zeitschriften zum Thema Standardisierung hat Knut Blind auch Beiträge zur Thematik intellektueller Eigentumsrechte, insbesondere Patente, und zu Innovationsökonomie und -management publiziert. Dr. Dierk Brandenburg, geb. 1965 in Pinneberg, leitet als Senior Credit Analyst das Financial Institutions Research für Fidelity International in London. Er arbeitet seit 2003 bei Fidelity in den USA und London in verschiedenen Bereichen des Bondresearch mit Fokus auf den Finanzsektor (Banken, Versicherungen, Verbriefungen). Zwischen 2001 und 2003 war er als Vice President bei der Deutsche Bank AG

394

Über die Autoren

im globalen Securities Lending für Counterparty Risk zuständig. Nach seiner Promotion 1993 bei Prof. Dr. H.-H Francke in Freiburg kam Dierk Brandenburg 1993 zunächst zur Bank für Internationalen Zahlungsausgleich nach Basel, wo er bis 2001 das Counterparty Risk Management aufbaute. Dierk Brandenburg studierte Volkswirtschaftslehre an der Albert-Ludwigs-Universität Freiburg (Abschluss Dipl. Volkswirt 1989) und an der London School of Economics. Prof. Dr. Michael Carlberg hat an der Universität Hamburg folgende Fächer studiert: Volkswirtschaftslehre, Mathematik und Soziologie. Professor für Theoretische Volkswirtschaftslehre an der Helmut-Schmidt-Universität Hamburg. Forschungs­ interessen: Makroökonomik, Internationale Wirtschaftsbeziehungen und Monetäre Ökonomik. Dr. Alexander Eschbach studierte Volkswirtschaftslehre in Freiburg und Madison / USA. Von 2005 bis zur Pensionierung von Prof. Dr. H.-H. Francke im Jahre 2008 arbeitete er an dessen Lehrstuhl und betreute Übungen in Finanzwissenschaft und Immobilienökonomie. Im Anschluss folgte eine Anstellung beim Lehrstuhl von Prof. Dr. Heinz Rehkugler bis 2009. Eschbach wurde 2010 mit einer Arbeit über den Wohlfahrtsstaat („Pfade in den Leviathanstaat? Determinanten der öffentlichen Sozialausgaben in 21 OECD-Ländern, 1980–2005“) durch Professor Francke promoviert. Seit 2011 arbeitet er als Referent in der volkswirtschaftlichen Abteilung des Arbeitgeberverbandes Gesamtmetall in Berlin. Prof. Dr. Robert Göötz, geb. 1969, studierte Volkswirtschaftslehre und promovierte bei Herrn Francke in Finanzwissenschaften im Bereich Steuerrecht und Immobilienmärkte. Parallel zu seiner Promotion war er als Dozent an der Staatlichen Berufsakademie Villingen-Schwenningen tätig. Es folgten verschiedene Managementfunktionen im In- und Ausland. Begleitend zu seinen beruflichen Tätigkeiten war Robert Göötz als Lehrender an der Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen tätig, bevor er schließlich einem Ruf als Professor für Asset Management an eben diese Hochschule folgte. Seine Schwerpunkte sind Asset Management, Risikomanagement sowie Kapitalmarkt- und Portfoliotheorie. Daneben beschäftigt er sich u. a. mit Themen wie Projektentwicklung im Bestand, Entwicklung neuartiger Immobilienprodukte und Risikoinstrumente und Lösungen für Fragestellungen im Zusammenhang mit Solvency II oder Basel III. Joe Hanmer, geb. 1989 in Burton-upon-Trent, ist Trainee bei Fidelity Investments in London. Im Geschäftsbereich Anleihen hat er seit 2011 Stationen in der Banken und Quant Analyse durchlaufen. Joe hat einen Master-Abschluss in Mathematik und Physik von Manchester University und absolvierte Praktika bei der Bank of England und Barclays. Jan-Otto Jandl studierte Volkswirtschaftslehre an der Albert-Ludwigs-Universität Freiburg, der Sophia-Universität in Tokyo und der Universität Basel. Seit seinem Abschluss als Diplom-Volkswirt im Jahr 2011 ist er wissenschaftlicher Mitarbeiter am Institut für Volkswirtschaftslehre und Finanzwissenschaft I an der Albert-Ludwigs-Universität Freiburg und der Deutschen Immobilien Akademie an der Universität Freiburg (DIA). Prof. Wolfgang Kleiber, Studium an der Technischen Universität Berlin (Erste große Staatsprüfung) und Zweite große Staatsprüfung für den höheren vermessungstechnischen Verwaltungsdienst beim Oberprüfungsamt für den höheren technischen



Über die Autoren

395

Verwaltungsdienst (Vermessungsassessor). Ministerialrat im Bundesministerium für Verkehr, Bau- und Wohnungswesen; zuletzt Leiter des Referates „Bodenpolitik, Bodenordnung (Umlegung), Enteignung, Besonderes Städtebaurecht (Sanierungsund Entwicklungsrecht) Kleingartenrecht und Wertermittlung“. Lehrbeauftragter an verschiedenen Universitäten und Hochschulen. Herausgeber und Gesamtschriftleitung der Zeitschrift „Grundstücksmarkt und Grundstückswert“ – GuG – und „GuG aktuell“ Wolters & Kluwer. Herausgeber diverser Standardwerke zur Verkehrswertermittlung von Grundstücken (u. a. Kleiber „Verkehrswertermittlung von Grundstücken“ 6. Aufl. 2010; Kleiber: Marktwertermittlung, 7. Aufl. 2010 sowie Mitkommentator in Ernst / Zinkahn / Bielenberg, BauGB und Bielenberg / Koopmann / Krautzberger: Städtebau-förderungsrecht). Prof. Hans-Helmut Kotz ist Senior Fellow am Center for Financial Studies sowie Programmdirektor des SAFE Policy Centers, Goethe Universität, Frankfurt. Gleichzeitig ist er Resident Fellow am Center for European Studies der Harvard Univer­ sity, wo er auch einen Kurs im Economics Department gibt. Seit 1997 unterrichtet er an der Universität Freiburg, von der er 2010 den Universitätslehrpreis erhielt. Seit 2011 ist er Senior Advisor bei McKinsey, wo er vor allem zu makroökonomischen, Finanzmarkt- und Risikothemen arbeitet. Schließlich berät er die UniCredit AG und ist Mitglied des Aufsichtsrates der Eurex Clearing AG. Zwischen 2002 und 2010 war er Mitglied des Vorstands der Deutschen Bundesbank, u. a. mit Zuständigkeiten für die Zentralbereiche Märkte (operative Umsetzung der Geldpolitik), Statistik und Finanzstabilität. Er war gleichzeitig Mitglied in einer Reihe von Komitees der Bank für Internationalen Zahlungsausgleich, des Financial Stability Boards sowie der OECD, deren Finanzmarkt-Komitee er leitete. Zudem war er der deutsche Zentralbank-Stellvertreter im G 7 und G 20 Prozess. Zuvor war er Präsident der Landeszentralbank in Bremen, Niedersachsen und Sachsen-Anhalt (1999–2002) und Chefvolkswirt bei der Deutschen Girozentrale (1984–1999). Zwischen 2002 und 2005 war er in persönlicher Kapazität Mitglied des Finanzexperten-Panels des Wirtschaftsund Währungsausschusses des Europaparlaments. Er hat in Mainz und Köln Volkswirtschaftslehre studiert. Prof. Dr. Jochen Michaelis, geboren 1959 in Soltau, studierte an der Universität Hamburg Volkswirtschaftslehre. Nach der Promotion (1988) an der HelmutSchmidt-Universität wechselte er zum HWWA-Institut für Wirtschaftsforschung (1988–1990). Dem Angebot von Hans-Hermann Francke, nach Freiburg zu gehen, um am dortigen Institut für Finanzwissenschaft und Monetäre Ökonomie zu habilitieren, konnte er nicht widerstehen. Unmittelbar nach der Habilitation 1997 übernahm Jochen Michaelis eine Lehrstuhlvertretung an der Universität Gießen, 1999 folgte er einem Ruf auf den Lehrstuhl für Geld, Kredit und Währung an der Universität Kassel. Die Forschungsinteressen von Jochen Michaelis waren nie auf ein einzelnes Gebiet fixiert. Seine Publikationen reichen vom Ricardianischen Äquivalenztheorem über die Superneutralität des Geldes bis hin zu Lebensmitteln im Europäischen Binnenmarkt, Beschäftigungseffekten der Gewinnbeteiligung, Handelssanktionen und Kinderarbeit und schlussendlich Fragen der (monetären) europäischen Integration. Dr. Marianne Moll-Amrein, geb. 1964, ist selbständige Sachverständige für die Bewertung von Immobilien in Lörrach. Nach ihrem Studium zur Diplom-Volkswirtin arbeitete sie als wissenschaftliche Mitarbeiterin bei der Deutschen Immobilien-

396

Über die Autoren

Akademie an der Universität Freiburg GmbH (DIA) sowie der DIA Consulting AG. Zu dieser Zeit promovierte sie an der Universität Freiburg am Lehrstuhl von Prof. Francke und schrieb ihre Dissertation zum Thema „Liegenschaftszinssatz“ aus dem Bereich der Immobilienbewertung. Sie ist weiterhin „Diplom-Sachverständige (DIA) für die Bewertung von bebauten und unbebauten Grundstücken, für Mieten und Pachten“ sowie Dozentin / Lehrbeauftragte diverser Bildungsinstitutionen. Prof. Dr. Günter Müller, hat an der Schnittstelle von Wirtschaft und Informatik zu Unternehmensmodellierung und Nutzerschnittstellen zu Rechnern promoviert und habilitiert und dabei vor allem in der IBM Beiträge zur Fortentwicklung der Informatik geleistet. Sein Interesse an den Rechnernetzen begann mit der Verschmelzung aller bekannten Medien unter dem digitalen Vorzeichen. Er leitete und gründete das Europäisches Zentrum für Netzwerkforschung der IBM Heidelberg und hat so an der heutigen Kommunikationswelt an vorderster Front mitgewirkt, ehe er an die Universität Freiburg kam und dort das Institut für Informatik und Gesellschaft gründen konnte sowie zum Ordinarius für Telematik ernannt wurde. Er war dabei Gastwissenschaftler 1992 und 1993 NTT Japan, 1993–1999 Kollegleiter „Sicherheit in der Kommunikationstechnik“, Gottlieb Daimler- und Karl Benz-Stiftung, 1995 Gastwissenschaftler Harvard University, John F. Kennedy School, 1996 Mitglied Beirat zur Multimedia-Enquêtekommission des Bundestages, 1998 Gastwissenschaftler ICSI Berkeley, 1999 Alcatel Stiftungsprofessur, Darmstadt, Gastwissenschaftler 1997 / 1999 /  2012 Hitachi Forschung Japan, 2006 Sprecher des Schwerpunktprogramms der DFG „Sicherheit in der Informations- und Kommunikationstechnik“, Träger des österreichischen Ehrenkreuzes für Wissenschaft und Kunst, Ehrenmedaille der WU Wien, sowie Freund der Uni Zagreb. Seit 2011 ist er Ehrendoktor, Dr. rer. nat. der TU Darmstadt. Prof. Dr. Harald Nitsch ist Professor für Betriebswirtschaftslehre und Leiter des Studiengangs Immobilienwirtschaft an der Dualen Hochschule Baden-Württemberg (DHBW) Mannheim. Er schloss seine Studien als Baccalaureus der Mathematik und Diplom-Volkswirt an der Albert-Ludwigs-Universität Freiburg ab, wo er im Jahr 1994 promovierte und 2003 habilitierte. Seine Forschungsschwerpunkte liegen im Einsatz ökonometrischer Verfahren in der Immobilienwirtschaft, insbesondere in den Bereichen hedonischer Preismodelle, Tobins q sowie der Bedeutung von Migrationsprozessen für Immobilienmärkte. Harald Nitsch ist Co-Autor von „Mathematik für Ökonomen“ (mit Alpha Chiang und Kevin Wainwright). Prof. Dr. Alois Oberhauser wurde 1930 in St. Ingbert geboren. Er studierte Volkswirtschaftslehre in Freiburg und Münster. Nach dem Diplom 1953 war er in Münster Wissenschaftlicher Mitarbeiter. Er promovierte 1955 bei Horst Jecht, mit dem er 1959 an die Universität München wechselte und dort 1962 habilitierte. Nach einer Lehrstuhlvertretung in Kiel übernahm Alois Oberhauser 1963 den Lehrstuhl für Volkswirtschaftslehre und Finanzwissenschaft an der Albert-Ludwigs-Universität Freiburg, den er bis 1995 innehatte. Seit 1968 ist er zudem Mitglied im Wissenschaftlichen Beirat beim Bundesministerium der Finanzen. Prof. Dr. Renate Ohr, geb. 1953, studierte an der Universität Mainz Volkswirtschaftslehre und Jura. Nach Promotion an der Universität Essen (1979) und Habilitation an der Universität Bochum (1986) übernahm sie zunächst ein Jahr lang eine Vertretungsprofessur an der Universität Kiel, um dann 1988 einem Ruf auf den



Über die Autoren

397

Lehrstuhl für Außenwirtschaft an der Universität Hohenheim (Stuttgart) zu folgen. Seit Februar 2000 ist Renate Ohr Inhaberin des Lehrstuhls für Wirtschaftspolitik an der Universität Göttingen. Ihr aktuelles Forschungsinteresse gilt dem europäischen Integrationsprozess in all seinen Facetten: von der Entwicklung des Euro über den Europäischen Binnenmarkt bis zur EU / EWU-Governance. Mehmet Özalbayrak, geb. 1980, studierte Volkswirtschaftslehre an der Universität Göttingen. 2005 beendete er sein Bachelorstudium, 2007 erhielt er den Abschluss Master of Arts in International Economics. Von 2007 bis 2013 war er wissenschaftlicher Mitarbeiter und Doktorand am Lehrstuhl für Wirtschaftspolitik von Prof. Dr. Renate Ohr. Sein Forschungsinteresse gilt der Europäischen Währungsunion und insbesondere der Bedeutung und den Auswirkungen realer Wechselkursänderungen innerhalb der EWU. Seit April 2013 ist er bei der BaFin in Bonn tätig. Prof. Dr. Kyungsun Park studierte Volkswirtschaftslehre an der Albert-LudwigsUniversität Freiburg und promovierte 1995 an der Universität Freiburg zum Dr. rer. pol. 1995 bis 1997 war er als Research Fellow am Daewoo Economic Research Institut in Seoul tätig. Von 1997 bis 2003 war er Professor an der Colleage of Sungsim Foreign Studies in Busan. Seit 2003 ist er Professor für Real Estate & Finance an der Youngsan Universiät in Busan Korea. Dr. Jan Peuckert schloss 2013 seine Promotion zu Umweltinnovationssystemen in Schwellenländern ab. Nach dem Studium der Betriebswirtschaftslehre an der Humboldt Universität zu Berlin und einem einjährigen Studienaufenthalt am Instituto de Ciências do Trabalho e da Empresa (ISCTE) in Lissabon, befasste er sich seit 2006 als Wissenschaftlicher Mitarbeiter am Lehrstuhl für Innovationsökonomie der Technischen Universität Berlin im Rahmen verschiedener Forschungsprojekte in Zusammenarbeit mit dem Fraunhofer Institut für System- und Innovationsforschung in Karlsruhe und der Physikalisch-Technischen Bundesanstalt in Braunschweig mit der Thematik von Umweltinnovationen und Entwicklung. Sein besonderes Interesse gilt dabei der Bedeutung einer Qualitätsinfrastruktur als Bestandteil des Nationalen Innovationssystems und als institutionelle Rahmenbedingung für nachhaltiges Wachstum. Prof. Dr. Bernd Raffelhüschen (geb. 1957, verheiratet, drei Kinder) ist seit 1995 Professor für Finanzwissenschaft und Direktor des Forschungszentrums Generationenverträge an der Albert-Ludwigs-Universität Freiburg und (seit 1994) Prof. II an der Universität Bergen, Norwegen. Er studierte in Kiel, Berlin und Aarhus (Dänemark) Volkswirtschaftslehre und promovierte bzw. habilitierte sich in diesem Fach an der Universität Kiel. Zahlreiche Auslandsaufenthalte führten ihn u. a. in die USA aber auch immer wieder in die skandinavischen Länder. Seine Forschungsschwerpunkte liegen in den Bereichen der Sozial- und Steuerpolitik, insbesondere der Alterssicherung, Gesundheitsökonomie und Pflegevorsorge. Neben seiner Mitwir­ kung an internationalen Forschungsprojekten beteiligt er sich – zum Beispiel als Mitglied der Rürup-Kommission, der Kommission Steuergesetzbuch oder als Vorstand der Stiftung Marktwirtschaft – an Fragen der praktischen Sozialpolitik. Prof. Dr. Heinz Rehkugler, geb. 1943, ist seit seiner Pensionierung Professor für Immobilieninvestments an der Steinbeis Hochschule Berlin. Zugleich ist er stellvertretender wissenschaftlicher Leiter der Deutschen Immobilien Akademie an der

398

Über die Autoren

Universität Freiburg (DIA), wissenschaftlicher Leiter des Center for Real Estate Studies (CRES), einer Gemeinschaftsgründung der DIA und der Steinbeis Hochschule Berlin, sowie DeLoitte Gastprofessor an der Universität Regensburg. Nach Studium der BWL und Assistenzzeit an der Universität München war Heinz Rehkugler Gesellschafter-Geschäftsführer einer Unternehmensberatungsgesellschaft und danach Professor für Finanzwirtschaft an den Universitäten Bremen und Bamberg. Von 1994 bis September 2009 war er dann Inhaber des Lehrstuhls für Finanzwirtschaft und Banken an der Universität Freiburg. Heinz Rehkugler ist zudem Aufsichtsratsvorsitzender der Fair Value REIT AG. Prof. Dr. Wolf Schäfer: Nach dem Studium der Volkswirtschaftslehre an den Universitäten Kiel und FU Berlin: 1968 Diplom-Examen (Uni Kiel), 1968–1971 Institut für Weltwirtschaft Kiel, 1970 Promotion, 1977 Habilitation, 1978–1979 Privatdozent Uni Kiel, 1979–1980 Lehrstuhlvertretung VWL Uni Dortmund, 1981– 2006 Lehrstuhl Theoretische VWL Helmut-Schmidt-Universität der Bundeswehr Hamburg, 1983 Gastprofessor UC California Berkeley (USA), weitere Gastprofessuren in Budapest, Stuttgart-Hohenheim, Greifswald, Tallin (Estland). 2003–2005 VizePräsident Helmut-Schmidt-Universität Hamburg. Seit 2001 bis heute Co-Direktor Institute for European Integration des Europa-Kollegs der Universität Hamburg. Bevorzugte Forschungsgebiete: Außenwirtschaftstheorie und -politik, Europäische Integration, Institutionenökonomik, Ordnungsökonomik. Mitglied des Wirtschafts­ politischen Ausschusses (2001–2005: Vorsitzender) und des Ausschusses für Außenwirtschaftstheorie und -politik im Verein für Socialpolitik sowie zahlreicher in- und ausländischer wissenschaftlicher Institutionen. Dr. Daniela Schaper, geb. 1970, ist Inhaberin eines Bewertungsbüros in München und Bad Aibling. Zusätzlich zum Studium zur Diplom-Kauffrau absolvierte sie ein Aufbaustudium zur Diplom-Sachverständigen (DIA), legte die Prüfung zur öffentlich bestellten und vereidigten Sachverständigen für bebaute und unbebaute Grundstücke ab und erwarb die Zertifizierung nach DIN EN ISO / IEC 17024 für den Bereich Immobilienbewertung (Wohn- und Gewerbeimmobilien). Sie promovierte an der Universität Freiburg i. Br. und verfasste ihre Doktorarbeit zum Thema Bewertung von Seniorenimmobilien. Daniela Schaper ist Mitglied im Gutachterausschuss München, im Fachgremium der IHK München sowie im Programm- und Prüfungsausschuss der DIAZert. Sie ist neben ihrer Gutachtertätigkeit als Lehrbeauftragte und Dozentin sowie Autorin tätig. Prof. Dr. Wolfgang Scherf wurde 1956 in Trier geboren. Er studierte Volkswirtschaftslehre an der Albert-Ludwigs-Universität Freiburg. Nach dem Diplom 1980 war er ab 1981 Wissenschaftlicher Mitarbeiter und ab 1987 Hochschulassistent am Institut für Finanzwissenschaft, Lehrstuhl Alois Oberhauser. Die Promotion zum Dr. rer. pol. erfolgte 1986, die Habilitation für das Fach Volkswirtschaftslehre 1993. Von 1993 bis 1995 vertrat er eine Professur für Wirtschaftspolitik in Freiburg. Seit 1996 ist Wolfgang Scherf Professor für Volkswirtschaftslehre mit dem Schwerpunkt Öffentliche Finanzen an der Justus-Liebig-Universität Gießen. Prof. Dr. Dres. h. c. Henner Schierenbeck, geb. 1946 in Bremen, studierte Betriebswirtschaftslehre an den Universitäten Berlin und Freiburg i. Br. 1973 promovierte er zum Dr. rer. pol. und habilitierte sich im Jahr 1978. Von 1978 bis 1980 hatte Schierenbeck die Universitätsprofessur für Unternehmensrechnung an der



Über die Autoren

399

Universität Münster inne, anschließend übernahm er dort die ordentliche Professur für Bankbetriebslehre und war Direktor des Instituts für Kreditwesen. Seit 1990 war Schierenbeck Ordinarius für Bankmanagement und Controlling an der Universität Basel und wurde dort 2009 emeritiert. In Anerkennung seiner Leistungen verlieh ihm die Universität Riga (Lettland) 1999 die Ehrendoktorwürde. Im Rahmen der Gründungsfeier der Mercator School of Management (Duisburg) im Jahr 2005 wurde Prof. Schierenbeck eine zweite Ehrenpromotion verliehen. Im Jahr 1991 gründete Schierenbeck zusammen mit Bernd Rolfes die Managementberatung zeb / rolfes, schierenbeck&associates mit Hauptsitz in Münster, die heute mit über 800 Mitarbeitern zu den größeren Beratungsgesellschaften für Financial Services zählt. Dr. Alexander Spermann ist seit 1999 Privatdozent an der Universität Freiburg. Er unterrichtet dort Arbeitsmarktökonomie und Mikroökonometrie. Als IZA Research Fellow und IZA Policy Fellow sowie als ehrenamtlicher Vorstand des Unternehmensnetzwerks ddn („das Demographie Netzwerk“) publiziert er regelmäßig zu Fragen der Grundsicherung, Personaldienstleistungen und Demografie. Nach seiner Habilitation gründete er das wissenschaftliche Beratungsunternehmen „Economic R & C“ in München – und arbeitete für Bundes- und Landesministerien sowie kommunale Auftraggeber. Im Mittelpunkt dieser Beratungstätigkeit stand die Implementierung und mikroökonometrische Evaluation von Feldexperimenten. Zwischen 2002 und 2007 war er Forschungsbereichsleiter „Arbeitsmärkte, Personalmanagement und Soziale Sicherung“ am Zentrum für Europäische Wirtschaftsforschung (ZEW) in Mannheim – einen Schwerpunkt der Tätigkeit bildete die Evaluation der Hartz-Gesetze und die wissenschaftliche Begleitung von Feldexperimenten mit dem Pflegebudget. Seit 2007 ist er Director bei Randstad Deutschland – Randstad ist der weltweit zweitgrößte Personaldienstleistungskonzern und Marktführer in Deutschland. Johannes Vatter, geb. 1983, hat von 2003 bis 2008 in Freiburg und Warschau Volkswirtschaftslehre und Politikwissenschaft studiert. Seit Herbst 2008 ist er wissenschaftlicher Mitarbeiter am Institut für Finanzwissenschaft und Volkswirtschaftslehre der Universität Freiburg. Er beschäftigt sich schwerpunktmäßig mit den Implikationen der empirischen Zufriedenheitsforschung für die Steuer- und Sozialpolitik.