208 68 6MB
German Pages 800 Year 2012
Managementwissen für Studium und Praxis Herausgegeben von Prof. Dr. Dietmar Dorn und Prof. Dr. Rainer Fischbach Bisher erschienene Titel: Anderegg: Grundzüge der Geldtheorie und Geldpolitik Arrenberg, Kiy, Knobloch, Lange: Vorkurs Mathematik Barsauskas, Schafir: Internationales Management Barth, Barth: Controlling Behrens, Kirspel: Grundlagen der VWL Behrens, Hilligweg, Kirspel: ÜB zur VWL Behrens: Makroökonomie – Wirtschaftspolitik Bichler, Dörr: Personalwirtschaft Blum: Grundzüge anwendungsorientierter Organisationslehre Bontrup, Pulte: Handbuch Ausbildung Bontrup: Lohn und Gewinn Bontrup: Volkswirtschaftslehre Bradtke: Mathematische Grundlagen für Ökonomen Bradtke: Grundlagen in Operations Research für Ökonomen Bradtke: Statistische Grundlagen für Ökonomen Bradtke: Übungen und Klausuren in Mathematik für Ökonomen Breitschuh: Versandhandelsmarketing Busse: Grundlagen der betrieblichen Finanzwirtschaft Camphausen: Strategisches Management Claudius: Betriebswirtschaftslehre Band I, II Dinauer: Grundzüge des Finanzdienstleistungsmarktes Dorn, Fischbach, Letzner: Volkswirtschaftslehre Dorsch: Abenteuer Wirtschaft, 40 Fallstudien mit Lösungen Drees-Behrens, Kirspel, Schmidt, Schwanke: Finanzmathematik, Investition und Finanzierung Drees-Behrens, Schmidt: Aufgaben und Fälle zur Kostenrechnung Ellinghaus: Werbewirkung und Markterfolg Fank: Einführung in das Informationsmanagement Fank, Schildhauer, Klotz: Informationsmanagement Fiedler, Gräf : Einführung in das Controlling Fischbach, Wollenberg: Volkswirtschaftslehre Fischer: Vom Wissenschaftler zum Unternehmer Frodl: Dienstleistungslogistik Gohout: Operations Research Götze, Berg: Techniken des Business Mapping Götze: Grafische und empirische Techniken des BusinessForecasting Götze: Mathematik für Wirtschaftsinformatiker Götze, Deutschmann, Link: Statistik Haas: Access und Excel im Betrieb Haas: Excel im Betrieb Haas: Marketing mit Excel Haas: Kosten, Investition, Finanzierung Hans: Grundlagen der Kostenrechnung Heine, Herr: Volkswirtschaftslehre Hildebrand, Rebstock: Betriebswirtschaftliche Einführung in SAP® R/3® Hofmann: Globale Informationswirtschaft Hoppen: Vertriebsmanagement Koch: Marketing Koch: Marktforschung Koch: Betriebswirtschaftliches Kosten- und Leistungscontrolling in Krankenhaus und Pflege
Krech: Grundriß der strategischen Unternehmensplanung Kreis: Betriebswirtschaftslehre Band I, II und III Laser: Basiswissen Volkswirtschaftslehre Lebefromm: Controlling Lebefromm: Produktionsmanagement Martens: Betriebswirtschaftslehre mit Excel Martens: Statistische Datenanalyse mit SPSS für Windows Martin, Bär: Grundzüge des Risikomanagements nach KonTraG Mensch: Finanz-Controlling Mensch: Kosten-Controlling Müller: Internationales Rechnungswesen Olivier: Windows-C Peto: Geldtheorie und Geldpolitik Peto: Makroökonomik und wirtschaftspolitische Anwendung Peto: Einführung in das volkswirtschaftliche Rechnungswesen Piontek: Controlling Piontek: Beschaffungscontrolling Piontek: Global Sourcing Plümer: Logistik und Produktion Posluschny: Basis Mittelstandscontrolling Posluschny: Erfolgreiche Existenzgründungen in der Praxis Posluschny: Kostenrechnung für die Gastronomie Rau: Planung, Statistik und Entscheidung Reiter, Matthaeus: Marketing-Management mit EXCEL Reiter: ÜB - Marketing-Management mit EXCEL Reiter, Matthaeus: Marktforschung und Datenanalyse mit EXCEL Rudolph: Tourismus-Betriebswirtschaftslehre Rüth: Kostenrechnung, Band I, II Sauerbier: Statistik für Wirtschaftswissenschaftler Schaal: Geldtheorie und Geldpolitik Scharnbacher, Kiefer: Kundenzufriedenheit Schuchmann: Datenmanagement mit MS ACCESS Schuster: Kommunale Kosten- und Leistungsrechnung Schuster: Doppelte Buchführung für Städte, Kreise und Gemeinden Specht, Schweer, Ceyp, Schmitt: Markt- und ergebnisorientierte Unternehmensführung für Ingenieure + Informatiker Stahl: Internationaler Einsatz von Führungskräften Stender-Monhemius: Marketing Stibbe, Hardt: Kostenmanagement Strunz, Dorsch: Management im internationalen Kontext Strunz, Dorsch: Internationale Märkte Weeber: Internationale Wirtschaft Weindl, Woyke: Europäische Union Wilde: Plan- und Prozesskostenrechnung Wilhelm: Prozessorganisation Wörner: Handels- und Steuerbilanz nach neuem Recht Zwerenz: Statistik Zwerenz: Statistik verstehen mit Excel
Volkswirtschaftslehre Paradigmenorientierte Einführung in die Mikro- und Makroökonomie von
Prof. Dr. Michael Heine
Hochschule für Technik und Wirtschaft in Berlin
Prof. Dr. Hansjörg Herr
Hochschule für Wirtschaft und Recht in Berlin
4., vollständig überarbeitete und erweiterte Auflage
Oldenbourg Verlag München
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2013 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 www.oldenbourg-verlag.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Dr. Stefan Giesen Herstellung: Constanze Müller Titelbild: thinkstockphotos.de Einbandgestaltung: hauser lacour Gesamtherstellung: Grafik & Druck GmbH, München Dieses Papier ist alterungsbeständig nach DIN/ISO 9706. ISBN 978-3-486-71523-1 eISBN 978-3-486-71750-1
Vorwort In die Zeit seit der letzten Auflage des Buches fiel die „Große Rezession“ im Jahre 2009, die sich aus den Turbulenzen auf den weltweiten Finanzmärkten die Jahre zuvor ergab. Die Krise verursachte einen tiefen Einschnitt, vor allem in die ökonomische Entwicklung. Eine neue stabile Wachstumsphase ist zumindest bis zum Jahre 2013 in den Industrieländern nicht in Sicht. Eine längerfristige ökonomische Entwicklung, welche mit hoher Arbeitslosigkeit in den meisten Ländern der Welt einhergeht, ist wahrscheinlich – ganz abgesehen von sozialen und ökologischen Problemen, die sich in den letzten Jahren zugespitzt haben. Hinzu kommt, dass die Große Rezession in Europa ab 2010 zu einer beängstigenden Banken- und Staatsschuldenkrise geführt hat. Bei der Vorhersage und Analyse dieser Krise hat sich die ökonomische Wissenschaft nicht gerade mit Ruhm bekleckert. Der ökonomische Mainstream hat die Krise selbst kurz vor ihrem Ausbruch nicht vorhergesehen und die „Rezepte“ zur Bekämpfung der Krise fallen höchst unterschiedlich aus. Zwar haben nahezu alle Ökonomen während der Großen Rezession fiskalische Programme zur ökonomischen Stabilisierung befürwortet, aber es besteht keine Einigkeit, wie eine Prosperitätsphase initiiert werden kann. Dieses Dilemma zeigt, dass Ökonomen nur allzu oft wirtschaftspolitische Schlussfolgerungen aus Modellen ziehen, die zentrale Parameter wirtschaftlicher Entwicklung völlig unzureichend berücksichtigen. Im Ergebnis werden Krisenprozesse nicht gestoppt, sondern verschärft. Mindestens genau so schlimm sind Versuche, aus einem Potpourri verschiedener Modelle oder gar ökonomischer Schulen wirtschaftspolitische Schlussfolgerungen zu ziehen. Es besteht somit mehr denn je die Notwendigkeit, die verschiedenen ökonomischen Paradigmen mit ihren Annahmen und ihren Schlussfolgerungen darzustellen. Wir sehen uns in unserem Bemühen bestätigt, einen paradigmatischen Ansatz zur Lehre der Volkswirtschaftslehre gewählt zu haben. Kenntnisse über die verschiedenen Paradigmen sind die beste Garantie, Überheblichkeiten und erkennbare Unzulänglichkeiten einzelner Schulen und die darauf basierenden wirtschaftspolitischen Verirrungen zu verhindern. Wir versuchen mit unserem Lehrbuch hierzu einen Beitrag zu leisten, der nicht nur Experten vorbehalten sein darf, sondern auch den Studierenden der Volkswirtschaftslehre. Die 4. Auflage hebt sich an verschiedenen Punkten von der letzten Auflage ab. Es wurde versucht, die Grundlagen der verschiedenen ökonomischen Ansätze noch einfacher darzustellen und Weiterführungen in Exkursen zu präsentieren. Durch Fragen am Beginn der einzelnen Abschnitte und Zusammenfassungen der wichtigsten Punkte am Ende soll das Lesen vereinfacht werden. Ganz ohne Mühen erschließt sich ein Verständnis der Volkswirtschaft allerdings nicht. In der vorliegenden Auflage wurden die verschiedenen keynesianischen Strömungen noch stärker herausgearbeitet als zuvor. Ein Schwerpunkt stellt der Postkeynesianismus dar. Dieser Ansatz wurde weiterentwickelt und konkretisiert. Neben dem postkeynesianischen Ansatz wurde die Entwicklung der neoklassisch beeinflussten Keynesinterpretation genauer nachgezeichnet, also die Entwicklung von der Neoklassischen Synthese bis zum Neuen Konsensusmodell. Die internationale Einbettung von Ländern in die Weltwirtschaft war bisher ein Stiefkind. Auch dieser Mangel wurde behoben. Wir haben unzähligen Studentinnen und Studenten zu danken, die uns mit ihren Fragen und Diskussionen immer wieder gefordert haben. Auch Kolleginnen und Kollegen danken wir, die uns zu einer weiteren Ausgabe des Lehrbuches motiviert haben. Danken wollen wir Thomas Obst, Daniel Detzer und Silke Mahnkopf-Praprotnik, die uns bei der Erstellung des Manuskripts unterstützt haben. Ganz besonders danken wir jedoch Bea Ruoff, die bei der Manuskripterstellung die tragende Rolle spielte. Schließlich möchten wir Dr. Stefan Giesen vom Oldenbourg Verlag für seine Geduld und Unterstützung danken. Für Fehler und Unvollkommenheiten bleiben jedoch nur wir verantwortlich. Michael Heine und Hansjörg Herr Juli 2012
VI
Vorwort
Vorwort zur 3. Auflage Erfreulicherweise hat die Nachfrage nach unserem Lehrbuch so schnell eine dritte Auflage notwendig gemacht. Als Reaktion auf die große Anzahl von positiven Anregungen von Studierenden und Kollegen/innen haben wir die dritte Auflage einer weitreichenden Überarbeitung unterzogen. Das bisherige Grundkonzept des Lehrbuches wurde allerdings beibehalten. Um den Grundgedanken der neoklassischen Theorie besser zum Ausdruck zu bringen, beginnen wir bei der Darstellung des neoklassischen Paradigmas mit dem Tauschgleichgewicht ohne Produktion in der Tradition von L. Walras. Dadurch wird die Interaktion der Märkte in den Fordergrund gerückt und die eingeschränkte makroökonomische Aussagekraft von Partialanalysen, die insbesondere A. Marshall entwickelt hat, verdeutlicht. Das Kapitel über die volkswirtschaftlichen Gesamtrechungen haben wir auf ein Minimum reduziert und die übrigen Teile in die Kapitel integriert, die den entsprechenden Teil der volkswirtschaftlichen Gesamtrechnungen berühren. Einer grundlegenden Überarbeitung wurden Teile des keynesianischen Vermögensmarktes sowie das Kapitel über den neoklassischen Keynesianismus unterzogen. Im Kontext dieser Überarbeitung wurden auch die geldpolitischen Instrumente der Europäischen Zentralbank neu aufgenommen. Wir danken insbesondere Tobias zur Mühlen und Florian Zinsmeister für ihren unermüdlichen Einsatz bei der Erstellung der dritten Auflage. Michael Heine und Hansjörg Herr Juli 2002
Vorwort zur 2. Auflage Die von uns gewählte Konzeption einer paradigmenorientierten Einführung in die Volkswirtschaftslehre scheint sich zu bewähren: Erfreulicherweise wurde bereits nach rund 18 Monaten eine zweite Auflage unseres Lehrbuchs notwendig. Durch die Arbeit mit dem Buch, aber auch durch Hinweise von Kolleginnen und Kollegen sind uns einige Fehler im Detail aufgefallen. Soweit sie zu Missverständnissen führen können, haben wir in einer Korrigenda am Ende des Buches die notwendigen Korrekturen vorgenommen. Michael Heine und Hansjörg Herr Mai 2000
Vorwort
VII
Vorwort zur 1. Auflage Wer sich auf dem Büchermarkt umschaut, der wird feststellen, dass es zahlreiche Einführungen in die Volkswirtschaftslehre gibt. Viele dieser Lehrbücher sind unter wissenschaftlichen und didaktischen Gesichtspunkten ausgezeichnet. Warum dann dieses Buch? Erstens finden wir es unbefriedigend, dass in den allermeisten Einführungen die unterschiedlichen ökonomischen Schulen nicht voneinander getrennt werden. Häufig beziehen sich die Lehrbücher nur auf einen theoretischen Ansatz, der dann zuweilen noch als die Volkswirtschaftslehre ausgegeben wird. Dadurch werden die Studierenden aber nur unzureichend in diese Wissenschaftsdisziplin eingeführt, nicht zuletzt, weil sie auf dieser Grundlage kontroverse wirtschaftspolitische Debatten in der Gesellschaft nicht hinreichend verstehen und bewerten können. Zweitens basieren Einführungen in den Keynesianismus fast immer auf dem so genannten IS-LMModell und der „neoklassischen Synthese“. Dies ist erstaunlich, da es einen breiten wissenschaftlichen Konsens gibt, dass diese Modelle nicht geeignet sind, die keynesianischen Gedanken sachgemäß wiederzugeben. Daher haben wir mit diesem Lehrbuch den Versuch unternommen, eine unseres Erachtens modernere und tragfähigere Interpretation des Keynesianismus zu liefern. Drittens wird auch die so genannte reale neoklassische Makroökonomie häufig in einer Version präsentiert, die nach wissenschaftlichen Kriterien kaum aufrecht zu erhalten ist. Kaum einmal werden die Ergebnisse der vor allem in den sechziger Jahren intensiv geführten Debatten um diesen Strang der Neoklassik dargestellt. Zuweilen fehlt sogar jeder Hinweis. Dies ist nur schwer nachvollziehbar, da es in diesen Diskussionen um so wirtschaftspolitisch relevante Fragestellungen wie den Zusammenhang von Lohnhöhe und Beschäftigungsvolumen ging. Auch diese Lücke haben wir versucht zu schließen. Viertens haben wir bewusst die Mikro- und die Makroökonomie in einem Lehrbuch zusammengefasst. Nur so kann der unterschiedliche Charakter mikro- und makroökonomischer Analysen verdeutlicht werden. Vor allem zeigen sich dann auch die Brüche und Unvereinbarkeiten zwischen diesen beiden Bereichen der Volkswirtschaftslehre. Im Ergebnis wird sichtbar, dass die Volkswirtschaftslehre eine Sozialwissenschaft ist und damit in historisch spezifische gesellschaftliche Zusammenhänge eingebunden bleibt. Bei der Erstellung des Buches sind wir tatkräftig unterstützt worden. Insbesondere sind wir Michael Heinrich und Klaus Schabacker zu großem Dank verpflichtet. Ohne deren unermüdliche Hilfe und Kritik wäre das Buch in der nun vorliegenden Art und Weise nicht entstanden. Zu danken haben wir auch Trevor Evans, der uns in der Endphase der Erstellung des Lehrbuchs mit zahlreichen Anregungen bedacht hat. Margit Scholl und Roald Koch haben mit kräftezehrendem Aufwand unsere Mängel bei der Manuskripterstellung beseitigt. Auch ihnen beiden gilt unser Dank. Schließlich seien noch Alexander Frenzel und Markus Kloss erwähnt, die uns bei der Erstellung der Grafiken unterstützt haben. Michael Heine und Hansjörg Herr
Inhalt 1. Kapitel: Einführung in die Volkswirtschaftslehre 2. Kapitel: Neoklassische Mikroökonomie
1 11
2.1 Dogmengeschichtliche Einordnung
11
2.2
Das neoklassische Tauschmodell ohne Produktion
13
2.3
Theorie des Haushalts
20
2.3.1 Vorbemerkungen
20
2.3.2 Budgetrestriktionen
20
2.3.3 Die Präferenzordnung
24
2.3.4 Der optimale Konsumplan und die Nachfragefunktion
34
2.3.5 Elastizitäten
43
2.3.6 Kritische Würdigung
48
2.4
Unternehmenstheorie
51
2.4.1 Vorbemerkungen
51
2.4.2 Gewinn- und Erlösfunktion
51
2.4.3 Produktionsfunktionen
53
2.4.4 Minimalkostenkombination
66
2.4.5 Gesamtkostenfunktionen
70
2.4.6 Güterangebot bei gegebenen Kapazitäten
76
2.4.7 Wahl der Kapazität eines Unternehmens und langfristiges Angebot
85
2.4.8 Kritische Würdigung
90
2.5
Partielle Gütermarktgleichgewichte
91
2.5.1 Partielles kurzfristiges Gütermarktgleichgewicht
91
2.5.2 Partielles langfristiges Gütermarktgleichgewicht
95
2.5.3 Grenzen der Partialanalyse
101
2.5.4 Kritische Würdigung
104
X
Inhalt 2.6
Monopolistisches Anbieterverhalten
107
2.6.1 Das Angebotsmonopol
107
2.6.2 Monopolistische Konkurrenz
116
2.7
Neoklassische Arbeitsmarkttheorie
120
2.7.1 Vorbemerkungen
120
2.7.2 Arbeitsangebot
121
2.7.3 Arbeitsnachfrage
130
2.7.4 Das partielle Arbeitsmarktgleichgewicht
134
2.7.5 Kritische Würdigung
138
2.8
Neoklassischer Kapitalmarkt
141
2.8.1 Vorbemerkungen
141
2.8.2 Sparen und Angebot von Kapital
142
2.8.3 Nachfrage nach Kapital und Investitionen
149
2.8.4 Das partielle Kapitalmarktgleichgewicht
154
2.8.5 Kritische Würdigung
157
2.9
Das neoklassische mikroökonomische Gesamtmodell
160
2.9.1 Das walrasianische Totalmodell mit Produktion
160
2.9.2 Pareto-effiziente Allokation gegebener Ressourcen
169
2.10 Kritische Würdigung der neoklassischen Mikroökonomie
183
2.11 Das Problem der Ökologie – negative externe Effekte
188
3. Kapitel: Neoklassische Makroökonomie
200
3.1
Makro- und Mikroökonomie
200
3.2
Die neoklassische reale Makroökonomie
205
3.2.1 Arbeits-, Kapital- und Gütermarkt in kurzfristiger Perspektive
205
3.2.2 Die neoklassische langfristige Wachstumstheorie
218
3.2.3 Parabeln der neoklassischen Kapitaltheorie
224
3.3
Kritik der neoklassischen realen Makroökonomie
3.3.1 Dogmengeschichtliche Einordnung der Kritik
234 234
XI
Inhalt 3.3.2 Grundzüge des Produktionspreismodells von Sraffa: die klassische Theorie relativer Preise
235
3.3.3. Die Widerlegung der neoklassischen realen Makroökonomie
250
3.4
Monetäre neoklassische Makroökonomie
268
3.4.1 Nominale und reale Größen
268
3.4.2 Die alten Varianten der Quantitätstheorie
272
3.4.3 Die Neoquantitätstheorie (Monetarismus I)
276
3.4.4 Die Phillipskurve
289
3.4.5 Die Neuklassik (Monetarismus II)
298
3.4.6 Exkurs: Bestimmung der Geldmenge
310
3.4.7 Kritische Würdigung
315
4. Kapitel: Keynesianische Makroökonomie 4.1
Volkswirtschaftliche Gesamtrechnungen
319 319
4.1.1 Die Nationalproduktberechnung
319
4.1.2 Der volkswirtschaftliche Kreislauf
332
4.1.3 Nationalprodukt und Wohlstand
335
4.2
Grundlagen des keynesianischen Paradigmas
339
4.2.1 Dogmengeschichtliche Einordnung
339
4.2.2 Geldvorschuss und Einkommensbildung
343
4.2.3 Zeit, Unsicherheit und Geld
348
4.3. Der Vermögensmarkt
360
4.3.1 Die Struktur des Vermögensmarktes
360
4.3.2 Das Kreditangebot
363
4.3.3 Exkurs: Der Einfluss der Haushalte auf das Kreditangebot
372
4.3.4 Die Kreditnachfrage und die Investitionsentscheidung
385
4.3.5 Das Gleichgewicht auf dem Kreditmarkt
395
4.3.6 Kritische Würdigung
399
4.4
Der Güter- und Arbeitsmarkt bei Mengeneffekten
402
4.4.1 Aggregierte Nachfrage und Produktionsvolumen
402
XII
Inhalt 4.4.2 Der Gütermarktmultiplikator
412
4.4.3 Produktion und Beschäftigung
418
4.5 Preisniveau und Zyklus
422
4.5.1 Kosten- und Nachfrageinflation
422
4.5.2 Der Konjunkturzyklus
434
4.5.3 Extreme Preisniveauprozesse
444
4.5.4 Finanzmarktkrisen
455
4.6
Die funktionale Einkommensverteilung
462
4.7
Das keynesianische Gesamtmodell
471
4.7.1 Zinssatz und Produktionsvolumen: die IS-Kurve
471
4.7.2 Beschäftitung und Preisniveau: die NAIRU
474
4.7.3 Interaktion der Makromärkte
481
4.8
Kritische Würdigung
5. Kapitel: Der neoklassische Keynesianismus
500
507
5.1
Dogmenhistorischer Hintergrund
507
5.2
Das IS-LM-Modell
510
5.3
Die neoklassische Synthese
524
5.3.1 Das Grundmodell der neoklassischen Synthese
524
5.3.2 Liquiditätsfalle, Investitionsfalle und starre Löhne
528
5.3.3 Der Pigou-Effekt
537
5.3.4 Aggregiertes Angebot und aggregierte Nachfrage
540
5.4
Der Neu-Keynesianismus
545
5.4.1. Die Merkmale des Neu-Keynesianismus
545
5.4.2 Die Effizienzlohntheorie
548
5.4.3 Preisrigiditäten
550
5.4.4 Das Neue Konsensmodell
552
5.5
Kritische Würdigung
559
Inhalt
XIII
6. Kapitel: Wirtschaftspolitik
563
6.1
Die Grundlagen der Wirtschaftspolitik
563
6.1.1 Die fehlende Eindeutigkeit wirtschaftspolitischer Impulse
563
6.1.2 Die Grundzüge neoklassischer und keynesianischer Wirtschaftspolitik
565
6.2
Geldpolitik
571
6.2.1 Keynesianische Geldpolitik
571
6.2.2 Neoklassische Geldpolitik
579
6.2.3 Zielinflationsregel und Taylor-Regel
586
6.3
Lohnpolitik
593
6.3.1 Keynesianische Lohnpolitik
593
6.3.2 Neoklassische Lohnpolitik
599
6.4
Fiskalpolitik
602
6.4.1 Keynesianische Fiskalpolitik
602
6.4.2 Neoklassische Fiskalpolitik
625
7. Kapitel: Einführung in die Theorie von Karl Marx
628
7.1
Vorbemerkungen
628
7.2
Die Marxsche Theorie
629
7.3
Kritische Würdigung
643
8. Kapitel: Außenwirtschaftstheorie
646
8.1
Vorbemerkungen
646
8.2
Grundlagen
647
8.2.1 Zahlungsbilanz und Volkswirtschaftliche Gesamtrechnungen
647
8.2.2 Wechselkurs und Terms of Trade
654
8.2.3 Wechselkurssysteme
657
8.3
Reale Außenhandelstheorie
8.3.1 Vorbemerkungen
660 660
XIV
Inhalt 8.3.2 Die Theorie komparativer Kostenvorteile
661
8.3.3 Internationale Arbeitsteilung und der Marktmechanismus
668
8.4
Devisenmärkte, Arbitrage und Erwartungen
679
8.5
Neoklassische monetäre Außenwirtschaftstheorie
687
8.5.1 Die monetäre Theorie bei flexiblen Wechselkursen
687
8.5.2 Die monetäre Theorie bei fixen Wechselkursen
691
8.5.3 Kritische Würdigung
694
8.6
Keynesianische monetäre Außenwirtschaftstheorie
697
8.6.1 Der Vermögensmarkt bei mehreren Währungen
697
8.6.2 Außenhandel und Wachstum
708
8.6.3 Außenwirtschaft und Inflation
715
8.6.4 Hegemoniales Währungssystem und Multiwährungsstandard
720
8.6.5 Währungskrisen
726
8.7
Ansätze nachholender Entwicklung
733
8.8
Das Mundell-Fleming-Modell
746
8.9
Reform des Währungssystems
751
Literaturverzeichnis
757
Index
781
1. Kapitel: Einführung in die Volkswirtschaftslehre Fragestellung Die Funktion ökonomischer Modelle Präferenz- und Verhaltensannahmen Paradigmen Mikro- und Makroökonomie Gleichgewicht, statische und komparativ-statische Analyse Modelle und Realität Endlich einmal zu wissen, warum es Arbeitslosigkeit gibt und wie man sie bekämpfen kann, warum Preise steigen und wo die Ursachen für die immer wiederkehrenden Finanz- und Wirtschaftskrisen liegen, weshalb die unterentwickelten Länder nicht aufholen und was man von Börsenspekulanten zu halten hat, ist die Motivation vieler, sich mit dem Fach Volkswirtschaftslehre auseinander zu setzen. Um Fragen dieser Art seriös beantworten zu können, bedarf es allerdings einiger theoretischer Anstrengungen und man kommt nicht umhin, sich auf die Besonderheiten dieses Fachs einzulassen. Eine dieser Besonderheiten ist die stark ausgeprägte Modellbildung. Nahezu sämtliche Sachverhalte − und nicht zuletzt auch solche, die den aufgeklärten Zeitgenossen stark interessieren (wie beispielsweise Massenarbeitslosigkeit, Umweltverschmutzung, Armut oder Inflation) − werden so „modelliert“, dass jeder Bezug zur Realität verloren zu gehen scheint. Dadurch geht häufig aber auch das Interesse an der Volkswirtschaftslehre verloren. Sollte man dann nicht lieber auf Modelle verzichten? Das geht leider nicht. Zum besseren Verständnis der Bedeutung von Modellen sei ein einfaches Beispiel gewählt. Angenommen, der Preis für Erdnüsse steigt. Die Volkswirtschaftslehre ist natürlich daran interessiert, zu erklären, warum dem so ist. Möglicherweise liegt es daran, dass die Konsumenten ihre Vorliebe für Erdnüsse stärker als zuvor entdeckt haben: Die steigende Nachfrage hat den Preis erhöht. Oder besteht der Grund eher darin, dass die Produktionskosten gestiegen sind und die Produzenten die zusätzlichen Kosten auf die Preise überwälzt haben? Vielleicht sind einige wenige Großhändler auch ein „Frühstückskartell“ eingegangen und konnten so den Preis anheben. „Nein, nein“, behaupten andere, „die miese Ernte ist schuld“. „Unsinn“, sagen die Kritiker, „der Dollar ist aufgewertet worden, so dass Erdnüsse in Deutschland teurer geworden sind“. Oder sind die Preissteigerungen bei Erdnüssen das Resultat der Preiserhöhung bei Walnüssen? Vielleicht wurde auch der Margarinepreis angehoben, so dass die Leute verstärkt Erdnussbutter nachfragen? Oder war es der Boom in der Schokoladenindustrie, oder der Streik, oder... Die Realität ist vielfältig strukturiert, ständig in Bewegung und somit kontinuierlichen Veränderungen unterworfen, und irgendwie hängt alles mit allem zusammen. Daher entzieht sich die Realität einer unmittelbaren Einsicht. Es existiert aus der Sicht des Menschen keine Realität an sich. Wir können uns ihr nur auf der Basis bestimmter Vorstellungen über sie, also nur gedanklich nähern. Denken wir an einen Tisch, dann haben wir, um mit den Worten des Philosophen Hegel zu sprechen, nicht den Tisch im Kopf, sondern eben nur eine Vorstellung von einem Tisch. Vorstellungen über die Realität können sich jedoch unterscheiden. Je nach ökonomischer Schule wird die Realität dann anders gefasst, gedeutet und bewertet. Ziel jeder wissenschaftlichen Arbeit ist es, entsprechend der jeweiligen Fragestellung, die dominanten Einflussgrößen zu erfassen und von den unwichtigen, flüchtigen abzusehen. Joan Robinson, eine bekannte englische Ökonomin, hat dies in der ihr eigenen Präzision sinngemäß so ausgedrückt, dass ein Modell, das die ganze Buntheit der Wirklichkeit berücksichtigt, nicht nützlicher sei als eine Landkarte im Maßstab von Eins zu Eins. So wenig wie es der Nachteil einer Straßenkarte ist, nicht jeden Wander- und Fahrradweg aufzuführen, so wenig ist es ein Defizit volkswirtschaftlicher Model-
2
Einführung in die Volkswirtschaftslehre
le, von eher unwesentlichen Erscheinungen zu abstrahieren und sich auf die wesentlichen Sachverhalte zu konzentrieren. Das genau wird mit Hilfe der Modelle versucht. Modellbildungen sind nicht nur in der Volkswirtschaftslehre üblich. Nehmen wir als Beispiel die Meteorologie. Das Wetter ist das Resultat einer Vielzahl von Faktoren, wie der Lufttemperatur, des Luftdrucks, des Windes, der Wolkenarten usw., die zudem ständig räumlichen und jahreszeitlichen Veränderungen unterliegen. Dies hat zur Folge, dass mit zahlreichen Modellannahmen, wie einem hierarchischen System von „Modellwinden“, gearbeitet werden muss. Im einfachsten Fall ist dies ein beschleunigungsfreier Gleichgewichtswind, bei dem reibungsfreie, geradlinige, rein horizontale Bewegungen vorausgesetzt werden, so dass dieser Modellwind mit dem realen Wind ohne Zweifel nichts zu tun hat. Trotzdem ist es hilfreich, solche Abstraktionen zu bilden, unter anderem für Wettervorhersagen. Was aber sind die wesentlichen Aspekte eines (wirtschaftlichen) Sachverhalts? Sie zu bestimmen ist nicht nur ein Problem der Volkswirtschaftslehre, sondern aller Wissenschaftsdisziplinen. Die Aufgabe lässt sich umso leichter lösen, je kleiner die Zahl der Einflussfaktoren ist und je besser sich dominante Kräfte erfassen lassen. Bleiben wir beim Wetter. Unter bestimmten Rahmenbedingungen, wie einer stabilen Hochdruckwetterlage, lassen sich die zahlreichen Wetterparameter auf dominante Kräfte reduzieren, so dass in diesen Fällen recht gut mit Modellwinden gearbeitet werden kann. Nehmen hingegen die Turbulenzen zu und nimmt damit der Einfluss eines stabilen Grundstroms als dominante Kraft ab, so sinkt die Treffsicherheit von Wetterprognosen. Für die Volkswirtschaftslehre sind Turbulenzen eher typisch, da die wirtschaftliche Entwicklung von unzähligen Faktoren, wie sich wandelnden Erwartungen der Wirtschaftssubjekte, veränderten Bedürfnisstrukturen der Menschen, neuen Technologien, Tarifvereinbarungen, politischen Wahlentscheidungen usw. abhängt. Dessen ungeachtet ist man − soll der Kopf nicht in den Sand gesteckt werden − gezwungen, Vorstellungen und Ideen über die dominierenden und die weniger relevanten Kräfte zu entwickeln. Dieses Vorgehen beinhaltet ein Element der Willkür und ist für keine Wissenschaftsdisziplin sehr befriedigend; aber leider gibt es kein besseres. Die modellhaften Überlegungen spiegeln folglich eine bestimmte Auffassung des Theoretikers von der Realität wider. Und im Rahmen dieser Auffassung wird von bestimmten Größen (zunächst oder dauerhaft) abgesehen und andere werden in ihrer Relevanz betont. Ziel ist es, wesentliche, dauerhafte Elemente von oberflächlichen, flüchtigen, eher zufälligen zu trennen und so einen Zugang zur Erklärung von der Realität zu finden. Im Erdnussbeispiel kann man etwa vom Streik absehen, weil er nur einen Tag gedauert hat, von Preisabsprachen, weil es zahlreiche Anbieter gibt usw. Soll die längerfristige Entwicklung des Erdnusspreises erklärt werden, wird man dagegen von Veränderungen der Produktivität in der Erdnussbranche oder von gestiegenen Lohnkosten nicht absehen können. Volkswirtschaftliche Modelle, die in ihrer Komplexität eingeschränkt werden müssen, sollen nur die Grundstrukturen einer Ökonomie offen legen. Modelle sind so aufgebaut, dass einige der Variablen als gegeben unterstellt werden, während andere durch das Modell erklärt werden sollen. Die erste Gruppe nennt man exogene, die zweite Gruppe endogene Variablen. So werden beispielsweise die Gründe für Veränderungen des Geschmacks von Konsumenten in aller Regel nicht untersucht – sie werden somit exogen gesetzt. Dagegen wird der Einfluss des Geschmacks auf die Preise durchaus untersucht – die Preise werden somit vom Modell endogen erklärt. Je nach Fragestellung können Variablen als exogen oder endogen angenommen werden. In der Realität sind zahlreiche Faktoren – beispielsweise jene, die den Erdnusspreis beeinflussen – beständig im Fluss. Isolierte Experimente, bei denen die Auswirkung der Veränderung nur eines Faktors auf die betrachtete Variable untersucht wird, sind zwar in der Physik in bestimmten Bereichen möglich, nicht jedoch in der Ökonomie. Gleichwohl können in ökonomischen Modellen gedanklich isolierte Experimente durchgeführt werden. Im Rahmen eines solchen Gedankenexperiments kann sich eine exogene Variable eines Modells ändern, während alle anderen Größen als unverändert unterstellt werden. Dadurch lassen sich grundlegende Beziehungen einfacher begreifen. Bei unserem
Einführung in die Volkswirtschaftslehre
3
Erdnussbeispiel könnte eine Produktivitätsveränderung in der Erdnussbranche angenommen und dann untersucht werden, wie sich − bei unverändertem Geschmack der Konsumenten, unveränderten Lohnkosten etc. − der Erdnusspreis verändert. Bei Analysen dieser Art bildet man so genannte Ceteris-Paribus-Bedingungen. Obwohl es in der Realität keine isolierten Veränderungen von Variablen gibt, sind Analysen im Rahmen einer Ceteris-Paribus-Bedingung fruchtbar, sowohl zur Verdeutlichung der Logik des benutzen Modells als auch für Wirtschaftsanalysen und –prognosen. Im Verlauf dieser Einführung werden die Leser mit zahlreichen Abstraktionen konfrontiert werden, die vom vollständig rational handelnden Menschen bis zur beliebigen Teilbarkeit aller Güter reichen. In all diesen Fällen geht es nicht um eine möglichst realitätsnahe Beschreibung von empirischen Sachverhalten, sondern um eine gedankliche Konzentration auf die wesentlichen Aspekte. Häufig werden die Modellannahmen dann im Verlauf einer Analyse schrittweise gelockert, um so den Erklärungswert des Modells zu erhöhen. Dessen ungeachtet sollte man immer im Kopf behalten, dass zahlreiche Ergebnisse der Modellanalysen nur aufgrund extremer Vereinfachungen zustande kommen − nicht zuletzt, um voreilige Schlussfolgerungen bei wirtschaftspolitischen Empfehlungen zu vermeiden. Damit aber ist die Frage noch nicht beantwortet, von welchen Faktoren denn abgesehen werden darf und von welchen eben nicht. Eine allgemeinverbindliche Festlegung, welche Vorstellungen sich ein Theoretiker von der Realität zu machen hat, gibt es nicht. Grundsätzlich wird man jedem Wissenschaftler zugestehen müssen, dass er andere Aspekte für wichtiger hält als sein Kollege. Modelle sind demnach üblicherweise nicht wahr oder falsch, sondern − wenn überhaupt − zweckmäßig oder weniger zweckmäßig. Sie spiegeln eine bestimmte Auffassung des Theoretikers über sein Verständnis von der Realität wider. Bleiben wir bei der Preiserhöhung von Erdnüssen. Einige Ökonomen werden ihr Modell so aufbauen, dass im Allgemeinen die Produktionskosten die Höhe der Preise bestimmen. Andere werden ein Modell entwickeln, in dem die Nachfrage eine wichtige Rolle bei der Bestimmung der Preise spielt. Abstraktionen sollten angemessen sein. Damit ist gemeint, dass eine Abstraktion nicht so ausfallen darf, dass die abgeleiteten Ergebnisse des Modells vollständig zusammenbrechen, wenn die gesetzten Annahmen gelockert werden. So ist es z. B. eine angemessene Vorgehensweise, von der Existenz von Monopolen abzusehen und einen Markt mit vielen Anbietern zu unterstellen. Wird diese Abstraktion nämlich aufgehoben, dann ergeben sich neue Aspekte und Erkenntnisse, die jedoch das einfachere Modell nicht zerstören. Es gibt in der Ökonomie ein zentrales Beispiel für eine unangemessene Abstraktion, die uns in diesem Lehrbuch noch ausführlich beschäftigen wird. Spezifische volkswirtschaftliche Modelle unterstellen die Existenz nur eines einzigen Kapitalgutes und leiten auf dieser Basis Aussagen wie jene ab, dass mit sinkendem Lohn die Nachfrage der Unternehmen nach Arbeit steigt. Werden auch nur zwei Kapitalgüter vorausgesetzt, dann brechen diese Ergebnisse des Modells zusammen − es lässt sich dann keine Beziehung mehr zwischen den Lohnveränderungen und der Arbeitsnachfrage der Unternehmen ableiten. In diesem Fall handelt es sich um eine unangemessene Abstraktion. Es gibt auch Abstraktionen, die höchst umstritten sind. So wird von einigen Modellen unterstellt, dass Wirtschaftssubjekte die Zukunft kennen können, zumindest auf der Grundlage von wahrscheinlichkeitstheoretischen Überlegungen. Andere Modelle argumentieren, dass die Zukunft nicht bekannt sein kann. Können nicht empirische Untersuchungen darüber entscheiden, welche Theorie die richtige ist? Leider ist auch dieser Weg verschlossen. Unterstellen wir zur Verdeutlichung, dass eine Theorie behauptet, dass die Zentralbank immer für eine Inflation verantwortlich ist, da jede Erhöhung der Geldmenge die Preise ansteigen lässt. Die Theorie führt ins Feld, dass Geldmenge und Preise empirisch simultan steigen. Eine andere Theorie argumentiert, dass die Preise aufgrund gestiegener Kosten gestiegen sind und sich aus diesem Grund die Geldmenge erhöht. Zudem sei der enge Zusammenhang zwischen Geldmengen- und Preiserhöhung nicht zwingend. Beide Theorien sehen sich empirisch bestätigt. Steigt die Geldmenge ohne eine Erhöhung der Preise, so kann sich die erste Theorie
4
Einführung in die Volkswirtschaftslehre
auf Sonderfaktoren zurückziehen, die dieses für sie unerwartete Resultat erklären. Debatten dieser Art sind in der Volkswirtschaftslehre weit verbreitet. Das Fazit ist ernüchternd: Die Richtigkeit eines Modells lässt sich üblicherweise mit empirischen Daten weder belegen noch widerlegen. Mit diesem Ergebnis muss man leben, und es ist angebracht, diesem Sachverhalt in der Forschung und vor allem auch in der Lehre Rechnung zu tragen. Wenn eine empirische Überprüfung letztlich keine gesicherte Entscheidung über die Qualität eines Modells liefert, wie soll man es dann beurteilen? Dazu gibt es verschiedene Kriterien. Zunächst einmal müssen Modelle in sich logisch widerspruchsfrei sein. An diesem Kriterium sind zum Beispiel die so genannte neoklassische reale Makroökonomie und die marxistische Umrechung von Werten in Preise bei der Existenz vieler Kapitalgüter gescheitert (vgl. die einschlägigen Kapitel im Buch). Zweitens sollte man beim Vorbehalt gegenüber empirischen Überprüfungen „die Kirche im Dorf“ lassen. Sofern ein Modell Ergebnisse liefert, die ständig im Widerspruch zu den realen wirtschaftlichen Entwicklungen stehen, so deutet dies zumindest darauf hin, dass der theoretische Zugang zur Realität wenig überzeugend ist. Auch wenn damit nicht entschieden ist, ob das Modell „richtig“ oder „falsch“ ist, so wird es faktisch an Bedeutung verlieren. Allerdings gibt es eine Reihe von existierenden Modellen, die wirtschaftliche Abläufe durchaus plausibel erklären können. Präferenzannahmen und Verhaltenshypothesen Methodisch liegen ökonomischen Modellen oftmals so genannte Präferenzannahmen zugrunde, wonach beispielsweise Individuen individuelle Nutzen- und Unternehmen individuelle Gewinnmaximierer sind. Diese Annahmen werden unabhängig von ihrer empirischen Richtigkeit als Teil der Vorraussetzungen des Modells gesetzt. Nehmen wir etwa die Annahme der individuellen Nutzenmaximierung, die offensichtlich nicht für jede ökonomische Handlung gilt. Menschen spenden für wohltätige Zwecke, obwohl sie den Präferenzannahmen zufolge nur ihren Eigennutzen verfolgen sollten. Vielleicht fühlen sie sich durch die Spende besser, so dass sie dank der unterstützenden Leistung ihren individuellen Nutzen erhöht haben. Aber eine solche Argumentation wäre rein tautologisch. Die Nutzenmaximierung eines Individuums muss nicht immer zum Wohle des Individuums sein, zumindest, wenn von einer übergeordneten Vorstellung ausgegangen wird. Nehmen wir den Raucher: Obwohl er weiß, dass er sich objektiv schadet, mag er aufs Rauchen nicht verzichten. Durch den Kauf von Zigaretten will er seinen subjektiven Nutzen erhöhen. Die Ökonomie verwendet somit offenbar einen rein formalen und individualisierten Rationalitätsbegriff, da sie nicht untersucht, ob die Ziele der Wirtschaftssubjekte auch „objektiv“ sinnvoll sind.1 Der methodische Stellenwert von Präferenzannahmen kann bei bestimmten Fragestellungen sinnvoll sein. Dies lässt sich mit Hilfe der Gewinnmaximierung verdeutlichen. Einzelne Unternehmer mögen beispielsweise ihren Produktionsstandort aus persönlichen Gründen selbst dann nicht verlassen, wenn ein anderer unter ökonomischen Gesichtspunkten höhere Gewinne erwarten lässt. Ist damit die Präferenzannahme der Gewinnmaximierung als sinnlos widerlegt? Keineswegs! Denn sofern ein Unternehmer ernsthaft die Ziele der Kostensenkung und Erlössteigerung aus den Augen verliert, wird er perspektivisch seine Wettbewerbsfähigkeit einbüßen und vom Markt verdrängt werden. Demnach sind Präferenzannahmen nicht so angelegt, dass sie einer empirischen Überprüfung bedürfen. Sie geben Auskunft über die dem Modell unterlegte Logik individuellen Handelns auf Märkten und nicht über konkrete Handlungsmuster von Individuen. Wie wir noch zeigen werden, lassen sich auf der alleinigen Basis von Präferenzannahmen nur sehr „dünne“ ökonomische Schlussfolgerungen gewinnen. Modelle, die wirtschaftspolitisch relevantere Aussagen treffen wollen, bedürfen weitergehender Setzungen, so genannter Verhaltenshypothesen.
1
Es soll nicht verschwiegen werden, dass es auch andere Rationalitätsbegriffe gibt. So unterscheidet Max Weber beispielsweise zwischen formaler und materialer Rationalität.
Einführung in die Volkswirtschaftslehre
5
Diese gelten nur in historisch spezifischen Phasen, sind situativ bedingt und können sich folglich je nach Lage der Dinge ändern. Modelle mit Verhaltenshypothesen verlieren ihre Allgemeingültigkeit, können jedoch weitergehende Aussagen ableiten als jene, die allein auf Präferenzannahmen basieren. Eine Verhaltenshypothese wird beispielsweise eingeführt, wenn man davon ausgeht, dass eine Einkommenserhöhung von zehn Prozent zu einer erhöhten Nachfrage nach Konsumgütern von sieben Prozent führt. Ob sich die Nachfrage tatsächlich gerade so entwickelt, kann nicht logisch, sondern nur empirisch überprüft werden. Im Unterschied zu Präferenzannahmen sind Verhaltenshypothesen − wie der Name sagt − Hypothesen über das Verhalten von Wirtschaftssubjekten und folglich empirisch überprüfbar. Ein anderes Beispiel für eine Verhaltenshypothese ist die Aussage, dass mit sinkendem Zinssatz die Investitionsnachfrage steigt. Ob es tatsächlich zu dieser Reaktion kommt und in welchem Ausmaß die Investitionen gegebenenfalls steigen, kann nur verhaltenstheoretisch begründet werden. Die meisten Modelle arbeiten an bestimmten Stellen mit Verhaltenshypothesen. Jeder Rezipient von ökonomischen Modellen sollte die Plausibilität dieser Hypothesen jeweils kritisch hinterfragen. Paradigmen Da Theorien im Kern nicht falsch oder wahr sind, sondern eine bestimmte Auffassung von Realität widerspiegeln, ist es nicht verwunderlich, dass es viele unterschiedliche ökonomische Theorien gibt. Diese koexistieren und konkurrieren miteinander. Sofern derartige Theorien eine in sich (mehr oder weniger) geschlossene, umfassende Perspektive der Forschung und der Interpretation ökonomischer Zusammenhänge besitzen, spricht man auch von einem Paradigma. In der Volkswirtschaftslehre können bisher drei große Paradigmen voneinander unterschieden werden: die Klassik, die Neoklassik und der Keynesianismus. Demnach gibt es streng genommen nicht die Volkswirtschaftstheorie, sondern unterschiedliche Volkswirtschaftstheorien. Sie unterscheiden sich beileibe nicht nur in Details voneinander, sondern reflektieren fundamental unterschiedliche Auffassungen über die „Gesetzmäßigkeiten“ wirtschaftlicher Phänomene und Entwicklungen. Auf fundamentale Uneinigkeiten treffen wir bei der Erklärung der Einkommensverteilung, der Begründung von Arbeitslosigkeit oder der Rolle des Geldes in der Ökonomie. In Wahrheit ist es noch komplizierter. Denn tatsächlich existieren auch innerhalb der einzelnen Paradigmen recht unterschiedliche Auffassungen, und die einzelnen Ansätze innerhalb eines Paradigmas stehen sich nicht selten „spinnefeind“ gegenüber. Auf der Grundlage eines Paradigmas können durchaus unterschiedliche Modelle konstruiert werden. Dennoch lassen sich solche divergierenden Auffassungen einem Paradigma zuordnen, wenn die zentralen, den Kernbereich des Paradigmas berührenden Ideen geteilt werden. Die Unterschiede der verschiedenen ökonomischen Paradigmen kommen in der Definition dessen zum Ausdruck, was unter Wirtschaften verstanden werden sollte. Die Neoklassik beispielsweise geht im Kern davon aus, dass knappe und gegebene Ressourcen auf die gleichsam unendlichen Bedürfnisse der Menschen treffen und diese zum Wirtschaften zwingen. Folgerichtig werden die Preise von Gütern in erster Linie als Knappheitspreise abgeleitet. Haushalte verfügen über gegebene Anfangsbestände von Ressourcen − Güter, Boden und Arbeitskraft. In aller Regel jedoch entspricht die Ressourcenausstattung der einzelnen Haushalte nicht deren Konsumwünschen. Folglich kann durch Tausch das Wohlbefinden von Haushalten erhöht werden. Die neoklassische „Vision“ der Ökonomie entspricht somit einer Tauschwirtschaft mit exogen gesetzten Anfangsbeständen. Dieser Auffassung über die „Logik“ einer Ökonomie folgen die Klassiker nicht. Sie setzen stattdessen voraus, dass die Menschen im Interesse der Überlebenssicherung die Natur entsprechend ihrer Bedürfnisse umformen. Daher nehmen der Produktionsprozess und insbesondere die Arbeit für sie den zentralen Stellenwert ein. Preise werden dementsprechend über den Produktionsaufwand bestimmt. Steht die Allokation im Zentrum der Neoklassik, so sieht die Klassik die Reproduktion und Kapitalbildung als wichtigste Aspekte der Ökonomie an.
6
Einführung in die Volkswirtschaftslehre
Der Keynesianismus wiederum kritisiert an der Neoklassik und Klassik, dass Geld in diesen Paradigmen keine wichtige Rolle spielt. Er postuliert, dass mit Hilfe des Geldes über die Verwendung und Produktion von Ressourcen entschieden wird, so dass Ressourcen nicht an sich knapp sind (man denke etwa an unfreiwillig Arbeitslose), sondern durch Entscheidungen über den Einsatz von Geld knapp gehalten werden. Im Keynesianismus steht somit die Disposition über Geld im Zentrum aller Überlegungen. Sie legt letztlich die aggregierte Gesamtnachfrage in einer Volkswirtschaft fest und beeinflusst so gesamtwirtschaftliche Größen wie den Umfang der Produktion und der Beschäftigung und somit das Volkseinkommen. Welche Konsequenzen diese unterschiedlichen Auffassungen über den Gegenstand der Volkswirtschaftslehre haben, werden wir in diesem Lehrbuch noch ausführlich behandeln. Wichtig ist zunächst, dass man sich von der Vorstellung löst, es gäbe die eine, wahre Volkswirtschaftslehre. Mikro- und Makroökonomie Nicht sonderlich strittig ist die traditionelle Unterscheidung zwischen der Mikro- und der Makroökonomie. Im Rahmen der Mikroökonomie werden Einzelunternehmen und Einzelhaushalte analysiert, wobei der Haushalt in der Regel einem Individuum gleichgesetzt wird. Daher sind Studierende zuweilen geneigt, die Mikroökonomie mit der Betriebswirtschaftslehre zu identifizieren. Das ist allerdings falsch. Die Betriebswirtschaftslehre stellt das einzelne Unternehmen in den Mittelpunkt ihres wissenschaftlichen Interesses. In diesem Rahmen versucht sie Kriterien für die jeweils effiziente Struktur und Organisation von Betrieben zu liefern. Dabei interessiert sie beispielsweise neben spezifischem Kostenmanagement eine wirksame Marketingstrategie einschließlich einer erfolgreichen Preispolitik. Des Weiteren stellen Finanzierung und Personalpolitik wichtige Teilbereiche der Betriebswirtschaftslehre dar. Im Ergebnis sucht sie nach optimalen Entscheidungen für einzelne Unternehmen zur Sicherung der Wettbewerbsfähigkeit und der Gewinnerzielung. Im Unterschied dazu interessiert sich die Mikroökonomie nicht für Effizienzkriterien eines einzelnen Betriebs oder eines einzelnen Haushalts. Stattdessen analysiert sie auf der Grundlage von Präferenzen allgemeine Reaktionen von Marktteilnehmern. Auf dieser Basis vermag sie Begründungen für individuelles Angebots- und Nachfrageverhalten im Allgemeinen und für die Preisrelationen der Güter untereinander zu liefern sowie volkswirtschaftliche Konsequenzen daraus zu ziehen. Das Erkenntnisinteresse konzentriert sich demnach auf die Interaktion der Mikroeinheiten über Märkte und auf gesamtgesellschaftliche Marktergebnisse und nicht auf einzelne Unternehmen oder Haushalte. Dadurch grenzt sie sich trotz einiger Überlappungen von der Betriebswirtschaftslehre ab. Die Art und Weise, wie die Mikro- und die Makroökonomie zu volkswirtschaftlichen Aussagen kommen, ist unterschiedlich. Die Mikroökonomie zieht unmittelbar volkswirtschaftliche Schlüsse aus der Interaktion der Mikroeinheiten. Bei solchen Totalmodellen mit einer riesigen Anzahl von Wirtschaftssubjekten lassen sich nur schwer weitreichende makroökonomische Aussagen machen. Die Makroökonomie untersucht die Interaktion von zu großen Einheiten zusammengefassten (aggregierten) Größen. Sie sieht sich das Ganze sozusagen aus der Vogelperspektive an. Diese Sichtweise ist nicht zuletzt deshalb nützlich, weil keinesfalls gewährleistet ist, dass einzelwirtschaftlich rationales Verhalten auch zu volkswirtschaftlich erwünschten Resultaten führt. Es gibt Modelle, die in einer sehr verkürzten Form von der Mikro- auf die Makroebene schließen und eine Mikrofundierung der Makroökonomie anstreben. Sie untersuchen einen einzelnen Haushalt oder ein einzelnes Unternehmen und unterstellen, dass der ganze Haushaltessektor und der ganze Unternehmenssektor wie die Mikroeinheiten funktionieren und problemlos von einem Haushalt oder einem Unternehmen auf alle geschlossen werden kann. Eine solche Vorgehensweise ist gefährlich. Nehmen wir zur Verdeutlichung das Verhalten von Zuschauern bei einem Fußballspiel. Aus der Interessenlage eines einzelnen Zuschauers mag es sinnvoll sein, seine Sicht dadurch zu verbessern, dass er vom Sitz aufsteht. Dadurch aber verschlechtert er die Sicht anderer. Wenn sich nun alle erheben,
Einführung in die Volkswirtschaftslehre
7
geht es keinem besser, aber einige (die kleineren Zuschauer) sehen schlechter, und alle müssen stehen. Ein solches Auseinanderfallen zwischen individueller und gesellschaftlicher Rationalität gibt es in Volkswirtschaften immer wieder. Einzelne Unternehmen beispielsweise können sich aus sehr vernünftigen Gründen dafür entscheiden, nicht zu investieren, weil sie die Gewinnaussichten negativ beurteilen. Im Ergebnis aber kann dies zu einem Zusammenbruch der Nachfrage, zu einem Gewinneinbruch bei der Gesamtheit der Unternehmen, zu nachlassendem Wirtschaftswachstum und zu einer Zunahme der Arbeitslosigkeit führen. Typische Fragestellungen, die im Rahmen der Makroökonomie behandelt werden, sind beispielsweise wie das Nationalprodukt, das Volkseinkommen oder die Zahlungsbilanz eines Landes zu messen sind, wie sich deren Entwicklung erklären lässt, warum Marktwirtschaften durch permanente konjunkturelle Schwankungen gekennzeichnet sind oder warum in vielen historischen Perioden eine hohe Arbeitslosigkeit oder Inflation bzw. Deflation herrschte. Immer geht es hier um die Untersuchung aggregierter volkswirtschaftlicher Gesamtgrößen. Ohne Zweifel weist die Volkswirtschaftslehre Überschneidungen mit anderen Wissenschaftsdisziplinen auf. Die Ingenieurwissenschaften kümmern sich beispielsweise um Technikaspekte, die Psychologie und Soziologie um Präferenzen, Bedürfnisstrukturen und Verhalten von Individuen, die Politologie um die Frage, welche wirtschaftspolitische Strategie diese oder jene Entscheidungsträger verfolgen. Dadurch können für die Volkswirtschaftslehre wertvolle Anregungen und Forschungsprogramme von anderen Disziplinen entstehen. Auch umgekehrt können andere Fächer von der Volkswirtschaftslehre profitieren. Trotzdem schauen alle Disziplinen durch eine jeweils besondere Brille. Die Psychologen beispielsweise untersuchen Bedürfnisstrukturen von Individuen im Hinblick auf emotionale Befindlichkeiten und nicht im Hinblick auf Preis- und Mengenlösungen, die sich auf dem Gütermarkt ergeben. Insofern ist es legitim, arbeitsteilig vorzugehen, wenngleich interdisziplinäre Aktivitäten oftmals nützlich und notwendig sind. Methodische Bedeutung der Gleichgewichtsanalyse So viel dürfte klar geworden sein: Die Volkswirte sind eine streitbare Zunft. Die größte Einigkeit besteht noch hinsichtlich methodischer Vorgehensweisen. Dazu zählt die bereits skizzierte Einsicht in die Notwendigkeit der Modellbildung. Dazu zählt aber in aller Regel die Akzeptanz von Gleichgewichtsanalysen. Allerdings gibt es unterschiedliche Auffassungen darüber, was unter einem Gleichgewicht verstanden werden soll. Ein Gleichgewicht ist dann erreicht, wenn sich ökonomische Größen wie Preise, produzierte und nachgefragte Mengen etc. nicht länger verändern, sondern zur Ruhe gekommen sind − gerade so wie bei einem Gleichgewicht auf einer Hebelwaage. Es ist dann eine Situation erreicht, in der jedes Wirtschaftssubjekt seine individuelle Situation nicht mehr verbessern kann und somit keine weiteren Handlungen zur Veränderung seiner Situation vornimmt. In manchen Modellen werden Gleichgewichtspfade von Variablen bestimmt, etwa das Wachstum des Sozialproduktes. Ein Gleichgewicht hat nichts mit gesellschaftlicher Harmonie oder einem erstrebenswerten Zustand zu tun. Es drückt nur aus, dass ein Modell ein Gleichgewicht beschreiben kann. Eine andere Frage ist, ob ökonomische Prozesse zu Gleichgewichten tendieren. Die Begründung von Marktprozessen hin zu einem Gleichgewicht hat sich als äußerst schwierig erwiesen, da mit zahlreichen Verhaltensannahmen gearbeitet werden muss, die aber nicht unabhängig von Zeit und Raum sind. Selbst kleine Veränderungen bei der Modellierung von Anpassungsmechanismen können ein System, das sich in Richtung hin zu einem Gleichgewicht befand, in ein explodierendes System verwandeln, das sich immer weiter vom Gleichgewicht wegbewegt. Selbst während des Anpassungsprozesses kann sich das Verhalten der Wirtschaftssubjekte verändern, was die Abläufe solcher Prozesse nur schwer prognostizierbar macht. Wir lehnen daher einen Gleichgewichtsbegriff ab, der davon ausgeht, dass ein Gleichgewicht empirische Relevanz hat und die Ökonomie real zu einem
8
Einführung in die Volkswirtschaftslehre
Gleichgewicht tendiert. Die Schwierigkeiten, mit denen Anpassungsprozesse konfrontiert sind, dürfen nun andererseits nicht so interpretiert werden, als seien sie sinnlos oder gar Scharlatanerie. Für bestimmte Vorhaben sind sie ohne Zweifel nützlich. So bleibt es − trotz aller methodischer Schwierigkeiten − sinnvoll, die voraussichtlichen Ergebnisse, etwa eines Beschäftigungsprogramms, im Zeitablauf zu analysieren. Zwischen strikt dynamischen Modellen, die einen Prozess deterministisch beschreiben, und einer ökonomischen „Geschichtsschreibung“, die nur die Vergangenheit wiedergeben kann, gibt es die bei ökonomischen Prognosen häufig angewandte Methode der Bildung von Szenarien. Hier werden die möglichen Entwicklungspfade bei unterschiedlichen Verhaltensannahmen analysiert, wobei die Wahrscheinlichkeit unterschiedlicher Szenarien differenziert bewertet werden kann. Wir werden uns in diesem Lehrbuch − von Ausnahmen abgesehen − damit begnügen, die Gleichgewichtsbedingungen einzelner Modelle zu skizzieren, da es über Anpassungsprozesse zum Gleichgewicht bisher keine befriedigenden Theorieansätze gibt und die existierenden häufig sehr kompliziert sind. Möglicherweise wird es aufgrund der objektiven Unmöglichkeit, die Zukunft bereits heute zu kennen, nie gelingen, befriedigende Modelle zu entwickeln, die die ökonomische Entwicklung über einen längeren Zeitraum beschreiben können. Man denke daran, wie oft beispielsweise die Prognosen des Wachstums des Sozialproduktes in einem Jahr von Forschungsinstituten falsch geschätzt werden. Für Studierende stellt sich die Frage, warum denn überhaupt eine Gleichgewichtsanalyse benutzt wird. Der übliche Einwand lautet, dass es Gleichgewichte in der Realität nie gibt, ökonomische Prozesse nicht befriedigend modelliert werden können und eine theoretische Analyse, die ein Gleichgewicht bestimmt, derart heroische Abstraktionen verlangt, dass ihre Sinnhaftigkeit nicht ersichtlich ist. Die Kritikpunkte vermögen kaum zu überzeugen, da wir zum einen nicht wissen, was wir unter Realität genau zu verstehen haben und zum anderen Abstraktionen bei der theoretischen Arbeit immer notwendig sind. Der Vorteil einer Gleichgewichtsanalyse besteht darin, dass die Grundaussagen eines theoretischen Ansatzes pointiert hervorgehoben werden und somit eindeutig Auskunft darüber geben, welche zentralen Auffassungen über die Wirkungsweise von Märkten unterstellt werden. Sehen wir von Gleichgewichtspfaden ab, dann ist ein Gleichgewicht ein statischer Ruhepunkt. Formal lässt sich ein statisches Gleichgewicht als Lösung eines Gleichungssystems auffassen, das Gleichgewichtsmengen und Gleichgewichtspreise bestimmt. Die Gleichgewichtslösung ändert sich erst dann, wenn sich eine der unabhängigen bzw. der exogenen Variablen verändert. Eine statische Analyse hat den Vorteil, dass sie den ökonomischen Kerngehalt einer Theorie verdeutlicht. Damit werden die Grundstrukturen eines Modells offengelegt, und verschiedene Modelle können unmittelbar miteinander verglichen werden. Gleichgewichtsmodelle schließen nicht aus, dass von ihnen wirtschaftspolitische Empfehlungen abgeleitet werden. Im Gegenteil: Indem die zentralen Parameter eines Modells sichtbar werden und nicht länger alles mit allem zusammenhängt, wird erst eine auch wirtschaftspolitische Konzentration auf das Wesentliche möglich. Recht häufig werden zwei Gleichgewichtszustände miteinander verglichen, so wenn etwa das jeweilige Beschäftigungsniveau bei unterschiedlichen Löhnen oder unterschiedliche Kreditnachfragevolumina bei verschiedenen Zinssätzen dargestellt werden. In diesen Fällen springt man von einem Gleichgewichtszustand A zu einem anderen Gleichgewichtszustand B. Der „Weg“ von A nach B bleibt hierbei ausgeblendet. In diesen Fällen betreibt man eine komparativ-statische Analyse. Die oben schon erläuterte ceteris-paribus-Bedingung und die komparativ-statische Analyse hängen unmittelbar zusammen. Es ist in der Volkswirtschaftslehre eine verbreitete Methode, ausgehend von einer statischen Gleichgewichtssituation, eine exogene Variable zu verändern und die Wirkung dieser Änderung auf die endogenen Variablen des Modells zu untersuchen. Man vergleicht dann die alte Gleichgewichtslage mit der neuen und betrachtet die Unterschiede bei den endogenen Variablen.
Einführung in die Volkswirtschaftslehre
9
Die Rolle der Mathematik Die Volkswirtschaftslehre bedient sich in starkem Umfang der Mathematik. Dies ist für viele eine kaum zu nehmende Eintrittsbarriere in diese Wissenschaftsdisziplin. Wir haben mit der vorliegenden Einführung in die Volkswirtschaftslehre nicht die Absicht, diese Schwierigkeiten dergestalt zu beseitigen, dass wir eine „inhaltliche“ Einführung geben, die dadurch inhaltlich wird, dass sie auf die Mathematik verzichtet. Diese „Androhung“ verlangt gewiss nach einer Erklärung. Es gibt Vertreter in der Zunft der Volkswirte, die davon ausgehen, dass erst mit der Einführung der Mathematik die Volkswirtschaftslehre zur Wissenschaft geworden ist und theoretische Aspekte, die nicht mathematisch formulierbar sind, in der Volkswirtschaftslehre keinen Platz haben sollten. Diese Einschätzung teilen wir nicht. Dessen ungeachtet lassen sich zahlreiche Bausteine der Volkswirtschaftslehre verbal nur wesentlich missverständlicher und unpräziser darstellen als mit Hilfe der Mathematik. Und einige volkswirtschaftliche Gesetzmäßigkeiten können überhaupt nur mit Hilfe der Mathematik präzise erfasst werden. In diesem Sinne erschwert die Mathematik nicht das Verständnis für volkswirtschaftliche Zusammenhänge, sondern sie erleichtert es. Natürlich setzt dies im Rahmen einer Einführung in die Volkswirtschaftslehre zweierlei voraus: Erstens sollte man die formale Darstellung auf die Bereiche beschränken, in denen sie auch tatsächlich Vorteile liefert. Zweitens müssen die Studierenden die jeweils zur Anwendung kommenden Elemente der Mathematik in ihren Grundzügen verstehen. Wir haben uns nach Kräften bemüht, diesen Überlegungen Rechnung zu tragen. Marktwirtschaft, Kapitalismus oder Geldwirtschaft Es besteht Streit, wie man eine Volkswirtschaft vom derzeit herrschenden Typus am besten bezeichnet: Handelt es sich um eine Marktwirtschaft, um Kapitalismus oder um eine Geldökonomie? Die Neoklassik spricht üblicherweise von einer Marktwirtschaft, Keynes bezeichnete den derzeit existierenden Wirtschaftstypus als monetäre Produktionswirtschaft oder Geldwirtschaft. Die Klassik und auch Karl Marx benutzten den Begriff Kapitalismus. Zweifelsfrei leben wir in einem Wirtschaftssystem, das durch Märkte gekennzeichnet ist. Aber Märkte gab es auch in der griechischen und römischen Ökonomie und selbst in Planwirtschaften. Der Begriff der Marktwirtschaft scheint uns demnach nicht sehr präzise. Geld gab es auch schon in früheren Wirtschaftssystemen, so dass auch dieser Begriff nicht sofort einleuchtend ist. Kapitalismus wird manchmal als ideologischer Begriff angesehen (übrigens nicht im englischen Sprachraum). Wir sehen dies nicht so, denn es ist nun einmal die Verwertung von Vermögen, die für das gegenwärtige Wirtschaftssystem prägend ist. Es sind sich dann auch alle Paradigmen einig, dass Unternehmen dem Profitmotiv folgen und auch Haushalte auf die Verwertung ihres Vermögens achten. Wir benutzen in diesem Lehrbuch Marktwirtschaft, Geldwirtschaft und Kapitalismus als Synonyme und lassen uns auf keinen Wörterstreit ein. Es muss vielmehr jeweils dargestellt werden, welches Verständnis die einzelnen Paradigmen über das herrschende Wirtschaftssystem haben. Kernpunkte Ökonomische Paradigmen sind grundsätzliche Sichtweisen der Ökonomie, die selbst nicht wissenschaftlich erklärt werden können. In der Ökonomie gibt es verschiedene Paradigmen, insbesondere die Klassik, die Neoklassik und den Keynesianismus. Jedes Paradigma entwickelt eigene Modelle. Modelle stellen eine notwendige Abstraktion der Realität dar. Sie bestehen aus exogenen Variablen, die vorgegeben sind, und endogenen Variablen, die in dem Modell bestimmt werden. Präferenzannahmen, beispielsweise die Annahme der Nutzen- oder Gewinnmaximierung, sind im Gegensatz zu Verhaltensannahmen nicht empirisch überprüfbar, sondern werden von Modellen als Teil der exogenen Setzungen unterstellt.
10
Einführung in die Volkswirtschaftslehre
Ein Gleichgewicht ist ein statischer Ruhezustand, der die Grundstruktur eines Modells zum Ausdruck bringt. Bei der komparativ-statischen Analyse werden zwei Gleichgewichtspunkte verglichen. Dabei wird in der Regel eine exogene Variable verändert (Ceteris-Paribus-Bedingung) und die entsprechenden Änderungen der endogenen Variablen untersucht. Ökonomische Prozesse müssen nicht zu einem Gleichgewicht führen. Gleichgewichte haben nichts mit einem optimalen Zustand der Ökonomie zu tun.
2. Kapitel: Neoklassische Mikroökonomie 2.1 Dogmengeschichtliche Einordnung In den siebziger Jahren des neunzehnten Jahrhunderts erschienen ungefähr zeitgleich drei bahnbrechende Arbeiten von Karl Menger (1840 - 1921), William St. Jevons (1835 - 1882) und Léon Walras (1834 - 1910) zur Wert- bzw. Preistheorie.2 Sie stellten einen fundamentalen Bruch mit der bis dahin vorherrschenden Klassik dar, deren bekanntesten Vertreter Adam Smith (1723 - 1790), David Ricardo (1772 - 1823) und Karl Marx (1818 - 1883) waren. Bis dahin waren Wert- bzw. Preistheorien tonangebend, die die Preise allein über die Produktionskosten und letztlich über die Arbeitsmengen, die in den Waren enthalten sind, zu bestimmen suchten. Die subjektiven Nutzenvorstellungen der Menschen und damit deren Nachfrageverhalten wurden als gegeben unterstellt und spielten nur insofern eine Rolle, als die Unternehmen nicht an den Bedürfnissen vorbei produzieren durften. Für den Fall des Gleichgewichts ging die Klassik davon aus, dass die Preise von objektiven Faktoren, nämlich von den Produktionskosten bestimmt werden. Aufgrund dieses Sachverhalts bezeichnete man die Werttheorie der Klassik auch als objektive Werttheorie. Eine moderne Fassung der klassischen Preistheorie wird im Kapitel 3.3.2 anhand des Produktionspreismodells von Piero Sraffa dargestellt. Im geradezu diametralen Gegensatz zur Klassik versuchten die „Väter der neoklassischen Theorie“, Menger, Jevons und Walras, die Preise unter Berücksichtigung des Nachfrageverhaltens der Individuen zu erklären. Als Grundmodell diente diesen Theoretikern ein Tausch ohne Produktion. In einem solchen Tauschmodell spiegelt die Nachfrage nach Gütern die Nutzenvorstellungen der Individuen wider. Klar zum Ausdruck bringt dies Jevons: „Wiederholte Überlegungen und Untersuchungen haben mich zu der einigermaßen neuen Meinung geführt, dass der Wert gänzlich vom Nutzen abhängt. Die herrschende Meinung erblickt eher in der Arbeit als im Nutzen den Ursprung des Werts.“3 Bei einem gegebenen Anfangsbestand von Gütern − und ohne Berücksichtigung von Produktion − sind die Preise und die getauschten Mengen Ausdruck der individuellen Wertschätzungen der Konsumenten. Daher ist es im Gegensatz zur Klassik gerechtfertigt, bei der Neoklassik von einer subjektiven Werttheorie zu sprechen. Wird dieses Grundmodell durch die Einführung von Produktion weiterentwickelt, dann werden neben den Nutzenerwägungen auch die Produktionskosten in die Preisbestimmung einbezogen. Die Nachfrage, hinter der Nutzenerwägungen stehen, und das Angebot, das Produktionskosten widerspiegelt, bestimmen dann simultan Preise und getauschte Mengen. Allerdings verwischt diese knappe Skizze Ausdifferenzierungen innerhalb der Neoklassik, die bereits bei den genannten „Vätern“ angelegt waren. In der Tradition vor allem von Menger und Jevons entwickelte sich eine neoklassische Schule, die bei ihrer Argumentation nicht strikt auf der mikroökonomischen Ebene verblieb. Bedeutende Vertreter dieser Richtung waren John B. Clark (1847 1938), Eugen von Böhm-Bawerk (1851 - 1914), Alfred Marshall (1842 - 1924) oder Knut Wicksell (1851 - 1926). Vertreter dieser theoretischen Variante waren davon überzeugt, aus den Ergebnissen der mikroökonomischen Analyse starke makroökonomische und wirtschaftspolitische Schlussfolgerungen ziehen zu können. Die Kernpunkte dieser Analyse werden im Kapitel 3.2.3 in den neoklassischen Parabeln dargestellt werden. Allerdings verstrickte sich dieser Theoriestrang, wie sich im Kapitel 3.3 zeigen wird, in unüberwindbare Widersprüche. Bis heute spielen diese Parabeln trotz ihrer theoretischen Schwäche eine herausragende Rolle im neoklassischen Paradigma. Eine andere neoklassische Tradition begründete Walras, der in verschiedenen Stufen – erst ohne, dann mit Produktion und schließlich auch mit Investitionstätigkeit – ein mikroökonomisches Total2 Mengers „Grundsätze“ erschienen 1871 im gleichen Jahr wie Jevons’ Theory of Political Economy. Walras’ Élements erschienen 1874. Vorweggenommen hatte viele dieser Ergebnisse Heinrich Gossen (1810-1858), dessen Werk von 1853 „Entwicklung der Gesetze des menschlichen Verkehrs und der daraus fließenden Regeln für menschliches Handeln“ von seinen Zeitgenossen völlig unbeachtet blieb. 3 Zitiert nach Dobb (1977, S. 187). Für die dogmenhistorische Darstellung der damaligen Entwicklung empfehlen sich die Bücher von Schumpeter (1965) und Dobb (1977).
12
Neoklassische Mikroökonomie
modell entwickelte. Weiterentwickelt wurde der walrasianische Ansatz (beginnend erst kurz vor dem Zweiten Weltkrieg) vor allem durch Abraham Wald, Kenneth J. Arrow, Gérard Debreu und Frank H. Hahn. Diese widerspruchsfreie mikroökonomische Theorievariante ist analytisch kohärent, erlaubt allerdings keine so eindeutigen Aussagen über wirtschaftliche Abläufe und Politikempfehlungen, wie sie in den neoklassischen makroökonomischen Parabeln zum Ausdruck kommen. Ausgangspunkt aller theoretischen Erörterungen im Rahmen der Neoklassik ist die Vorstellung, dass die Bedürfnisse der Menschen unendlich, die zur Befriedigung dieser Bedürfnisse vorhandenen Ressourcen aber knapp sind. Dadurch wird Wirtschaften erst notwendig. Um ihre Bedürfnisse besser befriedigen zu können, treten Menschen auf Märkten zueinander in Beziehung, indem sie Güter untereinander tauschen. Die Güter, über die ein Wirtschaftssubjekt verfügen kann, werden im Modell exogen vorgegeben. Sie bilden die Erstausstattung. Durch Tauschvorgänge zwischen den Haushalten, die mit einem Individuum gleichgesetzt werden, einerseits und zwischen den Haushalten und den Unternehmen andererseits versuchen sich die Wirtschaftssubjekte besser zu stellen. In dem Modell wird den Haushalten sowie den Unternehmen eine Zielfunktion unterstellt, die theoretisch gesetzt und nicht verhaltenstheoretisch abgeleitet wird. Diese so genannten Präferenzannahmen setzten, dass die Haushalte danach trachten, ihren Nutzen zu maximieren, während die Unternehmen ihren Gewinn maximieren möchten. Insbesondere Walras stellte sich die Frage, ob unter solchen Voraussetzungen ein Gleichgewicht zwischen Angebot und Nachfrage auf allen Märkten logisch – also nicht empirisch – überhaupt möglich ist. Im Ergebnis konnte er ein Gleichgewichtsmodell ausarbeiten, in dem simultan für alle Märkte die Gleichgewichtspreise und -mengen bestimmt werden. Diese Modellösung wurde im Anschluss an Walras weiterentwickelt, indem die Bedingungen für eine Gleichgewichtslösung präzisiert, die formale Herleitung dem jeweils neuesten Stand der Mathematik angepasst und weitere inhaltliche Schlussfolgerungen gezogen wurden. In Grundzügen soll das walrasianische Tauschmodell ohne Produktion im nächsten Unterpunkt nachgezeichnet werden, um die grundlegende Logik der Interaktion der Märkte im neoklassischen Paradigma zu verdeutlichen. Danach wird in den nachfolgenden Kapiteln der Markt für einzelne Güter dargestellt. Hier leiten wir zunächst das Haushaltsoptimum ab, also eine Situation, in der ein Haushalt seine Erstausstattung so eingesetzt hat, dass seine Bedürfnisse im Rahmen seiner Möglichkeiten maximal befriedigt werden. Anschließend werden wir darstellen, wie es zu einem gewinnmaximalen Angebot an Gütern durch die Unternehmen kommt. Im Ergebnis lässt sich ein partielles Gleichgewicht von Angebot und Nachfrage für jedes Gut ableiten. Die Analyse der Interaktion der verschiedenen Gütermärkte erfolgt im Rahmen des simultanen Gleichgewichtsmodells mit Produktion. Schließlich werden die Faktormärkte – der Arbeits- und der Kapitalmarkt – partialanalytisch dargestellt, um abschließend zur simultanen Lösung aller Märkte zu kommen. Durch eine so strukturierte Abhandlung lassen sich die zentralen Theoriebausteine recht leicht erfassen, und gleichzeitig wird verdeutlicht, dass makroökonomische Fragestellungen nur bei der Berücksichtigung der Interaktion von Märkten möglich sind. Bevor wir mit der Darstellung des Gleichgewichtsmodells ohne Produktion beginnen ist noch auf eine grundlegende theoretische Setzung des neoklassischen Paradigmas einzugehen. Es unterscheidet strikt zwischen einer Realsphäre und einer monetären Sphäre. Alle relevanten Größen – außer dem Preisniveau – werden innerhalb der Realsphäre bestimmt. Aus diesem Grund spricht man auch davon, dass Geld im neoklassischen Paradigma einen Schleier darstellt und letztlich keine Rolle spielt. Das Konstrukt einer von der Geldsphäre getrennten Realsphäre ist nicht selbstverständlich, sondern eine spezifische Sicht der Dinge. Realsphäre heißt ja nicht, dass es physisch reale Güter gibt. Realsphäre bedeutet vielmehr, dass ein Bereich in der Ökonomie – sogar der wichtigere – existiert, der ohne Rückgriff auf Geld nach der Logik einer Tauschwirtschaft analysiert werden kann. Der keynesianische Ansatz lehnt die Zweiteilung der Ökonomie in eine Real- und eine Geldsphäre ab. Nach Keynes gibt es keinen Bereich der Ökonomie, der in einer „monetären Produktionswirtschaft“, wie er
Neoklassische Mikroökonomie
13
das gegenwärtige ökonomische System nannte, ohne monetäre Einflüsse analysiert werden könnte (Keynes 1933). Die gesamte neoklassische Mikroökonomie ist in der Realsphäre angesiedelt. Folgerichtig könnte man hier grundsätzlich auf jede Erwähnung von Geld verzichten. Allein aus didaktischen Gründen wird folgend auf monetäre Größen wie Geldpreise, monetäres Einkommen, monetäre Kosten etc. zurückgegriffen. Die neoklassische Analyse der monetären Sphäre und deren Interaktion mit der Realsphäre erfolgt in Kapitel 3.
2.2 Das neoklassische Tauschmodell ohne Produktion Fragestellung Was sind absolute Preise, relative Preise und Tauschrelationen? Was bestimmt die Anzahl der unabhängigen Tauschrelationen in einer Tauschökonomie? Wie wird das Gleichgewicht in einer Tauschökonomie bestimmt? Findet der Markt das Gleichgewicht? Bei der ökonomischen Analyse volkswirtschaftlicher Prozesse macht es wenig Sinn, nur einzelne Märkte isoliert im Rahmen einer Partialanalyse zu untersuchen. Partialanalysen sind sinnvoll bei Branchenanalysen oder betriebswirtschaftlichen Fragestellungen, bei nahezu allen volkswirtschaftlichen Analysen rückt die Interaktion der Märkte in den Vordergrund. Denn es macht unter volkswirtschaftlicher Perspektive beispielsweise keinen Sinn den Markt für Autos unabhängig vom Markt für Arbeit zu untersuchen, denn Prozesse auf dem Arbeitsmarkt, die das volkswirtschaftliche Arbeitseinkommen bestimmen, können sich unmittelbar auf die Autonachfrage niederschlagen. Eine Erhöhung der Energiepreise kann − um ein anderes Beispiel zu nennen − zwar die Nachfrage nach Energie senken, jedoch unter Umständen auch die Nachfrage nach Urlaubsreisen, da sich viele Haushalte keinen Urlaub mehr leisten können. Dies wirkt wiederum auf Preise und Produktion von Dienstleistungen im Hotelgewerbe etc. Wie will man solche sehr komplexen Prozesse theoretisch erfassen? Letztlich beeinflussen sich alle Märkte gegenseitig. Léon Walras war der erste Ökonom, der sich dieser Problematik systematisch stellte. Er wurde zum Begründer des Allgemeinen Gleichgewichtsmodells, das den Kern neoklassischen Denkens wie kein anderes Modell zum Ausdruck bringt. Das Modell untersucht Mikroeinheiten und schließt von diesen dann auf makroökonomische Prozesse. Walras fragte sich, ob es zumindest theoretisch möglich sei, dass sich alle Märkte gleichzeitig im Gleichgewicht befinden können und dies unter der Bedingung, dass kein Marktteilnehmer eine Veranlassung hat, seine ökonomischen Aktivitäten zu verändern. Ihm ging es darum einen logischen Nachweis zu führen, dass ein Modell, das auf mikroökonomischer Ebene die Kalküle von Wirtschaftssubjekten modelliert, zu einer in sich konsistenten und ökonomisch sinnvollen Lösung führt. Damit hat er eine entscheidende Frage gestellt, die schon Adam Smith formierte: Führt das egoistische Verhalten vieler einzelner Akteure durch die „unsichtbare Hand“ des Marktes zu einer gesellschaftlich optimalen Situation? Die Beantwortung dieser Frage ist für die Beurteilung von Marktwirtschaften von großer Relevanz. Zur Bearbeitung dieser Aufgabe war Walras gezwungen, sich der Mathematik zu bedienen, wobei er sich auf ein lineares Gleichungssystem beschränkte, mit dessen Hilfe er die zahlreichen Unbekannten (Preise und Mengen) bestimmen wollte. Die Fragestellung und vor allem die analytische Herangehensweise zur Lösung der Frage hatte ihn zu Recht zu einem der ganz großen Theoretiker der Volkswirtschaftslehre gemacht. Zugleich hat er damit zahlreiche spätere Forschungen angeregt. Vor allem die schon genannten Neoklassiker Wald, Debreu, Arrow und Hahn haben an Walras’ Pionierleistung angeknüpft und das walrasianische Totalmodell formal präzisiert, inhaltlich erweitert und die Bedingungen seiner Lösbarkeit exakter bestimmt. Im Rahmen einer Einführung in die Volkswirtschaftslehre kann es nicht darum gehen, diese ausgereiften Modelle zu präsentieren. Wir werden le-
14
Neoklassische Mikroökonomie
diglich verdeutlichen, wie man sich die Lösung derartiger Modelle vorzustellen hat. Dabei werden wir die Lösung zunächst ohne Produktion skizzieren. Dies hat den Vorteil, dass wir an einem solchen Modell auch die Tiefenstrukturen neoklassischen Denkens erfassen können. In späteren Kapiteln wird das Modell dann erweitert. Walras einfachste Vision von einer Marktwirtschaft ist ein reines Tauschmodell ohne Produktion. Die Haushalte besitzen – woher auch immer – einen Anfangsbestand an Gütern. Den im Modell exogen gegebenen Bestand an Gütern können die Haushalte konsumieren. Sie können jedoch auch Teile ihres Güterbestandes gegen andere Güter eintauschen. Selbstverständlich werden sie dies nur dann tun, wenn sie sich durch einen solchen Tausch verbessern können. Joan Robinson hat die Problemstellung, die für Walras im Zentrum steht, folgendermaßen beschrieben: „Es gibt in der Wirklichkeit einen Fall, welcher der walrasianischen Vorstellung entspricht. (...) Es ist jener des Kriegsgefangenenlagers. Die Leute leben mehr oder weniger von amtlichen Rationen und erhalten jeden Monat ein Paket vom Roten Kreuz. Der Inhalt dieser Pakete ist nicht nach dem Geschmack des einzelnen Empfängers zugeschnitten, so dass jeder gewinnen kann, indem er das, was er weniger wünscht, für das, was er mehr wünscht, tauscht. Es wird so lange gekauft und verkauft, bis für jede Ware Angebot und Nachfrage in Deckung gebracht sind (...) und keiner der Beteiligten das Bedürfnis hat, zu den herrschenden Preisen etwas zu tauschen.“ (Robinson 1974, S. 17). Es gibt keinen Teilnehmer am Tauschprozess, der einen marktbeherrschenden Einfluss hat. Die vom Markt gegebenen Tauschrelationen sind für den einzelnen Marktteilnehmer gegeben, der sich nur mengenmäßig anpassen kann. Das walrasianische Modell stellt die Frage nach der Allokation der Ressourcen, also die Frage, wie die Güter marktmäßig auf die verschiedenen Wirtschaftssubjekte aufgeteilt werden. Die individuellen Konsummöglichkeiten der Haushalte werden durch die individuellen Anfangsbestände an Gütern gesetzt. Wir sprechen in diesem Fall von der individuellen Budgetrestriktion, denn ein Haushalt kann in unserem einfachen Modell wertmäßig nicht mehr an Gütern eintauschen, als er wertmäßig an Gütern abgibt. Es gibt Haushalte mit großen und Haushalte mit kleinen Anfangsbeständen. Auch kann die Struktur der Anfangsbestände gänzlich unterschiedlich sein. Die exogen gegebene Erstausstattung an Gütern bestimmt nicht nur die individuellen Budgetrestriktionen, sondern verdeutlicht auch den Begriff der Knappheit, der neoklassisches Denken prägt. Knappheit wird verstanden als Knappheit an physischen Gütern, die unbegrenzten Bedürfnissen der Haushalte gegenübersteht. Deutlich wird diese Grundauffassung von Erich Schneider betont, der nach dem Zweiten Weltkrieg einer der bekanntesten Ökonomen der Bundesrepublik Deutschland war: „Wir müssen damit rechnen, dass das Leben der Menschen auf der Erde stets unter dem kalten Stern der Knappheit stehen wird. Es muss deshalb in jedem Augenblick darüber entschieden werden, welche Bedürfnisse und Wünsche (...) befriedigt werden sollen. Diese fortgesetzt zu treffenden Entscheidungen über die Verwendung knapper Mittel machen den Sinn des wirtschaftlichen Handelns aus.“ (Schneider 1961, S. 13). Für die Gesellschaft insgesamt stellen die physischen Anfangsbestände die makroökonomische Budgetrestriktion dar, die eine Gesellschaft zum Wirtschaften erzwingt. Sehen wir uns eine Tauschökonomie ohne Produktion genauer an. Dazu müssen wir uns zunächst darüber verständigen, was relative Preise sind. Preise im alltäglichen Verständnis setzen voraus, dass die Güter in Geldeinheiten bewertet werden. Werden Preise in Geld ausgedrückt, dann spricht man von absoluten Preisen. Da Walras, wie die Neoklassik insgesamt, ein Gleichgewichtsmodell einer Realsphäre ohne Geld entwickelt, gibt es in dem Modell keine absoluten Preise. Es wird jedoch ein Gut ausgewählt, das als Bezugspunkt für alle anderen Güter fungiert. Walras nannte das ausgewählte Gut Numéraire. Das Numéraire-Gut wird willkürlich ausgewählt. Denn erstens gibt es kein Kriterium dafür, welches der Güter diese Funktion wahrnehmen sollte. Zweitens dient es nur einer „technischen“ Vereinfachung, so dass dem Numéraire selbst keine ökonomische Bedeutung zukommt. Schon gar nicht darf es mit Geld verwechselt werden. Denn zum einen kann jede beliebige Ware als Numéraire fungieren. Zum anderen ist Geld zumindest funktional keine Ware. Selbst wenn sich Geldfunktionen an eine Ware heften – wie in früheren Zeiten etwa an Gold und Silber – nimmt Gold
Neoklassische Mikroökonomie
15
als Geld nicht die Funktion von Waren wahr, sondern von Geld. Wird aus Gold eine Kette modelliert, so ist es nicht länger Geld, sondern eine Ware. Werden umgekehrt Güter mit Gold gekauft, so ist es keine Ware mehr, sondern Geld. Die notwendige Unterscheidung zwischen Geld und Ware zeigt sich schlagend daran, dass das heutige Geld nicht mehr an einer Ware haftet, sondern ohne jede Deckung (z. B. durch Gold) von Zentralbanken ausgegeben wird. Im Kriegsgefangenenlager mögen beispielsweise Zigaretten die Funktion des Numéraire-Gutes übernehmen. Alle Waren, die existieren, drücken dann ihr Tauschverhältnis in Zigaretten aus. Stellen Äpfel das erste und Zigaretten das n-te Gut dar, dann ist der relative Preis von Äpfeln beispielsweise durch: p1 1 Apfel = pn 10 Zigaretten
gegeben. Ein Apfel kostet damit 10 Zigaretten. Das Tauschverhältnis ist dergestalt, dass 10 Zigaretp1 ten für einen Apfel gegeben werden. Der relative Preis drückt somit ausschließlich das (umgepn kehrte) Tauschverhältnis zwischen dem Gut n und dem Gut 1 aus. Nehmen wir an, das Gut 2 seien Bananen und der relative Preis von Bananen ausgedrückt in Zigaretten sei:
1 Banane p2 = 20 Zigaretten pn Ist der relative Preis von Äpfeln und Bananen in Zigaretten gegeben, dann ergibt sich daraus unmittelbar auch das Tauschverhältnis zwischen Äpfeln und Bananen. Denn es gilt: p1 p1 pn = p 2 p2 pn
bzw.
1 Apfel p1 10 Zigaretten 2 Äpfel = = 1 Bananen 1 Banane p2 20 Zigaretten
Es müssen somit zwei Äpfel hingegeben werden, um eine Banane zu erhalten. Nun existieren in einer Ökonomie zahlreiche Tauschrelationen, da jedes Gut mit jedem anderen getauscht werden kann. Die Anzahl der Tauschrelationen lässt sich bei n Gütern mit der Formel (n 2 − n) berechnen. Bei nur 200 verschiedenen Gütern ergeben sich bereits 19900 Tauschverhältnis2 se. Diese Tauschverhältnisse lassen sich allerdings aus einer weitaus geringeren Anzahl von Tausch2 verhältnissen ableiten. Die (n −n) Tauschverhältnisse bei n Gütern lassen sich auf n–1 reduzieren, 2 wenn sich alle n Güter nur noch auf ein einzelnes, willkürlich herausgegriffenes Gut beziehen. Wie das obige Beispiel zeigt, ergibt sich das Tauschverhältnis von Äpfeln zu Bananen implizit, wenn der relative Preis von Äpfeln und von Bananen in Zigaretten bekannt ist. Bei 200 Gütern können die 19900 Tauschverhältnisse auf 199 voneinander unabhängige Tauschverhältnisse reduziert werden, ohne dass irgendwelche Informationen verloren gingen. Wird bei n Gütern das n-te Gut als Bezugspunkt aller n Gütern ausgewählt, dann ergeben sich n–1 pn unabhängige Tauschverhältnisse bzw. n–1 relative Preise, da definitionsgemäß = 1 ist. pn Aus den n–1 relativen Preisen
16 (2.2.1)
Neoklassische Mikroökonomie
p1 p2 pn - 1 ; ;...; pn pn pn
lassen sich dann alle Tauschverhältnisse zwischen den n Gütern ableiten. Formale Herleitung des Gleichgewichts Folgend soll das Tauschgleichgewicht formal abgeleitet werden. Wir wollen annehmen, dass es in der von uns betrachteten Ökonomie h Haushalte gibt. Jeder Haushalt hat eine exogene Anfangsausstattung an Gütern. Bezeichnet Xgh die Anfangsausstattung des h-ten Haushaltes mit dem g-ten Gut, dann wird der Haushalt h folgende Anfangsausstattungen haben: X1h , X2h , ... , X20h , ... , Xnh
Der Anfangsbestand von einzelnen Gütern kann auch Null sein. Der Haushalt bedarf jedoch zumindest eines Gutes, um am Tauschprozess teilnehmen zu können. Der Haushalt wird nun entsprechend seiner Nutzenerwägungen Güter zum Tausch anbieten und andere Güter zum Tausch nachfragen. Natürlich kann die Tauschmenge eines Gutes auch Null sein. Dies wird dann der Fall sein, wenn er mit der Erstausstattung eines Gutes gerade zufrieden ist oder wenn er von einem Gut keinen Anfangsbestand hat und dieses Gut auch nicht konsumieren möchte. N Bezeichnet X gh die gewünschte Konsummenge des h-ten Haushalts für das g-te Gut, dann ergibt sich für ihn für das g-te Gut eine Nettotauschmenge ( ΔX gh ) von:
ΔX gh = X Ngh − Xgh Sofern ein Haushalt weniger von einem Gut konsumieren möchte als er im Anfangsbestand vorfindet, bietet er die überschüssigen Güter an, mit dem Ergebnis, dass ΔX gh einen negativen Wert erhält. Beim Nachfrageüberschuss wird ΔX gh positiv. Die Tauschmöglichkeiten eines bestimmten Haushalts werden durch seine Anfangsbestände sowie durch die n–1 relativen Preise vorgegeben. Die relativen Preise (bzw. die Tauschrelationen) haben für den Haushalt eine doppelte Bedeutung. Sie bestimmen erstens den Wert seines Anfangsbestandes beispielsweise ausgedrückt in Zigaretten. Die Budgetrestriktion eines Haushaltes impliziert, dass der Wert der abgegebenen Güter eines Haushalts den wertmäßig erlangten Gütern entspricht, wobei der Wert in einem Gut, etwa Zigaretten, ausgedrückt wird. Die relativen Preise bestimmen zweitens, ob der Konsum eines spezifischen Gutes für einen Haushalt relativ teuer oder billig ist. Ein nach möglichst hohem Nutzen strebender Haushalt wird in aller Regel die Nachfrage nach einem Gut erhöhen, wenn es relativ billiger geworden ist und umgekehrt. Die Nettotauschmenge des Haushaltes h bezüglich des Gutes g wird somit durch die relativen Preise, die sowohl die Tauschrelationen als auch die Budgetrestriktion festlegen, bestimmt: p1 p2 pn - 1 ) g = 1, 2, ... , n ; h = 1, 2, ... , x ΔXgh = ΔXgh( ; ;...; (2.2.2) pn pn pn Der Haushalt h hat für jedes Gut eine Nettotauschmengenfunktion. Falls X3 für Birnen steht, liegt N N ein Angebot des h-ten Haushalts an Birnen vor, falls X3h > X3h . Im umgekehrten Fall ( X3h > X3h ) fragt der h-te Haushalt Birnen nach. Es sollte beachtet werden, dass der Haushalt nicht alle Güter wegtauschen muss. Einen Teil seiner Anfangsbestände wird er wahrscheinlich selbst verbrauchen. Dies tangiert das Modell jedoch nicht. Ohne Probleme könnte unterstellt werden, dass ein Haushalt zunächst alle Güter wegtauscht und danach alle gewünschten Güter eintauscht. So wenig ein Haushalt alle Güter als Anfangsausstattung haben muss, so wenig muss er alle n Güter konsumieren wollen. In diesen Fällen sind die entsprechenden Glieder der Gleichung Null. Bei n Gütern wird der
Neoklassische Mikroökonomie
17
Haushalt h somit n Tauschmengenfunktionen haben. Unterstellen wir, dass die Anzahl der Haushalte x beträgt, dann gibt es in der Ökonomie insgesamt n ⋅ x Nettotauschmengenfunktionen. Einem aufmerksamen Leser wird nicht entgangen sein, dass bislang bei der Entwicklung des Modells ausschließlich das Verhalten einzelner Haushalte beschrieben wurde. Ein Marktgleichgewicht ist jedoch nur möglich, wenn geplante Angebote und geplante Nachfragen bei allen Gütern übereinstimmen. Das Gleichgewicht auf einem Markt kann somit so ausgedrückt werden, dass die nachgefragte Menge aller Haushalte der angebotenen Menge aller Haushalte entspricht. Drückt XAg das aggregierte Angebot auf dem g-ten Markt aus und XNg die aggregierte Nachfrage, dann wird der gte Markt im Gleichgewicht sein, wenn gilt: (2.2.3)
(XAg - XNg) = 0
g = 1, 2, ... , n-1
Entspricht auf dem Markt die Angebotsmenge nicht der Nachfragemenge, existiert ein Ungleichgewicht. Ist das Angebot größer als die Nachfrage, spricht man von einem Überschussangebot, im umgekehrten Fall von einer Überschussnachfrage. In der walrasianischen Tauschökonomie tauscht jeder Haushalt wertmäßig genau das an Waren ein, was er wertmäßig abgibt. Für die Gesamtökonomie muss somit der Wert aller angebotenen Waren dem Wert aller nachgefragten Waren entsprechen. Daraus folgt, dass die Summe aller Angebots- und Nachfrageüberschüsse auf Gütermärkten sich zwingend auf Null addiert. Ein Nachfrageüberhang auf n–1 Märkten führt somit automatisch zu einem Angebotsüberhang auf dem n-ten Markt und umgekehrt. Dieser Zusammenhang der Märkte, der sich in einer Tauschökonomie ohne Geld zwingend ergibt, wird als Walras-Gesetz bezeichnet. Die folgende Gleichung gibt den Zusammenhang für einen Drei-Güter-Fall an: p2 p3 p1 (XA1 − XN1) + (XA2 − XN2) + (XA3 − XN3) = 0 p3 p3 p3 In unserem Beispiel fungiert Gut 3 als Numéraire-Gut, der Wert aller Waren wird somit in Mengen von Gut 3 ausgedrückt. Ergibt die Summe der beiden ersten Märkte ein Ungleichgewicht, dann muss auch der dritte Markt im Ungleichgewicht sein. Sind dagegen die beiden ersten im Gleichgewicht, dann muss dies auch der dritte sein. Walras Gesetz hat Konsequenzen für die Anzahl linear unabhängiger Gleichungen. Wir erhalten aus (2.2.3) lediglich n–1 linear unabhängige Marktgleichgewichtsbedingungen. Sind nämlich n–1 Märkte im Gleichgewicht und sind die Budgetrestriktionen der Haushalte erfüllt, dann muss der n-te Markt zwingend auch im Gleichgewicht sein. Die n-te Marktgleichgewichtsbestimmung liefert somit keine neuen Informationen und ist linear abhängig. In unserer einfachen Tauschökonomie ohne Produktion ergeben sich bei n Gütern und x Haushalten als unbekannte Größen: n–1 relative Preise bzw. n–1 Tauschverhältnisse, die alle anderen Tauschverhältnisse repräsentieren und n⋅x Mengen (jeder Haushalt kann grundsätzlich jedes Gut tauschen wollen). Dies sind x⋅n+n–1 = n(x+1)–1 Unbekannte. Um sie bestimmen zu können, bedarf es einer entsprechenden Anzahl von Gleichungen, die linear unabhängig sein müssen.4 Genau diese Anzahl von linear unabhängigen Gleichungen liegt vor: 4
Bei linearer Unabhängigkeit lässt sich keine der Gleichungen durch eine geeignete Kombination der anderen darstellen. Warum müssen sich Unbekannte und linear unabhängige Gleichungen entsprechen? Die Problematik lässt sich an einem einfachen Beispiel demonstrieren. Angenommen, man will die folgende Gleichung lösen: 3 X1 – 6 X2 = 3 Es gibt zahlreiche Lösungen dieser Gleichung. Eine Lösung ist z. B. X1 = 1 und X2 = 0; eine andere wäre X1 = 3 und X2 = 1. Die Möglichkeit zahlreicher Lösungen ist keinesfalls zufällig: Sofern mehr Unbekannte als linear unabhängige Gleichungen existieren sind zahlreiche Lösungen möglich − das Ergebnis ist dann nicht eindeutig. Dies ändert sich,
18
Neoklassische Mikroökonomie n–1 Marktgleichgewichtsbedingungen n⋅x Nettotauschmengenfunktionen
Die n(x+1)–1 linear unabhängige Gleichungen erlauben potentiell die Bestimmung der n(x+1)–1 Unbekannten. Walras hat damit bewiesen, dass das egoistische Streben vieler unabhängiger Wirtschaftssubjekte die Möglichkeit eines Gleichgewichts eröffnet, bei der die Pläne aller Wirtschaftssubjekte erfüllt sind. Selbst wenn es eine mathematische Lösung für ein Gleichgewicht gibt, ist keineswegs bewiesen, dass die Lösung ökonomisch sinnvoll ist. Sinnlos wäre z.B. eine Lösung, die die Existenz negativer Preise oder einen Wert aller Unbekannten von Null verlangt. Nicht ausgeschlossen werden kann zudem, dass es mehr als eine ökonomisch vernünftige Lösung des Gleichungssystems geben kann. Walras hat sich bei der Prüfung der Existenz einer Lösung auf „das Abzählen“ von linear unabhängigen Gleichungen beschränkt. Spätere, vor allem mathematisch orientierte Theoretiker haben herausgearbeitet, dass eine sinnvolle Lösung des Totalmodells nur unter einer Reihe spezifischer Voraussetzungen existiert.5 Die Gleichgewichtslösung des walrasianischen Modells darf von einem gesamtgesellschaftlichen Standpunkt aus nicht automatisch als „wünschenswert“ angesehen werden. Denn optimal ist dieses Ergebnis nur vor dem Hintergrund der vorgegebenen Erstausstattung. Diese kann allerdings extrem ungleich verteilt sein, so dass der wohlhabende Haushalt seine Katzen nach Belieben mit Milch füttert, während die Kinder eines armen Haushalts nicht einmal sauberes Wasser zu trinken haben. Dennoch wären die Konsumpläne beider Haushalte im Gleichgewicht unter individuellen Gesichtspunkten optimal. Die Erstausstattung muss somit keineswegs auch nur das Überleben eines Haushalts garantieren. Sie hat mit Gerechtigkeit nichts zu tun. Eine weitere Frage ist, ob ein Marktprozess zu den Gleichgewichtspreisen führt, die durch das Modell bestimmt werden, und ob ein einmal erreichtes Gleichgewicht stabil ist, so dass die Ökonomie im Gleichgewicht verharrt. Die Gleichgewichtsbestimmung bietet für diese Fragen keine Antwort. Walras hat zur Lösung dieses Problems die Figur des Auktionators geschaffen. Der Auktionator ruft Preise aus und die Wirtschaftssubjekte melden entsprechend der Preise ihre Nachfrage- und Angebotswünsche an. Bei einem Überschussangebot nach einem Gut senkt er den Preis des Gutes, bei einem Nachfrageüberschuss erhöht er die Preise. Der Auktionator verändert das System relativer Preise bis ein Gleichgewicht gefunden ist. Getauscht werden darf erst dann, wenn die Gleichgewichtspreise gefunden sind. Ein Tausch während des Anpassungsprozesses und damit in einer Ungleichgewichtssituation würde das Gleichgewicht vom Anpassungsprozess abhängig machen. Denn sobald ein Tausch im Ungleichgewicht stattfinden würde, würde eine neue Tauschrunde bei veränderten Anfangsbeständen gestartet werden. Sofern es überhaupt ein Gleichgewicht gibt, wäre es vom Anpassungspfad abhängig. Da Anpassungsprozesse vielfältige Formen annehmen können, wäre ein Gleichgewicht bei Tauschaktionen während eines ungleichgewichtigen Zustandes nicht mehr bestimmbar. Das von Walras ins Spiel gebrachte Auktionsverfahren kann schwerlich als Simulierung eines tatsächlichen Marktprozesses akzeptiert werden. Erstens muss es für einen Marktprozess als unrealistisch gelten, dass nur im Gleichgewicht getauscht wird. Zweitens ist selbst dann, wenn vom Tausch sofern eine zweite Gleichung hinzugefügt wird, die von der ersten linear unabhängig ist: 3 X1 – 6 X2 = 3 und 2 X1 – X2 = 8 Nunmehr lassen sich zumindest der Möglichkeit nach die Unbekannten eindeutig bestimmen. In unserem Gleichungssystem mit zwei linear unabhängigen Gleichungen und zwei Unbekannten existiert eine eindeutige Lösung. X1 hat den Wert 5 und X2 ist 2. 5 Die wichtigsten auf der Ebene einer Tauschwirtschaft ohne Produktion sind die Annahme der Nichtsättigung der Haushalte an allen Konsumgütern und die Annahme einer spezifischen Nutzenfunktion. Diese Punkte werden im nächsten Kapitel diskutiert.
Neoklassische Mikroökonomie
19
im Ungleichgewicht abgesehen wird, nur unter bestimmten Bedingungen garantiert, dass der Auktionator über den oben angegebenen Mechanismus zum Gleichgewicht findet. Existiert z.B. auf dem Markt von Gut 1 eine Überschussnachfrage, so wird der Auktionator den Preis dieses Gutes erhöhen. Dadurch bringt er jedoch möglicherweise andere Märkte ins Ungleichgewicht, da der Preis von Gut 1 in den Angebots- und Nachfragefunktionen der anderen Märkte enthalten ist. Sofern beispielsweise der Preis von Margarine stärker vom Butterpreis als vom eigenen abhängt, wird der Auktionator beim Versuch, den Buttermarkt ins Gleichgewicht zu bringen, ständig aufs Neue den Margarinemarkt ins Ungleichgewicht bringen (vgl. das Rechenbeispiel oben). Im Grunde wäre Walras gut beraten gewesen, gänzlich auf die Fabelfigur des Auktionators zu verzichten. Eingeführt hat er ihn, um Marktprozesse erfassen zu können. Allerdings ist der Auktionator keine überzeugende Abstraktion zur Modellierung dynamischer Marktprozesse. Zur Verteidigung von Walras muss allerdings betont werden, dass auch alle anderen Paradigmen sich mit dieser Aufgabe schwer tun, da dynamische Prozesse in jedem ökonomischen Paradigma nur unter äußerst einschränkenden Annahmen modelliert werden können. Kernpunkte Relative Preise drücken Tauschrelationen zwischen Gütern aus. Absolute Preise drücken den Wert von Gütern in Geld aus. Als Numéraire-Gut wird das Gut bezeichnet, das in einer Tauschwirtschaft als Wertmaßstab aller anderen Güter fungiert. Bei n Gütern gibt es n-1 unabhängige Tauschrelationen, die alle anderen Tauschrelationen indirekt ausdrücken. Es kann in einer Tauschökonomie ein Gleichgewicht bestimmt werden, das alle unabhängigen Tauschrelationen und alle getauschten Mengen angibt. Walras hat für den Marktprozess zum Gleichgewicht den „Auktionator“ erfunden, der Preise ausruft bis das Gleichgewicht erreicht ist. Faktisch lässt sich ein Prozess zum Gleichgewicht nicht allgemein modellieren. Ob der Marktprozess zu einem Gleichgewicht führt, bleibt offen. Getauscht werden darf erst im Gleichgewicht, da ansonsten das Gleichgewicht vom Anpassungsprozess abhängt. Ein Gleichgewicht hat nichts mit einem gesellschaftlich wünschenswerten oder gerechten Zustand zu tun.
20
2.3
Neoklassische Mikroökonomie
Theorie des Haushalts
2.3.1 Vorbemerkungen Da es um theoretische Aspekte des Nachfrageverhaltens von Haushalten geht, soll zunächst der Begriff „Haushalt“ geklärt werden. Grundsätzlich lassen sich Wirtschaftssubjekte nach zahlreichen Kriterien unterscheiden: nach Geschlecht, nach Höhe des Einkommens oder Vermögens, nach ihrer Stellung im Arbeitsprozess usw. Tatsächlich werden auch die verschiedensten Klassifizierungen gewählt, um ökonomische Sachverhalte zu beschreiben oder zu analysieren. Welche Einteilung jeweils vorgenommen wird, ist eine Frage der inhaltlichen Angemessenheit und der Zweckmäßigkeit. Um Aspekte der Nachfrage nach Gütern, also nach Waren und Dienstleistungen, zu analysieren, hat es sich als zweckmäßig erwiesen, von einem Haushalt als allgemeinem Wirtschaftssubjekt auszugehen. Auf besondere Spezifikationen wie „kinderreich“ oder „Single“ kann im Regelfall immer dann verzichtet werden, wenn es nicht um die empirische Erfassung des konkreten Nachfrageverhaltens eines bestimmten Haushalts, sondern um die allgemeine Logik der Funktionsweise einer Volkswirtschaft geht. Insofern kann sich hinter „Haushalt“ sowohl ein Unternehmer- oder Arbeiter- als auch z.B. ein SozialhilfeempfängerHaushalt verbergen. Es wird unterstellt, dass jeder Haushalt nur aus einer einzigen Person besteht und nur nach seinem individuellen Interesse handelt.6 Unter marktwirtschaftlichen Bedingungen befriedigen Haushalte ihre Bedürfnisse, indem sie Güter auf Märkten kaufen. Dies setzt Einkommen voraus, sei es in der Form des Lohns, des Gewinns, der Zinseinnahmen aus Vermögen oder etwa der Pacht. Im Rahmen der folgend präsentierten mikroökonomischen Theorie des Nachfrageverhaltens von Haushalten wird von den unterschiedlichen Quellen des Einkommens abstrahiert. Zur Vereinfachung der Analyse wird das Einkommen somit zunächst als gegeben unterstellt. Im weiteren Verlauf der Analyse wird dann auch das Einkommen der Haushalte ökonomisch erklärt. Zur Ableitung des Nachfrageverhaltens der Haushalte wird als Prämisse vollständige Konkurrenz unterstellt. Dies bedeutet, dass der einzelne Haushalt keinen Einfluss auf den Marktpreis hat. Für ihn sind die Güterpreise ein Datum, so dass er sich bei gegebenem Einkommen nur entscheiden kann, welche Güter er in welchen Mengen konsumieren möchte. Er ist ein Mengenanpasser und Preisnehmer. Zudem wird unterstellt, dass es sich um einen Markt mit einem homogenen Gut handelt, es also keine Produktdifferenzierung gibt. Salz kommt einem homogenen Produkt relativ nahe, während es bei Ballkleidern relativ viele Differenzierungen geben kann. Schließlich wird angenommen, dass Nachfrager über vollkommene Informationen verfügen und damit eine vollständige Markttransparenz herrscht. Daher haben gleichwertige Güter überall den gleichen Preis, denn bei unterschiedlichen Preisen würden die Nachfrager nur beim billigsten Anbieter kaufen. Um „glatte“ Kurven zu erhalten, wird schließlich in der gesamten Mikroökonomie von einer beliebigen Teilbarkeit der Güter ausgegangen. 2.3.2 Budgetrestriktionen Fragestellung Was ist die Budgetrestriktion des Haushaltes und wie beschränkt sie die Konsummöglichkeiten eines Haushalts? Wie wird die Budgetrestriktion durch Änderungen der relativen Preise und Änderungen der Höhe des Budgets verändert? Die neoklassische Theorie des Nachfrageverhaltens von Haushalten soll eine Erklärung dafür liefern, warum ein Haushalt gerade diese und nicht jene Güter nachfragt und für welche Mengen er sich bei gegebenem Einkommen und gegebenen Preisen entscheidet. An den Ausgangspunkt wird die Annahme gesetzt, dass Menschen ihre Bedürfnisse möglichst optimal befriedigen wollen und dabei rational 6
Spezifische Theorien beschäftigen sich auch mit dem Innenleben eines Haushaltes mit mehreren Personen. Auf die Analyse einer solchen Situation verzichten wir.
Neoklassische Mikroökonomie
21
vorgehen. In der Haushaltstheorie wird dieser Sachverhalt so gefasst, dass jeder Haushalt seinen Nutzen zu maximieren sucht. Aber auch hier muss von bestimmten Aspekten abgesehen werden. Ausgeklammert bleiben beispielsweise Fragen nach den Ursachen von Bedürfnissen, also ob es – was immer das sein mag – wahre oder manipulierte Bedürfnisse sind. Mit Fragestellungen dieser Art setzen sich andere Fachdisziplinen wie etwa die Soziologie oder die Psychologie auseinander. Die Annahme einer gegebenen Bedürfnisstruktur und die der rationalen Nutzenmaximierung sind somit für die Theorie exogen gesetzt. Die Bedürfnisbefriedigung findet allerdings unter der höchst bedauerlichen Nebenbedingung statt, dass immer nur ein bestimmtes Einkommen zur Verfügung steht. Geld spielt für die Argumentation – wie gesagt – in der Neoklassik keine Rolle. Ausschließlich zur verständlicheren Darstellung wird im Folgenden ein gegebenes Geldeinkommen unterstellt. Zur Veranschaulichung denken wir uns einen Haushalt, der über ein Einkommen von 30 € verfügt und damit eine Kneipe betritt. Das Einkommen stellt dann offensichtlich die Budgetrestriktion für die Konsumentscheidungen dar. Nach dem Studium der Karte weiß der Haushalt, dass für ihn, unter Berücksichtigung der Budgetrestriktion, mehrere Konsumvarianten möglich sind. Er kann maximal zwei Essen für jeweils 15 € oder ein Essen und drei Gläser Riesling für jeweils 5 € wählen. Selbstverständlich kann er auch bis zu sechs Gläser Wein bestellen und auf das Essen verzichten. Unter der Annahme, dass unsere Person das gesamte Budget ausgibt, gilt 30 € = 15 € ⋅ X1 + 5 € ⋅ X2 ,
wobei X1 für das Essen und X2 für den Riesling stehen. In allgemeiner Form und unter der Bedingung, dass der Haushalt h sein Budget Yh vollständig auf die in der Ökonomie existierenden n Güterarten verteilt und auch keinen Kredit zur Erhöhung seines Konsums erhält, lässt sich dieser Sachverhalt so notieren: (2.3.1)
Yh = p1X1 + p2X2 + K + pnXn
Gleichung (2.3.1) bringt zum Ausdruck, dass der Haushalt (bei gegebenem Budget) seinen Warenkorb unter den gemachten Annahmen so wählt, dass die Summe der Ausgaben seinem Budget entspricht. Wir unterstellen mit der Gleichung (2.3.1), dass das Budget und die Preise gegeben sind und der Haushalt weder spart noch Kredite aufnimmt. Zur grafischen Darstellung der Budgetrestriktion kommen wir auf unser Beispiel zurück. Falls unser Kneipenbesucher alles für das Essen ausgibt, erreicht er in Abbildung 2.3.1 den Punkt C, der zwei Mengeneinheiten Essen symbolisiert. Sofern er alles für Wein ausgibt, erzielt er den Punkt A und kann folglich sechs Mengeneinheiten Wein konsumieren. Bei diesen beiden Extremfällen wird jeweils das gesamte Einkommen durch den Preis des jeweiligen Gutes dividiert. Ebenfalls möglich ist eine Aufteilung des Gesamtbudgets auf ein Essen und drei Gläser Wein (Punkt B). Alle Punkte auf der Geraden, die als Budgetgerade bezeichnet wird, spiegeln mögliche Kombinationen wider, wobei dann allerdings unterstellt werden muss, dass X1 und X2 beliebig teilbar sind. Die Budgetgerade zeigt, dass – bei gegebenem Budget – alle Konsumwünsche oberhalb der Geraden nicht erfüllt werden können. Bei Konsumplänen unterhalb der Geraden bleibt der Haushalt unter seinen Konsummöglichkeiten. Gibt ein Haushalt sein gesamtes Budget aus, befinden sich die ausgewählten Güterbündel auf der Budgetgeraden.
22
Neoklassische Mikroökonomie
Abbildung 2.3.1: Die Budgetgerade X2 (Wein)
Yh =6 p2
A
B
3
Budgetgerade (BG)
1
C Yh =2 p1
X1 (Essen)
Konstruiert man die Budgetgerade im Zwei-Güter-Modell, Yh = p1X1 + p2X2 nach X2 umgestellt werden. Somit gilt für X2 : (2.3.2)
X2 = −
dann
muss
die
Gleichung
p1 Yh ⋅ X1 + p2 p2
⎛ p1 ⎞ Yh gibt den Schnittpunkt der Budgetgeraden mit der Ordinatenachse an, während ⎜− ⎟ , das Preisp2 ⎝ p2 ⎠ verhältnis beider Güter, also die Steigung der Budgetgeraden festlegt. Das Steigungsmaß der Budgetgeraden besagt, auf welche Menge des einen Gutes verzichtet werden muss, wenn der Konsum des anderen Gutes um eine Einheit erhöht werden soll. In unserem Zahlenbeispiel muss der Kneipenbesucher auf ein Essen (ΔX1 = eine Einheit Essen) zum Preis von 15 € verzichten, um drei Gläser Wein (ΔX2 = 3 Einheiten Wein) zu bekommen. Einem positiven Wert von ΔX2 steht zwingend ein negativer von ΔX1 gegenüber oder umgekehrt. Somit ergibt sich:
Yh = p1(X1 + ΔX1) + p2(X2 + ΔX2) ; mit p1ΔX1 + p2 ΔX2 = 0 Der Wert des zusätzlichen Konsums der einen Ware muss dem Wert des dafür aufgegebenen Konsums der anderen Ware entsprechen. Alle anderen Lösungen wären mit der Budgetrestriktion nicht vereinbar, sofern – wie gesagt – das Einkommen vollständig konsumiert wird.
p1 15 = − = −3 . Diesem Preisverhältnis von Essen zu p2 5 Wein entspricht das auf dem Markt herrschende Tauschverhältnis zwischen Wein und Essen. Daher kann ohne Berücksichtigung der Vorzeichen notiert werden: In unserem Beispiel gilt als Steigungsmaß −
(2.3.3)
p1 ΔX2 = p2 ΔX1
Der relative Preis zwischen zwei Gütern muss dem umgekehrten Tauschverhältnis entsprechen, was wir in Kapitel 2.2 schon festgestellt haben.
Neoklassische Mikroökonomie
23
Abbildung 2.3.2: Verschiebungen der Budgetgeraden X2
Yh1 p 02 Yh0 p 02 Yh0 p12 BG3
BG1
Yh0 p10
BG2
Yh1
X1
p10
Untersuchen wir nun Verschiebungen der Budgetgeraden (Abbildung 2.3.2), wobei das Budget des hten Haushalts zunächst Yh0 betragen soll.7 Die ursprünglichen Preise seien p02 und p10 , so dass sich in der Abbildung die fett gedruckte Budgetgerade BG1 ergibt. Nun erhöhe sich der Preis des Gutes X2 Y0 auf p12 . Dadurch lassen sich mit dem vorgegebenen Budget nur noch maximal 1h Einheiten von X2 p2 Yh0 , und man erhält p10 die Budgetgerade BG3 . Sieht man vom Extremfall ab, dass der Haushalt ausschließlich Gut X1 konsumiert, hat er durch die Preiserhöhung des Gutes X2 auch bei unverändertem nominalen Budget eine reale Einkommenssenkung erfahren, da er nun mengenmäßig weniger konsumieren kann.
kaufen. Grafisch kommt es zu einer Drehung der Budgetgeraden um den Punkt
Untersuchen wir nun eine Erhöhung des Budgets auf Yh1 bei gleich bleibenden Preisen. In diesem Fall kommt es ausgehend von BG1 zu einer Parallelverschiebung der Budgetgeraden nach rechts oben zur Geraden BG2 . Eine Senkung des nominalen Einkommens würde die Budgetgerade nach unten verschieben. In diesen Fällen ändert sich an der Preisrelation – um beim Beispiel zu bleiben – zwischen Essen und Wein nichts, so dass auch die Steigung der Budgetgeraden unverändert bleibt. Kernpunkte Die Konsummöglichkeiten eines Haushalts werden durch seine Budgetrestriktion gesetzt. Im Zwei-Güter-Fall kann die Budgetrestriktion durch eine Budgetgerade ausgedrückt werden. In einem Zwei-Güter-Fall wird die Steigung der Budgetgeraden durch das Preisverhältnis der beiden Güter bestimmt, das dem umgekehrten Tauschverhältnis entspricht. Die Budgetgerade verschiebt sich nach außen, wenn das Budget bei gleichen Preisen ansteigt. Die Budgetgerade dreht sich, wenn sich das Preisverhältnis verändert.
7
0
Wir arbeiten hier mit oberen und unteren Indizes. Bei Yh handelt es sich um den h-ten Haushalt, der das Budget mit dem Index Null hat.
24
Neoklassische Mikroökonomie
2.3.3 Die Präferenzordnung Fragestellung Wie wird die Präferenzordnung eines Haushaltes erfasst? Was ist eine Nutzenfunktion und eine Indifferenzkurve? Was versteht man unter Grenznutzen? Was ist das erste Gossensche Gesetz? Präferenzordnung und Indifferenzkurve Haushalte sind mit dem Entscheidungsproblem konfrontiert, für welche Güter das begrenzte Budget ausgegeben werden soll. Dabei wird unterstellt, dass die Haushalte versuchen, ihren Nutzen im Rahmen ihres gegebenen Budgets zu maximieren. Folglich werden Haushalte jene Mengen an Gütern kaufen, die ihnen den höchsten Gesamtnutzen versprechen. Diese Orientierung setzt allerdings voraus, dass sie bei unterschiedlichen Güterbündeln in der Lage sind zu entscheiden, welchen der zur Auswahl stehenden Warenkörbe sie gegenüber anderen bevorzugen bzw. als gleich gut einschätzen. Unter Güterbündel soll ein eindeutig bestimmtes Sortiment an Gütern verstanden werden, so dass exakt festgelegt ist, welche Güter in welchen Mengen darin vorhanden sind. Sie müssen eine bestimmte, in sich konsistente, Präferenzordnung besitzen. Kommen wir zum Ausgangsbeispiel zurück. Unser Kneipenbesucher hat die Qual der Wahl: Er muss sich für einen Konsumplan entscheiden, dem dann ein bestimmtes Güterbündel entspricht. Nehmen wir drei mögliche Konsumpläne heraus und bezeichnen sie mit X1, X2 und X3. Die Variante X1 beinhaltet ein Essen für 15 € (X11 ) und drei Gläser Wein für jeweils 5 € (X12 ) .8 Das zweite Güterbündel X2 besteht aus Zwei-Drittel eines Essens zu 10 € (X12 ) und vier Gläsern Wein (X 22 ) . Das dritte Güterbündel X3 schließlich würde zu einem Verzicht auf das Essen (X13 ) und zu sechs Gläser Wein (X32 ) führen. Es ergibt sich: X1 = (X11 , X12 )
=
1 Essen und 3 Gläser Wein
X2 = (X12 , X 22 )
=
2 Essen und 4 Gläser Wein 3
X3 = (X13 , X 32 )
=
0 Essen und 6 Gläser Wein
Die hier vorgestellte Theorie geht davon aus, dass ein Haushalt eindeutig entscheiden kann, welches der Güterbündel für ihn die höchste, welches die mittlere und welches die unterste Priorität genießt. Selbstverständlich können auch Bündel als gleich gut eingeschätzt werden, so dass es in diesem Fall gleichgültig ist, welchen Warenkorb der betreffende Haushalt erhält. Sofern zwei Güterbündel als gleich bewertet werden, gelten sie als indifferent. Wir unterstellen in unserem Beispiel, der Haushalt entscheide sich für X2, bestelle also ein Zwei-Drittel-Essen und vier Gläser Riesling. Seine individuelle Priorität könnte dann so aussehen: X2 strikt besser als X3 und X3 strikt besser als X1. Im vorhergehenden Unterkapitel wurde darauf hingewiesen, dass Haushalte durch Tauschakte ihren Nutzen erhöhen können. Im Rahmen der Ausführungen zu den Präferenzordnungen war dann vom Nutzen keine Rede mehr. Wie also sieht das Verhältnis zwischen Nutzen und Präferenzordnungen aus? Die Väter der neoklassischen Modelle waren noch davon überzeugt, dass man Nutzen quantitativ messen könne. Ein zusätzliches Glas Mineralwasser könnte dann z.B. fünf und eine weitere Krawatte acht zusätzliche Nutzeneinheiten liefern (kardinale Nutzentheorie). Es stellte sich allerdings – wenig überra8
3
Wir arbeiten hier ebenfalls mit oberen und unteren Indizes. X 2 steht z. B. für die Menge des Gutes 2, die im Konsumplan Nr. 3 auftaucht.
Neoklassische Mikroökonomie
25
schend – heraus, dass solche Berechnungen auf unlösbare Probleme stoßen – nicht zuletzt, weil der Umfang des jeweiligen Nutzenzuwachses nur individuell bewertet und intersubjektiv nicht verglichen werden kann. Folgerichtig hat sich die Neoklassik von theoretischen Konzeptionen dieser Art verabschiedet. Dieser Abschied gelang umso schmerzfreier, als sich zeigen ließ, dass die Analyse der Präferenzen von Haushalten auch ohne kardinale Nutzentheorie möglich ist. Es reicht aus, dass ein Individuum unterscheiden kann, ob ihm dieses Güterbündel lieber ist als jenes, ohne diese Entscheidung in allgemeinen Einheiten bewerten zu müssen (ordinale Nutzentheorie). Das moderne Nutzenmaximierungskonzept bedarf ausschließlich einer Präferenzordnung. Der individuelle Nutzen kann maximiert werden, ohne dass dieser Nutzen selbst in eindeutigen Größenordnungen gemessen werden muss. Es genügt, dass – um beim Beispiel zu bleiben – das Güterbündel X2 einen höheren Nutzen repräsentiert als X3 und X3 einen höheren als X1. Jeder Präferenzordnung lassen sich weitgehend beliebige reelle Zahlen zuordnen, so dass von drei unterschiedlichen reellen Zahlen in unserem Beispiel die größte X2, die mittlere X3 und die kleinste X1 zugeordnet wird. Um ein beliebiges Beispiel zu nennen, ließe sich dem Güterbündel X2 die Zahl 10, dem Bündel X3 die Zahl 7,3 und dem Bündel X1 die Zahl 6,5 zuordnen, wobei die absolute Größe der Zahlen unwichtig ist, so dass 10, 7,3 und 6,5 ersetzt werden könnten durch 10, 5 und 1 oder 19,5, 18,9 und 18,2. Durch diese Zuordnung wird eine Präferenzordnung in eine so genannte Nutzenindexfunktion oder kurz Nutzenfunktion (2.3.4)
Uh = Uh(X1, X2,..., Xn)
überführt, mit Uh als Nutzenniveau des h-ten Haushalts, das von der Menge und der Struktur der konsumierten Güter abhängt.9 Hinter der Nutzenfunktion steht somit die Präferenzordnung eines Haushalts. In dem hier zugrunde gelegten Fall würde z.B. gelten: Uh (X12 , X 22 ) f Uh (X13 , X 32 ) f Uh (X11 , X12 ) . Aber auch umgekehrt lässt sich durch die Werte der Funktion die Präferenzordnung des Haushalts ermitteln.
In einer Welt mit vielen Gütern existiert eine gigantische Anzahl von möglichen Güterbündeln, die mit Hilfe von Nutzenfunktionen entsprechend des subjektiven Nutzens geordnet werden können. Existieren nur zwei Güter, dann kann die Nutzenfunktion in einem dreidimensionalen Diagramm dargestellt werden. Die Nutzenfunktion stellt sich als ein Nutzengebirge dar, das mit der Zunahme der konsumierten Mengen an Höhe gewinnt (vgl. Abbildung 2.3.3). Jeder Punkt auf der Oberfläche des Gebirges stellt ein unterschiedliches Güterbündel dar. Alle Güterbündel können mit allen anderen Güterbündeln verglichen werden, wobei ein beliebig ausgewähltes Bündel im Vergleich zu den verschiedenen anderen Bündeln entweder einen höheren, niedrigeren oder gleichen Nutzen erbringt. Der Höhenzug AB weist an jedem Punkt den gleichen Abstand von der Grundfläche auf, so dass jeder Punkt des Höhenzugs das gleiche Nutzenniveau repräsentiert.
9
In der Gleichung
Uh = Uh(X1, X2,..., Xn) wird Uh auch als Funktionszeichen benutzt. Manchmal wird die Glei-
chung in der Form Uh = f (X1, X2,..., Xn) mit f als Funktionszeichen angegeben. Wir ziehen Uh als Funktionszeichen vor, da dann unmittelbar bekannt ist, welche Funktion gemeint ist. Bei f ist dies nicht der Fall.
26
Neoklassische Mikroökonomie
Abbildung 2.3.3: Die Nutzenfunktion Uh A
X2
B
X1
Mit Hilfe von Nutzenfunktionen lassen sich so genannte Indifferenzkurven entwickeln. Bleiben wir im Zwei-Güter-Modell, dann beschreibt eine Indifferenzkurve in der X1 - X2 -Fläche von allen möglichen Güterbündeln jene, die für einen bestimmten Haushalt genau den gleichen Nutzen liefern. Nehmen wir zunächst – entgegen der oben dargestellten Nutzenfunktion – an, für einen Haushalt sei es völlig gleichgültig, ob er Bananen oder Orangen konsumiert. Für ihn zählt nur die Anzahl der Früchte. Die Nutzenfunktion lautet in diesem Fall Uh = Uh (X1, X2) = X1 + X2 . Die dieser Nutzenfunktion entsprechenden Indifferenzgeraden sind in Abbildung 2.3.4 dargestellt. Hier ist es beispielsweise auf der Indifferenzgerade U1h für den Haushalt gleichgültig, ob er eine Banane und keine Orange oder jeweils eine halbe Frucht besitzt. Das Charakteristische der Indifferenzkurve ist also, dass der Haushalt alle möglichen Mengenkombinationen auf dieser Kurve als gleich gut einschätzt. Der Haushalt ist bezüglich aller Warenkörbe, die auf einer Indifferenzgeraden liegen, indifferent. Sie alle erbringen dem betrachteten Haushalt den gleichen Nutzen. Allerdings ist ihm beispielsweise die Gerade U 2h lieber als U1h , da diese weiter vom Ursprung entfernt liegende Indifferenzgerade eine insgesamt höhere Güterausstattung und damit einen höheren Nutzen impliziert. Unterstellen wir nun, die Präferenzen des Individuums würden sich zugunsten von Bananen ändern, so dass einer Banane zwei Orangen entsprächen. In diesem Fall würde in der Abbildung die Indifferenzgerade U1h die Ordinatenachse weiterhin bei 1 berühren, jedoch die Abszissenachse bei 2. Bei der Indifferenzgeraden U 2h lägen die entsprechenden Berührungspunkte auf der Ordinatenachse bei 2 Bananen und bei der Abszissenachse bei 4 Orangen etc. Man sieht, dass die Indifferenzgerade die Nutzenfunktion wiedergibt.
Neoklassische Mikroökonomie
27
Abbildung 2.3.4: Die Indifferenzgerade X2 (Bananen) 3
2
1
U1h
U 2h
U 3h
1
2
3
X1 (Orangen)
Allerdings werden in der Haushaltstheorie keine Indifferenzgeraden, sondern generell zum Ursprung hin konvexe Indifferenzkurven, die sich asymptotisch der Ordinate bzw. der Abszisse nähern, unterstellt. Ein Beispiel hierfür ist in der Abbildung 2.3.5 wiedergegeben.10 Die vom Ursprung am weitesten entfernte Indifferenzkurve U 4h spiegelt das höchste Nutzenniveau wider, da sie im Vergleich zu den anderen eine umfangreichere Güterausstattung und somit einen umfangreicheren Konsum bedeutet. So bevorzugt der Haushalt 1 Essen und 3 Liter Wein (Warenkorb X1 auf U 3h ) gegenüber 1 Essen und 1,8 Liter Wein (Warenkorb X3 auf U1h ). Dagegen ist ihm gleichgültig, ob er den Warenkorb X1 der X2 konsumiert, da beide Warenkörbe auf der gleichen Indifferenzkurve liegen. Die gesamte X2 - X1 -Ebene , vom Nullpunkt bis zu einer beliebig weit rechts liegenden Kurve, ist durch individuelle Indifferenzkurven ausgefüllt, da schon die kleinste Zunahme des Konsums eines Gutes bei Konstanz des anderen eine höhere Indifferenzkurve impliziert. Wird bei einer Nutzenfunktion das Nutzenniveau als gegeben unterstellt, dann stellen alle Güterkörbe, die ein gegebenes Nutzenniveau realisieren, eine Indifferenzkurve dar. Sie stellt – bildlich gesprochen – eine Höhenlinie des Nutzengebirges dar (vgl. Abbildung 2.3.3).
Abbildung 2.3.5: Indifferenzkurven X2 (Wein) X1
3
X2
2
U 4h
3
X
1,8
U 3h U 2h
1
U 1 10
1,8 2
3
1 h
X1 (Essen)
Die für diese Unterstellung notwendigen Axiome werden am Ende dieses Abschnitts aufgezählt.
28
Neoklassische Mikroökonomie
Da Haushalte diejenigen Güterbündel, die auf einer Indifferenzkurve liegen, als gleichwertig beurteilen, lässt sich zugleich ablesen, in welchen Größenordnungen Gut X1 durch Gut X2 ersetzt werden muss (und umgekehrt), wenn das Nutzenniveau unverändert bleiben soll. In Abbildung 2.3.6 ist diese ΔX2 Substitutionsrate durch gegeben. Die Substitutionsrate muss negativ sein. Denn nimmt der KonΔX1 sum des einen Gutes ab, dann muss der Konsum des anderen Gutes zunehmen, um das Nutzenniveau unverändert zu lassen. Zur Verdeutlichung sei ein einfaches Beispiel konstruiert: Beginnen wir beim Güterbündel X1(16 X2 ,1 X1 ) und reduzieren die konsumierte Menge des Gutes X2 um 8 Einheiten. Um auf dem gleichen Nutzenniveau zu bleiben, muss in diesem Fall eine Einheit des Gutes X1 mehr ΔX2 = −8 . Je weiter man sich nach rechts unkonsumiert werden. Die Substitutionsrate beträgt somit ΔX1 ten auf der Indifferenzkurve bewegt, also je geringer die Menge X2 und je größer die Menge X1 wird, umso größer (in absoluten Werten kleiner) wird die Substitutionsrate. Reduzieren wir, ausgehend vom Güterkorb X2(4 X2 ,4 X1 ), zwei weitere Einheiten von X2 , dann muss der Konsum von X1 um vier Einheiten ansteigen, um das Nutzenniveau auf dem gleichen Niveau zu halten. Die Substitutionsrate ΔX2 = −0,5 . beträgt dann ΔX1 Dieses Ergebnis lässt sich so erklären, dass es relativ leicht fällt, auf eine Einheit eines Gutes zu verzichten, wenn man mit diesem Gut recht üppig ausgestattet ist, während der Nutzenverlust größer ist, wenn man von dem entsprechenden Gut nur noch wenig hat und eine weitere Menge aufgeben soll. Es wird somit bei zunehmendem Konsum eines Gutes und gleich bleibender Menge aller anderen Güter unterstellt, dass der Gesamtnutzen beim Konsum einer jeweils weiteren Einheit steigt, jedoch der Grenznutzen sinkt. Das Postulat vom abnehmenden Grenznutzen wurde 1854 erstmals von Heinrich Gossen dargestellt und wird deshalb als erstes Gossensches Gesetz bezeichnet. Es ist eine theoretische Setzung, die plausibel ist, jedoch selbst nicht abgeleitet wird.
Abbildung 2.3.6: Numerisches Beispiel einer konvexen Indifferenzkurve X2 16
X1 (16X 2 ,1X1 )
8 X 2 (4X 2 ,4X1 )
4 2
U 12
4
8
X1
In der Abbildung 2.3.7 sind im oberen Teil zwei Nutzenfunktionen angegeben, wobei Gut X2 konstant gehalten werden soll und Gut X1 sich verändert. Die Nutzenfunktion U1h ist durch einen geringeren gegebenen Konsum von X2 gekennzeichnet als U 2h . Daher gilt X 2 < X 2 . Die sich aus den Nutzenfunktionen ergebenden Grenznutzenkurven für das Gut X1 sind im unteren Teil der Abbildung ersicht-
Neoklassische Mikroökonomie
29
lich. Der Grenznutzen drückt aus, wie sich der Nutzen eines Haushaltes verändert, wenn er von einem Gut eine Einheit mehr konsumiert. Mathematisch entspricht der Grenznutzen der ersten Ableitung der Nutzenfunktion nach dem Gut, das in seiner Konsumtion variiert wird. Bei einer größeren (kleineren) Ausstattung der als gegeben angenommenen Güter – im Beispiel das Gut X2 – verlaufen die Gesamtnutzen- und die Grenznutzenkurve weiter oben (vgl. Abbildung 2.3.7).
Abbildung 2.3.7: Die Gesamtnutzen- und Grenznutzen-Funktion Uh
U 2h = U 2h (X1 , X 2 ) U1h = U1h (X1 , X 2 )
X1
GN1
GN 21 GN11 X1
Hinter den konvex zum Ursprung verlaufenden Indifferenzkurven steckt – wie gesagt – das erste Gossensche Gesetz. Ein Haushalt bewege sich entlang einer Indifferenzkurve beginnend mit einem relativ hohen Bestand des Gutes X2 und einem relativ geringen Bestand des Gutes X1 . Verzichtet er nun auf eine Einheit des zweiten Gutes, so wird sein Nutzenverlust relativ gering sein, da er von diesem Gut einen relativ hohen Bestand hat. Der Nutzenzuwachs beim Gut X1 wird dagegen relativ hoch sein, da er von diesem Gut relativ wenig konsumiert. Eine relativ große Abnahme des Verbrauchs von Gut X2 wird in diesem Fall durch eine relativ geringe Zunahme des Gutes X1 kompensiert. Mit jeder weiteren Abnahme des Verbrauchs des zweiten Gutes steigt der Grenznutzen dieses Gutes, während mit jeder Zunahme des Verbrauchs des ersten Gutes dessen Grenznutzen sinkt. Jede Reduktion einer Einheit des Verbrauchs von X2 muss somit durch steigende Mengen von X1 kompensiert werden. Die Folge ist eine zum Ursprung hin konvexe Indifferenzkurve. Entlang einer Indifferenzkurve müssen sich der Nutzenzuwachs und die Nutzenabnahme vollständig kompensieren. Bezeichnen wir den Grenznutzen des ersten Gutes mit GN1 und den Grenznutzen des
30
Neoklassische Mikroökonomie
zweiten Gutes mit GN2 und machen wir die Veränderungen der Gütermengen sehr klein (ausgedrückt durch d), dann ergibt sich: d X1 · GN1 - d X2 · GN2 = 0 Sehen wir vom Vorzeichen ab und setzten die Substitutionsrate von Gut 2 zu Gut 1 absolut, dann ergibt sich: (2.3.7)
dX2 GN1 = dX1 GN 2
Die Grenzrate der Substitution muss offensichtlich auf einer Indifferenzkurve dem umgekehrten Verhältnis der Grenznutzen dieser beiden Güter zueinander entsprechen. Ableitung der Beziehung zwischen Grenzrate der Substitution und Grenznutzen mit Hilfe einer Cobb-Douglas-Nutzenfunktion Folgend sollen die obigen Ergebnisse formal abgeleitet werden. Ein in der neoklassischen Haushaltstheorie gern verwendetes Beispiel für eine Nutzenfunktion, die zum Ursprung hin konvexe Indifferenzkurven erzeugt, ist die Cobb-Douglas-Nutzenfunktion (2.3.5)
Uh = X1a ⋅ X2 b ,
wobei die Exponenten a und b positive Zahlen sind, die sich zu 1 addieren.11 Wird bei der CobbDouglas-Nutzenfunktion mit zwei Gütern ein gegebenes Nutzenniveau U h unterstellt, dann folgt als Indifferenzkurve: 1
X2 =
Uh b a
X1 b
Unterstellen wir ein Nutzenniveau von U h = 4 und bei den Exponenten a = b = 0,5 dann ergibt sich 1
X2 =
4 0,5 0,5
=
X10,5
42 X11
und damit eine Indifferenzkurve, die bei einem Wert von X1 = 1 den Wert X2 = 16 , bei X1 = 2 den Wert X2 = 8 und bei X1 = 4 den Wert X2 = 4 usw. annimmt. Abbildung 2.3.4 gibt einen Ausschnitt dieser Indifferenzkurve an. Bei der Nutzenfunktion entsprechend der Gleichung (2.3.5) ergibt sich für das Gut X1 bei gegebenem Konsum von X 2 : Uh = X1a ⋅ X2 b
Bildlich gesprochen wandern wir in diesem Fall bei gegebener Menge des Gutes X2 das Nutzengebirge in Abbildung 2.3.3 hinauf, und zwar entlang der Erhöhung des Konsums des ersten Gutes. Die Grenznutzenfunktion des Gutes X1 wird durch die Ableitung der obigen Funktion nach X1 ermittelt:12
11
a
Es ist zu beachten, dass es sich bei der Nutzenfunktion z.B. bei X1 jetzt nicht mehr um einen Index handelt, sondern um einen Exponenten. Die genauen Eigenschaften einer Cobb-Douglas-Funktion werden im Rahmen der Unternehmenstheorie dargestellt.
Neoklassische Mikroökonomie
31
∂Uh = a ⋅ X2 b ⋅ X1a −1 ∂X 1
Da a + b = 1 unterstellt ist, folgt: ∂Uh a ⋅ X2 b a ⋅ X2 b = = ∂X1 X11-a X1b
Es ergibt sich, dass die Grenznutzenkurve immer positiv bleibt und mit steigenden Werten von X1 monoton sinkt. Nach diesen Überlegungen lässt sich das Verhältnis zwischen zwei Gütern auf einer Indifferenzkurve auch für extrem kleine (gegen Null gehende infinitesimale Mengenänderungen) berechnen. Das totale Differential einer Indifferenzkurve ergibt sich durch: ⎛ ∂Uh ⎞ ⎛ ∂Uh ⎞ dUh = ⎜ ⎟ ⋅ dX1 + ⎜ ⎟ ⋅ dX2 ⎝ ∂X1⎠ ⎝ ∂X2 ⎠
Wir wissen, dass der Gesamtnutzen bei Bewegungen auf einer Indifferenzkurve gleich bleibt. Der Nutzenverlust durch den geringeren Konsum des einen Gutes wird durch den Nutzen durch den zusätzlichen Konsum des anderen gerade ausgeglichen. Also muss die Veränderung des Nutzens Null gesetzt werden (dUh = 0) . Folglich gilt auf einer Indifferenzkurve (2.3.6)
⎛ ∂Uh ⎞ ⎛ ∂Uh ⎞ 0 =⎜ ⎟ ⋅ dX1 + ⎜ ⎟ ⋅ dX2 ⎝ ∂X1⎠ ⎝ ∂X2 ⎠
∂Uh ∂Uh (bzw. ) gibt den Grenznutzen an, den die letzte ∂X1 ∂ X2 Einheit des Gutes X1 (bzw. X2 ) liefert. Die Veränderung des Nutzens, die daraus resultiert, dass vom Gut X1 auf ein wenig verzichtet und von Gut X2 ein wenig hinzugewonnen wird, lässt sich dann wie in (2.3.6) schreiben. Wird die Gleichung umgestellt, folgt: Sehen wir uns den Ausdruck genauer an.
∂Uh ∂Uh ⋅ dX1 = ⋅ dX2 ∂X1 ∂X2 In absoluten Beträgen ausgedrückt – um vom negativen Vorzeichen absehen zu können – folgt: ∂Uh dX2 ∂X1 = dX1 ∂Uh ∂X2
dX2 erhalten wir die Steigung der Indifferenzkurve an den jeweils ausgewählten Punkten. Die dX1 Steigung in jedem Punkt der Indifferenzkurve drückt die Grenzrate der Substitution von Gut X2 durch dX2 Gut X1 aus. Die Grenzrate der Substitution, also , muss offensichtlich auf einer Indifferenzkurve dX1 dem umgekehrten Verhältnis der Grenznutzen dieser beiden Güter zueinander entsprechen. Zur Veranschaulichung sei unterstellt, dass der Grenznutzen von Gut X1 an einem bestimmten Punkt auf der
Mit
12
Um die erste Ableitung einer Funktion mit zwei Variablen darzustellen, benutzen wir
∂ , also beispielsweise
∂U h = a ⋅ X b2 ⋅ X1a −1. Manchmal wird die erste Ableitung auch mit einem „ ’ “ dargestellt, so dass in unserem Beispiel ∂X1 auch U hX1 '= a ⋅ X b2 ⋅X1a −1 für die erste Ableitung geschrieben werden könnte.
32
Neoklassische Mikroökonomie
Indifferenzkurve doppelt so groß sei wie der von X2 . Dann benötigt man offensichtlich zwei Einheiten von Gut X2 im Austausch gegen eine Einheit von Gut X1 , um den gleichen Gesamtnutzen zu erhalten. Axiome der Theorie der Präferenzordnung Damit eine Nutzenfunktion in sich konsistent ist und sich zum Ursprung hin konvexe Indifferenzkurven zwischen zwei Gütern ergeben, die sich asymptotisch den beiden Achsen annähern und den gesamten Raum in einem Zwei-Güter-Diagramm ausfüllen, ist die Annahme verschiedener Axiome notwendig, die im Folgenden knapp dargestellt werden sollen. Erstens müssen die Präferenzordnungen vollständig sein. Demnach muss der Haushalt für jeweils zwei beliebige Warenkörbe aus der Gesamtheit der Konsumpläne angeben können, welchen er vorzieht bzw. ob er indifferent ist. Demnach gilt für jedes beliebige Güterbündel, bzw. für alle Xa und Xb entweder Xa f Xb, dann aber nicht Xb f Xa oder Xb f Xa, dann aber nicht Xa f Xb.13 Dies bedeutet, dass die Möglichkeit ausgeschlossen wird, ein Haushalt sei zu keiner Bewertung fähig. Nicht ausgeschlossen ist natürlich eine Indifferenz, so dass Xa ∼ Xb gilt. Selbstverständlich ist dabei unterstellt, dass bei Xa ∼ Xb auch Xb ∼ Xa gilt (Reflexivität). Die Möglichkeit einer eindeutigen Entscheidung impliziert vollständige Informationen über die zu beurteilenden Güterbündel – eine vor dem Hintergrund empirischer Erfahrungen gewiss zunächst wenig einleuchtende Prämisse, die jedoch für die Modellkonstruktion notwendig ist. Zweitens soll die Präferenzordnung transitiv, also in sich schlüssig sein. Demnach soll ein Haushalt, der sich für Xa im Vergleich zu Xb und für Xb im Vergleich zu Xc entscheidet, auch das Güterbündel Xa dem Warenkorb Xc vorziehen. Demnach gilt Xa f Xb und Xb f Xc ⇒ Xa f Xc. Die Transitivität der Präferenzordnung verhindert, dass Haushalte nicht in der Lage sind, die Konsumpläne in eine eindeutige Rangfolge zu bringen. Die Annahme der Transitivität verhindert, dass sich Indifferenzkurven schneiden können. Mit diesen beiden Axiomen ist zugleich umrissen, dass in dem hier diskutierten Modell rationales Verhalten ausschließlich auf die individuelle Bedürfnisbefriedigung bei gegebenen Präferenzordnungen ausgerichtet ist. Es sollte beachtet werden, dass diese Rationalität nichts mit den landläufigen und zuweilen auch plausiblen Vorstellungen von rationalem Verhalten zu tun haben muss. Sofern unser Kneipenbesucher etwa alkoholkrank wäre und sich daher gegen das Essen und für sechs Gläser Riesling entschieden hätte, so wäre dies im Sinne des Modells durchaus rational, da er individuell den Alkohol dem Essen vorzieht. Drittens besagt die Annahme Nichtsättigung, dass sich ein Haushalt immer dann für den Warenkorb Xa entscheidet, wenn dieser, bei ansonsten gleichen Mengen der übrigen Güter, von einem Gut eine größere Menge enthält als der Warenkorb Xb. Diesem Axiom liegt die Vorstellung zugrunde, dass Bedürfnisse grundsätzlich unendlich sind und – salopp formuliert – auch die fünfhundertste Scheibe Brot noch einen zusätzlichen Nutzen liefert. Tatsächlich aber ist die Annahme der Nichtsättigung weniger problematisch als es auf den ersten Blick aussieht. Denn faktisch muss ein relativ knappes Budget auf zahlreiche Güter aufgeteilt werden, so dass man üblicherweise wesentlich weniger konsumieren kann als man konsumieren möchte. Es wird zudem – anknüpfend an das 1. Gossensche Gesetz – eine Nutzenfunktion unterstellt, die zum Ursprung hin konvexe Indifferenzkurven erzeugt. Viertens sollen die die Präferenzordnungen widerspiegelnden Indifferenzkurven stetig und monoton fallend sein. Folglich sollen sie keine Lücken, Knicke oder Sprungstellen aufweisen, und ihre Steigung soll an jedem Punkt eindeutig sein. Diese Annahme vereinfacht die mathematische Herangehensweise, da so eine widerspruchsfreie und eindeutige Ableitung eines optimalen Konsumplans eines Haushalts möglich wird. Ökonomisch bedeuten die hier gemachten Annahmen zudem, dass eine weitere Abnah13
f bedeutet strikt besser, ∼ bedeutet indifferent.
Neoklassische Mikroökonomie
33
me des einen Gutes immer mit der Zunahme eines anderen Gutes kompensiert werden kann. Dies impliziert, dass ein Gut nie vollständig substituiert werden kann, eine Indifferenzkurve also niemals die Abszissen- oder Ordinatenachse schneiden kann. Gleichzeitig liegt eine unbeschränkte Substituierbarkeit vor. Dies wiederum besagt, dass die Äste einer Indifferenzkurve niemals zu Parallelen der Abszissen- oder Ordinatenachse werden dürfen. Kernpunkte Im Grundmodell der Mikroökonomie wird vollständige Konkurrenz, die Mengenanpassung der Markteilnehmer (der Preis ist ein Datum), homogene Güter, vollständige Information und beliebige Teilbarkeit der Güter unterstellt. Das Ziel eines Haushaltes ist seine individuelle Nutzenmaximierung. Die Nutzenfunktion stellt eine Beziehung zwischen den konsumierten Gütern und dem Nutzen her. Dabei genügt es, eine Rangordnung zwischen verschiedenen Konsumkörben herzustellen, ohne die Nutzenniveaus absolut zu quantifizieren. Eine Indifferenzkurve stellt die Kombination aller Güterkörbe in einem Zwei-Güter-Fall dar, die für den Haushalt das gleiche Nutzenniveau erbringen. Je weiter in einem Zwei-Güter-Fall eine Indifferenzkurve vom Ursprung entfernt ist, desto höher ist das Nutzenniveau. Das erste Gossensche Gesetz unterstellt, dass mit der Zunahme des Konsums eines Gutes immer ein Nutzenzuwachs verbunden ist, der jedoch abnimmt. Man spricht vom Gesetz des fallenden Grenznutzens. Aufgrund des ersten Gossenschen Gesetzes ist die Indifferenzkurve konvex zum Ursprung. Entlang der Indifferenzkurve entspricht die (absolute) Grenzrate der Substitution zwischen zwei Gütern dem umgekehrten Verhältnis der Grenznutzen dieser Güter.
34
Neoklassische Mikroökonomie
2.3.4 Der optimale Konsumplan und die Nachfragefunktion Fragestellung Wie wird der optimale Konsumplan, der den Nutzen eines Haushaltes maximiert, mit Hilfe von Indifferenzkurven und Budgetgeraden bestimmt? Was besagt das zweite Gossensche Gesetz vom Ausgleich der Grenznutzen? Wie wird die individuelle und aggregierte Nachfragefunktion nach einem Gut abgeleitet? Wie kann man Güter klassifizieren? Damit sind die Voraussetzungen geschaffen, das Haushaltsgleichgewicht bzw. den optimalen Konsumplan abzuleiten. Die für einen Haushalt gegebene Budgetrestriktion entscheidet über das maximal realisierbare individuelle Nutzenniveau, also über die höchste erreichbare Indifferenzkurve. Dieser Aspekt lässt sich mit Hilfe der Abbildung 2.3.8 verdeutlichen. Die Abbildung zeigt vier ausgewählte Indifferenzkurven sowie eine Budgetgerade, durch die der Haushalt finanziell begrenzt wird (Budgetrestriktion). Von den eingezeichneten Konsumplänen wäre dem Haushalt der Konsumplan X2 am liebsten, denn dieses Güterbündel liegt auf der höchsten Indifferenzkurve in der Grafik, nämlich auf U 4h . Allerdings kann er sich dieses Güterbündel nicht leisten, da es an keinem Punkt der Indifferenzkurve U 4h zu einer Übereinstimmung mit seinen Budgetmöglichkeiten kommt. Der Haushalt könnte die Güterbündel X3 und X4 von seinem Budget her erreichen. Bei X3 würde er sein Budget nicht ausschöpfen, was unseren Prämissen widerspricht. Bei X4 würde er zwar sein gesamtes Budget verbrauchen, jedoch wäre dies nicht optimal, da er einen Konsumplan wählen würde, der nicht auf der höchsten erreichbaren Indifferenzkurve liegt. Die höchste Indifferenzkurve, die der Haushalt gerade noch erreichen kann, ist U 3h ; sie tangiert die Budgetgerade. Jede noch höhere Indifferenzkurve weist keinen Berührungspunkt mit der Budgetgeraden mehr auf. Also wird unser Haushalt das Güterbündel X1 wählen, das aus den Gütermengen X1 * und X2 * besteht. Unser Kneipenbesucher hat nun seine Entscheidung getroffen. Er kennt von den vielen möglichen Kombinationen zwischen Essen und Wein, die sein Budget erlauben, genau den Konsumplan mit dem maximalen Nutzen. Beim optimalen Konsumplan entspricht die Steigung der Budgetgerade der Steigung der sie tangierenden Indifferenzkurve. Kein anderer Punkt auf der X1 - X2 -Ebene hat entsprechend der gemachten Prämissen diese Eigenschaft. Also entspricht beim optimalen Konsumplan die Steigung der p1 Budgetgeraden dem negativen Preisverhältnis − (vgl. Gleichung (2.3.2). Die Steigung der Inp2 differenzkurve ist gleich der Grenzrate der Substitution, die ebenfalls negativ ist. Die Beträge dieser beiden negativen Größen sind demnach im Haushaltsgleichgewicht bzw. beim optimalen Konsumplan gleich, daher ist an diesem Punkt der Betrag der Grenzrate der Substitution gleich dem umgekehrten Preisverhältnis: dX2 p1 = (2.3.8) dX1 p2
Neoklassische Mikroökonomie
35
Abbildung 2.3.8: Der optimale Konsumplan
X2
Yh p2 X4 X3
X2 *
X2
X1
U 4h U 3h U U
2 h
1 h
X1 *
Yh X1 p1
Da die Grenzrate der Substitution dem umgekehrten Verhältnis der Grenznutzen der beiden Güter entspricht (vgl. den letzten Abschnitt oben), gilt im Haushaltsgleichgewicht: (2.3.9)
dX2 p1 GN1 = = dX1 p 2 GN 2
Das Verhältnis der Grenznutzen ist somit gleich dem Preisverhältnis. Ein Gut, dessen Grenznutzen doppelt so groß ist wie der eines anderen Gutes, darf auch doppelt so teuer sein. Die beiden rechten Glieder der obigen Formel lassen sich nach Umformung auch folgendermaßen ausdrücken: GN1 GN 2 = p1 p2
Die obige Gleichung bringt zum Ausdruck, dass im Haushaltsoptimum für jedes Gut das Verhältnis von Grenznutzen und Preis den selben Wert annehmen muss. Diese Optimalbedingung wird als das zweite Gossensche Gesetz bezeichnet. Unterstellen wir zur Verdeutlichung dieses Gesetzes für einen Moment, dass alle Güter den gleichen Preis haben. In diesem Fall muss im Haushaltsoptimum jedes konsumierte Gut den gleichen Grenznutzen besitzen. Wäre dies nicht der Fall, könnte durch einen geringeren Konsum des Gutes, das einen unterdurchschnittlichen Grenznutzen hat, und einen Mehrkonsum des anderen Gutes, das einen überdurchschnittlichen Grenznutzen hat, das Nutzenniveau noch erhöht werden. Formale Ableitung des Haushaltsoptimums Die Bedingungen des optimalen Konsumplans lassen sich auch formal herleiten. Natürlich ändern sich die Ergebnisse dadurch in keiner Weise. Mathematisch lässt sich die Konsumentenentscheidung zugunsten eines spezifischen Warenkorbs als Maximierung der Nutzenfunktion Uh = Uh (X1, X2) fassen. Diese Aufgabe erfolgt unter der Nebenbedingung, dass der Haushalt sein Budget nicht überschreiten darf. Im Zwei-Güter-Modell lautet diese Nebenbedingung Yh - p1X1 - p2X2 = 0 .
36
Neoklassische Mikroökonomie
Optimierungsprobleme lassen sich bei Funktionen dieser Art mit Hilfe so genannter LagrangeFunktionen lösen. Im vorliegenden Fall wird ein Maximum gesucht. Dazu wird die zu maximierende Funktion in eine so genannte Lagrange-Funktion überführt. Diese lautet für das Zwei-Güter-Modell (2.3.10)
L = Uh (X1,X2) + λ ⋅ (Yh - p1X1 - p 2 X2 ),
wobei das erste Glied der rechten Seite die Abhängigkeit des Nutzens von der Menge und Struktur der Güter und das zweite Glied die Nebenbedingung widerspiegelt. Die Gleichung enthält drei gegebene Variable, nämlich p1 , p2 und Yh , und drei unbekannte Variable, nämlich X1, X2 sowie λ. Die partiellen Ableitungen nach X1, X2 und λ lauten dann: ∂ L ∂ Uh = − λ p1 ∂ X1 ∂ X1 ∂ L ∂ Uh = − λ p2 ∂ X 2 ∂ X2 ∂L = Yh - p1X1 - p2X2 ∂λ
Bekanntlich befindet sich der Extrempunkt dort, wo die erste Ableitung eine Nullstelle hat. Für ein Maximum muss die zweite Ableitung kleiner Null sein, was im Folgenden immer unterstellt wird. Setzen wir die Ableitungen Null, dann folgt: (2.3.11)
∂ Uh − λ p1 = 0 ∂ X1
(2.3.12)
∂ Uh − λ p2 = 0 ∂ X2
(2.3.13)
Yh - p1X1 - p2X2 = 0.
Die Gleichungen (2.3.11) und (2.3.12) sind beide Null und können daher gleichgesetzt werden. Nach Umformungen und dem Kürzen von λ resultiert: ∂ Uh ∂ X1 = p1 ∂ Uh p2 ∂ X2
Aus Gleichung (2.3.9) ist uns dieses Ergebnis schon bekannt. Durch Umformung von Gleichung erhalten wir:
∂ Uh ∂ Uh ∂ X1 = ∂ X2 p1 p2 Das Ergebnis lässt sich auf n Güter übertragen. Dann ergibt sich für den Haushalt h als Bedingung des optimalen Konsumplans
(2.3.14)
∂ Uh ∂ Uh ∂ Uh ∂ X1 = ∂ X2 = ... = ∂ Xn , pn p1 p2
was nichts anderes als die allgemeine Darstellung des zweiten Gossenschen Gesetzes ist.
Neoklassische Mikroökonomie
37
Darstellung eines optimalen Konsumplanes an einem Rechenbeispiel Im Folgenden soll ein optimaler Konsumplan beispielhaft bestimmt werden. Nehmen wir an, die Nutzenfunktion lautet U h = U h (X1 , X 2 ) = X1 ⋅ X 2 . Der Preis für das Gut X1 betrage 2 € und der für das Gut X2 6 €. Das gesamte Budget belaufe sich auf 90 €. Dann gilt als Budgetrestriktion: 2 € ⋅ X1 + 6 € ⋅ X2 = 90 € bzw. 90 € – 2 € ⋅ X1 - 6 € ⋅ X2 = 0 1 X1 ist in Abbildung 2.3.9 dargestellt. Sie schneidet 3 1 die Ordinate bei einem Wert von 15 € und hat eine Steigung von - . Ein numerisch genaues Ergeb3 nis für den optimalen Konsumplan lässt sich am einfachsten mit einer Lagrange-Funktion berechnen. Sie lautet:
Die sich ergebende Budgetgerade X2 = 15 € -
L = X1 X2 + λ (90 – 2 X1 - 6 X2 ) Die partielle Ableitung und Nullsetzung zur Berechnung des Maximums führt zu dem folgenden Ergebnis: ∂L = X2 − 2λ = 0 ∂ X1 ∂ L = X1 − 6λ = 0 ∂ X2 ∂L = 90 − 2X1 − 6X 2 = 0 ∂λ
Die zweiten Ableitungen sind jeweils negativ, so dass ein Maximum erreicht wird. Aus der ersten und zweiten Gleichung dieses Systems erhält man: λ=
X2 2
Es folgt: (2.3.15)
X2 =
1 X1 3
sowie
λ=
X1 6
38
Neoklassische Mikroökonomie
Abbildung 2.3.9: Beispiel eines optimalen Konsumplans
Setzt man diese Gleichung in die dritte Gleichung 90 – 2 X1 - 6 X2 = 0 ein, ergibt sich ein Wert von X1 = 22,5. Der Wert von X2 kann errechnet werden, wenn X1 = 22,5 in Gleichung (2.3.15) eingesetzt wird. Wir erhalten als nutzenmaximierenden Konsumplan X2 = 7,5 und X1 = 22,5 (vgl. Abbil1 dung 2.3.9). Im Haushaltsgleichgewicht entspricht die Steigung der Budgetgeraden von − der 3 22,5 Grenzrate der Substitution im Gleichgewichtspunkt auf der Indifferenzkurve. 7,5 Als Fazit können wir festhalten: Im Haushaltsgleichgewicht sind für die Haushalte die Preise vorgegeben. Bei gegebenem Budget und gegebener Präferenzstruktur bestimmen die nutzenmaximierenden Haushalte den Warenkorb, der ihre Bedürfnisse am besten befriedigt. Der Grenznutzen der jeweiligen Güter hängt vom Umfang ihres Konsums ab. Umschichtungen in der Verbrauchsstruktur finden dort ihr Ende, wo das Verhältnis von Grenznutzen und Preis für alle Güter gleich ist. In diesem Fall lassen sich höhere Niveaus an (marktorientierter) Bedürfnisbefriedigung aus der Sicht eines Haushalts nicht erreichen. Er hat gleichsam sein „Optimum“ erreicht. Der optimale Konsumplan gibt eine spezifische Beziehung zwischen dem Preis des Gutes und der Nachfrage nach diesem Gut an. Wir kommen zur individuellen Nachfragekurve des Haushalts, wenn der Preis des entsprechenden Gutes verändert und die entsprechende Mengenreaktion des Haushaltes analysiert wird. Zur Ableitung der individuellen Nachfrage nach einem Gut seitens eines einzelnen Haushalts folgen wir einer komparativ-statischen Analyse. Der Preis des betrachteten Gutes wird unter der Ceteris-Paribus-Bedingung – also unter der Bedingung, dass sich ansonsten keine andere unabhängige Variable verändert – variiert und die Wirkung auf die nachgefragte Menge untersucht. Beginnen wir in Abbildung 2.3.10 mit der steilsten Budgetgeraden. Hier wird im Haushaltsgleichgewicht vom Gut X2 die Menge X 02 * konsumiert. Da an dieser Stelle der Preis p02 existiert, befinden wir uns in Abbildung 2.3.11 im Punkt A, der die gegebene Beziehung zwischen Preis von Gut X2 und Nachfrage von Gut X2 angibt. Eine Erhöhung des Preises für Gut X2 führt bekanntlich zu einer Yh Drehung der Budgetgeraden nach unten, wobei der Punkt 0 auf der Abszisse erhalten bleibt, da p1 sich der Preis für das Gut X1 nicht ändern soll. Unterstellen wir nun Erhöhungen des Preises von X2 , so dass p 22 > p12 > p02 ist. Beim Preis von p12 reduziert sich die Nachfrage nach X2 auf X12 * . Es zeigt sich, dass die nachgefragte nutzenmaximierende Menge mit steigendem Preis gesunken ist. Wir haben nun einen weiteren Punkt, der die Beziehung zwischen Preis und nachgefragter Menge
Neoklassische Mikroökonomie
39
von X2 angibt (vgl. Punkt B in Abbildung 2.3.11). Wird der Preis von X2 auf p 22 erhöht, ergibt sich die Nachfragemenge X 22 * und eine neue Preis-Mengen-Kombination in Abbildung 2.3.11 im Punkt C. Werden alle möglichen Preise von X2 durchgespielt, ergibt sich das bekannte Bild einer typischen fallenden individuellen Nachfragekurve, die vom Preis des entsprechenden Gutes abhängt.14
Abbildung 2.3.10: Ableitung der individuellen Nachfragekurve X2
Yh p 02
Yh p12
X 02 *
D
Yh p 22
X 12 *
E F
U 3h
X 22 *
U 2h U1h Yh p10
X1
Formal kann die individuelle Nachfragefunktion nach dem Gut X1 seitens des Haushalts h folgendermaßen gefasst werden:15 (2.3.16)
XN1h = XN1h (p 1 ,Yh, Uh, p2,K,pn)
Die Nachfrage nach dem Gut X1 hängt ab von dessen Preis p1 , wobei das Einkommen Yh , die Präferenzordnung Uh des individuellen Haushalts und alle anderen Preise, also ( p2 ,..., pn ), als konstant angenommen werden. Die konstant gehaltenen Variablen bestimmen die relative Lage der Nachfragefunktion, während Veränderungen von p1 Bewegungen entlang der Nachfragekurve erzeugen. Vereinfacht kann die individuelle Nachfragefunktion nach dem Gut 1 auch durch XN1h = XN1h (p1) ausgedrückt werden. Abbildung 2.3.10 verdeutlicht einen weiteren Aspekt. Mit dem steigenden Preis des Gutes X2 verändert sich auch die Nachfrage nach dem Gut X1 , obwohl sich dessen Preis nicht verändert hat. In 14
Abweichend von der Mathematik wird in volkswirtschaftlichen Abhandlungen häufig die unabhängige Variable auf der Ordinatenachse abgetragen. Wir folgen in diesem Lehrbuch dieser Tradition und stellen Abbildungen in der gewöhnlich gewählten Form dar. 15 XN1h ist folgendermaßen zu interpretieren: X drückt Güter aus, N Nachfrage, 1 das Gut 1 und h einen individuellen Haushalt h.
40
Neoklassische Mikroökonomie
dem angegebenen Fall sinkt die Nachfrage nach X2 bei jeder Preiserhöhung von X1 . Dies ist nicht zwingend der Fall, die Nachfrage nach X2 könnte sich bei Preiserhöhungen von X1 auch erhöhen. Wichtig ist zu erkennen, dass Preisveränderungen nicht nur auf den Markt wirken, der von den Preisänderungen betroffen ist, sondern auf alle Märkte. Damit können Aussagen für die Gesamtökonomie nur bei simultaner Betrachtung aller Märkte stattfinden.
Abbildung 2.3.11: Die individuelle Nachfragekurve p2 p 22
C
B
p12
A
p 02
X 22*
X12*
X 02*
X2
Sinkt die Nachfrage des Gutes X2 bei einer Preiserhöhung des Gutes X1 , ist Gut X2 ein Komplement von X1 . Steigt beispielsweise der Preis für Autos und werden weniger Autos nachgefragt, dann wird die Nachfrage nach Benzin sinken, obwohl sich der Benzinpreis nicht verändert hat. Auto und Benzin sind somit komplementäre Güter. Führt eine Preiserhöhung des Gutes X1 zu einer Zunahme der Nachfrage nach Gut X2 , liegt ein Substitut vor. Der Anstieg der Autopreise erhöht in diesem Fall die Nachfrage nach Leistungen des öffentlichen Nahverkehrs. Auto und öffentlicher Nahverkehr sind somit Substitute. Verändert sich das Einkommen, dann kommt es zu Verschiebungen der preisabhängigen individuellen Nachfragefunktion. Bei unverändertem Preis des Gutes wird dann mehr oder weniger von dem Gut nachgefragt. Normalerweise kann davon ausgegangen werden, dass die Nachfrage nach Gütern mit steigendem Einkommen steigt. Hier unterscheidet man typischerweise zwischen zwei Varianten. Bei normalen Gütern steigt bei steigendem Einkommen die Nachfrage nach dem Gut, aber weniger als die Zunahme des Einkommens. Der Konsum von hochwertigeren Lebensmitteln könnte für diesen Fall ein Beispiel sein. Steigt der Konsum eines gutes bei steigendem Einkommen stärker als das Einkommen, dann klassifiziert man dieses Gut als superiores Gut. Superiore Güter sind Luxusgüter, die bei steigendem Einkommen verstärkt nachgefragt werden. Jedoch gibt es auch Güter, die mit steigendem Einkommen weniger nachgefragt werden. Beispielsweise mag die Nachfrage nach billigem Rotwein mit steigendem Einkommen sinken, da dann auf qualitativ bessere Weine umgestiegen wird. Güter, deren Konsum mit steigendem Einkommen sinkt, werden inferiore Güter genannt. Verändern sich die Präferenzen eines Haushaltes, dann verschiebt sich die individuelle Nachfragekurve ebenfalls. Erhöht sich beispielsweise die Präferenz für Biogemüse, so wird der Haushalt bei gleichem Einkommen und gleicher Struktur relativer Preise nun mehr Biogemüse nachfragen. Zwar mag die in Abbildung 2.3.11 angegebene Nachfragekurve die typische sein, zwingend ist sie allerdings nicht. In Ausnahmefällen sind auch anomale Nachfragekurven möglich, so dass mit steigendem Preis die nachgefragte Menge steigt. Wie ist das zu erklären? Zur Beantwortung der Frage ist zwischen einem Substitutions- und einem Einkommenseffekt einer Preisänderung zu unter-
Neoklassische Mikroökonomie
41
scheiden. Bei unverändertem Realeinkommen wird die Preiserhöhung eines Gutes unter den Annahmen der neoklassischen Haushaltstheorie immer zu einer Reduzierung der Nachfrage nach diesem Gut führen. Der so genannte Substitutionseffekt wirkt somit immer in Richtung einer „Normalreaktion“ der Nachfrage. Wir können uns den Substitutionseffekt mit Hilfe der Abbildung 2.3.10 verdeutlichen. Gäbe es keinen negativen Einkommenseffekt durch die Preiserhöhung des Gutes X2 , dann würde der Haushalt auf der ursprünglichen Indifferenzkurve U 3h bleiben und nicht auf U 2h zurückfallen. Den Substitutionseffekt können wir uns analytisch so ableiten, dass wir die Budgetgerade, die U 2h tangiert, bis zum Tangentialpunkt von U 3h nach oben verschieben und uns dann den konsumierten Warenkorb betrachten. Es ist zwingend, dass der so konstruierte Tangentialpunkt auf der Indifferenzkurve U 3h unterhalb von X 02 * liegen muss, also von Gut X2 weniger konsumiert wird. Ist in Abbildung 2.3.10 der Punkt E der hypothetische Tangentialpunkt, dann drückt die Bewegung entlang U 3h von D nach E den Substitutionseffekt aus. Das reale Einkommen bleibt bei der Erhöhung eines Preises bei unverändertem nominalem Budget aber nicht konstant, sondern es sinkt. In Abbildung 2.3.10 kommt dies darin zum Ausdruck, dass bei Erhöhungen des Preises von X2 nur noch eine niedrigere Indifferenzkurve erreicht werden kann. In unserem Beispiel wird der Einkommenseffekt durch die Bewegung vom hypothetischen Optimalpunkt E zum Optimalpunkt F ausgedrückt. Der negative Einkommenseffekt kann – wenn er stark genug wirkt – den Substitutionseffekt überkompensieren und eine untypische Nachfragefunktion erzeugen. Dies kann dann der Fall sein, wenn der Preisanstieg eines wichtigen Lebensmittels das Realeinkommen so stark senkt, dass der Einkommenseffekt einen Verzicht auf höherwertiger Güter bewirkt und das wichtige Lebensmittel trotz Preiserhöhung verstärkt nachgefragt wird. Steigt etwa der Brotpreis – um einen historisch beobachteten Fall zu nehmen – so können sich ärmere Bevölkerungsschichten kein Fleisch mehr leisten und essen als Ausgleich umso mehr Brot. In diesem Fall wird anknüpfend an den Statistiker Robert Giffen von einem Giffengut gesprochen. Es gibt noch andere Gründe für eine untypische Nachfragefunktion. Wird der Preis als Qualitätsmerkmal genommen, oder Luxuskonsum als Statussymbol betrachtet, kann sich mit einem steigenden Preis ebenfalls die Nachfrage erhöhen. Bisher wurde die Nachfragekurve für einen einzelnen Haushalt abgeleitet. Um zur aggregierten Nachfrage nach einem Gut zu kommen, müssen die individuellen Nachfragekurven zusammengefasst werden. Wird unter der Ceteris-Paribus-Bedingung der Markt für ein einzelnes Gut betrachtet, können individuelle Nachfragekurven problemlos addiert werden. Werden die individuellen Nachfragemengen zu den jeweiligen Preisen aggregiert, entsteht die Gesamtnachfragekurve für einen partiellen Gütermarkt. Die Abbildung 2.3.12 zeigt beispielhaft, wie dieser Aggregationsprozess zu verstehen ist. Nachfrager a beginnt im Markt für Eier beim Preis von 0,4 € Eier zu kaufen, während Nachfrager b schon ab einem Preis von 0,6 € Eier kauft. Bis zum Preis von 0,4 € bestimmt nur Nachfrager b die aggregierte Nachfrage, die dann beim Preis von 0,4 € eine nachgefragte Menge von 10 Eiern aufzeigt. Sinkt der Preis auf 0,2 €, dann fragt Haushalt a 10 Eier nach und Haushalt b 20 Eier, so dass sich die aggregierte Nachfrage bei diesem Preis auf 30 Eier summiert. Sinkt der Preis unter 0,2 €, dann wird die aggregierte Nachfragekurve noch flacher, da beide individuellen Nachfragekurven ab diesem Preis flacher werden.
42
Neoklassische Mikroökonomie
Abbildung 2.3.12: Aggregation individueller Nachfragekurven
Nachfrager a Preis pro Ei
Nachfrager b Preis pro Ei
0,6
0,6
0,4
0,4
0,2
0,2
Menge
10
10
20
Menge
Nachfrager a und b Preis pro Ei 0,6
0,4
0,2
10
30
Menge
Aus der Aggregation aller individuellen Nachfragekurven nach dem Gut X1 kann die Gesamtnachfragekurve nach dem entsprechenden Gut (XN1) abgeleitet werden: (2.3.17)
XN1 = XN1(p1,Y, U, p2, ..., p n)
Dabei gilt Y als Ausdruck für die individuellen Budgetrestriktionen aller Haushalte und U als Ausdruck aller individuellen Nutzenfunktionen. Hinter Y und U verbirgt sich somit die Anzahl aller Haushalte. Y , U sowie p2, ..., p n bestimmen die Lage der Nachfragefunktion. Würden sich z.B. die Präferenzen aller Haushalte zuungunsten von Eiern verändern, da in einigen Eiern Dioxin festgestellt wurde, so würde sich die Nachfragekurve nach links verschieben. Erhöht sich die Anzahl der Haushalte, dann verschiebt sich die Nachfragefunktion nach rechts. Steigt das Einkommen aller Haushalte, dann kann sich die Nachfrage nach rechts oder links verschieben; bei einem inferioren Gut wird sich die Nachfrage nach links verschieben. Für konkretere Betrachtungen lassen sich noch weitere Variablen für die Nachfrage nach einem Gut finden, etwa die Intensität der Marketingbemühungen oder Erwartungen über zukünftige Preisentwicklungen.
Neoklassische Mikroökonomie
43
Werden alle Variablen, welche die Lage der Nachfragekurve bestimmen, konstant gesetzt, dann kann die Nachfragefunktion nach dem Gut X1 vereinfacht auch als (2.3.18)
XN1 = XN1 (p1)
geschrieben werden. Kernpunkte Ein Haushalt sucht sich den optimalen Konsumkorb, der seinen individuellen Nutzen maximiert. In einem Zwei-Güter-Fall wird der optimale Konsumkorb dann realisiert, wenn die Budgetgerade die höchste erreichbare Indifferenzkurve tangiert. Der optimale Konsumplan ist durch das zweite Gossensche Gesetz charakterisiert, das aussagt, dass im Optimum das Verhältnis zwischen Grenznutzen und Preis für alle Güter gleich sein muss. Die individuelle Nachfragefunktion nach einem Gut wird abgeleitet, indem der Preis des Gutes unter ansonsten unveränderten Bedingungen verändert und die Reaktion der Nachfrage untersucht wird. Bei Preisänderungen des betrachteten Gutes bewegt man sich entlang der individuellen Nachfragekurve. Die individuelle Nachfrage nach einem Gut hängt neben dem Preis des Gutes von vielen anderen Faktoren ab, beispielsweise dem Preis anderer Güter, dem Einkommen und den Präferenzen des Haushaltes. Veränderungen dieser Variablen bewirken Verschiebungen der individuellen Nachfragefunktion. Man unterscheidet normale Güter, superiore Güter, inferiore Güter und Giffengüter. Die aggregierte Nachfragefunktion nach einem Gut erhält man durch die Aggregation der individuellen Nachfragefunktionen. 2.3.5 Elastizitäten Fragestellung Was sind Elastizitäten? Was drücken die Preiselastizität, die Kreuzpreiselastizität und die Einkommenselastizität der Nachfrage aus? Wie hängen Preiselastizität der Nachfrage und wertmäßiger Umsatz auf einem Markt zusammen? Die Elastizität drückt die quantitative Beziehung zwischen zwei beliebigen Variablen aus, wenn sich eine der Variablen verändert. Etwas vereinfacht drückt sie aus um wie viel Prozent sich die Variable A verändert, wenn sich die Variable B um ein Prozent verändert. Kausalbeziehungen zwischen Variablen können mit Elastizitäten nicht geklärt werden, sondern nur deren quantitative Beziehung zueinander. Zahlreiche wirtschaftliche und insbesondere empirische Fragestellungen werden bearbeitet, indem Elastizitäten berechnet bzw. geschätzt werden. Das Konzept der Elastizität soll am Beispiel der Preiselastizität der Nachfrage verdeutlicht werden. Normalerweise korreliert die Nachfrage negativ mit dem Preis. Selbstverständlich sind die jeweiligen Mengenreaktionen bei Änderungen des Preises von Gut zu Gut unterschiedlich. So ist es vorstellbar, dass eine auch nur geringe Preiserhöhung von Margarine dazu führt, dass zahlreiche Konsumenten auf Butter umsteigen. Die Nachfrage reagiert dann sehr elastisch. Umgekehrt ist zu erwarten, dass im Falle lebensnotwendiger und konkurrenzloser Arzneimittel selbst bei drastischen Preiserhöhungen die Nachfragemenge sehr stabil bleibt. Die Nachfrage wäre in diesem Fall unelastisch.
44
Neoklassische Mikroökonomie
Gehen wir von einer normalen Nachfragefunktion XN1 = XN1 (p1) aus, wie sie beispielsweise in Abbildung 2.3.13 dargestellt ist. Die Preiselastizität der Nachfrage ist allgemein als Quotient definiert, der die prozentuale Veränderung der Nachfragemenge auf die prozentuale Veränderung des Preises bezieht. Formal wird die Preiselastizität der Nachfrage nach dem Gut X1 durch
(2.3.19)
dX1 X10 εX1N / p1 = dp 1 p10
berechnet. X 10 und p10 stellen die Werte einer Nachfragefunktion vor der Veränderung des Preises dar und dp1 und dX1 die Veränderungen. Die Elastizität ist eine dimensionslose Zahl, die die Veränderungsstärke der Nachfragemenge (der abhängigen Variablen) zu der Veränderungsstärke des Preises (der unabhängigen Variablen) in Beziehung setzt. Die Gleichung (2.3.19) nimmt durch Umformung die folgende Form an: (2.3.20)
εX1N / p1 =
dX1 p10 ⋅ dp1 X10
dX1 die erste Ableitung der Nachfragefunktion darstellt, ergibt sich die Elastizität auch durch dp1 die Multiplikation des Quotienten aus dem jeweils existierenden Preis und der nachgefragten Menge mit der ersten Ableitung der Nachfragefunktion. Da
Unterstellt man, wie in Abbildung 2.3.13 eine negative Gerade, dann verändert sich die erste AbleidX1 p0 tung bei Veränderung des Preises nicht. Da sich die Relation 10 jedoch entlang der Nachfradp1 X1 gegerade verändert, wird die Elastizität an jedem Punkt der Geraden einen anderen Wert annehmen. Die Elastizität der Nachfrage ist nicht nur beim Vergleich zweier Güter unterschiedlich, sondern in aller Regel auch auf der Nachfragekurve für ein und dasselbe Gut. Sie ist davon abhängig, welcher Ausgangspunkt für die Preisvariation gewählt wird. Bei einer Nachfragegeraden wie in der Abbildung 2.3.13 ist Preiselastizität der Nachfrage immer negativ, da die Steigung der Geraden negativ ist. Sie ist im Punkt B genau -1. Die Elastizität bewegt sich dann immer weiter in den Minusbereich, wenn vom Punkt B in Richtung Punkt A gewandert wird. In diesem Bereich wird die Nachfrage als elastisch bezeichnet, da die prozentuale Mengenänderung bei einer einprozentigen Preisänderung hoch ist. Die Elastizität nähert sich von minus eins Null an, wenn vom Punkt B in Richtung C gegangen wird. Hier spricht man vom unelastischen Bereich der Nachfragefunktion. Bei untypischen Fällen kann die Nachfrageelastizität auch positiv sein, etwa bei einem Giffengut. Rechenbeispiel für Nachfrageelastizitäten Nehmen wir als Beispiel die Nachfragefunktion XN1 = 50 - 2,5p1 . Deren Verlauf ist in Abbildung 2.3.13 dargestellt. Es sei an dieser Stelle nochmals daran erinnert, dass in der Abbildung entgegen der in der Mathematik üblichen Gewohnheiten die abhängige Variable auf der Abszissenachse und die unabhängige auf der Ordinatenachse abgetragen sind.
Neoklassische Mikroökonomie
45
Abbildung 2.3.13: Nachfragefunktion und Elastizitäten p1 20 A 18 XN1 = 50 – 2,5p1
B
10
3
C 5
25
42,5
X1
Nehmen wir z.B. einen Preis von 18 €, so ergibt sich auf der Basis der unterstellten NachfragefunktidX1 on eine nachgefragte Menge von X1 = 5 . Da = −2,5 , ergibt sich als Elastizität an diesem Punkt dp1 der Nachfragefunktion:
ε X1N/p1 =
dX1 p10 18 ⋅ = −2,5 ⋅ = −9 dp1 X10 5
Die Elastizität beträgt somit –9. Dieser Wert sagt aus, dass eine einprozentige Preiserhöhung eine neunprozentige Nachfragereduzierung hervorruft. Da die Nachfragekurve eine Gerade ist, entspricht die erste Ableitung dem Differenzenquotienten ΔX1 . Wir können in diesem Fall somit die Elastizität auch ausrechnen, wenn wir den Preis von 18 € Δp1 auf 19 € erhöhen und uns die Veränderungen der Menge errechnen. Es ergibt sich somit X10 = 5 , p10 = 18 , ΔX1 = -2,5 und Δp1 = 1 . Setzen wir diese Werte in Gleichung (2.3.19) ein, erhalten wir ebenfalls für die Elastizität einen Wert von –9.
Sehen wir uns nun eine Preiserhöhung, ausgehend vom Preis 3 € auf 4 € an. Das Ergebnis lautet ε X1N / p1 = −2,5 ⋅ 3 ≈ −0,18 , so dass eine einprozentige Preiserhöhung eine Nachfragereduktion von 42,5 0,18 Prozent bewirkt. Bei einem Preis von 10 € würde sich eine Elastizität von ε X1N/p1 = −1 ergeben. Es zeigt sich, dass die Elastizität an jedem Punkt der Gerade unterschiedlich ist. Bewegt man sich also von Punkt B in Richtung C, dann bewegt man sich auf den Wert von Null zu. Geht man von Punkt B in Richtung Punkt A, dann wird der Betrag der Elastizität immer größer, man nähert sich −∞. Bei den Elastizitäten gibt es Extremfälle. Wenn sich bei Preisänderungen keine Änderungen der nachgefragten Menge ergeben, dann ist die Nachfragefunktion offensichtlich völlig unelastisch. Im dX1 beschriebenen Fall ist die erste Ableitung der Nachfragefunktion Null, es gilt = 0 . Aus Gleidp1 chung (2.3.20) ergibt sich, dass in diesem Fall die Elastizität an jedem Punkt der Funktion ebenfalls Null werden muss. Ein zweiter Extremfall tritt auf, wenn z. B. die geringste Preiserhöhung die Nach-
46
Neoklassische Mikroökonomie
dX1 = −∞ und entsprechend Gleichung (2.3.20) ist die dp1 Elastizität der Funktion an jedem Punkt dann ebenfalls − ∞ (vgl. Abbildung 2.3.14). Es gibt noch einen dritten Spezialfall. Nimmt die Nachfragefunktion die Form einer gleichseitigen Hyperbel an, dann ist die Elastizität an jedem Punkt der Funktion minus eins.
frage auf Null fallen lässt. In diesem Fall ist
Abbildung 2.3.14: Extremfälle der Elastizität p1 Elastizität = 0
Elastizität = – ∞
X1
Zwischen der Preiselastizität der Nachfrage und der wertmäßigen Nachfrage nach dem entsprechenden Gut gibt es eine eindeutige Beziehung (vgl. Abbildung 2.3.15), wobei wir bei der Abbildung unser obiges Rechenbeispiel unterlegt haben. Bezeichnet UV die wertmäßige Nachfrage, die durch UV = X1 ⋅ p1 definiert ist, dann ergibt sich zwischen UV und der Nachfragegerade der in Abbildung 2.3.15 dargestellte Zusammenhang. Das Maximum der wertmäßigen Nachfrage ist genau dann erreicht, wenn die Preiselastizität den Wert von minus Eins annimmt. Dies bedeutet, dass bei einer Elastizität von minus eins eine Preisveränderung keine Veränderung der wertmäßigen Nachfrage erzeugt. Erhöht sich der Preis, so führt die Preiserhöhung zwar zu einem positiven Effekt auf die wertmäßige Nachfrage, jedoch wirkt sich die abnehmende mengenmäßige Nachfrage negativ auf das wertmäßige Nachfragevolumen aus. Bei εX1N / p1 = −1 kompensieren sich beide Effekte gerade. Befinden wir uns links von Punkt A, dann sinkt bei jeder Preiserhöhung die wertmäßige Nachfrage. Bei beispielsweise εX1N / p1 = −9 würde zwar die Preiserhöhung positiv auf die wertmäßige Nachfrage wirken, jedoch nimmt die nachgefragte Menge so stark ab, dass die wertmäßige Nachfrage insgesamt sinkt. Bei Punkten auf der Nachfragekurve links von A erhöht jede Preissenkung die wertmäßige Nachfrage. Bei einem Punkt auf der Nachfragekurve rechts von A erhöht sich bei einer Preiserhöhung die wertmäßige Nachfrage. Bei beispielsweise εX1N / p1 ≈ −0,18 sinkt bei einer einprozentigen Erhöhung des Preises die Nachfrage nur um etwa 0,18 Prozent; die wertmäßige Nachfrage muss sich folglich erhöhen.
Neoklassische Mikroökonomie
47
Abbildung 2.3.15: Preiselastizität und wertmäßige Nachfrage p1, UV 50 40 30
εX1N / p1 = −1
20 10
A
UV
25
50
X1
Zusammenfassend ergibt sich bei der Erhöhung des Preises eines Gutes: ⇒
wertmäßige Nachfrage bleibt gleich
Elastischer Bereich
εX1N / p1 = −1 εX1N / p1 < −1
⇒
wertmäßige Nachfrage sinkt
Unelastischer Bereich
εX1N / p1 > −1
⇒
wertmäßige Nachfrage steigt
Elastizität von minus eins
Bei einer Senkung des Preises ergeben sich entsprechend die umgekehrten Ergebnisse. Elastizitäten können, wie am Anfang dieses Kapitels bemerkt, je nach Fragestellung zwischen verschiedensten Variablen berechnet werden. So drückt die Kreuzpreiselastizität aus, um wie viel Prozent sich die Nachfrage nach dem Gut X1 verändert, wenn sich der Preis p2 des Gutes X2 um ein Prozent verändert.
(2.3.21)
ε X1N/p2 =
dX1 X10 dp2 p02
Ist die Kreuzpreiselastizität positiv, dann handelt es sich bei X1 um ein Substitut, ist sie negativ, dann liegt ein Komplement vor. Auch kann die Einkommenselastizität der Nachfrage (Y als Einkommen) eines Gutes ausgerechnet werden, die durch
(2.3.22)
ε X1Y/p1 =
dX1 X10 dY Y0
gegeben ist. Ist die Einkommenselastizität der Nachfrage positiv und gleichzeitig unter 1, spricht man üblicherweise von normalen Gütern. Ist die Einkommenselastizität größer als 1, dann handelt es sich um su-
48
Neoklassische Mikroökonomie
periore Güter. Ist die Einkommenselastizität schließlich negativ, handelt es sich um ein inferiores Gut. Kernpunkte Die Elastizität drückt die Reaktionsstärke zwischen zwei Variablen aus, wenn sich eine der beiden Variablen ändert. Bei der Preiselastizität der Nachfrage drückt die Elastizität aus, um wie viel Prozent sich die Nachfrage ändert, wenn sich der Preis um ein Prozent verändert. Bei einer Preiselastizität von -1 verändert sich die wertmäßige Nachfrage auf dem Markt des entsprechenden Gutes nicht. Im elastischen Bereich der Nachfragekurve erhöht eine Preissenkung die wertmäßige Nachfrage, im unelastischen Bereich ist dies bei einer Preiserhöhung der Fall. Kreuzpreiselastizitäten der Nachfrage und Einkommenselastizität der Nachfrage sind weitere Anwendungen des Elastizitätskonzeptes im Bereich der Nachfragetheorie. 2.3.6 Kritische Würdigung Es kann an dieser Stelle noch nicht darum gehen, das neoklassische Paradigma zu diskutieren. Zu einer solchen Beurteilung fehlen bislang noch zahlreiche Bausteine. Stattdessen soll auf einen unseres Erachtens unhaltbaren Kritikpunkt eingegangen werden, der allenthalben (nicht nur) in Lehrveranstaltungen vorgetragen wird. Diese Kritik läuft darauf hinaus, der neoklassischen Haushaltstheorie vorzuwerfen, ihre zahlreichen Modellannahmen seien unrealistisch. So würden sich Konsumenten keinesfalls nur an Preisen orientieren, sondern ließen sich auch von Werbemaßnahmen, von der Attraktivität und/oder der Sachkompetenz des Verkaufspersonals, räumlichen Begebenheiten etc. beeinflussen. Darüber hinaus seien viele Güter durchaus nicht beliebig teilbar, die Präferenzordnungen in den Köpfen der Menschen würden eher unbekannten Labyrinthen entsprechen als geordneten Strukturen, das Postulat der Nichtsättigung sei in Wahrheit absurd usw. Obwohl jeder einzelne Einwand an sich nicht falsch ist, erfassen sie doch nicht die notwendige Art und Weise wissenschaftlichen Arbeitens. Dies soll beispielhaft an der unterstellten alleinigen Orientierung der Konsumenten an den Preisen verdeutlicht werden. Empirisch ist es unbestreitbar, dass die abstrakte Haushaltstheorie die tatsächlichen Kaufentscheidungen nur unzureichend beschreibt. Beispielsweise werden spezielle Uhrenmarken häufig vor allem aus Imagegründen gekauft, und selbst Einkäufe des täglichen Bedarfs werden oftmals in Geschäften vorgenommen, in denen man sich wohl fühlt, selbst dann, wenn die Waren anderswo etwas billiger sein sollten. Bedeuten diese empirischen Beobachtungen aber im Umkehrschluss für eine Nachfragetheorie, dass Güter im Allgemeinen deshalb besonders stark nachgefragt werden, gerade weil sie extrem teuer sind oder dass Preise für das Nachfrageverhalten tendenziell irrelevant sind? Gewiss nicht. Vor allem aber können Vorwürfe dieser Art durchaus in das Modell integriert werden. Der Zucker, der bei einer freundlichen Bedienung gekauft wird, ist ein anderes Gut als der Zucker, der bei einem grobschlächtigen „Bollerkopf“ erworben wird und hat folglich einen anderen Preis. Güter können somit neben ihrer Qualität im engeren Sinne auch durch den Ort und den Zeitpunkt ihres Verkaufs etc. charakterisiert werden. Der einzige Effekt der Berücksichtigung solcher Dimensionen besteht darin, dass die Anzahl der Güter zunimmt. An diesem Beispiel zeigt sich, wie flexibel dieses Modell auf solche Kritikpunkte reagieren kann. Muss aber eine „realistische“ Theorie nicht alle Aspekte des empirisch messbaren Nachfrageverhaltens berücksichtigen? Die Antwort lautet: Nein! Da erstens alles mit allem zusammenhängt und sich alles zugleich im Fluss der Veränderungen befindet, müsste eine „realistische“ Nachfragetheorie gleichsam die gesamte Realität in ihrer vielschichtigen Komplexität, Interdependenz und Dynamik erfassen. Dies ist natürlich völlig unmöglich. Also bleibt der Volkswirtschaftstheorie nichts anderes
Neoklassische Mikroökonomie
49
übrig, als sich auf jene Parameter zu konzentrieren, die sie im Kontext eines gegebenen Sachverhalts für die zentralen hält. Von den anderen muss sie abstrahieren. Zweitens kommt es auf die jeweilige Fragestellung an. Untersucht z.B. ein Autokonzern das Nachfrageverhalten auf dem Automobilmarkt, werden in die Analyse eine große Anzahl von Punkten eingehen, die in der „dürren“ Haushaltstheorie nicht auftauchen. Bei einer volkswirtschaftlichen Fragestellung geht es um etwas anderes als bei der betrieblichen Festlegung etwa einer Marketingstrategie. In der Volkswirtschaftstheorie sollen die grundsätzlichen Funktionsbedingungen einer Ökonomie geklärt werden. Empirische Erscheinungen auf einzelnen Märkten rücken bei einer solchen Fragestellung in den Hintergrund. Abstrakte Modelle sind hier hilfreicher als – was immer das sein mag – „realistische“ Modelle, die unter volkswirtschaftlichen Aspekten mehr verdecken als klären. Ohne Modellbildung und ohne Abstraktionen sind wissenschaftliche Erkenntnisse nicht zu erwarten. Eine andere Frage ist allerdings, ob bei der Modellbildung auch tatsächlich das Wesentliche festgehalten und vom Unwesentlichen abstrahiert wird. Dies lässt sich a priori nicht entscheiden. Der theoretische Streit der unterschiedlichen Schulen dreht sich im Kern häufig genau um diesen Aspekt. Niemals aber können derartige Dispute durch das Kriterium entschieden werden, welcher Ansatz „realitätsnäher“ ist, da wir nicht wissen, was Realität jeweils genau meint. Das Problem besteht vielmehr gerade darin, dass Realität in der Form einer Volks- oder gar Weltwirtschaft nicht unmittelbar zugänglich ist, sondern der Versuch ihrer Erfassung eine theoretische Begriffsbildung und methodische Prinzipien voraussetzt. Die Stärke der neoklassischen Haushaltstheorie besteht unzweifelhaft darin, dass sie die Konsumentscheidung der Haushalte mikroökonomisch in abstrakter Form erklärt und damit zu Nachfragefunktionen nach Gütern kommt. Durch die Unterscheidung zwischen Grenz- und Gesamtnutzen konnte sie z.B. das so genannte Wertparadoxon klären, das zuvor vom klassischen Paradigma analytisch nicht befriedigend erfasst werden konnte. Bekanntlich hat Wasser für Menschen im Unterschied etwa zu Diamanten einen sehr hohen Nutzen. Gleichwohl ist der Preis des Wassers sehr niedrig und der von Diamanten sehr hoch. Die Lösung ist einfach: Da Wasser reichlich vorhanden ist, hat es zwar einen hohen Gesamtnutzen, aber einen sehr geringen Grenznutzen. Folglich ist sein Preis gering. Beim Edelstein ist es gerade umgekehrt. Der paradigmatische Kern eines Ansatzes zeigt sich jedoch nicht an der Eleganz mit der Einzelpunkte erfasst werden, sondern an der Modellierung des Gesamtmodells. Das neoklassische Paradigma zeigt sich am prägnantesten im walrasianischen Tauschmodell ohne Produktion, das in der Tat ein analytisch äußerst abstraktes Modell darstellt. Aber gerade dadurch wird das neoklassische Verständnis einer Marktwirtschaft offen gelegt. Das herrschende ökonomische System wird in der Neoklassik im Kern als Tauschwirtschaft begriffen, welche die am Anfang gegebenen Ressourcen optimal auf verschiedene Verwendungen verteilt. Wir werden später sehen, dass die Einführung von Produktion an dieser grundlegenden Auffassung nichts ändert. Es gelingt der walrasianischen Ökonomie ein konsistentes Modell der Struktur relativer Preise zu entwickeln. Sie setzte damit der klassischen Theorie, die einen anderen Ansatz zur Erklärung relativer Preise hatte (vgl. Kapitel 3.3), einen eigenen Entwurf entgegen. Gleichgewichtspreise und -mengen werden im walrasianischen Tauschmodell ohne jeglichen Bezug auf Geld oder monetäre Prozesse abgeleitet. Geld spielt somit hier keine Rolle. Es wäre falsch, dass Tauschmodell ohne Produktion als primitives Modell zu klassifizieren, dass dann später durch die Einführung des Geldes und monetärer Prozesse zu einer neuen Qualität weiterentwickelt wird. Vielmehr drückt es die grundsätzliche und alle neoklassischen Modellvarianten tragende Überzeugung
50
Neoklassische Mikroökonomie
aus, dass Geld ein „Schleier“ ist – „Money is a veil“ 16 –, der weggezogen werden muss, um zu den fundamentalen Gesetzmäßigkeiten der Ökonomie zu gelangen. Es wird sich zeigen, dass das Tauschmodell ohne Produktion die abstrakteste Fassung des neoklassischen Paradigmas darstellt, das die optimale Allokation – also die Aufteilung knapper exogen gegebener Ressourcen auf unbegrenzte Bedürfnisse der Wirtschaftssubjekte – in den Mittelpunkt der Analyse stellt. Ein flexibles System relativer Preise garantiert, dass jeder Besitzer eines knappen Gutes dieses gegen ein anderes gewünschtes Gut tauschen kann, also nicht auf seinem Gut „sitzen bleibt“. Dieser Gedanke wird später in der Form aufgegriffen, dass bei flexiblen Löhnen auch der Arbeiter nicht auf seiner Arbeitskraft „sitzen bleibt“ und die Ökonomie längerfristig keine unfreiwillige Arbeitslosigkeit kennt. Der neoklassischen Abstraktion einer geldlosen Tauschwirtschaft wird in späteren Kapiteln die keynesianische Abstraktion einer monetären Produktionswirtschaft (vgl. Kapitel 4) entgegengesetzt. Im Keynesianismus spielen Geld und Produktion die entscheidende Rolle, physische Ressourcen als Anfangsbestände dagegen eine untergeordnete. Allerdings liefert der Keynesianismus kein Modell relativer Preise, sondern setzt unmittelbar auf der makroökonomischen Ebene an.
16
So Arthur C. Pigou, einer der führenden Neoklassiker der Zwischenkriegszeit. Das Zitat ist Felderer/Homburg (1987, S. 77) entnommen.
Neoklassische Mikroökonomie
51
2.4 Unternehmenstheorie 2.4.1 Vorbemerkungen Im vorangegangenen Kapitel wurde das Haushaltsgleichgewicht dargestellt und die Nachfragekurve auf dem Gütermarkt entwickelt. In diesem Kapitel soll analog verfahren werden. Dazu wurde die Darstellung folgendermaßen aufgebaut. Es geht zunächst um die Determinanten des Gewinns. Wir beginnen mit den Erlösen, um danach zu den Kosten zu kommen. Bei den Kosten spielt offensichtlich die von den Unternehmen benutzte Technologie eine zentrale Rolle. Diese muss analysiert werden, um so spezifische Kostenverläufe begründen zu können. Nach diesen Vorarbeiten kann dann – ähnlich wie in der Haushaltstheorie – mit Hilfe der Ceteris-Paribus-Bedingung und Variation des Preises eines Gutes die Angebotsfunktion eines Unternehmens (und in aggregierter Form: aller Unternehmen) abgeleitet werden. Zusammen mit der aggregierten Nachfragefunktion kann dann im Rahmen einer Partialanalyse das Gleichgewicht für einen Markt mit einem Gut abgeleitet werden. Die zentrale präferenztheoretische Annahme lautet, dass Unternehmen das Ziel der Gewinnmaximierung verfolgen. Der Gewinn ist die Differenz zwischen Erlösen (Umsätzen) und Gesamtkosten. Diese Differenz gilt es somit zu maximieren. Von einer differenzierteren Zielfunktion, die z.B. die Betriebswirtschaftslehre bei der Untersuchung von Unternehmen formuliert, wird in der Volkswirtschaftslehre abgesehen. Dahinter steckt die Vorstellung, dass andere Ziele, wie die Erweiterung des Marktanteils, die Verbesserung des Images etc. letztlich dem Ziel der Gewinnmaximierung dienen müssen, um auf Dauer wettbewerbsfähig zu bleiben. Des Weiteren wird auch hier vollständige Konkurrenz auf allen Güter- und Faktormärkten unterstellt.17 Diese Annahme impliziert, dass ein Unternehmen, ebenso wie die Haushalte, auf Märkten Preisnehmer und Mengenanpasser sind. Ein Unternehmen kann seine Preise nicht erhöhen, da die „umfassend informierten“ Käufer umgehend zur Konkurrenz abwandern würden. Eine Implikation der Annahme vollständiger Konkurrenz ist, dass die Unternehmen als Mengenanpasser keine Absatzprobleme haben. Zum herrschenden Preis können sie jede beliebige Menge absetzen. Dann aber sind auch Preissenkungen kein rationales Kalkül. Preise sind aus der Perspektive eines Unternehmens ein von außen kommendes Datum. Darüber hinaus sollen, wie schon bei der Haushaltstheorie, das betrachtete Gut homogen sein, also keine Differenzierungen aufweisen, und alle Güter sollen beliebig teilbar sein. Schließlich sind sämtliche Unternehmen vollständig informiert, so dass alle Unternehmen bei allen Inputs (einschließlich Arbeit) mit gleichen Preisen konfrontiert sind. Bei der folgenden Analyse wird von Investitionskalkülen der Unternehmen noch abgesehen. Diese werden – zusammen mit den Sparentscheidungen der Haushalte – in späteren Kapiteln analysiert. Lagerbestände werden ebenfalls nicht berücksichtigt, so dass produzierte und verkaufte Güter eines Unternehmens identisch sind. 2.4.2 Gewinn- und Erlösfunktion Fragestellung Wie sind Gewinne definiert? Wie sieht die Erlösfunktion eines Unternehmens bei vollständiger Konkurrenz aus? Wir unterstellen zur Vereinfachung, dass jedes Unternehmen nur ein Gut produziert, jedoch n Inputfaktoren einschließlich Arbeit einsetzt. Formal ergibt sich der Gewinn (Qu) des Unternehmens u durch Erlöse minus Kosten: (2.4.1)
Qu = p1X1 - ∑ pgXg
g = 1, 2, ..., n
Dabei stellt p1 den Preis und X1 die Menge des produzierten Gutes dar. Der Erlös hängt von der ver17
In späteren Kapiteln wird diese Annahme im Rahmen der Analyse von monopolistischem Anbieterverhalten aufgehoben.
52
Neoklassische Mikroökonomie
kauften Gütermenge und dem Preis des Gutes ab. Die Gesamtkosten ergeben sich durch den Einsatz der benötigten Inputfaktoren wie Arbeit, Maschinen, Rohstoffe usw. In Gleichung 2.4.1 wurde unterstellt, dass zur Produktion eines Gutes potenziell alle in der Volkswirtschaft produzierten Güter benötigt werden. Arbeit soll hier ebenfalls als eines der n Güter gelten. Des Weiteren wurde angenommen, dass das produzierte Gut selbst ein Input im Produktionsprozess sein kann. Ein beliebtes Beispiel für diesen Fall ist Weizen, der zu seiner Produktion Weizen als Saatgut bedarf. Die Summe aller Inputs multipliziert mit dem jeweiligen Preis ergibt die Produktionskosten. Die n Preise der Güter sind für ein einzelnes Unternehmen gegeben, so dass das Unternehmen zur Gewinnmaximierung nur die produzierte Menge und den Umfang der Inputs variieren kann. Gewinne, Erlöse und Kosten werden immer während einer bestimmten Zeitperiode berechnet, etwa ein Jahr. Legen wir die Lupe zunächst auf die Erlösfunktion. Da die Unternehmen annahmegemäß keinen Einfluss auf die Preise nehmen können, verläuft die Erlösfunktion als steigende Gerade. Die Steigung der Erlösfunktion wird durch den Preis determiniert. Dem entspricht die erste Ableitung der Erlösfunktion. Aus der Erlösfunktion (Eu) eines individuellen Anbieters
Eu = p1X1 ergibt sich als Grenzerlös: (2.4.2)
dEu = p1 dX1
Der Grenzerlös entspricht in diesem Fall dem Preis, denn bei jeder zusätzlich verkaufen Einheit eines Gutes wird eine Zunahme des Gesamterlöses in Höhe des Preises realisiert. In Abbildung 2.4.1 ist die Erlös- und Grenzerlösfunktion eines Unternehmens bei vollständiger Konkurrenz eingezeichnet. Abbildung 2.4.1: Erlös- und Grenzerlösfunktion eines Unternehmens bei vollständiger Konkurrenz dE U dX 1
EU
EU = p1X1
p1
X1
dE U = p1 dX1
X1
Steigt der Marktpreis des verkauften Gutes an, dann wird die Erlösfunktion steiler und dreht sich um den Nullpunkt nach links. Der maximale Erlös eines Unternehmens liegt bei vollständiger Konkurrenz bei einer Verkaufsmenge von Unendlich. Das Postulat der Mengenanpassung bei vollständiger Konkurrenz bewirkt somit, dass sich ein Unternehmen selbst bei größter Produktionsmenge keine Gedanken über die mögliche Verkaufsmenge machen muss, wenn es ein Gut zum herrschenden Marktpreis anbietet. Diese „Ungereimtheit“ wird uns später noch beschäftigen.
Neoklassische Mikroökonomie
53
Kernpunkte Unternehmen maximieren ihren Gewinn, der durch Erlöse minus Kosten definiert ist. Die Erlöse ergeben sich aus der verkauften Menge multipliziert mit dem Preis des verkauften Gutes. Bei vollständiger Konkurrenz ist die Erlösfunktion eine Gerade, wobei die Steigung dem Preis des verkauften Gutes entspricht. Der Grenzerlös ist in diesem Fall identisch mit dem Preis. 2.4.3 Produktionsfunktionen Fragestellung Wie wird in der Volkswirtschaftslehre Technik erfasst? Welche Arten von Produktionsfunktionen gibt es? Was ist eine Isoquante, was sind Skalenerträge und was ist das Ertragsgesetz? Um etwas über die Kostenentwicklung bei Unternehmen aussagen zu können, ist es unumgänglich, über technologische Zusammenhänge allgemeine Annahmen zu treffen. Technologische Beziehungen werden in Form einer Produktionsfunktion ausgedrückt. Unternehmen wählen selbstverständlich die Produktionsmethode, die gewinnmaximierend ist. Also hängt die Auswahl der Technologie von den zur Verfügung stehenden Technologien und vom Preis des produzierten Gutes sowie den Preisen aller Inputgüter ab. Es wird sich in späteren Kapiteln zeigen, dass die Wahl der Technik insbesondere auch von der Verteilung des Volkseinkommens, also vom Zins- und Lohnsatz abhängt. Zunächst gibt es bei einem gegebenen Stand des Wissens eine bestimmte Anzahl bekannter Produktionsverfahren, die für die Produktion eines Gutes zur Verfügung stehen. Es gibt – bildlich gesprochen – ein Buch, das alle verfügbaren Produktionsverfahren beinhaltet und für jeden Unternehmer zugänglich ist. Bei Erfindungen nimmt die Anzahl der verfügbaren Produktionsverfahren zu – das Buch über Produktionsverfahren erhält in diesem Fall zusätzliche Seiten. Die verfügbaren Produktionsverfahren sind für das Modell exogen gesetzt. Ein Produktionsverfahren ist durch eine spezifische Kombination von Inputs (z.B. eine Knetmaschine des Typs A, eine bestimmte Menge Mehl, Anzahl von Arbeitsstunden etc.) zur Produktion einer bestimmten Menge des Outputgutes definiert (z.B. 100 Brote). Eine gegebene Outputmenge kann durch verschiedene Methoden erstellt werden. So können – um beim Beispiel zu bleiben – die 100 Brote möglicherweise auch mit einer Maschine, nicht vom Typ A, sondern vom Typ B hergestellt werden, was relativ weniger Arbeitsstunden zur Folge haben könnte. Gibt es in aller Regel schon eine große Anzahl von Produktionsverfahren zur Herstellung einer gegebenen Menge eines Gutes, so erhöht sich diese Zahl, wenn die produzierte Menge ebenfalls variiert. Jede Outputmenge ist potenziell mit einem Set verschiedener Produktionsmethoden produzierbar. Dies liegt daran, dass mit zunehmender Outputmenge Produktionsmethoden Anwendung finden können, die bei kleinen Stückzahlen nicht möglich sind. So wird ein Unternehmen, das täglich 10 000 Brote backt, ein anderes Set von Produktionsmethoden zur Verfügung haben als ein Unternehmen, das täglich 100 Brote herstellt. Eine Backstraße macht offensichtlich bei der Produktion von täglich 100 Broten keinen Sinn. Oftmals sind auch Größenunterschiede bei einem Inputfaktor von Bedeutung. So sinkt bei einer Kugel die Relation zwischen Oberfläche und Volumen allein durch die Größenzunahme der Kugel. Unter diesem Aspekt sind große Tanker technologisch effizienter als kleine. Zudem lassen sich Tanker nicht beliebig klein bauen, so dass Transportleistungen mit Tankern erst ab einem gewissen Transportvolumen in Frage kommen. Typisch ist der Fall, dass eine Zunahme des Produktionsvolumens ein Produktionsverfahren gewinnmaximierend macht, das zwar mit einem größeren Kapitaleinsatz verbunden ist, jedoch die Beschäftigungsmenge reduziert.
54
Neoklassische Mikroökonomie
Würden die verschiedenen Produktionsmethoden nicht näher charakterisiert, dann ließen sich auch keine Aussagen über Kostenverläufe, Beschäftigungseffekte bei Produktionsveränderungen etc. mehr machen. Wie geht die Ökonomie mit dem Problem des gewinnmaximalen Technikeinsatzes um? Es hat sich eingebürgert, verschiedene radikal vereinfachende Annahmen über technologische Zusammenhänge zu unterstellen, die dann zu eindeutigen Aussagen führen. Solche Analysen haben den Wert, zu verdeutlichen, was unter dieser oder jener Annahme über den Zusammenhang zwischen Input- und Outputmenge ausgesagt werden kann. Allerdings sollte immer im Gedächtnis bleiben, dass nur auf Basis spezifischer Annahmen eindeutige Aussagen gemacht werden können. Das Instrument zur Charakterisierung spezifischer technologischer Annahmen ist die Produktionsfunktion. Mit Hilfe von Produktionsfunktionen werden technisch effiziente Beziehungen zwischen den Inputs eines Produktionsprozesses (Maschinen, Arbeitskräfte, Rohstoffe etc.) und dem Output erfasst. Technische Effizienz bedeutet, dass mit gegebenen Inputs die größtmögliche Ausbringungsmenge erzeugt wird. Jeder Einsatz eines jeden weiteren Produktionsfaktors muss somit den Output erhöhen. Niemand würde im Ein-Schicht-System einen zweiten Kranführer einstellen, wenn nur ein Kran zur Verfügung stünde. Formal wird eine Produktionsfunktion für das Gut 1 folgendermaßen ausgedrückt: (2.4.3)
X1 = X1(XI1, X2, K , Xn)
Wir unterstellen, dass aufgrund vollständiger Informationen und dem Fehlen von Patentrechten und anderen Zugangsbeschränkungen zum Buch der bekannten Techniken alle Unternehmen in der Branche, die das Gut X1 produzieren, mit der gleichen Produktionsfunktion arbeiten.18 Nehmen wir als Beispiel die Weizenproduktion, dann wird der Input an Weizen (XI1) selbstverständlich kleiner sein als der produzierte Weizen (X1) . Es sollte beachtet werden, dass in die Produktionsfunktion keine monetären, also in Geldeinheiten bewerteten Größen eingesetzt werden. Sie gibt nur an, wie z.B. eine Tonne Blech, 1000 Nägel, 40 Maschinenstunden des Maschinentyps A, 800 Arbeitsstunden etc. in 10 Autos transformiert werden. Produktionsfunktionen werden in der Regel nur für die Produktion eines Gutes und nicht für verschiedene definiert. Eine gemeinsame Produktionsfunktion für die Herstellung von Autos, Schweinen, Kartoffelknödel und Massagedienstleistungen ist unsinnig. Das Konzept der Produktionsfunktion gerät somit aus den Fugen, wenn einzelwirtschaftliche Produktionsfunktionen zu makroökonomischen aggregiert werden sollten, da eine Aggregation nur möglich ist, wenn die Inputfaktoren in Geldeinheiten bewertet werden. Dies ist bei Produktionsfunktionen, die technische Zusammenhänge zum Ausdruck bringen sollen, nicht möglich. Deshalb machen Produktionsfunktionen letztlich nur Sinn, wenn sie für ein einzelnes Unternehmen bzw. ein einzelnes Gut aufgestellt werden.19 Eine Produktionsfunktion ist auf der Grundlage eines gegebenen technologischen Wissens definiert. Verändert es sich durch Erfindungen und Innovationen und kommt die neue Technik zur Anwendung, dann verändert sich auch die Produktionsfunktion. Produktionsfunktionen haben – wie ausgeführt – den Zweck, technologische Beziehungen drastisch vereinfacht und somit gleichsam idealtypisch darzustellen. Die erste Vereinfachung ist die Annahme der Homogenität. Produktionsfunktionen werden dann als homogen bezeichnet, wenn unabhängig vom Produktionsniveau proportionale Veränderungen der Inputmengen zu gleichmäßigen Veränderungen des Outputs führen. Sofern z.B. eine Verdopplung aller Produktionsfaktoren immer zu einer Verdoppe18
Unterschiedliche unternehmensspezifische Produktionsfunktionen würden in den verschiedenen Unternehmen unterschiedliche Gewinne erzeugen. Die Einführung unternehmensspezifischer Produktionsfunktionen innerhalb einer Branche würde die theoretischen Kernaussagen des Modells nicht verändern. Da wir für alle Unternehmen einer Branche die gleiche Produktionsfunktion unterstellen, ist es nicht notwendig, die Produktionsfunktionen mit dem zusätzlichen Index u zu versehen. 19 So mag es zwar Kuppelproduktionen geben – etwa wenn bei der Schafzucht Fleisch und Wolle produziert werden –, jedoch handelt es sich dabei um einen Produktionsprozess. Eine Produktionsfunktion für Autos, Schweine und Kartoffelknödel ist dagegen nicht möglich.
Neoklassische Mikroökonomie
55
lung oder immer zu einer Verdreifachung des Outputs führt, liegt eine homogene Produktionsfunktion vor. Würde dagegen eine Verdopplung der Inputs bei geringem Produktionsvolumen zu einer Verdreifachung und bei hohem Produktionsvolumen zu einer Verfünffachung führen, dann läge eine inhomogene Produktionsfunktion vor. Da sich die Analyse mit inhomogenen Produktionsfunktionen ungleich schwieriger gestalten und keinen relevanten Erkenntnisgewinn bringen würde, liegen der ökonomischen Theoriebildung in der Regel homogene Produktionsfunktionen zugrunde. Davon gehen auch wir im Folgenden aus. Homogene Produktionsfunktionen lassen sich nach verschiedenen Kriterien klassifizieren: Ob und wieweit die einzelnen Inputfaktoren bei der Produktion einer gegebenen Outputmenge gegenseitig ersetzt werden können oder nicht, wie der Output bei der proportionalen Veränderung aller Inputfaktoren variiert und welche Outputänderungen bei der Variation nur eines Inputfaktors zu erwarten sind.
Abbildung 2.4.2: Limitationale Produktionsfunktion X1 X2
X3
Beginnen wir mit dem ersten Punkt. Es lassen sich, sieht man von Zwischenformen einmal ab, zwei Grundtypen von Produktionsfunktionen definieren. Zum einen ist es vorstellbar, dass z.B. die Faktoren „Arbeit“ und „Maschine vom Typ A“ in einem festen Verhältnis zueinander vorhanden sein müssen, weil etwa der Kran zwingend der menschlichen Bedienung bedarf. Der Mehreinsatz nur des einen Faktors führt zu keiner Produktionsausdehnung. Produktionsfunktionen dieses Typs werden als limitationale Produktionsfunktionen bezeichnet. Sofern ein Inputfaktor durch einen anderen ersetzt werden kann, spricht man von einer substitutionalen Produktionsfunktion. Bei einer substitutionalen Produktionsfunktion kann somit ein gegebenes Outputniveau mit unterschiedlichen Faktorkombinationen produziert werden. Gehen wir zur Verdeutlichung der Eigenschaften von Produktionsfunktionen von einem Gut X1 aus, das mit den Gütern X2 und X3 hergestellt werden kann. Bei einer limitationalen Produktionsfunktion ergibt sich in diesem Fall ein Strahl aus dem Ursprung (vgl. Abbildung 2.4.2) und im Falle einer substitutionalen Produktionsfunktion ein Produktionsgebirge.
56
Neoklassische Mikroökonomie
Abbildung 2.4.3: Substitutionale Produktionsfunktion X1 X2
X3
Wir gehen im Folgenden näher auf substitutionale Produktionsfunktionen ein, da limitationale im neoklassischen Modell faktisch keine Rolle spielen. In Abbildung 2.4.4 kann die Produktionsmenge X10 z.B. durch die Inputmengen X 02 und X 30 produziert werden. Allerdings existieren weitere Inputkombinationen, mit denen ebenfalls die Menge X10 produziert werden kann, z.B. die Kombination von X12 und X13 . Werden alle Inputkombinationen, mit deren Hilfe die Gütermenge X10 erstellt werden kann, abgetragen, erhält man eine Isoquante. Sie drückt aus, dass X2 und X3 vollständig substituiert werden können, also die Produktion im Extremfall mit nur einem der beiden Inputfaktoren möglich ist. Zudem ist unterstellt, dass die Inputfaktoren in einem konstanten Verhältnis substituiert werden. Üblicherweise wird in der Unternehmenstheorie allerdings nicht von einer vollständigen und konstanten Substitution ausgegangen. Stattdessen nimmt man an, dass jeder Faktor zumindest in kleinsten Größenordnungen vorhanden sein muss. Gleichzeitig wird eine unbegrenzt substitutionale Produktionsfunktion zugrunde gelegt. Dies besagt, dass von einer kleinen Menge eines Inputs immer noch etwas weggenommen werden kann, um eine bestimmte Menge eines Gutes zu produzieren. Selbstverständlich muss die Abnahme des einen Inputs durch die Zunahme anderer Inputs kompensiert werden. Formal ergeben sich bei den unterstellten Annahmen Äste der Isoquante, die nicht zu Parallelen der Ordinaten- oder Abszissenachse werden dürfen, sich jedoch asymptotisch den beiden Achsen annähern.20 Die in der Abbildung 2.4.3 angegebene substitutionale Produktionsfunktion entspricht den Bedingungen unbegrenzter und gleichzeitig nicht vollständiger Substitution. In Abbildung 2.4.5 sind Isoquanten einer solchen Produktionsfunktion eingezeichnet. Die untere Isoquante drückt alle Faktorkombinationen zur Produktion der Menge X10 aus, während die vom Nullpunkt aus weiter außen liegende Isoquante X11 Faktorkombinationen ausdrückt, die eine größere Menge von X1 produzieren können. Je weiter eine Isoquante vom Ursprung entfernt ist, desto größer ist das Produktionsvolumen, das sie repräsentiert.
20
Substitutionale Produktionsfunktionen bzw. Isoquanten unterliegen weitgehend den gleichen Axiomen wie Nutzenfunktionen bzw. Indifferenzkurven. Der einzige Unterschied besteht darin, dass Produktionsfunktionen kardinale Funktionen sind, während es sich bei Nutzenfunktionen um ordinale handelt. Auch bei der Produktionsfunktion vereinfachen die Axiome das Modell (vgl. zu den Axiomen Kapitel 2.3.3).
Neoklassische Mikroökonomie
57
Abbildung 2.4.4: Isoquante bei vollständiger und konstanter Substitutionsmöglichkeit
X2
Isoquante zur Produktion von X10
X 02
X 12
X 30
X 13
X3
Die Entscheidung zugunsten einer unbegrenzten substitutionalen Produktionsfunktion erscheint bei flüchtigem Hinsehen wenig plausibel. Wieso sollten Rohstoffe wie Eisen durch z.B. menschliche Arbeit ersetzbar sein? Allerdings gibt es gute Gründe, die für eine Substituierbarkeit sprechen. Zum einen muss der Zeitfaktor beachtet werden. In einer kurzen Frist sind die Substitutionsmöglichkeiten begrenzter als in langen Zeitintervallen. In aller Regel kann ein Produkt längerfristig mit unterschiedlichen physischen Inputbündeln produziert werden. Zum anderen verdeckt die Darstellung im ZweiGüter-Diagramm unter Umständen Substitutionsmöglichkeiten. Werden z.B. Gas, Gummi usw. zum großen Faktor „Rohstoff“ zusammengefasst, verschwinden zahlreiche, real vorhandene Substitutionsmöglichkeiten, so z.B. zwischen Öl und Gas. Bei einer tieferen Gliederung erscheinen sie dann wieder. Folglich hängt die Plausibilität dieser oder jener Produktionsfunktion bis zu einem gewissen Grade von Definitionen ab. Drittens: Bei substitutionalen Produktionsfunktionen hat der Unternehmer eine große Auswahl bei den Einsatzverhältnissen der Inputmengen. Zwar kann es auch verschiedene limitationale Techniken zur Produktion eines Gutes geben, jedoch wird die Auswahl geringer sein als bei substitutionalen Techniken. In diesem Sinne ist die Annahme substitutionaler Produktionsfunktionen allgemeiner. Es soll an dieser Stelle auf eine Debatte hingewiesen werden, die wir hier nur kurz benennen können. Gibt es endliche Ressourcen auf der Welt, wie etwa Erdöl, und gibt es nicht die Möglichkeit der unbegrenzten Substitution, dann ergibt sich für die Menschheit aus logischen Gründen langfristig eine Wachstumsschranke. Wird dagegen von der Möglichkeit der vollständigen Substitution knapper Ressourcen ausgegangen, dann gibt es logischerweise von der Produktionsseite keine Grenzen des Wachstums. Bei dieser ökologischen Frage wird somit die Substitutionsfrage zu einer Schlüsselfrage.
58
Neoklassische Mikroökonomie
Abbildung 2.4.5: Isoquanten bei unbegrenzter und gleichzeitig nicht vollständiger Substitution X2
X11 X10 X3
Im Folgenden werden wir dem neoklassischen Modell folgend homogene Produktionsfunktionen als typisch ansehen, bei denen die Reduktion eines Inputs immer durch die Zunahme eines anderen kompensiert, aber kein Input vollständig substituiert werden kann. Die bekannteste Formalisierung einer solchen unbegrenzt substitutionalen Produktionsfunktion ist die folgende Cobb-DouglasProduktionsfunktion, die von den beiden Ökonomen Paul Howard Douglas und Charles Wiggins Cobb in den 1920er Jahren entwickelt wurde: (2.4.4)
X1 = µ X2a1 X3a2 X4a3
X2 mag eine bestimmte Anzahl Maschinenstunden, X3 eine bestimmte Anzahl Arbeitsstunden und X4 eine bestimmte Bodenfläche repräsentieren, mit deren Hilfe das Gut X1 produziert wird. Auf die Rolle der Exponenten a1 , a2 und a3 wird unten noch detailliert eingegangen. Die Anzahl der Inputfaktoren kann beliebig vergrößert werden, ohne dass sich an der Logik des Sachverhalts etwas ändert. µ ist eine positive Zahl und stellt einen Niveauparameter dar, der die totale Faktorproduktivität ausdrückt. Dieser legt fest, wie effizient die Inputfaktoren genutzt werden. So kann eine organisatorische Innovation oder neues technologisches Wissen den Wert von µ erhöhen, was sich in einem erhöhten Output bei unveränderten Inputs ausdrückt. Falls bei einer ansonsten identischen Produktionsfunktion µ 2 beispielsweise doppelt so groß ist wie µ1, ist der Output in der ersten Funktion doppelt so groß wie der in der zweiten. Zur Vereinfachung soll der Parameter µ folgend grundsätzlich den Wert von eins annehmen. Erwähnenswert ist schließlich, dass die Inputfaktoren multiplikativ miteinander verknüpft sind. Dadurch lässt sich eine Reduzierung des einen Faktors immer durch die Erhöhung eines anderen kompensieren. Es handelt sich also um eine unbegrenzt substitutionale Produktionsfunktion. Allerdings sind die Faktoren nicht vollständig substituierbar. Denn falls ein Faktor ganz wegfiele – also den Wert Null annähme – würde der Output auch Null werden. Kein Faktor kann folglich vollständig ersetzt werden. Damit ergeben sich aus der Cobb-Douglas-Funktion Isoquanten, die sich asymptotisch den Achsen annähern.
Rechenbeispiel für Isoquanten einer Cobb-Douglas-Produktionsfunktion Die Gleichung (2.4.4) wird unter den Annahmen, dass in einem einfachen Beispiel µ, der dritte Inputfaktor X4 sowie der Exponent der Inputfaktoren X2 und X3 jeweils eins sind, zu X1 = X21 X31 .Wird 12 dann das Outputniveau auf X1 = 12 gesetzt, dann resultiert daraus die Gleichung X2 = . In einem X3 Faktormengendiagramm ergibt sich der typische Verlauf der Isoquante (vgl. Abbildung
Neoklassische Mikroökonomie
59
2.4.6), der bei anderen Exponenten, einem anderen Parameter μ und einer anderen Menge von X4 zwar modifiziert wird, jedoch seine grundsätzliche Form behält.
Abbildung 2.4.6: Isoquante vom Cobb-Douglas-Typ
X2 12
Isoquante zur Produktion von X1 = 12 3 1 1
4
12
X3
Kommen wir zur Frage, wie sich der Output bei der Variation von Inputs verändert. Dabei sollen zwei Fälle unter die Lupe genommen werden. Erstens können alle Inputs verändert werden, zweitens kann bei Konstanz aller anderen Inputs nur ein Input variiert werden. Wir beginnen mit dem ersten Fall. Sofern alle Inputs mit dem gleichen Faktor variiert, also verdoppelt oder verdreifacht werden, spricht man von einer totalen Faktorvariation. Der Effekt auf den Output, der aus der Veränderung aller Inputs mit dem gleichen Faktor resultiert, wird in der Form von Skalenerträgen ausgedrückt. Bei der Skalenanalyse gibt es drei Grundformen. Bei konstanten Skalenerträgen wird jede Verdopplung aller Inputs zu einer Verdopplung des Outputs, jede Verdreifachung des Inputs zu einer Verdreifachung des Outputs etc. Bezeichnen wir λ als die Zahl mit der alle Inputs erhöht werden, stellen sich in Abbildung 2.4.7 konstante Skalenerträge als Strahl ausgehend vom Produktionsvolumen X1A dar. β =1 drückt in der Abbildung diesen konstanten Zusammenhang bei konstanten Skalenerträgen aus. Führen proportionale Erhöhungen aller Inputs zu überproportionalen Erhöhungen des Outputs, spricht man von steigenden Skalenerträgen (ausgedrückt durch β > 1). Bei fallenden Skalenerträgen führen proportionale Erhöhungen aller Inputs zu unterproportionalen Erhöhungen des Outputs β < 1).
60
Neoklassische Mikroökonomie
Abbildung 2.4.7: Skalenerträge X1 steigende Skalenerträge (β > 1) konstante Skalenerträge (β = 1)
sinkende Skalenerträge (β < 1) X1A
1
λ
Welche Art von Skalenerträgen ist typisch? Bei industrieller Produktion spricht alles für die Dominanz steigender Skalenerträge. Sie drücken das „Gesetz der Massenproduktion“ aus, das schon im Jahre 1776 von Adam Smith in seinem berühmten Stecknadelbeispiel herausgearbeitet wurde (Smith 1974, Kap. 1). Größere Stückzahlen erlauben eine Intensivierung der Arbeitsteilung innerhalb eines Betriebes (und auch zwischen Betrieben), die Herausbildung spezifischer Qualifikationen und die Entwicklung von Maschinen, die auf die Bedürfnisse der einzelnen Produktionsbereiche zugeschnitten sind. Diese Faktoren erklären, so sein Argument, dass der Stecknadelproduzent in einem Dorf im schottischen Hochland, der nur wenige Stecknadeln verkaufen und produzieren kann, technologisch nicht mit dem Stecknadelproduzenten in der Stadt mithalten kann, der eine große Menge an Stecknadeln verkauft und herstellt. Es gibt eine große Anzahl weiterer Argumente, die steigende Skalenerträge in vielen Produktionen wahrscheinlich machen. So steigt der Anteil der notwendigen Lagerhaltung eines produzierenden Unternehmens, jedoch auch eines Supermarktes, mit der Größe des Unternehmens unterproportional an. Viele Argumente für steigende Skalenerträge liegen an Unteilbarkeiten von Inputs. Beispielsweise sind Forschungsabteilungen in Unternehmen erst ab einer gewissen Größe effizient. Kleine Betriebe mit geringem Output werden in aller Regel keine Forschungsabteilung haben. Bei einer Pipeline steigt mit der Zunahme des Durchmessers der Röhre das mögliche Transportvolumen stärker als der Aufwand eine größere Röhre zu produzieren. Ein anderes Beispiel ist Marketing in der Form eines Werbespots im Fernsehen, der für kleine Unternehmen keinen Sinn macht. Mit steigenden Skalenerträgen vergleichbar sind Economies of Scope. In diesem Fall ist es für ein Unternehmen effizient, mehrere Güter gleichzeitig zu produzieren und anzubieten. So ist es beispielsweise effizient, wenn ein Luftfahrtunternehmen Personen und Fracht transportiert oder ein Einzelhändler mehr als ein Produkt anbietet. Sinkende Skalenerträge können durch zunehmende Komplexität und Bürokratisierung bei Großunternehmen begründet werden. Auch Transportkosten können zu sinkenden Skalenerträgen führen. Insgesamt erscheinen sinkende Skalenerträge zumindest bei industrieller Produktion wenig plausibel. Will ein Automobilproduzent seinen Output verdoppeln und setzt aus diesem Grunde neben die alte Fabrik eine mit dieser identische neue, so ist kaum zu erwarten, dass die neue Fabrik technologisch weniger effizient arbeitet als die alte. Zumindest konstante Skalenerträge sind in dem Beispiel wahrscheinlich, in aller Regel sind Synergieeffekte mit steigenden Skalenerträgen zu erwarten. Die Analyse von Skalenerträgen verdeutlicht die radikale Vereinfachung technologischer Aspekte durch Produktionsfunktionen. Zwei Beispiele sollen dies zeigen. Nehmen wir zur Verdeutlichung den Fall steigender Skalenerträge. Das Gesetz der Massenproduktion beruht unter anderem darauf, dass mit
Neoklassische Mikroökonomie
61
steigendem Output nicht alle Inputfaktoren mit der gleichen Rate wachsen. So werden bei der Produktion von zusätzlichen Autos die Inputs Bleche und Gummi stärker steigen als beispielsweise Pförtner. Dadurch aber ergeben sich nicht etwa steigende Skalenerträge, sondern es kommt bei der Ausdehnung der Produktion zu einer anderen Struktur der Inputs. Des Weiteren müssen, entsprechend einer CobbDouglas-Produktionsfunktion, alle Inputfaktoren zumindest in minimalen Größenordnungen vorhanden sein. Es wird unterstellt, dass Tanker, Brotmaschinen oder Eisenbahnnetze beliebig klein gebaut werden können. Das Gesetz der Massenproduktion beruht gerade darauf, dass dies eben nicht möglich ist. Produktionsfunktionen vom Cobb-Douglas-Typ können jedoch gleichwohl als ausreichend gute Beschreibung technologischer Zusammenhänge dienen, wenn die Logik unternehmerischen Handelns auf der Ebene eines Einzelbetriebes analysiert werden soll. Rechenbeispiel und formale Ableitung von Skalenerträgen Wir wollen zunächst konstante Skalenerträge unter die Lupe nehmen. Dieser Fall liegt – wie sich noch zeigen wird – üblicherweise der neoklassischen Theorie zugrunde und soll daher im Folgenden am Beispiel der Cobb-Douglas-Produktionsfunktion näher betrachtet werden. Nehmen wir als konkrete Funktion: X1 = X2 0,5 X30,4 X4 0,1
Auffällig an dieser Funktion ist, dass sich die Exponenten ( a1 = 0,5, a2 = 0,4 und a3 = 0,1) auf eins addieren. Unterstellen wir nun, alle Inputs würden verdoppelt. Was geschieht mit der Herstellungsmenge? Von X2 sollen ursprünglich 100, von X3 125 und von X4 15 Mengeneinheiten eingesetzt worden sein. Dann ergibt sich als Ausgangssituation (X1A) : X1A = 1000,5 . 1250,4 . 150,1
Bei einer Verdopplung der Einsatzfaktoren folgt: X1 = (2 . 100)0,5 . (2 . 125)0,4 . (2 . 15)0,1
Durch Umformung erhalten wir: X1 = 20,5 . 1000,5 . 20,4 . 1250,4 . 20,1 . 150,1 X1 = 20,5 . 20,4 . 20,1 . 1000,5 . 1250,4 . 150,1 X1 = 2 0,5+0,4+0,1 ⋅100 0,5 ⋅1250,4 ⋅150,1 .
Da 1000,5 . 1250,4 . 150,1 dem ursprünglichen Output X1A entspricht, ergibt sich: X1 = 21 . X1A = 2. X1A
Es ist somit in unserem Beispiel bei der Verdopplung der Inputs genau zu einer Verdopplung des Produktionsergebnisses gekommen. Dieses Ergebnis liegt an den Exponenten der Inputfaktoren, die sich im gewählten Beispiel auf eins addieren. Ist die Summe der Exponenten in der Cobb-Douglas-Produktionsfunktion größer als eins, dann steigt das Produktionsergebnis bei der Verdopplung aller Inputs mit einer stärkeren Rate als die Inputs. Ergibt sich z.B. a1 + a2 + a3 = 2, dann folgt: X1 = 22 . X1A = 4 . X1A . In diesem Fall spricht man von steigenden Skalenerträgen. Ist die Summe der Exponenten in der Produktionsfunktion kleiner als eins, dann steigt das Produktionsergebnis bei einer Verdopplung aller Inputs mit einer geringeren Rate als die Inputs. Ergibt sich a1 + a2 + a3 = 0,5, dann folgt: X1 = 20,5 . X1A =
2 . X1A ≈ 1,41 . X1A
In diesem Fall spricht man von fallenden Skalenerträgen. Die obigen Beispiele lassen sich verallgemeinern. Werden bei der Produktionsfunktion
62
Neoklassische Mikroökonomie
X1 = X1(XI1, X2, K, Xn) alle Inputs mit dem Faktor λ (im obigen Beispiel war λ = 2 ) multipliziert, so ergibt sich:
X1 = X1(λXI1, λX2, K, λXn) Wenn die Produktionsfunktion homogen ist, dann lässt sich immer ein Exponent β finden, der die Veränderung des Outputs bei der proportionalen Variation aller Inputs in der folgenden Form angibt: X1(λXI1, λX2, K, λXn) = λβ ⋅ X1(XI1, X2, K, Xn)
Falls β den Wert eins annimmt, liegen konstante Skalenerträge vor. Bei β < 1 ist die Produktionsfunktion durch sinkende Skalenerträge und bei β > 1 durch steigende Skalenerträge charakterisiert. In Abbildung 2.4.7 sind die verschiedenen Möglichkeiten homogener Produktionsfunktionen bei einer totalen Faktorvariation angegeben. Die Abszissenbezeichnung λ gibt an, wie hoch die Faktorerhöhung ist. Gemessen am Niveau des Ausgangspunktes X1A werden die durch λ ausgedrückten Erhöhungen aller Inputs in ihrer Wirkung auf den Output durch λβ ausgedrückt. Die Exponenten der Inputs der Cobb-Douglas-Produktionsfunktion haben eine weitere erwähnenswerte Eigenschaft, da sie unmittelbar die Produktionselastizität des entsprechenden Faktors ausdrücken (vgl. zur Elastizität auch Kapitel 2.3.5). Die Produktionselastizität eines Inputfaktors ist definiert als Verhältnis der relativen Änderung der Produktionsmenge zur relativen Veränderung der Faktoreinsatzmenge. So führt beispielsweise eine einprozentige Erhöhung des Inputs X2 in der Cobb-DouglasFunktion in Gleichung (2.4.4) bei a1 = 0,8 zu einer 0,8-prozentigen Erhöhung des gesamten Outputs. Formale Herleitung der Produktionselastizitäten bei einer Cobb-Douglas-Funktion Steht X1 für den Output eines Produktionsprozesses und X3 für einen Input, dann ist die Produktionselastizität definiert als:
εX1/X3 =
∂ X1 X1 ∂ X3 X3
Daraus ergibt sich: (2.4.5)
ε
X1/X3
=
∂ X1 X3 ⋅ ∂ X3 X1
Wenn die Gleichung (2.4.8) in (2.4.5) eingesetzt wird, folgt:
ε
X1/X3
= a1⋅ X3a2 ⋅ X2a1 - 1⋅
X2 X1
Da X1 = X2a1⋅ X3a2 ist, resultiert: (2.4.6)
ε
X1/X3
=
a1 X2a1 - 1 X3a2 X2 X2a1 X3a2
= a1
Kommen wir nun zur Variation nur eines Inputfaktors. Wie verändert sich der Output, wenn nur ein Produktionsfaktor variiert wird und alle anderen konstant gehalten werden? Eine solche Betrachtung wird als partielle Faktorvariation bezeichnet. Ist beispielsweise nur der Inputfaktor X2 variabel, dann nimmt die Produktionsfunktion folgende Form an: (2.4.7)
X1 = X1(X2, XI1, X3,..., Xn )
Neoklassische Mikroökonomie
63
Der Wechsel des Outputs bei einer Veränderung des als variable gesetzten Inputs wird durch die erste Ableitung der Funktion nach dem als variabel angenommenen Faktor ermittelt. Die erste Ableitung der Produktionsfunktion nach einem Inputfaktor wird als Grenzertragsfunktion bezeichnet. Sie drückt den physischen Grenzertrag oder das physische Grenzprodukt aus. Da Output pro Inputeinheit als Produktivität bezeichnet wird, kann das Grenzprodukt auch als Grenzproduktivität des entsprechenden Faktors bezeichnet werden. Alle drei Begriffe drücken den gleichen Sachverhalt aus. Der physische Grenzertrag gibt an, um wie viel sich der Output X1 verändert, wenn der Inputfaktor X2 marginal verändert wird. In Abbildung 2.4.8 sind zwei Grenzertragsfunktionen dargestellt. In ihnen kommt zum Ausdruck, dass mit steigendem Einsatz von X2 und bei Konstanz aller anderen Inputmengen, der Ertragszuwachs von X1 abnimmt, jedoch positiv bleibt. Der Einsatz des variablen Inputgutes X2 wird somit mit zunehmender Inputmenge immer weniger produktiv. Der Sachverhalt sinkender Grenzerträge bei der Erhöhung nur eines Produktionsfaktors wird als Ertragsgesetz bezeichnet. Dieses technologisch begründete Gesetz abnehmender mengenmäßiger Ertragszuwächse hat für die neoklassische Mikroökonomie eine Bedeutung, die nicht überschätzt werden kann (vgl. unten). Hinter der Annahme sinkender Grenzerträge steht die Vorstellung, dass mit zunehmendem Einsatz nur eines Faktors die Kombination der Produktionsfaktoren technologisch immer ungünstiger wird und damit der physische Ertragszuwachs sinkt. Als Beispiel mag man sich vorstellen, dass bei einem flächenmäßig fixierten Weizenfeld und gegebenen Maschinen etc. immer mehr Arbeiter zur Produktion von Weizen eingesetzt werden. Jeder zusätzlich beschäftigte Arbeiter erhöht zwar durch seine Arbeit den Gesamtertrag, allerdings mit abnehmenden Zuwächsen. Schließlich stehen sich die Arbeiter gegenseitig „auf den Füßen herum“, und der Grenzertrag der Arbeit tendiert gegen Null. Das Ertragsgesetz hat eine gewisse Plausibilität, wenn bei gegebenen Kapazitäten der Faktor Arbeit – der für alle variablen Inputs stehen mag – beständig erhöht wird. Mit steigender Kapazitätsauslastung ist dann ab einem gewissen Arbeitseinsatz aufgrund eines „Überfüllungseffektes“ mit sinkenden Grenzerträgen der Arbeit zu rechnen. Aber das Ertragsgesetz gilt auch für Kapitalgüter. Werden Kapitalgüter als variable Faktoren bei gegebenem Arbeitseinsatz als Produktionsinputs erhöht, sinkt nach dem Ertragsgesetz auch der physische Grenzertrag der Kapitalgüter. Ob bei industrieller Produktion generell fallende Grenzerträge unterstellt werden können, sofern nur ein Input erhöht wird, ist eine technische Frage, deren Beantwortung prinzipiell offen bleibt.
Abbildung 2.4.8: Grenzertrag ∂X1 ∂X 2
∂X11 ∂X 2
(
0 X 3 I1,X 3 ,...,X n X 10 = Xbei 1 X 2 ,X
)
∂X10 bei X 3 ∂X 2 X2
Der Grenzertrag eines Inputfaktors in einer unbegrenzt substitutionalen Produktionsfunktion hängt nicht nur von dessen eigener Variation ab, sondern auch von der Menge der konstant gesetzten anderen Faktoren. Werden diese ceteris paribus erhöht, dann nimmt der Output für jede Einsatzmenge des
64
Neoklassische Mikroökonomie
variablen Faktors zu. In Abbildung 2.4.8 unterscheiden sich die beiden Grenzertragsfunktionen ausschließlich durch einen unterschiedlichen Einsatz von X3 , wobei bei der auf einem höheren Niveau verlaufenden Kurve der Einsatz von X3 größer ist ( X3 < X3 ). Das Ertragsgesetz gilt nicht immer. Wenn steigende Skaleneffekte existieren, dann muss das Ertragsgesetz nicht gelten. Erzeugt beispielsweise der zunehmende Arbeitseinsatz in einem von Forschung abhängigen Unternehmen starke Synergieeffekte, dann kann trotz eines unveränderten Einsatzes von Kapitalgütern der Grenzertrag jedes zusätzlich eingesetzten Forschers steigen. Bei konstanten und fallenden Skalenerträgen gilt das Ertragsgesetz immer. Das Ertragsgesetz gilt somit nur unter spezifischen Bedingungen. Formale Ableitung der Beziehung zwischen Skalenerträgen und Ertragsgesetz Betrachten wir, unter welchen Bedingungen das Ertragsgesetz formal gilt. Wir benutzen dazu wiederum eine unbegrenzt substitutionale Produktionsfunktion vom Cobb-Douglas-Typ. Unterstellen wir nur zwei Inputfaktoren, beispielsweise X2 für Arbeit und X3 für eine Maschine ( μ hat den Wert 1). Dann lautet die Cobb-Douglas-Produktionsfunktion bei konstanter Menge von X3 : X1 = X2 a1 ⋅X3a 2
Die erste Ableitung nach X2 ergibt sich durch: ∂ X1 a2 = a1 ⋅ X3 ⋅ X2 a1 - 1 ∂ X2
(2.4.8) a2
Das Produkt a1 ⋅ X3 in der Gleichung ist eine Konstante. Nunmehr lassen sich verschiedene Verläufe der Grenzerträge ableiten. Bei abnehmenden Skalenerträgen ist die Summe aller Exponenten der Produktionsfunktion kleiner eins und bei konstanten Skalenerträgen genau eins. In diesen beiden Fällen ist der Exponent von X2 , also a1 - 1 , mit Sicherheit kleiner als Null, so dass X2 im Nenner mit einem positiven Exponenten geschrieben werden muss. Konstruieren wir zur Verdeutlichung ein Beispiel für konstante Skalenerträge. Wird von der Produktionsfunktion X1 = X2 0,5 ⋅ X 30,5 ausgegangen, dann er0,5 ∂ X1 ∂ X1 0,5 ⋅ X3 gibt sich als Grenzertragsfunktion = . Daraus folgt, dass = 0,5 ⋅ X 30,5 ⋅ X20,5 - 1 bzw. X2 ∂ X2 ∂ X2 mit steigendem Einsatz von X2 die erste Ableitung der Produktionsfunktion nach X2 laufend abnimmt, aber niemals negativ wird. Dieses Ergebnis ergibt sich selbstverständlich auch bei abnehmenden Skalenerträgen. Bei steigenden Skalenerträgen ergibt die Summe der Exponenten der Cobb-Douglas-Funktion einen Wert von über eins. Hier sind drei Varianten möglich. Sofern der Wert der Potenz in Gleichung (2.4.8) a1 -1 den Wert von Null annimmt (also wenn a1 gleich eins wird), ergeben sich bei einer Erhöhung des Einsatzes von X2 konstante Grenzerträge. Wird von der Produktionsfunktion X1 = X21 ⋅ X31 aus∂ X1 ∂ X1 gegangen, dann entspricht die Grenzertragsfunktion = X2 0 ⋅ X 3 bzw. = X 3 . Es ergeben sich ∂ X2 ∂ X2 somit konstante Grenzerträge. Im zweiten Fall ist a1 -1 größer als Null. Nun liegen steigende Grenzer∂ X1 träge vor. Lautet die Produktionsfunktion nun X1 = X2 2 ⋅ X31 , dann ergeben sich mit = 2 ⋅ X 3 ⋅ X2 ∂ X2 steigende Grenzerträge des Inputs X2 . Im dritten Fall liegt der Wert der Exponenten der Inputs jeweils unter eins, jedoch addiert sich die Summe der Exponenten auf über eins. In diesem Fall gilt das Ertragsgesetz für alle Inputs auch bei steigenden Skalenerträgen. Fassen wir zusammen: Bei fallenden und konstanten Skalenerträgen ist die Grenzertragsfunktion immer fallend, und es ergibt sich ein Funktionsverlauf wie in Abbildung 2.4.8. Bei steigenden Skalenerträgen kann die Grenzertragsfunktion dagegen konstant oder steigend verlaufen.
Neoklassische Mikroökonomie
65
Kommen wir nochmals auf die Isoquanten einer unbegrenzt substitutionalen Produktionsfunktion zurück. In Abbildung 2.4.9 ist eine Isoquante für das Produktionsvolumen X10 angegeben. Der Punkt A gibt eine spezifische Faktormengenkombination von X2 und X3 zur Herstellung dieses Outputs an. Punkt B repräsentiert das gleiche Ausbringungsniveau, nunmehr erstellt mit einer anderen Faktormengenkombination von X3 und X2 . Beim Übergang vom Punkt A zu Punkt B konnte vom Inputgut X2 die Menge ΔX 02 eingespart werden, dafür aber musste vom Inputgut X3 die Menge ΔX3 erhöht wer-
ΔX 02 drückt die Rate der technischen Substitution zwischen den hier betrachΔX3 teten Inputfaktoren aus und hat einen negativen Wert. Es ist ersichtlich, dass die Rate der technischen Substitution mit zunehmendem Einsatz des Inputfaktors X3 zunimmt (bzw. der absolute Betrag der Rate der technischen Substitution abnimmt). den. Das Verhältnis von
Wie ist dieses Ergebnis zu erklären? Um die gegebene Outputmenge im Punkt A zu produzieren, wird X2 in relativ starkem Umfang und X3 in relativ geringem Umfang eingesetzt. Da, sofern das Ertragsgesetz als gültig unterstellt wird, die Grenzproduktivität eines Faktors mit zunehmendem Einsatz rückläufig ist, gibt die Faktormengenkombination A eine relativ niedrige Grenzproduktivität von X2 und eine vergleichsweise hohe von X3 wieder. Aus diesem Grunde können beim Übergang zu Punkt B relativ viele Einheiten von X2 durch relativ wenige von X3 ersetzt werden, ohne dass der Output variiert. Beim Punkt C in Abbildung 2.4.9 haben sich die Faktormengenkombinationen deutlich verändert. Nunmehr werden relativ viele Einheiten von X3 mit relativ wenigen von X2 kombiniert, so dass die Grenzproduktivität von X2 gestiegen und die von X3 gesunken ist. Im Punkt C muss deshalb eine weitere Abnahme von X2 durch eine relativ hohe Zunahme von X3 kompensiert werden. Der grafisch verdeutlichte Zusammenhang zwischen der Rate der technischen Substitution und dem Verhältnis der Grenzproduktivitäten der Faktoren kann auch allgemein abgeleitet werden. Gehen wir von einer Produktionsfunktion
X1 = X1(X2, X3) mit nur zwei Inputs aus und bilden das totale Differential, so folgt: (2.4.9)
dX1 = GP2 ⋅ dX2 + GP3 ⋅ dX3
mit GP2 als Grenzprodukt des Inputs X2 und GP3 als Grenzprodukt des Inputfaktors X3. Bei Bewegungen entlang einer Isoquante bleibt der Output gleich, so dass dX1 = 0 ist. Es folgt: GP2·dX2 - GP3·dX3 = 0 Diese Gleichung ist einfach zu verstehen. Wird das Input Gut X2 minimal erhöht, dann erhöht sich der Output entsprechend der Grenzproduktivität GP2. Auf einer Isoquante muss dies ausgeglichen werden durch die minimale Abnahme des Inputs X3 multipliziert mit dem Grenzprodukt von X3. Wird Gleichung (2.4.9) gleich Null gesetzt, ergibt sich nach einfacher Umstellung und Konstantsetzung der Grenzrate der Substitution: (2.4.10)
dX2 GP3 = dX3 GP2
66
Neoklassische Mikroökonomie
Abbildung 2.4.9: Isoquante und die Rate der technischen Substitution X2
A ΔX 02
Isoquante für das Produktionsvolumen X10
B
C ΔX12
D X3
ΔX 03
ΔX13
dX2 entspricht dem BedX3 trag nach dem umgekehrten Verhältnis der Grenzproduktivitäten der Faktoren.
Die Grenzrate der technischen Substitution, also die Steigung der Isoquante
Wir werden, dem neoklassischen Modell folgend, nur konvexe Isoquanten unterstellen, deren Äste sich asymptotisch der Ordinaten- bzw. Abszissenachse nähern. Hinreichend für einen solchen Verlauf ist die Gültigkeit des Ertragsgesetzes bei allen eingesetzten Inputs. Gilt das Ertragsgesetz nicht für alle Inputs, können sich Isoquanten ergeben, die konkav zum Ursprung verlaufen oder die Form von Geraden annehmen. 2.4.4 Minimalkostenkombination Dem aufmerksamen Leser wird nicht entgangen sein, dass die Analyse der Isoquante der Analyse der Indifferenzkurve wie ein Ei dem anderen gleicht. Die Analogie setzt sich bei der Isokostengeraden fort, die mit der Budgetgeraden verglichen werden kann. Im Zwei-Faktoren-Modell resultieren die Kosten aus den Preisen der Produktionsfaktoren multipliziert mit den eingesetzten Mengen. Mit Kgu als Gesamtkosten des Unternehmens u und X2 und X3 als Inputs gilt: (2.4.11)
Kgu = p2X2 + p3X3
Die Preise der Inputfaktoren sind aufgrund der Annahme vollständiger Konkurrenz für Unternehmen ein Datum. Aus Gleichung (2.4.11) lässt sich die Isokostengerade (2.4.12)
X2 =
Kgu p3 − ⋅ X3 p 2 p2
Neoklassische Mikroökonomie
67
ableiten, die in ein X3 - X2 -Diagramm eingetragen werden kann. Die Steigung der Isokostengerade p3 ergibt sich durch das Preisverhältnis − . p2 Nehmen wir zur Verdeutlichung folgendes Beispiel. Die Gesamtkosten mögen 45 € betragen; der Preis für X2 sei 3 € und der für X3 sei 1 €. Unter dieser Voraussetzung lautet die Isokostengerade: X2 =
45 1 − ⋅ X3 3 3
Das Unternehmen kann bei der Kostensumme von 45 € entweder 15 Mengeneinheiten von X2 oder 45 von X 3 einsetzen. Darüber hinaus sind alle Punkte auf der Isokostengerade IG2 realisierbar (vgl. Ab1 bildung 2.4.10). Die Steigung der Isokostengerade IG2 beträgt − . 3
Abbildung 2.4.10: Isokostengeraden X2 30
15 7,5
IG3 IG1
IG2
45
90
X3
Betrachten wir nun Verschiebungen der Isokostengerade. Sofern sich bei unserem Beispiel der Preis 1 für X2 auf p2 = 6 € verdoppelt, beträgt die Steigung der Isokostengerade nur noch − , und bei unver6 änderter Kostensumme können maximal nur noch 7,5 Einheiten von X2 gekauft werden. Es ergibt sich die Isokostengerade IG1 . Untersuchen wir schließlich eine Veränderung der Kostensumme bei unveränderten Preisen. Sofern die Gesamtkosten gesenkt werden, kommt es zu einer Parallelverschiebung der Isokostengeraden nach unten und im umgekehrten Fall nach oben. Steigt, ausgehend von der Isokostengerade IG2 , die Kostensumme auf 90 €, dann ergibt sich die Isokostenkurve IG3 . Da theoretisch unendlich viele unterschiedliche Kostensummen vorstellbar sind, lassen sich folglich unendlich viele Isokostengeraden konstruieren, die das gesamte X3 - X2 -Diagramm abdecken.
68
Neoklassische Mikroökonomie
Abbildung 2.4.11: Minimalkostenkombinationen
X2 Isoquante zur Produktion von X1
K 3gu
4 K gu
X2 * 2 K gu
K1gu X3
X3 *
Gewinnmaximierende Unternehmen werden mit einer gegebenen Kostensumme den maximal möglichen Output bzw. umgekehrt einen gegebenen Output mit minimalen Kosten produzieren wollen. Sie werden die so genannte Minimalkostenkombination der Inputfaktoren suchen. Die grafische Lösung der gewinnmaximalen Inputkombination der Faktoren wird in Abbildung 2.4.11 präsentiert. Unterstellt sei, dass das Unternehmen die Outputmenge X1 produzieren möchte, was in der eingezeichneten Isoquante zum Ausdruck kommt. Die Isokostengeraden mit den Gesamtkosten K1gu und 2 K gu haben ein zu geringes Niveau, um die Produktionsmenge X1 mit den Gesamtkosten K 3gu erreichen zu können. Die Minimalkostenkombination ist bei den Inputmengen X2 * und X3 * gegeben. Sie ist durch den Tangentialpunkt der Isoquante mit einer Kostengerade charakterisiert. Unter den gesetzten Annahmen über den Verlauf von Isoquanten gibt es für jede Isoquante nur einen solchen Tangentialpunkt. Daher ist beim kostenminimierenden Einsatzverhältnis der Inputfaktoren die Steigung der Isoquante und die Steigung der Isokostengerade gleich. Somit gilt:
(2.4.13)
dX2 p3 = dX3 p2
und (2.4.14)
dX2 GP3 = dX3 GP2
(2.4.15)
dX2 p3 GP3 = = dX3 p2 GP2
bzw.
Dies bedeutet, dass im Kostenminimum die Grenzrate der technischen Substitution dem umgekehrten Verhältnis der Faktorpreise und das Verhältnis der Grenzproduktivitäten der Inputfaktoren dem Verhältnis der Inputpreise entsprechen muss.
Neoklassische Mikroökonomie
69
Die Analyse kann ohne Probleme auf n Inputfaktoren ausgeweitet werden. Ähnlich dem 2. Gossenschen Gesetz lässt sich die Minimalkostenkombination aufgrund der obigen Gleichungen allgemein dann auch folgendermaßen ausdrücken: (2.4.16)
GPn GP1 GP2 = = ... = p1 p2 pn
Im Kostenminimum muss somit das Verhältnis der Grenzproduktivität eines Inputfaktors zu dessen Preis bei jedem Inputfaktor den gleichen Wert annehmen. Dieser Zusammenhang ist – sofern die gewählten Prämissen akzeptiert werden – plausibel. Falls die Grenzproduktivität des Faktors X2 z. B. dreimal so hoch ist wie die von X3 , beide Inputs jedoch den gleichen Preis haben, dann wirken Substitutionsprozesse zugunsten des Faktors X2 kostensparend. Im Verlaufe der Substitution sinkt – soweit das Ertragsgesetz gilt – die Grenzproduktivität des Faktors X2 und die Grenzproduktivität des Faktors X3 steigt, bis die Minimalkostenkombination erreicht ist. Formale Ableitung der optimalen Kombination der Inputfaktoren Die kostenminimierende Faktormengenkombination kann über eine Lagrange-Funktion auch analytisch abgeleitet werden. Die Kostenfunktion
Kgu = p2X2 + p3X3 soll unter der Bedingung minimiert werden, dass ein gegebenes Produktionsvolumen nur mit einer bestimmten, technisch effizienten Produktionsfunktion erreicht werden kann. Demnach muss die Kostenfunktion unter der Nebenbedingung eines gegebenen Produktionsvolumens und einer gegebenen Produktionsfunktion minimiert werden. Wird bei der Produktionsfunktion X1 = X1(X2, X3) ein Produktionsvolumen von X1 unterstellt und wird die Produktionsfunktion nach Null umgestellt, nimmt die Nebenbedingung die für die Lagrange-Funktion notwendige Form von X1 − X1(X2, X3) = 0
an. Die zu minimierende Lagrange-Funktion lautet dann:21
[
]
L = p2X2 + p3X3 + λ ⋅ X1 - X1(X2, X3)
Wird die Langrange-Funktion nach X2 , X3 und λ abgeleitet und werden die partiellen Ableitungen gleich Null gesetzt, folgt: (2.4.17)
∂L ∂ X1 = p2 − λ =0 ∂ X2 ∂ X2
(2.4.18)
∂L ∂ X1 = p3 − λ =0 ∂ X3 ∂ X3
(2.4.19)
∂L = X1 − X1(X2, X3) = 0 ∂λ
Wird bei den Gleichungen (2.4.17) und (2.4.18) λ isoliert und werden die dadurch gewonnenen Gleichungen gleichgesetzt, ergibt sich als kostenminimale Bedingung das uns schon bekannte Ergebnis:
∂ X1 dX1 ∂ X2 = dX3 p2 p3 21
Auf die hinreichende Bedingung für die Existenz eines Minimums gehen wir hier nicht ein. Bei Produktionsfunktionen vom Cobb-Douglas-Typ ist diese Bedingung stets erfüllt.
70
Neoklassische Mikroökonomie
Auf dieser Basis lässt sich im Kontext des neoklassischen Ansatzes das Nachfrageverhalten eines Unternehmens nach Produktionsfaktoren erklären. Die sich spontan aufdrängende Vermutung, dass ein Unternehmen bei sinkenden Preisen eines Inputfaktors bei ansonsten unveränderten Bedingungen diesen Faktor stärker einsetzt, wird bestätigt. In Abbildung 2.4.12 gehen wir von der Faktorkombination B aus, die durch die Isokostenkurve IG2 gekennzeichnet ist und die Produktion von X1 erlaubt. Eine Preissenkung des Faktors X2 führt ceteris-paribus zu einer steileren Isokostengeraden – die Isokostengerade dreht sich um den Punkt C nach oben, und wir erhalten die Isokostengerade IG3 . Es entsteht durch die Preissenkung des Inputgutes X2 eine neue Schar von Isokostengeraden, die steiler verläuft. Aus dieser neuen Schar von Isokostengeraden haben wir die eingezeichnet, welche die Isoquante zur Produktion von X1 tangiert. Es ist die (gepunktete) Gerade IG1 . Die Minimalkostenkombination liegt nun nicht länger im Punkt B, sondern im Punkt A. Im Vergleich zur Situation vor der Preissenkung des Inputs X2 wird nun mehr von X2 und weniger von X3 eingesetzt. Gleichzeitig kann der gleiche Output mit einer insgesamt geringeren Kostensumme produziert werden. Natürlich hätte man dank der neuen Faktorkosten auch bei den alten Gesamtkosten den Output erhöhen können. Wir werden später auf diesen Gedanken bei der neoklassischen Ableitung der Nachfrage nach Arbeit und Kapitalgütern seitens der Unternehmen zurückkommen. Zunächst wenden wir uns der Frage zu, wie aus den Minimalkostenkombinationen Kostenfunktionen abgeleitet werden.
Abbildung 2.4.12: Die Reaktion eines Unternehmens bei Preisänderungen von Inputs X2
IG3 X 12
IG1 A IG2 B
X 02
X1
C X 30
X 13
X3
2.4.5 Gesamtkostenfunktionen Der zu maximierende Gewinn besteht aus Erlösen minus Gesamtkosten. Während die Erlösfunktion bereits behandelt wurde, fehlt noch die Ableitung der Kostenfunktion. Bei gegebenen Inputpreisen hängt die Gesamtkostenfunktion eines Unternehmens von dessen Technologie, also dessen Produktionsfunktion ab. Offensichtlich gibt es dann so viele Kostenfunktionen wie es unterschiedliche Produktionsfunktionen gibt. Um nicht vor „lauter Bäumen den Wald aus den Augen zu verlieren“, soll es nunmehr darum gehen, typische Kostenfunktionen abzuleiten. Zunächst soll gelten, dass alle Inputfaktoren variabel sind. In diesem Fall können wir auf die Ergebnisse der vorangegangenen Analyse von Skalenerträgen zurückgreifen. Bei konstanten Skalenerträgen liegen die Isoquanten bei gleichen Zunahmen der produzierten Mengen in gleichen Abständen voneinander, da in diesem Fall zwischen der Zunahme der Inputs und der Zunahme des Outputs eine lineare Beziehung besteht. Folglich gibt es
Neoklassische Mikroökonomie
71
auch eine lineare Beziehung zwischen den Gesamtkosten und der Zunahme des Outputs. In Abbildung 2.4.13, die die konstante Skalenerträge ausdrückt, ist somit der Abstand zwischen der Isoquante X1 = 20 und der Isoquante X1 = 30 genau gleich dem Abstand zwischen der Isoquante X1 = 30 und der Isoquante X1 = 40. Die Isokostengerade K1gu zur Produktion des Gutes X1 muss somit ebenfalls die gleiche Entfernung zur Isokostengerade K 2gu haben wie die Entfernung der Isokostengeraden K 2gu zur Isokostengeraden K 3gu .
Abbildung 2.4.13: Minimalkostenkombinationen bei konstanten Skalenerträgen
X2
X1 = 60 X1 = 40
X1 = 20
K1gu = 30
2 K gu = 60
K 3gu = 90 X3
Zur Gesamtkostenfunktion gelangt man, wenn die Kostensummen, die zu den jeweiligen Minimalkostenkombinationen gehören, mit den Produktionsvolumina der entsprechenden Minimalkostenkombinationen in Verbindung gebracht werden. Bei konstanten Skalenerträgen ergibt sich eine lineare Gesamtkostenfunktion.
72
Neoklassische Mikroökonomie
Abbildung 2.4.14: Gesamtkostenkurve bei konstanten Skalenerträgen Kgu K 3gu =
Kgu
90
2 = 60 K gu
K1gu = 30
20
40
60
X1
Die Abstände der Isoquanten bei gleichen Produktionszuwächsen sind nur bei konstanten Skalenerträgen gleich. Bei steigenden Skalenerträgen nimmt der Abstand der Isoquanten bei gleicher Zunahme der Produktion ab. Darin kommt zum Ausdruck, dass aufgrund der Vorteile der Massenproduktion die Inputs langsamer ansteigen als die Outputs. Eine entsprechende Isoquantenschar sowie die sich daraus ergebende Minimalkostenkombinationen zeigt Abbildung 2.4.15.
Abbildung 2.4.15: Minimalkostenkombinationen bei steigenden Skalenerträgen
X2
X1 = 20
X1 = 60 X1 = 40 K1gu =30
2 K gu =40
K 3gu =45 X3
Neoklassische Mikroökonomie
73
Abbildung 2.4.16: Gesamtkostenkurve bei steigenden Skalenerträgen Kgu
K 3gu = 45 2 K gu
Kgu
= 40
K1gu = 30
20
40
60
X1
Folgerichtig erhöhen sich die Gesamtkosten bei steigenden Skalenerträgen unterproportional. Eine entsprechende Gesamtkostenfunktion ist in Abbildung 2.4.17 angegeben. Bei sinkenden Skalenerträgen rutschen die Isoquanten bei gleichen Produktionszuwächsen immer weiter auseinander, da in diesem Fall für weitere Outputeinheiten laufend größere Inputs notwendig werden. Auf eine separate Abbildung haben wir verzichtet. Abbildung 2.4.17 gibt unmittelbar eine Gesamtkostenkurve an, die aus sinkenden Skalenerträgen resultiert. Die drei bisher abgeleiteten Gesamtkostenkurven gelten langfristig, da nur über längere Zeiträume ein Unternehmen alle Inputfaktoren variabel einsetzen kann. Bei Kostenkurven, die auf der Grundlage von Skalenerträgen abgeleitet werden, wird von fixen Kosten, also von Kosten, die unabhängig vom Produktionsvolumen anfallen, abgesehen. Der Grund liegt darin, dass fixe Kosten dann ihre ökonomische Relevanz verlieren, wenn der betrachtete Zeitraum entsprechend lang ist. Nehmen wir als Beispiel die Mietkosten. Kurzfristig wird ein Unternehmen sie selbst dann bezahlen müssen, wenn der Produktionsumfang nicht ausreicht, die Raumkapazitäten auszulasten. Die Mietkosten haben in diesem Fall den Charakter von Fixkosten. Längerfristig wird das Unternehmen die Gewerberäume an den Produktionsumfang anpassen, so dass die Mietkosten nun als variabel anzusehen sind. Da langfristig alle Inputs variierbar sind, sind bei entsprechendem Zeithorizont alle Kosten variabel. Wir werden später sehen, dass die Gesamtkostenkurven, die sich aus der Skalenbetrachtung ergeben, für Unternehmen bei der Wahl der gewünschten Kapazität (Menge der langlebigen Kapitalgüter wie Gebäude oder Maschinen) eine entscheidende Rolle spielen.
74
Neoklassische Mikroökonomie
Abbildung 2.4.17: Gesamtkostenkurve bei fallenden Skalenerträgen Kgu Kgu
K 3gu
2 K gu
K1gu 20
40
60
X1
Fixe Kosten treten nur auf, wenn es Produktionsfaktoren – vor allem natürlich langlebige Produktionsmittel – gibt, deren Bestand ein Unternehmen kurzfristig nicht dem gewünschten Produktionsvolumen anpassen kann. Bei Änderungen des Produktionsvolumens werden dann allmählich die gegebenen Bestände an Maschinen, Gebäuden etc. mehr oder weniger stark ausgelastet. Unternehmen werden in kurzer Frist jene Inputfaktoren variieren, die auch kurzfristig beeinflussbar sind. Typisch dafür ist die Variation des Faktors Arbeit bei einem gegebenen, von „heute auf morgen“ nicht veränderbaren Bestand an langlebigen Kapitalgütern. Offensichtlich führt man im beschriebenen Fall eine partielle Faktorvariation durch, bei der der Inputfaktor Arbeit als Einziger variiert wird. Gilt das Gesetz abnehmender Grenzerträge bei der Erhöhung eines Inputfaktors und der Konstanz aller anderen – es sei daran erinnert, dass dieses Gesetz bei steigenden Skalenerträgen nicht gelten muss – dann ergibt sich die uns schon bekannte Beziehung zwischen dem Output X1 und dem Inputgut X2 . In Abbildung 2.4.18 ist der Zusammenhang dargestellt, wobei im Vergleich zu früheren Darstellungen nur die Achsenbezeichnungen vertauscht wurden, der Inputfaktor nun also auf der Ordinatenachse abgetragen wird. Die neue Kurve kann als Faktorverbrauchsfunktion bezeichnet werden.
Abbildung 2.4.18: Die Faktorverbrauchsfunktion X2 (Inputgut)
(
X 2 = X 2 X1,X I1,X 3, ... X n
)
X1 (Outputgut)
Neoklassische Mikroökonomie
75
Bei einer partiellen Faktorvariation gelangen wir denkbar einfach zur Kostenfunktion. Zunächst gibt es fixe Kosten, die die Kosten der konstant gehaltenen Inputfaktoren ausdrücken. Wird ausschließlich das Inputgut X2 variiert, dann ergeben sich die fixen Kosten eines Unternehmens (Kfu) durch die Kosten des Inputs aller anderen Güter: (2.4.20)
Kfu = XI1p1 + X3p3+...+ Xnpn.
Die variablen Kosten, also jene, die produktionsabhängig sind, ergeben sich, wenn die Faktorverbrauchsfunktion des variablen Inputgutes X2 mit dessen Preis p2 multipliziert wird. Nimmt p2 den Wert von eins an, dann ist der Verlauf der variablen Kosten identisch mit dem Verlauf der in Abbildung 2.4.18 eingezeichneten Faktorverbrauchskurve. Ist p2 größer als eins, dann ist die Kostenkurve steiler als die Faktorverbrauchskurve; ist p2 kleiner als eins, dann ist die Kostenkurve flacher. Da alle Preise für Unternehmen bei vollständiger Konkurrenz ein Datum sind, ergeben sich unter der Bedingung abnehmender Grenzerträge in jedem Fall überproportional ansteigende variable Kosten. Bei der Existenz von fixen Kosten lassen sich die Gesamtkosten eines Unternehmens als (2.4.21)
Kgu = Kfu + Kvu
notieren, mit Kvu als variable Kosten. Der Verlauf der Gesamtkostenkurve, der sich aus der partiellen Faktorvariation und der Unterstellung des Ertragsgesetzes ergibt, ist in Abbildung 2.4.19 ersichtlich. Abbildung 2.4.19: Gesamtkostenkurve bei partieller Faktorvariation
Kgu
Kgu = Kfu + Kvu
Kfu X1
76
Neoklassische Mikroökonomie
2.4.6 Güterangebot bei gegebenen Kapazitäten Fragestellung Wie maximiert ein Unternehmen die Gewinne bei gegebenen Produktionskapazitäten? Welche Kostenarten gibt es und wie entwickeln sie sich bei gegebenen Kapazitäten? Wie werden individuelle und aggregierte Angebotsfunktionen abgeleitet? Verkaufs- und Inputpreise sind bei vollständiger Konkurrenz bekanntlich ein Datum. Das Gewinnmaximum eines Unternehmens wird somit über die gewinnmaximale Produktionsmenge bestimmt. Die Gewinnfunktion eines Unternehmens, das Gut X1 produziert, ist durch (2.4.21)
Qu(X1) = Eu (X1) - Kgu (X1)
gegeben. Erlöse, Gesamtkosten und Gewinne sind von der produzierten Menge abhängig. Bei einer kurzfristigen Analyse bzw. gegebenen Kapazitäten kann das Ertragsgesetz Plausibilität für sich beanspruchen. Wir wollen somit im Folgenden die Gültigkeit des Ertragsgesetzes unterstellen und eine überproportional steigende Kostenkurve mit Fixkosten unterstellen. Dies entspricht einer Situation, bei der ein Bestand an langlebigen Kapitalgütern gegeben ist und der Arbeitseinsatz oder andere kurzfristig variable Inputgüter flexibel angepasst werden. In Abbildung 2.4.20 sind die bereits bekannte Erlösfunktion sowie die hier unterstellte Gesamtkostenfunktion eingetragen. Im unteren Teil der Abbildung werden die Konsequenzen für die Gewinnentwicklung sichtbar gemacht. Der Gewinn ist definiert als Erlöse minus Gesamtkosten. Die Gewinnzone beginnt bei dem Produktionsvolumen X11 , da erst ab dieser Produktionsmenge die Erlöse die Gesamtkosten decken. Man spricht hier vom unteren Break-Even-Punkt. Die Gewinne steigen dann auf ihr Maximum bei X1 * . Bei dieser Produktionsmenge ist die Differenz zwischen der Erlös- und der Kostenkurve am größten. Die überproportional steigenden Gesamtkosten fressen bei einer weiteren Produktionsausdehnung den Gewinn auf, so dass nach der produzierten Menge X12 – dem oberen Break-Even-Punkt – Verluste realisiert werden. Das Unternehmen wird somit zur Gewinnmaximierung die Produktionsmenge X1 * wählen. Bei dieser Menge befindet es sich in seinem Gleichgewicht. Die Begrenzung des Produktionsvolumens erfolgt in diesem Fall durch die steigende Gesamtkostenkurve, die durch gegebene Kapazitäten dominiert wird. Andere Kostenverläufe führen, was noch zu zeigen sein wird, zu gänzlich anderen Ergebnissen.
Neoklassische Mikroökonomie
77
Abbildung 2.4.20: Erlös-, Kosten- und Gewinnfunktion bei fixen Kosten und überproportional steigenden Gesamtkosten Eu, Kgu Kgu = Kfu + Kvu(X1)
Eu = Eu(X1)
Qu
Kfu X1 Qu
Qu = Qu(X1)
X 11
X1*
X 12
X1
Die gewinnmaximale Produktionsmenge kann über eine zweite Methode bestimmt werden. Die Gewinnfunktion (2.4.21) kann nach der Produktionsmenge abgeleitet werden, um die gewinnmaximale Outputmenge zu finden. Die Gewinnfunktion in der Abbildung 2.4.20 hat dann ihr Maximum, wenn ihre Steigung Null ist. Genau diesen Punkt finden wir, wenn die erste Ableitung der Gewinnfunktion gebildet wird und diese dann Null gesetzt wird. Bei einem Maximum nimmt die Steigung der Funktion erst ab, wird Null und dann negativ. Bei einem Gewinnmaximum muss deshalb die zweite Ableitung der Gewinnfunktion negativ sein. Wäre die zweite Ableitung positiv, läge ein Verlustmaximum vor. Wir unterstellen folgend vereinfachend die zweite Ableitung der Gewinnfunktion immer als negativ und damit ein Gewinnmaximum, ohne diese Bedingung immer zu überprüfen. Wird die erste Ableitung aufgrund der Maximierung Null gesetzt, erhält man: (2.4.22)
dQu dEu dKgu = − =0 dX1 dX1 dX1
Daraus folgt: (2.4.23)
dEu dKgu = dX1 dX1
78
Neoklassische Mikroökonomie
dEu ) – also der Erlös der zuletzt produzierten und verdX1 dKgu kauften Gütereinheit – den Grenzkosten (Kgru = ) – also die Kosten der zuletzt verkauften GüdX1 tereinheit – entsprechen.
Im Gewinnmaximum müssen die Grenzerlöse (
Bei vollständiger Konkurrenz ist der Preis des verkauften Gutes ein Datum. Die Ableitung der ErlösdEu funktion entspricht in diesem Fall dem Preis des verkauften Gutes, so dass gilt = p1 . Damit kann dX1 Gleichung (2.4.23) präzisiert werden, denn bei vollständiger Konkurrenz gilt als Gewinnmaximierungsbedingung auch: (2.4.24)
p1 =
dKgu dX1
Untersuchen wir zunächst die Grenzkosten. Bei dem in Abbildung 2.4.20 unterstellten Verlauf der Gesamtkosten ergeben sich permanent steigende Grenzkosten, die im unteren Teil der Abbildung 2.4.21 eingezeichnet sind. In der Abbildung sind zusätzlich die Stückkosten bzw. Durchschnittskosten (Kdu) eingetragen, die sich ergeben, wenn die Gesamtkosten durch die produzierte Menge dividiert werden. Es gilt somit: Kdu =
Kgu X1
Geometrisch ergeben sich die Stückkosten bei jeder Produktionsmenge durch die Steigung des Fahrstrahls aus dem Ursprung an die jeweilige Gesamtkostenkurve (vgl. Abbildung 2.4.21). Es ist erkennbar, dass der Fahrstrahl am Punkt B die niedrigste Steigung von allen anderen möglichen hat. Folglich ist bei dieser Produktionsmenge das Minimum der Stückkosten erreicht. Bei den Fahrstrahlen an die Punkte A bzw. C liegen jeweils höhere Stückkosten vor. Zieht man einen Fahrstrahl aus dem Ursprung des Koordinatenkreuzes an jeden Punkt der Gesamtkostenkurve, dann nimmt die Steigung dieses Strahls mit steigender Produktion erst ab, um dann zu steigen. Die ökonomische Begründung für den U-förmigen Verlauf der Stückostenkurve liegt an der Wirkung zweier gegenläufiger ökonomischer Effekte. Der erste Effekt ist der Verlauf der durchschnittlichen Fixkosten. Diese sind als Fixkosten dividiert durch die produzierte Menge definiert sind. Mit Kfdu als durchschnittliche Fixkosten gilt somit:
Kfdu =
Kgu X1
Der fallende Ast der Stückkosten in Abbildung 2.4.21 ergibt sich aufgrund der Verteilung der Fixkosten auf mehr produzierte Outputeinheiten. Dabei fallen die Stückkosten zunächst sehr stark und bei steigender Produktionsmenge immer geringer. Betragen die Fixkosten 100 Euro und wird ein Stück produziert, dann betragen die durchschnittlichen Fixkosten 100 Euro. Bei zwei produzierten Stücken sinken sie schon auf 50 Euro und bei vier auf 25 Euro. Werden 100 Stück produziert fallen die durchschnittlichen Fixkosten auf 1 Euro, wobei eine weitere Produktionseinheit die durchschnittlichen Fixkosten nur noch marginal weiter absenkt. Dieser Tendenz zu fallenden Stückkosten stehen jedoch die permanent steigenden Grenzkosten gegenüber, deren Einfluss ab einer bestimmten Produktionsmenge den fallenden Trend der durchschnittlichen Fixkosten überkompensiert. Solange die Grenzkosten unter den Stückkosten liegen, führt jede Produktionsausweitung zu sinkenden Stückkosten, liegen die Grenzkosten über den Stückkosten, so führt jede Produktionsausweitung zu steigenden Stückkosten. Das Minimum der Stückkosten ist somit im beschriebenen Fall dann erreicht, wenn die Grenzkosten die Stückkosten schneiden. In diesem Fall wird der Fahrstrahl aus dem Ursprung an die Gesamtkosten-
Neoklassische Mikroökonomie
79
kurve zur Tangente der Gesamtkostenkurve, was nichts anderes bedeutet, als dass Durchschnitts- und Grenzkosten den gleichen Wert annehmen (vgl. die Punkte B in der Abbildung 2.4.21).
Abbildung: 2.4.21: Entwicklung der Grenz- und Stückkosten sowie durchschnittlichen Fixkosten und durchschnittlichen variablen Kosten Kgu
Kgu C
K1gu
B
A
X1 Kdu Kfdu
Kdu Kvdu
Kgru
C
A
B
X10
X11
X12
X1
In die Abbildung 2.4.21 sind auch die variablen Stückkosten Kvdu eingetragen, die sich für ein Unternehmen u durch die Division der der variablen Kosten durch die Outputmenge ergeben. Sind die variablen Stückkosten Kvdu, dann gilt:
K vdu =
K vu X1
Die variablen Stückkosten steigen in der Abbildung 2.4.21 permanent an, da auch die Grenzkosten permanent ansteigen. Allerdings müssen die variablen Stückkosten langsamer ansteigen als die Grenzkosten, da in den variablen Stückkosten die zunächst noch geringen Kosten zur Produktion des Outputgutes enthalten sind. Die Entwicklung der variablen Stückkosten lässt sich durch einen Fahrstrahl vom Beginn der Fixkostenkurve an der Ordinate an den jeweiligen Punkt auf der Gesamtkostenkurve erkennen. Man sieht, dass ein solcher Fahrstrahl mit steigender Produktion immer steiler wird. Die variablen Stückkosten und die durchschnittlichen Fixkosten ergeben zusammen die Stückkosten. Da
80
Neoklassische Mikroökonomie
die durchschnittlichern Fixkosten immer kleiner werden, schmiegt sich die Kurve der variablen Stückkosten an die Stückkostenkurve an, ohne diese jedoch zu berühren. Die gewinnmaximale Produktionsmenge ergibt sich – wie betont – beim Schnittpunkt der Grenzkostenkurve mit der Grenzerlösgerade, wobei letztere dem Verkaufspreis entspricht. In Abbildung 2.4.22 ist die gewinnmaximale Produktionsmenge bei X1 * gegeben, denn bei dieser Produktionsmenge ist Gleichung (2.4.24) erfüllt. Wir können die Plausibilität des Ergebnisses an Abbildung 2.4.20 überprüfen. Die Steigung der Erlösfunktion wird durch p1 festgelegt. Im Gewinnmaximum hat eine Tangente an der Gesamtkostenfunktion genau die gleiche Steigung wie die Erlösfunktion, also entsprechen sich an dieser Stelle Grenzkosten und Grenzerlös. Genau wenn diese Bedingung gegeben ist, ist der Abstand zwischen der Erlös- und der Kostenfunktion am größten, werden also die Gewinne maximiert.
Abbildung 2.4.22: Grenzkosten, Stückkosten und Grenzerlös p1, Kgru, Kdu
Kgru Kdu
A
B
D
dE u = p1 dX1
C E X1 *
X1
Auch aus Abbildung 2.4.22 kann der Gesamtgewinn des betrachteten Unternehmens abgelesen werden. Im Unternehmensgleichgewicht ergibt sich der Gewinn pro Stück durch Preis minus Stückkosten, also durch die Strecke BX1 * minus der Strecke CX1 * bzw. durch die Strecke BC . Der Gesamtgewinn ermittelt sich durch Gewinn pro Stück multipliziert mit der Anzahl produzierter Stücke. Dies entspricht der Fläche mit den Eckpunkten A, B, C, D. Die horizontale Grenzerlöskurve in Abbildung 2.4.22 kann als individuelle Nachfragefunktion für ein einzelnes Unternehmen unter der Bedingung vollständiger Konkurrenz interpretiert werden. Zum gegebenen Preis p1 kann ein Einzelanbieter unendlich viel von seinem Produkt absetzen. Daher sind Preissenkungen unnötig und würden der Annahme der Gewinnmaximierung widersprechen. Würde er allerdings den Preis für sein Produkt nur ein wenig erhöhen, würde er seine gesamte Nachfrage an Konkurrenten verlieren. Rechenbeispiel einer Gewinnmaximierung bei vollständiger Konkurrenz Bei einem Gesamtkostenverlauf von 3 Kgu = 3 + X12 4
Neoklassische Mikroökonomie
81
3 2 X1 ausgedrückt, wobei die 4 hochgestellte 2 bei dem produzierten Gut X1 eine Potenz darstellen soll. Bei einer Produktion von Null entstehen Gesamtkosten in Höhe der fixen Kosten, also in Höhe von 3 €. Wird die Produktion auf X1 = 1 erhöht, so ergibt sich Kgu = 3,75 €. Bei einer Produktionsmenge von X1 = 6 gilt Kgu = 30 €, wovon Kfu = 3 € und Kvu = 27 € sind. Wird ein Verkaufspreis von p1 = 5 € angenommen, kann auch die Erlösfunktion
betragen die Fixkosten 3 € und die variablen Kosten werden durch Kvu =
Eu = 5X1
problemlos ermittelt werden. Wo liegt nun genau die gewinnmaximale Produktionsmenge, die anhand einer Grafik nur grob geschätzt werden kann. Wir wissen, dass im Gewinnmaximum die Grenzkosten den Grenzerlösen entsprechen müssen. Die Funktion der Grenzkosten ergibt sich aus der ersten Ableitung der Gesamtkostenfunktion und lautet: dKgu = 1,5 X1 dX1
Die Grenzerlöse entsprechen dem Preis von 5 €. Wird die Grenzkostenfunktion den Grenzerlösen gleichgesetzt, ergibt sich: 5=
3 X1 . 2
Das Gewinnmaximum liegt somit bei X1* = 3
1 produzierten Stücken. Wird in die Gewinnfunktion 3
3 Qu = 5X1 - 3 - X12 4
die gewinnmaximale Produktionsmenge eingesetzt, ergibt sich ein Gewinn von Qu = 5,33 €. Die Stückkosten ergeben sich im gewählten Beispiel durch Kdu =
3 3 + X1 X1 4
Sie haben ihr Minimum bei einem Wert von 2 produzierten Stück. Beim gewinnmaximalen Produktionsvolumen betragen die Stückkosten 3,4 €. Der Gewinn pro Stück beträgt 1,6 €. Wird der Gewinn pro 10 Stück mit der gewinnmaximalen Menge multipliziert, ergibt sich ebenfalls ein Gewinn von rund 3 5,33 €. Es fehlt uns noch ein kleiner Schritt, um bei dem hier unterstellten Fall einer überproportional ansteigenden Gesamtkostenkurve die vom Preis des produzierten Gutes abhängige kurzfristige individuelle Angebotsfunktion abzuleiten. Dazu ist es notwendig, einem Unternehmen unter der Ceteris-ParibusBedingung unterschiedliche Preise des produzierten Gutes vorzugeben und zu jedem Preis die gewinnmaximale Menge zu bestimmen. In Abbildung 2.4.23 sind beispielhaft drei verschiedene Preise für das produzierte Gut angegeben. Beim Preis p11 führt der Schnittpunkt der Grenzerlösfunktion bzw. der Preisgeraden mit den Grenzkosten zu der gewinnmaximalen Produktionsmenge X11 . Tragen wir p11 und X11 in ein Preis-Mengen-Diagramm ein, erhalten wir den ersten Punkt auf der individuellen Angebotskurve in der Abbildung 2.4.24. Erhöht sich der Preis auf p12 , dann bietet das Unternehmen die
82
Neoklassische Mikroökonomie
Menge X12 an. Sinkt der Preis auf p10 , wird das betrachtete Unternehmen die Produktionsmenge X10 anbieten. Auch diese Punkte sind in den Abbildungen eingetragen. Spielt man alle Preise des Gutes X1 durch, ergibt sich eine individuelle Angebotskurve. Wir sehen: Die Angebotsfunktion eines Unternehmens bewegt sich bei Preisänderungen des Outputgutes entlang der Grenzkostenkurve, deren Verlauf in unserem Fall vom Ertragsgesetz und damit von der Technologie bestimmt wird, die ein Unternehmen verwendet. Bei jedem Punkt der Angebotsfunktion entsprechen sich Grenzkosten und Grenzerlöse bzw. Grenzkosten und Preis des verkauften Gutes. Abbildung 2.4.23: Ableitung der individuellen Angebotskurve P1,Kgru,Kdu
Kgru
Kdu
p12
p11 p10
X 10
X 11
X 12
X1
Die Preis-Mengen-Kombination, die sich in Abbildung 2.4.23 beim Preis p10 ergibt, ist allerdings speziell, da hier Verkaufspreis, Grenzkosten und Stückkosten zusammenfallen. Gewinne treten bekanntlich nur auf, wenn die Stückkosten unter dem Verkaufspreis liegen. Im angegebenen Schnittpunkt der Grenzerlös-, Grenzkosten- und Stückkostenkurve sind die Gewinne folglich Null, während sie bei allen höheren Preisen positiv und bei allen niedrigeren Preisen negativ sind. Da ein Unternehmen längerfristig nur überleben kann, wenn es keine Verluste realisiert, unterstellen wir, dass die individuelle Angebotsfunktion beim Preis p10 beginnt und dann entlang des ansteigenden Astes der Grenzkostenfunktion verläuft.
Neoklassische Mikroökonomie
83
Abbildung 2.4.24: Die individuelle kurzfristige Angebotskurve bei steigenden Grenzkosten
P1 XA1u = XA1u (p1)
p12
p11 p10
X10
X11
X12
X1
Das Minimum der Stückkostenkurve bzw. der Beginn der mit einem Gewinn verbundenen kurzfristigen Angebotsfunktion wird als Betriebsoptimum bezeichnet. Optimal ist dabei nicht die Gewinnsituation eines Unternehmens, sondern die Tatsache, dass das Unternehmen bei gegebenen Kapazitäten im Betriebsoptimum mit den geringsten Stückkosten produziert. Sehr kurzfristig wird ein Unternehmen auch zu einem Preis unter p10 Güter anbieten, wenn es dadurch seine Verluste vermindern kann. Dies ist immer dann der Fall, wenn der Preis noch über den durchschnittlichen variablen Kosten liegt. Denn dann bleibt zwischen Preis und variablen Stückkosten eine Spanne, um einen Teil der durchschnittlichen Fixkosten und damit der gesamten Fixkosten zu decken. In diesem Fall würde jedes verkaufte Stück einen Deckungsbeitrag zu den Fixkosten leisten und die Verluste reduzieren. Abbildung 2.4.24 zeigt eine typische kurzfristige individuelle Angebotsfunktion des Unternehmens u für das Gut X1 . Bewegungen auf der Kurve werden durch Veränderungen des Preises des betrachteten Gutes ausgelöst. Allgemeiner ist die Angebotsfunktion von Gut 1 durch das Unternehmen u durch (2.4.25)
XA1u = XA1u(p1, p2, K, pn, X1 [XI1, K, Xn ])
gegeben, wobei nur p1 variabel ist. Alle anderen Preise (p 2, K , pn) und die Produktionsfunktion X1 [XI1, K , Xn ]bleiben unverändert. Unterstellt sind gegebene Kapazitäten, welche bei der Gültigkeit des Ertragsgesetzes die Grenzkosten ansteigen lassen. Vereinfacht kann die individuelle Angebotsfunktion des Gutes X1 auch durch XA1u = XA1u(p1) ausgedrückt werden.
Bislang wurden die ökonomischen Kalküle der Unternehmen aus einer individuellen Perspektive abgeleitet. Nunmehr soll – analog zur Haushaltstheorie – die Aggregation der einzelnen Angebotskurven dargestellt werden. Da wir in unserem Modell vollständiger Konkurrenz auch vollständige Information unterstellen, ergibt sich, dass alle Unternehmen in einer Branche mit der gleichen effizienten Technologie arbeiten und die gleichen individuellen Angebotsfunktionen haben. Durch die Aggregation der individuellen Angebotskurven lässt sich die Angebotskurve für den betrachteten Gütermarkt entwickeln. Das Verfahren wird in Abbildung 2.4.25 beispielhaft für zwei Unternehmen dargestellt, wobei das Gut X1 Eier sind und die Angebotsfunktion nur bis zum Preis von 0,4 € dargestellt wird. Unter 0,1 € kommt es zu keinem Angebot. Beim Preis von 0,1 € werden von jedem Unternehmen 10 Eier, bei
84
Neoklassische Mikroökonomie
einem Preis von 0,2 € 15 Eier und bei einem Preis von 0,4 € 25 Eier angeboten. Die aggregierte Angebotsfunktion beginnt folglich bei einem Preis von 0,1 € und einer angebotenen Menge von 20 Eiern. Beim Preis von 0,2 € bieten beide zusammen 30 Eier an und beim Preis von 0,4 € werden zusammen 50 Eier angeboten. Jeder Punkt auf der aggregierten kurzfristigen Angebotskurve repräsentiert Gleichgewichtslagen zwischen dem Marktpreis des hergestellten Gutes einerseits und den Grenzkosten der Unternehmen andererseits. Auf jedem Punkt der Angebotsfunktionen befindet sich somit jedes Unternehmen im Gewinnmaximum bzw. im individuellen Gleichgewicht. Abbildung 2.4.25 Aggregation individueller, kurzfristiger Angebotskurven
Anbieter (a) Preis pro Ei 0,6
Anbieter (b) Preis pro Ei 0,6
0,4
0,4
0,2
0,2
0,1
0,1 10
20
10
20
Eier
25
10
Angebot von (a) und (b) Preis pro Ei 0,6
0,4
0,2 0,1 30
40
50
Eier
Die aggregierte Angebotsfunktion für das Gut X1 ergibt sich dann durch
(2.4.26)
XA1 = XA1(p1, p2, K, pn, X1 [XI1, K, Xn ], Z)
20
25
Eier
Neoklassische Mikroökonomie
85
Die Lage der Funktion bestimmen die konstant gesetzten Preise p 2, K , pn und die in der Branche benutzte Produktionsfunktion X1 [XI1, K , Xn ] bei gegebenen Kapazitäten. Eine Rolle spielt ebenfalls die Anzahl der in der Industrie produzierenden Unternehmen, die wir durch z ausdrücken. Wir unterstellen, dass alle Unternehmen mit der gleichen Technologie und damit identischen Produktionsfunktion arbeiten. Würden wir diese Annahme lockern, so würde die Produktionsfunktion in der Gleichung (2.4.26) als Symbol aller z Produktionsfunktionen in der Industrie stehen. Verschiebungen der Funktion kommen zustande, wenn sich einer der Lageparameter verändert. Wird z. B. eine Produktionsfunktion mit einer höheren technologischen Effizienz angenommen, verschiebt sich die aggregierte Angebotsfunktion nach rechts. Dies ist ebenfalls der Fall, wenn mehr Unternehmen in der Industrie produzieren. Steigen die Preise von Inputfaktoren, dann verschiebt sich die Angebotsfunktion ebenfalls nach rechts. Erhöht sich beispielsweise der Ölpreis, so werden sich letztlich auch die Produktionskosten von Eiern erhöhen, da die Futtermittelpreise für Hühner und Transportkosten ansteigen. Eine bestimmte Eiermenge wird dann nur zu steigenden Preisen angeboten werden können. Vereinfacht und bei Konstanz aller Lageparameter kann die aggregierte Angebotsfunktion verkürzt durch (2.4.27)
XA1 = XA1(p1)
ausgedrückt werden. Kernpunkte Bei einer kurzfristigen Analyse bei gegebenen Kapazitäten ergeben sich fixe Kosten, die unabhängig vom Produktionsvolumen sind, und variable Kosten, die vom Produktionsvolumen abhängen. Bei der Gültigkeit des Ertragsgesetzes steigen die Gesamtkosten überproportional an. Unter den gemachten Annahmen steigen die Grenzkosten und die variablen Stückkosten mit steigendem Produktionsvolumen, während die durchschnittlichen Fixkosten fallen. Daraus folgt, dass die Stückkosten eine U-Form annehmen, also erst fallen und dann steigen. Im Minimum der Stückkosten, dem Betriebsoptimum, schneidet die Grenzkostenkurve die Stückkostenkurve. Ein Unternehmen maximiert die Gewinne, wenn Grenzerlöse und Grenzkosten den gleichen Wert annehmen (unterstellt die zweite Ableitung der Gewinnfunktion ist negativ). Bei vollständiger Konkurrenz sind die Grenzerlöse gleich dem Preis, so dass im Gewinnmaximum Preis gleich Grenzkosten gilt. Die individuelle Angebotsfunktion bei gegebenen Kapazitäten beginnt im Betriebsoptimum, in dem die Gewinne eines Unternehmens Null sind, und wandert dann bei steigenden Preisen entlang der Grenzkostenfunktion. Die aggregierte Angebotsfunktion ergibt sich durch die Aggregation der individuellen Angebotsfunktionen. 2.4.7 Wahl der Kapazität eines Unternehmens und langfristiges Angebot Fragestellung Wie sehen die langfristigen Stückkostenkurven bei unterschiedlichen Skalenerträgen aus? Welche langfristigen Angebotskurven ergeben sich bei unterschiedlichen Skalenerträgen? Üblicherweise wird angenommen, dass Angebotskurven von links unten nach rechts oben steigend verlaufen. Dieser scheinbar völlig plausible Verlauf ist bei langfristiger Betrachtung keinesfalls so plausibel, wie es auf den ersten Blick scheint. Daher wenden wir uns nun der Frage zu, wodurch Verläufe der Angebotskurven langfristig bestimmt werden. Dabei werden wir auch die Wahl der Produkti-
86
Neoklassische Mikroökonomie
onskapazitäten von Unternehmen untersuchen. Diese Wahl wiederum wird von den verschiedenen Skaleneffekten bestimmt. Es wurde oben gezeigt, dass es bei einer langfristigen Betrachtung keine fixen Kosten gibt und drei typische Verläufe der Gesamtkosten möglich sind: unterproportional ansteigende Kosten bei steigenden Skalenerträgen, proportional ansteigende Kosten bei konstanten Skalenerträgen und überproportional ansteigende Kosten bei fallenden Skalenerträgen. Beginnen wir mit dem Fall steigender Skalenerträge und der entsprechenden langfristigen unterproportional steigenden Gesamtkostenkurve (vgl. Abbildung 2.4.15 in Kapitel 2.4.5). Bei unterproportional steigenden Gesamtkosten fallen Grenzkosten und Stückkosten mit der Ausdehnung der Produktion, wobei die Grenzkosten schneller fallen als die Stückkosten. In Abbildung 2.4.26 ist die entsprechende langfristige Stückkostenkurve Kdlu eines Unternehmens u angegeben. Gleichzeitig sind in der Abbildung drei verschiedene kurzfristige Stückkostenkurven eingezeichnet, wobei unterstellt wird, dass kurzfristig das Ertragsgesetz auch bei steigenden Skalenerträgen gilt. Bei den kurzfristigen Kurven wird angenommen, dass die Kapazitäten kurzfristig nicht ausdehnbar sind, beispielsweise weil zusätzliche Investitionen als Reflex auf eine gestiegene Nachfrage Zeit in Anspruch nehmen. Hat ein Unternehmen eine bestimmte Kapazität gewählt, dann sind damit kurzfristig gegebene Fixkosten verbunden, welche den typischen kurzfristigen Kostenverlauf erzeugen. Erhöht das Unternehmen die Kapazität, dann sinken die langfristigen Stückkosten. Jedoch ist mit jeder Kapazität eine spezifische kurzfristige Stückkostenkurve verbunden. Wenn Kapazitäten kontinuierlich und mit kleinen Veränderungen variiert werden können, ergibt sich eine große Zahl von kurzfristigen Stückkostenkurven. Die langfristige Stückkostenkurve kann dann als die von unten Umhüllende der kurzfristigen Stückkostenkurven interpretiert werden.
Abbildung 2.4.26: Langfristige und kurzfristige Stückkosten bei steigenden Skalenerträgen Kdu Kdk1u
Kdk2u Kdk3u
X11
X12
X13
Kdlu X1
In Abbildung 2.4.27 sind die für steigende Skalenerträge typischen Gesamtkosten sowie die Erlösgerade unter der Prämisse vollständiger Konkurrenz angegeben. Hier beginnt die Gewinnzone erst bei der Produktionsmenge X11 , da bei dieser Produktionsmenge die Stückkosten auf den Preis gesunken sind. Danach öffnet sich die Gewinnschere. Unter den Prämissen vollständiger Konkurrenz liegt das Gewinnmaximum im Unendlichen. Gibt es beim gegebenen Marktpreis irgendeine Produktionsmenge, die zu einer Gewinnzone führt, wird ein Unternehmen zu diesem Preis unendlich viel anbieten. Eine
Neoklassische Mikroökonomie
87
mit dem Preis variierende individuelle oder aggregierte Angebotsfunktion lässt sich nicht mehr formulieren. Abbildung 2.4.27: Bestimmung der gewinnmaximalen Produktionsmenge bei steigenden Skalenerträgen (unterproportional steigenden Gesamtkosten) Eu, Kgu Eu = p1X1 Qu Kgu
X11
X12
X1
Ein gewinnmaximales Produktionsvolumen von Unendlich macht keinen Sinn, da sich dieses Ergebnis mit der Annahme gegebener Preise und reiner Mengenanpassung nicht verträgt.22 Es ist nicht davon auszugehen, dass ein Unternehmen eine unendliche Menge produzieren kann und auf keine Nachfrageprobleme nach seinem Produkt stößt. Ein expandierendes Unternehmen wird vielmehr früher oder später durch einen Mangel an Nachfrage in seinem Wachstum begrenzt, was der Annahme der Mengenanpassung widerspricht. Noch unsinniger ist die Annahme, dass nicht nur ein Unternehmen, sondern alle Unternehmen im Markt ihre Kapazitäten und ihre Menge unendlich ausdehnen, sobald ein Preis einen Gewinn erlaubt. Steigende Skalenerträge sind mit vollständiger Konkurrenz nicht vereinbar. Ökonomisch lässt sich dies leicht begründen. Große Unternehmen können bei steigenden Skalenerträgen mit langfristig niedrigeren Stückkosten produzieren als kleine Unternehmen. Steigende Skalenerträge führen zur Herausbildung von Oligopolen (Märkten mit wenigen Unternehmen) oder Monopolen (Märkten mit nur einem Anbieter). Bei steigenden Skalenerträgen können Unternehmen, die beim Wachstum die Nase vorne haben, andere Unternehmen auskonkurrieren, die noch relativ wenig produzieren und daher vergleichsweise hohe Stückkosten haben. Unternehmen in oligopolistischen und monopolistischen Märkten sind in der Regel vor Neueinsteigern in den Markt geschützt, da diese nur wettbewerbsfähig sind, wenn sie sofort ein großes Produktionsvolumen erzielen können. Letzteres erfordert einen großen Kapitalbedarf und die schnelle Eroberung eines hohen Marktanteils. Beides ist für Unternehmen nur schwierig zu realisieren. Die Größe von Unternehmen kann im Falle steigender Skalenerträge nicht allgemein bestimmt werden und hängt vor allem nicht allein von den Kosten bei einem gegebenen Preis ab. In allen Industrien, die durch oligopolistische oder monopolistische Strukturen geprägt sind, sind steigende Skalenerträge in relevantem Umfang zu vermuten. Bei oligopolistischen und monopolistischen Märkten gibt es keine individuellen oder aggregierten Angebotsfunktionen, die das Angebot schlicht vom Preis des produzierten Gutes abhängig machen (für den Monopolfall vgl. Kapitel 2.6) 22
Darauf hat schon Sraffa (1926) hingewiesen.
88
Neoklassische Mikroökonomie
Untersuchen wir das Angebotsverhalten eines Unternehmens bei langfristig proportional ansteigenden Kosten, die sich bei konstanten Skalenerträgen ergeben, und einer Erlösfunktion bei vollständiger Konkurrenz. So lange die Gesamtkosten die Erlöse übersteigen, unterbleibt jedes Angebot, da jede Produktion mit Verlusten verbunden wäre. Sofern allerdings die Erlösfunktion oberhalb der Gesamtkostenfunktion liegt, wird ein Unternehmen beginnen zu produzieren (vgl. Abbildung 2.4.28). Die Schere zwischen Erlösen und Gesamtkosten öffnet sich in diesem Fall bei einer Produktionsausdehnung zunehmend. Der Gewinn Qu2 beim Produktionsvolumen X12 ist höher als der Gewinn Qu1 beim Produktionsvolumen X11 . Ein gewinnmaximierendes Unternehmen wird somit seine Produktion beständig ausdehnen. Abbildung 2.4.28: Bestimmung der gewinnmaximalen Produktionsmenge bei konstanten Skalenerträgen (proportional steigenden Gesamtkosten) Kgu, Eu Eu = p1X1
Qu2
Kgu
Qu1
X 11
X 12
X1
Deutlich wird dieser Zusammenhang auch, wenn die parallel verlaufenden langfristigen Grenzerlösund Grenzkostenkurven betrachtet werden, die sich in diesem Fall ergeben (vgl. Abbildung 2.4.29). Da es langfristig keine Fixkosten gibt, sind in diesem Fall langfristige Grenz- und Stückkosten identisch. Ergibt sich als Marktpreis p10 , dann wird das individuelle Unternehmen die Produktion ohne Grenze ausdehnen. Das Gewinnmaximum liegt wie bei steigenden Skalenerträgen bei einer Produktionsmenge von Unendlich. Die individuelle Angebotsfunktion verläuft in diesem Fall parallel zur Abszisse in der Höhe des gegebenen Verkaufspreises, unterstellt der Verkaufspreis übersteigt die langfristigen Stückkosten. Beginnend mit dem Niveau der Stückkosten erzeugt jeder Preis, der über den Stückkosten liegt, eine parallel verlaufende langfristige individuelle Angebotsfunktion. Auch die aggregierte Angebotsfunktion hätte diesen Verlauf. Ein Unterschied besteht jedoch im Vergleich zum Fall steigender Skalenerträge. Bei steigenden Skalenerträgen ist der Markteintritt für neue Unternehmen schwierig, während bei konstanten Skalenerträgen auch kleine Unternehmen gegen große konkurrieren können. Bei konstanten Skalenerträgen lässt sich somit keine Tendenz zu oligopolistischen oder monopolistischen Märkten ableiten. Jedoch lässt sich auch hier die Unternehmensgröße nicht bestimmen, da jede Unternehmensgröße im Markt bestehen kann. In die Abbildung könnten auch kurzfristige Stückkostenkurven eingezeichnet werden. Diese hätten ihr Minimum, wenn sie die langfristige Stückkostenkurve tangieren. Letztere ist somit die Verbindung aller kurzfristigen Betriebsoptima.
Neoklassische Mikroökonomie
89
Abbildung 2.4.29: Die individuelle Angebotsfunktion bei konstanten Skalenerträgen p1
p10
XAlu = XAlu (p1) Kgrlu = Kdlu X1
Kommen wir zu fallenden Skalenerträgen, die eine überproportional steigende Gesamtkostenkurve implizieren (vgl. Abbildung 2.4.16). Es liegt hier ein ähnlicher Kostenverlauf vor wie bei der kurzfristigen Analyse bei Gültigkeit des Ertragsgesetzes – allerdings hier ohne Fixkosten. In Abbildung 2.4.30 sind die langfristigen Stückkosten Kdlu und die langfristigen Grenzkosten Kgrlu eines Unternehmens bei fallenden Skalenerträgen eingezeichnet. Die gewinnmaximale langfristige Produktionsmenge ergibt sich beim Schnittpunkt der langfristigen Grenzkostenfunktion mit der Grenzerlösfunktion, die dem Preis p1 entspricht. Es ergibt sich eine langfristige Produktionsmenge des Unternehmens u von X11 , die auch die optimale Kapazität des Unternehmens bei dem angenommenen Preis bestimmt. Erhöht sich der Preis, dann wird eine höhere Kapazität und ein höheres langfristiges Produktionsvolumen gewählt. Die langfristig angebotene individuelle Produktmenge steigt somit mit steigendem Preis, beginnend mit dem Minimum der Stückkosten, da bei einem Preis unter den Stückkosten kein Gewinn gemacht werden kann. Auch die aggregierte langfristige Angebotsfunktion hat diese Form, ebenfalls beginnend bei den niedrigsten Stückkosten. Kurzfristig ist eine mit dem Preis ansteigende Angebotsfunktion nicht zwingend, aber plausibel, da das Ertragsgesetz plausibel ist. Langfristig ergibt sich ein anderes Bild, da sich dann nur in dem für die meisten Produktionsprozesse wenig plausiblen Fall sinkender Skalenerträge eine mit dem Preis ansteigende Angebotsfunktion ergibt.
Abbildung 2.4.30: Bestimmung der gewinnmaximalen Produktionsmenge bei fallenden Skalenerträgen (überproportional steigenden Gesamtkosten) P1, K Kgrlu
Kdlu p1
X11
X1
90
Neoklassische Mikroökonomie
Kernpunkte Bei steigenden Skalenerträgen existiert keine mit dem Preis des Produktes ansteigende Angebotsfunktion, da bei steigenden Skalenerträgen die Annahme vollständiger Konkurrenz zusammenbricht und sich damit das Angebotsverhalten der Unternehmen verändert. Bei konstanten Skalenerträgen verläuft die langfristige Angebotsfunktion parallel zur Abszissenachse, jedoch bleibt das Modell der vollständigen Konkurrenz erhalten, da es im Vergleich zu steigenden Skalenerträgen für neue Unternehmen einfach ist, in den Markt einzutreten. Kostenvorteile großer Unternehmen existieren nicht. Eine als „typisch“ erachtete Angebotsfunktion mit steigendem Angebot eines Unternehmens bei steigenden Preisen gibt es nur bei fallenden Skalenerträgen. Auch hier löst sich selbstverständlich das Modell vollständiger Konkurrenz nicht auf, da kleine Unternehmen sogar gegenüber größeren einen Wettbewerbsvorteil haben. 2.4.8
Kritische Würdigung
Auch bei der Angebotstheorie teilen wir nicht die häufig vorgetragene Kritik, das alles sei „blutleerer Modellplatonismus“. Oftmals wird dieser Vorwurf an der Annahme der Gewinnmaximierung als alleinigem Entscheidungskalkül eines Unternehmers festgemacht. So sei ein Unternehmer durchaus auch an der Erreichung anderer Ziele interessiert – z. B. dem Freizeitwert des Standortes, der Sicherung der Arbeitsplätze „seiner“ Arbeitnehmer oder der Verdrängung eines Wettbewerbers durch Dumpingpreise. Niemand wird die empirische Relevanz dieser Einwände im Einzelfall bestreiten können. Trotzdem glauben wir, dass die methodisch überragende Bedeutung der Gewinnmaximierungsannahme ihre Berechtigung hat, da sie die Logik des Wirtschaftens in kapitalistischen Ökonomien adäquat widerspiegelt. Es existiert keine tragfähigere Annahme als die der Gewinnmaximierung, um Entscheidungen von Unternehmen modelltheoretisch zu erfassen. Unternehmen stehen in Konkurrenz zueinander, und auf Dauer wird nur jenes Unternehmen seinen Bestand sichern können, das erfolgreich – und das heißt – profitabel agiert. Sofern etwa ein Unternehmer im Interesse der Maximierung des Freizeitnutzens eine falsche, z. B. zu teure Standortentscheidung trifft läuft er Gefahr, im Wettbewerb an Boden zu verlieren und letztlich vom Markt gedrängt zu werden. Insofern wird durch das Axiom der Gewinnmaximierung nicht empirisch messbares Verhalten zu erfassen versucht, sondern es soll eine zentrale Funktionsweise von privaten Unternehmen auf Märkten erfasst werden. Insgesamt kann das oben entwickelte Instrumentarium zur Analyse von individuellen Unternehmensentscheidungen unter der Annahme vollständiger Konkurrenz aus ökonomischer Perspektive überzeugen. Selbstverständlich wird sich ein Unternehmen bei weiteren Variablen, die es beeinflussen kann, anders verhalten. In späteren Kapiteln wird in die Analyse aufgenommen, wie sich Unternehmen entscheiden, wenn sie die Preise ihres Produktes beeinflussen können. In Erinnerung zu rufen ist, dass die ökonomische Analyse eines Unternehmens nur ein Teil zum umfassenden Verständnis eines Unternehmens liefern kann. Unternehmen sind auch soziale Räume der Verwirklichung von Menschen, aber auch Ort brutaler Ausbeutung mit schlechten Arbeitsbedingungen und krankmachendem Stress. Doch liegen diese Dimensionen jenseits einer Einführung in die Volkswirtschaftslehre.
Neoklassische Mikroökonomie
91
2.5 Partielle Gütermarktgleichgewichte 2.5.1 Partielles kurzfristiges Gütermarktgleichgewicht Fragestellung Wie ergibt sich ein Gleichgewicht auf dem Markt für ein Gut bei gegebenen Produktionskapazitäten? Was können wir vom kurzfristigen Gleichgewicht auf dem Markt für ein Gut lernen? Nachdem die aggregierte Nachfrage und das aggregierte Angebot für ein Gut entwickelt wurde, kann ein Marktgleichgewicht auf einem Gütermarkt abgeleitet werden. Die Interaktion zwischen verschiedenen Märkten wird beim partiellen Gütermarktgleichgewicht nicht analysiert, noch nicht einmal die Interaktion zwischen verschiedenen Gütermärkten. Es wird somit nicht betrachtet, welche Konsequenzen sich aus der Veränderung des einen Marktes für alle übrigen Märkte ergeben und wie diese ihrerseits auf den ursprünglich betrachteten zurückwirken. Eine simultane neoklassische Lösung für alle Märkte einschließlich Produktion wird im Rahmen des walrasianischen Totalmodells dargestellt. Für den Eiermarkt haben wir mit konkreten Zahlen sowohl eine typische aggregierte Nachfragefunktion (Abbildung 2.3.12) als auch eine typische kurzfristige aggregierte Angebotsfunktion abgeleitet (Abbildung 2.4.25). In Abbildung 2.5.1 sind die beiden Funktionen gemeinsam in ein Preis-MengenDiagramm eingezeichnet. Es lässt sich leicht erkennen, dass die beiden Funktionen einen Schnittpunkt beim Preis von 0,2 € und einer Menge von 30 Eiern haben. Dieser Schnittpunkt drückt das Marktgleichgewicht auf dem hier betrachteten Markt aus.
Abbildung 2.5.1: Der Partialmarkt für Eier Preis pro Ei
0,6 Angebot
0,4 0,2
Nachfrage
10
20
30
40
50
Eier
Wir wollen das partielle Marktgleichgewicht nun allgemeiner analysieren. In Abbildung 2.5.2 wird ein Partialmarkt für eine typische Nachfrage- und eine typische kurzfristige Angebotsfunktion dargestellt. Die aggregierte Nachfragefunktion für das Gut X1 haben wir in Gleichung (2.3.18) abgeleitet, die entsprechende Angebotsfunktion in Gleichung (2.4.27). Die unzähligen Angebotspläne der Unternehmen und die unzähligen Nachfragepläne der Haushalte finden nur bei einem einzigen Preis ihre Übereinstimmung, nämlich beim Gleichgewichtspreis p1 * , der mit der Gleichgewichtsmenge X1 * einhergeht. Bei diesem Preis können alle Unternehmen ihre individuellen Güterangebote absetzen und alle Haushalte ihre individuell gewünschte Nachfrage befriedigen. Würde der Preis bei p11 liegen, läge ein Über-
92
Neoklassische Mikroökonomie
schussangebot in Höhe von X11 minus X10 vor, da bei diesem Preis das Angebot die Nachfrage bei weitem übersteigen würde. Bei einem Preis von p10 ergäbe sich eine Überschussnachfrage ebenfalls in Höhe von X11 minus X10 .
Abbildung 2.5.2: Der Partialmarkt bei steigender kurzfristiger Angebotsfunktion p1 XA1 = XA1(p1)
p11
p1∗ p10
XN1 = XN1(p1) X10
X1 *
X11
X1
Formal ergeben sich auf dem betrachteten Markt drei Unbekannte, nämlich: die gleichgewichtige Angebotsmenge XA1 * , die gleichgewichtige Nachfragemenge XN1 * und der Gleichgewichtspreis p1 * Zur Berechnung dieser drei Unbekannten stehen uns drei linear unabhängige Gleichungen zur Verfügung, nämlich: die aggregierte Angebotsfunktion XA1 = XA1(p1) , die aggregierte Nachfragefunktion XN1 = XN1(p1) und die Gleichgewichtsbedingung des Partialmarktes XA1 = XN1 . Damit lassen sich formal die drei gesuchten Variablen bestimmen. Rechenbeispiel eines Partialmarktes Die Angebotsfunktion sei XA1 = 1 + 2p1 und die Nachfragefunktion sei XN1 = 10 - 1p1 . Als Gleichgewichtsbedingung des Partialmarktes gilt XA1 = XN1 . Werden Angebots- und Nachfragefunktion in die Gleichgewichtsbedingung eingesetzt, so ergibt sich 1 + 2p1 = 10 - 1p1 . Es ergibt sich ein Preis von p1* = 3 . Wird dieser Wert in die Angebots- und Nachfragefunktion eingesetzt, können die Gleichgewichtsmengen von XA1 * und XN1 * von jeweils 7 Einheiten des Gutes X1 errechnet werden.
Neoklassische Mikroökonomie
93
Das Marktgleichgewicht in Abbildung 2.5.2 impliziert, dass der Preis des Gutes unter den hier vorgenommenen Annahmen über den Stückkosten liegt. Denn die Angebotsfunktion jedes einzelnen Unternehmens beginnt im Minimum der Stückkosten und verläuft dann oberhalb der Stückkosten. Dank dieser Kurvenverläufe ergeben sich positive Gewinne. Ob solche Gewinne auch langfristig Bestand haben, kann nur in einer langfristigen Analyse geklärt werden. Das Ergebnis hängt davon ab, ob durch Gewinne neue Unternehmen – Neugründungen oder Unternehmen aus anderen Branchen – angelockt werden und sich das Angebot erhöht. Dieser Punkt wird im nächsten Unterabschnitt näher beleuchtet. Befindet man sich auf einem Partialmarkt in einer ungleichgewichtigen Situation mit beispielsweise einem Überschussangebot – etwa in Abbildung 2.5.2 bei p11 , dann wird man vermuten, dass der Preis des Gutes sinkt. Ruft ein Auktionator den Preis auf dem Partialmarkt aus und die Unternehmen und Haushalte planen ihre Angebote und Nachfragen nach diesem Preis, dann wird der Auktionator den Preis senken und sich an den Gleichgewichtspreis herantasten. Im Gleichgewicht wird dann gehandelt. Die Unternehmen produzieren dann genau die Menge, die nachgefragt wird. Gehen wir in einem realistischeren Modell davon aus, dass die Unternehmen fälschlicherweise den Preis p11 erwartet haben, dann haben die Unternehmen ein Problem, da sie ihre Waren zum erwarteten Preis nicht verkaufen können. Der Konkurrenzdruck auf dem Markt wird dann zu Preissenkungen führen. Was genau passiert, ist jedoch nicht eindeutig. Die Unternehmen können im Extremfall den Preis auf p10 senken. Dann werden sie alle Waren los, aber sie realisieren dabei hohe Verluste. Sie können einen Teil der produzierten Güter auch lagern und hoffen, die Güter in der nächsten Periode zu verkaufen. In diesem Fall werden sie den Preis nicht so stark senken. In der nächsten Periode werden die Unternehmen jedoch aller Vorrausicht nach weniger produzieren. Wenn sie den Gleichgewichtspreis kennen, dann werden sie die Produktion so anpassen, dass sie alle Güter ohne Preisabschlag verkaufen können. Bei so genannten rationalen Erwartungen wird, etwas vereinfacht dargestellt, unterstellt, dass alle Unternehmen auch ohne Auktionator den Gleichgewichtspreis kennen und damit abgesehen von Zufallschwankungen, die sich über die Zeit ausgleichen, immer die Gleichgewichtsmenge produzieren.23 Das ist allerdings eine sehr starke Annahme, mit der wir uns im makroökonomischen Teil des Lehrbuchs noch auseinandersetzen werden. Haben die Unternehmen nur die Menge X10 produziert, so ergibt sich eine Überschussnachfrage. In diesem Fall werden die Nachfrager den Preis nach oben treiben. Der Preis kann dabei bis auf p11 steigen, wobei dann alle Nachfrager, die einen so hohen Preis bezahlen wollen, das Gut kaufen können. In diesem Fall werden die Unternehmen in der nächsten Periode mehr produzieren. Aber nur, wenn die Unternehmen den Gleichgewichtspreis p1 * erwarten, kommt der Partialmarkt in einen Ruhezustand. Man sieht, wenn im Ungleichgewicht gehandelt wird und von der unrealistischen Annahme abgesehen wird, dass die Unternehmen immer den Gleichgewichtspreis richtig erwarten, dann werden die Anpassungsprozesse auf einem Partialmarkt selbst ohne Rückwirkungen auf andere Märkte kompliziert. Wird die Interaktion zwischen Märkten berücksichtigt, dann führt jede Preisbewegung auf dem betrachteten Markt zu Veränderungen auf anderen Märkten. Dies führt wiederum zu nicht prognostizierbaren Verschiebungen der Kurven des betrachteten Marktes. Ein Gleichgewicht lässt sich somit partialökonomisch nicht mehr bestimmen. Der begrenzte Stellenwert partialanalytischer Betrachtungen sollte somit immer berücksichtigt werden. Verbreitet sind bei Gleichgewichtsanalysen auf Partialmärkten komparativ-statische Analysen. Abbildung 2.5.3 gibt ein Beispiel und soll den Markt für Rohseide in Europa darstellen, der durch vollständige Konkurrenz gekennzeichnet sein soll. Der Markt realisiere ein Gleichgewicht beim Preis p1 * und bei der Menge X1 * . Nun erhöhe sich das Einkommen der Europäer, was zu einer erhöhten Nachfrage 23
Es war J.F. Muth, der diese Idee im Jahre 1961 in die Ökonomie einführte und unterstellte, dass die Marktteilnehmer etwa auf dem Eiermarkt abgesehen von Zufälligkeiten den Gleichgewichtspreis von Eiern kennen und immer die richtige Eiermenge produzieren.
94
Neoklassische Mikroökonomie
nach Rohseide führt (hauptsächlich indirekt über die steigende Nachfrage nach Seidenblusen, Seidenkrawatten etc.). Die Folge ist eine Verschiebung der aggregierten Nachfragekurve nach rechts. Wir hätten eine solche Verschiebung auch durch einen massiven Preisanstieg bei Baumwolle oder einen Modetrend hin zu Seidenprodukten ableiten können. Wie dem auch sei, es ergibt sich ein neues Gleichgewicht beim Preis p1 * * und bei der Menge X1 * * . Die Einkommenserhöhung (oder die Erhöhung des Preises eines Substituts oder eine stärkere Präferenz für Seidenprodukte) hat zu einem Anstieg des Preises für Seide und zu einem Anstieg der produzierten und konsumierten Menge geführt. Die Produzenten von Seide haben ihre gegebenen Kapazitäten stärker ausgelastet, um auf die Nachfrageerhöhung zu reagieren. Da dies mit steigenden Grenzkosten verbunden war, mussten die Preise zumindest kurzfristig ansteigen. Auch die Gewinne der Unternehmen sind in dem angenommenen Fall gestiegen.
Abbildung 2.5.3: Verschiebung der Nachfragekurve auf einem Partialmarkt bei steigender kurzfristiger Angebotsfunktion p1 XA1 = XA1(p1)
p1 * *
X 2N1 = XN1(p1)
p1 *
X1N1 = XN1(p1) X1 *
X1 **
X1
Die Partialanalyse ermöglicht auch Verschiebungen des Angebots zu analysieren. Wird beispielsweise eine neue Technologie zur Erzeugung von Rohseide entwickelt und in der Produktion angewandt, dann verringern sich die Produktionskosten. In diesem Fall verschiebt sich die Angebotsfunktion nach rechts. Im neuen Gleichgewicht ist der Preis von Rohseide gefallen, während gleichzeitig die produzierte und nachgefragte Seidenmenge gestiegen ist. Bei Berücksichtigung der Grenzen der Partialanalyse können mit dem entwickelten Instrumentarium eine Reihe sinnvoller und wichtiger Analysen durchgeführt werden. Insbesondere für Branchenanalysen eignet sich die Partialanalyse. Kernpunkte Bei der Partialanalyse eines Gutes erlauben die Nachfragefunktion, die Angebotsfunktion und die Gleichgewichtsbedingung auf dem Markt die drei gesuchten Größen Gleichgewichtspreis, gleichgewichtige Nachfragemenge und gleichgewichtige Angebotsmenge zu bestimmen. Bei einer kurzfristigen Analyse wird von gegebenen Kapazitäten und bei der Gültigkeit des Ertragsgesetzes von einer mit dem Preis steigenden Angebotsfunktion beginnend im Betriebsoptimum ausgegangen.
Neoklassische Mikroökonomie
95
Bei einer komparativ-statischen Analyse können auf Partialmärkten ökonomische Veränderungen wie Erhöhung des Einkommens, Veränderungen von Substituten, Komplementären, Präferenzen, Technologien etc. sinnvoll analysiert werden. Dynamische Prozesse sind selbst bei Partialmärkten nicht eindeutig. Die Partialanalyse wird fragwürdig, wenn Prozesse auf dem betrachteten Markt starke Rückwirkungen auf andere Märkte haben, die dann auf den betrachteten Markt zurückwirken können. 2.5.2 Partielles langfristiges Gütermarktgleichgewicht Fragestellung Wie interagieren Angebot und Nachfrage langfristig auf Gütermärkten? Wie ist die langfristige Profitsituation bei unterschiedlichen Skalenerträgen? Das Gleichgewicht bei verschiedenen Skalenerträgen Das langfristige partielle Gütermarktgleichgewicht ergibt sich, wenn die Unternehmen ihrem Gewinnmaximierungskalkül folgend ihre Kapazitäten den Bedingungen des Marktes angepasst haben. Beginnen wir mit sinkenden Skalenerträgen, die bekanntlich zu einer mit dem Preis ansteigenden langfristigen Angebotsfunktion führen (vgl. Kapitel 2.4.7). Unterstellen wir in Abbildung 2.5.4 eine normale Nachfragefunktion XN1 und zunächst die Angebotsfunktion X 0A1 , bei der die Unternehmen Gewinne realisieren. Es sei daran erinnert, dass die Angebotsfunktion bei dem Preis beginnt, bei dem der Gewinn Null ist. Unter diesem Preis würden Unternehmen Verluste realisieren. Da bei sinkenden Skalenerträgen kleine Unternehmen effizienter produzieren als größere, existieren faktisch keine Markteintrittsbarrieren. Die Gewinne auf dem Markt werden somit neue Unternehmen anlocken. Mit der Zunahme der Produzenten verschiebt sich die aggregierte Angebotsfunktion ausgehend von X 0A1 nach rechts. Diese Rechtsverschiebung senkt den Gleichgewichtspreis. Die Zuwanderung von Unternehmen hält an solange in dem Markt Gewinne realisiert werden können. Die Zuwanderung von Unternehmen führt zur Rechtsverschiebung der Angebotsfunktion bis die Angebotsfunktion X1A1 erreicht ist, die zur langfristigen Angebotsfunktion wird. Nun produzieren – eine gleiche Produktionsfunktion aller Unternehmen in einer Branche unterstellt – alle Unternehmen mit einem Gewinn von Null. Abbildung 2.5.4: Das langfristige Marktgleichgewicht bei sinkenden Skalenerträgen p1 X 0A1 = X 0A1(p1)
X1A1 = X1A1(p1)
p10* p11*
XN1 = XN1(p1)
X10 *
X11 *
X1
96
Neoklassische Mikroökonomie
Ein solches Ergebnis löst zuweilen Kopfschütteln aus. Erst wird der gewinnmaximierende Unternehmer als Modellaxiom eingeführt, der dann folgerichtig versucht, durch kostenminimale Faktorkombinationen seine Gewinne zu maximieren. Und nun stellt sich heraus, dass bei fallenden Skalenerträgen und vollständiger Konkurrenz Marktprozesse den Gewinn auf Null senken. Die Erklärung des Phänomens ist einfach. Die Unternehmen realisieren auch bei einer gewinnlosen Produktion die Normalentlohnung der Inputfaktoren, so dass die Entlohnung des Einsatzes von unternehmerischer Arbeitsleistung und von Kapitalgütern keineswegs Null ist. Was bei vollständiger Konkurrenz bei den gemachten Annahmen verschwindet sind ausschließlich temporäre Marktlagengewinne (manchmal auch als Quasi-Renten oder Extraprofite bezeichnet). Haben Unternehmen unterschiedliche Produktionsfunktionen, dann wird die Produktionsmenge X11 * von den effizientesten Unternehmen produziert, wenn es genügend Unternehmen gibt, die mit der effizientesten Technologie produzieren können. Unternehmen mit weniger effizienten Produktionsfunktionen kommen in diesem Fall nicht zum Zuge. Gibt es nicht genügend Unternehmen mit der effizientesten Technologie, dann steigt der Preis an, so dass auch Unternehmen mit schlechteren Technologien zu produzieren beginnen. Im Fall unterschiedlicher Technologien der Unternehmen macht nur das am schlechtesten produzierende Unternehmen, das noch ohne Verluste produzieren kann, keinen Gewinn. Die anderen verdienen temporäre Technologierenten bzw. Quasi-Renten und realisieren Gewinne. Man spricht von Quasi-Renten, da Unternehmen mit überlegener Technologie ihren Vorteil gewinnbringend ausnutzten, dieser Vorteil jedoch nur temporär existiert, da andere Unternehmen zumindest nach gewisser Zeit die effizientere Technologie übernehmen können. Dies ist der Unterschied zur Grundrente – etwa das Eigentum an einem Grundstück in einer guten Lage in einer Stadt – die durch Konkurrenzprozesse nicht verschwindet. Die Jagd nach technologischen Quasi-Renten ist eines der Geheimnisse der kapitalistischen Produktionsweise. Der Stachel des Gewinns treibt Unternehmen an, Technologien (einschließlich Organisation der Produktion etc.) beständig zu verbessern, um Güter kostengünstiger als die Konkurrenten zu produzieren. Technologische Vorsprünge werden zur Quelle von individuellen Gewinnen. Unternehmen, die bei der Verbesserung der Technologien nicht mithalten können, werden vom Markt verschwinden. Es waren insbesondere Karl Marx und Joseph Schumpeter, die in ihren Werken das Gewinnstreben als mächtigen Anreiz zur technologischen Entwicklung in faktisch jedem Unternehmen betont haben. In früheren Gesellschaftsformationen gab es einen solchen mächtigen systematischen Anreizmechanismus zur Entwicklung von Technologien nicht. Im Gleichgewicht ist im Fall sinkender Skalenerträge das Produktionsvolumen bzw. die optimale Unternehmensgröße jedes einzelnen Unternehmens bestimmt. Die Begrenzung der Unternehmensgröße ergibt sich dabei nicht über die Nachfrage, sondern über die steigenden Grenzkosten. Es gilt „klein ist effizient“, und diese Annahme begrenzt das Wachstum der Unternehmen und hält die vollständige Konkurrenz aufrecht. Volkswirtschaftlich am effizientesten ist es dann, wenn jedes Unternehmen eine geringe Mengeneinheit eines Gutes produziert, da in diesem Fall die Stückkosten am geringsten sind. Die optimale Betriebsgröße würde somit bei kleinen Unternehmen liegen. Mit wenig Fantasie lässt sich erahnen, was auf Märkten mit konstanten Skalenerträgen geschieht. Unterstellen wir zunächst wieder, dass alle Unternehmen mit der gleichen Technologie produzieren. Bei konstanten Skalenerträgen werden die Unternehmen – sobald der Marktpreis die langfristigen Grenzkosten erreicht, die in diesem Fall mit den langfristigen Stückkosten zusammenfallen, mit der Produktion des betrachteten Gutes beginnen und die Produktion unendlich ausdehnen. In Abbildung 2.5.5 ist beim Preis von p11 die horizontale Angebotsfunktion X1A1 mit der Produktionsmenge X10 eingezeichnet. Unterstellen wir, dass die langfristigen Stückkosten Kdlu betragen, dann realisieren die Unternehmen einen Gewinn, da die Preise über den Stückkosten liegen.
Neoklassische Mikroökonomie
97
Abbildung 2.5.5: Das langfristige Marktgleichgewicht bei konstanten Skalenerträgen p1
p11
X 1A1 = X 1A1 (p1)
Kdlu = p10
X 0A1 = X 0A1 (p1) X N1 = X N1 (p1)
X10
X11
X1
Stabil kann die beschriebene Konstellation nicht sein. Zwei Argumente werden hier relevant. Erstens, wenn alle Unternehmen eine unendliche Menge produzieren wollten, dann würden sie schnell feststellen, dass die Nachfrage nach ihren Produkten nicht ausreichend ist. Sie werden die Preise senken, um ihren Absatz zu erhöhen, was individuell eine Strategie der Gewinnmaximierung ist. Dadurch wird der Preis bis auf p10 sinken und auf das Niveau der langfristigen Stückkosten gedrückt. Der Gewinn sinkt dann wie bei sinkenden Skalenerträgen auf Null. Zweitens haben bei konstanten Skalenerträgen große Unternehmen keinen systematischen Vorteil gegenüber kleinen Unternehmen. Kleine Unternehmen werden somit bei konstanten Skalenerträgen in den Markt eintreten und den Preis auf p10 absenken. Als langfristige Angebotsfunktion in Abbildung 2.5.5 ergibt sich somit die Funktion X 0A1 , bei der der Gleichgewichtspreis durch die Produktionskosten und die Menge durch die Nachfrage nach dem Gut bestimmt wird. Diese Argumentation ist aus dem klassischen Paradigma bekannt, das die Preise über die Kosten erklärt und langfristig der Nachfrage keinen Einfluss auf die Preise zugesteht. Verhielten sich Unternehmen als Mengenanpasser, dann würden sie beim langfristigen Gleichgewichtspreis p10 unendlich viel produzieren. Eine unendliche Produktion ist jedoch sowohl physisch als auch nachfrageseitig unvorstellbar. Offensichtlich werden die Unternehmen bei konstanten Skalenerträgen durch die aggregierte Nachfrage in ihrer Expansion begrenzt. Sie können sich nicht länger als Mengenanpasser verhalten, da sie zum gegebenen Preis nicht mehr alles absetzen können. Die Unternehmen werden durch die Nachfrage „rationiert“. Der Gleichgewichtspreis ist dabei stabil. Preissenkungen sind nicht möglich, da dann Verluste eintreten würden. Preiserhöhungen auch nicht, da sich dann sofort das Angebot erhöhen würde. Bei konstanten Skalenerträgen müssen die Unternehmen offensichtlich neue Gesichtspunkte berücksichtigen – insbesondere die Nachfrage als entscheidenden Faktor der abzusetzenden Produktion und das Verhalten von Konkurrenten auf dem Markt. Die optimale Unternehmensgröße kann bei konstanten Skalenerträgen nicht mehr bestimmt werden, da sowohl kleine wie auch große Unternehmen im Markt bestehen können. Bei der Annahme unterschiedlicher Technologien würde sich das Ergebnis nicht wesentlich ändern. Die Unternehmen mit der effizientesten Technologie – im Extremfall auch nur ein Unternehmen – würden die Produktion für den gesamten Markt übernehmen. Jede Preiserhöhung würde sofort neue Unternehmen in den Markt bringen, die nun mit den gestiegenen Preisen ihre Stückkosten decken kön-
98
Neoklassische Mikroökonomie
nen und zu expandieren beginnen. Eine steigende langfristige Angebotsfunktion wie im Falle sinkender Skalenerträge ergibt sich in diesem Fall nicht. In noch deutlicherer Form gerät das Modell vollständiger Konkurrenz in Widersprüche, wenn von steigenden Skalenerträgen ausgegangen wird. In diesem Fall kann mit zunehmenden Unternehmenskapazitäten und damit zunehmender Unternehmensgröße immer günstiger produziert werden. Durch steigende Kosten werden Unternehmen bei steigenden Skalenerträgen ebenso wenig in ihrer Expansion gebremst wie bei konstanten. Auch bei steigenden Skalenerträgen begrenzt die Nachfrage die Expansion der Unternehmen. Allerdings gibt es Unterschiede. Bei konstanten Skalenerträgen können – wie ausgeführt – grundsätzlich auch kleinere Unternehmen in den Konkurrenzprozess als Anbieter eingreifen. Aus diesem Grunde kann der Preis längerfristig nicht über die Kosten steigen. Bei steigenden Skalenerträgen wird der Wettbewerb dadurch charakterisiert, dass „Spätkommer“ in einem solchen Markt gegenüber etablierten Unternehmen, die auf großer Skala produzieren, keine Chance haben. „Spätkommer“ haben bei steigenden Skalenerträgen nur die Möglichkeit, mit großem Kapitalaufwand sofort auf ein großes Produktionsvolumen zu springen und so Konkurrenten zu verdrängen. Dies ist jedoch schwierig, so dass schon im Markt agierende Unternehmen durch hohe Markteintrittsbarrieren geschützt sind. Steigende Skalenerträge führen somit zu oligopolistischen bis hin zu monopolistischen Märkten. Bei steigenden Skalenerträgen hebt sich das Modell vollständiger Konkurrenz damit selbst auf. In oligopolistischen und monopolistischen Märkten sind permanente Gewinne zu erwarten, die über dem Normalniveau liegen. Denn es gelingt den Unternehmen in solchen Märkten in aller Regel die Preise auch langfristig über den Stückkosten zu halten. Bei einem Monopol ist die Unternehmensgröße durch die aggregierte Nachfrage begrenzt, bei einem oligopolistischen Markt gibt es keine allgemeine Lösung für die Größe von Unternehmen. Die Verbindung zwischen langer und kurzer Frist Alfred Marshall, einer der frühen neoklassischen Denker, hat in sehr klarer Form die verschiedener Zeithorizonte in eine Partialanalyse eingebaut (Marshall 1920). Nehmen wir als Beispiel einen Fischmarkt mit einer normal verlaufenden Nachfragefunktion, aber kurzfristig schwankendem Fischangebot. Diese Schwankungen sollen sich aus den täglich unterschiedlich erfolgreichen Fängen ergeben. Mit Hilfe unseres Instrumentariums kann die Preisbewegung auf diesem Markt bei sehr kurzfristiger Betrachtung leicht dargestellt werden (vgl. Abbildung 2.5.6). Die täglich gefangene Fischmenge ist gegeben, und der Preis bringt Angebot und Nachfrage zum Ausgleich. Beträgt die Fischmenge am ersten Tag X 0A1 , ergibt sich ein Gleichgewichtspreis von p10 * . Steigt die gefangene Menge am zweiten Tag auf X1A1 , dann sinkt der Gleichgewichtspreis auf p11 * . Auf einigen Märkten funktioniert die kurzfristige Preisbildung nach dieser Logik. Allen diesen Märkten ist gemein, dass keine nennenswerte Lagerhaltung stattfindet und die Märkte auch sehr kurzfristig geräumt werden.
Neoklassische Mikroökonomie
99
Abbildung 2.5.6: Der Gütermarkt in sehr kurzfristiger Perspektive
p1 X 0A1
X 1A1
p10 * p11 *
XN1 = XN1(p1)
X10 *
X11 *
X1
Unterstellen wir nun im Rahmen einer kurzfristigen Perspektive, dass die Anzahl der Fischerboote (die Kapitalgüter) nicht zu verändern sei. Bei gegebenen Kapazitäten kann nur der Arbeitseinsatz variiert werden. Gilt das Ertragsgesetz, dann ergibt sich eine mit dem Preis ansteigende kurzfristige Angebotsfunktion, die bei den individuellen Anbietern im Minimum der Stückkosten beginnt. Bei einer normalen Nachfragefunktion ergibt sich das beliebte von Marshall ins Zentrum gerückte „Scherendiagramm“ von Angebot und Nachfrage. Die Angebots- und Nachfragekurven können sich verschieben, wenn sich einer der Lageparameter der Funktionen verändert (vgl. Abbildung 2.5.7). In der Abbildung hat sich die Nachfragefunktion nach rechts verschoben, weil sich bei ansonsten unveränderten Bedingungen in einer komparativ-statischen Analyse z. B. die Präferenzen der Verbraucher für den Fischverzehr gestiegen sind, das Einkommen der Konsumenten gestiegen ist und sich aus diesem Grunde der Fischkonsum erhöht oder Fleisch teurer geworden ist und die Konsumenten daher verstärkt Fisch nachfragen. Das Resultat einer Rechtsverschiebung der Nachfragefunktion ist ein höherer gleichgewichtiger Preis und eine höhere gleichgewichtige Menge. Die Mehrproduktion wird möglich, da die Fischer ihre gegebene Anzahl von Booten stärker auslasten und zu diesem Zweck verstärkt variable Inputs – etwa Arbeit – einsetzen.
100
Neoklassische Mikroökonomie
Abbildung 2.5.7: Der Markt in kurzfristiger Perspektive bei der Gültigkeit des Ertragsgesetzes p1 XA1 = XA1(p1)
p11 *
X1N1 = X1N1 (p1 )
p10 *
X 0N1 = X 0N1 (p1 )
X10 *
X11 *
X1
Bei einer langfristigen Perspektive sind alle Inputfaktoren variabel. In diesem Fall wird eine mit dem Preis steigende Angebotsfunktion alles andere als plausibel. Werden zusätzliche oder sogar größere Fischerboote eingesetzt, dann bleiben die langfristigen Grenzkosten auch bei einer Ausdehnung der Fischproduktion – sehen wir von einer Überfischung der Gewässer ab – konstant oder sinken gar. Werden bei der Fischproduktion konstante Skalenerträge unterstellt, dann wird sich langfristig bei einer Verschiebung der Nachfragekurve nach rechts eine Situation einstellen, die in Abbildung 2.5.8 dargestellt ist. Bei unverändertem Preis wird sich langfristig die Produktionsmenge der erhöhten Nachfrage anpassen.
Abbildung 2.5.8: Der Markt in langfristiger Perspektive bei konstanten Skaleneffekten p1
X 0N1 = X 0N1 (p1 )
X1N1 = X1N1 (p1 )
p1 *
XA1 = XA1(p1)
X10 *
X11 *
X1
Neoklassische Mikroökonomie
101
Kernpunkte Bei einer langfristigen Analyse hängt die langfristige Angebotsfunktion von den angenommenen Skaleneffekten ab. Bei fallenden Skalenerträgen steigt die langfristige Angebotsfunktion mit dem Preis an. Bei konstanten Skalenerträgen entspricht die langfristige Angebotsfunktion einer Parallele zur Abszisse, der Gleichgewichtspreis des Gutes wird durch die Kosten, die Menge und durch die Nachfrage bestimmt. Bei steigenden Skalenerträgen löst sich das Modell der vollständigen Konkurrenz auf, es entwickeln sich Monopole oder oligopolistische Märkte und es gibt keine langfristige Angebotsfunktion mehr. Bei sinkenden und konstanten Skalenerträgen und der Annahme gleicher Technologie in allen Unternehmen ist langfristig ein höherer als der Normalgewinn nicht möglich (so genannte gewinnlose Produktion); bei steigenden Skalenerträgen sind längerfristig Gewinne über dem Normalgewinn möglich, da es aufgrund von Größenvorteilen schwierig ist, für neue Unternehmen in den Markt einzutreten. 2.5.3 Grenzen der Partialanalyse Fragestellung Welche Schlüsse lassen sich aus einer Partialanalyse ziehen? Warum kann eine Partialanalyse zu falschen Schlussfolgerungen führen? Betrachten wir den Markt für ein beliebig ausgewähltes Gut, beispielsweise für Bier. Bei der Analyse des Biermarktes in Abbildung 2.5.9 handelt es sich um eine Partialanalyse, also um die Betrachtung eines isolierten Marktes. Es ist jedoch unmittelbar einleuchtend, dass das Geschehen auf dem Biermarkt durch andere Märkte beeinflusst wird. Die Nachfrage nach Bier hängt beispielsweise von den Preisen für Wein ab. Wird Wein ausgehend von einem niedrigen Preis sehr teuer, so wird man vermuten, dass sich die Nachfrage nach Bier erhöht. Ein solcher Effekt stellt sich in Abbildung 2.5.9 nicht mehr als eine Bewegung auf der Nachfragekurve dar – wie bei Veränderungen des Bierpreises – sondern als eine Verschiebung der Nachfragekurve in unserem Beispiel nach rechts. Auch das Angebot an Bier wird durch Entwicklungen auf anderen Märkten beeinflusst. Werden beispielsweise auf dem Biermarkt überdurchschnittlich hohe Gewinne gemacht, so kann dies die Eigentümer von Bier dazu bewegen, mehr Bier anzubieten oder neue Bierproduzenten steigen in den Markt ein. Dieser Effekt stellt sich als eine Verschiebung der Angebotskurve in unserem Fall nach rechts dar. Die Verschiebung der Angebots- und/oder der Nachfragekurve würde einen neuen Gleichgewichtspreis von Bier mit zugehöriger neuer Gleichgewichtsmenge bedingen.
Abbildung 2.5.9: Der Markt für Bier
p1
Nachfrage
Angebot
P10 = 15
P1* = 10
X1*
X10
X1 (Bier in Liter)
102
Neoklassische Mikroökonomie
Der veränderte Bierpreis würde nun seinerseits auf andere Märkte einwirken. Es würden sich dort Veränderungen ergeben, die wieder auf den Biermarkt Einfluss hätten etc. Formal besteht bei einer Partialanalyse folgendes Problem: Unterstellen wir einen Bierpreis über dem Gleichgewichtspreis von beispielsweise p1 = 15. In diesem Fall wäre das Angebot größer als die Nachfrage. Das Überschussangebot würde den Preis auf dem Biermarkt fallen lassen. Man könnte vermuten, dass sich der Biermarkt entlang der Nachfragekurve zum Gleichgewichtspreis von p1 = 10 bewegt. Dieser Gedanke ist jedoch zu einfach. Jede Preisbewegung auf dem Biermarkt verschiebt Angebots- und Nachfragekurven auf anderen Märkten. Die dadurch induzierten Preisbewegungen verschieben wiederum die Angebots- und Nachfragekurve auf dem Biermarkt. Es ist somit eine Fiktion zu glauben, Preise könnten sich auf einem Partialmarkt bei einem Ungleichgewicht dank stabiler Angebots- und Nachfragekurven hin zu einem Gleichgewicht bewegen. Es ist wichtig zu begreifen, dass eine partialanalytische Betrachtung eines Marktes jegliche Interaktionen mit anderen Märkten ausschließt. Dies greift insbesondere bei volkswirtschaftlichen Fragestellungen zu kurz und kann zu falschen Schlussfolgerungen führen. Es ist ein Verdienst von Léon Walras, dass er die Interaktion verschiedener Märkte ins Zentrum seiner Analyse gestellt hat (vgl. Kapitel 2.2). Damit setzt er sich deutlich von der Partialbetrachtung eines Marktes in der Tradition von Alfred Marshall ab. Im walrasianischen Interaktionsmodell ist es selbstverständlich, dass die Gleichgewichtslösung eines Marktes nur im Rahmen der Bestimmung eines simultanen Gleichgewichts aller Märkte möglich ist. Makroökonomische Schlussfolgerungen aus Partialmärkten können in die Irre führen. Insbesondere ist problematisch, dass die Schlussfolgerungen, die aus einer Partialanalyse gezogen werden, in die falsche Richtung gehen können. So mag ein Überschussangebot nach einem Gut partialökonomisch eine Preissenkung des entsprechenden Gutes induzieren und auch von Ökonomen empfohlen werden, um zu einem Gleichgewicht auf dem Markt zu kommen. Aber eine solche Preisentwicklung kann das Ungleichgewicht auf dem Markt noch vergrößern. Wir geben unten ein Rechenbeispiel, um diesen Punkt zu verdeutlichen. Insbesondere bei volkswirtschaftlich wichtigen Gütern kann einer partialökonomische Analyse zu falschen Schlussfolgerungen führen. Das wichtigste „Gut“ in diesem Zusammenhang ist Arbeit. So muss ein Überschussangebot an Arbeit, also Arbeitslosigkeit, nicht an zu hohen Löhnen liegen, sondern kann Ausdruck einer zu geringen Produktion von Gütern sein, welche die Nachfrage nach Arbeit gering hält. Eine Senkung der Löhne, die bei einem Überschussangebot nach Arbeit partialökonomisch plausibel erscheint, führt dann zu einer weiteren Abnahme der Nachfrage nach Gütern, zu einer weiteren Abnahme der Nachfrage nach Arbeit und einer Zunahme der Arbeitslosigkeit. Ein Rechenbeispiel für die Grenzen der Partialanalyse Zur Verdeutlichung der Grenzen der Partialanalyse sei ein Rechenbeispiel konstruiert. Nehmen wir die Interaktion zwischen dem Automarkt und dem Markt für Arbeit, wobei wir unterstellen, dass die Arbeiter die Nachfrage nach Autos stark beeinflussen. Die aggregierte Nachfrage nach Autos (XN1), das aggregierte Angebot an Autos (XA1) und die Gleichgewichtsbedingung des Marktes seien durch die folgenden drei Gleichungen gegeben: XN1 = –20p1 + 12wr XA1 = 32p1 – wr XN1 – XA1 = 0 Die Nachfrage nach und das Angebot an Autos hängen nicht nur von den Autopreisen (p1) ab, sondern auch von den Löhnen (wr). Wir nehmen an, dass mit steigenden Autopreisen die Nachfrage nach Autos sinkt. Steigen die Löhne, steigt die Nachfrage nach Autos, da die Anbieter von Arbeit sich nun mehr Autos leisten können. Wir unterstellen zudem, dass das Angebot an Autos mit steigendem Autopreis steigt. Aber auch die Löhne wirken auf das Angebot von Autos ein. Steigt der Lohnsatz, nimmt das
Neoklassische Mikroökonomie
103
Angebot an Autos ab. Diese Annahmen entsprechen dem üblichen neoklassischen Argumentationsmuster. Der Arbeitsmarkt mit aggregierter Arbeitsnachfrage (AN) und aggregiertem Arbeitsangebot (AA) ergibt sich durch: AA = 9wr – 20p1 – 8 AN = –4wr + 28p1 AA – AN = 0 Auch die Beschreibung des Arbeitsmarktes folgt der neoklassischen Argumentation (vgl. dazu Kapitel 2.7). Das Arbeitsangebot steigt mit steigenden Löhnen, da in diesem Fall der Anreiz zu arbeiten steigt. Das Angebot an Arbeit hängt jedoch auch vom Preis der Autos ab. Mit steigendem Preis der Autos sinkt das Angebot an Arbeit, da der Anreiz zum Arbeiten für ein Auto abnehmen mag. Sind Autos zu teuer, dann geniest man somit lieber die Freizeit. Die Nachfrage nach Arbeit steigt mit sinkendem Lohnsatz, was einer der Kernaussagen der neoklassischen Theorie ist, die in diesem Lehrbuch noch intensiv diskutiert werden wird. Wir unterstellen zudem, dass mit steigendem Autopreis die Nachfrage nach Arbeit zunimmt, da die Autoproduzenten nun höhere Gewinne bei der Autoproduktion realisieren können. Die skizzierte interdependente Miniaturökonomie hat sechs Unbekannte (p1, wr, AA, AN, XA, XN), die durch einfaches Einsetzen in die sechs Gleichungen des Systems gelöst werden können. Es ergibt sich ein Autopreis von p1 * = 2, ein Lohnsatz von w r * = 8, eine Automenge von X1 * = 56 und eine Arbeitsmenge von H * = 24, wobei H die Arbeitsstunden symbolisiert. In Abbildung 2.5.10 ist die grafische Lösung des Systems skizziert.
Abbildung 2.5.10: Die simultane Gleichgewichtslösung des Auto- und Arbeitsmarktes wr 10
P1 5
AA1
wr*= 8
4
6
3
4
p1*= 2
X A1
1
2 10
H* = 24
40
50
X N1
AN1 H
20
X1* = 56 80
100
X1
Gehen wir nun von einer beliebig gewählten Ungleichgewichtskonstellation auf dem Automarkt mit einem Preis von p0 = 1 aus. Setzten wir p0 = 1 in die Angebots- und Nachfragefunktion von Arbeit ein, ergibt sich: AA0 = 9wr – 20p0 – 8
⇒
AA0 = 9wr – 28
AN0 = –4wr + 28p0
⇒
AN0 = –4wr + 28
104
Neoklassische Mikroökonomie
Das Ergebnis ist ein partielles Arbeitsmarktgleichgewicht mit wr0 ≈ 4,3 und eine gleichgewichtige Arbeitsmenge von H0 ≈ 10,8. Abbildung 2.5.11 zeigt die Angebotsfunktion AA0 und die Nachfragefunktion AN0 nach Arbeit bei dem unterstellten Ungleichgewicht auf dem Markt für Autos. Gleichzeitig wurde die Angebots- und die Nachfragefunktion nach Arbeit im simultanen Gleichgewicht in der Abbildung reproduziert.
Abbildung 2.5.11: Partielle Analyse des Arbeitsmarktes wr
AA1
AA0 5,0
A
B
4,3 AN1 AN0 H 10,8 24
Unterstellen wir weiterhin ein Ungleichgewicht auf dem Automarkt von p0 = 1 und nun einen Lohn von wr = 5. Auf dem Partialmarkt für Arbeit ergeben sich nun ein Angebot von 17 und eine Nachfrage von 8 Arbeitseinheiten. Es herrscht somit ein Überschussangebot von 9. Ein Ökonom, der sich auf die Partialanalyse verlässt, wird nun sofort eine Lohnsenkung empfehlen, um bei einem Lohn von wr0 ≈ 4,3 ein Gleichgewicht zu erreichen. Diese Schlussfolgerung ist freilich falsch, da der gleichgewichtige Lohn bei w r * = 8 liegt. Unser Ökonom hätte nicht den Arbeitsmarkt studieren sollen, sondern den Markt für Autos, um den Arbeitsmarkt verstehen zu können. Dann hätte er begriffen, dass trotz eines Überschussangebots auf dem Arbeitsmarkt zur Realisierung eines Gesamtgleichgewichts die Löhne hätten steigen müssen; ebenso wie die Preise für Autos. Kernpunkte Bei einer Partialanalyse wird nur ein Markt untersucht, beispielsweise der Markt für Fische. Ergebnisse von Partialanalysen sind insbesondere bei makroökonomischen Fragen mit Vorsicht zu genießen, da sie die für Marktwirtschaften typische Interaktion zwischen Märkten vernachlässigen. Es lässt sich zeigen, dass das Senken eines Preises bei einem Markt mit einem Angebotsüberhang eine Ökonomie weiter ins Ungleichgewicht bringen kann. 2.5.4 Kritische Würdigung Die Analyse eines Partialmarktes eröffnet die Gelegenheit, auf die Annahme vollständiger Konkurrenz näher einzugehen. In der Tat beschert diese Annahme dem hier entwickelten neoklassischen Modell und auch generell eine Reihe von Schwierigkeiten. Das erste Problem rankt sich um den Prozess der Preissetzung. Bei der Analyse eines Partialmarktes wurden der Gleichgewichtspreis und die gleichgewichtige Angebots- und Nachfragemenge bestimmt. Nur ansatzweise wurden Marktprozesse analysiert. Letztlich bleibt unklar, wie ein Marktprozess, der auf individuellen Wahlentscheidungen aufbau-
Neoklassische Mikroökonomie
105
en muss, aussehen könnte, der im Ergebnis gleichgewichtige Marktpreise und gleichgewichtige Mengen hervorbringt. Ein spezifisches Problem ist, dass sich sowohl die Haushalte als auch die Unternehmen sich bei vollständiger Konkurrenz als Preisnehmer und Mengenanpasser verhalten. Sie haben damit definitionsgemäß keinen Einfluss auf die Preise und können insbesondere keine Preise verändern. Es existiert aber auf den meisten Märkten auch keine zentrale Instanz, sei es in der Form der Planungsbehörde oder in der Person eines Auktionators, der die Preise festlegt. Wer soll somit die Preise verändern? Ein Ausweg aus dem Dilemma bietet die Aufgabe der Annahme vollständiger Konkurrenz. Bei Monopolen und oligopolistischen Märkten ist dies der Fall. Ein weiterer Fall ist, wenn selbst kleine Unternehmen aufgrund von spezifischen Vorteilen wie z. B. einer günstigen Lage, attraktiven Verkaufsräumen, Diversifizierung der Produktpalette etc. eine im Zweifel unbedeutende Monopolstellung einnehmen und die Preise selbst setzten können. Dies ist im Modell „monopolistischer Konkurrenz“ der Fall, der im nächsten Kapitel zusammen mit dem Fall eines Monopols analysiert wird.24 Ein weiteres Problem der Annahme vollständiger Konkurrenz besteht darin, dass die meisten Gütermärkte nicht durch diese Marktform gekennzeichnet sind. Zumindest im industriellen Bereich der Volkswirtschaft werden Märkte von einigen Großunternehmen dominiert, so dass oligopolistische Strukturen (wenige Anbieter, die deshalb Einfluss auf die Preise nehmen können und in ihrem Wachstum durch die Nachfrage begrenzt werden) eine typische Erscheinungsform sind. Dazu ist zunächst zu sagen, dass trotz unter Umständen hoher Eintrittsbarrieren auch in oligopolistischen und selbst bei Monopolen Konkurrenzmechanismen wirken. Zunächst werden auch Oligopole in bestimmten Situationen gegeneinander kämpfen – in anderen Fällen sind jedoch auch (illegale) Absprachen zu erwarten. Sind Oligopol- bzw. Monopolgewinne sehr hoch, dann können trotz Eintrittsbarrieren neue Anbieter – etwa mächtige Oligopole von anderen Märkten – in den Markt gelockt werden, die die Konkurrenz intensivieren. Somit hat selbst ein Unternehmen mit einer Monopolstellung die Konkurrenz anderer Unternehmen zu fürchten. Es ist gerade eine Stärke der neoklassischen Unternehmenstheorie, dass sie aufgrund ihres analytischen Apparates ableiten kann, dass steigende Skalenerträge, die in der industriellen Produktion als typisch angesehen werden können, zu oligopolistischen oder monopolistischen Strukturen führen und das Modell vollständiger Konkurrenz auflösen.25 Wir gehen zudem davon aus, dass trotz aller Relevanz auf mikroökonomischer Ebene vermachtete Märkte an den grundsätzlichen Mechanismen einer kapitalistischen Ökonomie wenig ändern. Dies gilt insbesondere für makroökonomische Prozesse. Erwähnenswert ist, dass das oben skizzierte Modell bei konstanten und steigenden Skalenerträgen keine optimalen Unternehmensgrößen ableiten kann und sich bei steigenden Skalenerträgen, wie ausgeführt, überhaupt kein Markt mehr unter der Prämisse vollständiger Konkurrenz modellieren lässt. Wir werden sehen, dass aus diesem Grunde beim walrasianischen Modell mit Produktion steigende Skalenerträge ausgeschlossen werden müssen, da sich ansonsten kein Gleichgewicht mehr ableiten lässt. Trotz einer jahrzehntelangen Diskussion um dieses Problem konnte bis heute keine befriedigende Lösung entwickelt werden (vgl. Marshall 1920, Sraffa 1926 und Robinson 1974). Hat angesichts der skizzierten Probleme eine Modellbildung, die vollständige Konkurrenz zum Ausgangspunkt nimmt, keine Berechtigung mehr? Wir glauben, dass es legitim ist, die „unrealistische Annahme“ vollständiger Konkurrenz und die dafür notwendigen Voraussetzungen für die volkswirtschaftliche Modellbildung zu nutzen – und sei es analytisch zu klären, was das Modell vollständiger Konkurrenz zu erklären vermag und was nicht und unter welchen Bedingungen es sich durch Marktprozesse auflöst. 24
In diese Richtung wurde das Modell vollständiger Konkurrenz von Chamberlin (1965) und von Robinson (1933) entwickelt. Dass das Instrumentarium der neoklassischen Mikroökonomie erkenntnisfördernd gerade für die Analyse von Unternehmensstrategien in vermachteten Märkten angewandt werden kann, zeigen neuere Entwicklungen in der Betriebswirtschaftslehre (vgl. z. B. Besanko/Dranove/ Shanley 2000 oder McGuigan/Moyer/Harris 1999).
25
106
Neoklassische Mikroökonomie
Auch an diesem Punkt muss wiederholt werden, dass das Erkenntnisziel der Volkswirtschaftslehre nicht darin besteht, konkrete Märkte konkret zu beschreiben. Stattdessen soll erfasst werden, wie Märkte und Marktergebnisse aussehen, sofern die Triebkräfte des Marktes uneingeschränkt wirken. Selbst wenn es in der Realität niemals einen solchen „sterilen“ Markt geben sollte, ist der kognitive Wert eines solchen Vorgehens beträchtlich.
Neoklassische Mikroökonomie
107
2.6 Monopolistisches Anbieterverhalten 2.6.1 Das Angebotsmonopol Fragestellung Wie maximiert ein Angebotsmonopolist seinen Gewinn? Gibt es einen Monopolgewinn? Was ist die Konsumentenrente und wie eignet sich ein Monopolist einen Teil der Konsumentenrente an? Bei der bisherigen Darstellung des Anbieterverhaltens wurde in der Regel von vollständiger Konkurrenz ausgegangen, so dass ein einzelnes Unternehmen keinen Einfluss auf die Preise ausüben konnte. Für die Unternehmen beschränkten sich die Handlungsmöglichkeiten darauf, die zu produzierende Gütermenge und die nachgefragten Produktionsfaktoren mengenmäßig so auszutarieren, dass bei gegebenen Preisen ein Gewinnmaximum erzielt wird. Andererseits zeigen die empirischen Erfahrungen, dass zahlreiche Märkte durch die Existenz einiger weniger, dominanter Großunternehmen geprägt sind. Auch theoretisch können so genannte natürliche Monopole abgeleitet werden. Es wurde oben betont, dass steigende Skalenerträge ein schon etabliertes Unternehmen mit hoher Produktion privilegieren und zu Eintrittsbarrieren führen. Im Falle eines natürlichen Monopols setzt sich in einem Markt nur ein Anbieter aufgrund von Marktprozessen durch. Es gibt noch eine Reihe anderer Quellen für monopolistische Macht, beispielsweise Patente oder die Verfügung über spezifische und schwer zu kopierende Technologien oder Ressourcen. Monopole können offensichtlich Einfluss auf die Preise nehmen und werden sich anders verhalten als Unternehmen unter vollständiger Konkurrenz. Bei der Analyse eines Monopols wird in der Regel ein Angebotsmonopol unterstellt, wobei auf der Nachfrageseite eine große Anzahl von Nachfragern angenommen wird, so dass die Nachfragefunktion aus dem Modell vollständiger Konkurrenz übernommen werden kann. Eine Vielzahl von Nachfragern, die mit einem einzigen Anbieter konfrontiert sind, ist neben vollständiger Konkurrenz jedoch nur eine der möglichen Marktformen. Denkbar ist z. B. auch der umgekehrte Fall, nämlich eine Vielzahl von Anbietern und ein einziger Nachfrager. Auch kann es einen Markt mit nur einem Anbieter und einem Nachfrager geben. Werden noch oligopolistische Märkte berücksichtigt, so zeigt sich, dass es eine große Zahl von Marktformen gibt. Gibt es eine geringe Anzahl von Anbietern oder stehen sich ein oder wenige Anbieter und ein oder wenige Nachfrager gegenüber, versagt das bislang dargestellte Instrumentarium sowieso, da es dann zur strategischen Interaktion zwischen den Beteiligten kommt, die nur spieltheoretisch analysiert werden kann. Auf deren Darstellung muss im Rahmen dieser Einführung verzichtet werden, zumal die Spieltheorie paradigmatisch übergreifend und nicht in der Lage ist, ein eigenes Paradigma zu schaffen. In diesem Abschnitt wird der Extremfall eines Anbietermonopols untersucht, das sich einer Vielzahl von Nachfragern gegenübersieht. Dieser Fall ist analytisch relativ einfach zu behandeln und erlaubt es, die Konsequenzen fehlender vollständiger Konkurrenz abzuschätzen. Für eine Darstellung der verschiedenen ökonomischen Paradigmen sind zudem spezifische Marktformen eher zweitrangiger Natur. Daher stehen sie auch nicht im Zentrum dieses Lehrbuchs. Beginnen wir mit der Analyse des Angebotsmonopols auf einem Markt mit einem homogenen Gut. Ein Unternehmen nimmt dann die Stellung eines Monopols auf einem Markt ein, wenn es als einziger Anbieter eines bestimmten Gutes auftritt. Dadurch ist es in der Lage, den Verkaufspreis zu diktieren. Bei vollständiger Konkurrenz war die individuelle Nachfragekurve aus der Sicht eines Unternehmens eine Horizontale beim gegebenen Verkaufspreis des Gutes. Die für das Monopol relevante Nachfragekurve ist die aggregierte Nachfragekurve des Gesamtmarktes. Wird unterstellt, dass der Monopolist die Nachfragekurve kennt, dann kann er sich ein Bild über den Zusammenhang zwischen seinem Preis und der verkauften Menge machen. Die aggregierte Nachfragekurve wird zur Preis-Absatz-Kurve des An-
108
Neoklassische Mikroökonomie
gebotsmonopolisten. Sie bedeutet für den Monopolisten, dass er den Preis senken muss, wenn er die Verkaufsmenge ausdehnen will. Damit wird der zu erzielende Preis abhängig von der gewählten Angebotsmenge. Wir unterstellen, dass er die Menge steuert, um einen gewünschten Preis erzielen zu können. Formal ist die Preis-Absatz-Kurve die Umkehrfunktion der Nachfragefunktion. Aus der Nachfragefunktion
XN1 = XN1(p1) folgt als Preis-Absatz-Funktion:
p1 = p1(X1)
(2.6.1)
Welche Menge soll ein monopolistisches Unternehmen zur Maximierung des Gewinns wählen? Es weiß, dass es die Verkaufsmenge nur ausdehnen kann, wenn der Preis sinkt. Sofern aber die Preissenkung stärker zu Buche schlägt als die Mengensteigerung, kann der Gesamterlös sinken. Natürlich ist auch die umgekehrte Konstellation denkbar: Eine Preiserhöhung kann ebenfalls zu einer Abnahme des Erlöses führen, wenn die nachgefragte Menge dadurch stark sinkt. Die Abbildung 2.6.1 zeigt den Zusammenhang zwischen der Preis-Absatz-Funktion – der aggregierten Nachfragefunktion – und dem Erlös des Monopolisten. Diesem Zusammenhang haben wir schon im Kapitel 2.3.5 bei der Diskussion von Elastizitäten diskutiert.
Abbildung 2.6.1: Preis-Absatz-Funktion und Erlösfunktion EU, p1 25 20 15 EU 10 XN1
5 5
10
X1
Die aggregierte Güternachfrage lautet in unserem Beispiel XN = 10 - 1p1 . Erst bei einem Preis von unter 10 Geldeinheiten wird die Nachfrage positiv. Bei einem Preis von Null steigt die Nachfrage auf 10 Mengeneinheiten. Die Erlösfunktion des Monopolisten ist wie bei allen Unternehmen allgemein durch
Eu = p1 ⋅ X1 definiert. Allerdings ist beim Monopolisten der Preis kein Datum, sondern durch eine inverse Beziehung zwischen Preis und Menge gekennzeichnet. In dem hier unterstellten Fall liegt das Erlösmaximum bei einem Preis von 5 € und einer hieraus resultierenden Nachfragemenge von 5, also einem Erlös von 25 Geldeinheiten. Jede andere Preis-Mengen-Kombination würde einen geringeren Erlös bewirken. In diesem Umsatzmaximum ist der Grenzerlös Null. Würde eine Gesamtkostenkurve von Null unterstellt, entspräche das Erlösmaximum unmittelbar dem Gewinnmaximum. Der Monopolist würde dann einen Preis von 5 Geldeinheiten festsetzen und 5 Ein-
Neoklassische Mikroökonomie
109
heiten von X1 verkaufen können. Tatsächlich aber fallen Kosten an, wenn ein Angebot auf den Markt gebracht werden soll. Auch die Ableitung eines Gewinnmaximums unter dieser Bedingung bereitet keine Schwierigkeiten. Da unser Unternehmen nur als Anbieter, nicht aber als Nachfrager die Rolle eines Monopolisten wahrnimmt, muss es bei der Nachfrage nach Produktionsfaktoren – ebenso wie jedes andere Unternehmen – den Preis als Datum hinnehmen. Unterstellen wir für Monopolmärkte typische steigende Skalenerträge und damit eine unterproportional steigende Kostenfunktion, dann ist aus Abbildung 2.6.2 unmittelbar das Gewinnmaximum unter der Bedingung eines Angebotsmonopols ablesbar. Denn bei der Produktionsmenge X1 * ist der Abstand zwischen den Erlösen und den Gesamtkosten am größten. Der gewinnmaximierende Preis kann bei bekannter Verkaufsmenge X1 * über die aggregierte Nachfragefunktion ermittelt werden.
Abbildung 2.6.2: Das Gewinnmaximum beim Angebotsmonopol Eu, Kgu
Qu
Kgu Eu
X 1∗
X1
Qu
X1
Auch für den Monopolisten gilt die allgemeine Gewinnmaximierungsbedingung Grenzerlös gleich Grenzkosten unter der Bedingung, dass die zweite Ableitung der Gewinnfunktion negativ ist (vgl. die Gleichung (2.4.23) in Kapitel 2.4.6): dEu dKgu = dX1 dX1
In der Abbildung 2.6.2 lässt sich dieser Sachverhalt daran erkennen, dass im Gewinnmaximum die Steigung der Tangente an der Erlösfunktion gleich der Steigung der Kostenfunktion ist. Allerdings ist der Grenzerlös beim Monopolisten von der Nachfragemenge abhängig, während er bei einem Unternehmen bei vollständiger Konkurrenz von der Nachfrage unabhängig ist und dem Preis des verkauften Gutes entspricht.
110
Neoklassische Mikroökonomie
In Abbildung 2.6.3 ist die Grenzerlös- sowie die Grenzkostenfunktion bei einer gegebenen linearen aggregierten Nachfragefunktion XN1 eingetragen. Die Grenzerlöse werden Null – die Erlöskurve hat ihr Maximum – wenn bei der angenommenen linearen Nachfragefunktion die Hälfte der maximal (zum Preis von Null) nachgefragten Menge erreicht ist. Der Schnittpunkt der Grenzerlösfunktion mit der Grenzkostenkurve (Punkt A) liefert uns die gewinnmaximale Menge X1 * . Wird vom Punkt A senkrecht bis zur Nachfragefunktion nach oben gegangen, wird der so genannte Cournotsche Punkt B erreicht. Dieser wurde nach Augustin Cournot benannt, der als Erster das Angebotsmonopol untersuchte.26 Dieser Punkt erlaubt, auf der Ordinate unmittelbar den Monopolpreis p1 * abzulesen.
Abbildung 2.6.3: Grenzkosten und Grenzerlös beim Angebotsmonopol dE U , p1 , Kgu dX1
B
p1∗
A
Kgu XN1
0
X1
X 1∗ dE U dX1
Das Gewinnmaximum des Monopolisten kann auch formal abgeleitet werden. Da der Monopolist als Nachfrager von Inputs einer unter vielen sein soll, gibt es bei den Grenzkosten keine Modifikationen im Vergleich zur vollständigen Konkurrenz. Allerdings wird die Grenzerlösfunktion komplizierter, da sie nun nicht mehr dem Preis entspricht. Wird in die Erlösfunktion des Monopolisten
Eu = p1X1 die Preis-Absatz-Funktion (Gleichung (2.6.1) eingesetzt, so ergibt sich: (2.6.2)
Eu = p1(X1)X1
Diese spezifische Erlösfunktion spiegelt wider, dass der Preis für den Monopolisten kein Datum ist, sondern von der angebotenen Menge abhängt. Der Grenzerlös entspricht bekanntlich der ersten Ableitung der Erlösfunktion: 27
26
Vgl. Cournot (1924). Die erste französische Ausgabe erschien im Jahre 1838. Bei der Erlösfunktion des Monopolisten verbinden sich zwei Funktionen miteinander, die beide vom Produktionsvolumen abhängen. Somit findet bei der Ableitung die Produktenregel Anwendung: dY = u'⋅ v + v' ⋅ u Y = u(X) ⋅ v(X) ⇒ dX
27
Neoklassische Mikroökonomie
111
dEu dp1 = ⋅ X1 + p1(X1) dX1 dX1
Da entsprechend der Preis-Absatz-Funktion p1 = p1(X1) , folgt: dEu dp1 = ⋅ X1 + p1 dX1 dX1
(2.6.3)
Wird die Grenzerlösfunktion des Monopolisten in die allgemeine Gewinnmaximierungsbedingung dEu dKgu = eines Unternehmens eingesetzt, so folgt: dX1 dX1 dp1 dKgu ⋅ X1 + p1 = dX1 dX1
(2.6.4)
Der Unterschied zur vollständigen Konkurrenz zeigt sich hier recht deutlich. Da die Anbieter bei vollkommener Konkurrenz keinen Einfluss auf die Preise nehmen können, ist bei ihnen der Ausdruck dp1 ⋅ X1 zwingend Null, und der Grenzerlös entspricht ausschließlich dem Preis. Anders beim MonodX1 polisten: Er kann den Preis z. B. senken, um eine zusätzliche Mengeneinheit zu verkaufen. Die Auswirkungen auf die Entwicklung seiner Erlöse zeigen sich dann einerseits durch den zusätzlichen Erlös dank der zusätzlich verkauften Einheit. Aufgrund dieses Mengeneffekts vergrößert sich sein Erlös. Andererseits führt diese Preissenkung eben auch zu sinkenden Erlösen je verkaufter Einheit. Welcher Gesamteffekt sich ergibt, ist auf allgemeiner Ebene offen. Demnach ist der gewinnmaximierende Preis für einen Monopolisten davon abhängig, welchen Preis die Nachfrager zu akzeptieren bereit sind. Wollte ein monopolistischer Anbieter für einen Liter Sonnenblumenöl 150 € verlangen, so würden wohl die gesamten potenziellen Nachfrager auf andere Ölsorten umsteigen. Umgekehrt liegt die Vermutung nahe, dass die wirtschaftliche Macht eines Monopols umso größer sein dürfte, je existenzieller die Güter für die Nachfrager sind und je weniger sie auf Substitute ausweichen können. Im ersten Fall ist die Nachfrage sehr elastisch und im zweiten sehr unelastisch, so dass die Macht eines Monopols zur Erhöhung des Preises offensichtlich von der Elastizität der Nachfrage abhängt. Dieses Ergebnis soll im Folgenden präzisiert werden. Die Grenzerlösfunktion (2.6.3) kann – wenn im ersten Glied auf der rechten Seite der Gleichung Zähler und Nenner mit p1 multipliziert werden und p1 ausgeklammert wird – auch so geschrieben werden: ⎛ dEu dp1 X1 ⎞ = p1 ⎜⎜1 + ⋅ ⎟⎟ dX1 dX 1 p1 ⎠ ⎝
(2.6.5)
Bekanntlich lautet die Preiselastizität der Nachfrage (vgl. Kapitel 2.3.5):
ε X1N/p
1
Da
1
ε X N/ p 1
(2.6.6)
1
=
=
dX1 p1 ⋅ dp1 X1
dp1 X1 ⋅ , folgt: dX1 p1 dEu = p1⎛⎜1 + ⎝ dX1
1
ε X N/p 1
1
⎞ ⎟ ⎠
Diese Definition des Grenzerlöses wird als Amoroso-Robinson-Relation bezeichnet. Wird ε X1N//p1 unendlich groß, so entspricht der Grenzerlös dem Preis, also der Bedingung der vollständigen Konkurrenz. Bei einer Preiselastizität von minus Eins ändert sich bei einer Zunahme der Menge der Erlös nicht, da der Grenzerlös Null wird. Ist die direkte Preiselastizität größer als minus Eins – also z. B. mi-
112
Neoklassische Mikroökonomie
nus 0,5 –, steigt bei zunehmender Menge der Erlös, bei einer Preiselastizität von kleiner als minus Eins sinkt mit zunehmender Menge der Erlös. Diese Zusammenhänge sind schon aus der Diskussion der Elastizitäten (Kapitel 2.3.5) bekannt. Preis und Gewinn in einem Markt mit einem Anbietermonopol unterscheiden sich von Preis und Gewinn im gleichen Markt unter der Bedingung vollständiger Konkurrenz. Um den Vergleich zu vereinfachen, unterstellen wir steigende Grenzkosten sowohl für Unternehmen bei vollständiger Konkurrenz als auch für den Monopolisten. Für ein natürliches Monopol ist dies zwar nicht realistisch, jedoch ändert sich an der grundlegenden Aussage durch die Annahme nichts. Wir können auch einen Monopolisten unterstellen, der aufgrund anderer Faktoren zu seiner Monopolposition gekommen ist, beispielsweise aufgrund von Patentrechten oder der Verfügung über eine knappe Ressource. Der Fall ist in der Abbildung 2.6.4 aufgezeigt. Punkt B in der Abbildung drückt den Cournotschen Punkt aus, da sich bei der Produktionsmenge X1M die Grenzkosten mit den Grenzerlösen des Monopolisten schneiden (im Punkt G). Der monopolistische Gleichgewichtspreis beträgt folglich p1M . Der Monopolgewinn pro Stück wird durch die Strecke BX1M (dem Monopolpreis) minus die Strecke GX1M (den Stückkosten bei der Monopolmenge) symbolisiert. Der Gewinn des Monopolisten wird somit durch die Fläche innerhalb der Eckpunkte Z, G, B und p1M ausgedrückt.
Abbildung 2.6.4: Produzierte Menge und Gewinn im Monopol und bei vollständiger Konkurrenz dE U , XN1, dX1
Kdu, Kgru E Kgru Kdu p 1M
B C
p 1K
D Z 0
G X1M
L
F
XN1 X1
X1K dE U dX1
Bei vollständiger Konkurrenz und gleicher Technologie und damit gleicher Kostenfunktion aller Unternehmen stellt – beginnend im Minimum der Durchschnittskosten – der ansteigende Ast der Grenzkostenkurve die aggregierte Angebotsfunktion auf dem betrachteten Markt dar. Unterstellt ist zudem eine bestimmte Anzahl von Unternehmen, welche hinter der in der Abbildung eingezeichneten Angebotsfunktion stehen. Das Gütermarktgleichgewicht bei vollständiger Konkurrenz ist im angegebenen Fall im Punkt C bei einer Menge von X1K und einem Preis von p1K erreicht. Wir sehen, der Preis ist bei vollständiger Konkurrenz im Vergleich zum Monopolfall geringer und die produzierte und konsu-
Neoklassische Mikroökonomie
113
mierte Menge höher. Der Stückgewinn ist bei vollständiger Konkurrenz durch die Strecke CX1K minus
FX1K symbolisiert; die Gewinnfläche durch die Fläche innerhalb der Punkte D, F, C und p1K definiert. Der aggregierte Gewinn aller Anbieter ist im angegebenen Fall geringer als der Gewinn des Monopolisten. Aber die angegebene Konstellation ist noch nicht das langfristige Gleichgewicht. Gibt es keine Einstrittsschranken in den Markt, dann werden bei vollständiger Konkurrenz bei der Existenz eines Gewinns neue Unternehmen in den Markt eintreten und die Angebotskurve nach rechts verschieben bis das Minimum der Stückkosten bzw. der Beginn der Angebotsfunktion den Punkt L in der Abbildung 2.6.4 erreichen. Denn erst wenn Preis und Stückkosten den gleichen Wert annehmen und das Betriebsoptimum erreicht ist, ist das langfristige Gleichgewicht erreicht (vgl. Kapitel 2.5.2). Der Monopolmarkt beeinträchtigt somit die Konsumenten, die im Vergleich zum Fall vollständiger Konkurrenz höhere Preise bezahlen müssen und weniger konsumieren können. Gleichzeitig führt das Angebotsmonopol zu Umverteilungseffekten zum Vorteil des Monopolisten bzw. dessen Eigentümer. Gemessen an den Ergebnissen bei vollständiger Konkurrenz wird das Marktresultat bei einem Angebotsmonopol als suboptimal bezeichnet, das die gesellschaftliche Wohlfahrt reduziert.28 Zur Erfassung des Monopoleffektes für Haushalte, die nicht zu den Eigentümern des Monopols gehören, bietet sich das Konzept der Konsumentenrente an. Die Konsumentenrente besagt, dass Haushalte in der Regel bereit sind, einen höheren Preis für ein Gut zu zahlen als sie es tatsächlich müssen. In der Nachfragegerade in Abbildung 2.6.4 wie bei jeder üblichen Nachfragefunktion gibt es eine sehr kleine Zahl von Konsumenten, die bereit sind, einen sehr hohen Preis für ein Gut zu bezahlen. Sinkt der Preis, dann kommen weitere Nachfrager hinzu, die jetzt bereit sind, das Gut für den Preis zu kaufen. Bei vollständiger Konkurrenz würde der Preis des Gutes in der Abbildung 2.6.4 langfristig auf die Strecke GX1M fallen und die Nachfrage- und Angebotsmenge würde bis auf die Menge L ausgedehnt. Beim letzten (marginalen) Konsumenten, der beim langfristigen Preis bei vollständiger Konkurrenz das Gut gerade noch bereit ist zu kaufen, würde seine Zahlungsbereitschaft genau dem Preis entsprechen. Alle anderen Konsumenten, die bereit wären einen höheren Preis zu zahlen, realisieren eine Konsumentenrente. Die Konsumentenrente ist somit die Fläche innerhalb der Punkte Z, L und E. Ein Monopolist reduziert die Konsumentenrente drastisch, und zwar auf die Fläche innerhalb der Punkte p1M , B und E. Ein Teil der verlorenen Konsumentenrente würde sich der Monopolist als Gewinn aneignen, nämlich die Fläche zwischen den Punkten Z, G, B und p1M . Rechenbeispiel eines Angebotsmonopols und Vergleich zu vollständiger Konkurrenz 5 Die in unserem Beispiel unterstellte Nachfragefunktion soll XN1 = 10 - ⋅ p1 sein. Beträgt der Preis 6 5 z. B. sechs Geldeinheiten, so ergibt sich eine nachgefragte Menge von 10 − ⋅ 6 = 5. Bei einem Preis 6 von 1,2 Geldeinheiten werden folglich neun Mengeneinheiten und bei einem Preis von 8,4 drei Einheiten verkauft. Wird die Gleichung nach p1 umgestellt, so ergibt sich die Preis-Absatz-Funktion, wobei wir in der Preis-Absatz-Funktion X 1 für XN 1 setzen:
p1 = -1,2X1 + 12 Sie zeigt, welche Preise das monopolistische Unternehmen erzielen kann, wenn es die jeweilige Menge festlegt. Entscheidet es sich z. B. für drei Mengeneinheiten, so wird der Preis 8,4 Geldeinheiten betragen. Bei sieben Mengeneinheiten müsste sich der entsprechende Preis auf 3,6 und bei neun Mengeneinheiten auf 1,2 Geldeinheiten belaufen. Der Erlös ergibt sich als Produkt von Preis und verkaufter
28
Als Kriterium gesellschaftlicher Wohlfahrt dient hier die Pareto-effiziente Allokation der Ressourcen, die im Kapitel 2.9.2 entwickelt wird.
114
Neoklassische Mikroökonomie
Menge. Setzen wir die Preis-Absatz-Funktion in die Erlösfunktion des Monopolisten ein, dann ergibt sich:
Eu = p1X1 = (-1,2X1 + 12) X1 = - 1,2 X12 + 12X1 Bei z. B. drei verkauften Einheiten beläuft sich der Erlös ebenso wie bei sieben Mengeneinheiten auf 25,2 Geldeinheiten und bei neun Mengeneinheiten auf 10,8 Geldeinheiten. Als Grenzerlösfunktion ergibt sich: dEu = −2,4X1 + 12 dX1
Die Kostenfunktion sei Kgu = 0,625 X1 2 . Die Gesamtkosten belaufen sich bei einer Produktion von drei Einheiten auf 5,625 Geldeinheiten und bei sieben Einheiten auf 30,625 Geldeinheiten. Als GrenzKgru = 1,25 X1 . kostenfunktion ergibt sich Unser Monopolist wird den Produktionsumfang so gestalten, dass die Differenz zwischen Erlösen und Kosten am größten ist. Dies ist immer dann der Fall, wenn die erste Ableitung der Gewinnfunktion Gu = Eu(X1) - Kgu(X1) den Wert Null annimmt. Demnach gilt:
G = -1,2X12 + 12X1 - 0,625 X12 dG = −2, 4X1 +12 − 2 ⋅ 0,625X1 = 0 dX1 dG = −3,65X1 +12 = 0 dX1
X1 ≈ 3,29 Das Gewinnmaximum unseres Monopolisten ist bei einem Angebot von etwa 3,29 Einheiten erreicht. Bei diesem Mengenangebot beträgt der über die Preis-Absatz-Funktion errechnete Preis 8,052 Geldeinheiten (p1 = -1,2 ⋅ 3,29 + 12) . Der Gesamterlös beläuft sich im Gewinnmaximum auf 8,052 ⋅ 3,29, dEu = −2,4 ⋅ 3,29 + 12) . Die Gealso auf etwa 26,49 und der Grenzerlös auf rund 4,1 Geldeinheiten ( dX1 samtkosten belaufen sich bei einem Output von 3,29 Einheiten auf 0,625 ⋅ 3,29 2 , also auf ≅ 6,77 und die entsprechenden Grenzkosten auf 4,1 Geldeinheiten. Die Grenzkosten entsprechen somit dem Grenzerlös, und der Monopolist realisiert einen Gewinn von 19,72 Geldeinheiten, der sich aus der Differenz zwischen dem Erlös (= 26,49 Geldeinheiten) und den Gesamtkosten (= 6,77 Geldeinheiten) ergibt. Nun ist natürlich von Interesse, ob bzw. inwieweit dieses Ergebnis von demjenigen abweicht, das sich bei vollständiger Konkurrenz ergeben hätte. Die Nachfragefunktion in dem hier unterstellten Beispiel beträgt: 5 XN1 = 10 - ⋅ p1 6
Wir wissen, dass Unternehmen unter der Bedingung vollständiger Konkurrenz dort ihr Gewinnmaximum haben, wo Grenzkosten und Preis übereinstimmen. Unterstellen wir, dass die Summe der individuellen Grenzkostenfunktionen der Anbieter unter vollständiger Konkurrenz der Grenzkostenfunktion des Monopolisten entspricht, dann gilt als aggregierte Grenzkostenfunktion aller individuellen Anbieter Kgr = 1,25X1 . Da bei vollständiger Konkurrenz im Gewinnmaximum Kgr = p1 ist, folgt unmittelbar p1 = 1,25X1 . Durch Umstellen erhalten wir die Angebotsfunktion:
Neoklassische Mikroökonomie
XA1 =
115
4 ⋅ p1 5
Die Marktgleichgewichtsbedingung lautet XA1 = XN1. Werden die aggregierte Angebots- und Nachfragefunktion in die Marktgleichgewichtsbedingung eingesetzt, folgt: 4 5 ⋅ p1 = 10 - ⋅ p1 5 6
Es ergibt sich bei vollständiger Konkurrenz als Gleichgewichtspreis p1 ≈ 6,12 Geldeinheiten. Wird der Gleichgewichtspreis in die Angebots- und Nachfragefunktion eingesetzt, ergibt sich als gleichgewichtige Angebots- und Nachfragemenge eine Menge von je rund 4,9 Einheiten. Der Umsatz aller Anbieter beträgt E = p1 ⋅ X1 , also E = 6,12 ⋅ 4,9 ≈ 30 Geldeinheiten . Die Gesamtkosten aller Anbieter betragen
Kg = 0,625 X1 2 , also Kg = 0,625 ⋅ 4,9 2 ≈ 15 Geldeinheiten. Der Gewinn aller Anbieter beträgt bei vollständiger Konkurrenz somit rund 15 Geldeinheiten, während der Monopolist einen Gewinn von etwa 26,49 Geldeinheiten realisieren konnte. Demnach hätten die Unternehmen unter der „Knute“ der vollständigen Konkurrenz mehr Güter produziert und angeboten und zwar zu einem niedrigerem Preis als unter monopolistischen Bedingungen. Gleichzeitig ist der aggregierte Gewinn aller individuellen Anbieter geringer als der Monopolgewinn. Unterstellt wurde allerdings – wie gesagt – eine gleiche Kostenfunktion. Die beschriebenen negativen Effekte von Monopolen sind im Übrigen der Grund dafür, dass wirtschaftspolitisch z. B. durch eine Kartellgesetzgebung und entsprechender Institutionen versucht wird, den Einfluss ökonomisch dominanter Großunternehmen zu begrenzen und Monopole zu verhindern. Bei steigenden Skalenerträgen besteht allerdings das Problem, dass eine Begrenzung der Unternehmensgröße zu geringerer technischer Effizienz führt. Großunternehmen sind somit nicht automatisch schlecht. Oftmals werden national dominante Unternehmen toleriert oder gar gefördert, um die Vorteile steigender Skalenerträge ausnutzen zu können. So wäre es etwa beim Schienenverkehr wenig sinnvoll, innerhalb eines Landes eine Vielzahl von Bahngesellschaften zu haben, die auf getrennten Streckennetzen die gleichen Linien befahren. Wenn es technologisch sinnvoll ist, ein Monopol bei der Produktion eines bestimmten Gutes zu haben, etwa der Wasserversorgung oder beim schon erwähnten Schienenverkehr, muss der Staat regulativ eingreifen. So könnte der Staat im Beispiel des Falles in Abbildung 2.6.4 im einfachsten Fall den Preis für das Gut auf das Niveau des Punktes D festsetzten. Der Monopolist, der seinen Gewinn maximiert, würde dann die Menge L anbieten und nur den Normalgewinn realisieren, der ja Teil der Kosten ist. Kommen wir kurz nochmals auf oligopolistische Märkte zurück. Bei solchen Märkten lassen sich keine eindeutigen Aussagen über die Preis- und Mengengestaltung machen. Die Begründung dafür liegt darin, dass sich ein Oligopol nicht an einer eindeutigen Nachfrage- bzw. Preis-Absatz-Kurve orientieren kann. Bei vollständiger Konkurrenz verläuft die Nachfragekurve aus der Sicht eines einzelnen Unternehmens horizontal. Auch unter monopolistischen Bedingungen ist der Verlauf der Nachfragekurve eindeutig. Sie ergibt sich aus der Nachfragekurve des Gesamtmarktes. Aber ein Oligopol kann nicht von einer gegebenen Nachfragekurve ausgehen. Wenn ein Oligopol seine angebotene Menge und den Preis seines Produktes ändert, muss es mit Reaktionen der anderen Oligopole rechnen. Somit ist unklar, wie hoch sein Umsatzanteil bei jeweiligen Preisen sein wird. Die Lösung hängt von der Marktstärke und den strategischen Zielen der beteiligten Oligopole ab, sowie von der Bereitschaft zu angepasstem Verhalten. Sofern sich die Oligopole faktisch auf ein gemeinsames Vorgehen einigen können, ist ihre Machtposition mit der des Monopols vergleichbar. Sie agieren dann faktisch wie ein Monopol. Sofern sie sich umgekehrt auf einen bedingungslosen Wettbewerb einlassen, kann der Konkurrenzkampf äußerst ruinös werden, da die Oligopole durch ihre Größe Einfluss auf den Preis nehmen können. Oligopole sind aber auf jeden Fall dazu gezwungen, bei eigenen Entscheidungen die möglichen Reaktions-
116
Neoklassische Mikroökonomie
muster der übrigen Anbieter zu berücksichtigen. Hier hilft letztlich nur die Spieltheorie weiter, die wir in diesem Lehrbuch jedoch nicht behandeln. Kernpunkte Bei einem Angebotsmonopol steht ein Anbieter typischerweise vielen Nachfragern gegenüber. Ein natürliches Monopol ergibt sich marktmäßig bei stark steigenden Skalenerträgen. Auch andere Faktoren wie Verfügbarkeit über eine Ressource können zu einem Angebotsmonopol führen. Ein Angebotsmonopolist maximiert seinen Gewinn, wenn Grenzerlös und Grenzkosten den gleichen Wert annehmen (und die zweite Ableitung der Gewinnfunktion negativ ist). Der Grenzerlös hängt vom Preis und der Preiselastizität der Nachfrage ab (Amoroso-Robinson-Relation). Der Cournotsche Punkt gibt auf der Nachfragefunktion die gewinnmaximale Preis-MengenKombination für den Monopolisten an. Der Angebotsmonopolist kann permanent einen Monopolgewinn realisieren, eignet sich Teile der Konsumentenrente an und führt zu Umverteilungseffekten von Einkommen und Wohlstand. 2.6.2 Monopolistische Konkurrenz Fragestellung Was drückt monopolistische Konkurrenz aus? Können Unternehmen bei monopolistischer Konkurrenz Monopolprofite realisieren? Löst die monopolistische Konkurrenz das Problem der Preissetzung, die bei vollständiger Konkurrenz existiert? Monopolistische Konkurrenz löst das Modell der vollständigen Konkurrenz in der Form auf, dass von der Annahme homogener Güter abgegangen wird. Dieses Marktmodell, das von den Ökonomen J. Robinson und E.H. Chamberlin in den 1930er Jahren entwickelt wurde, behält die Annahme einer Vielzahl von Anbietern in einem Markt bei und auch die Annahme niedriger Eintrittsbarrieren. Aus diesem Grunde entwickeln sich bei monopolistischer Konkurrenz auch keine Großunternehmen, die eine Marktmacht aufbauen könnten und durch steigende Skalenerträge von neu in den Markt eintretenden Unternehmen geschützt sind. Das entscheidende Argument für monopolistische Konkurrenz ist die Einführung von Produktdifferenzierung die in der Tat geradezu alle Märkte umfasst. Solche Differenzierungen können erstens die Qualität von Produkten umfassen, die von Unternehmen auch künstlich durch Marketingmaßnahmen und den Aufbau von Markennahmen geschaffen werden können. Teil der Produktqualität sind auch attraktive Verkaufsräume, freundliche und kompetente Beratung oder ähnliche Faktoren. Eine Rolle spielen zweitens räumliche Faktoren – der Bäcker um die Ecke hat einen Vorteil gegenüber dem Bäcker zwei Straßen weiter. Schließlich ist der Zeitpunkt der Bereitstellung des Gutes ein Kriterium, also wann es geliefert wird. Nimmt man alle diese möglichen Differenzierungen eines Gutes, dann wird monopolistische Konkurrenz zum allgemeinen Fall und die vollkommene Konkurrenz zum Spezialfall. Produktspezifizierung gibt es selbstverständlich nicht nur beim Fall vieler Anbieter, sondern auch bei oligopolistischen Märkten. Selbst ein Monopol kann verschiedene Varianten seines Produktes anbieten. Bei oligopolistischen Märkten steht in aller Regel nicht die Preispolitik im Zentrum der Konkurrenz, sondern die Diversifizierung des Produktes. Ein Beispiel ist der Automarkt mit seiner oligopolistischen Struktur und seiner Vielzahl an Modellen. Aber bleiben wir bei der monopolistischen Konkurrenz. Unternehmen im Rahmen monopolistischer Konkurrenz liefern ein spezifisches Produkt und bauen sich dadurch eine Monopolstellung für dieses spezifische Produkt auf. Allerdings ist die Monopolstellung sehr schwach, da schon bei relativ geringen Preiserhöhungen die Nachfrager in großem Umfang abspringen. Wird der Bäcker um die Ecke zu teuer – um beim Beispiel der lokalen Differenzierung zu bleiben – dann geht man lieber zwei Straßen weiter zum Brötcheneinkaufen. Eine flach verlaufende Nachfragefunktion würde zudem bewirken,
Neoklassische Mikroökonomie
117
dass ein Anbieter auch bei Preissenkungen nicht unendlich viel verkaufen könnte. Aber Preissenkungen finden beim Fall monopolistischer Konkurrenz enge Grenzen, da von steigenden Skaleneffekten abgesehen wird. Ist jedes Unternehmen Anbieter eines spezifischen Produktes, dann hat jedes Unternehmen eine begrenzte Monopolstellung. Damit kann das oben entwickelte Instrumentarium des Angebotsmonopols auf die monopolistische Konkurrenz übertragen werden. In Abbildung 2.6.5 ist für ein Unternehmen u unter monopolistische Konkurrenz die individuelle Nachfragefunktion XN1u* mit der entsprechenden Grenzerlösfunktion eingezeichnet. Es werden konstante Skalenerträge unterstellt. Dies bedeutet, dass bei einer langfristigen Betrachtung die langfristigen Grenzkosten Kgru den langfristigen Stückkosten Kdlu entsprechen. Das Unternehmen sucht den Schnittpunkt von Grenzkosten und Grenzererlösen, um die zu produzierende Menge und den Preis zu finden, der die Gewinne maximiert. In der Abbildung ist der Punkt A auf der Nachfragefunktion der entsprechende Cournotsche Punkt, der die gewinnmaximale Preis-Mengen-Kombination angibt. Der Gewinn des Unternehmens entspricht dem Stückgewinn multipliziert mit der gewinnmaximalen Menge. All dies ist bekannt vom normalen Angebotsmonopol (vgl. Kapitel 2.6.1). Es gibt jedoch einen gewaltigen Unterschied zwischen dem normalen Angebotsmonopol und einem Unternehmen unter monopolistischer Konkurrenz. Bei monopolistischer Konkurrenz gibt es keine Eintrittsbarrieren in den Markt. Bei Gewinnen werden somit neue Unternehmen in den Markt eintreten. Kommen wir auf das Beispiel der Bäckereien zurück, die sich aufgrund ihrer Lage differenzieren. Wenn Bäckereien aufgrund ihrer Lage Gewinne machen können, werden zusätzliche Bäckereien in den Markt eintreten, so dass dann in jeder Straße eine Bäckerei ist oder auch mehrere. Für die im Markt etablierte Bäckerei, die sich gegen den Markteintritt nicht wehren kann, bedeutet der Eintritt neuer Bäckereien eine Abnahme der Nachfrage nach ihren Produkten. Formal drückt sich dies in einer Linksverschiebung der Nachfragefunktion in Abbildung 2.6.5. Die nun gegebene individuelle Nachfragefunktion XN1u** mit der entsprechenden Grenzerlösfunktion führt zum Cournotschen Punkt B. Bei diesem Punkt sind sowohl die verkaufte Menge der Bäckerei, der Preis des verkauften Produktes als auch die Monopolgewinne gesunken. Neue Bäckereien werden in den Markt eintreten bis alle Monopolgewinne verschwunden sind. Wenn wir unterstellen, dass Bäckereiunternehmen alle gleichermaßen in der Lage sind ihre Produkte zu differenzieren, dann werden im langfristigen Gleichgewicht alle wie bei vollständiger Konkurrenz nur noch Normalgewinne realisieren können, die Teil der Kosten sind.
118
Neoklassische Mikroökonomie
Abbildung 2.6.5: Unternehmen bei monopolistischer Konkurrenz
K gru , K dlu ,
dE dX1
A B
K gru = K dlu
XN1u **
XN1U * X1u
dE u ** dX1u
dE u * dX1u
Wir können im Fall monopolistischer Konkurrenz unterstellen, dass unterschiedliche Unternehmen ihre Produkte unterschiedlich gut differenzieren können. Bietet eine Bäckerei ein besonders gutes Brot an, das andere Bäckereien nicht kopieren können, dann wird diese Differenzierung zur Quelle erhöhter Gewinne – vergleichbar mit einer überdurchschnittlich guten Technologie im Falle vollständiger Konkurrenz. Aber auch bei der Produktdifferenzierung muss davon ausgegangen werden, dass es sich um eine Quasi-Rente handelt, die verschwindet, wenn andere Unternehmen in der Differenzierung nachziehen. An dieser Stelle können wir die zweite Dimension kapitalistischer Konkurrenz verstehen. Die erste war die permanente Jagd nach einer überlegenen Technologie, welche die Kosten eines Unternehmens unter die der Konkurrenten senkt. Die zweite ist die permanente Jagd nach neuen Produkten und Produktdifferenzierungen, um auf diesem Wege überdurchschnittlich hohe Gewinne realisieren zu können. Bei monopolistischer Konkurrenz und konstanten Skalenerträgen wird es wie bei vollständiger Konkurrenz große und kleine Unternehmen geben. Dabei wissen die großen Unternehmen, dass bei Preiserhöhungen Konsumenten sofort zu anderen Produzenten abwandern. Bei monopolistischer Konkurrenz und fallenden Skalenerträgen sind nur kleine Unternehmen zu erwarten. Im vorherigen Kapitel wurde angemerkt, dass es bei vollständiger Konkurrenz unklar bleiben muss, wer die Preise auf Märkten verändern soll, wenn sich alle Marktteilnehmer als Mengenanpasser verhalten. Das Problem ist bei monopolistischer Konkurrenz gelöst. Auf einen letzten Punkt soll hier noch eingegangen werden. Unterstellen wir ein langfristiges Gleichgewicht bei monopolistischer Konkurrenz und eine Erhöhung der Stückkosten. In diesem Falle werden
Neoklassische Mikroökonomie
119
alle Unternehmen die Preise sofort erhöhen. Sie werden einem so genannten Mark-Up-Pricing folgen und die Kosten auf die Preise überwälzen. Sie haben die Macht dazu, denn sie können Preise selbst festsetzen. Und sie müssen die Preise erhöhen, da sie ansonsten Verluste machen und langfristig nicht überleben könnten. Denkbar ist, dass die Gesamtnachfrage in dem Markt bei Preiserhöhungen zurückgeht. Aber dann müssen einige Unternehmen den Markt verlassen und/oder existierende weniger produzieren. Wir werden im makroökonomischen Teil dieses Lehrbuchs sehen, dass das Mark-Up-Pricing im Keynesianischen Paradigma eine zentrale Rolle spielt und dieses Paradigma eine Preissetzungsmacht von Unternehmen unterstellt, die bei monopolistischer Konkurrenz (wie auch beim normalen Angebotsmonopol und Oligopolen) gegeben ist. Kernpunkte Bei monopolistischer Konkurrenz differenzieren Unternehmen ihre Produkte und erhalten dadurch eine begrenzte Monopolstellung. Da konstante oder fallende Skalenerträge und damit keine Markteintrittsbarrieren unterstellt werden, gibt es bei monopolistischer Konkurrenz viele Unternehmen im Markt, die keine Vormachtstellung aufbauen können. Langfristig gibt es bei monopolistischer Konkurrenz keine Monopolgewinne. Unternehmen bei monopolistischer Konkurrenz folgen einem Mark-Up-Pricing. Damit ist das Problem vollständiger Konkurrenz gelöst, da bei reinen Mengenanpassern unklar ist, wer auf dem Markt Preise verändern kann. Mark-Up-Pricing spielt in makroökonomischen Modellen eine wichtige Rolle.
120
Neoklassische Mikroökonomie
2.7 Neoklassische Arbeitsmarkttheorie 2.7.1 Vorbemerkungen In aggregierter Form sehen die Angebots- und Nachfragekonfigurationen des Arbeitsmarktes im neoklassischen Paradigma wie folgt aus:
Abbildung 2.7.1: Der neoklassische Arbeitsmarkt Reallohnsatz Arbeitsangebot
Reallohnsatz* Arbeitsnachfrage Stunden*
Stunden
Diese grafische Version des Arbeitsmarktes erinnert nicht zufällig an die analoge Darstellung eines Gütermarktes. Auf der Abszisse werden auch in diesem Fall Mengen – Beschäftigungsmengen (Arbeitsstunden) – und auf der Ordinate wird der für den neoklassischen Arbeitsmarkt relevante Preis, der Reallohnsatz bzw. Stundenlohn, abgetragen. Der Reallohnsatz besteht aus dem Güterkorb, den ein Arbeitnehmer für eine Arbeitsstunde erhält und den ein Unternehmen für eine Arbeitsstunde bezahlen muss. Im einfachsten Fall kann man sich vorstellen, dass bei Lohnverhandlungen direkt Gütermengen ausgehandelt werden. In kapitalistischen Ökonomien werden auf dem Arbeitsmarkt zwar nur Geldlöhne ausgehandelt, aber es wird hier unterstellt, dass auch bei Geldlohnverhandlungen immer ein Warenkorb ausgehandelt wird. Bei der Existenz von Geldlöhnen ist der Reallohnsatz definiert durch den Geldlohn bzw. Nominallohn pro Stunde dividiert durch das Preisniveau. Dadurch werden inflationäre oder deflationäre Effekte, die eine Differenz zwischen der Geldlohn- und Reallohnentwicklung erzeugen, herausgerechnet. Wir könnten im folgenden Kapitel ganz auf Geldpreise verzichten. Jedoch werden wir Preise zur einfacheren Übertragung auf die existierende Welt benutzen, jedoch spielen sie, wie sich zeigen wird, keine Rolle. Im Unterschied zum Gütermarkt sind auf dem Arbeitsmarkt die Haushalte Anbieter (von Arbeitsleistungen) und die Unternehmen Nachfrager. Die Abbildung 2.7.1 zeigt, dass bei steigendem Reallohnsatz die Nachfrage der Unternehmen nach Arbeitsleistungen sinkt und das Arbeitsangebot der Haushalte steigt. Zur Ableitung eines Gleichgewichts auf dem Arbeitsmarkt müssen erneut verschiedene Modellannahmen vorausgesetzt werden. So wird im einfachen Grundmodell von unterschiedlichen Qualifikationen der Arbeitskräfte abgesehen. Des Weiteren sollen Arbeitsangebot und Arbeitsnachfrage beliebig teilbar sein, so dass Arbeitskontrakte sowohl über 117 Minuten als auch über 712 Minuten täglich abgeschlossen werden können. Schließlich wird auch der Arbeitsmarkt zunächst als ein vollkommener Markt im neoklassischen Sinne aufgefasst. „Monopole“ wie Gewerkschaften und Arbeitgeberverbände werden
Neoklassische Mikroökonomie
121
ausgeschlossen, alle Akteure sind umfassend informiert und verhalten sich rational. Dadurch wird der Reallohnsatz, gerade so wie der Preis aller anderen Güter, für den einzelnen Marktakteur zum Datum. Arbeitnehmer und Arbeitgeber können nur noch über Mengen – also über nachgefragte und angebotene Arbeitsstunden – disponieren. Unterstellt werden die Annahmen vollständiger Konkurrenz. Im Rahmen der bisherigen theoretischen Erörterungen des Nachfrageverhaltens von Haushalten haben wir gesehen, dass es von mehreren Determinanten abhängt: von den Preisen der Güter, von der Präferenzordnung der Haushalte und von deren Budget. Ein wesentlicher Bestimmungsfaktor des Budgets ist das Arbeitseinkommen, das wir bei der Haushaltstheorie als exogen angenommen haben. Nunmehr soll diese Lücke neoklassisch geschlossen und das Einkommen selbst als endogene Variable hergeleitet werden. Später wird auch das Zinseinkommen und damit das Gesamteinkommen im Rahmen des neoklassischen Modells erklärt. Bei der Analyse des Arbeitsmarktes und später auch des Kapitalmarktes wird die Existenz nur eines Gutes in der Ökonomie unterstellt, das potenziell als Konsum- und als Kapitalgut verwendet werden kann.28 Ein solches Modell soll als Eingutwelt bezeichnet werden. Es existiert in den Wirtschaftswissenschaften eine lange Tradition, Weizen als dieses Gut anzunehmen. In einer „Weizenwelt“ ist es intuitiv einsichtig, dass der produzierte Weizen einerseits konsumiert werden und andererseits in der Funktion des Saatgutes auch als Kapitalgut fungieren kann. In der Weizenwelt ist auch unmittelbar klar, dass Lohnverträge in Weizen abgeschlossen werden und Geld keine Rolle spielt. Geld spielt in der neoklassischen Ökonomie zumindest langfristig keine Rolle (vgl. Kapitel 3). Somit entspricht die Vernachlässigung von Geld dem Kern neoklassischen Denkens. Die Unterstellung einer Ökonomie mit nur einem Kapitalgut stellt zweifellos eine nicht zu akzeptierende Abstraktion dar, da schon bei Berücksichtigung eines zweiten Gutes, das als Kapitalgut fungiert, zentrale makroökonomische Gesetzmäßigkeiten bei der Nachfrage nach Arbeit und Kapital seitens der Unternehmen, die in der Eingutwelt aufgestellt werden, ihre Gültigkeit verlieren (vgl. Kapitel 3.3). Dennoch soll bei der Analyse des Arbeits- und des Kapitalmarktes zunächst eine Eingutwelt unterstellt werden, um zentrale Argumentationen des neoklassischen Paradigmas zu entwickeln. Erstens erscheint dies didaktisch vorteilhaft. Sowohl ein Großteil der volkswirtschaftlichen Lehrbücher als auch der wirtschaftspolitischen Diskussion basiert auf Gesetzmäßigkeiten, die auf Basis einer Ökonomie mit einem Kapitalgut abgeleitet wurden. Es ist somit für eine volkswirtschaftliche Einführung zumindest wünschenswert, die theoretischen Grundlagen der gängigen Argumentationen zu kennen. Zweitens wird die Ableitung der mikroökonomischen Handlungskalküle der Wirtschaftssubjekte durch die Annahme einer Eingutwelt nicht eingeschränkt. Für die Ableitung der mikroökonomischen neoklassischen Handlungskalküle ist die Annahme einer Welt mit einem Kapitalgut somit eine angemessene Abstraktion. 2.7.2 Arbeitsangebot Fragestellung Welche Kalküle bestimmen nach neoklassischer Sicht das Angebot an Arbeit seitens der Haushalte? Welchen Verlauf hat die Angebotsfunktion nach Arbeit und was bestimmt ihre Lage?
28
Die Annahme der Existenz nur eines Kapitalgutes kann durch die Annahme gleicher Kapitalintensitäten (Relationen von Kapitaleinsatz pro Arbeiter) in allen Branchen ersetzt werden. Aber dies läuft auf die Existenz nur eines Kapitalgutes hinaus.
122
Neoklassische Mikroökonomie
Durch die explizite Einführung eines Arbeitsmarktes werden die Wahlentscheidungen, die die Haushalte zu treffen haben, differenzierter. Bislang mussten unsere Modellhaushalte lediglich darüber befinden, für welches konkrete Güterbündel sie ihr gegebenes Budget ausgeben wollen. Nunmehr stehen sie darüber hinaus vor der Entscheidung, wie lange sie zum herrschenden Lohnsatz arbeiten möchten und wie „wertvoll“ ihnen das Konsumgut „Freizeit“ ist. Es wird angenommen, dass jeder Haushalt über eine so genannte Erstausstattung an Ressourcen verfügt. In dem hier interessierenden Fall ist die Erstausstattung die Verfügbarkeit über Zeit. Der Haushalt kann sein Zeitbudget pro Tag – sieht man einmal von den notwendigen Erholungsphasen ab – entweder als Arbeitszeit verwenden oder als Freizeit konsumieren. Selbstverständlich gehen Haushalte einer Arbeit nicht „just for fun“ nach, sondern sie wollen mittels des so erreichbaren Einkommens, je nach Präferenzordnung, spezifische Güter erwerben und durch deren Konsum ihren Nutzen maximieren. Demzufolge spendet Arbeit an sich keinen Nutzen (Selbstverwirklichung etc.), sondern ist mit „Leid“ verbunden, das durch Einkommen kompensiert wird.29 Arbeit und der über Arbeitseinkommen ermöglichte Konsum beinhalten Opportunitätskosten in Höhe des entgangenen Nutzens, der durch den Konsum des Gutes Freizeit entstanden wäre. Aber auch eine Entscheidung zugunsten von größerem Freizeitkonsum erzeugt Opportunitätskosten. In diesem Fall entstehen zwingend Opportunitätskosten in Höhe des entgangenen Einkommens bzw. des Konsumverzichts von jenen Gütern, die ansonsten hätten konsumiert werden können. Der Haushalt steht bei seiner Nutzenmaximierung vor einem Optimierungsproblem, das folgende simultane Entscheidungen umfasst: Er muss zum einen über die Höhe seines Einkommens durch ein Abwägen der Vor- und Nachteile von Freizeit bzw. Güterkonsum, und zum anderen über die optimale Verwendung dieses dann gegebenen Einkommens für den Kauf von verschiedenen Konsumgütern entscheiden. Der Haushalt muss also darüber entscheiden, welche Freizeitmenge und welches Bündel aller konsumierbaren Güter außer Freizeit er konsumieren möchte. Für die Ableitung des Arbeitsangebots soll im Folgenden das Bündel an Konsumgütern auf Weizen reduziert werden, eine Abstraktion, die unproblematisch ist. Die konsumierte Weizenmenge steht damit für den gesamten Konsum eines Haushalts. Sehen wir uns die Entscheidungsparameter eines Haushalts genauer an. Offensichtlich hängt die Wahl zwischen Freizeit und Güterkonsum neben der Lohnhöhe von den individuellen Präferenzen bzw. von der Wertschätzung der Freizeit im Vergleich zum Konsum sonstiger Güter ab. Die individuellen Präferenzen des h-ten Haushalts werden durch die folgende Nutzenfunktion ausgedrückt: (2.7.1)
Uh = Uh (Wg, F)
Die Nutzenfunktion des Haushaltes h wird somit vom Konsum der Weizenmenge (Wg) und von der Freizeit (F), die der Haushalt genießt, bestimmt. Aus der Nutzenfunktion können, wie schon aus der Analyse des Gütermarktes bekannt, Indifferenzkurven abgeleitet werden. Die Abbildung 2.7.2 gibt verschiedene Indifferenzkurven für den Haushalt h an. Auf der Ordinate ist der Güterkonsum abgetragen, auf der Abszisse die konsumierbare Menge Freizeit. Als Zeitperiode wird ein Tag unterstellt, so dass auf der Abszisse Freizeit in Stunden pro Tag angegeben ist.30 Die einem Haushalt zur freien Disposition zur Verfügung stehende Zeitperiode kann 24 Stunden pro Tag aus unmittelbar einsichtigen 29
Es wäre in diesem Modell ohne Probleme möglich, der Arbeit aufgrund von Selbstverwirklichung etc. einen eigenen Nutzen in bestimmter Höhe zu geben. Das für den Haushalt zu lösende Optimierungsproblem würde in diesem Falle komplizierter, ohne die grundlegende Argumentation und die zentralen Ergebnisse der Analyse zu verändern. 30 Als Zeitperiode könnte auch eine Woche, ein Monat oder ein Jahr benutzt werden. Aus Darstellungsgründen wählen wir als Periode einen Tag. Die Ergebnisse können dann problemlos auf jede beliebige Periode übertragen werden.
Neoklassische Mikroökonomie
123
Gründen nicht übersteigen. Zudem benötigen Haushalte, sagen wir, im Durchschnitt acht Stunden zur physischen Reproduktion, so dass dann nur 16 Stunden zur freien Disposition stehen. Der maximale Freizeitkonsum ohne Reproduktionszeit ( Fmax ) beträgt somit 16 Stunden. Die 16 Stunden disponibler Zeit können vom Haushalt in Freizeit und Arbeitszeit aufgeteilt werden. Die Abbildung 2.7.2 hat den Vorteil, dass implizit auch die Arbeitszeit auf der Abszisse abgelesen werden kann. Ist der Freizeitkonsum kleiner als Fmax , dann muss die Arbeitszeit zwingend der Differenz zwischen Fmax und der tatsächlich konsumierten Freizeit entsprechen. Man sollte beachten, dass eine Verlängerung der Arbeitszeit durch eine Wanderung entlang der Abszisse von rechts nach links dokumentiert wird. Konsumiert der Haushalt z. B. die Freizeitmenge F0 , dann entspricht der Freizeit die Strecke 0F0 und die Arbeitszeit der Strecke F0Fmax .
Abbildung 2.7.2: Indifferenzkurven bei der Arbeit-Freizeit-Entscheidung
Wg
U h1
U 2h
U 3h
U 4h
Wg2
Wg1 0 Freizeit →
F0
Fmax = 16Std. F ← Arbeitszeit Reproduktionszeit
Wir wissen, dass eine Indifferenzkurve unterschiedliche Kombinationsmöglichkeiten des Konsums von Gütern unterstellt, wobei jede Güterkombination das gleiche individuelle Nutzenniveau repräsentiert. Sehen wir uns die Indifferenzkurve U 2h genauer an. Wird, beginnend bei Fmax , die Freizeit zugunsten der Arbeitszeit eingeschränkt, wandert man entlang der Indifferenzkurve U 2h nach links oben. Dies ist gleich bedeutend mit einem höheren realen Einkommen bzw. einem höheren Konsum von Weizen. Gleiche Reduktionen an Freizeit müssen durch beständig größere Zunahmen an Weizen kompensiert werden. Es wird somit auch für Freizeit das 1. Gossensche Gesetz abnehmender Grenznutzen unterstellt. Die in Abbildung 2.7.2 angegebenen Indifferenzkurven werden als Einkommen-FreizeitIndifferenzkurven bezeichnet und verlaufen aufgrund der Gültigkeit des 1. Gossenschen Gesetzes entsprechend der in der Abbildung angegebenen Form. Die Einkommen-Freizeit-Indifferenzkurve drückt – wie jede Indifferenzkurve – an jedem Punkt auf der Kurve Gütermengenkombinationen aus, die das Nutzenniveau unverändert lassen. Die Grenzrate der Substitution zwischen der Weizenmenge und der Freizeit wird durch die Verhältnisse der Grenznutzen an dem betrachteten Punkt auf der Indifferenzkurve bestimmt. Bei der Haushaltstheorie wurde abgeleitet, dass die absolut gesetzte Grenzrate der Substitution zwischen zwei Gütern dem umgekehrten Ver-
124
Neoklassische Mikroökonomie
hältnis der Grenznutzen der entsprechenden Güter entspricht. Dieser Sachverhalt, der an dieser Stelle nicht nochmals abgeleitet werden soll, gilt auch für die Einkommen-Freizeit-Indifferenzkurve, so dass (2.7.2)
dWg GN F = GN W dF
gilt mit der Grenzrate der Substitution auf der rechten Seite der Gleichung und GNF als Grenznuten der Freizeit und GNW als Grenznuten des Weizens. Wie bei jeder Indifferenzkurvenanalyse symbolisieren Indifferenzkurven, die weiter vom Ursprung entfernt liegen, höhere Nutzenniveaus. So können bei der Nutzenfunktion U 2h bei gegebener Freizeit von F0 mehr Güter konsumiert werden als bei der Indifferenzkurve U1h , die somit ein geringeres Nutzenniveau ausdrückt. Ebenfalls in Analogie zum neoklassischen Gütermarktkonzept lässt sich auch hier eine Budgetrestriktion konstruieren. Das (tägliche) reale Arbeitseinkommen hängt in der Weizenwelt vom Arbeitslohn in Weizeneinheiten, dem Reallohnsatz ( wr ) und der (täglichen) Arbeitszeit (H) ab, so dass sich für den Haushalt h als Arbeitseinkommen in Weizenmengen ( Wgh ) ergibt: (2.7.3)
Wgh = wr ⋅ H
Sofern sich unser Haushalt dafür entscheidet, sämtliche disponible Zeit für Freizeit zu verwenden, so dass H = 0 wird, sind sein Arbeitseinkommen und mithin seine Möglichkeiten zum Kauf von Gütern aus dieser Einkommensquelle Null. Der Haushalt befindet sich dann in der Abbildung 2.7.3 auf der Abszisse im Punkt Fmax . Bei gegebenem Lohnsatz wird umgekehrt das maximale Einkommen erzielt, sofern der Haushalt 16 Stunden täglich seiner Arbeit nachgeht. Wird wr mit der Anzahl der maximal möglichen Anzahl der Arbeitsstunden ( Hmax ) multipliziert, so ergibt sich das maximal mögliche Einkommen bzw. Konsumniveau Wghmax : (2.7.4)
Wghmax = wr ⋅ Hmax
Wghmax stellt in Abbildung 2.7.3 den Berührungspunkt der Budgetgeraden mit der Ordinate dar. Wie
bei jeder Budgetrestriktion kann der Haushalt nicht nur die beiden Extrempunkte Wghmax und Fmax wählen, sondern alle Kombinationen, die auf der Geraden zwischen den beiden Extrempunkten liegen. Wir unterstellen auch bei der Analyse des Arbeitsmarktes, dass der Haushalt aus seinem Lohneinkommen nicht spart. In diesem Fall wird der Haushalt einen Punkt auf der Geraden zwischen Wghmax und Fmax wählen.
Neoklassische Mikroökonomie
125
Abbildung 2.7.3: Die Budgetgerade bei der Freizeit-Arbeit-Entscheidung Wg Wgh max
0
Freizeit →
Fmax
F
← Arbeitszeit
Formelmäßig lässt sich die Budgetgerade in Abbildung 2.7.3 folgendermaßen ableiten. Die Arbeitszeit des Haushalts entspricht definitionsgemäß H = Fmax – F. Werden beide Seiten mit wr multipliziert, resultiert wr ⋅ H = wr ⋅ Fmax − wr ⋅ F . Da Wgh = wr ⋅ H , kann die linke Seite der obigen Gleichung durch Wgh ersetzt werden. Es folgt als Budgetgerade:
(2.7.5)
Wgh = wr ⋅ Fmax − wr ⋅ F
Der Schnittpunkt mit der Ordinate entspricht wr ⋅ Fmax , die Steigung entspricht - wr .31 Sehen wir uns mögliche Änderungen der Budgetgeraden an. Sofern die bis dahin für maximal gehaltene Arbeitszeit erhöht (gesenkt) wird, kommt dies einer Parallelverschiebung der Geraden nach rechts oben (links unten) gleich. Eine Erhöhung (Senkung) des Reallohnsatzes führt zu einer Drehung der Geraden um Fmax nach oben (unten). Nach diesen Überlegungen sind wir in der Lage, das optimale Arbeitsangebot eines Haushalts zu bestimmen. Bei einer grafischen Analyse müssen zu diesem Zweck die Schar der Einkommen-FreizeitIndifferenzkurven zusammen mit der Budgetgeraden betrachtet werden. Der Haushalt maximiert seinen Nutzen, wenn bei einer gegebenen Budgetrestriktion die am weitesten rechts oben verlaufende Einkommen-Freizeit-Indifferenzkurve erreicht wird. Bei konvexen Einkommen-FreizeitIndifferenzkurven ist die höchste erreichbare Indifferenzkurve diejenige, die die Budgetgerade (BG) tangiert. In Abbildung 2.7.4 ist dies bei der Indifferenzkurve U 2h der Fall. Bei gegebenem Reallohnsatz und gegebener verfügbarer Zeit für Arbeit und Freizeit ist das maximale Nutzenniveau bei einem Konsum von Wg * Weizeneinheiten und einer Freizeit von F* Stunden gegeben. Die nutzenmaximierende Arbeitszeit ergibt sich durch H* = Fmax – F*.
31
Die Steigung der Geraden kann auch ermittelt werden aus
0wr ⋅ Hmax 0Fmax
=
wr ⋅ 16Std. 16Std.
= wr .
126
Neoklassische Mikroökonomie
Abbildung 2.7.4: Das Haushaltsoptimum bei der Freizeit-Arbeit-Entscheidung
Wg U h1
Wgh max
U 2h
U 3h
BG
Wg*
Freizeit
F*
Arbeitszeit Fmax
F
Da im Haushaltsoptimum die Steigung der Budgetgeraden mit der Steigung der Einkommen-FreizeitIndifferenzkurve übereinstimmt, können wir wr mit der absolut gesetzten Gleichung (2.7.2) der Grenzrate der Substitution gleichsetzen. Als Nutzenmaximierungsbedingung für die Freizeit-ArbeitEntscheidung folgt somit: (2.7.6)
dWg GN F = = wr dF GN W
In Anlehnung an den Gütermarkt gilt im Nutzenmaximum beim Arbeitsangebot, dass die Grenzrate der Substitution zwischen Güterkonsum und Freizeit dem Grenznutzenverhältnis von Freizeit und Güterkonsum und letztere Relation dem Reallohnsatz entspricht. Durch einfache Umstellung ergibt sich auch hier analog zum 2. Gossenschen Gesetz: (2.7.7)
GN F = GN W wr
In der hier unterstellten Weizenwelt muss bei der Maximierung des Nutzens das Verhältnis des Grenznutzens der Freizeit zum Lohnsatz den gleichen Wert annehmen wie der des Grenznutzen des Weizens.
Neoklassische Mikroökonomie
127
Abbildung 2.7.5: Ableitung des individuellen Arbeitsangebots Wg
BG3
U 3h
Wg3
Wg2
Wg1
BG2
BG1
Freizeit →
U 2h U1h
F1 F2 F3
Fmax ← Arbeitszeit
F
Auf Basis der bisherigen Ausführungen kann der Verlauf der Arbeitsangebotskurve eines Haushalts begründet werden. Unterstellen wir zu diesem Zweck im Rahmen einer komparativ-statischen Analyse drei verschiedene Reallohnsätze, so dass (wr ) 0 < (wr )1 < (wr )2 ist (vgl. Abbildung 2.7.5). Jedem Reallohnsatz ist eine Budgetgerade zugeordnet, und jede Budgetgerade wird von einer EinkommenFreizeit-Indifferenzkurve berührt. Die Gerade BG3 drückt die Budgetgerade mit dem höchsten Reallohnsatz aus. Bei dieser Budgetgeraden ergibt sich ein Weizenkonsum von Wg3 und eine Freizeit in Höhe von F1 . Die nutzenmaximierende Arbeitszeit entspricht dann H3 = Fmax - F1 . Wenn wir die Arbeitszeit H3 zusammen mit dem Reallohnsatz (wr )2 in Abbildung 2.7.6 eintragen, ergibt sich ein Punkt der individuellen Arbeitsangebotsfunktion. Sinkt der Reallohnsatz auf (wr )1 , dann erhalten wir die Budgetgerade BG2, die einen Tangentialpunkt mit der Indifferenzkurve U 2h aufweist. Es ergibt sich eine konsumierte Weizenmenge von Wg2 und eine Freizeit von F2 . Die gewünschte Arbeitszeit beträgt nun H2 = Fmax - F2 . Der Haushalt hat auf die Reduzierung des Reallohnsatzes offensichtlich mit einer Erhöhung seiner Freizeit und einem geringeren Wunsch nach Arbeit reagiert. Tragen wir H2 mit dem entsprechenden Reallohnsatz in Abbildung 2.7.6 ein, ergibt sich der zweite Punkt auf der individuellen Arbeitsangebotsfunktion. Schließlich verfahren wir analog bei einer Senkung des Reallohnsatzes auf (wr )0 . Werden alle möglichen Reallöhne durchgespielt, resultiert daraus die mit sinkendem Reallohnsatz sinkende Arbeitsangebotsfunktion in Abbildung 2.7.6.
128
Neoklassische Mikroökonomie
Abbildung 2.7.6: Die individuelle Arbeitsangebotsfunktion wr
A Ah = A Ah (w r , U h , H max )
(wr)2
(wr)1 (wr)0
H1
H2
H3
H
Die individuelle Angebotsfunktion eines Haushalts h für Arbeit bestimmt sich durch: (2.7.8)
AAh = AAh(wr, Uh , Hmax )
Das individuelle Arbeitsangebot variiert mit dem Reallohnsatz – mit der Weizenmenge pro Stunde – die Nutzenfunktion sowie die maximal mögliche Arbeitszeit (bzw. Freizeit) fungieren als Parameter. Die Aggregation der individuellen Arbeitsangebote ist unproblematisch. Bei jedem Reallohnsatz werden die individuellen gleichgewichtigen Arbeitsangebote addiert. Wir erhalten dann die aggregierte Arbeitsangebotsfunktion, die in Abbildung 2.7.1 eingangs dieses Kapitels dargestellt wurde. Formal drückt sich das aggregierte Arbeitsangebot durch (2.7.9)
AA = AA(wr, U, Hmax )
aus, wobei in der Partialbetrachtung des Arbeitsmarktes die Präferenzordnung aller Haushalte32 (U) und die maximal mögliche Arbeitszeit (Hmax) als gegeben vorausgesetzt sind. Vereinfacht nimmt die Arbeitsangebotsfunktion des Haushalts folgende Form an: (2.7.10)
AA = AA(wr )
Die neoklassische Arbeitsmarkttheorie nimmt an, dass sich typischerweise ein Ergebnis wie in Abbildung 2.7.6 einstellt, also mit der Erhöhung des Reallohnsatzes das Angebot steigt und umgekehrt. Der Gedanke dabei ist, dass bei einem höheren Lohnsatz der Anreiz für mehr Arbeit steigt, da aufgrund höherer Löhne nun mehr Konsumgüter gekauft werden können und dies den Nutzen erhöht. Ein solcher „normaler“ Verlauf der Arbeitsangebotsfunktion ist jedoch keineswegs zwingend. Aus dem individuellen Optimierungsverhalten eines Haushaltes lässt sich ableiten, dass mit sinkendem Reallohnsatz die Freizeit auch abnehmen und das Arbeitsangebot steigen können. Tatsächlich sieht der „normale“ Verlauf der Arbeitsangebotsfunktion von dem elementaren Sachverhalt ab, dass Lohnabhängige buchstäblich abhängig sind vom Lohn. Bei der Haushaltstheorie wurde bei dem so benannten Giffen-Gut die Möglichkeit eines als untypisch erachteten Nachfrageverhaltens nach einem Gut aufgrund der Dominanz des Einkommenseffektes einer Preisänderung des Gutes über den Substitutionseffekt aufgezeigt. Beim Arbeitsangebot gibt es einen ähnlichen Einkommenseffekt. So werden Arbeitnehmer bei fallenden Reallöhnen ihre Arbeitsbereitschaft nur solange drosseln können, wie die Finan32
Es sei daran erinnert, dass Nutzenfunktionen nicht addiert werden können. U steht somit für die Menge aller disaggregierten Nutzenfunktionen.
Neoklassische Mikroökonomie
129
zierung der lebensnotwendigen Ausgaben gesichert ist. Ab einem bestimmten Niveau des Reallohnsatzes werden sie gerade wegen der fallenden Löhne zusätzliche Arbeit anbieten, um sich und ihre Familien durchzubringen. Anders ist z. B. die Entwicklung auf dem Arbeitsmarkt während der Frühindustrialisierung Deutschlands oder Englands, die durch eine Senkung der Reallohnsätze der männlichen Arbeiter bei gleichzeitiger Ausdehnung der Arbeitszeit einschließlich zunehmender Frauen- und Kinderarbeit gekennzeichnet war, nicht zu erklären. Auch in zahlreichen heutigen Industrieländern ist zu beobachten, dass Menschen im Niedriglohnbereich zwei oder mehr Jobs brauchen, um über die Runden zu kommen. In Fällen dieser Art ist der Einkommenseffekt einer Senkung des Reallohnsatzes stärker ausgeprägt als der Substitutionseffekt, der beim Sinken der Reallöhne Substitution zugunsten höherer Freizeit erwarten lässt. Umgekehrt ist auch denkbar, dass bei sehr hohen Reallohnsätzen der Wunsch an Bedeutung gewinnt, mehr Freizeit zu haben, so dass bei sehr hohen und steigenden Reallohnsätzen die Arbeitszeit reduziert wird. Die zentralen wirtschaftlichen Bedürfnisse sind befriedigt, und die Freizeit gewinnt zunehmende Relevanz und führt zu Teilzeitarbeit etc.
Abbildung 2.7.7: Anormaler Verlauf des Arbeitsangebots wr
III
II
I
AA = AA(wr) H
Mit Hilfe der skizzierten Argumente lässt sich der Verlauf der Angebotsfunktion in Abbildung 2.7.7 erklären. Zwar ist bei sehr niedrigen Lohnsätzen das Konsumgut Freizeit relativ billig und müsste folglich stark nachgefragt werden. Aber der Einkommenseffekt ist so gravierend, dass er eine Nachfrage nach Freizeit nicht zulässt. Wenn im Bereich I der Grafik der Reallohnsatz sinkt, dann wird das Arbeitsangebot ausgedehnt und die Nachfrage nach dem nunmehr billigeren Gut Freizeit geht zurück. Im Bereich II hingegen nimmt das Arbeitsangebot bei steigenden Reallöhnen zu; dieser Bereich gibt die so genannte Normalreaktion an. Bei sehr hohen Einkommen (Bereich III) wird die Arbeitszeit schließlich bei steigenden Reallohnsätzen reduziert. Auf allgemeiner theoretischer Ebene muss es unabhängig vom existierenden Einkommensniveau nach den theoretischen Prämissen des neoklassischen Modells offen bleiben, wie das Arbeitsangebot auf Änderungen des Reallohnsatzes reagiert. Kernpunkte Für einen Haushalt ist sein Angebot an Arbeit Teil seiner individuellen Nutzenmaximierung. Beim Arbeitsangebot wird das Gut Freizeit mit den Konsumgütern verglichen, die durch Arbeit und das dadurch erzielte Einkommen konsumiert werden können. Bei der Normalreaktion wird ein Haushalt bei steigenden Reallohnsätzen mehr Arbeit anbieten und weniger Freizeit konsumieren.
130
Neoklassische Mikroökonomie
Andere Verläufe der Arbeitsangebotsfunktion sind plausibel, da beim Preis der Arbeit der Einkommenseffekt sehr hoch ist. Bei sehr niedrigen und fallenden Löhnen ist eine Zunahme des Arbeitsangebots plausibel, bei sehr hohen und steigenden Reallöhnen kann das Angebot an Arbeit zurückgehen, da die Freizeit an Wert gewinnt. 2.7.3 Arbeitsnachfrage Fragestellung Was sind nach neoklassischer Sicht die mikroökonomischen Kalküle der Unternehmen zur Erklärung der Nachfrage nach Arbeit? Wie sieht die Nachfragefunktion nach Arbeit aus und was bestimmt ihre Lage? Auch bei der Ableitung der Arbeitsnachfrage können wir die Früchte vorangegangener Anstrengungen ernten, da die Bestimmung der unternehmerischen Nachfrage nach Arbeitskräften ebenfalls auf mittlerweile vertraute Argumentationen aufbaut. Da die Unternehmen Gewinnmaximierer sind, werden sie die Nachfrage nach Arbeitskräften so variieren bis dieses Ziel erreicht ist. Des Weiteren wissen wir, dass sowohl die Preise der zu erstellenden Güter als auch die Inputpreise als Datum vorgegeben sind. Auch auf dem Arbeitsmarkt sind die Unternehmen Mengenanpasser. In der Unternehmenstheorie wurde in allgemeiner Form die Bedingung des gewinnmaximalen Einsatzes von Inputfaktoren abgeleitet. Nun soll die Argumentation auf den Inputfaktor Arbeit fokussiert werden. Zunächst sei daran erinnert, dass die Neoklassik generell von einer unbegrenzt, jedoch nicht vollständig substitutionalen Produktionsfunktion ausgeht. Damit kann ebenso wie bei der Analyse des Gütermarktes auch bei der Analyse des Arbeitsmarktes von einer Cobb-Douglas-Produktionsfunktion ausgegangen werden. Zudem unterstellen wir konstante Skalenerträge.33 Zur Ableitung der Nachfrage nach Inputs – in diesem Kapitel die Nachfrage nach Arbeit und im nächsten nach Kapital – soll ein möglichst einfaches Modell entwickelt werden. In der hier unterstellten Weizenwelt wird heutiger Weizen als Saatgut ( WgS ) und heutige Arbeit (H) eingesetzt, um morgen Weizen ernten zu können. Wir gehen somit von einem Produktionsprozess aus, der Zeit in Anspruch nimmt, wobei das Saatgut am Anfang der Periode eingesetzt wird und das Produkt Weizen am Ende der Periode zur Verfügung steht. Den zukünftigen Weizen nennen wir Wz , wobei bei einer effizienten Produktion Wz > WgS sein muss. Wir gehen somit von einem intertemporalen Modell mit zwei Perioden aus. Als Kapitalgüter gibt es nur Vorleistungen, in unserem Fall Saatgut, das während der Produktionsperiode vollständig in das produzierte Gut eingeht. Wir sehen somit von langfristigen Kapitalgütern, die mehrere Produktionsperioden genutzt werden ab, da dies die Analyse komplizieren würde ohne die Kernergebnisse des Modells zu verändern. Die Produktionsfunktion von Weizen lautet allgemein Wz = Wz (H, WgS ) und gilt für alle Weizenproduzenten. Als Cobb-Douglas-Produktionsfunktion (vgl. Kapitel 2.3.4) geschrieben, ergibt sich: (2.7.11)
Wz = μWgSa1H a2
Den Wert des Niveauparameters μ setzten wir zur Vereinfachung wieder gleich eins. Der Beitrag des Faktors Arbeit am gesamten Produktionsergebnis ergibt sich aus dem Exponenten des Faktors Arbeit. Ist beispielsweise in der Produktionsfunktion a1 = 0,6 , dann führt eine Ausdehnung der Beschäftigung um 10 % zu einer Erhöhung des gesamten Outputs um 6 % und am jeweiligen Gesamtergebnis ist die Arbeit zu 60 % beteiligt – konstante Skalenerträge vorausgesetzt. Wie hoch auch immer der Beitrag der Arbeit sein mag, der Exponent des Faktors Arbeit muss unter eins liegen, da – konstante Skalenerträge unterstellt – die Summe der Exponenten der Inputfaktoren der Produktionsfunktion eins ergeben 33
Konstante Skalenerträge sind notwendig, da nur dann die neoklassische Grenzproduktivitätstheorie der Verteilung widerspruchsfrei ist. Aber dieser Punkt soll uns hier nicht weiter interessieren.
Neoklassische Mikroökonomie
131
muss. Bei konstanten Skalenerträgen führt die Veränderung nur eines Inputfaktors bei Konstanz aller anderen Inputs zu dem uns bekannten Ergebnis abnehmender Grenzerträge. Die Abbildung 2.7.8 verdeutlicht die Zusammenhänge nochmals grafisch. Mit der zusätzlichen Beschäftigung von Arbeitskräften steigt der Output (oberer Teil der Abbildung), allerdings nehmen die Zuwächse kontinuierlich ab, so dass der Grenzertrag der Arbeit sinkt (unterer Teil der Abbildung). Der Bestand an Kapitalgütern – hier nur Weizen – wird dabei als unverändert unterstellt. Produktionsfunktionen spiegeln Input-Output-Konstellationen immer in physischen Größen wider, da sie ihrer Natur nach technische Sachverhalte erfassen. Daher zeigen die in der Abbildung dargestellten Größen nur Mengeneinheiten an.
Abbildung 2.7.8: Gesamt- und Grenzertrag bei Änderung des Arbeitseinsatzes
Wz a1 Wz = WgS ⋅ H a2
H
GPH
GPH = a 2 WgSa1 ⋅ H a2-1 H
Um die Gewinne zu maximieren, müssen wir die Erlöse und Kosten kennen. Um zu Erlösen für ein einzelnes Unternehmen (Eu) zu kommen, wird der Output mit dem Preis multipliziert. Der Output ist die produzierte Menge Weizens ( Wz ), multipliziert mit dem Preis von Weizen ( pz ). Somit gilt:
Eu = pz ⋅ Wz Der Grenzerlös wiederum ist die erste Ableitung der Erlösfunktion und entspricht bei der hier unterstellten vollständigen Konkurrenz dem Preis des Weizens ( pz ).
132
Neoklassische Mikroökonomie
Auf Basis der unterstellten Technologie können wir die Kosten bestimmen. Die Kosten umfassen zunächst die Lohnaufwendungen. Der Reallohnsatz pro Stunde ( wr ) besteht aus einer bestimmten physischen Menge an zukünftigem Weizen. Ein Unternehmen muss bei H eingesetzten Arbeitsstunden insgesamt wr ·H an zukünftigem Weizen für Lohn bezahlen. Würden Löhne schon in der Gegenwart bezahlt, dann müsste der Unternehmer für bezahlte Löhne Vorschüsse leisten, die mit entsprechenden Zinskosten verbunden wären. Da wir unterstellen, dass der Lohn am Ende der Periode bezahlt wird, zahlen Unternehmen Löhne aus ihrer Ernte. Diese Annahme vereinfacht das Modell ohne dessen Kernaussagen zu verändern. Da der Preis für produzierten Weizen pz ist, ergeben sich als Lohnkosten pz · wr ·H. Zu den Lohnkosten addieren sich die Kosten des eingesetzten Saatgutes. Saatgut heute wird einen anderen Preis haben als Weizen morgen. Ist der Preis für Saatgut ph und die Menge an Saatgut WgS , dann sind die Kosten für den Einsatz des Saatgutes ph ⋅ WgS . Da ein Eigentümer von heutigem Weizen einem Unternehmer Saatgut nicht umsonst für die Zeit des Produktionsprozesses überlässt, muss das Unternehmen Zinsen bezahlen. Ist i der Zinssatz, dann ergeben sich die Zinsen durch das vorgeschossene Kapital (Saatgut) multipliziert mit dem Zinssatz, also durch ph ⋅ WgS ⋅i. Fassen wir die Erlöse und verschiedenen Kostenelemente zusammen, dann ist der Gewinn ( Qu ) eines Unternehmens folgendermaßen definiert:34 (2.7.12)
Qu = pz ⋅ Wz - pz ⋅ wr ⋅ H - ph ⋅ WgS - ph ⋅ WgS ⋅i
In Gleichung (2.7.12) kann die Produktionsfunktion Wz = Wz (H, WgS) eingesetzt werden. Es folgt dann: (2.7.13)
Qu = pz ⋅ Wz(H, WgS) - pz ⋅ wr ⋅ H - ph ⋅ WgS - ph ⋅ WgS ⋅i
Der Bedingung für den gewinnmaximalen Arbeitseinsatz ist erreicht, wenn die erste Ableitung der Gewinnfunktion nach dem Faktor Arbeit Null gesetzt wird (und wie üblich bei der Gewinnmaximierung die zweite Ableitung negativ ist) (vgl. Kapitel 2.4.6). Als erste Ableitung ergibt sich:
∂ Qu = (GPH ) ⋅ pz − pz ⋅ wr ∂H ∂ Qu = 0 ist, folgt unmittelbar: Da im Gewinnmaximum ∂H (2.7.14)
GPH ⋅ pz = pz ⋅ wr
Der gewinnmaximale Arbeitseinsatz liegt demnach vor, sofern das Wertgrenzprodukt der Arbeit GPH ⋅ pz dem nominellen Lohnsatz pz ⋅ wr entspricht. Im Gewinnmaximum entspricht der Wert des Produktionsoutputs des zuletzt eingesetzten Arbeiters dem nominellen Lohn, den der Unternehmer dem Arbeiter bezahlen muss. Die Bedingung des gewinnmaximalen Einsatzes von Arbeit kann weiter vereinfacht werden, wenn pz gekürzt wird. Wir erhalten den Kern der neoklassischen Gewinnmaximierungsbedingung für den Einsatz der Arbeit.
34
In einer Weizenwelt besteht der Gewinn ( Qu ) aus der Weizenmenge ( WzG ), die als Gewinn anfällt, multipliziert mit
dem Verkaufspreis, so dass
Qu = WzG ⋅ pz ist.
Neoklassische Mikroökonomie
133
GPH = wr
(2.7.15)
Das Grenzprodukt der Arbeit ist gleich der Weizenmenge pro Arbeitsstunde bzw. dem Reallohnsatz. Da die Arbeitsproduktivität als Output pro Arbeitsstunde definiert ist, kann der Sachverhalt auch als Gleichheit von Grenzproduktivität der Arbeit und Reallohnsatz ausgedrückt werden. Liegt das Grenzprodukt der Arbeit über dem Reallohnsatz, dann wird ein Unternehmen den Arbeitseinsatz ausdehnen, da eine steigende Beschäftigung den Gewinn des Unternehmens erhöht. Im umgekehrten Fall wird die Beschäftigung reduziert. In Abbildung 2.7.9 wird bei einem vom Markt gegebenen Reallohnsatz von ( wr ) * das Gewinnmaximum des Unternehmens erreicht, wenn es die Beschäftigungsmenge H* nachfragt. Würde das Unternehmen bei dem Reallohnsatz ( wr ) * nur die Beschäftigungsmenge H1 einsetzen, würde es auf Gewinne verzichten, da ihm die letzte eingesetzte Arbeitseinheit bei H1 ein Grenzprodukt von AH1 erbringt, die nur mit Kosten von BH1 verbunden ist. Der Überschuss der letzten Arbeitseinheit würde somit bei H1 der Strecke AB entsprechen. Wir können den Sachverhalt auch so ausdrücken, dass der bei H1 eingesetzte Arbeiter mehr Weizen produziert als er als Lohn in Weizen bekommt. Bei einem Reallohnsatz von ( wr )1 würde der Unternehmer allerdings nur die Arbeitsmenge H1 einsetzen, und bei einem Reallohnsatz von ( wr ) * würde auf keinen Fall die Beschäftigung H2 nachgefragt werden, da in diesem Fall bei der letzten Arbeitseinheit Verluste entsprechend der Strecke CD hingenommen werden müssten. Die Arbeitsnachfrage der Unternehmen ist also eine Funktion des Reallohnsatzes, wobei bei sinkendem Reallohnsatz die Nachfrage nach Arbeitsleistungen steigt. Die Form der Arbeitsnachfragefunktion wird dabei vollständig durch die (physische) Grenzertragsfunktion des Faktors Arbeit determiniert. Diese Beziehung zwischen Reallohnsatz und Nachfrage nach Arbeit ist eine der Kernaussagen der neoklassischen Ökonomie. Wie die moderne Neoklassik zeigt, ist diese Position allerdings nur unter der Bedingung der Existenz eines einzigen Kapitalgutes haltbar (vgl. dazu Kapitel 3.3.3). Fassen wir die Argumente zusammen, dann wird die individuelle Nachfragefunktion eines Unternehmens nach Arbeit durch folgende Funktion ausgedrückt: ANu = ANu(wr, Wgu , Wz[H, Wg ])
(2.7.16)
Der Reallohnsatz wr bestimmt den Verlauf der Nachfragekurve, die der Grenzproduktivitätskurve der Arbeit entspricht. Der im Unternehmen gegebene Kapitalbestand Wgu sowie die Produktionsfunktion
Wz[H, Wg ] , die die Technologie ausdrückt, bestimmen die Lage der Arbeitsnachfragefunktion.
Abbildung 2.7.9: Ableitung der Nachfrage nach Arbeit wr , GPH
(wr)1
(wr)*
A B
C
D
(wr)0
GPH H1
H*
H2
H
134
Neoklassische Mikroökonomie
Das Modell der Nachfrage nach Arbeit impliziert ein spezifisches Modell der gleichgewichtigen Lohnbestimmung. Im Gleichgewicht entspricht die Entlohnung aller Arbeitnehmer dem Grenzertrag des zuletzt eingesetzten Arbeitnehmers. Diese Tatsache hat innerhalb der Neoklassik einen Theoriestrang entstehen lassen, der die Entlohnung der Produktionsfaktoren nach ihrem Grenzprodukt herleitet und damit eine Grenzproduktivitätstheorie der Verteilung des Einkommens postuliert (vgl. Kapitel 3.2). Da alle Arbeitnehmer vor der zuletzt eingesetzten Arbeitseinheit einen höheren Ertrag liefern als es dem Grenzprodukt der Arbeit entspricht, entsteht ein Überschuss des Werts der Produktion über die Lohnkosten. Dieser Überschuss ist nicht mit einem Gewinn zu verwechseln, sondern steht zunächst der Entlohnung der anderen Produktionsfaktoren zur Verfügung. Sind die individuellen Arbeitsnachfragekurven bekannt, dann ist in einer Eingutwelt die Aggregation problemlos. Die aggregierte Nachfragefunktion nach Arbeit (2.7.17)
AN = AN(wr, Wg, Wz[H, Wg ])
hat die gleiche Form wie die individuelle Arbeitsnachfrage. Das Symbol Wg drückt den Bestand an Weizen als Kapitalgut aus, der sich auf die Einzelunternehmen verteilt. Alle Unternehmen arbeiten aufgrund nur eines Gutes mit der gleichen Technik, was durch die Produktionsfunktion von Weizen ausgedrückt wird. Auch hier kann die Arbeitsnachfragefunktion vereinfacht durch (2.7.18)
AN = AN(wr )
ausgedrückt werden. Kernpunkte Unternehmen fragen Arbeit als Teil ihrer Gewinnmaximierungsstrategie nach. Unternehmen realisieren den gewinnmaximalen Einsatz von Arbeit, wenn der Reallohnsatz dem Grenzertrag (auch Grenzprodukt oder Grenzproduktivität) der Arbeit entspricht. Die Nachfrage nach Arbeit steigt bei sinkenden Reallohnsätzen, wobei die Nachfragekurve nach Arbeit der Grenzertragskurve der Arbeit entspricht. Die Lage der Nachfragekurve nach Arbeit hängt vom Bestand an Kapital und der verwendeten Technologie ab, die sich in der Produktionsfunktion niederschlägt. 2.7.4 Das partielle Arbeitsmarktgleichgewicht Fragestellung Wie ergibt sich das Gleichgewicht auf dem Arbeitsmarkt im neoklassischen Paradigma? Führt ein flexibler Arbeitsmarkt zu Vollbeschäftigung? Wie wirken sich Technologie- und Präferenzänderungen der Haushalte auf dem Arbeitsmarkt aus? Arbeitsangebot und Arbeitsnachfrage können nun zusammen betrachtet werden. In Abbildung 2.7.10 liegt der gleichgewichtige Reallohnsatz bei ( wr )* und die gleichgewichtige Angebots- und Nachfragemenge bei H*. Wie beim partiellen Gütermarkt können die drei gesuchten Variablen – der gleichgewichtige Reallohnsatz, die gleichgewichtige Arbeitsnachfrage und das gleichgewichtige Arbeitsangebot – gefunden werden, da mit der Arbeitsangebotsfunktion AA = AA( wr ) , der Arbeitsnachfragefunktion AN = AN(wr) und der Gleichgewichtsbedingung auf dem Arbeitsmarkt AA = AN drei unabhängige Gleichungen zur Verfügung stehen, um die gesuchten Variablen zu ermitteln.
Neoklassische Mikroökonomie
135
Abbildung 2.7.10: Das partielle Gleichgewicht auf dem Arbeitsmarkt
wr
AA = AA(wr)
(wr)1
(wr)*
AN = AN(wr) H1
H*
H2
H
Die Beschäftigungsmenge H* in Abbildung 2.7.10 stellt Vollbeschäftigung dar, da alle Arbeitnehmer zum gleichgewichtigen Reallohnsatz Arbeit finden und alle individuellen Pläne der Arbeitnehmer auf dem Arbeitsmarkt erfüllt werden. Auch die Unternehmen können zum herrschenden Marktpreis genau die Arbeiter einstellen, die sie wünschen. Zwar würde bei einem niedrigeren Reallohnsatz mehr Arbeit durch die Unternehmen nachgefragt, jedoch kann aus diesem Umstand nicht auf unfreiwillige Arbeitslosigkeit geschlossen werden. Denn die Arbeitnehmer fordern einen Reallohnsatz, der ein so hohes Beschäftigungsniveau nicht ermöglicht. Arbeiter, die zwar potenziell arbeiten könnten, jedoch nicht für den gleichgewichtigen Reallohnsatz arbeiten wollen, sind freiwillig arbeitslos, da sie offensichtlich den Nutzen der Freizeit höher einschätzen als die Menge des Konsumgutes Weizen, die sie durch zusätzliche Arbeit realisieren könnten. Die Abbildung 2.7.10 zeigt, dass nach neoklassischer Sicht flexible Reallöhne zu einem Gleichgewicht auf dem Arbeitsmarkt mit Vollbeschäftigung führen. Damit kommt der Lohnentwicklung in diesem Paradigma unmittelbar die Rolle zu, das Beschäftigungsvolumen so zu steuern, dass sich Vollbeschäftigung ergibt. Neoklassiker plädieren somit wirtschaftspolitisch für flexible Reallöhne, da ein Reallohnsatz, der beispielsweise von den Gewerkschaften oder durch gesetzliche Mindestlöhne über dem Gleichgewichtslohnsatz festgelegt wurde, unfreiwillige Arbeitslosigkeit erzeugt. Auch ein zu großzügiger Sozialstaat kann zu Arbeitslosigkeit führen. Liegt die Sozialhilfe beispielsweise über dem Gleichgewichtslohn, dann hat dies die gleichen Effekte wie ein Reallohn über dem Gleichgewichtslohn, da niemand unter dem Niveau der Sozialhilfe Arbeit anbieten würde. In Abbildung 2.7.10 erzeugt ein Reallohnsatz von (wr )1 ein Arbeitsangebot von H2 und eine Arbeitsnachfrage von H1 , wobei das Beschäftigungsvolumen durch die Arbeitsnachfrage bestimmt wird. Es besteht somit eine unfreiwillige Arbeitslosigkeit von H2 minus H1 , da zum gegebenen Lohn in diesem Umfang Arbeiter arbeiten wollen, jedoch keine Arbeit finden. Ein sinkender Reallohnsatz würde unter den gesetzten Bedingungen die unfreiwillige Arbeitslosigkeit beseitigen, da bei Reallohnsenkungen simultan das Arbeitsangebot sinkt und die Arbeitsnachfrage steigt. Tarifvereinbarungen oder Mindestlöhne, die den Reallohnsatz oberhalb des Gleichgewichtslohnsatzes festschreiben, sind nach Auffassung dieser Theorie schädlich, da dadurch Arbeitslosigkeit erzeugt wird. Liegt der Reallohnsatz unter seinem gleichgewichtigen Niveau, ist die Arbeitsnachfrage größer als das Arbeitsangebot. In diesem Fall ist das Arbeitsangebot die
136
Neoklassische Mikroökonomie
stärkere Seite und bestimmt die Beschäftigung. In diesem Fall ergibt sich durch Lohnerhöhungen ein Gleichgewicht. Wir haben bei der Analyse des Arbeitsangebots gesehen, dass der in der Abbildung 2.7.10 unterstellte „normale“ Verlauf der Arbeitsangebotsfunktion von Arbeit keinesfalls zwingend ist. In Abbildung 2.7.11 ist ein denkbarer Verlauf der Arbeitsangebotsfunktion unterstellt, der drei Gleichgewichtslösungen mit je einer spezifischen Preis-Mengen-Konstellation impliziert. Es kann somit selbst in einer Eingutwelt mit einer eindeutigen negativen Beziehung zwischen Arbeitsnachfrage und Reallohnsatz nicht ausgeschlossen werden, dass es mehrere Gleichgewichtslösungen auf dem Arbeitsmarkt gibt. Es gibt weder ein ökonomisches Kriterium, das uns in diesem Fall sagen könnte, welches der drei Gleichgewichte erreicht wird, noch gibt es eines, das uns sagen könnte, welches der drei wünschenswert ist. In jedem der drei Gleichgewichtspunkte maximieren die Haushalte ihren Nutzen und die Unternehmen ihre Gewinne. Da ein Nutzenvergleich zwischen Wirtschaftssubjekten nicht möglich ist, lässt sich auch nicht bestimmen, welches Gleichgewicht gesamtwirtschaftlich zu bevorzugen ist. Nur politisch könnte entschieden werden, welches Gleichgewicht zu bevorzugen ist. So könnte politisch entschieden werden, dass das Gleichgewicht mit dem niedrigsten Reallohn und der höchsten Arbeitszeit unerwünscht ist. Ein gesetzlicher Mindestlohn über dem untersten gleichgewichtigen Reallohnsatz würde beispielsweise das unerwünschte Gleichgewicht verhindern.
Abbildung 2.7.11: Der Arbeitsmarkt mit mehreren Gleichgewichten
wr
AN = AN(wr)
(wr)3
AA = AA(wr) (wr)2 (wr)1
H1
H2
H3
H
Im Rahmen der neoklassischen Partialanalyse des Arbeitsmarktes können eine Reihe von komparativstatischen Untersuchungen durchgeführt werden. Untersuchen wir beispielhaft die Konsequenzen einer Verbesserung der Technologie, die einen der Lageparameter der Nachfragefunktion nach Arbeit bildet. In einer Cobb-Douglas-Produktionsfunktion
Wz = μWgSa1H a2 stellt sich technischer Fortschritt neben Veränderungen der Exponenten in einer Erhöhung des Niveauparameters μ dar. Steigt μ, dann steigt bei der obigen Produktionsfunktion das Ertragsgebirge schneller an. Aufgrund dieses Effekts ist jeder beliebige Arbeitseinsatz bei der verbesserten Technologie mit einem im Vergleich zum alten Zustand erhöhten Grenzprodukt verbunden. Die Grenzertragsfunktion der Arbeit – die partielle Ableitung erster Ordnung der Produktionsfunktion nach Arbeit – verschiebt
Neoklassische Mikroökonomie
137
sich nach rechts. Verbessert sich die Technologie von Te0 auf Te1 , verschiebt sich die Arbeitsnachfragefunktion somit nach rechts (vgl. Abbildung 2.7.12). Abbildung 2.7.12: Verschiebung der Arbeitsnachfragefunktion durch technischen Fortschritt
wr A A = A A (w r )
(wr)1
A1N = A1N (w r , Wg , Te1 )
(wr)0 A 0N = A 0N (w r , Wg , Te0 ) H0
H1
H
Die Verschiebung der Nachfragefunktion nach Arbeit führt ceteris paribus zu einem höheren Reallohnsatz und einer höheren Beschäftigung. Es ergibt sich in diesem Modell das bemerkenswerte Resultat, dass bei der Annahme einer „normalen“ Arbeitsangebotsfunktion technologische Verbesserungen nicht zu einer sinkenden Beschäftigung, sondern zu einer steigenden führen. Die Begründung ist einfach: Da die Arbeitsproduktivität gestiegen ist, kann der Reallohnsatz ansteigen. Dies erhöht die Opportunitätskosten der Freizeit und führt zur Substitution in Richtung zunehmender Arbeit und steigendem Realeinkommen. Eine Erhöhung des Kapitalstocks hat die gleichen Effekte wie eine Verbesserung der Technologie. Auch in diesem Fall steigt die Produktivität des Arbeitseinsatzes, da jede Arbeitsmenge nun mit einer besseren Kapitalausstattung kombiniert wird. Nehmen wir in einer Konstellation wie der in der Abbildung 2.7.12 eine höhere Präferenz für Freizeit seitens der Haushalte an, dann verschiebt sich die Angebotsfunktion nach Arbeit nach links. In diesem Fall würde ein neuer gleichgewichtiger Reallohn höher sein und die gleichgewichtige Beschäftigung niedriger. Kernpunkte Der Arbeitsmarkt funktioniert im neoklassischen Paradigma wie der Gütermarkt, Angebot und Nachfrage treffen aufeinander und der Reallohnsatz als Preis auf dem Markt erzeugt ein Gleichgewicht. Geld spielt keine Rolle. Es wird unterstellt, dass auf dem Arbeitsmarkt Reallöhne ausgehandelt werden. Bei flexiblen Reallöhnen führt der Arbeitsmarkt zu Vollbeschäftigung und der Abwesenheit von unfreiwilliger Arbeitslosigkeit. Liegt der Reallohnsatz über seinem Gleichgewicht und kann aufgrund von Mindestlöhnen, Gewerkschaften oder zu hohen Sozialleistungen nicht sinken, dann ergibt sich Arbeitslosigkeit. Das Modell hängt an der Annahme nur eines einzigen Kapitalgutes und der Gültigkeit des Ertragsgesetzes.
138
Neoklassische Mikroökonomie
2.7.5 Kritische Würdigung Häufig „verbeißen“ sich Kritiker der neoklassischen Arbeitsmarkttheorie in die Modellannahmen, etwa in die der homogenen Arbeit. So konfrontieren sie das Modell mit der „Realität“ und verweisen auf unterschiedliche Qualifikations- und Motivationsmerkmale, auf geschlechtsspezifische und Rassendiskriminierungen und dergleichen mehr. Wir sind weit davon entfernt, solche Differenzierungen nicht zu sehen. Eine tragfähige Kritik an einem theoretischen Modell lässt sich mit solchen Argumenten jedoch nicht entwickeln. Denn neoklassische Autoren sind sehr wohl in der Lage, solche Aspekte zu modellieren und beispielsweise eine geschlechtsspezifische Diskriminierung als suboptimal für ein Marktergebnis zu qualifizieren. Die Untersuchung spezifischer Segmente des Arbeitsmarktes ist geradezu eine Stärke der neoklassischen Theorie. Die kritischen Punkte der neoklassischen Arbeitsmarktanalyse liegen auf einer anderen Ebene. Vier Kritikpunkte erscheinen uns relevant. Erstens ist die in der obigen Form präsentierte Arbeitsmarktanalyse selbst bei der Annahme einer Welt mit nur einem Kapitalgut auf eine unbegrenzt substitutionale Produktionsfunktion und fallende Grenzerträge angewiesen. Bei limitationalen Produktionsfunktionen bricht das Konzept von Grenzerträgen einzelner Inputfaktoren zusammen, da die Inputs dann in einem festen und unveränderbaren Verhältnis zueinander eingesetzt werden müssen. Eine Gewinnmaximierungsbedingung in der Form der Gleichheit von Reallohnsatz und Grenzprodukt der Arbeit lässt sich dann nicht ableiten. Die Nachfrage nach Arbeit wird bei limitationalen Produktionsfunktionen durch den jeweils gegebenen Kapitalstock begrenzt. Kommen wir zu den fallenden Grenzerträgen der Arbeit. Sie ergeben sich mit Sicherheit nur bei der Annahme fallender und konstanter Skalenerträge. Bei steigenden Skalenerträgen sind konstante und steigende Grenzerträge bei einzelnen Inputs durchaus möglich.35 Bei einem Exponenten des Inputfaktors Arbeit von Eins ergibt sich in einer Cobb-Douglas-Produktionsfunktion ein konstantes Grenzprodukt der Arbeit; die Nachfrage nach Arbeit wäre beispielsweise in der Abbildung 2.7.12 eine Parallele zur eingesetzten Arbeitsmenge (der Abszisse). Bei einem Exponenten des Inputs Arbeit von größer als Eins steigt der Grenzertrag der Arbeit mit steigendem Arbeitseinsatz. Konstante und steigende Grenzerträge der Arbeit müssen einen neoklassischen Ökonomen zur Weißglut treiben, da dann der Glaube, dass sinkende Reallohnsätze bei Arbeitslosigkeit das Unterbeschäftigungsproblem lösen nicht mehr gilt. Ein Herzstück neoklassischen Denkens würde zerstört. Dass konstante und steigende Grenzerträge nicht ausgeschlossen werden können, haben wir bei der Diskussion der Produktionsfunktion in Kapitel 2.4.3 gesehen. Doch auch wenn man unterstellt, dass die Annahme substitutionaler Produktionsfunktionen bei gleichzeitig sinkenden Grenzerträgen eine gewisse Plausibilität haben, erscheint es als seltsam, dass grundlegende Aussagen einer Theorie so stark von spezifischen technologischen Bedingungen abhängen.36 Wir werden bei der Darstellung der keynesianischen Analyse sehen, dass dort die Unterscheidung zwischen limitationalen und substitutionalen Produktionsfunktionen und verschiedene Skalenerträge keine vergleichbare Rolle spielen wie in der neoklassischen Theorie. Wird zweitens von der unangemessenen Abstraktion einer Eingutwelt mit nur einem Kapitalgut abgegangen, dann bricht jeglicher inverser Zusammenhang zwischen Reallohnsatz und Arbeitsnachfrage selbst bei unbegrenzt substitutionalen Produktionsfunktionen mit sinkenden Grenzerträgen zusammen. Worin liegt das Problem? Eine ausführliche Debatte muss auf Kapitel 3.2 verschoben werden, jedoch können hier schon einige Anhaltspunkte gegeben werden. In der Unternehmenstheorie ist deutlich geworden, dass die Nachfrage nach Inputs bei Produktionsprozessen wesentlich durch die angewandte Technologie, ausgedrückt durch die Produktionsfunktion, bestimmt wird. Unternehmen, so wurde argumentiert, agieren unter der Annahme vollständiger Konkurrenz bei gegebenen Verkaufs- und Inputpreisen auf der Grundlage einer als effizient angenommenen Produktionsfunktion bzw. Technologie. Entscheidend ist nun, dass es die effiziente Technologie, die die Gewinne maximiert, nicht gibt, son35
Es sei daran erinnert, dass fallende Grenzerträge eines Faktors in einer Cobb-Douglas-Produktionsfunktion dann nicht auftauchen, wenn der Exponent des entsprechenden Inputfaktors einen Wert von Eins oder größer annimmt. Bei der makroökonomischen Variante der Produktionsfunktion, die im Rahmen der so genannten Grenzproduktivitätstheorie die Einkommensverteilung erklären will, müssen zwingend konstante Skalenerträge unterstellt werden, so dass auch sinkende Skalenerträge von der Neoklassik ausgeschlossen werden müssen (vgl. 3. Kapitel).
36
Neoklassische Mikroökonomie
139
dern die jeweilige gewinnmaximale Technologie hängt von den Lohn- und Zinskosten und damit der Verteilung des Einkommens ab. Sobald sich die Reallöhne verändern, müssen Unternehmen ihre Technologiewahl überdenken. Die simple Neoklassik ging immer davon aus, dass bei gegebenem Kapitalstock mit sinkenden Reallöhnen aufgrund sinkender Grenzerträge die Produktion immer arbeitsintensiver wird. Aber es hat sich herausgestellt, dass dieser Zusammenhang nur bei der Existenz eines einzigen Kapitalgutes gilt. Bei mehr als einem Kapitalgut kann es jedoch sein, dass beim gleichen Reallohnsatz unterschiedlichste Technologien auftreten können. Machen wir ein Beispiel: Sinkt der Reallohnsatz, so steigt die Nachfrage nach Arbeit, da die Unternehmen arbeitsintensiver produzieren. Dies entspricht der oben abgeleiteten Nachfragefunktion nach Arbeit. Sinkt der Reallohnsatz nun weiter, so kann eine Technologie wieder profitabel werden, die zuvor bei höheren Reallöhnen schon einmal benutzt wurde. Die Nachfragefunktion springt, wenn man so will, zurück und der Zusammenhang zwischen sinkenden Reallöhnen und steigender Beschäftigung wird zerstört. Dieser Effekt kann nur verhindert werden, wenn es nur ein Kapitalgut gibt. Das Argument wird im Kapitel 3.3 systematisch entwickelt. Sind die beiden oben aufgeführten Kritikpunkte modellintern, so kritisieren die beiden folgenden Aspekte die neoklassische Arbeitsmarkttheorie aus der Sicht des keynesianischen Paradigmas. Die von einer Reallohnsenkung erwarteten positiven Beschäftigungseffekte setzten voraus, dass Arbeitnehmer überhaupt den Reallohnsatz beeinflussen können. Hören wir John Maynard Keynes: „Mit kurzen Worten, die herkömmliche Theorie (die Neoklassik, d. V.) vertritt die Ansicht, dass die Lohnabkommen zwischen den Unternehmern und den Arbeitern den Reallohn bestimmen“. In einer Ökonomie ohne Geld mögen Lohnkontrakte in Gütermengen abgeschlossen sein. In diesem Fall gibt es definitionsgemäß nur Reallöhne und keine Nominal- oder Geldlöhne. In Geldwirtschaften verhandeln Arbeitnehmer und Arbeitgeber jedoch nicht über Gütermengen oder reale Güterkörbe, sondern über Geldlöhne. Dann ist es jedoch „möglich, dass es kein Mittel gibt, durch das die Arbeiterklasse ihren Reallohnsatz auf einen gegebenen Betrag kürzen kann, indem sie die Geldeinkommen mit den Unternehmen ändert“ w (Keynes 1936, S. 10 f.). In einer Ökonomie mit Geld ist der Reallohnsatz durch mit w als Niveau P der nominellen (in Geld ausbezahlten) Stundenlöhne in der Ökonomie und P als Preisniveau definiert. Bei Veränderungen des Geldlohnniveaus kann sich das Preisniveau ändern, so dass ein makroökonomisch definierter Reallohnsatz sich dann nicht ändert. Bei der Darstellung der keynesianischen Inflationstheorie wird verdeutlicht werden, dass Geldlohnerhöhungen ceteris paribus die Kosten der Unternehmen erhöhen und dass die gestiegenen Kosten dann auf die Preise überwälzt werden. Erhöhungen des Lohnniveaus führen somit nach keynesianischer Sicht nicht zur Erhöhung des Reallohnniveaus, sondern zu Preisniveauerhöhungen. Dieser Zusammenhang gilt auch im umgekehrten Fall: Lohnsenkungen reduzieren die Kosten der Unternehmen und führen so zu Preissenkungen mit dem Resultat, dass die Reallohnsenkung nicht eintritt. Die Neoklassik überträgt – vom keynesianischen Paradigma aus gesehen – die fiktive Welt einer Tauschwirtschaft, in der Arbeitsleistungen direkt gegen Waren getauscht werden, auf eine monetäre Ökonomie, die durch Verhandlungen über Geldlöhne charakterisiert ist. Dies bedeutet nicht, dass die Lohnentwicklung im keynesianischen Paradigma keine Rolle spielt. Löhne beeinflussen die Kostenstruktur einer Ökonomie und damit das Preisniveau. Ein stabiles Preisniveau unterstellt somit – wenn von Produktivitätsveränderungen abgesehen wird – unter anderem ein stabiles Geldlohnniveau. Dies führt uns zum vierten und letzten Kritikpunkt. Im neoklassischen Paradigma gibt es, wie gezeigt wurde, bei flexiblen Reallöhnen einen Mechanismus auf dem Arbeitsmarkt, der Vollbeschäftigung erzeugt. Der Arbeitsmarkt hat in der Neoklassik eine gleichberechtigte Stellung neben allen anderen Märkten. Das Gleichgewicht auf dem Arbeitsmarkt ist nach dem gleichen Prinzip zu erreichen wie beispielsweise auf dem Schnürsenkelmarkt oder auf dem Markt für Bananen, nämlich durch einen flexiblen Preis. Im walrasianischen Totalmodell (vgl. Kapitel 2.2 und 2.9) kommt dies darin zum Ausdruck, dass der Arbeitsmarkt als spezifischer Markt überhaupt nicht mehr in Erscheinung tritt. Die exogen gegebene Anfangsausstattung „verfügbare Zeit“ tritt völlig gleichberechtigt neben die anderen
140
Neoklassische Mikroökonomie
exogenen Anfangsausstattungen. Dieser Gleichstellung des Arbeitsmarktes mit anderen Märkten im neoklassischen Denken wird bei der Darstellung des keynesianischen Paradigmas eine Hierarchie der Märkte gegenübergestellt. Es wird sich zeigen, dass in der keynesianischen Theorie der Arbeitsmarkt in der Hierarchie der Märkte an letzter Stelle steht. Beschäftigung und Reallohnsatz werden auf dem Vermögens- und Gütermarkt bestimmt, und es existiert kein Mechanismus, der über Preisveränderungen allein auf dem Arbeitsmarkt zu Vollbeschäftigung führt. Alle Theorien, die den Arbeitsmarkt ins Zentrum der Analyse von Beschäftigungsentwicklungen rücken, argumentieren letztlich neoklassisch. Sie akzeptieren die neoklassische Gleichgewichtslösung als Referenzpunkt und führen, je nach Fragestellung, nur verschiedene Sonderfälle ein.
Neoklassische Mikroökonomie
141
2.8 Neoklassischer Kapitalmarkt 2.8.1 Vorbemerkungen Mit Hilfe der mikroökonomisch-neoklassischen Kapitalmarkttheorie soll begründet werden, warum nutzenmaximierende Haushalte sparen und ihre Ersparnisse Unternehmen anbieten. Spiegelbildlich dazu wird abgeleitet, warum Unternehmen diese Ersparnisse für Investitionen nachfragen. Zugleich wird damit unter dem Aspekt der Einkommenserzielung der Haushalte die noch vorhandene Lücke der Zinseinkünfte geschlossen. In aggregierter Form weist der neoklassische Kapitalmarkt grafisch die mittlerweile bekannten Kurvenverläufe auf. Demnach steigt die Bereitschaft zur Ersparnis mit steigendem Zinssatz, während umgekehrt die Nachfrage der Unternehmen nach Kapitalgütern mit steigendem Zinssatz sinkt. Abbildung 2.8.1: Der neoklassische Kapitalmarkt Zinssatz Angebot an Kapitalgütern (Ersparnisse)
Gleichgewichtszinssatz
Nachfrage nach Kapitalgütern (Investitionen) Gleichgewichtige Investitionen und Ersparnisse
Menge an Kapitalgütern
Wie beim Arbeitsmarkt wird auch hier eine Ökonomie mit nur einem Kapitalgut – eine Weizenwelt – unterstellt. Folglich wird in Weizen gespart und investiert. Dies mag für die Analyse eines Kapitalmarktes in einer kapitalistischen Ökonomie befremdlich erscheinen. Aber erinnern wir uns, Geld spielt im neoklassischen Paradigma letztlich keine Rolle. Aus diesem Grunde ist es notwendig und legitim, den neoklassischen Kapitalmarkt ohne Geld darzustellen. Geld bleibt in diesem Modell unberücksichtigt, obwohl sich spontan – und, wie sich später zeigen wird, aus gutem Grund – ein Zusammenhang zwischen Geld und Zinsen aufdrängt. Der in dem hier präsentierten neoklassischen Modell relevante Zinsfuß ist ein Zinsfuß, der aus einer so genannten Realsphäre kommt und der mit einer Kreditaufnahme und –Vergabe von Geld nichts zu tun hat. Deshalb ist es legitim, das neoklassische Modell am Beispiel einer Weizenökonomie darzustellen. Der Zinsfuß, der im Modell bestimmt wird, ist ein Weizenzinsfuß, der sich als zusätzliche Weizenmenge in einer zukünftigen Periode bezogen auf die investierte Weizenmenge ergibt. Weizen wird mit Weizen als Saatgut und Arbeit produziert. Die produzierte Weizenmenge kann konsumiert oder als Saatgut verwendet werden. Im Extremfall kann der gesamte produzierte Weizen konsumiert werden, dann wäre allerdings in der folgenden Periode keine Weizenproduktion mehr möglich. Eine Möglichkeit ist auch, den Bestand an Saatgut nicht zu konsumieren. In diesem Fall würde die Neuwertschöpfung von Weizen (gesamte Weizenproduktion minus Altbestand an Saatgut) konsumtiv verbraucht. Nun könnte ein gegebenes Niveau der Weizenproduktion für immer aufrechterhalten werden. Schließlich kann ein Teil der Neuwertschöpfung an Weizen für den Aufbau
142
Neoklassische Mikroökonomie
des Bestandes an Saatgut verwendet werden. Die Erhöhung des Saatgutbestandes entspricht aus der Perspektive der Haushalte Ersparnissen. Aus der Perspektive der Unternehmen entspricht die Zunahme des Bestandes an Saatgut bzw. des Kapitalbestandes Nettoinvestitionen. Ersparnisse sind in diesem Modell immer eine Folge von gegenwärtigem Konsumverzicht. Demnach setzen Nettoinvestitionen Ersparnisse und somit aktuellen Konsumverzicht voraus. 2.8.2 Sparen und Angebot von Kapital Fragestellung Welche Kalküle bestimmen nach neoklassischer Sicht das Sparen der Haushalte? Welchen Verlauf und welche Lage hat die Sparfunktion der Haushalte? Spar- bzw. Investitionsentscheidungen werden in der Gegenwart getätigt, während die Folgen dieser Entscheidungen sich in der Zukunft manifestieren. Aus diesem Grunde muss die Zeit in die Theorie eingeführt werden. Die jeweiligen Paradigmen gehen mit der ökonomischen Kategorie der Zeit und den damit verbundenen Unsicherheiten höchst unterschiedlich um. In dem hier zur Diskussion stehenden neoklassischen Modell wird die Zeit bei der Haushaltsentscheidung analytisch so eingeführt, dass ein Kilogramm Weizen heute ein anderes Gut ist als ein Kilogramm Weizen in einem Jahr. Die zeitliche Verfügbarkeit wird somit zu einem Qualitätsmerkmal von Gütern wie z. B. die Farbe eines Gutes oder der Ort der Lieferung. Im Kontext der Nachfragetheorie des Haushalts nach Konsumgütern haben wir auf das Axiom hingewiesen, wonach die Bedürfnisse der Individuen grundsätzlich unendlich sind, so dass jede zusätzliche Gütereinheit unabhängig vom bereits erreichten Niveau des Konsums den Gesamtnutzen vergrößert. Dem wird nun das Axiom dazugefügt, dass Individuen bei einer gegebenen Menge eines Konsumgutes den heutigen Konsum dem morgigen vorziehen. Dieser Sachverhalt lässt sich auch so beschreiben, dass der Nutzen des Gegenwartskonsums einer jeden beliebigen Gütermenge größer ist als der des Zukunftskonsums der ansonsten identischen Gütermenge. Der Verzehr von Weizen heute wird somit dem Konsum der gleichen Menge morgen vorgezogen. Wirtschaftssubjekte sind – wenn man so will – genusssüchtig, so dass ein zeitlicher Aufschub des Verzehrs von Gütern einem „Warteopfer“ gleichkommt. Die Individuen besitzen eine Zeitpräferenz zugunsten des Hier und Heute. Sofern die Haushalte eine Vorliebe für gegenwärtigen Konsum haben, drängt sich die Frage auf, warum sie überhaupt einen zeitlich befristeten Konsumverzicht auf sich nehmen und sparen. Auf der Basis der unterstellten Zeitpräferenz der Haushalte gibt es offensichtlich nur dann eine Veranlassung fürs Sparen, wenn das heutige Warteopfer durch zusätzliche Gütereinheiten in der Zukunft entschädigt wird. Angenommen eine Bäuerin sei im Begriff, ihren gegenwärtigen Bestand an Weizen in Höhe von 5 kg für Konsumzwecke zu verarbeiten. Man selber sei an diesem Getreide ebenfalls interessiert, um es als Saatgut einsetzen zu können. Daher will man es ihr abhandeln. Aufgrund der Zeitpräferenz der Bäuerin zugunsten eines sofortigen Konsums wird dies nur möglich sein, wenn ihr eine Kompensation für den heutigen Verzicht angeboten wird. Das Angebot mag lauten, ihr in einem Jahr 5,5 kg Weizen gleicher Qualität zu übergeben. Kommt es zum Vertragsabschluss, werden 5 kg Weizen heute gegen 5,5 kg Weizen in einem Jahr getauscht. Der Mengenunterschied für die Bäuerin beträgt in diesem Beispiel selbstverständlich 5,5 kg – 5 kg = 0,5 kg. Aus dem Tauschverhältnis zwischen zukünftigem zu gegenwärtigem Weizen lässt sich ein Zinssatz errechnen, der den Eigenzinssatz – in diesem Fall der Ware Weizen – angibt. Der Weizenzinsfuß i ist definiert durch:
i=
Wz − Wg ⋅ 100% Wg
Neoklassische Mikroökonomie
143
Im gewählten Beispiel beträgt der Zinsfuß offensichtlich 10%. Als Resultat dieser Überlegungen zeigt sich, dass der Zinssatz Weizenmengen widerspiegelt, die gegenwärtig und zukünftig verfügbar sind. Insofern ergibt sich der Zinssatz implizit aus den intertemporalen Tauschverhältnissen zwischen Weizen heute und Weizen morgen. Nach diesen Überlegungen können wir das Sparverhalten eines einzelnen Haushalts genauer untersuchen. Auch hier handelt es sich um eine Nutzenmaximierung unter der Nebenbedingung einer Budgetrestriktion, da ein Haushalt sowohl seine Konsumentscheidung, sein Arbeitsangebot als auch seine Ersparnis dem Kalkül der Nutzenmaximierung unterordnet. Wir werden, wie gewohnt, auf die Instrumente Budgetgerade und Indifferenzkurve zurückgreifen. Beginnen wir mit der Budgetrestriktion eines Haushalts in unserem Zwei-Perioden-Modell. Wir nehmen an, dass für einen Haushalt in jeder Periode ein bestimmtes laufendes Einkommen anfällt. Das laufende Einkommen ist identisch mit demjenigen, über das in der jeweiligen Periode ohne Kreditaufnahme verfügt werden kann. Unsere Bäuerin mag z. B. gegenwärtig durch Arbeit 5 kg Weizen erhalten und in der folgenden Periode ebenfalls 5 kg. Möglich wäre allerdings auch, dass die Bäuerin heute 5 kg und morgen 6 kg oder nur 4 kg als laufendes Einkommen erhielte. Ein Haushalt hat nun verschiedene Möglichkeiten. Er kann in jeder Periode sein laufendes Einkommen konsumieren. Er kann jedoch auch auf laufendes Einkommen verzichten, um dasjenige in der Zukunft zu erhöhen. Er kann schließlich seinen heutigen Konsum auf Kosten zukünftigen Konsums erhöhen. Wir nehmen an, dass der von uns analysierte h-te Haushalt gegenwärtig ein laufendes Einkommen 0 0 von Wgh und in der folgenden Periode eines von Wzh erzielt. In der Abbildung 2.8.2 ist auf der Abszisse der gegenwärtige und auf der Ordinate der zukünftige Konsum abgetragen. Falls der Haushalt in jeder Periode genau das konsumiert, was er an laufendem Einkommen erhält, konsumiert 0 0 er heute die Menge Wgh und in der zukünftigen Periode die Menge Wzh . In Abbildung 2.8.2 ist diese spezifische Kombination zwischen heutigem und zukünftigem Konsum durch den Punkt A gekennzeichnet. Andere Kombinationen zwischen heutigem und zukünftigem Konsum sind möglich. Spart der Haushalt sein gesamtes laufendes Einkommen (den gesamten Weizen) in der Gegenwart, dann ergibt sich sein zukünftiges Einkommen (zukünftig konsumierbarer Weizen) aus dem laufenden Einkommen der zukünftigen Periode plus den verzinsten Ersparnissen von heute. Denn ein Haushalt, der heute seinen Weizen einem anderen Wirtschaftssubjekt überlässt, wird einen Zuwachs an Weizen entsprechend des Zinssatzes i – eben des Eigenzinssatzes des Weizens – verlangen. Die in der Zukunft maximal konsumierbare Weizenmenge ( Wzhmax ) ergibt sich durch: (2.8.1)
Wzhmax = W 0 + W 0 (1 + i) zh
gh
Mit i = 10% ergibt sich in unserem Zahlenbeispiel als maximal konsumierbare Weizenmenge in der zukünftigen Periode 5 kg + 5 kg(1 + 0,1) = 10,5 kg.
144
Neoklassische Mikroökonomie
Abbildung 2.8.2: Die Budgetgerade bei intertemporaler Konsumentscheidung Wz Wzh max
A
Wzh0
Wgh0
0
Wgh max
Wg
Auf der Abszisse der Abbildung wird der in der laufenden Periode maximal konsumierbare Weizen abgetragen. Diese Menge ergibt sich aus dem Einkommen in der laufenden Periode plus der maximal möglichen Kreditaufnahme unseres Haushalts. Im Zwei-Perioden-Fall kann ein Haushalt maximal Kredit aufnehmen bis sein zukünftiges Einkommen für die Tilgung der Schuld und Zinszahlungen vollständig verbraucht wird. Folglich ergibt sich die maximale gegenwärtige Konsummenge ( Wghmax ) durch: (2.8.2)
0 + Wghmax = Wgh
0 Wzh (1 + i )
In dem angenommenen Zahlenbeispiel erhält man als maximale heutige Konsummenge:
5 kg +
5 kg = 9,545 kg (1 + 0,1)
Der Haushalt muss somit 0,455 kg des zukünftigen Einkommens für die Zinszahlung opfern und kann von seinem zukünftigen Einkommen folglich maximal nur 4,545 kg heute konsumieren, wenn er nicht zahlungsunfähig werden will. Selbstverständlich kann ein Haushalt neben diesen Extremfällen auch zwischen zahlreichen weiteren Kombinationen wählen. In 2.8.2 werden alle denkbaren Konstellationen zwischen gegenwärtigem und zukünftigem Konsum, die ein Haushalt bei gegebenen Einkommensströmen und gegebenem Zinssatz erreichen kann, durch die eingezeichnete Gerade angegeben. Die Summe der potenziell möglichen Kombinationen zwischen Gegenwarts- und Zukunftskonsum stellt die Budgetrestriktion eines Haushalts bei der intertemporalen Allokation seines Konsumkorbes dar. Die Budgetgerade eines Haushalts bei der intertemporalen Allokation ist dann: (2.8.3)
Wz = Wzhmax − (1 + i)Wg
Formale Ableitung der intertemporalen Budgetgeraden Die Steigung der intertemporalen Budgetgeraden ist negativ und ergibt sich in der Abbildung 2.8.2 aus dem Verhältnis der Strecke 0Wzhmax und der Strecke 0Wghmax . Dem entspricht:
Neoklassische Mikroökonomie −
0Wzhmax 0Wghmax
= −
=−
0 0 Wzh + Wgh (1 + i) 0 Wgh +
0 Wzh (1 + i)
0 0 Wzh + Wgh (1 + i) 0 Wgh (1 + i)
(1 + i) = −
145
[W
0 zh
[
+
0 Wzh (1 + i)
]
0 + Wgh (1 + i) ⋅ (1 + i)
0 Wzh
+
0 Wgh (1 + i)
]
= − (1 + i) 0 0 + Wgh (1 + i) . Der Ordinatenabschnitt der Budgetrestriktion beträgt Wzhmax = Wzh
Bei Veränderungen des Zinssatzes dreht sich die Budgetgerade in Abbildung 2.8.2 um den Punkt A. Ökonomisch bedeutet dies, dass im Punkt A in jeder Periode genau das laufende Einkommen konsumiert wird. Zinssatzvariationen spielen in diesem Fall keine Rolle, da weder gegenwärtiges Einkommen gespart wird, noch zukünftiges Einkommen für heutigen Konsum benutzt wird. Je höher der Zinssatz, desto steiler verläuft die Budgetgerade. Damit erhöht sich mit steigendem Zinssatz der Achsenabschnitt an der Ordinate und sinkt an der Abszisse. Aus der Sicht eines einzelnen Haushalts stellt sich nunmehr die Frage, welche Kombination er zwischen gegenwärtigem und zukünftigem Konsum wählen soll, um seinen Nutzen zu maximieren. Die Entscheidung hängt von der individuellen Nutzenfunktion (2.8.4)
Uh = Uh(Wg, Wz)
ab, wobei in unserem Modell als Konsumgüter nur Gegenwarts- und Zukunftsweizen zur Verfügung stehen. Es werden auch hier die schon bekannten Eigenschaften der Nutzenfunktion (vgl. Kapitel 2.3.3) unterstellt. Folglich ergeben sich zwischen Gegenwarts- und Zukunftskonsum zum Ursprung hin konvexe Indifferenzkurven, die eine unbegrenzte, jedoch nicht vollständige Substitution zwischen Gegenwarts- und Zukunftsweizen ausdrücken (vgl. Abbildung 2.8.3). Alle Punkte auf einer Indifferenzkurve geben an, dass der Haushalt bei diesen Kombinationen zwischen künftigem und gegenwärtigem Konsum indifferent ist, also das gleiche Nutzenniveau realisiert. Mit einer Verschiebung der Indifferenzkurve nach rechts oben steigt, wie immer, das Nutzenniveau des Haushalts.
146
Neoklassische Mikroökonomie
Abbildung 2.8.3: Indifferenzkurve bei intertemporaler Konsumentscheidung Wz
U 3h U 2h U1h Wg
Der Betrag der Grenzrate der Substitution zwischen zukünftigem und gegenwärtigem Konsum – dWz ausgedrückt durch – nimmt zu, wenn die gegenwärtige Konsummenge abnimmt. Darin dWg spiegelt sich der uns gut bekannte Sachverhalt wider, dass der Grenznutzen des gegenwärtigen Konsums mit sinkender Konsummenge steigt und der Grenznutzen des zukünftigen Konsums mit zunehmender Menge sinkt. Damit wird bei einer schrittweisen Reduktion des gegenwärtigen Konsums eine immer größere Menge zukünftigen Konsums als Kompensation nötig, um das gleiche Nutzenniveau zu erhalten. Der absolut gesetzten Grenzrate der Substitution zwischen gegenwärtigem und zukünftigem Konsum entspricht – analog zur Indifferenzkurve zwischen zwei Güterbündeln bei gegenwärtigem Konsum – das umgekehrte Verhältnis der Grenznutzen zwischen gegenwärtigem und zukünftigem Konsum (vgl. Kapitel 2.3.3). Mit GNWg als Grenznuten des Gegenwartsweizens und GNWz als Grenznutzen des Zukunftsweizens gilt: dWz GN Wg = dWg GN Wr Nunmehr lässt sich das intertemporale Haushaltsoptimum darstellen. Der Haushalt wird zur Nutzenmaximierung die Gütermengenkombination wählen, die auf der höchsten erreichbaren Indifferenzkurve liegt. In Abbildung 2.8.4 liegt der nutzenmaximierende Güterkorb am Tangentialpunkt der Budgetgeraden mit der Indifferenzkurve U 2h . Im Haushaltsoptimum ist die Steigung der Indifferenzkurve gleich der Steigung der Budgetgeraden. Die Bedingung des Nutzenmaximums bei der intertemporalen Konsumentscheidung ist: (2.8.5)
dWz GN Wg = = (1+ i) dWg GN Wr
Unser Haushalt in Abbildung 2.8.4 wird heute die Weizenmenge Wg * und morgen die Weizenmenge Wz * konsumieren. Punkt A auf der Budgetgeraden gibt die Konsumentscheidung an, die weder durch Sparen noch durch eine Kreditaufnahme gekennzeichnet ist. In unserem Beispiel 0 wird der Haushalt Wgh minus Wg * sparen und seinen zukünftigen Konsum erhöhen. Läge der Tangentialpunkt rechts vom Punkt A, so würde ein Haushalt in der aktuellen Periode mehr ausgeben als er an laufendem Einkommen hat.
Neoklassische Mikroökonomie
147
Abbildung 2.8.4: Das Haushaltsoptimum bei intertemporaler Allokation Wz
Wz∗
U 3h
Wzh0
U 2h
A BG
Wg∗
0 Wgh
U1h Wg
Die Sparentscheidung eines Haushaltes hängt neben dem Zinssatz von den Einkommensströmen in den verschiedenen Perioden ab. Wenn wir den Zinssatz zunächst als gegeben unterstellen, so gilt: Je niedriger das zukünftige laufende Einkommen eines Haushalts im Vergleich zur gegenwärtigen Periode ist, desto wahrscheinlicher ist es, dass die Ersparnisse positiv sind. Denn in diesem Fall ist der Grenznutzen der letzten gegenwärtigen Weizeneinheit relativ gering und der der zukünftigen vergleichsweise hoch. Ein Beispiel für den ersten Fall wäre ein Arbeitnehmer, der davon ausgeht, dass er in der Zukunft arbeitslos wird und dann ein geringeres Einkommen hat. Ist hingegen das Einkommen in der Zukunft hoch und in der Gegenwart niedrig, so ist es wahrscheinlich, dass sich ein Haushalt verschuldet, um in der Gegenwart seinen Konsum zu erhöhen. Ein Beispiel für den letzteren Fall wäre ein Student, der in der Zukunft ein hohes Einkommen erwartet und bereit ist, seinen gegenwärtigen Konsum über eine Kreditaufnahme auszudehnen. Allerdings muss in diesem Fall unterstellt werden, dass es kein Kreditausfallrisiko gibt, denn ansonsten würde der Student unter Umständen keinen Kredit bekommen, da unsicher wäre, ob er den Kredit zurückzahlen kann. Untersuchen wir nun Veränderungen des Zinssatzes. Nehmen wir als Beispiel eine Erhöhung des Zinssatzes an, der von i1 auf i2 ansteigen soll. Dies führt zu einer Drehung der Budgetgeraden BG1 um den Punkt A im Uhrzeigersinn, so dass sich die Budgetgerade BG2 ergibt (vgl. Abbildung 2.8.5). Wird beim Zinssatz i1 die optimale Kombination zwischen gegenwärtigem und zukünftigem Konsum durch den Güterkorb Wg1 und Wz1 ausgedrückt, so führt der gestiegene Zinssatz auf i 2 nun zu einem Güterkorb von Wg2 und Wz2 . Die Ersparnisse haben um Wg1 minus Wg2 zugenommen. Dies bedeutet nichts anderes, als dass der heutige Konsum zugunsten des morgigen eingeschränkt wird und mit der Erhöhung des Zinssatzes die Ersparnisse gestiegen sind.
148
Neoklassische Mikroökonomie
Abbildung 2.8.5: Ableitung der Zinsabhängigkeit der Ersparnisse Wz
Wz2 U 2h
Wz1
U1h
Wzh0
A BG2 -(1+i2)
Wg2 Wg1
BG1
0 Wgh
-(1+i1) Wg
Verbindet man alternative Zinssätze mit den entsprechenden Ersparnissen eines Haushalts, dann kann die individuelle neoklassische Sparfunktion abgeleitet werden. Als typisch wird ein mit steigendem Zinssatz zunehmendes individuelles Sparvolumen angenommen (vgl. Abbildung 2.8.6). 0 Maximal kann ein Haushalt seinen gesamten Gegenwartsweizen sparen, also Wgh .
Abbildung 2.8.6: Die individuelle Sparfunktion i
(
Sh = Sh i,Wg0 ,Wz0 ,U h
)
0 Wgh
Sh
Die individuelle Sparfunktion eines Haushalts ist bestimmt durch: (2.8.6)
o 0 Sh = Sh(i, Wzh , Wgh , Uh )
Bei der zinsabhängigen Sparfunktion fungieren die laufenden individuellen Einkommen heute und morgen sowie die individuelle Nutzenfunktion als Lageparameter. Zwingend ist eine steigende Sparfunktion bei Zinssatzerhöhungen allerdings nicht. Der positive Einkommenseffekt steigender Zinsen kann so groß sein, dass im Ergebnis weniger gespart wird.
Neoklassische Mikroökonomie
149
Denn aufgrund des hohen künftigen Einkommens dank der Zinssatzerhöhung kann der Grenznutzen des künftigen Konsums so stark sinken, dass das Sparvolumen zurückgeht. Es handelt sich um einen Effekt, der uns schon beim Arbeitsmarkt begegnet ist. Auch dort war es möglich, dass mit steigendem Reallohn die Arbeitsnachfrage sinkt. Die individuelle Sparfunktion kann auch negative Werte annehmen, nämlich dann, wenn ein Haushalt in der gegenwärtigen Periode mehr konsumiert als seinem laufenden Einkommen der Periode entspricht. Bei einer Normalreaktion ist in diesem Fall anzunehmen, dass mit steigendem Zinssatz die Negativersparnis reduziert wird. Werden die Ersparnisse aller Haushalte aggregiert, dann erhält man als aggregierte Sparfunktion (2.8.7)
S = S(i, Wg, Wz, U)
mit Wg und Wz als Symbole für das gegebene laufende Einkommen der Haushalte und U als Symbol der Nutzenfunktionen. Hinter allen drei Symbolen stehen die individuellen Gegebenheiten jedes Haushaltes, also die individuellen Einkommensströme und die individuellen Nutzenfunktionen. Vereinfacht kann die aggregierte Sparfunktion durch (2.8.8)
S = S(i)
angegeben werden. Sie wird mit einiger Wahrscheinlichkeit mit steigendem Zinssatz steigende Ersparnisse aufweisen. Allerdings sind positive Ersparnisse nicht garantiert. Je höher die zukünftigen laufenden Einkommensströme und je höher die Präferenz für gegenwärtigen Konsum, desto wahrscheinlicher ist eine Sparfunktion, die nicht den üblichen Verlauf annimmt. Wir unterstellen jedoch folgend einen Normalverlauf der Sparfunktion. Kernpunkte Die Neoklassik unterstellt, dass bei gleicher Güterausstattung der Gegenwartskonsum einen höheren Nutzen bringt als der Zukunftskonsum (Zeitpräferenztheorie). Sparen bedeutet einen Verzicht auf Konsum und muss durch höheren zukünftigen Konsum in der Form eines Zinssatzes entlohnt werden. Typischerweise steigen die Ersparnisse mit steigendem Zinssatz. Eine stärkere Präferenz für Gegenwartskonsum und ein sinkendes gegenwärtiges Einkommen im Vergleich zum zukünftigen Einkommen senkt typischerweise die Ersparnisse. 2.8.3 Nachfrage nach Kapital und Investitionen Fragestellung Welche Kalküle verfolgen gewinnmaximierende Unternehmen bei der Nachfrage nach Kapital? Wie sieht die Nachfragefunktion nach Kapital und die Investitionsfunktion aus und was bestimmt ihre Lagen? Wenn die Nachfrage nach Kapital und die Investitionstätigkeit abgeleitet werden, drängt sich unmittelbar die Frage auf, was denn Kapital und Investitionen sind. Jeder unbedarfte Beobachter würde davon ausgehen, dass es sich bei Kapital um eine Wertgröße handelt, die man in Geld ausdrücken muss – und er hätte zweifelsfrei Recht. Nehmen wir ein Unternehmen, das Autos produziert. Es setzt unter anderem Vorleistungsgüter aller Art ein wie Stahl, Gummi, Glas, etc., die nur in Geldgrößen aufaddiert werden können. Alle ökonomischen Effekte und damit auch Probleme, die beim Kapital als einer Wertgröße auftreten, werden durch die Annahme einer Eingutwelt mit nur einem Kapitalgut wegdefiniert. In einer Weizenwelt ist der Kapitalbegriff klar: Kapital ist der Bestand an Weizen gemessen in Gewichtseinheiten. Gibt es neben Weizen auch nur ein zweites Gut, etwa Pflüge, bricht das physische Kapitalkonzept zusammen, da es keinen Sinn macht,
150
Neoklassische Mikroökonomie
Weizenmengen und Pflüge in Tonnen zu aggregieren.37 Wir wollen uns zur Verdeutlichung spezifischer Ausprägungen des neoklassischen Paradigmas jedoch zunächst auf die Annahme einer Welt mit einem Kapitalgut einlassen. Wir übernehmen hier das Produktionsmodell, das beim Arbeitsmarkt im Kapitel 2.7.3 entwickelt wurde, also die Produktion von Weizen mit den beiden Produktionsfaktoren Arbeit und Saatgut. Einige zusätzliche Bemerkungen sind jedoch notwendig. Das neoklassische Denken unterstellt, dass alle Kapitalgüter sich im Eigentum der Haushalte befinden und die Unternehmer als deren „Vikare“, also Stellvertreter, die Produktion durchführen. Die Unternehmen sind somit vollständig ohne Kapital und müssen sich zu Beginn jeder Periode von den Haushalten das Saatgut leihen. Am Ende der Periode bekommen die Haushalte dann den produzierten Weizen von den Unternehmen zurück. Wir gehen somit implizit von einer vollständigen Fremdfinanzierung der Unternehmen aus, was in der Volkswirtschaftslehre eine übliche und für manche Fragestellungen legitime Abstraktion darstellt. Die Haushalte entscheiden in jeder Periode neu, wie viel Weizen sie den Unternehmen als Saatgut zur Verfügung stellen. Steigt der Bestand an Saatgut, dann liegen Ersparnisse vor. Der Zuwachs an Saatgut im Vergleich zur Vorperiode entspricht auch Nettoinvestition. Offensichtlich müssen im Kapitalmarktgleichgewicht geplante Nettoinvestitionen und geplante Ersparnisse im Gleichgewicht identisch sein, was schon in der Abbildung 2.8.1 am Beginn dieses Kapitels zum Ausdruck kam. Im unterstellten Produktionsprozess gibt es nur Vorleistungsgüter, die während der Produktionsperiode vollständig in den Produktionsprozess eingehen. Saatgut ist bei der Weizenproduktion solch ein Gut. Es wird somit von langlebigen Kapitalgütern wie Maschinen oder Gebäuden abgesehen. Dadurch wird das komplizierte Problem der Bewertung des periodischen Wertverzehrs und des Restwertes von langlebigen Kapitalgütern eliminiert.38 Wir haben oben abgeleitet, dass die Haushalte typischerweise mit steigendem Zinssatz bereit sind, weniger Weizen in der Gegenwart zu verzehren und damit zu sparen. Im Folgenden gehen wir der Frage nach, wie viel Weizen die Unternehmen als Saatgut für Produktionsprozesse von den Haushalten nachfragen. Durch die Produktion von Weizen sind die Unternehmen in der Lage, den Haushalten mehr Weizen zurückzugeben als sie als Saatgut bekommen haben. Von der Höhe des Zinssatzes hängt die Nachfrage der Unternehmen nach Saatgut ab. Dieser Zusammenhang soll nun detailliert dargestellt werden. Bei der Ableitung der Nachfrage nach Arbeit in Kapitel 2.7.3 wurde
Qu = pz ⋅ Wz(H, WgS) - pz ⋅ wr ⋅ H - ph ⋅ WgS - ph ⋅ WgS ⋅i als Gewinnmaximierungsfunktion angegeben, wobei von den Erlösen die Lohnkosten, die Kosten des Saatgutes und die Zinskosten abgezogen werden. Da die gleiche Produktionsfunktion wie beim Arbeitseinsatz gelten muss, gilt das Ertragsgesetz zwingend auch für den Input Kapital, also für die eingesetzte physische Menge an Saatgut. Mit steigendem Kapitaleinsatz sinken dann die Ertragszuwächse bzw. die Grenzerträge. Zur Bestimmung des gewinnmaximierenden Weizeneinsatzes muss – analog zum Arbeitsinput – zunächst die erste Ableitung der Gewinnfunktion nach dem Weizeneinsatz gebildet werden. 37
Auf anekdotischer Ebene wird erzählt, dass in den ehemaligen Planwirtschaften versucht wurde, den Kapitalbestand in Tonnen zu messen. Vielleicht erklärt dies, dass Dienstleistungen aufgrund ihrer „Leichtigkeit“ in Planwirtschaften unterrepräsentiert waren. 38 Eine andere Möglichkeit, das Problem der Bewertung des Werteverzehrs von langlebigen Kapitalgütern zu umgehen, besteht in der Annahme einer unendlichen Lebensdauer von „Kapitalgütern„. Eine solche Annahme ist jedoch problematisch, da es sich bei solchen „Kapitalgütern“ überhaupt nicht um Güter handelt. Denn Güter sind definitionsgemäß (re)produzierbar und haben eine begrenzte Lebensdauer. Wird eine unendliche Lebensdauer von „Kapitalgütern“ unterstellt, dann führt man faktisch einen Produktionsfaktor wie Boden ein, der nicht (re)produzierbar ist und daher auch kein Kapital darstellt. Daher erzielt Boden als Einkommen eine Rente und eben keinen Zins.
Neoklassische Mikroökonomie
151
∂Qu ⎛ ∂Wz ⎞ =⎜ ⎟ ⋅ pz − ph − ph ⋅ i ∂WgS ⎝ ∂WgS ⎠
Der gewinnmaximale Kapitaleinsatz ist erreicht, wenn die erste Ableitung der Gewinnfunktion gleich Null gesetzt wird (und zweite Ableitung der Gewinnfunktion negativ ist). Somit folgt: ⎛ ∂Wz ⎞ ⎜ ⎟ ⋅ pz − ph − ph ⋅ i = 0 ⎝ ∂WgS ⎠
bzw. (2.8.9)
⎛ ∂Wz ⎞ ⎜ ⎟ ⋅ pz = ph (1 + i) . ⎝ ∂WgS ⎠
Die Gewinne sind dann maximiert, wenn das Wertgrenzprodukt des eingesetzten Saatgutes
⎛ ∂Wz ⎞ ⎟ ⋅ pz gleich ph (1+ i) entspricht. (1+i) ist der Bruttozinssatz, das Wertgrenzprodukt des Kapitals ⎜ ⎝ ∂WgS ⎠
entspricht somit dem Preis des Kapitalgutes multipliziert mit dem Bruttozinssatz. Da säen und ernten zu unterschiedlichen Zeitpunkten erfolgt, tauchen bei der Gewinnmaximierungsbedingung der Gegenwarts- und der Zukunftspreis von Weizen auf. Unterstellen wir einen Preis des heutigen Weizens von eins, dann vereinfacht sich die Gleichung (2.8.9) auf: (2.8.10)
⎛ ∂Wz ⎞ ⎜ ⎟ ⋅ pz = (1 + i) ⎝ ∂WgS ⎠
In Abbildung 2.8.7 ist der gewinnmaximale Weizeneinsatz beim Zinssatz i1 durch den Schnittpunkt ⎛ ∂Wz ⎞ der Wertgrenzproduktsfunktion ⎜ ⎟ ⋅ pz mit der Zinssatzgeraden 1+ i1 gegeben. Die ⎝ ∂WgS ⎠ gewinnmaximale Einsatzmenge von Saatgut beträgt somit Wg1
Wg1 . Beim Zinssatz
i1
und
Kapitaleinsätzen unter produziert ein Unternehmer mehr Weizen als er an Zins und Rückzahlung des Kapitals aufbringen muss. Dieser Überschuss ist nicht automatisch Gewinn, da er noch andere Produktionskosten decken muss. Aber es ist für ihn gewinnmaximierend den Kapitaleinsatz genau auf Wg1 festzulegen. Eine Senkung des Zinssatzes auf i2 führt zu einer Parallelverschiebung der Zinsgeraden nach unten, so dass es zur neuen gewinnmaximalen Einsatzmenge von Weizen bei Wg2 kommt. Aufgrund der sinkenden Grenzerträge des Inputfaktors Weizen wird es nur durch einen sinkenden Zinssatz möglich, mehr Weizen für Produktionszwecke einzusetzen. Die Argumentation folgt also der gleichen Logik wie bei der Nachfrage nach Arbeit.
152
Neoklassische Mikroökonomie
Abbildung 2.8.7: Ableitung der Nachfrage nach dem Kapitalgut Weizen 1+i, ⎛ ∂Wz ⎜ ⎜ ∂WgS ⎝
⎞ ⎟ ⋅ pz ⎟ ⎠
1+i1 1+i2 ⎛ ∂Wz ⎞ ⎟⋅p ⎜ ⎜ ∂WgS ⎟ z ⎠ ⎝ Wg
Wg1 Wg2
Bei Zinssatzvariationen wandert ein gewinnmaximierendes Unternehmen entlang der Wertgrenzproduktsfunktion des Kapitalgutes Weizen. Bei der unterstellten Ökonomie mit nur einem Kapitalgut folgt dann zwingend, dass bei sinkendem Zinsfuß die Nachfrage eines Unternehmens nach Kapital steigt. Die Nachfragefunktion des u-ten Unternehmens nach Kapital wird in ihrem Verlauf vollständig durch die Wertgrenzproduktsfunktion des Inputs Weizen determiniert. Somit kann eine einzelwirtschaftliche zinsabhängige Nachfrage nach Kapital abgeleitet werden (vgl. Abbildung 2.8.8). Bezeichnet WNgu die individuelle Nachfrage nach dem Kapitalgut, dann folgt: (2.8.11)
WNgu = WNgu(i,Hu, Wz(H, WgS )
Die Nachfrage nach dem Kapitalgut hängt ab vom Zinssatz i, wobei der gegebene Arbeitseinsatz Hu und die Produktionsfunktion Wz (H, Wgs) die Lage der Kurve bestimmen.
Abbildung: 2.8.8: Die individuelle Nachfrage nach dem Kapitalgut Weizen i
i1
(
)
WNgu = WNgu i,H u ,Wz (H,WgS )
A
alt Wgu
WNgu
Neoklassische Mikroökonomie
153
Oben wurde erklärt, dass nur bei einer Zunahme des Bestandes an Weizen als Saatgut von einer alt Nettoinvestition gesprochen werden kann. Bezeichnet Wgu den Bestand an Saatgut, den der Unternehmer u in der Vorperiode eingesetzt hat, dann wird er nur Nettoinvestitionen durchführen, wenn der Zinssatz in der Abbildung 2.8.8 unter i1 sinkt. Die Nettoinvestitionen beginnen in Abbildung somit erst rechts vom Punkt A. Berücksichtigen wir diesen Sachverhalt, dann ergibt sich als individuelle Nachfrage nach Nettoinvestitionen (Iu) : alt mit WNgu ≥ Wgu
alt Iu = WNgu – Wgu
(2.8.12)
alt Iu = Iu(i, Hu , Wz (H, WgS), Wgu )
Aus der Aggregation der individuellen Investitionsfunktionen ergibt sich die gesamtwirtschaftliche Investitionsfunktion, die in Abbildung 2.8.9 dargestellt ist. Abbildung: 2.8.9: Die aggregierte Nachfrage nach Nettoinvestitionen i
(
I = I i,H u ,Wz (H,WgS ),Wgalt
)
I
Formal kann die aggregierte neoklassische Nettoinvestitionsfunktion durch (2.8.13)
I = I(i, H, Wz (H, WgS), Wgalt )
dargestellt werden, wobei H für den gegebenen gesellschaftlichen Arbeitseinsatz, Wz (H, WgS) für die Produktionsfunktion und Wgalt für den aus der Vergangenheit übernommenen Bestand am Kapitalgut Weizen steht. Vereinfacht kann die Funktion wie üblich durch (2.8.14)
I = I(i)
ausgedrückt werden.
154
Neoklassische Mikroökonomie
Kernpunkte Ein Unternehmen maximiert seinen Kapitaleinsatz, wenn das Wertgrenzprodukt des Kapitals der Bruttozinsrate entspricht. Wie bei allen Inputfaktoren werden fallende Grenzerträge des Kapitals unterstellt. Dies führt dazu, dass bei sinkendem Zinssatz die Nachfrage nach Kapital steigt, wobei die Nachfrage nach Kapital sich entlang der Grenzertragskurve des Kapitals entwickelt. Die Nettoinvestitionsnachfrage ist der Teil der Nachfragekurve nach Kapital, der den Bestand an Kapital erhöht. Die Lage der Nachfragefunktion nach Kapital und der Investitionsnachfragefunktion hängt von dem existierenden Bestand an Kapital ab sowie von der Technologie, die in der Produktionsfunktion zum Ausdruck kommt. 2.8.4 Das partielle Kapitalmarktgleichgewicht Fragestellung Wie ergibt sich das Gleichgewicht auf dem Kapitalmarkt im neoklassischen Paradigma? Welche Rolle übernimmt dabei der Zinssatz? Wie wirken sich Technologie- und Präferenzänderungen der Haushalte auf dem Kapitalmarkt aus? Wie beim Arbeitsmarkt kann auch hier das Partialgleichgewicht auf dem Kapitalmarkt bestimmt werden (vgl. Abbildung 2.8.10). In der Abbildung gibt es ein eindeutiges Gleichgewicht auf dem Kapitalmarkt bei dem Zinssatz i* und den entsprechenden gleichgewichtigen Spar- und Nettoinvestitionsmengen in Weizen. Unterstellt ist, dass der Bestand an Kapital in der betrachteten Periode wächst, ansonsten gäbe es keine Ersparnis und Nettoinvestitionen. Zur formalen Lösung des Kapitalmarktgleichgewichts stehen drei unabhängige Gleichungen zur Verfügung – die zinsabhängige Sparfunktion, die zinsabhängige Nettoinvestitionsfunktion und die Gleichgewichtsbedingung des Kapitalmarktes I = S . Somit können bei der Unterstellung des üblichen Verlaufs der Funktionen der gleichgewichtige Zinssatz, das gleichgewichtige Sparvolumen und das gleichgewichtige Nettoinvestitionsvolumen gefunden werden. Die Sparfunktion muss nicht zwingend den in Abbildung 2.8.10 angenommenen typischen Verlauf annehmen. Aufgrund der Einkommenseffekte von Zinssatzveränderungen können sich theoretisch auch s-förmige Sparfunktionen ergeben, die der Arbeitsangebotsfunktion in Abbildung 2.7.7 entsprechen. In diesem Fall ist mehr als eine Gleichgewichtskonstellation möglich. Auch sei daran erinnert, dass der Verlauf der Nettoinvestitionsfunktion an der Annahme fallender Grenzerträge liegt. Bei steigenden Skalenerträgen kann die Nettoinvestition auch zu einer Parallelen zur Abszisse werden oder gar mit steigendem Zinssatz ansteigen.
Neoklassische Mikroökonomie
155
Abbildung 2.8.10: Das partielle Gleichgewicht auf dem Kapitalmarkt
i
S = S (i)
i* I = I (i) I*,S*
I, S
Im Rahmen einer komparativ-statischen Analyse können Kurvenverschiebungen auf dem Kapitalmarkt diskutiert werden. Findet z.B. ceteris paribus technischer Fortschritt statt, verschiebt sich in Abbildung 2.8.10 die Investitionsnachfragefunktion nach rechts mit dem Resultat eines höheren Zinssatzes und eines höheren Investitions- und Sparvolumens. Den gleichen Effekt hätte eine Erhöhung des als konstant gesetzten Einsatzes an Arbeit. Verschiebt sich die Sparfunktion aufgrund einer höheren Präferenz für Gegenwartskonsum nach links, steigt der gleichgewichtige Zinssatz und sinkt das Spar- und Investitionsvolumen. Nach der Darstellung des partiellen Gleichgewichts auf dem neoklassischen Kapitalmarkt können wir den Zusammenhang zwischen der Zeitpräferenz der Haushalte und dem Grenzertrag des Kapitals darstellen. Die Haushalte werden bei Ersparnissen in der neoklassischen Theorie mit zusätzlichem Weizen für ihre Geduld entschädigt, den die Unternehmen dank der durch die Sparentscheidungen ermöglichten Produktionsausdehnung auch herstellen können. Dieser Zusammenhang soll nun verdeutlicht werden. In der obigen Weizenökonomie hat die Gesellschaft die Wahl, heute viel zu konsumieren oder zu sparen und dafür morgen mehr zu konsumieren. Die Produktionsmöglichkeitskurve (auch Transformationskurve genannt) zwischen heutigem und morgigem Weizenkonsum wird in Abbildung 2.8.11 entwickelt. Im linken oberen Quadranten wird der Zusammenhang zwischen Ersparnissen (S) und Konsum (C) in der gegenwärtigen Periode angegeben. Beim Schnittpunkt der Geraden mit der Ordinate wird der gesamte gegenwärtige Weizen konsumiert. Dies bedeutet, dass kein Saatgut für die nächste Periode zur Verfügung steht. In diesem Fall sind die Ersparnisse negativ. Wird die Konsummenge C1 gewählt, dann wird der Bestand an Saatgut auf dem Niveau des Vorjahrs ( Wgalt ) gehalten. Hier sind die Ersparnisse Null. Beim Schnittpunkt der Geraden mit der Abszisse wird aller verfügbarer Weizen gespart. Im linken unteren Quadranten ist die Produktionsfunktion für Weizen angegeben. Sie zeigt an, dass die Weizenproduktion bei steigendem Einsatz von Saatgut und Konstanz der anderen Produktionsfaktoren unterproportional ansteigt, somit das Ertragsgesetz gilt. Für jedes Volumen an Weizen, das die Haushalte nicht konsumieren, kann somit die resultierende Produktion von Weizen ermittelt werden. Der rechte obere Quadrant überträgt ausschließlich den Wert des gegenwärtigen Konsums von der Ordinate auf die Abszisse. Damit kann die Produktionsmöglichkeitskurve im rechten unteren Quadranten abgetragen werden. Wird der gegenwärtige Weizen vollständig konsumiert – Punkt A im rechten unteren Quadranten –, dann ist die Weizenproduktion und -
156
Neoklassische Mikroökonomie
konsumtion in der nächsten Periode Null, da das gesamte Saatgut verzehrt wurde. Je mehr Saatgut die Haushalte den Unternehmen zur Verfügung stellen, desto höher wird die produzierte Weizenmenge. Aufgrund des Ertragsgesetzes führen die ersten eingesetzten Weizenmengen zu einem relativ hohen Produktionszuwachs, was durch eine relativ steile Produktionsmöglichkeitskurve ausgedrückt wird. Mit zunehmendem Weizeneinsatz wird die Steigung der Produktionsmöglichkeitskurve immer flacher. Sinkt der gegenwärtige Weizenkonsum auf Null, dann ergibt sich die maximale zukünftige Weizenmenge im Punkt B im unteren rechten Quadranten. Bei Ersparnissen von Null wird die gleiche Menge an Weizen wie im Vorjahr produziert, die wir als Wrep bezeichnen.
Abbildung 2.8.11: Ableitung der Produktionsmöglichkeitskurve C
Wz
C1
45° Wg
S Wz
Wz
B
Wrep
Wgalt
S
A
Die Steigung der Produktionsmöglichkeitskurve ist absolut durch
Wg
dWz ausgedrückt und wird als dWg
Grenzrate der Transformation bezeichnet. Dieser Differentialquotient ist selbstverständlich nichts anderes als der Grenzertrag oder die Grenzproduktivität der Weizenproduktion – die erste Ableitung der Produktionsfunktion Wz = Wz(H, Wg) nach dem Kapitaleinsatz. Wir können dies unmittelbar grafisch erkennen, denn die Steigung der Transformationskurve wird vollständig von der Steigung der Ertragskurve des Faktors Kapital (linker unterer Quadrant) bestimmt. Bei der Ableitung der Sparentscheidung der Haushalte im Kapitel 2.8.2 wurde gezeigt, dass im Haushaltsoptimum für jeden Haushalt das Substitutionsverhältnis zwischen dWz und dWg gleich dem umgekehrten Verhältnis der Grenznutzen der Güter sowie der Steigung der Budgetgeraden ist. Die entsprechende Gleichung lautete:
Neoklassische Mikroökonomie (2.8.5)
157
dWz GN WG = = (1+ i) dWg GN Wr
dWz der Grenzproduktivität der Weizenproduktion entspricht ergibt sich jeweils in absoluten dWg Größen:
Da
Grenzproduktivität des Saatgutes =
Grenznutzen Weizen heute = Bruttozinsrate Grenznutzen Weizen morgen
In der Weizenwelt werden Haushalte auf gegenwärtigen Weizenkonsum verzichten bis die Grenzproduktivität des Kapitaleinsatzes dem Verhältnis zwischen dem Grenznutzen des gegenwärtigen Weizenkonsums und dem Grenznutzen des zukünftigen Weizenkonsums entspricht. Dies drückt den Kern des Kapitalmarktes aus, der nach neoklassischer Vorstellung den Zusammenhang zwischen der Ungeduld der nutzenmaximierenden Haushalte und der physischen Produktivität von Produktionsprozessen herstellt und der folglich den Zinssatz als realökonomische Kategorie fasst. Kernpunkte Der Zinssatz ist im neoklassischen Modell ein Phänomen der Realökonomie; er reflektiert die Grenzproduktivität des Kapitals und die Nutzenerwägungen der Haushalte. Der Zinssatz bringt im neoklassischen Kapitalmarkt Ersparnisse und Investitionen ins Gleichgewicht. Die Investitionsfunktion verschiebt sich nach rechts, wenn eine effizientere Technologie verwendet wird oder sich der Bestand an Arbeit erhöht. Bei normalen Reaktionen steigen dadurch der Gleichgewichtszins und die Spar- und Investitionssumme. Die Sparfunktion verschiebt sich nach rechts, wenn sich die Zeitpräferenz für Zukunftskonsum erhöht und zukünftige Einkommen als niedriger eingeschätzt werden. Bei normalen Funktionen wird sich dadurch der Zinssatz senken und die Spar- und Investitionsmenge erhöhen. 2.8.5 Kritische Würdigung Wir haben bei der Darstellung des neoklassischen Kapitalmarktmodells konsequent von Geld abgesehen und die Lösung mit Hilfe physischer Größen wie Weizen demonstriert. Damit wurden alle Probleme eliminiert, die mit einer wertmäßigen Bestimmung des Produktionsfaktors Kapital zusammenhängen. Die unseres Erachtens nach zentrale und modellinterne Kritik an der neoklassischen Kapitalmarkttheorie besteht darin, dass der oben abgeleitete Zusammenhang zwischen sinkendem Zinssatz und steigendem Kapitaleinsatz nicht allgemein gilt. Gültigkeit kann diese Relation und eine ganze Palette weiterer Aussagen, die sich daraus ergeben, nur für eine Ökonomie mit einem Kapitalgut beanspruchen. Da Ökonomien unbestreitbar mehr als ein Kapitalgut kennen, kann eine Ökonomie mit einem Kapitalgut keine Plausibilität zur Erklärung der Funktionsweise von existierenden Ökonomien beanspruchen. Um diese Aspekte wird es in Kapitel 3.2 gehen. An dieser Stelle wollen wir uns auf einige weitere Probleme des Modells konzentrieren. Erstens hängt die Gleichgewichtslösung – ebenso wie auf dem Arbeitsmarkt – von einer substitutionalen Produktionsfunktion und sinkenden Grenzerträgen ab. Ist die Produktionsfunktion limitational oder gibt es konstante oder steigende Grenzerträge, bricht das Konzept einer durch den Grenzertrag gesteuerten Investitionsnachfrage zusammen. Also auch hier basiert die Argumentation auf der Unterstellung einer spezifischen Technologie. Dieser Kritikpunkt wurde im Kapitel 2.7.5 bei der kritischen Würdigung des Arbeitsmarktes näher ausgeführt und soll hier nicht wiederholt werden.
158
Neoklassische Mikroökonomie
Zweitens kommt die vorgestellte Kapitalmarktlösung dadurch zustande, dass bei der Darstellung des Partialmarktes sowohl die Ersparnisse als auch die Investitionen ausschließlich zinsabhängig sind und „normal“ verlaufen, so dass gilt S = S(i) und I = I(i). Darüber lässt sich ein Gleichgewicht erzielen. Das so resultierende Gleichgewicht macht den Kern des Sayschen Gesetzes aus, wonach nachfragebedingte ökonomische Krisen grundsätzlich ausgeschlossen sind. Konkreter: Das Produktionsergebnis einer Volkswirtschaft entspricht den erzielten Einkommen aus Arbeit und Kapital. Verwendet werden können diese Einkommen für Konsum oder Ersparnisse. Wenn gesamtökonomisch Ersparnisse immer genau in Investitionen umgewandelt werden, dann muss die Nachfrage dem Angebot auf allen Gütermärkten entsprechen. Es mag dann zwar Ungleichgewichte auf einzelnen Märkten geben, jedoch nicht auf allen Gütermärkten. Da sowohl die geplanten Investitionen als auch die geplanten Ersparnisse funktional vom Zinssatz abhängig sind, ist im neoklassischen Modell eine Transformation der Ersparnisse in Investitionen immer gewährleistet. Zur Verdeutlichung kann eine ungleichgewichtige Situation unterstellt werden, in der – aus welchen Gründen auch immer – der Zinssatz so hoch ist, dass weniger investiert als gespart wird. Dies führt zu einem Überschussangebot an Weizen auf dem Kapitalmarkt mit dem Resultat eines sinkenden Zinssatzes. Aufgrund der angenommenen Zeitpräferenz werden die Haushalte nun ihren Gegenwartskonsum ausdehnen. Gleichzeitig erhöht sich dank der sinkenden Zinssätze das Investitionsniveau. In einer Weizenwelt kann selbstverständlich auch nicht mehr investiert werden als die Haushalte an Weizen sparen. Der Marktmechanismus auf dem Kapitalmarkt sorgt somit dafür, dass die geplanten Ersparnisse und die geplanten Investitionen immer den gleichen Wert annehmen. Die dem Modell der Neoklassik eigene Vision einer in sich stabilen Marktökonomie ergibt sich demnach durch die Modellierung der Ersparnisse und der Investitionen als ausschließlich vom Zinssatz abhängig sowie aus der Annahme, dass die Haushalte im Zweifelsfall das Angebot an Kapitalgütern selbst konsumieren. Sogar im Extremfall einer Investitionsnachfrage von Null gäbe es kein Nachfrageproblem, da die Haushalte dann allen gegenwärtig verfügbaren Weizen konsumtiv verbrauchen würden. Sobald allerdings Geld in die Ökonomie eingeführt und von der Logik einer Tauschwirtschaft abgegangen wird, erscheint der Kapitalmarkt gänzlich anders strukturiert. Im einfachsten Fall kann es passieren, dass alle Wirtschaftssubjekte ihre Geldhaltung aufbauen wollen. Dann kann keiner seine Waren verkaufen, da alle nur verkaufen wollen. Die Finanzierung der Investitionstätigkeit erfolgt in einer Ökonomie mit Geld zudem nicht mehr über die Sparentscheidungen der Haushalte, sondern über die (aggregierte) Kreditvergabe der Banken und der Haushalte. Dabei sind Banken in ihrer Gesamtheit bei ihrer Kreditexpansion nicht auf eine Refinanzierung durch Haushalte angewiesen, sondern auf die Zentralbank (vgl. Kapitel 4). Dadurch wird das in der Neoklassik unterstellte Band zwischen Sparentscheidungen der Haushalte und Investitionsentscheidungen der Unternehmen zerrissen. Marktimmanente Krisenprozesse sind dann keinesfalls mehr auszuschließen (vgl. zum Sayschen Theorem die weiteren Ausführungen im Kapitel 3). Zudem spielen die laufenden Ersparnisse der Haushalte selbst dann in einer monetären Ökonomie nur eine untergeordnete Rolle, wenn man Haushalte ins Zentrum der Analyse rückt. Denn die Finanzierung von Unternehmen seitens der Haushalte hängt von Entscheidungen ab, die das Gesamtvermögen betreffen, während die laufenden Ersparnisse dieses Vermögen nur geringfügig erhöhen. Wechseln Haushalte z. B. periodisch zwischen kurzfristigen Bankeinlagen und der Finanzierung der Unternehmen in Form des Kaufs von Effekten (Bereitstellung von finanziellen Mitteln an den Unternehmenssektor), dann verändert sich die Finanzierung von Unternehmen ohne jegliches Dazwischentreten laufender Ersparnisse. Hören wir das Argument von John Maynard Keynes, der in den 1930er Jahren das neoklassische Paradigma erfolgreich angriff: „Die Entscheidung in Bezug auf das Sparvolumen und auch die Entscheidung in Bezug auf das Volumen der Neuinvestition betrifft nur die laufende Wirtschaftsführung. Aber die Entscheidung darüber, ob Bankdepositen oder Effekten gehalten werden sollen, bezieht sich nicht nur auf den laufenden Zugang zum Vermögen der Individuen, sondern auch auf ihren gesamten Kapitalbestand. Da aber
Neoklassische Mikroökonomie
159
der laufende Zugang nur einen unbedeutenden Teil des gesamten Vermögensbestands ausmacht, spielt er in der Angelegenheit nur eine untergeordnete Rolle“ (Keynes 1930, S. 115). Keynes griff die Vorstellung, dass Ersparnisse quasi automatisch zu Investitionen führen, noch mit einem anderen Argument an. Eine zunehmende Sparneigung macht es nach Keynes sogar wahrscheinlich, dass durch den daraus resultierenden Nachfrageausfall die Investitionstätigkeit gedämpft wird. „Ein Akt einzelner Ersparnis bedeutet sozusagen einen Entschluss, heute kein Mittagessen zu haben. Aber er bedingt keinen Entschluss, nach einer Woche oder einem Jahr ein Mittagessen zu haben oder ein Paar Schuhe zu kaufen oder irgendeine bestimmte Sache an irgendeinem bestimmten Zeitpunkt zu verbrauchen. Er bedrückt somit das Geschäft der Zubereitung des heutigen Mittagessens, ohne das Geschäft der Vorsorge für einen zukünftigen Verbrauchsakt anzuregen“ (Keynes 1936, S. 176). Hinter dem Argument von Keynes steht die Vorstellung, dass die Investitionsentscheidung der Unternehmen keineswegs von der physischen Produktivität von Kapitalgütern abhängt, sondern unter anderem von der erwarteten Nachfrage nach Gütern, die durch hohe Ersparnisse keineswegs stimuliert wird. Drittens hat die Investitionsfunktion im Zeitablauf nicht die Stabilität, die die neoklassische Kapitalmarktlösung suggeriert. Zwar kommt es durch Innovationen oder durch einen höheren Arbeitseinsatz zu Verschiebungen der neoklassischen Produktions- und damit auch Investitionsfunktion, jedoch sind diese rein technologisch bedingt. Bei der Darlegung des keynesianischen Paradigmas wird sich zeigen, dass die Zukunft jenseits technologischer Entwicklungen als unsicher angesehen wird. Investitionen werden nur durchgeführt, wenn die erwartete Verzinsungsrate von Produktivkapital über dem Zinssatz liegt. Erwartete Größen wie die Verzinsungsrate von Produktivkapital sind in einer Welt mit Unsicherheit mit subjektiven Zukunftseinschätzungen verbunden und jenseits technologischer Veränderungen starken Schwankungen unterworfen. Das Ergebnis sind die beobachtbaren typischen Schwankungen der Investitionstätigkeit im zyklischen Auf und Ab. Vergleicht man schließlich die Erklärung der Zinsbestimmung innerhalb des neoklassischen Paradigmas mit der im keynesianischen Paradigma, dann zeigen sich die Unterschiede der beiden theoretischen Gebäude wie unter einem Brennglas. In der Neoklassik ist der Zins eine realökonomische Größe, die aus dem Zusammenspiel der Zeitpräferenz der Haushalte und der physischen Produktivität von Kapitalgütern entsteht. Monetäre Kategorien sollen und können beim neoklassischen Kapitalmarkt nicht erfasst werden, da Geld überhaupt nicht auftaucht und bei der Zinsberechnung keine Bedeutung besitzt. Daran ändert sich auch nichts, wenn Geld in einer späteren Analyseebene als Schleier über die Güterwelt gestülpt wird. Alle relevanten ökonomischen Größen – außer dem Preisniveau – werden nämlich vor der Berücksichtigung des Geldes vom Modell determiniert (vgl. hierzu die Ausführungen zur neoklassischen Quantitätstheorie des Geldes in Kapitel 3.4). Dem neoklassischen Ansatz setzt der Keynesianismus eine monetäre Zinsbestimmung gegenüber, die nicht auf die Interaktion zwischen der Produktivität von Kapitalgütern und den Zeitpräferenzen der Haushalte zurückgreift. Es wird die Aufgabe des vierten Kapitels sein, die keynesianische Zinsbestimmung zu präsentieren.
160
Neoklassische Mikroökonomie
2.9 Das neoklassische mikroökonomische Gesamtmodell 2.9.1 Das walrasianische Totalmodell mit Produktion Fragestellung Wie löst das walrasianische Allgemeine Gleichgewichtsmodell die Integration in ihrem mikroökonomischen Ansatz? Wie wird mit dem Problem der Zeit umgegangen? Was bedeuten Eigenzinssätze? Gibt es einen einheitlichen Zinssatz im Allgemeinen Gleichgewichtsmodell? Im Kapitel 2.2 wurde das walrasianische Totalmodell, manchmal auch als Allgemeines Gleichgewichtsmodell bezeichnet, dargestellt, allerdings ohne Produktion. Nunmehr werden die gleichgewichtigen Nachfrage- und Angebotsmengen von Haushalten und Unternehmen sowie die gleichgewichtigen Tauschrelationen bzw. relativen Preise auf allen Märkten – also auch auf den Faktormärkten für Arbeit und Kapital – simultan bestimmt. Damit wird die Produktion in das Modell eingeschlossen. Das walrasianische Totalmodell mit Produktion stellt das „Herz“ des neoklassischen Paradigmas dar. Es basiert nicht auf der Annahme einer Eingutwelt mit nur einem Kapitalgut, sondern geht von einer realistischen Welt mit endlich vielen Kapitalgütern aus. Das Modell liefert eine allgemeine Formulierung des neoklassischen Paradigmas. Letztlich sind alle anderen neoklassischen Theorievarianten gezwungen, sich auf das walrasianische Totalmodell in seiner modernen Fassung durch Wald, Debreu, Arrow und Hahn zu beziehen. Das hervorstechende Merkmal des Tauschmodells mit Produktion besteht darin, dass die Erstausstattung an Gütern und Arbeit weiterhin exogen vorgegeben und von den Haushalten gehalten wird. Jede ökonomische Theorie, die ein Produktionsvolumen bestimmen will, geht sinnvoller Weise von einem bestimmten, historisch entstandenen Anfangsbestand an Gütern aus, so dass diese Setzung an sich selbstverständlich ist. Allerdings spielt der exogene Anfangsbestand im walrasianischen Modell eine äußerst spezielle Rolle: Er begründet Knappheit, da den exogen vorgegebenen Ressourcen im Prinzip unendliche Bedürfnisse gegenüberstehen. Natürlich sind andere ökonomische Knappheitsvorstellungen denkbar. So wird im keynesianischen Paradigma Knappheit als Knappheit von Geldvorschüssen für Produktionsprozesse gefasst. Ressourcen werden dann unter Umständen nicht ausgelastet, weil eine ungenügende Bereitschaft seitens der Unternehmen und/oder der Gläubiger der Unternehmen (Bankiers und Haushalte) besteht, Geld in Produktivkapital anzulegen. Dadurch bestimmen Geldvorschüsse, in welchem Umfang die potenziellen Ressourcen einer Gesellschaft genutzt und in welchem Umfang Güter produziert werden. Im walrasianischen Modell hingegen wird die Produktion durch das Spannungsverhältnis zwischen den exogen gesetzten physischen Anfangsbeständen und der Nachfrage nach Konsumgütern, hinter der die Bedürfnisse der Individuen stehen, gesteuert. Geld spielt in diesem Kontext keine Rolle. Trotz der Einführung der Produktion bleibt im walrasianischen Modell die Logik einer „Ökonomie des Kriegsgefangenenlagers“, wie Joan Robinson es ausdrückte, erhalten. Die Kriegsgefangenen erhalten durch die Einführung von Produktionsprozessen eine zusätzliche Verwendungsmöglichkeit für ihre weiterhin von außen kommenden (exogen vorgegebenen) Pakete. Die Güter können nun nicht nur als Konsumgüter zum Tausch, sondern auch als Inputs für Produktionsprozesse verwendet werden. Geld befindet sich nicht in den Paketen. Zudem verfügen die Wirtschaftssubjekte über ein Zeitbudget, das sie – wie bei allen Gütern – selbst als Freizeit konsumieren oder als Produktionsinput tauschen können. So kann im Kriegsgefangenenlager, um beim Beispiel zu bleiben, ein Gefangener die Dienstleistung des Schuhputzens gegen Schokolade eintauschen. Gefangene können auch Tabak und Papier gegen Zigaretten tauschen, wenn sie die Produktion von Zigaretten aufnehmen möchten etc. Dabei sollte bedacht werden, dass Güter nicht anhand ihrer Stofflichkeit in Konsumgüter und Inputs für Produktionsprozesse unterteilt werden können. Grundsätzlich kann ein Gut – man denke an das Weizenbeispiel –
Neoklassische Mikroökonomie
161
für beide Zwecke genutzt werden. So kann z. B. ein Auto als Konsumgut im Haushalt oder als Input im Produktionsprozess (als Firmenwagen) dienen. Mit der Einführung der Produktion entstehen Unternehmen. Sie werden mit dem Ziel der Gewinnmaximierung gegründet. Sie erhalten von den Haushalten Güter als Inputs und liefern den Haushalten produzierte Güter. Alle Transaktionen werden ohne Geld abgewickelt. Haushalt A tauscht z. B. Weizen und Arbeitsleistungen, die es einem Unternehmen B und C zur Verfügung stellt, gegen Brot, das ein Unternehmen D produziert. Unternehmen agieren ohne eigene Anfangsbestände und sind somit gezwungen, alle Inputs von den Haushalten zu tauschen, sie sind die „Vikare“ der Haushalte. Es handelt sich somit um ein Modell vollständiger Konsumentensouveränität. Unternehmen werden so lange gegründet, bis die Durchschnittskosten bei der Produktion den Verkaufspreisen der produzierten Güter entsprechen und alle Gewinne weggefallen sind. Steigende Skalenerträge müssen somit ausgeschlossen werden, da diese einen leichten Marktzutritt und das Wegkonkurrieren von Gewinnen verhindern. Dies entspricht dem Gleichgewicht auf Märkten mit vollständiger Konkurrenz. Die Einkommen, die durch den Einsatz von Arbeit und Kapitalgütern entstehen, werden vollständig von den Unternehmen an die Haushalte abgeführt. Unternehmen erhalten somit im Gleichgewicht ausschließlich eine Entlohnung für ihren Arbeitseinsatz (Unternehmerlohn), der als Arbeitsinput gefasst werden kann. Ein einfaches formales Modell mit Produktion Die Produktion kann modelltheoretisch unterschiedlich komplex berücksichtigt werden. Am einfachsten ist sie zu erfassen, wenn Produktionsprozesse und Entscheidungen, die mit der Produktion zusammenfallen, nur Konsequenzen für die betrachtete Periode haben. Zunächst wollen wir das walrasianische Modell mit Produktion möglichst einfach gestalten. Wir unterstellen deshalb, dass die Produktion keine Zeit benötigt. Wird getauscht, dann bedeutet dies, dass die Unternehmen auch sofort ihre Produkte liefern können. Diese Annahme ist zwar nicht sehr realistisch, jedoch verdeutlicht sie die Grundstruktur des Modells. Die Einführung der Zeit erfolgt dann im nächsten Abschnitt. Die Haushalte haben exogen vorgegebene Anfangsbestände. Als Kapitalgüter gibt es nur Vorleistungen, also Güter, die während des Produktionsprozesses vollständig in das Produkt eingehen. Nettoinvestitionen und Ersparnisse sind Null, so dass die gesamte Neuwertschöpfung konsumiert wird. In dem Modell mit Produktion werden alle zentralen Axiome der in den obigen Kapiteln dargestellten neoklassischen Mikroökonomie unterstellt. Insbesondere werden, neben den schon gemachten Annahmen bei der Darstellung des Totalmodells ohne Produktion, unbegrenzt substitutionale Produktionsfunktionen, die Abwesenheit steigender Skalenerträge und fallende Grenznutzen aller Güter angenommen. Aus dem Tauschmodell ohne Produktion (Kapitel 2.2) sind folgende Nettotauschmengenfunktionen der Haushalte bereits bekannt: (2.2.2)
ΔXgh = ΔXgh(
p1 p2 pn - 1 ; ;...; ) pn pn pn
g = 1,2, ..., n ;
h = 1,2, ..., x
Der Haushalt h wird vom Gut g entweder einen Teil oder alles abgeben – beispielsweise wenn er einem Unternehmen seinen Weizen als Saatgut zur Verfügung stellt – oder seinen Bestand erhöhen. Letzteres ist dann der Fall, wenn er vom Gut g mehr konsumieren möchte als er als Anfangsbestand hält. Arbeit ist ein Teil des Anfangsbestandes eines Haushalts. Im Falle der Arbeit „vermietet“ der Haushalt seine Arbeitskraft an einen Unternehmer.39 Die Nettotauschmengen der Haushalte werden bei 39
Es könnte auch unterstellt werden, dass die Anfangsbestände, die ein Haushalt hält, eine unbegrenzte Lebensdauer haben. Ein Beispiel dafür wäre Boden. In diesem Fall würden Kapital-Inputs (wie bei Arbeit) an den Unternehmer vermietet. Das Modell wird noch komplizierter, wenn im Anfangsbestand Kapitalgüter existieren, die im Produktionspro-
162
Neoklassische Mikroökonomie
Arbeitsleistungen und Kapitalgütern positiv sein und damit ein Angebot signalisieren, sie werden bei Konsumgütern in aller Regel negativ sein und eine Nachfrage signalisieren. Die Nettotauschmengenfunktion eines Haushalts kann bei einzelnen Gütern auch Null sein. Alle Haushalte maximieren ihren Nutzen unter der Nebenbedingung ihrer gegebenen Anfangsausstattung, deren Wert von den relativen Preisen abhängt. Angebot und Nachfrage nach Gütern hängen dann – wie es in der obigen Gleichung zum Ausdruck kommt – von den n–1 relativen Preisen ab, hinter denen sich alle in der Ökonomie geltenden Tauschverhältnisse verbergen. Die Struktur der relativen Preise umfasst nun selbstverständlich auch die Tauschrelationen für Arbeitsleistungen oder Kapitalgüter. Bei g = 1, 2, ... ,n Gütern und h = 1, 2, ..., x Haushalten erhalten wir n ⋅ x linear unabhängige Nettotauschmengenfunktionen. Kommen wir zur Einführung des Unternehmenssektors, der einerseits Güter anbietet und andererseits Inputs nachfragt. Wir unterstellen, dass jedes der n Güter durch u = 1, 2, ..., f Unternehmen hergestellt wird, wobei f so groß ist, dass vollständige Konkurrenz herrscht und sich die Unternehmen damit als reine Mengenanpasser verhalten müssen. Die Zahl f drückt die Zahl von Unternehmen in der Branche aus, in der es die meisten Unternehmen gibt. In Branchen mit weniger Unternehmen sind dann die Angebots- und Nachfragefunktion der „fehlenden“ Unternehmen Null. Produziert jedes Unternehmen nur ein Gut, dann gibt es unter den obigen Annahmen n ⋅ f Unternehmen. Die Unternehmen kennen zahlreiche unterschiedliche Technologien. Aus dem Set verfügbarer Technologien wählen sie die gewinnmaximierende Technologie aus. Das Angebot eines Unternehmens u am Gut g (XAgu) hängt unter dieser Voraussetzung von den relativen Preisen aller Güter ab, also sowohl vom Verkaufspreis des produzierten Gutes als auch von den Inputpreisen. Die Angebotsfunktionen der Unternehmen werden folgendermaßen ausgedrückt: (2.9.1)
XAgu = XAgu (
p 1 p2 pn - 1 ; ;...; ) pn pn pn
g = 1, 2, ..., n; u = 1, 2, ..., f
Die Angebotsfunktionen liefern n·f linear unabhängige Gleichungen, nämlich die Anzahl der Unternehmen in einer Branche (f) multipliziert mit der Anzahl der Branchen bzw. der Güter (n). Die Nachfrage eines einzelnen Unternehmens (XNgui) nach dem Inputgut i hängt bei einer gegebenen Anzahl bekannter Technologien und dem Ziel der Gewinnmaximierung ebenfalls von den relativen Preisen ab, wobei jeder Inputfaktor entsprechend der Gewinnmaximierungsbedingung so eingesetzt wird, dass für jeden Input das Verhältnis zwischen Grenzproduktivität und Preis gleich ist. Es ist unterstellt, dass ein Unternehmen potenziell alle n Waren als Inputs einsetzt; werden einzelne Inputs nicht benötigt, erhalten sie den Wert Null. Es folgt dann: (2.9.2)
XNgui = XNgui(
p1 p2 pn - 1 ; ;...; ) g = 1, 2, ..., n ; pn pn pn
u = 1, 2, ..., f;
i = 1, 2, ..., n Nehmen wir zur Veranschaulichung ein Beispiel. Angenommen ein Unternehmen produziere Schuhe. Zur Herstellung der Schuhe benötigt es potenziell alle n Güter als Inputs (also einschließlich der Schuhe als Teil der Arbeitskleidung). Für dieses Unternehmen existieren somit i = 1, 2, ..., n Nachfragefunktionen nach Inputs. Schuhe werden aber nicht nur von einem, sondern von f Unternehmen hergestellt, so dass bereits in der Schuhbranche n ⋅ f Nachfragefunktionen existieren. Nun wissen wir, dass nicht nur Schuhe produziert werden, sondern dass es g = 1, 2, ..., n Branchen gibt. Für jede der n Branchen fragen f Unternehmen n Inputs nach, so dass sich im Ergebnis in der Ökonomie f ⋅ n 2 linear unabhängige Nachfragefunktionen nach Inputs ergeben. zess verschleißen. In diesem Fall würde der Mietpreis auch Abschreibungen einschließen. Grundsätzlich ändern würde sich durch solche Komplizierungen nichts.
Neoklassische Mikroökonomie
163
Aus dem walrasianischen Totalmodell ohne Produktion ist uns ein weiteres Set von linear unabhängigen Gleichungen bekannt, nämlich die folgenden Marktgleichgewichtsbedingungen: (2.2.3)
(XAg - XNg) = 0
g = 1, 2, ..., n-1
Bei XAg als Angebotsmenge des Gutes g und XNg als entsprechender Nachfragemenge ist der Markt für Gut g im Gleichgewicht, wenn die Angebotsmenge der Nachfragemenge entspricht. Als Nachfrager nach einem Gut tauchen nun potenziell alle Haushalte und Unternehmen auf. Dies gilt auch für das Angebot. Da bei einem Marktgleichgewicht bei n-1 Märkten auch der n-te Markt im Gleichgewicht sein muss, liefern uns die Marktgleichgewichtsbedingungen n-1 linear unabhängige Gleichungen (vgl. dazu auch Kapitel 2.2). Damit sind alle Gleichungen unseres einfachen Totalmodells mit Produktion beschrieben. Wir erhalten: aus Gleichung (2.2.2) n ⋅ x linear unabhängige Nettotauschmengenfunktionen der Haushalte, aus Gleichung (2.9.1) n ⋅ f linear unabhängige Angebotsfunktionen der Unternehmen, 2 aus Gleichung (2.9.2) f ⋅ n linear unabhängige Nachfragefunktionen der Unternehmen,
aus Gleichung (2.2.3) n -1 linear unabhängige Marktgleichgewichtsbedingungen, Als unbekannte Variablen sind in dem Modell zu bestimmen: n ⋅ x Tauschmengen der Haushalte, n ⋅ f Angebotsmengen von Unternehmen, 2 f ⋅ n Nachfragemengen von Unternehmen,
n - 1 relative Preise. Wie beim Totalmodell ohne Produktion wird auch im Modell mit Produktion ausschließlich untersucht, ob es eine ökonomisch sinnvolle Gleichgewichtslösung gibt. Prozesse selbst, die zum Marktgleichgewicht führen oder auch nicht, werden nicht analysiert. Die Kaufabschlüsse werden von den Akteuren erst vollzogen, wenn die gleichgewichtigen Angebots- und Nachfragemengen sowie die gleichgewichtigen Tauschrelationen bekannt sind. Dann werden alle Kontrakte in einer logischen Sekunde abgeschlossen. Wie das walrasianische Totalmodell ohne Produktion erfüllt auch das Totalmodell mit Produktion die Voraussetzung für die Existenz einer Lösung: Die Anzahl an Unbekannten entspricht der Anzahl der linear unabhängigen Gleichungen. Unter bestimmten Bedingungen lassen sich für alle Gleichgewichtsmengen und die n -1 relativen Preise ökonomisch sinnvolle Lösungen finden. Neben der Annahme der Nichtsättigung der Haushalte und dem Gesetz fallender Grenznutzen, ist bei den Unternehmen insbesondere die Abwesenheit von steigenden Skalenerträgen als Voraussetzung zur Bestimmung einer Gleichgewichtslösung von Bedeutung. Vier Charakteristika des oben skizzierten Allgemeinen Gleichgewichtsmodells sind erwähnenswert: Erstens stehen in dem Modell Konsumgüter-, Arbeits- und Kapitalgütermarkt völlig gleichberechtigt nebeneinander. Das spiegelt den Sachverhalt wider, dass bei den exogen gesetzten Anfangsbeständen jede Erstausstattung den gleichen Status hat, Weizen, Arbeitspotential, Hammer, Boden oder Drehmaschine. Alle Erstausstattungen sind in der Regel knapp, und jede Erstausstattung erhält in der Regel einen Knappheitspreis. Das ist nicht nur bedeutsam für die Preisbildung von Gütern zwischen Haushalten, sondern auch für die Preisbildung von Produktionsinputs. Wir werden später sehen, dass im keynesianischen Paradigma die Märkte nicht gleichberechtigt sind, vielmehr gibt es im Keynesianismus eine Hierarchie der Märkte, da der Vermögensmarkt den Gütermarkt bestimmt und dieser den Arbeitsmarkt (vgl. Kapitel 4).
164
Neoklassische Mikroökonomie
Zweitens wird die Entlohnung eines jeden Produktionsfaktors hier nach der gleichen Logik erklärt. Prinzipielle Unterschiede zwischen dem Produktionsmittel „Arbeit“ und dem Produktionsmittel „Kapital“ gibt es nicht. Konnte in der Klassik nur Boden eine Knappheitsrente erzielen, so gilt das Rentenprinzip nun universell. Jedes Gut, das im Produktionsprozess eingesetzt wird, erhält einen spezifischen Knappheitspreis. Wir befinden uns hier ganz auf der Ebene der Grenzproduktivitätstheorie der Verteilung, die aussagt, dass jeder Produktionsfaktor nach seiner relativen Knappheit entlohnt wird (vgl. Kapitel 3.2). Bei Keynes wird dagegen die Verteilung über monetäre Prozesse erklärt. Drittens sind bei der Gleichgewichtslösung alle Ressourcen ausgelastet. Insbesondere gibt es keine unfreiwillige Arbeitslosigkeit, jedoch auch alle Güter werden entweder einer produktiven bzw. investiven Verwendung zugeführt oder konsumiert. Auch an diesem Punkt unterscheidet sich das keynesianische Paradigma, das von der Unterauslastung von Ressourcen – insbesondere des Produktionsfaktors Arbeit – als Normalzustand der Ökonomie ausgeht. Viertens ist bei gegebenen Anfangsausstattungen an Gütern (einschließlich verfügbarer Zeit seitens der Haushalte) im Gleichgewicht ein Zustand erreicht, bei dem kein Haushalt besser gestellt werden kann, ohne einen anderen schlechter zu stellen. Ein Zustand, der in diesem Sinne optimal ist, wird als Pareto-effizient bezeichnet. Dieser Punkt wird im folgenden Unterabschnitt präzisiert und verdeutlicht. Die Erfassung von Zeit Wir wollen nun in den walrasianischen Ansatz der Allgemeinen Gleichgewichtstheorie eine weitere Dimension einfügen. Bisher wurde von der Zukunft abgesehen. Dies kam darin zum Ausdruck, dass alle ökonomischen Aktivitäten ohne die Kategorie Zeit abgewickelt wurden. Nun ist die Berücksichtigung von Zeit eines der schwierigsten Probleme in der ökonomischen Theorie. Unterschiedliche Paradigmen sind hier unterschiedliche Wege gegangen. Es soll im Folgenden angerissen werden, welchen Weg das walrasianische Gleichgewichtsmodell beschreitet. Die Zukunft wird im walrasianischen Modell schlicht und einfach durch die Unterstellung universeller Zukunftsmärkte in das Modell integriert.40 Hören wir hierzu Frank Hahn, einen der führenden Vertreter der modernen walrasianischen Ökonomie: Es „werden eine wesentliche Konvention und eine wesentliche Annahme getroffen. Die Konvention besagt: Die Güter sind unterschieden nach ihren physikalischen Eigenschaften, ... sowie dem Zeitpunkt ihrer Lieferung.... Die wesentliche Annahme ist die, dass es für jedes so definierte Gut einen Markt gibt; das bedeutet, dass jedes Gut einen Preis hat.“ (Hahn 1984, S. 155). Zukunftsmärkte im walrasianischen Modell sind Märkte, auf denen heute Tauschverträge abgeschlossen werden, die erst zu einem späteren Zeitpunkt erfüllt werden müssen. Vertragsabschluss und Erfüllungszeitpunkt des Vertrages fallen somit auseinander. Ein Unternehmer, der Damenröcke herstellt, tauscht z. B. einen Damenrock, der in drei Jahren geliefert wird, gegen heutiges Tuch und heutige Arbeit. Es gibt folglich nicht nur einen Rockpreis, sondern einen Rockpreis für Röcke, die heute, für Röcke, die in einem Jahr, für Röcke, die in zwanzig Jahren geliefert werden etc. Die Unternehmen zahlen den Haushalten für die zeitweilige Überlassung von langlebigen Kapitalgütern einen Mietpreis – ebenso wie für die „Miete“ der Arbeitskraft. Für jedes Konsumgut und für jedes Kapitalgut und für jeden Zeitpunkt existiert ein Markt mit einem Preis. Wird die Zukunft über universelle Zukunftsmärkte modelliert, tritt – wie von Hahn betont – in formaler Hinsicht neben die physikalische Eigenschaft der Güter als eine weitere Dimension die Zeit. Unterstellt wird endliche Zeit. Wäre t = 1, 2, ..., v die Anzahl der existierenden Perioden, wobei v eine große endliche Zahl darstellt, dann würde die Anzahl der Güter von n innerhalb der bisher betrachteten Gegenwartsperiode auf v ⋅ n Güter in allen Perioden anwachsen, da nun zwischen einem Gut, das heute ver40
Walras führte universelle Zukunftsmärkte selbst noch nicht ein. Er konstruierte ein spezifisches Gut, das zukünftige Einkommensströme erfassen sollte (vgl. Walras 1954).
Neoklassische Mikroökonomie
165
fügbar ist und einem physisch identischen, das in einer späteren Periode geliefert wird, unterschieden werden muss. Jede Gleichung unseres oben formal dargestellten Totalmodells würde mit dem zusätzlichen Index t versehen und es ergäben sich z. B. neben den v ⋅ n Gütern v ⋅ n - 1 relative Preise, da jedes Gut nun einen Gegenwartspreis und einen Zukunftspreis in allen zukünftigen Perioden aufweist. Zugleich würde sich die Zahl der linear unabhängigen Gleichungen entsprechend erhöhen, um die in jeder der v Perioden angebotenen und nachgefragten gleichgewichtigen Mengen sowie alle gleichgewichtigen Tauschverhältnisse bzw. relativen Preise bestimmen zu können. Die relativen Preise würden nun nicht nur alle Tauschverhältnisse zwischen gegenwärtigen Gütern ausdrücken, sondern alle Tauschverhältnisse im intertemporalen Raum – z. B. das Tauschverhältnis von einer Arbeitsstunde heute gegen ein Paar Schuhe in fünf Jahren. Auf eine formale Darstellung des Modells mit v Perioden wird verzichtet, da sich außer dem Abzählen einer größeren Zahl von Gleichungen und Unbekannten im Vergleich zum oben dargestellten walrasianischen Modell mit Produktion nichts Grundlegendes ändern würde.41 Werden universelle Zukunftsmärkte im walrasianischen Totalmodell berücksichtigt, dann vermag die Neoklassik ein in sich logisch konsistentes intertemporales Modell zu liefern. Sofern allerdings auch nur ein Zukunftsmarkt fehlt, führt dies zu fehlenden Angebots- und Nachfragefunktionen. Folglich fehlen dann linear unabhängige Gleichungen, um die Anzahl der Unbekannten zu lösen. Das Problem ist dabei nicht primär, dass die Variablen auf fehlenden Zukunftsmärkten nicht ermittelt werden können. Das grundlegendere Problem besteht vielmehr darin, dass nun in jeder der individuellen Angebots- und Nachfragefunktionen – also auch für die auf existierenden Zukunftsmärkten – Erwartungen über die Preise auf den fehlenden Zukunftsmärkten integriert werden müssen. Durch diesen Umstand wird Unsicherheit in das walrasianische Gleichgewichtsmodell getragen. Es müssen Prämissen über die Erwartungsbildung aufgestellt werden, die zwingend subjektiver Art und folglich mit Unsicherheiten behaftet sind. Die Wirtschaftssubjekte werden sich vor Unsicherheiten zu schützen suchen, so dass gänzlich neue Kalküle auftreten. Damit aber ändert sich der Charakter des Modells fundamental. Es ist an dieser Stelle deutlich zu erkennen, warum die walrasianische Gleichgewichtstheorie universelle Zukunftsmärkte unterstellt. Das Konstrukt ist notwendig, um Unsicherheiten aus dem Modell zu verbannen. Die in der Tat wirklichkeitsfremde Unterstellung universeller Zukunftsmärkte hat weit reichende Konsequenzen. Durch diese Annahme wird die Zukunft schon heute umfassend vertraglich festgelegt. Dies bewirkt faktisch eine Verlegung der Zukunft in die Gegenwart. Alle Verträge werden heute abgeschlossen, zu weiteren Vertragsabschlüssen in der Zukunft kommt es nicht. Man muss sich beim Ansatz universeller Zukunftsmärkte verdeutlichen, dass der Markt für alle zukünftigen Perioden heute geöffnet wird, dann ein Gleichgewicht gesucht und dann der Markt nie mehr bis ans Ende der Laufzeit der Ökonomie geöffnet wird. Dieser Prozess läuft über viele Generationen. Durch die Einführung universeller Zukunftsmärkte wird der Faktor Zeit faktisch aus der ökonomischen Analyse verbannt. Alle Probleme, die mit der Unsicherheit der Zukunft verbunden sind, verschwinden. In formaler Hinsicht zeigt sich dies daran, dass sich bei der intertemporalen Allokation im Vergleich zum Modell mit nur einer Periode lediglich die Zahl der Unbekannten und linear unabhängigen Gleichungen entsprechend der Anzahl der Zeitperioden erhöht. Eine solche Lösung kann keinesfalls befriedigen. Beispielhaft kann dies bei der Behandlung von langlebigen Kapitalgütern und der Investitionstätigkeit verdeutlicht werden. Fehlinvestitionen, die auf einer 41
Neben der physikalischen Eigenschaft der Güter und dem Zeitpunkt der Erfüllung des Tauschkontraktes kann der Ort der Vertragserfüllung als weitere Dimension eines Gutes eingeführt werden, der im Vergleich zur Zeitdimension analytisch jedoch wenig interessant ist. Als eine weitere Dimension eines Gutes kann der zukünftige Umweltzustand eingeführt werden. Ein zukünftiger Umweltzustand beschreibt zukünftige Bedingungen, die unabhängig von den Handlungen der Wirtschaftssubjekte auftreten. Beispielsweise kann der Kauf eines Eises im Jahre 2051 an die dann herrschende Temperatur geknüpft werden. Ist es kalt, dann tritt der Vertrag nicht in Kraft, Eis wird weder produziert noch konsumiert. Ist es warm, wird dagegen Eis produziert und konsumiert. Auch diese Erweiterung des Modells durch bedingte Verträge ist wenig bedeutsam. Allerdings glauben einige Vertreter der Neoklassik, über diese Konstruktion Elemente von Unsicherheit bezüglich der Zukunft erfassen zu können. Diesem Argument folgen wir nicht.
166
Neoklassische Mikroökonomie
falschen gegenwärtigen Einschätzung der Nachfrage nach dem produzierten Gut, auf unverhofften technologischen Veränderungen etc. beruhen, sind aufgrund der vertraglichen Festlegung der Zukunft ausgeschlossen. Joseph Schumpeter verdeutlichte die daraus entstehenden Schwierigkeiten: „Wir können diese Bedeutung durch die Aussage wiedergeben, dass er (Walras, d.V.) eine ökonomische Welt schuf, in der jedes Element in seine Nische passt, und zwar selbst dann, wenn es, zumal die Produktion Zeit erfordert, produziert wurde, als noch niemand wusste, wie diese Nische aussehen wird“ (Schumpeter 1965, S. 1241). Auch andere Elemente von Unsicherheit haben in der walrasianischen Ökonomie keinen Platz. Für Haushalte gibt es keine Unsicherheit bezüglich zukünftiger Einkommensströme, Arbeitslosigkeit gibt es in dem Modell nicht. Liquiditätsprobleme oder Zusammenbrüche von Unternehmen sind ausgeschlossen; ein Haushalt, der einem Unternehmen eine Maschine vermietet, braucht somit nicht zu fürchten, dass der Unternehmer die Miete nicht bezahlen kann oder gar die Maschine zerstört wird. Das Halten von Vermögen, etwa Geld, zum Schutz vor Unsicherheit ergibt in diesem Modell für Haushalte und Unternehmen keinen Sinn. Mit dem Konstrukt universeller Zukunftsmärkte lassen sich unseres Erachtens die zentralen Strukturen von Geldökonomien nicht hinreichend erfassen. Letztere zeichnen sich nämlich durch hohe Unsicherheiten aus. Es gibt keine universellen Zukunftsmärkte, die die Zukunft in die Gegenwart verlegen. Es ist gerade umgekehrt die Unsicherheit der Zukunft, die universelle Zukunftsmärkte verhindert. Niemand weiß, wie z. B. der Automobilmarkt in auch nur drei Jahren aussehen wird. Kein Automobilkonzern ist in der Lage, die Unsicherheit, die mit einer Investition in eine Autofabrik verbunden ist, vertraglich zu beseitigen, da es z. B. keine Autohändler gibt, die sich verpflichten würden, die nächsten 10 Jahre alle produzierbaren Autos auch abzunehmen. Selbst wenn es Autohändler gäbe, die zu solchen Verträgen bereit wären, würde dies die Unsicherheit nur verschieben, da die Autohändler nicht in der Lage wären, schon heute alle zukünftigen Autos an Kunden zu verkaufen. Es wurde versucht, universelle Zukunftsmärkte durch das Konstrukt rationaler Erwartungen zu ersetzten. Die vertragliche Festlegung aller zukünftigen ökonomischen Aktivitäten kann in den Kopf der Wirtschaftssubjekte verlegt werden. Haben Wirtschaftssubjekte neoklassische rationale Erwartungen, dann erwarten sie schon heute die Zukunft in korrekter Form, so dass sich alle Märkte bei sich erfüllenden Planungen der Wirtschaftssubjekte räumen. Das Problem, die richtige „Nische“ zu finden, wird dann so gelöst, dass Wirtschaftssubjekte in ihrem Kopf die Zukunft im Rahmen objektiver Wahrscheinlichkeiten kennen. Selbst wenn einige Wirtschaftssubjekte sich irren können, werden sich Fehler bei den Erwartungen ausgleichen. Zudem führen die Aktivitäten der Wirtschaftssubjekte, welche die korrekten Erwartungen haben, zu Preisen, welche den Fundamentalfaktoren des Modells entsprechen. Die Annahme rationaler Erwartungen ist ebenso dubios wie die Annahme universeller Zukunftsmärkte. Ohne Zweifel suchen Wirtschaftssubjekte rational nach Informationen, die sie auf der Basis von Erfahrungen und ihres Verständnisses über die Marktmechanismen interpretieren, um sich so ein Bild über die Zukunft zu machen. Ob dieses Bild allerdings der Realität von morgen auch entspricht, ist trotz rationaler Anstrengungen der Wirtschaftssubjekte ungewiss. Ist die Zukunft objektiv nicht vorhersehbar, dann bleibt jedes „Vorauswissen“ sehr beschränkt, und dieser Tatbestand muss gerade bei rationalem Verhalten akzeptiert und ins ökonomische Kalkül einbezogen werden. Sind nur subjektive Wahrscheinlichkeiten möglich oder lassen sich aufgrund von Unwissenheit noch nicht einmal subjektive Wahrscheinlichkeiten formulieren, können Erwartungen fehlende Zukunftsmärkte in keiner Weise ersetzten (zu rationalen Erwartungen vgl. Kapitel 3.4.5 und 4.2.3). Der Zinssatz im walrasianischen Totalmodell Bei der Darstellung des neoklassischen Kapitalmarktes (vgl. Kapitel 2.8) wurde deutlich, dass im neoklassischen Paradigma der Zinssatz als realökonomisches Phänomen zu begreifen ist, das einerseits durch die Zeitpräferenz der Haushalte, andererseits durch die Produktivität von Kapitalgütern bestimmt wird. Bei der Unterstellung nur eines Kapitalgutes (Weizen) ist der relevante Zinssatz in der Ökonomie der Weizenzinssatz, also der Eigenzinssatz des Weizens. Was passiert jedoch mit dem Zinssatz, wenn
Neoklassische Mikroökonomie
167
es nicht nur ein Gut gibt, sondern viele? Bei der Gleichgewichtslösung des walrasianischen Modells ist der Zinssatz als Preis überhaupt nicht in Erscheinung getreten. Wie soll dies interpretiert werden? Die Zeitpräferenzen der Individuen sowie die Produktivitäten zur Herstellung von Gütern werden üblicherweise von Gut zu Gut variieren. So kann es sein, dass der aktuelle Verzicht auf Weizen leichter fällt als der auf Honig, Milch oder Hafer oder dass zusätzlicher Weizen einfacher zu produzieren ist als ein Mehr an anderen Gütern. Nehmen wir z. B. an, dass sich 1 kg Weizen heute gegen 1,1 kg Weizen morgen tauschen lässt, so beträgt der Eigenzinssatz des Weizens (iW) 10%. Tauschen sich 1 kg Hafer heute gegen 1,2 kg Hafer morgen, so beläuft sich der Eigenzinssatz von Hafer (iH) auf 20%. Wir sehen: Es existieren grundsätzlich so viele Zinssätze wie Güter. Unterstellen wir ein Minimodell intertemporaler Allokation mit zwei Perioden und mit ausschließlich Weizen und Hafer, dann gibt es vier Preise, je einen Preis für Weizen und Hafer bei heutiger und zukünftiger Lieferung. Die folgende Tabelle gibt in einem Zwei-Perioden-Zwei-Güter-Fall die gesuchten Preise an:
Tabelle 2.9.1: Preise in einem Zwei-Güter-Zwei-Perioden-Fall Jahr 1
Jahr 2
Weizen
pW
p TW
Hafer
pH
p TH
Bei Wg als gegenwärtigem und Wz als zukünftigem Weizen ist der Eigenzinssatz des Weizens defiWz − Wg iW niert durch: = . Daraus ergibt sich Wg Wz − 1 = iW Wg
bzw.
Wz = 1 + iW Wg
Da das Tauschverhältnis zwischen zwei Gütern dem umgekehrten Preisverhältnis entspricht (vgl. Kapitel 2.2), folgt:
pW = 1 + iW p TW Daraus erschließt sich, dass die (Brutto-) Eigenzinsraten von Gütern sich unmittelbar aus den intertemporalen relativen Preisen der entsprechenden Güter ergeben. Zinssätze sind somit das Resultat der Struktur der relativen Preise. Die obige Gleichung lässt sich in pW = (1 + iW )p TW
umformen. Für Hafer gilt der gleiche Zusammenhang, so dass wir schreiben können: pW = (1 + iW )p TW pH = (1 + iH )p TH
und
168
Neoklassische Mikroökonomie
Aus den beiden Gleichungen ergibt sich: pH (1 + iH )p TH = PW (1 + iW )p TW
bzw.
⎛ pT ⎞ ⎜ W⎟ ⎛ ⎞ ⎟ = ⎜ 1+ iH ⎟ ⎜ PW T ⎜ p H ⎟ ⎝1+ iW ⎠ ⎟ ⎜ ⎝ pH ⎠
Zwischen den relativen Preisen von Weizen und Hafer sowie den Eigenzinssätzen von Weizen und Hafer muss somit ein spezifischer Zusammenhang bestehen, damit ein intertemporales Gleichgewicht möglich wird. Der relative Preis von Zukunftsweizen zu Gegenwartsweizen zum relativen Preis von Zukunftshafer zu Gegenwartshafer muss der Relation der Bruttoverzinsung von Hafer zur Bruttoverzinsung von Weizen entsprechen. Aus den Ausführungen ergeben sich zwei wichtige Schlussfolgerungen. Erstens tauchen Zinssätze und Zinszahlungen im walrasianischen Modell explizit überhaupt nicht auf und spielen für sich genommen keine eigenständige Rolle. Entscheidend bei der intertemporalen Allokation ist der Unterschied zwischen Gegenwarts- und den Zukunftspreisen und somit die intertemporale Struktur der relativen Preise. Aus ihnen kann dann zwar der jeweilige Eigenzinssatz eines jeden Gutes errechnet werden, ihm selbst kommt indes als lediglich abgeleitete Kategorie keine eigenständige Bedeutung zu. Zweitens gibt es in der walrasianischen Ökonomie – sehen wir vom Spezialfall gleicher relativer Preise in allen Perioden ab – nicht den Zinssatz, sondern im Allgemeinen bei n Gütern n verschiedene Eigenzinssätze. Es gibt keinerlei Kriterien, welcher der vielen Eigenzinssätze nun der für die Ökonomie generell gültige Zinssatz sein soll, alle Eigenzinssätze sind grundsätzlich gleichberechtigt. Im Rahmen einer intertemporalen Tauschökonomie ist das Fehlen eines hervorgehobenen Zinssatzes kein Problem, da Zinssätze sowieso hinter der Struktur der relativen Preise „verschwinden“. Nun kennt die neoklassische Theorie jenseits des walrasianischen Modells in der monetären Sphäre auch einen Geldzinssatz, der allerdings im Gleichgewicht vom Zinssatz der Realsphäre bestimmt werden muss. Die Analyse der Beziehung zwischen der monetären und der realen Sphäre ist im neoklassischen Paradigma mit einer Reihe von Problemen verbunden. Dies liegt daran, dass Geld in der walrasianischen Welt keinen Platz hat. Ein Problem ist beispielsweise, welcher Eigenzinssatz denn dem Geldzinssatz gegenübergestellt werden soll. In einer Weizenwelt ist auch diese Frage nicht existent, da es hier in der Realsphäre nur den Weizenzinssatz gibt. Welcher Eigenzinssatz bei einer großen Anzahl von Gütern aber der relevante für den Geldzinssatz sein soll, bleibt unbeantwortet. Die neoklassische Lösung kontrastiert erheblich mit der beinahe schon banalen Erfahrung, wonach der Geldzinssatz im Vergleich zum Weizen-, Milch- oder Haferzinssatz, die sich als Rechengrößen aus der Struktur relativer Preise ergeben und faktisch keine Rolle spielen, eine äußerst wichtige Rolle spielt. Die Problematik der vielen gleichberechtigten Eigenzinssätze von Waren und damit die Unbestimmtheit des relevanten Zinssatzes verschwindet schlagartig, wenn in der Ökonomie Geld berücksichtigt wird. Auch Geld hat einen Eigenzinssatz. Sofern ein Individuum gegenwärtig einen Betrag von 1000 € verleiht und nach einem Jahr 1080 € zurückbekommt, so beläuft sich der Zinssatz für Geld offensichtlich auf 8%. Der Geldzinssatz ist selbstredend ein monetärer Zinssatz und hat mit den Eigenzinssätzen von Waren nichts zu tun. In einer Ökonomie mit Geld spielt der Geldzinssatz die entscheidende Rolle; es stellt sich überhaupt nicht die Frage, welcher Eigenzinssatz der wichtigste sein könnte. Der Geldzinssatz ist automatisch der „Hahn im Korb“, wie dies Keynes im 17. Kapitel der Allgemeinen Theorie nannte, und wird zur allgemeinen Kalkulationsbasis für Kreditverträge und für die Verwertung von Vermögen. Eigenzinssätze von Waren können zwar auch in einer Geldwirtschaft errechnet werden, sie bilden jedoch keine in der Ökonomie relevante Kategorie. Unternehmen refinanzieren sich in Geld-
Neoklassische Mikroökonomie
169
wirtschaften nicht über Weizen-, Auto- oder Käsekredite, sondern über Geldkredite. Sie schießen nicht Rasenmäher oder Zipfelmützen vor, sondern Geld. Aus diesem Grunde ist ihr ökonomisches Kalkül so beschaffen, dass vorgeschossenes Geld – und nicht etwa Rasenmäher – plus einer Verzinsung erwirtschaftet werden muss. Werden Kreditverträge in Geld abgeschlossen und ist der Kreditzins auf Geld der einzig relevante Zinssatz, müssen sich Unternehmen bei der Verwertung von Produktivkapital an dem Geldzinssatz orientieren – und nicht an endlich vielen Güterzinssätzen. Kernpunkte Bei einem universellen Tauschmodell mit Produktion können unter spezifischen Bedingungen (besonders Abwesenheit steigender Skalenerträge und Nichtsättigung und fallende Grenznutzen aller Güter bei den Haushalten) ein oder mehrere Gleichgewichte gefunden werden. Zur Integration der Zeit werden universelle Zukunftsmärkte angenommen, auf denen für alle Güter in der Gegenwart und bis ans Ende der Ökonomie Preise bestimmt werden. Der Markt wird heute eröffnet und dann geschlossen und nie mehr wieder eröffnet. Rationale neoklassische Erwartungen verlegen faktisch die universellen Zukunftsmärkte in die Köpfe der Menschen. Es gibt in der Regel so viele Eigenzinssätze im Gleichgewicht wie Güter, die allerdings hinter der Struktur der relativen Preise verschwinden und keine Relevanz haben. Ein Geldzinssatz existiert nicht. 2.9.2 Pareto-effiziente Allokation gegebener Ressourcen Fragestellung Was ist eine pareto-effiziente Allokation beim Konsum und der Produktion und dem Zusammenhang zwischen Konsum und Produktion? Wie geht das Allgemeine Gleichgewichtsmodell mit der Zeit um? Was sagt das Pareto-Kriterium über Wohlfahrt aus? In den vorangegangenen Ausführungen haben wir gezeigt, dass im Rahmen der Allgemeinen Gleichgewichtstheorie ein Gleichgewicht bestimmt werden kann mit folgenden abhängigen Variablen: den relativen Preise aller Konsumgüter und Produktionsfaktoren, den von den Unternehmen hergestellten Güter- und zur Produktion eingesetzten Faktormengen sowie den von den Haushalten konsumierten und angebotenen Güter und Faktoren Es konnte allerdings noch nicht geklärt werden, wie ein solches Gleichgewicht unter Wohlfahrtsaspekten beurteilt werden kann. Léon Walras war angetreten, zu zeigen, dass die „unsichtbare Hand“ des Marktes, die Adam Smith als Symbol für den Markt benutzte, tatsächlich existiert und das egoistische Handeln einer großen Zahl von Haushalten und Unternehmen zu einem Gleichgewicht führt, das nicht nur akzeptabel ist, sondern die Wohlfahrt einer Gesellschaft maximiert. Dieser Fragestellung soll durch die Analyse der Pareto-Optimalität bzw. Pareto-Effizienz geschlossen werden. Die Problemstellung umfasst mehrere Aspekte. Erstens sollen die Bedingungen der optimalen Konsumgüterallokation und zweitens die der Produktionsfaktoren dargestellt werden. Bei diesen Punkten werden die Ergebnisse früherer Kapitel der Mikroökonomie wiederholt und nur in spezifischer Form dargestellt. Drittens wird die Beziehung zwischen der optimalen Allokation der Konsumgüter und derjenigen der Produktionsfaktoren herausgearbeitet. Viertens schließlich kann gefragt werden, ob das Modell Informationen bereithält, wie die Ergebnisse unter – was immer das genau sein mag – gesellschaftlich-sozialen Kriterien bewertet werden können.
170
Neoklassische Mikroökonomie
Pareto-optimale Konsumgüterallokation Die erste Fragestellung lässt sich anschaulich mit Hilfe einer „Edgeworth-Box“ bearbeiten. Sie ist nach dem englischen Ökonomen Francis Edgeworth (1845-1926) benannt, der sie maßgeblich in die Wirtschaftswissenschaft eingebracht hat. Ausgangspunkt sollen zwei Haushalte, Müller und Schulz, sein, die als Erstausstattung über zwei Güter verfügen – Brot und Bier. Auch dieses extrem vereinfachte Modell steht repräsentativ für alle Haushalte, und alle Güter und die Ergebnisse lassen sich verallgemeinern. Nehmen wir an, Müller besitze als Anfangsausstattung 7 l Bier und 600 g Brot und Schulz verfüge über 3 l Bier und 1400 g Brot. In der Edgeworth-Box (vgl. Abbildung 2.9.1) werden nun die Ausstattungen von Schulz und Müller addiert, so dass sich die Länge und Breite der Box durch die Summe der Anfangsbestände ergibt. Müllers Ausstattung wird links unten, Schulzes Ausstattung rechts oben abgetragen. Durch diese Anordnung ergibt sich, dass sich die Erstausstattungen von Müller und Schulz im Punkt A des Edgeworth-Diagramms treffen, wobei sich Müller auf der Indifferenzkurve IMüller und Schulz sich auf der Indifferenzkurve ISchulz befindet. Im Unterschied zur bisherigen Darstellung von Indifferenzkurven muss lediglich beachtet werden, dass die Indifferenzkurven von Schulz von der rechten oberen Ecke aus abgetragen wurden.
Abbildung 2.9.1: Die Edgeworth-Box mit zwei Haushalten ← Brot 2 kg 10 l
1400 g
Schulz Bier ↓
3l
7l A
C
D I Müller
1l ↑ Bier Müller
I Schulz
600 g Brot →
10 l 2 kg
Wie immer gehen wir davon aus, dass beide versuchen werden, über Tauschaktivitäten ihren Nutzen zu erhöhen. Selbstverständlich unterstellen wir Freiwilligkeit; keiner kann sich durch Faustrecht, Erpressung und andere, in der Realität zuweilen anzutreffende Maßnahmen einseitige Vorteile verschaffen. Welche neue Allokation der Güter, die aufgrund der vorgegebenen Erstausstattung durch einen spezifischen Punkt innerhalb der Box gekennzeichnet sein muss, kann durch Tauschaktivitäten erreicht werden? Für Müller z. B. wäre der Punkt C äußerst vorteilhaft, da er durch ein Mehr an Brot und Bier auf eine Indifferenzkurve käme, die weiter entfernt vom Ursprung liegt. Aber darauf wird sich Schulz keinesfalls einlassen, da er im Punkt C mit Bier und Brot weniger gut versorgt wäre und sein Nutzenniveau sinken würde. Aus seiner Sicht ist der Punkt D aus den genannten Gründen vorteilhaft. Aber auch dieser Tausch wird nicht zustande kommen. Offensichtlich sind Tauschergebnisse nur innerhalb jener Linse zu erwarten, die durch die beiden fett gezeichneten Indifferenzkurven umfasst ist. Punkte innerhalb dieser Linse symbolisieren Ergebnisse, die beide Haushalte besser stellen. Dies lässt sich leicht nachvollziehen, indem man gedanklich sowohl die Indifferenzkurve von Müller als auch die von
Neoklassische Mikroökonomie
171
Schulz weiter vom jeweiligen Ursprung weg verschiebt. Innerhalb der Linse muss Müller auf Bier zugunsten von zusätzlichem Brot verzichten. Nur dadurch kann er durch einen entsprechenden Tausch eine Indifferenzkurve erreichen, die vom Ursprung weiter entfernt liegt als die ursprüngliche. Für Schulz stellt sich der Sachverhalt gerade umgekehrt dar.
Abbildung 2.9.2: Die pareto-optimale Allokation der Konsumgüter ← Brot
Schulz Bier ↓
A Δ Bier N
L
M O I Schulz
P I Müller
↑ Bier Müller
Δ Brot Brot →
Im nächsten Schritt wollen wir uns diese Linse aus Abbildung 2.9.1 genauer ansehen. Abbildung 2.9.2 vergrößert den betreffenden Ausschnitt. Betrachten wir den Punkt M. Hier ist keine Bewegung mehr möglich, ohne dass einer der beiden schlechter gestellt würde. Geometrisch erklärt sich dieses Ergebnis dadurch, dass sich die beiden Indifferenzkurven hier nicht schneiden, sondern lediglich berühren. Ruhepunkte stellen ebenfalls die Punkte L, N, O und P dar. Sofern sich Indifferenzkurven schneiden, existiert eine Linse zwischen den entsprechenden Indifferenzkurven. Unter dieser Bedingung können sich beide Partner gleichzeitig oder zumindest einer noch verbessern. Immer dann, wenn keine Möglichkeiten mehr bestehen, einen Haushalt besser zu stellen, ohne einen anderen dadurch in seinem Nutzenniveau zu schädigen, spricht man von einer pareto-optimalen Allokation der Konsumgüter – anknüpfend an den Theoretiker Vilfredo Pareto (1848-1923), der in Lausanne den Lehrstuhl von Léon Walras übernahm. Umgekehrt ist eine Situation dann nicht pareto-optimal, wenn es bei gegebener Ausstattung möglich ist, mindestens einem Individuum zusätzliche Vorteile zu verschaffen, ohne dadurch ein anderes zu benachteiligen. Ohne Zweifel ist ein pareto-optimaler Zustand am Tangentialpunkt M der beiden Indifferenzkurven gegeben. Allerdings wären auch die Tangentialpunkte L, N, O und P pareto-optimal, da sie das definierte Kriterium erfüllen. Offensichtlich sind Tauschaktivitäten, die über Verträge (Kontrakte) zwischen Müller und Schulz abgewickelt werden, entlang der Verbindungslinie der Tangentialpunkte innerhalb der Linse möglich, da sich auf jedem Punkt dieser Kurve zumindest einer der Haushalte gegenüber der Anfangsverteilung verbessert und sich keiner verschlechtert. Aus diesem Grunde wird diese Kurve auch Kontraktkurve genannt. Auf welchem Punkt der Kontraktkurve sich die beiden Parteien einigen, ist unbestimmt. Befinden sie sich auf einem Punkt der Kontraktkurve, dann haben beide ihr Haushaltsoptimum erreicht. Dies hängt z. B. vom jeweiligen Verhandlungsgeschick ab. Die Unbestimmtheit resultiert aus dem Umstand, dass es nur zwei Marktteilnehmer gibt. Bei vielen Marktteilnehmern würde sich ein marktmäßiger Gleichgewichtspreis ergeben, wobei jeder einzelne Marktteilnehmer ebenfalls nur zu Tauschaktivitäten bereit wäre, wenn er sich nicht verschlechtert. Auch bei der Marktlösung kann es verschiedene Gleichgewichte geben.
172
Neoklassische Mikroökonomie
Was sind nun die genauen Bedingungen für die pareto-optimale Allokation der Konsumgüter? In Kapital 2.3.4 wurde die folgende Gleichung für den nutzenmaximierenden Konsum eines Haushaltes abgeleitet: (2.3.9)
GN1 dX2 p1 = = dX1 p 2 GN 2
Im Haushaltsgleichgewicht gilt, dass die Grenzrate der Substitution dem umgekehrten Preisverhältnis entspricht. Das Verhältnis der Preise muss zudem dem Verhältnis der Grenznutzen entsprechen. Alle Punkte auf der Kontraktkurve sind Optimalpunkte – sowohl für den Haushalt Schulz als auch den Haushalt Müller. Für jeden der beiden muss somit gelten: (2.9.3)
dXBier pBrot GNBrot = = dXBrot pBier GNBier
Im allgemeinen Fall gilt dies nicht nur für die Haushalte Müller und Schulz, sondern für alle Haushalte. Allgemein gilt somit für die Pareto-optimale Allokation der Konsumgüter, dass bei allen x in der Ökonomie existierenden Haushalten das Grenznutzenverhältnis dem Preisverhältnis entspricht, wobei GN1X den Grenznutzen von Gut X für Haushalt 1 meint. Diese Bedingung gilt nicht nur für ein Preisverhältnis, sondern für alle n - 1 unabhängigen Preisverhältnisse, die bei n Gütern möglich sind. Somit folgt: (2.9.4)
⎛ GN x ⎞ p1 ⎛ GN11 ⎞ ⎛ GN12 ⎞ 1 = ⎜⎜ ⎟ = ⎜⎜ ⎟ = ... = ⎜⎜ ⎟ 1 ⎟ 2⎟ x⎟ pg ⎝ GN g ⎠ ⎝ GN g ⎠ ⎝ GN g ⎠
g = 2, 3, ..., n-1 Sofern ein totales walrasianisches Konkurrenzgleichgewicht vorliegt, ist diese Bedingung gegeben und damit die Pareto-optimale Allokation der Konsumgüter erfüllt. Dieses Ergebnis gilt der neoklassischen Mikroökonomie deshalb als bemerkenswert, weil es zustande kommt, obwohl sich jeder Haushalt ausschließlich an seinen Interessen orientiert und lediglich die relativen Preise als Orientierungshilfe bekannt sind. Pareto-Effizienz bei der Allokation von Produktionsfaktoren Kommen wir zur zweiten Fragestellung. Mit Hilfe der Edgeworth-Box lassen sich auch paretoeffiziente Aufteilungen von Produktionsfaktoren zur Herstellung von Gütern zeichnen. Wir gehen von zwei Unternehmen aus, die jeweils ein unterschiedliches Gut produzieren. Um den Fall grafisch darstellen zu können, wird unterstellt, dass als Produktionsfaktoren Arbeit und ein Kapitalgut eingesetzt werden. Für Arbeit könnte auch ein zweites Kapitalgut eingesetzt werden. Die Ergebnisse des ZweiGüter-Zwei-Faktoren-Falls lassen sich dann verallgemeinern. An die Stelle der Indifferenzkurven treten nun Isoquanten, die jeweils gleiche Ausbringungsmengen bei alternierenden Faktoreinsätzen wiedergeben (vgl. Kapitel 2.4.3). Mit Hilfe der Edgeworth-Box lässt sich zeigen, dass eine paretoeffiziente Aufteilung der Ressourcen dann gewährleistet ist, wenn sich durch eine Umverteilung der gegebenen Produktionsfaktoren kein höheres Produktionsergebnis erzielen lässt. Die zusätzliche Produktion eines Gutes muss dann zwangsläufig auf Kosten eines anderen gehen. Grafisch bedeutet dies, dass die Isoquanten keine Schnittstellen, sondern nur noch Berührungspunkte aufweisen dürfen. Die folgende Abbildung 2.9.3 verdeutlicht dies. Analog zur Analyse der Konsumentscheidung wird in der Abbildung der Gesamtbestand der zur Verfügung stehenden Produktionsfaktoren durch die Gesamtlänge der horizontalen bzw. vertikalen Ausdehnung der Edgeworth-Box dargestellt. Ebenso wie beim Tausch von Konsumgütern wird die Produktion eines Gutes – hier Brot – vom linken unteren Eck der Box aus betrachtet, während das zweite Gut – hier Bier – vom rechten oberen Eck aus betrachtet wird. Alle Punkte auf der Isoquante X 0Brot
Neoklassische Mikroökonomie
173
geben jeweils gleiche Mengen Brot an, die mit Hilfe unterschiedlicher Faktoreinsätze hergestellt werden können. Entsprechendes gilt für die Isoquante X 0Bier für Bier.
Abbildung 2.9.3: Die Edgeworth-Box mit zwei Unternehmen ← Arbeit X 0Brot
Bierproduktion Kapitalgut ↓
X1Brot
X 0Bier
B Δ Kapitalgut A
↑ Kapitalgut Brotproduktion
Δ Brot Arbeit →
Unterstellen wir, Isoquante X 0Brot drücke eine Brotmenge von 50 Stück und Isoquante X 0Bier eine Biermenge von 30 l aus, dann lassen sich bei einem Einsatz der Produktionsfaktoren entsprechend des Punktes A 50 Brote und 30 l Bier produzieren. Punkt A stellt allerdings nicht den effizienten Output der beiden Güter dar. Sofern bei der Brotproduktion Arbeit durch das Kapitalgut und bei der Bierherstellung das Kapitalgut durch Arbeit substituiert wird, kann auch der Punkt B erreicht werden. Die produzierte Menge Bier bliebe gleich, aber die Brotproduktion könnte ausgedehnt werden. In Abbildung 2.9.3 kann die Isoquante X1Brot erreicht werden, die weiter vom Ursprung entfernt liegt und 60 Brote ausdrücken mag. Durch diese Umschichtung müsste niemand schlechter, aber einige könnten besser gestellt werden. Tangieren sich im Punkt B beide Isoquanten, dann ist ein Punkt effizienter Produktion realisiert, da durch die Re-Allokation der Inputs keine Zunahme der Produktion eines Gutes möglich ist, ohne die Produktion eines anderen zu reduzieren. Es lassen sich für beide Produktionen entsprechend der produzierten Mengen unendlich viele Isoquanten zeichnen. Dies führt dazu, dass es ebenfalls unendlich viele Berührungspunkte von Isoquanten gibt, die die gesamte Edgeworth-Box durchziehen. Die Gesamtheit dieser Punkte ergibt in Analogie zur Kontraktkurve die so genannte Kurve der effizienten Produktion (vgl. Abbildung 2.9.4). Produktionsfaktoren sind dann pareto-effizient eingesetzt, wenn eine Zunahme der Produktion eines Gutes nur noch durch die Abnahme der Produktion eines anderen Gutes möglich ist. Damit schließt eine effiziente Produktion ein, dass vorhandene Ressourcen auch vollständig genutzt werden. Unfreiwillige Arbeitslosigkeit oder unterausgelastete Kapazitäten widersprechen einer pareto-effizienten Produktion.
174
Neoklassische Mikroökonomie
Abbildung 2.9.4: Kurve der effizienten Produktion Bierproduktion
F E D C B A Brotproduktion
Wenn sich zwei Isoquanten in der Edgeworth-Box tangieren, ist ihre Steigung gleich und damit auch die Grenzrate der Substitution zwischen den Inputfaktoren. Damit erhalten wir ein Kriterium für die effiziente Allokation von Ressourcen für produktive Zwecke. Effiziente Allokation ist dann erfüllt, wenn die Grenzrate der technischen Substitution zwischen zwei beliebigen Ressourcen für alle Produktionen gleich ist. Zugleich wissen wir von Kapitel 2.4.4, dass die Unternehmen die Auswahl der Produktionsfaktoren unter der Prämisse der Gewinnmaximierung betreiben und die Gewinnmaximierung erreicht ist, wenn die Grenzrate der technischen Substitution dem umgekehrten Verhältnis der Faktorpreise entspricht und die Faktorpreise wiederum dem Verhältnis der Grenzproduktivitäten der eingesetzten Faktoren. Dies wurde in Kapitel 2.4.4 durch Gleichung (2.4.14)
dX2 p3 GP3 = = dX3 p2 GP2
zum Ausdruck gebracht. Da die Preisverhältnisse der Inputs für Unternehmen identisch sind, kann Punkt A in Abbildung 2.9.3 kein Gleichgewichtspunkt sein. Denn hier sind die Grenzraten der technischen Substitution bei den betrachteten Produktionen ungleich. Bei gegebenem Verhältnis der Inputpreise werden folglich Substitutionsprozesse in Gang gesetzt. Im Punkt B der Abbildung 2.9.3 und in allen Tangentialpunkten der Isoquanten der Brot- und Bierproduktion in Abbildung 2.9.4 sind die Grenzraten der technischen Substitution dagegen entsprechen dem umgekehrten Preisverhältnis der Inputs bei jedem Unternehmen und damit bei jeder Produktion. Wird der Preis für Arbeit mit w und der Preis des Inputgutes i durch pi ausgedrückt, dann muss zur Produktion eines Gutes g bei jedem der f Unternehmen in der entsprechenden Branche g das Preisverhältnis zwischen Arbeit und dem Inputgut i dem umgekehrten Verhältnis der Grenzproduktivitäten des Inputs sein. Ist GP1H die Grenzproduktivität der Arbeit beim Unternehmen 1 zur Produktion des Gutes g und GP1i die Grenzproduktivität des Gutes i bei der Produktion des Gutes g des Unternehmens 1, dann gilt für alle f Unternehmen: (2.9.6)
w GPH1 GPH2 GPHf = = = ... = 1 2 GPif p i GPi GPi g = 1, 2, ..., n;
i = 1, 2, ..., n
Diese Bedingung effizienter Produktion gilt nicht nur für die Produktion des Gutes g, sondern für alle n Güter. Zudem gilt die Bedingung nicht nur für die Inputrelation zwischen Arbeit und dem Inputgut i, sondern für alle möglichen Inputrelationen zur Produktion des Gutes g. Bei n Gütern gibt es offensichtlich n Inputrelationen zwischen Arbeit und Gütern, so dass i = 1, 2, ..., n ist. Die so definierte Pareto-
Neoklassische Mikroökonomie
175
Effizienz beim Einsatz von Ressourcen in der Produktion ist im Rahmen des walrasianischen totalen Konkurrenzgleichgewichts gewährleistet. Pareto-effiziente Produktionsstruktur Nunmehr wissen wir, was effiziente Produktion im Rahmen des walrasianischen allgemeinen Marktgleichgewichts bedeutet. In diesem Sinne effizient lässt sich sowohl viel Bier und wenig Brot als auch umgekehrt viel Brot und wenig Bier produzieren. Selbstverständlich gibt es auch zahlreiche „mittlere“ Lösungen, die – soweit sich die Isoquanten tangieren – allesamt pareto-effizient sind. Welche Güterart soll nun aber in welchem Umfang hergestellt werden? Die Entscheidung lässt sich nicht technisch erklären, sondern nur auf der Basis der Präferenzen der Haushalte. Die Unternehmen müssen Güter herstellen und anbieten, die diesen Präferenzen entsprechen. Um diese Lösung geht es im nächsten Schritt. Ausgangspunkt unserer Überlegungen soll die Produktionsmöglichkeitskurve sein. In der Abbildung 2.9.4 haben wir einen möglichen Verlauf dieser Kurve eingezeichnet. Die Punkte A, B, C, D, E und F geben beispielhaft Allokationen an, die pareto-effizient sind. Jedem dieser Punkte entspricht eine ganz bestimmte Herstellungsmenge von Brot und Bier. Beim Punkt A wird kein Brot produziert, da alle Produktionsfaktoren fürs Bierbrauen verwandt werden. Im Punkt F ist es gerade umgekehrt. Gehen wir, vom Punkt A beginnend, entlang der Kurve der effizienten Produktion in Richtung F, so nimmt die Brotproduktion im Vergleich zur Bierherstellung kontinuierlich zu. Und jeder Punkt auf der Linie ist im technischen Sinne pareto-effizient. Diese Überlegungen lassen sich auch grafisch darstellen.
Abbildung 2.9.5: Produktionsmöglichkeitskurve Bier A B C D E F Brot
In der Abbildung 2.9.5 wurden den jeweiligen Punkten auf der Kurve der effizienten Produktion in der Abbildung 2.9.4 die entsprechenden Outputmengen an Brot und Bier zugeordnet. Die so entstehende Kurve ist die Produktionsmöglichkeitskurve von Bier und Brot bei gegebenen Produktionsinputs für beide Güter und gegebenen Technologien zur Produktion von Bier und Brot. Während bei der Kurve der effizienten Produktion effiziente Allokationen zwischen Produktionsfaktoren erfasst werden, werden bei der Produktionsmöglichkeitskurve Produktmengen bei technisch effizienten Verfahren dargestellt. Beim Punkt A wurde in Abbildung 2.9.4 kein Brot, beim Punkt F kein Bier hergestellt. Daher sind die jeweiligen Werte in Abbildung 2.9.5 auf der Ordinaten- bzw. Abszissenachse gleich Null. Eine Wanderung entlang der Kurve der effizienten Produktion von links unten nach rechts oben entspricht einer Bewegung der Produktionsmöglichkeitskurve von links oben nach rechts unten.
176
Neoklassische Mikroökonomie
Andere Verläufe der Produktionsmöglichkeitskurve Der in Abbildung 2.9.5 zum Ursprung konkave Verlauf der Produktionsmöglichkeitskurve ergibt sich keineswegs zwingend. Er liegt unter anderem dann nicht vor, wenn beide Produktionen durch steigende Skalenerträge gekennzeichnet sind. Die Produktionsmöglichkeitskurve würde in diesem Fall konvex zum Ursprung verlaufen (vgl. Abbildung 2.9.6). Dies ist unmittelbar einsichtig. In einer EdgeworthBox, die die Bier- und Brotproduktion darstellt, symbolisieren gleiche Verschiebungen der Isoquanten, ausgehend vom Ursprung, sowohl bei der Bier- als auch der Brotproduktion bei steigenden Skalenerträgen laufend größere Zunahmen der Produktionsmenge. Bier und Brot könnten dann am produktivsten hergestellt werden, wenn das jeweils andere Gut nicht produziert wird. Dann nämlich würden die Effekte der Massenproduktion am besten ausgenutzt. Produktionsmöglichkeitskurven wie in Abbildung 2.9.6 würden das walrasianische System sprengen und müssen modelltheoretisch ausgeschlossen werden. Sind beide Produktionen durch fallende Skalenerträge gekennzeichnet, dann ergibt sich zwingend eine zum Ursprung konkave Produktionsmöglichkeitskurve wie in der Abbildung 2.9.5. Denn in diesem Fall sinkt die Effizienz der Produktion, wenn man immer mehr von einem Gut produziert. Am effizientesten ist es, beide Güter in einer mittleren Menge zu produzieren, denn dann sind die negativen Effekte sinkender Skaleneffekte am geringsten. Daraus ergibt sich der zum Ursprung konkave Verlauf der Produktionsmöglichkeitskurve. Zum Ursprung hin konkave Produktionsmöglichkeitskurven ergeben sich im Zwei-Güter-Fall auch dann zwingend, wenn die Produktion zumindest eines der beiden Güter durch fallende Skalenerträge gekennzeichnet ist. Dies lässt sich folgendermaßen erklären: Wird die Produktion zunehmend auf das Gut konzentriert, das mit steigenden oder konstanten Skalenerträgen produziert wird, dann steigt die Produktivität des mit fallenden Skalenerträgen produzierten Gutes zunehmend an. Wird die Produktion hingegen in wachsendem Umfang auf das Gut mit den fallenden Skalenerträgen konzentriert, fällt die Produktivität bei der Herstellung dieses Gutes immer stärker. Durch diese Prozesse ergibt sich zwingend eine zum Ursprung hin konkave Produktionsmöglichkeitskurve. Ein Beispiel mag dies verdeutlichen. In Abbildung 2.9.7 ist in der Edgeworth-Box die Produktion von Brot mit fallenden Skalenerträgen angegeben, was sich in unterproportional steigenden Produktionszuwächsen von Brot bei gleichen Verschiebungen der Isoquanten nach außen ergibt. Von einer Brotproduktion von Null im Punkt A steigt sie beispielsweise im Punkt B auf der Kurve effizienter Produktion auf 60, im Punkt C auf 70 und im Punkt D auf 75. Die Bierproduktion ist aufgrund steigender Skalenerträge durch überproportional steigende Produktionszuwächse von Null im Punkt D, auf 10 im Punkt C, auf 30 im Punkt B und auf 60 im Punkt A gekennzeichnet.
Neoklassische Mikroökonomie
177
Abbildung 2.9.6: Produktionsmöglichkeitskurve bei steigenden Skalenerträgen beider Güter Bier
Brot
Abbildung 2.9.7: Kurve effizienter Produktion bei fallenden Skalenerträgen bei der Produktion des einen und steigenden bei der des anderen Gutes
Bier = 0
D Brot = 75
Bier = 10 Bier = 30
Bier = 60
C
B
A
Brot = 70 Brot = 0
Brot = 60
Werden nun die Produktionskombinationen der Tangentialpunkte der Isoquanten in ein Bier-BrotDiagramm übertragen, ergibt sich eine zum Ursprung konkave Produktionsmöglichkeitskurve (vgl. Abbildung 2.9.8). Bei konstanten Skalenerträgen bei der Bierproduktion würde sich erst recht eine zum Ursprung hin konkave Produktionsmöglichkeitskurve ergeben.
178
Neoklassische Mikroökonomie
Abbildung 2.9.8: Produktionsmöglichkeitskurve bei fallenden Skalenerträgen bei der Produktion des einen und steigenden bei der Produktion des anderen Gutes Bier 60
AA
50 40 B
30 20
C
10 20
40
60
D 80
Brot
Schließlich soll noch untersucht werden, wie die Produktionsmöglichkeitskurve bei konstanten Skalenerträgen bei beiden Produktionen aussieht. Verlaufen die Isoquanten bei der Brot- und Bierproduktion vollständig symmetrisch42, dann ergibt sich eine Kurve effizienter Produktion zwischen den Punkten A und F in einer Edgeworth-Box in der Form einer Geraden. Da bei konstanten Skalenerträgen gleiche Abstände der Isoquanten gleiche Produktionsveränderungen angeben, wird auch die Produktionsmöglichkeitskurve zu einer Geraden zwischen den Punkten A und F. Das optimale Einsatzverhältnis der Inputfaktoren ist in diesem Spezialfall für alle Produktionskombinationen unverändert. Liegen dagegen Isoquantenscharen vor, die bei den beiden betrachteten Produktionen nicht vollständig symmetrisch sind, dann kann die Produktionsmöglichkeitskurve konkav zum Ursprung sein. Dies lässt sich ökonomisch folgendermaßen begründen. Unterstellen wir, Arbeit und das Kapitalgut seien in gleicher Anzahl vorhanden. Unterstellen wir zudem, dass bei der Bierproduktion das Kapitalgut eine äußerst wichtige Rolle spielt, bei der Brotproduktion hingegen Arbeit.43 Werden die gegebenen Produktionsfaktoren etwa so benutzt, dass zur Hälfte Bier beziehungsweise Brot hergestellt wird, dann wird bei effizienter Produktion bei der Bierproduktion relativ viel des Faktors Kapital und bei Brot relativ viel vom Faktor Arbeit eingesetzt. Konzentriert sich die Produktion dagegen mehr auf Bier, dann muss zur Produktion von Bier der hier relativ wenig effektive Faktor Arbeit überproportional eingesetzt werden. Konzentriert sich die Produktion mehr auf Brot, dann muss überproportional mehr das in diesem Fall wenig effiziente Kapitalgut eingesetzt werden. Nach Ableitung der Produktionsmöglichkeitskurve lässt sich nunmehr die optimale Produktionsstruktur, also die effiziente Allokation der Produktionsfaktoren entsprechend der Präferenzordnungen der Haushalte grafisch bestimmen. Unterstellen wir als einfachen Fall zwei Unternehmen, die je ein Gut herstellen, und einen Haushalt. Unter dieser Bedingung können wir die Produktionsmöglichkeitskurve und die Indifferenzkurve des Haushalts unmittelbar in ein Diagramm einzeichnen. Nach Ableitung der Produktionsmöglichkeitskurve lässt sich nunmehr die optimale Produktionsstruktur, also die effiziente Allokation der Produktionsfaktoren entsprechend der Präferenzordnungen der Haushalte grafisch 42
Unterstellen wir eine typische Cobb-Douglas-Produktionsfunktion und als Inputs ein Kapitalgut K und Arbeit H, dann ist die Brotproduktion durch XBrot = Ka1⋅Ha2 mit a1 + a2 = 1 und die Bierproduktion durch XBier = Kb1⋅Hb2 mit b1 + b2 = 1 gekennzeichnet. Völlig symmetrische Isoquanten ergeben sich, wenn gilt: a1 = b1 und a2 = b2. Sind die Exponenten beim Kapitalgut und der Arbeit dagegen bei der Brot- und Bierproduktion ungleich, dann ergeben sich keine vollständig symmetrischen Isoquanten der beiden Produktionen. 43 Die Produktionsfunktion von Bier sei z. B. XBier = K0,9⋅H0,1 und die von Brot sei XBrot = K0,1⋅H0,9.
Neoklassische Mikroökonomie
179
bestimmen. Unterstellen wir als einfachen Fall zwei Unternehmen, die je ein Gut herstellen, und einen Haushalt. Unter dieser Bedingung können wir die Produktionsmöglichkeitskurve und die Indifferenzkurve des Haushalts unmittelbar in ein Diagramm einzeichnen. Das Ergebnis zeigt die Abbildung 2.9.9.
Abbildung 2.9.9: Die optimale Produktionsstruktur Bier B
U 4h
C
Bier *
U 3h
E
U 2h U1h
Brot
Brot *
Eine optimale Produktionsstruktur ist dann gegeben, wenn – unter den Voraussetzungen einer optimalen Allokation der Konsumgüter und einer effizienten Produktion – die Produktionsmöglichkeitskurve von jener der Indifferenzkurven berührt wird, die vom Koordinatenursprung am weitesten entfernt liegt. In der Abbildung 2.9.9 ist dies Indifferenzkurve U 3h . Eine Indifferenzkurve, die weiter vom Ursprung als die tangierende entfernt liegt, ist produktionstechnisch aufgrund der gegebenen Ressourcenausstattung nicht erreichbar. Eine Indifferenzkurve, die näher zum Ursprung als die tangierende liegt, würde ein geringeres Nutzenniveau des Konsums beinhalten. In der Abbildung wird die optimale Kombination der Bier-Brot-Produktion sowie des Bier-Brot-Konsums durch den Punkt C ausgedrückt. Die Punkte B und E wären zwar produktionstechnisch ebenso möglich und auch so effizient wie C, jedoch würden sie nicht den Nutzen des Haushalts maximieren. Die Steigung der Produktionsmöglichkeitskurve wird als Grenzrate der Transformation bezeichnet (da die Produktionsmöglichkeitskurve auch als Transformationskurve bezeichnet wird). Tangieren sich die Indifferenz- und die Produktionsmöglichkeitskurve, dann ist die Grenzrate der Transformation gleich der Grenzrate der Substitution, wobei bei beiden vom Vorzeichen abgesehen wird. Es gilt somit: absolut (2.9.7)
Grenzrate der
Grenzrate der
Transformation
Substitution
dX1 dXg
=
dX1 dXg
g = 2, 3, ..., n
Im walrasianischen Konkurrenzgleichgewicht entspricht die Grenzrate der Transformation zweier beliebiger Güter der Grenzrate der Substitution für diese Güter bei jedem Haushalt.
180
Neoklassische Mikroökonomie
Zusammenfassend lassen sich die drei pareto-optimalen Bedingungen, die immer mit einer walrasianischen Gleichgewichtslösung identisch sind, so beschreiben, dass: jedes Güterbündel so konsumiert wird, dass bei allen Haushalten die Grenzrate der Substitution der konsumierten Güter gleich ist und dem umgekehrten Preisverhältnis bzw. dem umgekehrten Verhältnis der Grenznutzen dieser Güter entspricht, jedes Faktorbündel so eingesetzt wird, dass die Grenzrate der technischen Substitution bei allen Faktorkombinationen in allen Unternehmen in jeder Branche gleich ist und dem umgekehrten Preisverhältnis bzw. dem umgekehrten Verhältnis der Grenzproduktivitäten der Faktorbündel entspricht, bei jedem Güterbündel die Grenzrate der Transformation den Grenzraten der Substitution bei allen Konsumenten entspricht. Selbstverständlich sind die erzielten Ergebnisse nicht unabhängig von der Modellierung des Modells selbst. Um zu den hier skizzierten Resultaten zu gelangen, müssen verschiedene Annahmen vorausgesetzt werden. Unter anderem muss vollkommener Wettbewerb unterstellt werden. Monopole und Oligopole sind pareto-suboptimal, da unter Wettbewerbsbedingungen mehr und zu einem günstigeren Preis hergestellt werden könnte. Zudem sind alle Bedingungen unterstellt, die eine Lösung des walrasianischen Gleichgewichts erlauben, insbesondere die Abwesenheit steigender Skalenerträge auf der Produktionsseite und die Nichtsättigung und fallende Grenznutzen bei den Haushalten. Unterstellt werden müssen universelle Zukunftsmärkte bis ans Ende der Ökonomie, wobei der Markt heute geöffnet wird und dann nie mehr. Auch muss betont werden, dass nur die Existenz eines oder mehrerer möglicher Gleichgewichte gesucht wird. Eine völlig offene Frage ist, ob Marktprozesse auch zu einem der Gleichgewichtspunkte finden. Pareto-Optimalität setzt des Weiteren voraus, dass es keine externen Effekte in dem Sinne gibt, dass die Produktion oder auch der Konsum des einen Wirtschaftssubjekts die Produktion bzw. den Konsum eines anderen ohne preisliche Konsequenzen beeinflusst. Hierauf werden wir im Kapitel 2.11 eingehen. Es handelt sich insgesamt um ein Modell, dass in extremer Weise Abstraktionen vornehmen muss die als extrem gewagt bis abstrus eingestuft werden müssen. Auf diesen Punkt werden wir in der kritischen Würdigung näher eingehen. Gesellschaftliche Wohlfahrt Ein pareto-optimales bzw. ein walrasianisches Totalgleichgewicht kann als Wohlfahrtsoptimum einer Gesellschaft interpretiert werden, da es eine Situation ausdrückt, in der sich keiner verbessern kann, ohne die Situation eines anderen zu verschlechtern. Das Gleichgewicht stellt somit unter gegebenen exogenen Anfangsbeständen der Haushalte und gegebenen Technologien die bestmögliche Situation her, die in einer Ökonomie mit Privateigentum und Vertragsfreiheit möglich ist. Die Ergebnisse des Gleichgewichts hören sich fast paradiesisch an. Bei einer pareto-optimalen Situation muss unter anderem unterstellt werden, dass alle Ressourcen ausgelastet sind. Wenn z. B. die Beschäftigungsmenge eine Funktion des Reallohns ist, so wird der Auktionator im walrasianischen Modell immer einen Reallohn finden, der den Arbeitsmarkt räumt. Möglich ist dann nur freiwillige Arbeitslosigkeit, da sich Haushalte aufgrund ihrer Präferenzordnungen dann freiwillig für den Konsum des Gutes Freizeit entscheiden. Nimmt man den Maßstab des Pareto-Kriteriums, dann stellt unfreiwillige Arbeitslosigkeit einen Wohlfahrtsverlust dar, denn durch Ausdehnung der Beschäftigung könnte die Situation für Wirtschaftssubjekte verbessert werden, ohne die von anderen zu verschlechtern. Aber unfreiwillige Arbeitslosigkeit gibt es in der Gleichgewichtslösung nicht. Es spricht allerdings vieles dafür, dass in kapitalistischen Ökonomien unfreiwillige Arbeitslosigkeit ein Normalzustand ist und damit das ParetoKriterium verletzt wird. Denn es erscheint wenig plausibel, hohe und wechselnde Niveaus der Arbeitslosigkeit auf Präferenzen und Präferenzveränderungen der Haushalte für Freizeit zurückzuführen, wobei zukünftige Präferenzveränderungen schon heute bekannt und in den Zukunftsverträgen zum Ausdruck kommen müssten. Es sei auf hier noch auf ein Problem hingewiesen, das bei ökologischen Fragestellungen eine große Rolle spielt. Im Allgemeinen Gleichgewichtsmodell gibt es eine perfekte inter-
Neoklassische Mikroökonomie
181
temporale Allokation, da implizit ein unendlich lebender Mensch unterstellt ist, der für die gesamte Zeit der Existenz der Ökonomie Zukunfts- und Gegenwartskonsum optimiert. Dass Generationen in 100 Jahren oder welche, die noch weiter in der Zukunft liegen, für die aktuelle Nutzenmaximierung der gegenwärtigen Generation keine Rolle spielen könnten, wird durch das Konstrukt der universellen Zukunftsmärkte definitionsgemäß eliminiert. Wir wollen nun den Charakter des von Pareto entwickelten Wohlfahrtskriteriums genauer beleuchten. Die Begründer der Grenznutzenlehre, die von einer kardinalen Nutzenmessung ausgingen, kamen zu durchaus radikalen Umverteilungsforderungen der Anfangsbestände. Denn bei kardinaler Nutzenmessung ist es möglich, genau zu berechnen, ob durch Umverteilungen das gesellschaftliche Wohlfahrtsniveau erhöht werden kann oder nicht. So würde das gesellschaftliche Wohlfahrtsniveau z. B. erhöht, wenn einem Haushalt mit zehn Autos und einem Grenznutzen des zehnten Autos von 100 ein Auto zugunsten eines Haushalts weggenommen wird, der kein Auto besitzt und für den sich der Grenznutzen des ersten Autos auf 1000 beliefe. Mit solchen Überlegungen hat Vilfred Pareto aufgeräumt, da er die simple Tatsache betonte, dass Nutzenvergleiche zwischen Personen nicht möglich sind. Es ist eben nicht möglich, zu entscheiden, ob der Grenznutzenverlust eines Autofahrers, der zehn Autos hat und dem ein Auto genommen wird, dem Grenznutzenzuwachs einer Person entspricht, die bisher noch kein Auto hatte und eins bekommen soll. Aus diesem Grunde musste schon früh in der Entwicklung der Nutzentheorie das Konzept der kardinalen Nutzenmessung durch eine ordinale ersetzt werden. Das Pareto-Kriterium zur Beurteilung verschiedener ökonomischer Zustände lautet somit, dass ein gesellschaftlicher Zustand A nur dann einem gesellschaftlichen Zustand B vorzuziehen ist, wenn in A zumindest ein Wirtschaftssubjekt besser gestellt ist als in B, ohne irgendjemanden schlechter zu stellen. Resultieren mehrere Gleichgewichtslösungen, was möglich ist, gibt es keine Möglichkeit des Modells, eine der Lösungen als die beste zu identifizieren. Eine Konsequenz aus der Argumentation von Pareto ist auch, dass jeglicher Versuch der Definition einer gesellschaftlichen Wohlfahrtsfunktion zum Scheitern verurteilt ist. Indifferenzkurven können nur immer individuelle sein, da es keine gemeinsame Nutzenfunktion von zwei Individuen geben kann geschweige denn für eine Gesellschaft. Keine Auskunft gibt die Allgemeine Gleichgewichtstheorie demnach über das Problem der „sozialen Gerechtigkeit“. Eine Verteilung wird auch dann paretooptimal sein, wenn die Anfangsbestände extrem ungleich verteilt sind. Sofern in unserem Ausgangsbeispiel Haushalt Müller z. B. weder Brot noch Bier hätte, so käme natürlich kein Tausch zustande. Dessen ungeachtet genügt die Situation, in der Schulz alles und Müller nichts hat, dem Kriterium der Pareto-Optimalität. Würde der Staat die Anfangsbestände der Haushalte willkürlich umverteilen, würde das dann jeweils resultierende Gleichgewicht ebenfalls pareto-optimal sein. Die Pareto-Optimalität gibt somit keinerlei Antwort auf die Frage, wie die Anfangsausstattungen der Haushalte verteilt sein sollten. Dies sei, so betonte der prominente Vertreter des walrasianischen Modells, Frank Hahn, eine moralische Frage: „Folglich betreffen die moralischen Fragen die Verteilung der Anfangsausstattungen, und das Gleichgewicht als solches ist nur von beschränkter moralischer Bedeutung. Eine unzureichende Bezeichnungsweise (Pareto-Optimum) in der Literatur, gepaart mit viel Sorglosigkeit in den Lehrbüchern, verleitet die Menschen häufig zu der Auffassung, dass es ein Theorem gibt, das behauptet, ein Wettbewerbsgleichgewicht stelle auch ein Gesellschaftsoptimum dar. Eine solche Behauptung gibt es nicht“ (Hahn 1984, S. 157). Wir können Frank Hahn hier uneingeschränkt zustimmen. Das walrasianische Modell ist – wenn man so will – verteilungspolitisch neutral. Im Kern ist das ParetoKriterium ein Effizienzkriterium. Es sagt letztlich nur aus, wie exogen gegebene Ressourcen bei gegebener Aufteilung auf die Haushalte optimal für Konsum- und Produktionszwecke genutzt werden und dass – wenn alle unterstellten Bedingungen erfüllt sind – das walrasianische Totalgleichgewicht eine solche optimale Nutzung impliziert. Im Rahmen verteilungspolitischer Überlegungen wird man abwägen müssen, ob die Besserstellung einiger Haushalte eine Schlechterstellung anderer rechtfertigt. Dazu aber bedürfte es grundsätzlich der Messung interpersoneller Nutzen. Nutzenvergleiche zwischen Haushalten sind jedoch, wie gesagt, nicht möglich. Aus diesem Grunde scheiden auch Wohlfahrtsvergleiche welcher Art auch immer auf
182
Neoklassische Mikroökonomie
Basis der Nutzentheorie aus. Vor diesem Hintergrund wird deutlich, dass nicht einmal theoretisch eine eindeutige Handlungsempfehlung zugunsten dieser oder jener verteilungspolitischen Maßnahme existiert. Selbst demokratische Abstimmungen müssen nicht zu einer eindeutigen Entscheidung im Rahmen von Umverteilungsmaßnahmen führen. Dies lässt sich mit Hilfe des Abstimmungsparadoxon zeigen. Nehmen wir an, die unterschiedlichen Zustände in einer Wirtschaft lassen sich mit A, B und C beschreiben. Zugleich sollen drei Individuen durch Mehrheitsabstimmung darüber befinden, welcher Zustand angestrebt werden soll. Jedes Individuum entscheidet entsprechend seiner Präferenzordnung. Der erste Haushalt geht davon aus, dass A f B f C ist. Der zweite Haushalt entscheidet B f C f A und der dritte C f A f B. Demnach will eine Mehrheit (Haushalte 1 und 3) den Zustand A lieber als die Situation B. Eine andere Mehrheit (Haushalte 1 und 2) bevorzugt B gegenüber C. Schließlich will eine dritte Mehrheit (Haushalte 2 und 3) C lieber sehen als A. Die Mehrheitsentscheidungen sind offensichtlich nicht konsistent und mit einer individuellen Nutenfunktion zu vergleichen. Damit lässt sich oftmals auch über Abstimmungen keine eindeutige Entscheidung finden. Die Politik muss im Rahmen des hier diskutierten Modells Wertentscheidungen treffen, die letztlich ausschließlich sind und damit „wirkliche“ Entscheidungen im Sinne von Max Weber verlangen. Kernpunkte Eine pareto-effiziente Allokation ist erreicht, wenn kein Individuum durch Tauschaktivitäten besser gestellt werden kann ohne ein anderes schlechter zu stellen. Das Allgemeine Gleichgewichtsmodell führt zu einer pareto-effizienten Allokation, wenn alle Voraussetzungen des Modells erfüllt sind. Die Voraussetzungen sind teilweise abstrus und realitätsfern (beispielsweise die Annahme universeller Zukunftsmärkte bis ans Ende der Ökonomie). Pareto-Effizienz hat nichts mit Gerechtigkeit oder einem gesellschaftlich anstrebenswerten Zustand zu tun. Wohlfahrtsvergleiche zwischen Individuen sind nicht möglich. Damit existiert auch keine gesellschaftliche Wohlfahrtsfunktion. Gesellschaftliche Entscheidungen müssen politisch getroffen werden.
Neoklassische Mikroökonomie
183
2.10 Kritische Würdigung der neoklassischen Mikroökonomie Die neoklassische Mikroökonomie in der Tradition von Léon Walras hat sich eine entscheidende Frage gestellt, die bis auf Adam Smith zurückgeht: Führt das individuelle Handeln einer großen Zahl ausschließlich egoistischer Haushalte, die nur ihren individuellen Nutzen maximieren, und einer großen Zahl von Unternehmen, die nur ihren individuellen Gewinn maximieren, zu einem gesellschaftlich akzeptablen Ergebnis? Smith führte das Konstrukt der unsichtbaren Hand an, um zu postulieren, dass Märkte die millionenfachen Einzelinteressen so koordinieren, dass sich als Resultat ein gesellschaftlich optimaler Zustand ergibt. Walras gab sich nicht mit dem Postulat der unsichtbaren Hand zufrieden, sondern wollte den Beweis im Rahmen eines mikroökonomischen Totalmodells erbringen. Aber, hören wir Frank Hahn: „Smith hatte nicht bloß eine offensichtlich bedeutende Frage gestellt, sondern auch den Weg zu ihrer Beantwortung gewiesen. Die Theorie des allgemeinen Gleichgewichts, wie sie in ihrer klassischen Form durch Arrow (1954) und Debreu (1959) entwickelt wurde, stellt fast das Ende dieses Weges dar. Jetzt, nachdem wir dort angelangt sind, finden wir ihn weniger beleuchtet als wir erwartet hatten“ (Hahn 1984, S. 154). Warum dies? Im Kern hat die walrasianische Gleichgewichtstheorie zu makroökonomischen Ergebnissen geführt, die – gemessen an den ursprünglichen Hoffnungen – enttäuschend sind. Das Modell zeigt nämlich, dass ein ökonomisch optimaler Zustand – gemessen durch die Vollauslastung aller Ressourcen einschließlich der Ressource Arbeit und die Existenz eines pareto-effizienten Zustandes – nur unter extremen bis hin zu abstrusen Annahmen denkbar ist. Selbst bei diesen Annahmen kann im allgemeinen Fall nicht ausgeschlossen werden, dass es verschiedene optimale Zustände geben kann – das Gleichgewichtssystem somit mehrere ökonomisch sinnvolle Lösungen liefert. Welche der Lösungen dann die bessere ist, kann nicht bestimmt werden, da es keine gesamtgesellschaftliche Nutzenfunktion gibt. Es spricht allerdings für die analytische Schärfe der modernen Allgemeinen Gleichgewichtstheorie, gezeigt zu haben, unter welchen extremen Annahmen überhaupt ein optimaler Zustand bestimmt werden kann. Da in allen marktwirtschaftlichen Ökonomien, die dem walrasianischen System unterstellten Bedingungen nicht annähernd gegeben sind, kann geschlossen werden, dass Marktökonomien keinesfalls automatisch zu einem optimalen Zustand führen. Aus dem walrasianischen Modell kann somit keineswegs geschlossen werden, dass die unsichtbare Hand des Marktes zu einem gesellschaftlich akzeptablen Ergebnis führt. Es wundert somit nicht, dass gerade führende Theoretiker der Allgemeinen Gleichgewichtstheorie bei ihren wirtschaftspolitischen Empfehlungen sehr vorsichtig sind und keinesfalls auf die „unsichtbare Hand“ bauen. Zur Verteilungsgerechtigkeit kann das Modell allemal nichts aussagen. Die walrasianische Gleichgewichtstheorie enthält somit auch keine Empfehlung für eine wirtschaftspolitische Abstinenz des Staats. Machen wir uns die verschiedenen, besonders kritischen Annahmen nochmals deutlich: Eine Gleichgewichtslösung, die die Kriterien der Pareto-Effizienz (und damit auch der Abwesenheit unfreiwilliger Arbeitslosigkeit) erfüllt, ist nur bei Existenz universeller Zukunftsmärkte möglich. Gibt es sie nicht, dann werden zukünftige ökonomische Aktionen nicht schon heute unwiderruflich festgelegt. Damit entsteht Unsicherheit, so dass Wirtschaftssubjekte Erwartungen bilden müssen, was sich auf den Märkten künftig abspielen wird. Unternehmen können z. B. nicht mehr sicher sein, ob sie bei ihren Entscheidungen immer die richtige „Nische“ gefunden haben. Im Ergebnis werden Fehlinvestitionen möglich, und man befindet sich unversehens in einer Welt mit Unsicherheit, im Nachhinein als fehlerhaft bewertetes Verhalten und vorsichtigem Agieren von Wirtschaftssubjekten. Beim Konstrukt der universellen Zukunftsmärkte wird „störende“ Unsicherheit aus dem Modell verbannt. Es zeigt gerade den theoretischen Fortschritt in der Tradition von Walras, die Notwendigkeit solcher Märkte erkannt und modelltheoretisch umgesetzt zu haben. Zugleich muss aber auch reflektiert werden, welche theoretischen und wirtschaftspolitischen Konsequenzen daraus wachsen, wenn das neoklassische Kernmodell Annahmen unterstellt, die als Abstraktionen der ökonomischen Realität nicht akzeptiert werden können.
184
Neoklassische Mikroökonomie
Das Konzept neoklassischer rationaler Erwartungen ist ein Substitut für universelle Zukunftsmärkte. Es ist jedoch eine Fiktion zu unterstellen, dass die ökonomische Entwicklung in fünf, zehn oder zwanzig Jahren auch nur wahrscheinlichkeitstheoretisch gekannt werden kann. Niemand weiß, wie der Benzinpreis im Jahre 2020 sein wird, welche Mengen an Autos Volkswagen im gleichen Jahr verkaufen kann oder welches Einkommen die beiden Autoren dieses Buches aus ihrer Publikation erzielen können. Es ist die Erfassung von Zeit und Erwartungen – neben der Modellierung von Geld – was den größten Unterschied zwischen dem neoklassischen und dem keynesianischen Paradigma ausmacht. Denn bei John Maynard Keynes gibt es weder universelle Zukunftsmärkte noch eine Zukunft, die sich auf Basis objektiver Wahrscheinlichkeiten erfassen lässt. Frank Hahn hat korrekt bemerkt, dass mit dem neoklassischen Modell fürchterliche Dinge passieren, wenn auch schon ein Zukunftsmarkt fehlt und die Ökonomie dann in eine keynesianische Welt mit ungewissen Erwartungen fällt (vgl. Hahn 1984). Steigende Skalenerträge müssen ausgeschlossen werden, da ansonsten keine Gleichgewichtslösung des Totalmodells gefunden werden kann. Steigende Skalenerträge würden die Prämisse vollständiger Konkurrenz und damit eine Basisannahme des Modells aufheben. Die Pareto-Optimalbedingungen würden bei steigenden Skalenerträgen kein Effizienz-Optimum mehr darstellen. Da steigende Skalenerträge jedoch insbesondere in der industriellen Produktion als typisch angesehen werden müssen, zeigt das Modell eher, welche Bedingungen zur Aufrechterhaltung vollständiger Konkurrenz gegeben sein müssen und weniger, wie Marktwirtschaften tatsächlich funktionieren. Ungelöst bei der Annahme vollständiger Konkurrenz bleibt auch, wer die Preise ändern soll, wenn sich alle Wirtschaftssubjekte als Mengenanpasser verhalten. Im realen Marktprozess kann der Auktionator diese Aufgabe offensichtlich nicht übernehmen. Haben die Unternehmen die Macht, Preise zu ändern, bewegt man sich vom Modell der vollständigen Konkurrenz weg und verunmöglicht dadurch eine allgemeine Gleichgewichtsbestimmung im Rahmen des Totalmodells. Wir erachten das Modell der monopolistischen Konkurrenz als einen tragfähigen Ansatz zur Lösung der Probleme vollständiger Konkurrenz ohne auf allen Märkten Monopole oder Oligopole unterstellen zu müssen. Unbestritten ist die Fruchtbarkeit des mikroökonomischen Ansatzes für die Erklärung des Handelns von individuellen Haushalten und Unternehmen, bei der Erklärung von ökonomischen Anreizstrukturen, bei der Erklärung von verschiedenen Marktformen etc. Aus diesem Grunde kann das vorgestellte mikroökonomische Modell für verschiedenste mikroökonomische Fragestellungen und spezifische Bereiche nutzbar gemacht werden – für die Untersuchung von Branchen, von Anreizstrukturen bei Versicherungen, für die Frage nach optimalen Vertragsbedingungen bis hin zur Analyse von Monopolen und deren Regulierung. In soweit liefert die neoklassische Mikroökonomie viele wertvolle Erkenntnis und analytische Instrumente. Frank Hahn hat angemerkt, dass die Ergebnisse der walrasianischen Gleichgewichtstheorie weniger „beleuchtend“ sind als ursprünglich erhofft. Gemeint hat er hier die makroökonomische Aussagekraft und die positiven makroökonomischen Erkenntnisse, welche die neoklassische Mikroökonomie liefert. Welche positiven makroökonomischen Aussagen lässt das walrasianische Modell zu? Die zentrale Aussage des Modells beschränkt sich letztlich auf den einen Punkt: Die Gleichgewichtslösung ist – akzeptiert man die notwendigen Bedingungen – pareto-effizient und somit bei gegebener Verteilung der Erstausstattungen der Haushalte wohlfahrtsmaximierend. Im Vorgriff auf die kommenden Kapitel und entgegen der Ergebnisse der Analyse des Arbeits- und Kapitalmarktes mit nur einem Kapitalgut kann das Modell keine allgemeinen makroökonomischen Aussagen zu den folgenden Themenkreisen machen: Lohnhöhe und Beschäftigung Zwischen Lohnhöhe und Beschäftigung gibt es keinen eindeutigen Zusammenhang, der durch die walrasianische Ökonomie abgeleitet werden könnte. Insbesondere kann im Rahmen des walrasianischen Modells nicht abgeleitet werden, dass in einem Ungleichgewicht mit Arbeitslosigkeit eine Senkung der Löhne die Arbeitslosigkeit reduziert. Das Gleichgewicht auf allen Märkten kann so beschaffen sein,
Neoklassische Mikroökonomie
185
dass der gleichgewichtige Lohnsatz in dem beschriebenen Fall steigen muss. Eine mit sinkendem Reallohn steigende Nachfragefunktion nach Arbeit gibt es im mikroökonomischen Totalmodell nicht. Das neoklassische walrasianische Totalmodell bestätigt damit nicht eines der Kernargumente der Neoklassik, dass bei unfreiwilliger Arbeitslosigkeit würde ein Fallen der Löhne zu steigender Beschäftigung führen. Zinssatz und Kapitalbestand Bei steigendem Zinssatz – gemeint ist hier selbstverständlich der Eigenzinssatz irgendeiner Ware – kann der Kapitalbestand, bewertet im Numéraire-Gut, sinken oder fallen. Es gibt im walrasianischen Totalmodell somit keinen Zusammenhang zwischen steigender Kapitalintensität und fallendem Zinssatz. Damit gibt es auch keine Investitionsfunktion, die bei sinkendem Zinssatz eine Erhöhung der Investitionen ableiten könnte. Offensichtlich gibt es im neoklassischen Paradigma ein Dilemma. Will dass neoklassische Modell nicht die widersinnige Annahme einer Ökonomie mit nur einem Kapitalgut machen, dann gehen eine Reihe der „heiligen Kühe“ neoklassischen Denkens verloren. Wird nur ein Kapitalgut unterstellt, dann bleiben zwar beliebte Aussagen des neoklassischen Paradigmas erhalten – etwa die mit fallendem Reallohnsatz steigende Arbeitsnachfrage und der mit fallendem Zinssatz steigende Kapitalbestand – aber man kann sich des Eindrucks nicht erwehren, dass wissenschaftliche Redlichkeit althergebrachten Zöpfen geopfert werden, die mit neoklassischem Denken verbunden sind. Nach der „keynesianischen Revolution“ in den zwanziger und dreißiger Jahren des letzten Jahrhunderts, die ihr Schwergewicht auf die Makroökonomie legte, gab es in der Volkswirtschaftslehre einen gewissen Kompromiss. Makroökonomie wurde als vergleichsweise „weiche“ Ökonomie für die Analyse kurzfristiger Marktstörungen akzeptiert, während die Mikroökonomie die „harten“ langfristigen Gesetzmäßigkeiten der Ökonomie klären sollte. Um die Makroökonomie zu härten, wurde als breit akzeptiertes Forschungsprogramm die Mikrofundierung der Makroökonomie postuliert. Makroökonomische Funktionen – etwa der mit fallendem Zinssatz steigende Kapitalbestand – sollte mikroökonomisch begründet werden. Das Forschungsprojekt muss als gescheitert angesehen werden, da sich auf der Grundlage des mikroökonomischen walrasianischen Totalmodells keine relevanten makroökonomischen und vor allem wirtschaftspolitischen Aussagen machen lassen.44 Insbesondere wirtschaftspolitisch kann wenig ausgesagt werden. Beispielsweise bleibt offen, ob bei Arbeitslosigkeit die Löhne steigen oder sinken sollen. Ein makroökonomischer Ansatz muss methodisch offensichtlich gänzlich anders modelliert werden als der mikroökonomische (vgl. Kapitel 4). Populär geworden ist eine Primitivvariante der Mikrofundierung im Rahmen der Neuklassik und des Neu-Keynesianismus. Hier werden einzelne Haushalte oder einzelne Unternehmen mikroökonomisch analysiert. Die Ergebnisse der Untersuchung der „Modellagenten“ werden dann direkt auf die Makroebene übertragen. Eine solche Methode ist jedoch nicht haltbar, da die mikroökonomische Logik der makroökonomischen Logik nicht entsprechen muss. Steht in einem Konzert eine Person auf, um eine bessere Sicht zu haben, dann ist dies individuell rational. Stehen aber alle Konzertbesucher auf, dann sieht keiner besser und alle müssen stehen. Bei dieser Art von Mikrofundierung kann gerade nicht von einer Mikrofundierung der Makroökonomie gesprochen werden (vgl. Heine/Herr 2003). Der walrasianischen „Vision“ einer Marktwirtschaft, die angetreten war, der Physik vergleichbare Gesetzmäßigkeiten für die Ökonomie zu entwickeln, kommt das große Verdienst zu, verdeutlicht zu haben, dass auf Basis einer in sich logisch geschlossenen Theorie, die ausschließlich auf mikroökonomischen Präferenzkalkülen beruht, nur sehr dünne allgemeine Aussagen möglich sind. „Harte“ Gesetzmäßigkeiten – etwa zwischen Löhnen und Beschäftigung oder Zinssatz und Kapitalbestand – lassen sich auf der Ebene der walrasianischen Theorie nicht ableiten. Walras holt damit – sicherlich unbeabsichtigt – die Ökonomie in die Sozialwissenschaften zurück, da auch die Ökonomie nur eindeutige Aussagen auf einer „weicheren“ Ebene fällen kann. Dann muss sie z. B. Verhaltensannahmen einfüh44
Vgl. dazu Heilbronner/Milberg (1995).
186
Neoklassische Mikroökonomie
ren, die nur historisch spezifisch sind und sich ändern können und eben nicht mehr allgemein gelten. Beschreitet man diesen Weg, dann ist man schon mitten drin in den makroökonomischen Modellen und hat die „reinen“, jedoch makroökonomisch aussageschwachen mikroökonomischen Modelle verlassen. Wir haben uns nun auf rund 200 Seiten mit den Grundzügen der neoklassischen Mikroökonomie beschäftigt, ohne näher auf Geld eingegangen zu sein. Darin zeigt sich methodisch, dass nach Auffassung der Neoklassik Geld in Bezug auf Produktion, Einkommensbildung und Beschäftigung neutral ist, also keinen zentralen Stellenwert einnimmt. Als Zinssatz tauchen nur Eigenzinssätze von Waren ohne eigenständige Bedeutung auf. Einen Geldzinssatz als dominante ökonomische Größe gibt es nicht. Im vierten Kapitel werden wir zeigen, dass diese Auffassung über den ökonomischen Gehalt des Geldes durchaus nicht geteilt werden muss. Der Kern der theoretischen Revolution des Keynesianismus bestand gerade darin, zu zeigen, dass die Logik einer Marktwirtschaft (bzw. präziser formuliert: einer Geldökonomie) nicht ohne Berücksichtigung des Geldes, das ins Zentrum der Analyse rückt, möglich ist. Zinssätze, Investitionen, Produktionsvolumen, Beschäftigung, Reallohn etc. – alles Größen, die im walrasianischen Modell ohne Geld abgeleitet werden, lassen sich nach keynesianischer Auffassung ohne Geld nicht begreifen. Ein letzter Punkt soll hier noch angesprochen werden. Unabhängig von der Gleichgewichtsbestimmung bleibt offen, wie eine Marktökonomie zum Gleichgewicht findet und – falls es überhaupt einen Prozess zum Gleichgewicht gibt – wie viel Zeit ein solcher Prozess benötigt. Walras selbst hat auf das Fabelwesen des Auktionators zurückgegriffen, das die Koordination übernehmen soll. Die Funktion dieses Auktionators besteht darin, die Mengenangebote und -nachfragen der Unternehmen und der Haushalte bei von ihm vorgeschlagenen Preisen zu sammeln. Sofern es Ungleichgewichte auf einzelnen Märkten gibt, erhöht er bei einer Überschussnachfrage den Preis, senkt ihn bei einem Überschussangebot und sammelt die neuen Mengenvorschläge der Akteure ein. Der Prozess endet erst dann, wenn dieses Tatonnement zum Gleichgewicht auf allen Märkten geführt hat. Erst dann dürfen die Kontrakte vollzogen werden. Daher stellt das Tatonnement auch keinesfalls die Simulation eines Marktprozesses dar. Der Auktionator sucht über das beschriebene Verfahren lediglich eine Gleichgewichtskonstellation, auf die die Marktteilnehmer dann springen. Reale Marktprozesse, die mit personellen, technischen oder organisatorischen Anpassungen an die neuen Rahmenbedingungen, mit Unsicherheiten über künftige wirtschaftliche Verläufe und daraus resultierenden veränderten Investitionskalkülen und entscheidungen usw. verbunden sind, werden so nicht einmal thematisiert, geschweige denn analytisch erfasst. Selbst bei der wirklichkeitsfremden Vorstellung, das Gleichgewicht mit Hilfe des Auktionators zu finden, bedarf es spezifischer Annahmen. Denn eine Preisänderungsregel, die den Preis auf einem Markt bei einem Nachfrageüberschuss erhöht und den Preis auf einem Markt mit einem Überschussangebot senkt, konvergiert nicht zwingend zu einem Gleichgewicht. Wenn die von einem Auktionator durchgeführte Änderung des Preises auf dem Markt für Gut X1 , der sich im Ungleichgewicht befindet, den Markt für Gut X2 stark ins Ungleichgewicht bringt, ist kein zwingender Prozess zum Gleichgewicht ableitbar. Denn immer dann, wenn die Überschussnachfragen beziehungsweise -angebote auf einem Markt mehr von den Preisen auf den anderen Märkten als vom eigenen Preis abhängen, führt der Tatonnement-Prozess nicht zwingend zum Gleichgewicht, sondern kann permanent vom Gleichgewicht wegführen. Durch die explizite Modellierung eines Marktprozesses über einen Auktionator hat uns Léon Walras einen Gefallen getan, indem er uns gezeigt hat, dass kein ökonomisches Paradigma einen echten Marktprozess zum Gleichgewicht modellieren kann. Dessen ungeachtet wird von vielen neoklassischen Ökonomen (nicht von den Vertretern der Allgemeinen Gleichgewichtstheorie) implizit unterstellt, dass der Marktprozess zu einem Gleichgewicht führt. In der Tat gibt es zwei grundsätzliche Vorstellungen im ökonomischen Denken. In der einen Vorstellung ist der Markt ein sich selbst regulierendes System und relativ unabhängig von der Gesellschaft. Er ist wie ein wunderbarer Automat, der die
Neoklassische Mikroökonomie
187
ökonomischen Aktivitäten egoistisch handelnder Individuen koordiniert. Staatliche Eingriffe in diesen quasi naturwissenschaftlichen Prozess sind eher schädlich als nützlich und auf ein Minimum zu reduzieren. Der Staat hat die Rahmenbedingungen zu garantieren, wie etwa Eigentumsrechte und Rechtssicherheit. Ansonsten sollen die Märkte so flexibel wie möglich gemacht werden, um die Wohlfahrt der Ökonomie zu maximieren. Dies ist in etwa die Auffassung des klassischen Liberalismus und des heute existierenden Neo-Liberalismus. Es handelt sich bei dieser Vorstellung eher um eine Ideologie als um eine Vorstellung, die auf einem ökonomischen Modell fungiert. Eine zweite Vorstellung wird von keynesianischen Ökonomen vertreten, die sich allerdings auf die Originalfassung des Werkes von Keynes stützen und nicht auf diverse spätere Interpretationen von Keynes. Diese Vorstellung geht davon aus, dass der Marktprozess versagen kann, ein Gleichgewicht herzustellen. Lange Phasen hoher Arbeitslosigkeit und unausgelasteter Kapazitäten und damit Vergeudung von gesellschaftlichen Ressourcen sind nicht nur möglich, sondern wahrscheinlich. Aber nicht nur solche Stagnationsszenarien sind möglich, es lassen sich zudem vielfältige kumulative Marktprozesse finden, etwa auf Vermögensmärkten wie Immobilien- oder Aktienmärkten, die sich immer weiter von Gleichgewichten und Stabilität entfernen und Ökonomien destabilisieren können. Die Ökonomie ist in dieser Vision keineswegs ein sich selbst regulierender Automat, der, wenn man ihn in Ruhe lässt, zu pareto-optimalen Ergebnissen führt. Ohne massive stabilisierende Institutionen und staatliche Regulierungen und Steuerungen ist nach dieser Auffassung eine Marktwirtschaft nicht überlebensfähig. Aus diesem Grunde plädierte John Maynard Keynes für einen regulierten Kapitalismus, der in stabilisierende Institutionen und Regulierungen eingebunden ist. Unter dieser Bedingung hielt er kapitalistische Ökonomien als das beste ökonomische System, das bisher in komplexen Gesellschaften denkbar ist.45 Wir sehen uns in diesem Lehrbuch in der keynesianischen Tradition. Es soll nicht verschwiegen werden, dass es auch ökonomische Vorstellungen gibt, die den Kapitalismus als so instabil ansehen, dass sie ihn nicht für längerfristig lebensfähig und lebenswürdig halten. Karl Marx und viele seiner Nachfolger haben diese Position vertreten.
45
Vgl. zu einem solchen „Guten Kapitalismus“ Dullien/Herr/Kellermann (2009).
188
Neoklassische Mikroökonomie
2.11 Das Problem der Ökologie – negative externe Effekte Fragestellung Warum versagen Märkte im Bereich der Ökologie? Was sind negative und positive externe Effekte? Wie können ökologische Probleme gelöst werden? Es ist offensichtlich, dass Märkte ökologische Probleme nicht lösen können. Durch CO2-Emmission über der Abbaukapazität der Erde kommt es zu einer CO2-Konzentration in der Atmosphäre, die zur Erderwärmung mit katastrophalen Folgen führt. Es drängt sich der Verdacht auf, dass Erdöl und andere knappe Rohstoffe in den letzten 150 Jahren rücksichtslos gegenüber zukünftigen Generationen verschwenderisch verbraucht wurden. Technologische Entwicklungen bringen Spitzenleistungen bei der Entwicklung von Verbrennungsmotoren in Luxusautos, medizinische Forschung konzentriert sich teilweise auf Schönheitschirurgie, Milliarden werden für wissenschaftlich ausgearbeitete Marketingstrategien ausgegeben, während für die Entwicklung erneuerbarer Energien oder zur Ausrottung von Malaria und Pest vergleichsweise bescheidene Mittel ausgegeben werden. Nicholas Stern, ehemaliger Chefvolkswirt der Weltbank und einer der bekanntesten Volkswirte, die sich mit ökologischen Problemen beschäftigen, hat das Versagen des Markes auf dem Gebiet der Ökologie als das fundamentalste Marktversagen bezeichnet, das selbst die Reproduktion der Menschheit gefährden kann (vgl. Stern 2009). Wie ist so etwas möglich? Der Marktmechanismus ist systematisch nicht in der Lage, ökologische Probleme ausreichend zu erfassen. Das System relativer Preise, auf das die neoklassische Ökonomie so große Stücke zur Koordination marktgesteuerter Ökonomien hält, versagt im Bereich der Ökonomie. Das Preissystem gibt systematisch falsche Signale und leitet Unternehmen und Haushalte systematisch in die falsche ökologisch schädliche Richtung. Das System der Preise versagt dabei nicht nur bei der aktuellen Allokation der Ressourcen, sondern insbesondere auch bei der intertemporalen Allokation. In diesem Kapitel werden wir Marktversagen im Bereich der Ökologie im Kontext der neoklassischen Theorie analysieren. Die neoklassische Mikroökonomie ist die einzige ökonomische Theorie, die ökologische Probleme analytisch klar erfassen kann. Das keynesianische Paradigma hat bezüglich ökologischer Probleme wenig zu bieten, da es keine vergleichbare mikroökonomisch ausgebaute Theorie der Preise hat. Dies kann kaum verwundern, da makroökonomische Modelle ein ungleich schlechteres Instrumentarium zur Erfassung von Marktversagen besitzen, das auf einer falschen Preisstruktur basiert. Nähern wir uns dem Problem ökologischer Fragestellungen über einige willkürlich ausgesuchte Beispiele: Weltmeere werden überfischt, so dass dies zum längerfristigen Nachteil der Fischindustrie und Verbraucher führt. Zwei Kommilitonen teilen sich eine Wohnung. Der eine – ein Hardrockliebhaber – lässt den CDPlayer von früh bis spät dröhnen, was dem Mitbewohner stark an die Nerven geht. Eine Familie lässt ihre Kinder gegen Kinderlähmung impfen. Dadurch vermindert sich bei allen Kindern im Kindergarten das Ansteckungsrisiko. Ein Automobilproduzent leitet ungeklärte Abwässer in einen Fluss. Am Unterlauf des Flusses gehen daraufhin die Fischfänge des dort tätigen Fischereiunternehmens zurück, so dass es zum Fang einer gegebenen Fischmenge höhere Kosten hat. Ein Imker stellt seine Bienenstöcke in unmittelbarer Nähe zu einer ihm nicht gehörenden Obstplantage auf. Auf der Jagd nach Honig bestäuben die Bienen die Obstbäume.
Neoklassische Mikroökonomie
189
Das Gemeinsame dieser Beispiele besteht darin, dass durch die Produktion bzw. den Konsum des einen Wirtschaftssubjekts positive oder negative Auswirkungen auf andere entstehen, die nicht über den Markt in der Form von Preisen abgerechnet werden. Deshalb spricht man von externen Effekten, die positiv oder negativ sein können, je nachdem, ob der Empfänger unentgeltlich Nutzen erfährt oder unverschuldet zusätzliche Kosten aufgebürdet bekommt. Empfänger solcher Effekte können ohne Zweifel auch die Allgemeinheit oder doch zumindest große Menschengruppen sein, wie das Beispiel der Luftverschmutzung sofort deutlich macht. Aus der Sicht der Neoklassik sind externe Effekte eine Form des Marktversagens, da eine paretooptimale Allokation zwingend auf einen wirksamen Preismechanismus angewiesen ist, der Produzenten und Konsumenten die richtigen Signale übermittelt. Sofern z. B. die Kosten einer Produktion – etwa die von Autos – nicht vom Hersteller vollständig getragen werden müssen, sondern an einer anderen Stelle in der Ökonomie – etwa beim Fischer – auftreten, verlieren die Preise ihre allokative Funktion. Das Preissystem sendet dann Produzenten wie Konsumenten falsche Informationen, so dass ParetoEffizienz marktmäßig nicht erreicht werden kann. Wie die obigen fünf Beispiele zeigen, können externe Effekte sowohl bei der Produktion als auch beim Konsum entstehen. Die negativen externen Effekte sind wirtschaftspolitisch äußerst relevant, da sie für zahlreiche gravierende ökologische Fehlentwicklungen verantwortlich sind. Betrachten wir zunächst negative externe Effekte im Bereich der Produktion. Bleiben wir beim Beispiel des Automobilwerks und des Fischereibetriebs, wobei wir auf dem Automarkt und dem Fischmarkt aus Vereinfachungsgründen vollständige Konkurrenz unterstellen. Die Abbildung 2.11.1 verdeutlicht die Situation des Fischereibetriebs, der bei der Einleitung ungeklärter Abwässer bei seiner Fischproduktion im Vergleich zur Situation ohne Einleitung der Abwässer höhere Kosten hat. Der Marktpreis (pF) für Fische ist aus der Sicht des Unternehmens bei vollständiger Konkurrenz ein Datum. Unterstellen wir sinkende Skalenerträge bei der Fischproduktion. In diesem Fall spiegelt die Funktion K Fgrl2 die Grenzkosten des Fischers wider, sofern er keine externen Kosten aufgebürdet bekommt, also das Automobilunternehmen alle Kosten seiner Produktion trägt. Die Funktion K Fgrl1 zeigt den Kostenverlauf, sofern die externen Kosten der Automobilproduktion vom Fischer getragen werden, der nun eine gegebene Fischmenge nur mit höheren Kosten fangen kann. Die Grenzkostenkurven stellen die langfristigen individuellen Angebotskurven bei vollständiger Konkurrenz dar (vgl. Kapitel 2.4.7). Bei K Fgrl1 bietet das Fischereiunternehmen die Menge X 2F an, da sich bei dieser Menge Grenzkosten und Grenzerlös des Fischers entsprechen und er seine Gewinne maximiert. Bei K Fgrl1 reduziert sich die gewinnmaximale Fischmenge auf X1F . Aufgrund der zusätzlichen Kosten, die dadurch entstehen, dass sich weniger Fische im Fluss befinden, was die Mühen des Fischfangs erhöht, wird zu jedem Preis weniger angeboten. Durch den negativen externen Effekt der Autoproduktion sinkt in dem obigen Beispiel somit die Fischproduktion und stellt den Fischproduzenten ohne sein eigenes Verschulden schlechter. Spiegelbildlich müssen wir davon ausgehen, dass der Automobilproduzent seine Autos unter den „wahren“ Kosten produzieren kann, denn er bürdet die Kosten des verschmutzen Wassers dem Fischer auf, der nichts dafür kann.
190
Neoklassische Mikroökonomie
Abbildung 2.11.1:
Wirkung negativer externer Effekte auf das individuelle Angebot
K Fgrl , p F K Fgrl1 K Fgrl2 pF
X1F
X 2F
XF
Es liegt die Vermutung nahe, dass sich bei einer Internalisierung des externen Effekts –– also der Eliminierung des negativen externen Effektes – das Verhältnis der Fischproduktion zur Autoproduktion erhöht. Zur Internalisierung stehen verschiedene Methoden zur Verfügung. Die analytisch einfachste Form der Internalisierung besteht in dem vorliegenden Fall in der Verschmelzung der beiden Unternehmen zu einem. Dann nämlich würde die Kostenbelastung der Verschmutzung durch die Automobilproduktion beim Fischfang berücksichtigt, da das verschmolzene Unternehmen den Gesamtgewinn aller Abteilungen maximiert. Beispiel eines negativen Effektes in der Produktion Um die Auswirkungen eines negativen Effektes in der Produktion zu verdeutlichen vergleichen wir die Situation des Autoproduzenten und des Fischers erst als getrennte Unternehmen und dann als ein verschmolzenes Unternehmen. Im letzten Fall wird das Unternehmen die Verschmutzung des Wassers durch die Autoproduktion mit in das Gewinnmaximierungskalkül aufnehmen. Wir werden an einem Zahlenbeispiel zunächst die Situation des Automobilproduzenten und Fischers ohne Verschmelzung darstellen, um danach den Effekt der Verschmelzung herauszuarbeiten. Als Gewinnfunktion eines Unternehmens u haben gilt bei vollständiger Konkurrenz Qu(X1) = Eu (X1) - Kgu (X1) , wobei Gewinn, Erlös und Gesamtkosten vom Produktions- bzw. Verkaufsvolumen X1 abhängen (vgl. Gleichung (2.4.21) in Kapitel 2.4.6). Von fixen Kosten sehen wir zur Vereinfachung ab, da wir eine langfristige Untersuchung durchführen. Die Erlösfunktion bleibt bei der Berücksichtigung von negativen externen Effekten unverändert. Bei der Kostenfunktion taucht jedoch ein neuer Faktor auf, da neben den über den Markt abgerechneten Kosten nun Kosten auftreten, die – um beim obigen Beispiel zu bleiben – von der Verschmutzungsmenge (V) abhängen. Die Kostenfunktion wird somit zu:
Kgu = Kgu (X1,V) Die Kosten für V werden nicht wie die übrigen Kosten über den Markt abgerechnet, beeinflussen jedoch die Kostensituation der einzelnen Unternehmen. Die tatsächlich zu zahlenden Kosten für den Automobilproduzenten würden steigen, wenn er seine Verschmutzung reduzieren müsste. Als konkrete Gesamtkostenfunktion des Autoproduzenten (KgA) wählen wir:
KgA = XA 2 + V 2 − 16V Die Kosten des Automobilproduzenten hängen von der Anzahl der produzierten Autos (XA) ab. Hinzu kommen Kosten aufgrund der Verschmutzung des Wassers. Zur Vereinfachung des Beispiels wurde
Neoklassische Mikroökonomie
191
die Verschmutzung unabhängig vom Produktionsvolumen festgelegt. Für die Verschmutzung braucht der Automobilbauer aufgrund des negativen externen Effekts allerdings nichts zu bezahlen. Der Preis einer Einheit V ist Null. Mit QA als Gewinn des Automobilunternehmens ergibt sich dessen Gewinnfunktion durch: QA = pAXA - (XA 2 + V 2 − 16V)
Die gewinnmaximale Produktionsmenge lässt sich durch die Ableitung der Gewinnfunktion nach XA bestimmen, wobei die erste Ableitung Null gesetzt wird (und die zweite Ableitung als negativ angenommen wird). Die Verschmutzung stellt kein Kostenfaktor für die Autoproduktion dar. Es folgt: dQA = pA − 2XA = 0 bzw. dXA XA =
pA 2
Bei pA = 40 Geldeinheiten ergibt sich eine Autoproduktion von 20 Einheiten. Es lässt sich auch feststellen, wie viel Verschmutzung der Autoproduzent erzeugt. Er wird nämlich die Verschmutzungsmenge wählen, die seine Gewinne maximiert. Die gewinnmaximale Verschmutzungsmenge beträgt: dQA = −2V + 16 = 0 dV
Daraus resultiert eine Verschmutzungsmenge von V = 8 Einheiten. Betrachten wir nun den Fischer, bei dem die Verschmutzung ebenfalls in die Kostenfunktion eingeht. Bei einer Gesamtkostenfunktion von
KgF = XF 2 + XFV folgt, wenn QF den Gewinn des Fischers angibt, die Gewinnfunktion QF = pFXF - (XF2 + XFV)
und als gewinnmaximale Fischmenge dQF = pF − 2XF − V = 0 bzw. dXF
(2.11.1)
XF =
(pF − V) 2
Bei einem Fischpreis von pF = 20 Geldeinheiten und einer durch den Automobilhersteller gegebenen Verschmutzung von V = 8, ergibt sich eine gewinnmaximale Fischmenge von 6 Einheiten. Wir gehen nun davon aus, dass die beiden Unternehmen verschmolzen sind. Es sei unterstellt, dass sich die Erlös- und Kostenfunktion des verschmolzenen Unternehmens durch die Aggregation der individuellen Erlös- und Kostenfunktionen des Automobil- und Fischereibetriebs ergeben. Die Gewinnfunktion lautet somit: QA+ F = pAXA + pFXF - (XA 2 + V 2 − 16V + XF2 + XFV)
Als gewinnmaximale Auto-, Fisch- und Verschmutzungsmenge folgt:
192
Neoklassische Mikroökonomie dQA+ F = pA − 2XA = 0 dXA XA =
pA 2
dQA+ F = pF − 2XF − V = 0 dXF
(2.11.2)
XF =
bzw.
(pF − V) 2
dQA+ F = −2V + 16 − XF = 0 dV
(2.11.3)
bzw.
bzw.
XF = 16- 2V
40 Einheiten. Werden Gleichung 2 (2.11.2) und Gleichung (2.11.3) gleichgesetzt, ergibt sich V = 4 Einheiten. Bleibt der Fischpreis ebenfalls unverändert, dann lässt sich mit Hilfe dieses Ergebnisses mit der Gleichung (2.11.1) die gewinn(20 − 4) = 8 Einheiten errechnen. maximale Fischmenge durch XF = 2
Bei unveränderten Preisen bleibt die Automobilproduktion bei XA =
Fassen wir zusammen: Durch die Verschmelzung werden bei der Automobilproduktion die Folgen der Verschmutzung für die Fischproduktion berücksichtigt. Das verschmolzene Unternehmen wird seine Verschmutzung so lange einschränken, bis eine weitere Reduzierung keinen zusätzlichen Gewinn für das Gesamtunternehmen mehr erbringt. Die Verschmelzung der Unternehmen führt somit zur Reduzierung der Verschmutzung von 8 auf 4 Einheiten; die Fischproduktion steigt von 6 auf 8 Einheiten und hat sich im Vergleich zur Autoproduktion erhöht. Es ist bemerkenswert, dass die Fischproduktion nach der Verschmelzung bei unveränderter Autoproduktion ansteigt und somit einen negativen Wohlfahrtseffekt den negativen externen Effekt anzeigt. Negative externe Effekte im Bereich der Ökologie bedeuten, dass der Marktmechanismus nicht die richtigen Signale sendet, da die Preise nicht die tatsächlichen Kosten einer ökonomischen Aktivität widerspiegeln. Die privaten und die gesellschaftlichen Kosten ökonomischen Handelns fallen auseinander. Dadurch kommt es zu systematischen Fehlentwicklungen der ökonomischen Entwicklung. Verschiedene Dimensionen spielen eine Rolle. Erstens: Ökonomische Aktivitäten, die negative externe Effekte erzeugen, werden marktmäßig zu billig angeboten, während ökonomische Aktivitäten, die von negativen externen Effekte betroffen sind, teurer werden. So sind alle produktiven und konsumtiven Aktivitäten, die CO2 emittieren, zu billig, da die enormen Kosten eines zu hohen CO2-Ausstoßes in der Form steigender Meeresspiegel, stärkerer Stürme sowie der Zunahme der Überschwemmungen und Dürren nicht in den Kosten dieser Aktivitäten enthalten sind. Zweitens: Die intertemporale Allokation versagt. Im Modell der Allgemeinen Gleichgewichtstheorie ist ein ebenso vollkommener wie auch gänzlich unrealistischer intertemporaler Allokationsmechanismus enthalten. In dem Modell sind universelle Zukunftsmärkte unterstellt, auf denen Menschen agieren, die bis ans Ende der Ökonomie leben. Der Verbrauch von Erdöl heute, beispielsweise, wird damit unmittelbar ins Verhältnis gesetzt zum Verbrauch von Erdöl in Jahrhunderten vor uns. Aber selbst in einem solchen „idealen“ intertemporalen Allokationsmodell kann es zu problematischen Entwicklungen kommen. Ist die Präferenz für heutigen Konsum sehr hoch, so kann zumindest theoretisch auch bei universellen Zukunftsmärkten der gegenwärtige Verbrauch von knappen und nicht reproduzierbaren Gütern (oder der CO2-Ausstoß) so erhöht werden, dass die Reproduktion in weiter Zukunft nicht ge-
Neoklassische Mikroökonomie
193
währleistet ist. So kann ein Drogensüchtiger (oder Konsumsüchtiger) völlig entsprechend seiner Präferenzordnung den gegenwärtigen Verbrauch von Drogen (Konsum) so hoch einschätzen, dass sein Leben massiv verkürzt (seine zukünftiger Lebensstandard massiv eingeschränkt) wird. Faktum ist, dass die Menschen nicht über Jahrhunderte leben. Dann wird es jedoch fragwürdig, ob die heute lebende Generation die Wohlfahrt von Ur-Ur-Ur-Enkeln berücksichtigt. Vermutlich nicht! Es wird dann eher eine ethische als eine ökonomische Frage, in welchem Umfang die gegenwärtige Generation für die zukünftigen Generationen Sorge tragen soll. Es ist selbst einer Generation schwer zu vermitteln, dass der heutige CO2-Ausstoß Erderwärmungseffekte hat, die sich in 30 Jahren beginnen auszuwirken, und dass aus diesem Grunde eine Reduktion des CO2-Ausstoßes heute notwendig ist. Der Aufbau der Atomkraft zur Energiegewinnung bei gleichzeitiger Nicht-Existenz von Endlagern für die über Jahrtausende strahlenden Abfallprodukte der Stromproduktion in Atomkraftwerken ist ebensowenig ein Glanzstück geglückter intertemporaler Allokation wie die ungenügende Reduktion des CO2-Ausstoßes heute. Möglicherweise liegen bei ökologischen Problemen meritorische Güter vor. Meritorische Güter sind Güter, die das rationale Privatkalkül nicht ausreichend produziert. Der Staat muss in diesen Fällen die Produktion meritorischer Güter unter Umständen gegen den Willen von Präferenzen der Haushalte erzwingen – beispielsweise wie eine Kfz-Versicherung oder Feuerversicherung per Gesetz in Deutschland im Normalfall staatlich erzwungen wird. Drittens: Die technologische Entwicklung wurde in den obigen Ausführungen immer als exogen gesetzt. Dem ist jedoch nicht so. Die Konkurrenz zwischen Unternehmen verläuft sowohl über die Entwicklung von Technologien, die Kosten sparen, als auch über Produktinnovationen. Dabei spielen Preisanreize eine wesentliche Rolle. Ist jedoch das System relativer Preise aufgrund externer Effekte systematisch verzerrt, werden Technologie und Produktinnovationen in eine Richtung gelenkt, die ebenfalls systematisch nicht optimal ist. Wir müssen davon ausgehen, dass seit es Kapitalismus als dominierendes ökonomisches System gibt, mehr oder weniger seit der Industriellen Revolution, die technologische Entwicklung einen höchst spezifischen Entwicklungsweg ging, der ökologische Effekte nur sehr unvollständig berücksichtigte. Ohne eine massive Veränderung der technologischen Entwicklung ist die Reproduktion der Menschheit in Gefahr. Es besteht zumindest die theoretische Möglichkeit, dass technologischer Fortschritt, wenn er in die richtige Richtung gelenkt wird, die ökologischen Probleme lösen kann. Eine Schlüsselfrage ist, ob es technologisch möglich ist, spezifische Inputs vollständig zu substituieren. Ist es beispielsweise denkbar, dass die Welt vollständig ohne Erdöl oder andere knappe Erden auskommt? In der üblichen CobbDouglas-Produktionsfunktion der Neoklassik ist dies interessanterweise ausgeschlossen. Falls es nur begrenzte Substitutionsmöglichkeiten gibt, muss ein Wachstumsprozess der Ökonomie früher oder später zum Stillstand kommen. Nach unserer Sicht kann es nicht prinzipiell verworfen werden, dass vollständige Substitutionen technologisch gelingen können. Existieren negative externe Effekte beispielsweise im Bereich der Ökologie, muss von einer suboptimalen Allokation der Ressourcen und Wohlfahrtsverlusten ausgegangen werden bis hin zur Gefährdung der Reproduktion der Menschheit. Durch eine Internalisierung der negativen externen Effekte kann das Versagen des Marktes bekämpft werden. Die Internalisierung wird im Vergleich zur vorangegangenen Situation in aller Regel durch eine modifizierte Mengenstruktur der Produktion und des Konsums gekennzeichnet. Auch wird sich normalerweise die Struktur der relativen Preise ändern. Die Umweltökonomie hat eine ganze Palette von Internalisierungspolitiken von negativen externen Effekten hervorgebracht. Die oben angeführte Verschmelzung von Unternehmen ist eine der möglichen Internalisierungspolitiken. Allerdings ist eine Verschmelzung von Unternehmen eine nur sehr begrenzte Strategie. Man stelle sich vor, die Autofabrik, die in unserem Beispiel Abwasser in den Fluss ableitet, schädige nicht nur den Fischer, sondern leite giftige Stoffe in den Fluss ein, die alle Anwohner am Flusslauf unterhalb der Fabrik in ihrer Gesundheit schädigen. Als eine Lösungsmöglichkeit für diesen Fall kommt eine vom Staat erhobene Steuer in Frage, die auf die Verschmutzungsmenge bezogen ist. In Anlehnung an den
194
Neoklassische Mikroökonomie
britischen Ökonomen Arthur Pigou (1877-1959), der als erster Ökonom auf diese Lösung eindringlich und theoretisch konsistent aufmerksam gemacht hat, wird eine solche Öko-Steuer als Pigou-Steuer bezeichnet. Die Pigou-Steuer internalisiert negative externe Effekte beim Verursacher, indem sie Kosten für den negativen externen Effekt einführt. Der Autoproduzent muss in unserem Beispiel eine von der Verschmutzungsmenge abhängige Steuer bezahlen. Die Verschmutzung des Flusses erzeugt somit Kosten. Man hofft, dadurch die Ableitung der giftigen Abwasser zu reduzieren. Pigou-Steuern sind in entwickelten Marktwirtschaften häufig anzutreffen. So können z. B. die Mineralöl- oder Tabaksteuer – obwohl primär aus fiskalischen Gründen eingeführt –, als Pigou-Steuern angesehen werden, da beim Autofahren und Rauchen ohne Zweifel negative externe Effekte entstehen. Rechenbeispiel einer Pigou-Steuer Wir führen hier das obige Beispiel der Autofabrik und des Fischereibetriebs weiter. Drückt tv den Steuerbetrag pro Verschmutzungseinheit aus, dann modifiziert sich in unserem Beispiel die Kostenfunktion des Automobilproduzenten, der nun, so unsere Annahme, zusätzliche Kosten in Höhe von tvV zu tragen hat. Sie wird zu KgA = XA 2 + V 2 − 16V + tvV .
Als Gewinnfunktion resultiert QA = pAXA - (XA 2 + V 2 − 16V + tvV) .
Die gewinnmaximale Produktions- und Verschmutzungsmenge ergibt sich durch: dQA = pA − 2XA = 0 bzw. dXA XA =
pA 2
dQA = −2V + 16 − tv = 0 bzw. dV
V=
(16 − tv) 2
40 = 20 Einheiten. Wird der Steuersatz auf tv = 8 gesetzt, 2 dann wird das Unternehmen eine Verschmutzungsmenge von V = 4 Einheiten „produzieren“. Wird dieses Ergebnis in die Gewinnmaximierungsbedingung des Fischers in Gleichung (2.11.2) eingesetzt, folgt eine Fischproduktion von 8 Einheiten. Man sieht, die Pigou-Steuer führt genau zum gleichen pareto-optimalen Ergebnis wie die Verschmelzung der Unternehmen.
Die produzierte Automenge bleibt bei XA =
Die Möglichkeiten, negative externe Effekte zu internalisieren, beschränken sich nicht auf die skizzierten Maßnahmen. So können auch Verhandlungen zwischen Verursacher negativer externer Effekte und Betroffenen zu einer pareto-optimalen Lösung führen, falls die jeweiligen Rechte eindeutig festgelegt wurden. So können von negativen Effekten Betroffene zu dem Verursacher gehen und ihm Zahlungen anbieten, um den negativen Effekt zu reduzieren oder zu unterlassen. Auf unseren Fall des Automobilunternehmens, das Abwässer einleitet und den Fischer schädigt, übertragen, bedeutet dies, dass das Automobilunternehmen ein Recht auf Verschmutzung hat. In diesem Fall wird die Verschmutzung bzw. Nichtverschmutzung zu einem Gut, das gehandelt werden kann. In dem obigen Beispiel hat der Fischereibetrieb einen Anreiz, das Gut „Nichtverschmutzung“ vom Autohersteller zu kaufen. Gleichzeitig gibt es – bei entsprechender Bezahlung – ein Interesse des Automobilherstellers, seine Verschmutzung zu reduzieren.
Neoklassische Mikroökonomie
195
Rechenbeispiel für den Fall eines Rechtes auf Verschmutzung Die Anreizstruktur der beiden Unternehmen zum Kauf bzw. Verkauf von Nichtverschmutzung lässt sich leicht ableiten. Beim Automobilunternehmen lautet die Gewinnfunktion bekanntlich QA = pAXA - (XA 2 + V 2 − 16V) . Der Preis pA = 40 ist unabhängig von der Verschmutzungsmenge. Im Gewinnmaximum werden XA = 20 Autos produziert. Somit ergibt sich als Umsatz EA = 800 Geldeinheiten. Gewinnhöhe und Verschmutzung stehen in einem positiven Verhältnis – je geringer die Verschmutzung, desto geringer der Gewinn. In Tabelle 2.11.1 wird mit Hilfe der Gewinnfunktion QA = 20 ⋅ 40 - 202 − V 2 + 16V die Beziehung zwischen Gewinn und Verschmutzung angegeben. Mit steigender Verschmutzung erhöht sich der Gewinn, allerdings nehmen die Gewinnzuwächse schrittweise ab.
Die Beziehung zwischen Verschmutzung und Gewinn beim Automobilproduzenten
Tabelle 2.11.1:
Gewinnzuwächse ( ΔQA)
Verschmutzung (V)
Gewinn (QA)
0
400
1
415
15
2
428
13
3
439
11
4
448
9
5
455
7
6
460
5
7
463
3
8
464
1
Ein ähnlicher Zusammenhang lässt sich für den Fischereibetrieb herstellen. Hier nimmt der Gewinn mit steigender Verschmutzung ab. Die Gewinnfunktion des Fischereiunternehmens lautet (pF − V) QF = pFXF - (XF2 + XFV) , wobei die produzierte Fischmenge durch Gleichung (2.11.1) XF = 2 bestimmt wird. Wird Gleichung (2.11.1) in die Gewinnfunktion des Fischers eingesetzt, dann ergibt sich beim gegebenen Preis von pF = 20 die Tabelle 2.11.2.
196
Neoklassische Mikroökonomie
Tabelle 2.11.2:
Die Beziehung zwischen Verschmutzung und Gewinn beim Fischer
Verschmutzung (V)
Fischmenge ( XF )
Gewinn ( QF )
0
10,0
100,00
1
9,5
90,25
9,75
2
9,0
81,00
9,25
3
8,5
72,25
8,75
4
8,0
64,00
8,25
5
7,5
56,25
7,75
6
7,0
49,00
7,25
7
6,5
42,25
6,75
8
6,0
36,00
6,25
Gewinnabnahme ( ΔQF )
Werden die Gewinnzuwächse des Automobilproduzenten und die Gewinnrückgänge des Fischereiunternehmens bei steigender Verschmutzung wie in Abbildung 2.11.2 zusammengefasst, wird die marktmäßige Lösung des Problems unmittelbar ersichtlich. Das Fischereiunternehmen wird den Automobilhersteller auf alle Fälle dazu bewegen können, die Verschmutzung von 8 Einheiten auf 7 zurückzuführen. Für diese Schadstoffreduktion wird der Fischereibetrieb maximal 6,25 Geldeinheiten bezahlen, da die achte Verschmutzungseinheit für ihn eine Gewinnabnahme in dieser Höhe bewirkt. Reduziert das Automobilunternehmen die Verschmutzung von 8 auf 7 Einheiten, dann sinkt sein Gewinn um eine Geldeinheit. Es existiert somit reichlich Spielraum für den Fischereibetrieb, dem Automobilproduzenten eine Verschmutzungseinheit abzukaufen. Ein für beide Seiten vorteilhafter Handel ist auch noch bei Reduzierung der fünften Schadstoffeinheit möglich, da auch hier noch die Gewinnabnahme des Fischereibetriebs über der Gewinnzunahme des Autoproduzenten liegt. Bei der vierten Verschmutzungseinheit wird allerdings der Fischereibetrieb mehr bezahlen müssen als er gewinnt. Der Gleichgewichtspreis des Gutes „Nichtverschmutzung“ wird zwischen 7 und 7,75 Geldeinheiten liegen. Würde es eine große Anzahl von Verschmutzern und eine große Anzahl von Käufern von „Nichtverschmutzung“ geben, wäre das Resultat ein eindeutiger Marktpreis. Es ergibt sich, dass bei einem Verschmutzungsrecht des Automobilherstellers die gleiche gleichgewichtige Verschmutzungsmenge resultiert wie etwa bei der Verschmelzung der Unternehmen oder der Pigou-Steuer.
Neoklassische Mikroökonomie Abbildung 2.11.2:
197
Gewinnveränderungen abhängig von der Verschmutzungsmenge
ΔQ 15
10
15
9,75
ΔQ F 6,25
5
ΔQ A 1
1
2
3
4
5
6
7
8
V
Es mag in vielen Fällen als ungerecht empfunden werden, wenn ein Unternehmen oder eine andere ökonomische Einheit das Recht hat, einen negativen externen Effekt auf andere abzuwälzen und dann nur die Möglichkeit existiert, dass die Geschädigten dem Schädigenden Geld anbieten, um den negativen Effekt zu unterlassen. Das so genannte Coase-Theorem zeigt jedoch, dass eine Internalisierung auch so erfolgen kann (vgl. Coase 1960). So wird beispielsweise diskutiert, dass die Industriestaaten an Entwicklungsländern mit Urwäldern Zahlungen leisten sollen, um eine Abholzung „der grünen Lungen“ der Welt zu verhindern. Aus Gerechtigkeitsgründen wird in der Regel ein Recht ausgesprochen, keinen negativen externen Effekt erleiden zu müssen. In unserem Fall wird nun statt des Rechts auf Verschmutzung das Recht auf sauberes Wasser juristisch geschützt. Auch in diesem Fall ergibt sich eine Internalisierung. In diesem Fall wird das Automobilunternehmen Verschmutzungsrechte vom Fischereibetrieb kaufen. Der Automobilbauer wird im oben angegebenen Beispiel vom Fischereibetrieb vier Verschmutzungseinheiten kaufen, da bei den ersten vier dieser Einheiten das Automobilunternehmen mehr bieten kann als der Fischereibetrieb durch Verschmutzung an Gewinn einbüßt. Der Preis des Verschmutzungsrechts wird sich beim bilateralen Geschäft zwischen 9 und 8,25 Geldeinheiten einpendeln. Eine spezifische Variante der Schaffung von Eigentumsrechten mit dem Ziel der Internalisierung negativer externer Effekte stellen Umweltzertifikate dar. Solche Zertifikate stellen das Recht dar, die Umwelt in einem gewissen Umfang zu verschmutzen. Der Staat emittiert diese Zertifikate, wobei er durch die Anzahl der Zertifikate die Obergrenze der Verschmutzung festlegt. Der Staat könnte, um bei unserem Beispiel zu bleiben, Zertifikate ausgeben, die zur Verschmutzung von Wasser in Höhe von vier Einheiten berechtigen. Der Automobilhersteller könnte diese Zertifikate kaufen. Umweltzertifikate wirken, wie eine Pigou-Steuer, kostenerhöhend für den Verursacher des externen Effektes. Verschmutzen eine Vielzahl von ökonomischen Einheiten Wasser, dann wären diese gezwungen, auf einer Umweltbörse um die staatlich fixierte Menge an Verschmutzungsrechten zu konkurrieren. Der Vorteil der Zertifikate im Vergleich zur Pigou-Steuer besteht erstens darin, dass vom Staat die Maximalmenge der Verschmutzung leichter festgelegt werden kann wie bei einer Pigou-Steuer. Aber selbstverständlich lässt sich auch bei einer Pigou-Steuer die Menge der Verschmutzung indirekt steuern, im Zweifel kann dann der Steuersatz angepasst werden, um ein gewisses Mengenziel zu erreichen. Zweitens wird die Verschmutzung in den Unternehmen oder Branchen zurückgeführt, die dies technologisch am einfachsten können, da nur die Unternehmen Umweltzertifikate kaufen, die die Verschmutzung nur mit relativ großem Kostenaufwand reduzieren können. Eine Pigou-Steuer nimmt auf die individuellen Gegebenheiten von einzelnen Unternehmen oder Branchen dagegen keine Rücksicht. Ein großer Nachteil der Zertifikate ist es allerdings, dass deren Preis aufgrund der Logik von Börsen großen Schwankungen
198
Neoklassische Mikroökonomie
und Spekulationswellen unterworfen sein kann, was eine verlässliche Kalkulation für Unternehmen schwierig macht. Die neoklassische Logik der Internalisierung besteht darin, den Markt bei negativen externen Effekten perfekter zu machen. Dies geschieht indem negativen externen Effekten ein Preis gegeben wird und damit diese Effekte dem Marktmechanismus unterworfen werden. Wir erkennen aus den obigen Beispielen, dass die Schaffung eindeutiger Eigentumsrechte negative externe Effekte internalisieren kann. Es wird dann gehofft, dass das Versagen des Marktes geheilt wird und die pareto-optimale Gleichgewichtslösung im walrasianischen System wieder realisiert werden kann. Aber die Lösung des Problems ist nicht so einfach. Erstens versagt das walrasianische System, weil es keine allgemeinen Zukunftsmärkte gibt und selbst bei universellen Zukunftsmärkten könnte die Zeitpräferenz von Individuen in nicht akzeptabler Form auf die Maximierung des Konsums heute und in allernächster Zukunft orientiert sein. Zweitens reicht die Schaffung von Eigentumsrechten nicht aus. Der Fall der Verschmelzung von Unternehmen ist ein absoluter Sonderfall. Die von Coase ins Zentrum gerückte Verhandlungslösung zwischen Verursacher von negativen externen Effekten und Geschädigten funktioniert aufgrund von Transaktionskosten nicht bei großen Gruppen. Wie sollten über Verhandlungen zwischen Schädigern und Geschädigten beispielsweise die negative externen Effekte des Autofahrens gelöst werden, die von Millionen erzeugt werden, zur Erderwärmung beitragen und faktisch alle Menschen betreffen? In diesen Fällen ist staatliches Handeln gefragt. Sowohl bei der Pigou-Steuer wie auch der Zertifikatslösung steht der Staat dabei schwierigen und faktisch nicht objektiv lösbaren Bewertungsproblemen gegenüber. Nehmen wir das von uns benutzte Beispiel der Autofabrik am Oberlauf eines Flusses, die giftiges Abwasser in den Fluss leitet. Unterstellen wir nicht nur einen Rückgang des Fischfangs, sondern Gesundheitsschädigungen aufgrund des Fischverzehrs. Hypothetisch angenommen, die Abwässer führen zu Krebserkrankungen bei einem Bruchteil eines Promilles der Bevölkerung am Unterlauf des Flusses und zum vorzeitigen Tod. Wie ist der Tod von diesen Personen zu bewerten? Oder eine Fischsorte stirbt aus und reduziert die Artenvielfalt. Wie hoch sind in diesen Fällen die Kosten der negativen externen Effekte? Hier muss eine Entscheidung getroffen werden, wie hoch quantitativ eine Einleitung von Giftstoffen erlaubt ist. Instrumente zur Umsetzung können dann die Pigou-Steuer sein oder eine Zertifikatslösung. Aber auch staatliche Gebote und Verbote sind wichtige Instrumente zur Verhinderung negativer externer Effekte. Beispiele dieser Art gibt es viele. Was kostet es, wenn durch die Erderwärmung Teile von Bangladesch überschwemmt werden und weltweite Migrationswellen erzeugt werden? Was sind die Kosten der negativen externen Effekte der Atomunfälle in Tschernobyl in der jetzigen Ukraine und Fukushima in Japan in der Form von Krebserkrankungen, Tod und Erbgutschädigungen? Für diese negativen externen Effekte gibt es keine vernünftigen Bewertungsmaßstäbe. Es gibt keine gesellschaftlichen Wohlfahrtsfunktionen, die helfen könnten das Problem zu lösen. Gefordert sind politische Entscheidungen. Die Atomkraft zeigt, dass verschiedene Länder zu verschiedenen Ergebnissen kommen können. Die bisherigen Instrumente – Schaffung von Eigentumsrechen, Steuern, Gebote und Verbote – sind alle in bestimmten Bereichen zur Lösung ökologischer Probleme wichtig, aber sie reichen nicht aus. Es wurde oben ausgeführt, dass eine ökologisch förderliche Technologieentwicklung von eminenter Bedeutung für die Zukunft ist und dass das private Profitmotiv nicht ausreichend ist, eine geeignete technologische Entwicklung zu erzeugen. Sicherlich wird ein ökologisch modifiziertes Preis- und Kostensystem über Steuern etc. eine ökologisch orientierte Technologieentwicklung fördern, aber der Staat ist hier gefragt, massiv Forschung in ökologischer Richtung zu fördern. Zudem sind umfassende staatliche Veränderungen im Bereich der Infrastruktur von zentraler Bedeutung. Dies betrifft Bereiche wie das Energiesystem, das Transportsystem oder die Städteplanung. Auch positive externe Effekte, die nicht internalisiert werden, wirken wohlfahrtsmindernd. Ein Beispiel für diesen Fall ist der Beitrag von Kleinbauern zur Landschaftspflege und zum Erhalt der Artenvielfalt. Sofern diese positiven Effekte nicht entlohnt werden, liegt die Tätigkeit von Kleinbauern unter
Neoklassische Mikroökonomie
199
dem gesellschaftlichen Wohlfahrtsoptimum. Durch eine Entlohnung des positiven externen Effekts in Form von z. B. Subventionen könnten positive externe Effekte internalisiert werden. Ökologische Ökonomie und Nachhaltige Ökologie In den 1980er Jahren entstand aus der Kritik an der neoklassischen Umweltökonomie die Ökologische Ökonomie, zunächst in den USA als Ecological Economics. Im Herbst 1987 wurde die International Society for Ecological Economics (ISEE) gegründet, die seit dem Jahr 1989 die Zeitschrift Ecological Economics herausgibt. In Deutschland hat sich eine Strömung unter dem Namen Nachhaltige Ökonomie entwickelt (www.nachhaltige-oekonomie.de). Innerhalb dieser Schulen gibt es verschiedene theoretisch ungeklärte Kontroversen. Eine davon ist die Frage der starken Nachhaltigkeit. Vertreter dieses Ansatzes halten die derzeitige Entwicklung der Menschheit aufgrund von absoluten Grenzen der Natur als nicht zukunftsfähig. Nach dieser Sicht wird die Wirtschaft als ein Subsystem der Natur angesehen. Natürliche Ressourcen werden größtenteils als nicht substituierbar angesehen, was letztlich zu einer harten Wachstumsgrenze führen muss. Im Mittelpunkt dieses Ansatzes steht die dauerhafte Erhaltung und nicht der optimale Verbrauch der natürlichen Ressourcen, der in neoklassischen Ansätzen im Vordergrund steht. Aus diesem Grunde fordert z.B. die Nachhaltige Ökologie weitaus härtere ökologische Eingriffe als die Mehrheit der neoklassischen Ökonomen. In der Nachhaltigen Ökologie herrscht Einigkeit darüber, dass die Realisierung einzelner Effizienzmaßnahmen nicht zu einer nachhaltigen Entwicklung führen kann, es vielmehr um eine neue industrielle Revolution geht, die den Verbrauch der natürlichen Ressourcen in den Industriestaaten radikal senkt (innerhalb der nächsten 40 Jahre um bis zu 95%) und auch in den Entwicklungsländern begrenzt. Das bedeutet nicht weniger als die Neuerfindung (fast) aller Produkte und Anlagen nach den Kriterien der Nachhaltigkeit. Wachstum muss durch die Grenzen der natürlichen Tragfähigkeit begrenzt werden. Es ist also ein „selektives Wachstum“ mit Wachstums- und Schrumpfungsprozessen in ausgewählten Sektoren anzustreben. Durch eine konsequente Umsetzung des Nachhaltigkeitsgedankens soll eine absolute Entkoppelung, d.h. eine stetige absolute Minderung des Ressourcenverbrauchs erreicht werden. Das Wachstum der Ressourcenproduktivität muss also über dem Wachstum des Bruttoinlandsproduktes (BIP) liegen. Ob hierdurch das BIP insgesamt steigt oder sinkt wird als weniger wichtig erachtet. Entscheidend ist, dass sich die Wachstumsraten an die natürliche Tragfähigkeit anpassen. Die Nachhaltige Ökonomie kritisiert, dass ökologische Aspekte in der traditionellen volkswirtschaftlichen Ausbildung ein Schattendasein fristen und fordert eine grundlegende Reform oder sogar einen Neuaufbau des ökonomischen Lehrgebäudes. Als Literaturquellen vgl. Costanza u.a. 2001; Ehrlich (1989); Held/Nutzinger (2001); Rogall (2011) und (2012). Kernpunkte Bei externen Effekten stimmen die individuellen Kosten und Vorteile, die auf dem Markt abgerechnet werden, nicht mit den gesellschaftlichen Kosten und Vorteilen überein. Der Markt ist nicht in der Lage aktuelle und intertemporale ökologische Probleme zu lösen. Er löst beispielsweise weder Probleme wie den Ausstoß von CO2, der zur Erderwärmung führt, noch sorgt er für einen vernünftigen Umgang mit knappen Ressourcen. Noch wird eine Technologie durch den Markt hervorgebracht, die ökologische Probleme löst. Negative externe Effekte können durch verschiedene Instrumente internalisiert werden: Verschmelzung von Unternehmen, Pigou-Steuern, Umweltzertifikate, Verhandlungen zwischen Schädigenden und Geschädigten, staatliche Gebote und Verbote. Negative externe Effekte lassen sich nicht objektiv bewerten. Dies ist nur politisch möglich. Der Staat ist gezwungen, durch Internalisierungen und einschlägige Technologieförderung ökologische Probleme zu lösen.
3. Kapitel: Neoklassische Makroökonomie 3.1 Makro- und Mikroökonomie Wir behandeln an dieser Stelle zum ersten Mal makroökonomische Zusammenhänge. Im 3. Kapitel wird die neoklassische und im 4. Kapitel die keynesianische Makroökonomie dargestellt. Einige generelle Anmerkungen vorab sollen den Stellenwert von Makromodellen verdeutlichen. Während die Mikroökonomie versucht, volkswirtschaftliche Gesetzmäßigkeiten zu erfassen, indem sie von den Präferenzen einzelner Wirtschaftssubjekte und der Gewinnmaximierung einzelner Unternehmen ausgeht, besteht das Spezifische der Makroökonomie darin, dass hier die Struktur und das Zusammenspiel einer kleinen Anzahl von hoch aggregierten Märkten analysiert wird. Indem die Struktur weniger Märkte und deren Interaktion im Zentrum des Interesses stehen, werden makroökonomische Modelle im Vergleich zu mikroökonomischen Totalanalysen drastisch vereinfacht. Ein solches Vorgehen ist immer dann sinnvoll und notwendig, wenn die „großen“ ökonomischen Fragestellungen, also beispielsweise die Frage nach dem Produktions- und Beschäftigungsvolumen, der Veränderung des Preisniveaus oder der Begründung der Verteilung des Einkommens behandelt werden. Aus makroökonomischen Analysen ergeben sich häufig unmittelbar wirtschaftspolitische Schlussfolgerungen für die Lohn-, Geld-, oder Fiskalpolitik. Durch diesen Umstand erhalten makroökonomische Modelle oftmals einen weitaus deutlicheren politischen Gehalt als mikroökonomische Analysen. Viele Fragen, die für die Makroökonomie relevant sind, lassen sich auf der Ebene der Mikroökonomie nicht adäquat analysieren. Ein typischer Bereich ist die Erfassung von Geld und von Geldpolitik, die zwingend Makropolitik ist. Aber auch Fiskalpolitik, also die Variation der Einnahmen und Ausgaben der öffentlichen Haushalte, kann nur auf Makroökonomischer Ebene begriffen werden. Ein weiterer wichtiger originär makroökonomischer Bereich umfasst die Erklärung und Entwicklung von Wechselkursen, die für die Außenbeziehung von Volkswirtschaften von zentraler Bedeutung sind. Makroökonomische Modelle haben eine andere Qualität als mikroökonomische Totalmodelle. Letztere basieren ausschließlich auf mikroökonomisch abgeleiteten Reaktionen der Wirtschaftssubjekte. Das am besten ausgearbeitete mikroökonomische Modell ist das walrasianische Totalmodell – bzw. die Allgemeine Gleichgewichtstheorie –, die in den Grundzügen im 2. Kapitel dargestellt wurde. Allerdings lassen sich aus mikroökonomischen Modellen keine „harten“ Aussagen über gesamtwirtschaftliche Zusammenhänge ableiten. Auch die wirtschaftspolitischen Empfehlungen, die aus mikroökonomischen Totalmodellen folgen, sind dünn. So lässt sich mit Hilfe des walrasianischen Totalmodells zeigen, dass in einer Ungleichgewichtssituation mit Arbeitslosigkeit bei einer Senkung der Reallohnsätze die Beschäftigung steigen oder fallen oder zufällig auch unverändert bleiben kann. Die Veränderung hängt ceteris paribus von der Veränderung des Preissystems und der Technikwahl der Unternehmen ab. Eine allgemein gültige Aussage, dass ein Fallen des Reallohnsatzes die unfreiwillige Arbeitslosigkeit reduziert, ist jedoch aufgrund der Interaktion der Märkte nicht möglich. Auch eine Senkung des Zinssatzes kann aufgrund der Technikwahl und der Zeitpräferenz der Haushalte mit einem steigenden oder auch fallenden Kapitalbestand verbunden sein. Das Problem der mikroökonomischen Totalmodelle besteht somit darin, dass sie analytisch korrekt auf der Entscheidungslogik von Haushalten und Unternehmen basieren und insofern allgemein sind. Gleichzeitig erlauben sie aber keine relevanten Aussagen über Makrozusammenhänge. Alle Versuche, die Mikro- mit der Makroökonomie ohne extrem einschränkende Annahmen zu verzahnen, sind bisher gescheitert. Eine Mikrofundierung der Makroökonomie muss als unmöglich angesehen werden. Eine Mikrofundierung in der Form, dass ein repräsentatives Wirtschaftssubjekt auf Mikroebene in seinem Verhalten untersucht wird und dann die Ergebnisse auf die Makroebene übertragen werden, lehnen wir als Mikrofundierung ab, da es ein Grundprinzip der Makroökonomie ist, dass die individuelle Rationalität nicht einer makroökonomischen Rationalität entspricht.
Neoklassische Makroökonomie
201
Zu eindeutigeren makroökonomischen Aussagen kommt man nur, wenn im Vergleich zur Mikroökonomie weitere Annahmen als exogene Voraussetzungen ins Modell eingebracht werden. Makroökonomische Modelle können deshalb auch so charakterisiert werden, dass sie im Vergleich zu mikroökonomischen Totalmodellen weitaus mehr als gegeben unterstellen. Typisch für makroökonomische Modelle sind makroökonomische Verhaltensfunktionen, die verschiedene Variablen zueinander in Beziehung setzten. Beispiele dafür wären etwa die Hypothesen, dass sich mit steigendem volkswirtschaftlichem Einkommen die Konsumnachfrage um einen bestimmten Betrag erhöht, mit steigendem Zinssatz die Ersparnisse um einen bestimmten Betrag klettern und die Investitionen fallen, oder die Bevölkerung Bargeld in Höhe eines bestimmten Prozentsatzes von ihrem Einkommen hält. Derartige Zusammenhänge gelten selbstverständlich nicht unabhängig von Zeit und Raum, sondern nur für spezifische historische Phasen. Verhaltensweisen können sich im Zeitablauf ändern. Aus diesem Grunde müsste eigentlich jeweils empirisch überprüft werden, ob diese oder jene Verhaltenshypothese zurzeit zutrifft oder nicht. Dieses Verfahren wird üblicherweise in den makroökonomischen Modellen nicht gewählt, sondern es wird faktisch unterstellt, dass die getroffenen Annahmen langfristig recht stabil sind und sich zumindest das Vorzeichen bei der abhängigen Variablen nicht ändert, wenn eine unabhängige Variable in verschiedenen Zeitperioden verändert wird. Häufig werden die unterstellten Annahmen nicht einmal ausdrücklich hervorgehoben, sondern den Analysen implizit zugrunde gelegt. Verhaltenshypothesen sind, da sie eben nicht allgemein gültig sind, immer wieder Gegenstand empirischer Auseinandersetzungen und unterscheiden sich auch dadurch von den Präferenzannahmen, mit denen eben nicht empirisch messbare Verhaltensweisen beschrieben, sondern „Marktlogiken“ modelliert werden (vgl. Kapitel 1). Prognosemodelle, die etwa von Zentralbanken, Forschungsinstituten oder Regierungen für Prognosen für Wachstum der gesamtwirtschaftlichen Produktion, Preisniveauentwicklungen etc. benutzt werden, sind immer Makromodelle mit Verhaltenshypothesen. Diese Modelle haben keine Mikrofundierung und können keine haben. In Modellen dieser Art spielt selbstverständlich die genaue Modellierung der Verhaltensfunktion, oftmals ausgedrückt in bestimmten Elastizitäten, zwischen Variablen, eine große Rolle. Prognosen über die Wachstumsraten des Sozialproduktes beispielsweise ein oder zwei Jahre nach dem Prognosezeitraum, treffen selten ins Schwarze. Dies ist nicht verwunderlich und auch nicht zu kritisieren. Das Verhalten der Wirtschaftssubjekte und damit Verhaltensfunktionen bleiben nicht stabil, so dass Prognosefehler immer wahrscheinlich sind. Da wir in diesem Lehrbuch keine ausgefeilten Prognosemodelle präsentieren, beschränken wir uns bei den Makromodellen auf typische Verhaltensweisen. Wenn die Richtung der Veränderungen von abhängigen Variablen bei Änderung von unabhängigen Variablen abgeleitet werden kann, sind wir in diesem Lehrbuch schon zufrieden. Auch andere Lehrbücher können an dieser Stelle nicht mehr leisten. Die Schlussfolgerung ist, dass Makroökonomie nicht wie eine Naturwissenschaft betrieben werden kann. Léon Walras, der sich selbst als Newton der Ökonomie begriff, hat einen Forschungsstrang begründet, der sich an die naturwissenschaftliche Methode anlehnt. Seine Methode, angelehnt an die Newtonsche Mechanik, hat sich insbesondere im neoklassischen Paradigma durchgesetzt, obwohl auch andere ökonomische Paradigmen mit Gleichgewichten und sich verändernden Gleichgewichten arbeiten. Jedoch besteht die Tendenz in der Neoklassik, in Modellen abgeleitete Gleichgewichte direkt auf die reale Welt zu übertragen. Ein extremes Beispiel ist hier die Neuklassik, die unterstellt, dass auf allen Märkten immer und zu jeder Zeit Gleichgewichte existieren. In neoklassischen Ansätzen besteht die Tendenz, ökonomische Gesetzmäßigkeiten als weitgehend isoliert von gesellschaftlichen Prozessen zu beschreiben. Die Ökonomie wird als sich selbst regulierendes und stabiles System beschrieben mit quasi naturgesetzlichen Abläufen.
202
Neoklassische Makroökonomie
Alfred Marshall, ebenfalls Neoklassiker, hat eine andere Tradition begründet, aus der später dann mit John Maynard Keynes der Keynesianismus hervorging. In dieser Tradition spielen Institutionen und spezifische Verhaltensfunktionen eine wichtige Rolle. Vor allem Keynes hat die Ökonomie zurück in die Gesellschaftswissenschaften gebracht, da zum Verständnis ökonomischer Entwicklungen Institutionen, Traditionen, sozialökonomische Bedingungen und historisch spezifische gesellschaftliche Konstellationen eine wichtige Rolle spielen. So kann die Ökonomie nach dieser Auffassung beispielsweise alleine wenig über Erwartungsbildung sagen, aber Erwartungen spielen eine herausragende Rolle bei der Erklärung der Investitionstätigkeit, dem Funktionieren der Vermögensmärkte und in vielen anderen Bereichen. Koordination zwischen Gewerkschaften und Arbeitgeberverbänden können, um eine anderes Beispiel zu nennen, für die Ökonomie eine stabilisierende Funktion übernehmen, während Verteilungskonflikte ebenso wie gänzlich unregulierte Arbeitsmärkte Ökonomien destabilisieren können. Weiterhin decken Makromodelle grundsätzlich nur einen relativ kurzfristigen Zeithorizont ab. Faktisch können sie nur über Entwicklungen Aussagen treffen, die sich maximal in wenigen Jahren vollziehen. Makromodelle, die langfristige Aussagen treffen, besitzen in aller Regel ein sehr schwaches methodisches Fundament, da sie von langfristig stabilen Verhaltensfunktionen ausgehen müssen. Annahmen über langfristig stabiles Verhalten sind allerdings nur in seltenen Ausnahmefällen aufrecht zu erhalten. Insbesondere betont die keynesianische Makroökonomie, dass sie auf einen kurzfristigen Zeithorizont beschränkt ist. Dies wird nicht als Mangel angesehen, sondern es wird offensiv betont, dass aus methodischen Gründen nur eine Analyse im Rahmen einer kurzfristigen Analyse möglich ist. Die Neoklassik hat in der Tradition von Robert Solow (1956) eine langfristige Wachstumstheorie entwickelt, die jedoch methodisch auf sehr schwachen Beinen steht und in diesem Buch im nächsten Kapitel nur kurz angerissen wird. In den grundlegenden makroökonomischen Modellen werden folgende Märkte unterschieden: der Vermögens-, der Güter- und der Arbeitsmarkt. Auf dem Vermögensmarkt entscheiden Wirtschaftssubjekte über ihre Vermögensbestände, über ihr Portfolio. Soll Vermögen bei der Bank angelegt werden oder soll einem Unternehmen ein direkter Kredit gegeben werden? Wie hoch soll der Bestand an Bargeld sein? Für welchen Zinssatz kann Unternehmer Müller einen Kredit erlangen? Soll ein Kredit zugunsten des Kaufs einer Stahlfabrik oder einer Investition in der Chemieindustrie aufgenommen werden? Fragen dieser Art stellen sich die Akteure auf den Vermögensmärkten bezüglich ihrer Portfolioentscheidungen. Jede Vermögensart hat ihren eigenen spezifischen Vorteil und ist durch eine spezifische Verwertungsrate (Profitrate, Zinsrate usw.) gekennzeichnet. Verwertungsraten müssen aber nicht zwingend pekuniär sein – also eine „Verzinsung“ in Geld darstellen – sondern können auch nichtpekuniär sein. Dies wäre beispielsweise der Fall, wenn eine Vermögensanlage große Sicherheiten bietet und dadurch das Sicherheitsbedürfnis des Wirtschaftssubjekts befriedigt wird. Die nichtpekuniäre Verwertungsrate wäre in diesem Fall eine Sicherheitsprämie. Eine solche Prämie kann beispielsweise erklären, warum ein Wirtschaftssubjekt trotz einer hohen Profitrate, bei allerdings riskanten Investitionen, sein Vermögen lieber in gering verzinslichen oder gar unverzinslichen Vermögensarten hält, die dafür sehr sicher sind. Auf dem Vermögensmarkt agierende Wirtschaftssubjekte werden ihr Portfolio so strukturieren, dass es in seiner Gesamtheit die nach ihrer subjektiven Einschätzung günstigste Verwertung aufweist. Für eine volkswirtschaftliche Analyse ist natürlich von besonderer Bedeutung, unter welchen Bedingungen sich Unternehmen für eine Investition in Produktionsanlagen und das Einstellen zusätzlicher Arbeitskräfte entscheiden, da davon Effekte auf das Wachstum der Volkswirtschaft und den Arbeitsmarkt ausgehen. Die Analyse des Vermögensmarktes kann – je nach Differenziertheit der Theorie – eine unterschiedliche Anzahl von Vermögensarten umfassen. Wir werden in den unten präsentierten makroökonomischen Modellen nur eine kleine Anzahl von Vermögensarten berücksichtigen und uns ausschließlich auf die für volkswirtschaftliche Sachverhalte relevanten konzentrieren. Der Gütermarkt umfasst das Angebot an und die Nachfrage nach Gütern (Waren und Dienstleistungen). Von einzelnen Gütern und damit auch von der Struktur der relativen Preise wird im makroöko-
Neoklassische Makroökonomie
203
nomischen Teil des Lehrbuchs – wie üblich – abstrahiert. Bei der makroökonomischen Nachfrage wird ausschließlich zwischen Konsum- und Investitionsgütern unterschieden und solchen, die vom Staat oder dem Ausland gekauft werden. Ausgeblendet wird somit, ob und warum Butter in Relation zu Äpfeln teurer geworden ist. Von größtem Interesse ist allerdings die Frage, warum das Preisniveau insgesamt gestiegen oder gefallen ist. Abgesehen wird auch davon, dass es zuweilen auf einzelnen Gütermärkten zu Nachfrage- oder Angebotsüberschüssen kommt. Unter einer makroökonomischen Perspektive relevanter ist hingegen die Frage, ob eine Volkswirtschaft an einer generellen Nachfrageschwäche leiden kann oder wie das Niveau der Nachfrage gegebenenfalls auf das Produktionsniveau wirkt. Von Interesse sind folglich vor allem das reale Produktionsniveau als mengenmäßige Komponente und das Preisniveau als preisliche Komponente des Gütermarktes. Auf dem Arbeitsmarkt treffen das Angebot an und die Nachfrage nach Arbeit zusammen. Auch hier findet die Analyse auf hohem Abstraktionsniveau statt. So wird von unterschiedlichen Arten der Arbeit (hoch, durchschnittlich oder niedrig qualifizierte etc.) abgesehen. Auch werden wir nicht auf geschlechtsspezifische oder rassische Segmentierungen auf dem Arbeitsmarkt eingehen, da, so wichtig diese Dimensionen sind, in einer Einführung in die Paradigmen der Ökonomie diese Fragen nicht im Zentrum stehen. Der Preis, der sich auf dem Arbeitsmarkt bildet, ist der Lohnsatz bzw. der Stundenlohn. Finden außenwirtschaftliche Aspekte Berücksichtigung, so tritt der Devisenmarkt zu den bisher genannten Makromärkten hinzu. Auf dem Devisenmarkt treffen Angebot an und Nachfrage nach der nationalen Währung (bzw. spiegelbildlich nach ausländischen Währungen) aufeinander. Der Preis, der sich auf dem Devisenmarkt bildet, ist der Wechselkurs. Vereinfachungen sind immer dann legitim und nützlich, wenn so der wesentliche Gehalt eines Sachverhalts eindeutig zum Ausdruck kommt. Sie sind offensichtlich dann nicht legitim, wenn sich die Aussagen eines Modells fundamental verändern, sobald die Vereinfachung aufgehoben wird. Dieser Vorwurf gilt insbesondere für jene makroökonomischen Modelle, die die Existenz nur eines Kapitalgutes in der Ökonomie unterstellen (vgl. Kapitel 3). Aus diesem Grunde wird in diesem Lehrbuch die Unterstellung einer Ökonomie mit nur einem Gut für makroökonomische Modelle als sinnvolle und legitime Abstraktion abgelehnt. Im Bereich der Makroökonomie konkurrieren vor allem das keynesianische und das neoklassische Paradigma miteinander. Sie kommen zu gänzlich unterschiedlichen Vorstellungen über die Ursachen von Wachstum, Arbeitslosigkeit, Inflation, konjunkturellen Krisen usw. Die Unterschiede kristallisieren sich in keinem Punkt so deutlich wie in der jeweiligen theoretischen Erfassung der Rolle und Funktion des Geldes in einer Volkswirtschaft. Die Neoklassik geht in ihrem Modell von einer grundlegenden Zweiteilung der ökonomischen Sphäre, von einer so genannten Dichotomie, aus. Danach wird eine reale Sphäre von einer monetären unterschieden (vgl. Kapitel 3.2 bzw. 3.4). In der Realsphäre werden alle wichtigen ökonomischen Fragen außer der Erklärung des Preisniveaus und den damit zusammenhängenden Problemen geklärt. Die walrasianische Gleichgewichtstheorie, die im mikroökonomischen Teil des Lehrbuchs entwickelt wurde, kommt ohne die ökonomische Kategorie Geld aus. Geld fungiert in der Neoklassik wie ein Schleier, der sich über die reale Sphäre legt und der gelüftet werden muss, damit die Geheimnisse der Ökonomie entdeckt werden können. Die neoklassische Theorie ist beherrscht von der Vorstellung der Neutralität des Geldes46: Monetäre Prozesse haben in ihrer Sicht keinen längerfristigen Einfluss auf die zentralen volkswirtschaftlichen Aspekte. Was die kurzfristigen Effekte der monetären Sphäre auf die Realsphäre betrifft, gibt es bei den Neoklassikern verschiedene Positionen. Immer ist Geld jedoch – wenn es eine Wirkung zeigt – ein Störfaktor der realen Sphäre. Im krassen Gegensatz dazu spielt das Geld im Keynesianismus auch langfristig eine entscheidende Rolle bei der Bestimmung des Produktions- und Beschäftigungsvolumens. Eine Neutralität des Gel46
Auch das klassische Paradigma als dritte große ökonomische Schule geht von der Neutralität des Geldes aus.
204
Neoklassische Makroökonomie
des wird folglich entschieden bestritten. Im Keynesianischen Paradigma wird es als unmöglich angesehen, zwischen einer realen und einer monetären Sphäre zu unterscheiden, da in allen Sphären der Ökonomie Geld die Kalküle der Wirtschaftssubjekte prägt. Geld ist kein Schleier, sondern die Disposition über Geldvermögen erhält einen zentralen Stellenwert bei der Erklärung von ökonomischen Größen, die in der neoklassischen Theorie in der realen Sphäre angesiedelt sind. Diese theoretischen Differenzen spiegeln sich beispielsweise bei der Erklärung von Arbeitslosigkeit wider. In der Neoklassik funktioniert der Arbeitsmarkt im Prinzip wie ein normaler Gütermarkt, der durch das Spiel von Angebot und Nachfrage zum Ausgleich kommt. Unfreiwillige Arbeitslosigkeit ist in der neoklassischen Theorie bei flexiblen Preismechanismen nicht möglich, da – analog zu Kühlschränken, Bleistiften und Taschenrechnern – ein Reallohnsatz existiert, der den Markt räumt. Die verschiedenen Märkte stehen in der Neoklassik gleichberechtigt nebeneinander, jeder verfügt über einen eigenen Preis-Mengen-Mechanismus, der bei flexiblen Preisen zu einer Gleichgewichtslösung führt. Im Keynesianismus stehen die Märkte auch langfristig nicht gleichberechtigt nebeneinander, sondern sind durch eine hierarchische Struktur gekennzeichnet. An dominanter Stelle steht der Vermögensmarkt. Durch die Disposition über Vermögen wird über das Kredit- und das Investitionsvolumen und damit das kurzfristige Produktionsniveau festgelegt. In diesem Sinne ist der Gütermarkt abhängig vom Vermögensmarkt. Sobald über das kurzfristige Produktionsniveau entschieden wurde, werden die dazu benötigten Arbeitskräfte beschäftigt, so dass der Gütermarkt das Beschäftigungsniveau bestimmt. Das keynesianische Paradigma kennt keinen Mechanismus, der über flexible Löhne zur Vollbeschäftigung führt. Der Arbeitsmarkt wird vielmehr durch den Vermögens- und Gütermarkt beherrscht und nur Prozesse auf diesen beiden Märkten können Beschäftigung und Arbeitslosigkeit verändern. Die mikroökonomische Analyse ist eine Domäne der neoklassischen Theorie. Der Keynesianismus hat bisher kein Modell hervorgebracht, das sich mit dem walrasinanischen Totalmodell vergleichen ließe, da der Keynesianismus ausschließlich als ein Makromodell konzipiert war. Verschiedene Versuche der Mikrofundierung des Keynesianismus hat es jedoch gegeben. Wir bezweifeln, ob ein solcher Ansatz sinnvoll ist, da wir davon ausgehen, dass eine Mikrofundierung der Makroökonomie nicht gelingen kann. Die Neoklassik hat entsprechend ihrer Dichotomie eine Makroökonomie für die reale Sphäre und die monetäre Sphäre entwickelt. Die neoklassische reale Makroökonomie muss, wie schon wiederholt betont, die Existenz nur eines Kapitalgutes unterstellen, da ansonsten ihre Kernaussagen nicht haltbar sind. Das walrasianische Totalmodell kann mit vielen Kapitalgütern gut leben, ermöglicht jedoch keine makroökonomischen Aussagen, die viele neoklassische Theoretiker gerne hätten. In vielen Lehrbüchern und wissenschaftlichen Abhandlungen wird in einer Fußnote die Existenz einer Ökonomie mit einem Kapitalgut unterstellt (oftmals wird die Annahme noch nicht einmal explizit erwähnt). Die Ergebnisse werden dann direkt auf die Realität übertragen. Die neoklassische reale Makroökonomie gaukelt an diesem Punkt Wissen vor, das sie nicht hat. Nimmt man den Stand der Forschung ernst, darf die neoklassische reale Makroökonomie nicht mehr vertreten werden. In unserem theoretischen Verständnis können ökonomische Paradigmen in der Form von Gleichgewichten und der komparativ-statischen Gleichgewichtsanalysen präsentiert werden, wenn klar ist, dass es sich dabei ausschließlich um ein analytisches Instrument handelt und nicht um einen irgendwie gearteten wünschenswerten Zustand. Auch muss der Marktmechanismus nicht zum Gleichgewicht tendieren oder der Prozess zum Gleichgewicht kann unakzeptabel lange dauern. Es wird damit der Auffassung widersprochen, die keynesianische Theorie sei im Vergleich zur neoklassischen eine Ungleichgewichtstheorie. Innerhalb beider Paradigmen kann eine Gleichgewichts- und Ungleichgewichtsanalyse vorgenommen werden.
Neoklassische Makroökonomie
205
3.2 Die neoklassische reale Makroökonomie 3.2.1 Arbeits-, Kapital- und Gütermarkt in kurzfristiger Perspektive Fragestellung Wie werden im neoklassischen realen Makromodell Beschäftigung, volkswirtschaftlicher Output, Investitionen, Ersparnisse und die Einkommensverteilung bestimmt? Welche Rolle spielt die makroökonomische Produktionsfunktion und was sind die Probleme dieser Funktion? Warum spielt die Nachfrage nach Gütern keine Rolle in der neoklassischen realen Makroökonomie? Wir haben bereits darauf hingewiesen, dass ein wesentliches Element des neoklassischen Paradigmas das Postulat einer Dichotomie zwischen realer und monetärer Sphäre ist. In diesem und im nächsten Abschnitt wird daher zunächst das neoklassische Makromodell der realen Sphäre dargestellt und kritisiert. Zunächst werden der Arbeits- und der Gütermarkt und danach der Kapitalmarkt behandelt. Von dem Produktionsfaktor Boden sehen wir, wie immer, ab. Um im Folgenden die Darstellung möglichst einfach zu halten, wird von den Wirkungen eines steigenden Kapitalstocks abstrahiert. Es handelt sich somit um eine statische kurzfristige Analyse. Damit wird zunächst der gesamte Bereich der neoklassischen Wachstumstheorie ausgespart. Die neoklassische reale Makroökonomie basiert in weiten Teilen auf der bereits dargestellten neoklassischen Mikroökonomie. Zum Verständnis dieses Kapitels ist es deshalb zuweilen nützlich, in den entsprechenden Kapiteln über die Mikroökonomie nachzuschlagen. Insbesondere in der Analyse des Arbeitsmarktes (Kapitel 2.7) und des Kapitalmarktes (Kapitel 2.8). Im Grunde wird bei der neoklassischen Makroökonomie die Analyse eines einzelnen Wirtschaftssubjektes umstandslos durch Aggregation auf die Makroebene übertragen. Dieses Vorgehen – so plausibel es auf den ersten Blick auch erscheinen mag – birgt allerdings eine ganze Reihe von Problemen, die in diesem Kapitel ausführlich untersucht werden sollen. Der aggregierte Arbeitsmarkt Beginnen wir mit der Arbeitsnachfrage der Unternehmen. Unterstellt wird nunmehr eine makroökonomische unbegrenzt substitutionale Produktionsfunktion, bei der – wie auch schon bei der mikroökonomischen Produktionsfunktion – kein Inputfaktor Null werden kann. Die Produktionsfunktion ist zudem durch konstante Skalenerträge gekennzeichnet (vgl. zur Produktionsfunktion Kapitel 2.4.3). Der makroökonomische Output wird durch das Nettoinlandsprodukt (NIPr) ausgedrückt, das der in einer Periode, üblicherweise einem Jahr, neu produzierten Gütermenge und der Neuwertschöpfung entspricht. Beim Nettoinlandsprodukt ist der Ersatz für den Verschleiß des alten Kapitalstocks nicht enthalten, so dass das Bruttoinlandsprodukt um den Verschleiß reduziert wird, um zum Nettoinlandsprodukt zu kommen. Üblicherweise wird das Problem von Brutto- und Nettoinlandsprodukt so umgangen, dass der Kapitalstock (K) als ein Gut definiert wird, das nicht verschleißt. Kapital wird durch die Annahme einer unendlichen Lebensdauer faktisch in Boden umdefiniert und die Entlohnung des Kapitals wird zu einer Rente. Wir folgen dieser Vereinfachung des neoklassischen Modells. Das reale Nettoinlandsprodukt ergibt sich dann als Ergebnis der eingesetzten Inputfaktoren – in unserem Fall Arbeit (H) und Kapital.
NIPr = NIPr (H, K)
206
Neoklassische Makroökonomie
Eine Produktionsfunktion NIPr = Ha1Ka2 vom Cobb-Douglas-Typ mit a1 + a2 = 1 erfüllt die gewünschten Bedingungen. Wir wollen bereits an dieser Stelle darauf hinweisen, dass die makroökonomische Produktionsfunktion ein eigentümliches Gebilde ist. Produktionsfunktionen geben bekanntlich technische Relationen zwischen Inputs und Output an, wobei im allgemeinen Fall viele Inputs ein Outputgut produzieren. Bei der makroökonomischen Produktionsfunktion müssten auf der Outputseite „Äpfel mit Birnen“ addiert werden, um das Nettoinlandsprodukt darstellen zu können, was natürlich nicht geht. Das gleiche Problem ergibt sich beim Kapitaleinsatz bei einer makroökonomischen Produktionsfunktion, der auf einen Faktor K reduziert wird. Auch dort müssten Computer und Werkbänke zusammengezählt werden, was natürlich ebenfalls nicht geht. Lösbar ist das Problem mit einer Input-Output-Analyse, die alle Inputs und alle Outputs sowie die Verflechtung der verschiedenen Branchen ohne monetäre Größen angibt. Aber wie soll das Problem bei einer makroökonomischen Produktionsfunktion gelöst werden? Die sich spontan aufdrängende Idee, alle Größen in Geldeinheiten zu bewerten und dann zu addieren, erweist sich bei näherer Betrachtung als höchst problematisch und letztlich undurchführbar (vgl. die weiteren Unterkapitel). Denn werden statt physischer Inputs und Outputs monetäre Größen in die Produktionsfunktion eingesetzt, so ist es eben keine Produktionsfunktion mehr, die technische Beziehungen ausdrückt. Eine Produktionsfunktion ist gerade dadurch definiert, dass sie technische Relationen zwischen eingesetzten Inputs und dadurch produzierten Outputs abbildet. Auf der mikroökonomischen Ebene war das kein Problem. Dort gilt die Produktionsfunktion, wie oben angemerkt, für ein bestimmtes Gut, also z. B. für Brot. Für die Produktion von Brot kann dann angegeben werden, welche Produktionsfaktoren – Mehl, Wasser, Knetmaschine etc. – in welcher Größenordnung benötigt werden. Da nicht aggregiert wird, gibt es auch kein Aggregationsproblem. Gibt es in der Ökonomie nur ein Gut, dann verschwindet das Problem der Messung bzw. Aggregation von Kapital und dem Nettoinlandsprodukt. Dann können der makroökonomische Kapitaleinsatz und der Output offensichtlich problemlos über Mengeneinheiten aggregiert werden. In diesem Fall könnte auch eine makroökonomische Produktionsfunktion bedenkenlos ohne Rückgriff auf Preise konzipiert werden. Nur ist die Welt, in der wir leben, keine Welt mit nur einem Kapitalgut.47 Wir folgen hier zunächst der Notwendigkeit, nur ein Kapitalgut in der Ökonomie anzunehmen, um später zu zeigen, wie problematisch diese Annahme ist.48 Auf dem Arbeitsmarkt wird homogene Arbeit angenommen, also von unterschiedlichen Qualifikationsmerkmalen etc. abgesehen. Damit kann der Faktor Arbeit auch auf volkswirtschaftlicher Ebene problemlos in verausgabte Arbeitsstunden aggregiert werden. Selbstverständlich ist makroökonomisch auch die Annahme homogener Arbeit eine weit reichende Abstraktion, aber hier ließen sich problemlos unterschiedliche Arten von Arbeit integrieren, ohne dass Modell zu zerstören. Bei den Problemen der neoklassischen realen Makrotheorie spielt die Aggregation der Güter die entscheidende Rolle. Werden konstante Skalenerträge unterstellt, ergeben sich bei einer Ausdehnung des Arbeitseinsatzes und unverändertem Kapitalstock die folgenden ertragsgesetzlichen Beziehungen: Das Produktionsvolumen steigt mit der Ausdehnung des Faktors Arbeit unterproportional (oberer Teil der Abbildung 3.2.1). Daraus folgt, dass das Grenzprodukt des Faktors Arbeit mit zusätzlichem Arbeitseinsatz sinkt 47
Mit großer Lockerheit wird in Lehrbüchern über die Probleme der makroökonomischen Produktionsfunktion hinweggegangen. Eine geradezu extreme Variante stellt z. B. die Argumentation von Barro (1988, S. 32) dar, der einer der bekanntesten amerikanischen Ökonomen ist: „Da es in unserem abstrakten Modell nur eine einzige Güterart gibt, lässt sich die Produktionsmenge (...) problemlos messen. In der Realität entspricht diese Größe nach Addition sämtlicher Produktionsergebnisse dem Bruttosozialprodukt (BSP). Allerdings entstehen bei der Summierung von physisch unterschiedlichen Gütern mit Hilfe von Preisindizes etliche praktische Probleme.“ Hier wird die Welt auf den Kopf gestellt: Als „abstrakt“ wird ein Modell mit nur einem Kapitalgut angesehen, ein Modell mit vielen Gütern dann wohl als „konkret“. Tatsächlich ist die Eingutwelt jedoch ein extrem spezielles Modell und gerade nicht abstrakt. Der Aussage, dass die Einführung von mehreren Gütern und damit Werten nur „praktische Probleme“ bringt und keine theoretischen, kann man nur staunend gegenüberstehen. 48 Es soll hier nochmals betont werden, dass die Annahme der Existenz nur eines Kapitalgutes durch die Annahme gleicher Kapitalintensitäten in allen Branchen ersetzt werden kann. Aber auch diese Annahme läuft auf die Existenz nur eines Kapitalgutes hinaus.
Neoklassische Makroökonomie
207
(unterer Teil der Abbildung 3.2.1). Bei einem höheren Kapitalstock verschiebt sich die Ertragsfunktion der Arbeit nach oben und die Grenzproduktsfunktion nach rechts. Bei technologischem Fortschritt kommt es zu den gleichen Verschiebungen der Kurven.
Abbildung 3.2.1: Die makroökonomische Produktionsfunktion bei Variation des Arbeitsinputs NIPr
NIPr = NIPr (H, K )
H
GPH
GPH H
Das, was in der Mikroökonomie Gültigkeit hat, wird nun gleichsam umstandslos auf die makroökonomische Ebene übertragen. Die Gewinnfunktion (Gleichung 2.7.13 in Kapitel 2.7) nimmt auf Ebene der Volkswirtschaft bei der unterstellten makroökonomischen Produktionsfunktion die Form
Q = P ⋅ NIPr − w ⋅ H − i⋅ P ⋅ K mit Q als Gewinn, P als Preisniveau, P ⋅ NIPr als volkswirtschaftliche Erlöse, w als Geldlohnsatz, H als Arbeitseinsatz, w·H als volkswirtschaftliche Lohnkosten, i als Zinssatz, K als Menge des volkswirtschaftlichen Kapitalgutes K, P·K als wertmäßiger volkswirtschaftlicher Kapitaleinsatz und i⋅ P ⋅ K als volkswirtschaftliche Zinskosten. Bei den Zinsen handelt es nicht um Zinsen für Kredite in Geld, sondern um die Verwertungsrate von physischem Kapital in der Realsphäre. Wird die volkswirtschaftliche Produktionsfunktion für NIPr eingesetzt ergibt sich: (3.2.1)
Q = P ⋅ NIPr (H,K) − w ⋅ H − i⋅ P ⋅ K
Wird die Gewinnfunktion nach dem Arbeitseinsatz abgeleitet und die erste Ableitung Null gesetzt, um den gewinnmaximalen Arbeitseinsatz zu finden, ergibt sich:
208
Neoklassische Makroökonomie
dQ = P ⋅ GPH − w dH dQ =0 dH GPH =
(3.2.2)
bzw. P ⋅ GPH − w = 0
w P
GPH ist das Symbol für das Grenzprodukt der Arbeit, also die erste Ableitung der Produktionsfunktion nach Arbeit. Wir unterstellen zudem, dass die zweite Ableitung der Produktionsfunktion nach Arbeit negativ ist, um ein Gewinnmaximum zu garantieren. Der gewinnmaximale Arbeitseinsatz liegt also vor, sofern das Grenzprodukt der Arbeit gleich dem Reallohnsatz ist.49 Der Reallohnsatz wird durch w mit w als Nominallohnsatz und P als Preisindex ausgedrückt. Da Geld neutral ist steckt hinter P w eine reale Gütermenge, beispielsweise eine Menge an Weizen. Alternaiv könnten wir die GewinnP maximierungsbedingung auch so ausdrücken, dass das Wertgrenzprodukt der Arbeit dem nominellen Lohnsatz entspricht, also P·GPH = w ist.
⎛ w ⎞* Bei einem gegebenen Reallohnsatz von ⎜ ⎟ liegt der gleichgewichtige Arbeitseinsatz in der Volks⎝P⎠ wirtschaft in Abbildung 3.2.2 bei H*, da dort für Unternehmen das Gewinnmaximum liegt. Im Gleichgewicht ist der Output des Grenzarbeiters gleich hoch wie sein Reallohn. Alle Arbeiter vor dem Grenzarbeiter produzieren dagegen ein höheres Produkt als es ihrem Lohn entspricht. Abbildung 3.2.2: Der gewinnmaximale Arbeitseinsatz
GPH,
w P
⎛w⎞ ⎜ ⎟ ⎝ P ⎠1 ⎛ w ⎞* ⎜ ⎟ ⎝P⎠ ⎛w⎞ ⎜ ⎟ ⎝ P ⎠2
GPH H1
49
H∗
H2
H
Im mikroökonomischen Teil (vgl. Kapitel 2.7) wurde die Gewinnmaximierungsbedingung bezüglich des Arbeitseinsat-
zes in Gleichung (2.7.15) durch
∂ Wz = wr ausgedrückt, was den gleichen Sachverhalt beschreibt. ∂H
Neoklassische Makroökonomie
209
Bei sinkendem Reallohnsatz wird die Beschäftigungsmenge ausgedehnt, bei steigendem reduziert. ⎛w ⎞ Sinkt der Reallohnsatz in Abbildung 3.2.2 auf ⎜ ⎟ , dann steigt die Arbeitsnachfrage auf H2. Steigt ⎝ P ⎠2 ⎛w⎞ ⎟ , dann sinkt die Arbeitsnachfrage auf H1. Die Grenzproduktskurve des Fak⎝ P ⎠1
der Reallohnsatz auf ⎜
tors Arbeit wird somit zur Nachfragekurve nach Arbeit. Dieser Sachverhalt wird durch den Verlauf der volkswirtschaftlichen Nachfrage nach Arbeit (AN) in Abbildung 3.2.3 ausgedrückt, die bei gegebenem Kapitalbestand und gegebener Technologie vereinfacht dargestellt nur vom Reallohnsatz abhängt (für detaillierte Ausführungen vgl. Kapitel 2.7.3). Beim Arbeitsangebot optimieren die Haushalte die Kombination zwischen dem Genuss der Freizeit und dem Genuss der Güter, die sie durch Arbeit konsumieren können. Arbeit wird zwar als leidvoll angenommen, aber das durch sie erzielbare Einkommen und der davon abhängige Konsum der Güter stiftet Genuss. Bei einer Normalreaktion der Haushalte führt das Kalkül der Nutzenmaximierung dazu, dass bei steigendem Reallohnsatz das Angebot an Arbeit steigt. Das muss allerdings nicht so sein. Bei sinkenden Reallohnsätzen kann der Einkommenseffekt so hoch sein, dass Haushalte zur Stabilisierung ihres Lebensstandards oder zum blanken Überleben mehr Arbeit anbieten. Bei sehr hohen Reallohnsätzen können weitere Lohnerhöhungen das Angebot reduzieren, da die Freizeit einen höheren Stellenwert bekommt. Wir wollen jedoch der üblichen Annahme folgen, dass das Arbeitsangebot vom Reallohn abhängig ist und mit diesem ansteigt. Es ergibt sich dann die in Abbildung 3.2.3 eingezeichnete Arbeitsangebotsfunktion (AA). Auch die Arbeitsangebotsfunktion kann sich verschieben, beispielsweise nach links, wenn die Präferenzen nach Freizeit ansteigen (zu den Details der Arbeitsangebotsfunktion vgl. Kapitel 2.7.2). Das Gleichgewicht auf dem Arbeitsmarkt bzw. Vollbeschäftigung in der Abbildung 3.2.3 ist am ⎛ w ⎞* ⎟ ⎝P⎠
Schnittpunkt der Arbeitsnachfragefunktion und der Arbeitsangebotsfunktion erreicht, also bei ⎜
und bei H * . Die gesellschaftliche Lohnsumme wird im Gleichgewicht durch die Fläche zwischen den ⎛ w ⎞* ⎟ , 0, H* und A ausgedrückt. ⎝P⎠
Punkten ⎜
Abbildung 3.2.3: Der Arbeitsmarkt einer Volkswirtschaft w P
⎛w⎞ AA = AA ⎜ ⎟ ⎝P⎠
⎛w⎞ ⎜ ⎟ ⎝ P ⎠1 ⎛ w ⎞* ⎜ ⎟ ⎝P⎠
A
0
H1
H*
H2
⎛w⎞ AN = AN ⎜ ⎟ ⎝P⎠ H
210
Neoklassische Makroökonomie
Nach der Auffassung der realen neoklassischen Makroökonomie liegt die Ursache für unfreiwillige Arbeitslosigkeit letztlich an zu hohen Reallöhnen. Gibt es unfreiwillige Arbeitslosigkeit, dann führt nach diesem Modell eine Senkung der Reallohnsätze immer zur Vollbeschäftigung. Liegt der Real⎛w⎞ ⎟ , dann ergibt sich ein Überschussangebot an Arbeit in Höhe ⎝ P ⎠1
lohnsatz in Abbildung 3.2.3 z. B. bei ⎜
von H2 minus H1; es existiert somit in dieser Höhe unfreiwillige Arbeitslosigkeit. Sinkt der Reallohnsatz, dann fragen die Unternehmer mehr Arbeit nach und gleichzeitig sinkt das Arbeitsangebot aufgrund des reduzierten Reallohnes und des damit verbundenen Impulses, mehr Freizeit zu konsumieren. Dieser Prozess hält an, bis Vollbeschäftigung erreicht ist. Als Störfaktoren auf dem Arbeitsmarkt sind schnell ausgemacht die Gewerkschaften und Arbeitgeberverbände, die in die individuelle Vertragsfreiheit eingreifen. Als Idealbild wird ein durch Konkurrenz geprägter Arbeitsmarkt mit ausschließlich individuellen Arbeitsverträgen zwischen dem einzelnen Arbeiter und einzelnen Unternehmen angesehen. Auch gesetzliche Mindestlöhne und zu hohe Sozialleistungen können für zu hohe Reallohnsätze verantwortlich sein. Generell sollten nach dem neoklassischen Paradigma Regulierungen auf dem Arbeitsmarkt wie Kündigungsschutz auf ein Minimum reduziert werden, um den Markt nicht zu stören, der von sich aus zur Vollbeschäftigung tendiert. Der aggregierte Gütermarkt Vor dem Hintergrund der obigen Argumentation lässt sich das kurzfristige makroökonomische Produktionsvolumen auf dem Gütermarkt leicht bestimmen. Die gleichgewichtige Beschäftigungsmenge wird in die makroökonomische Produktionsfunktion eingesetzt. Der Kapitalbestand ist kurzfristig nicht zu verändern und wird daher als gegeben angenommen. So lässt sich dann unmittelbar das aggregierte Produktionsvolumen auf dem Gütermarkt ableiten. In Abbildung 3.2.4 ergibt sich bei der gleichgewichtigen Beschäftigungsmenge H* das gleichgewichtige Produktionsvolumen NIPr *. Das Produktionsvolumen ist ausschließlich über die Inputfaktoren und damit die Angebotsseite bestimmt. Aus diesem Grunde wird die Neoklassik manchmal auch als Angebotsökonomie bezeichnet.
Neoklassische Makroökonomie
211
Abbildung 3.2.4: Die Bestimmung des gleichgewichtigen Produktionsvolumens NIPr
(
NIPr = NIPr H,K
)
NIPr *
w P
H*
H
⎛w⎞ AA = AA ⎜ ⎟ ⎝P⎠
⎛ w ⎞* ⎜ ⎟ ⎝P⎠
H*
⎛w⎞ AN = AN ⎜ ⎟ ⎝P⎠ H
Die aggregierte Güternachfrage, die im keynesianischen Paradigma eine große Rolle spielt, hat bei der Neoklassik keine Bedeutung für das aggregierte Produktionsvolumen. Dieser Sachverhalt wird durch das Saysche Gesetz – benannt nach dem französischen Ökonomen Jean Baptiste Say (1767-1832) – ausgedrückt. Das Saysche Gesetz besagt, dass sich jedes Angebot seine eigene Nachfrage schafft. Werden Waren produziert, dann entsteht Einkommen. Wird nun das in einer Periode entstandene Einkommen vollständig verausgabt, dann entspricht die Nachfragesumme offensichtlich der Einkommenssumme. Das Einkommen ist somit immer ausreichend groß, um alle Güter auf dem Markt kaufen zu können. Damit ist eine generelle Nachfrageschwäche ausgeschlossen. Zwar kann es bei einzelnen Gütern ein Überschussangebot oder eine Überschussnachfrage geben, jedoch muss sich unter den Bedingungen des Sayschen Gesetzes die Summe aller Ungleichgewichte auf einzelnen Gütermärkten zu Null addieren. Sofern z. B. auf dem Hosenmarkt die Nachfrage größer ist als das Angebot, muss es auf einem anderen Markt, z. B. auf dem Hemdenmarkt gerade umgekehrt sein. Allgemeine Ungleichgewichte auf dem Gütermarkt sind somit nach dem Sayschen Gesetz ausgeschlossen. Partielle Marktungleichgewichte auf einzelnen Gütermärkten sind ihrem Charakter nach temporärer Natur und können bei einer makroökonomischen Analyse ausgeblendet werden. In einer reinen Tauschwirtschaft ist das Saysche Gesetz trivial und immer erfüllt, da jeder Akt des Verkaufs dann automatisch den Akt des Kaufs einschließt. Im walrasianischen Totalmodell, das den Kern neoklassischen Denkens zum Ausdruck bringt, ist somit ein genereller Nachfragemangel oder Angebotsüberschuss nicht möglich. Das Preissystem führt immer dazu, dass geplante Angebote und geplante Nachfragen auf jedem Markt ausgeglichen sind. Existiert Geld, dann kann das Saysche Gesetz schon dadurch verletzt werden, dass Wirtschaftssubjekte periodisch danach streben, Geld zu horten und die-
212
Neoklassische Makroökonomie
ses dann wieder abzubauen. Wünschen alle Wirtschaftssubjekte, ihre Geldbestände zu vermindern, dann kommt es zur allgemeinen Überschussnachfrage; streben dagegen alle Wirtschaftssubjekte danach, ihre Geldbestände zu erhöhen, dann kommt es zu einem allgemeinen Überschussangebot. Sehr viel umfangreicher werden die möglichen Verletzungen des Sayschen Gesetzes, wenn das Bankensystem in die Analyse integriert wird, das in seiner Kreditvergabe nicht von den laufenden Ersparnissen der Haushalte abhängt. Das Saysche Gesetz impliziert somit, dass die Geldsphäre nicht störend auf die Realsphäre einwirkt. Hinter dem Sayschen Theorem steht die Annahme, dass geplante Ersparnisse immer vollständig in geplante Nettoinvestitionen umgewandelt werden. Nehmen wir an, es werden 1000 Gütereinheiten von den Unternehmen produziert. Davon werden 750 von den Haushalten konsumiert, die dann offensichtlich 250 Gütereinheiten sparen. Soweit können die Unternehmen 250 Gütereinheiten nicht verkaufen. Werden aber genau 250 Gütereinheiten von den Unternehmen als Investitionen nachgefragt ist das Problem gelöst. Dieses Argument verweist uns auf den neoklassischen Kapitalmarkt. Denn dieser sorgt dafür, dass die Nachfragelücke, die durch die Ersparnisse der Haushalte entsteht, vollständig durch die Investitionsnachfrage der Unternehmen ausgeglichen wird. Auch Investitionen, welche die Ersparnisse überschreiten, sind nicht möglich. Wären z. B. – aus welchen Gründen auch immer – die Ersparnisse höher als die Investitionsbereitschaft der Unternehmen, so würde dies zu einem sinkenden Zinssatz, vermehrtem Konsum bei den Haushalten und zu steigenden Nettoinvestitionen führen. Im Gleichgewicht würden Ersparnisse und Nettoinvestitionen, sowie Angebot und Nachfrage wieder übereinstimmen. Übersteigt die Investitionsnachfrage die Ersparnisse, dann wird der resultierende Anstieg der Zinssätze ebenfalls zu einem Gleichgewicht führen. In der skizzierten und auch ursprünglichen Fassung blieb das Saysche Gesetz auf den Gütermarkt bezogen und wäre auch bei der Existenz von unfreiwilliger Arbeitslosigkeit erfüllt, da dadurch die Gleichgewichtsbedingungen auf dem Gütermarkt nicht berührt werden. Das Saysche Gesetz sollte jedoch in einer modernen Fassung im Sinne einer Vollbeschäftigung aller Ressourcen begriffen werden. In diesem Fall muss unterstellt werden, dass der Preismechanismus immer zur Vollauslastung der Ressourcen führt und Arbeitslosigkeit durch flexible Reallöhne abgebaut wird. Das Saysche Gesetz drückt auch in diesem Fall aus, dass ausschließlich Angebotsfaktoren die Ökonomie steuern. Der aggregierte Kapitalmarkt Kommen wir nun zu dem schon angesprochenen neoklassischen Kapitalmarkt, der die Aufteilung des Nettoinlandsproduktes in Konsum- und Investitionsgüter bestimmt. Der Kapitalmarkt wird in der Neoklassik nach der gleichen Methode analysiert wie der Arbeitsmarkt. Wird die Gewinnfunktion (3.2.1) nun nach dem eingesetzten Kapital abgeleitet und die erste Ableitung zur Ermittlung eines Maximums Null gesetzt (die zweite Ableitung ist wieder negativ), so folgt:
dQ = P ⋅ GPK − i⋅ P dK dQ =0 dK (3.2.3)
bzw. P ⋅ GPK − i⋅ P = 0
GPK = i
GPK ist das Symbol für das Grenzprodukt des Kapitals. Im Gewinnmaximum muss dieses dem Zinssatz entsprechen. Auch hier gilt das Ertragsgesetz, so dass das Grenzprodukt des Kapitals mit steigendem
Neoklassische Makroökonomie
213
Kapitaleinsatz sinkt (vgl. Abbildung 3.25).50 Mit sinkendem (steigendem) Zinssatz werden Unternehmen eine größere (kleinere) Menge Kapital einsetzen. Daraus resultiert eine mit fallendem (steigendem) Zinssatz steigende (sinkende) Nachfrage nach Kapital, die von der Grenzertragskurve des Faktors Kapital determiniert wird. Unternehmen werden Kapital also solange einsetzen, bis das Grenzprodukt des Kapitaleinsatzes dem Zinssatz entspricht. Abbildung 3.2.5 verdeutlicht diesen Zusammenhang. Mit steigendem Kapitaleinsatz fällt der Grenzertrag des Faktors Kapital. Wird der Zinssatz für den Unternehmenssektor vorgegeben – in der Abbildung der Zinssatz i* – dann ergibt sich daraus entsprechend der Gewinnmaximierungsbedingung der gleichgewichtige Kapitaleinsatz K*. Die Entlohnung des Faktors Kapital wird im Gleichgewicht durch die Fläche innerhalb der Punkte i*, 0, K* und A angegeben. Die Nettoinvestitionen ergeben sich implizit aus dem gleichgewichtigen Kapitalstock. Nettoinvestitionen, die innerhalb einer Periode getätigt werden, führen in unserem Modell zu Anpassungen des aus der Vergangenheit „geerbten“ an den gewünschten neuen Kapitalstock in der nächsten Periode. Ist der neue gleichgewichtige Kapitalstock größer als der alte, so muss es zu Nettoinvestitionen kommen. Da der gleichgewichtige Bestand an Kapitalgütern vom Zinssatz abhängt, muss dies auch für die Investitionen gelten. Bei der Darstellung des neoklassischen Kapitalmarktes in Abbildung 3.2.6 haben wir den Altbestand an Kapital nicht explizit dargestellt. Es ist jedoch klar, dass beim Auftreten von Nettoinvestitionen der Kapitalbestand zunimmt. Vereinfachend können wir die Investitionsfunktion I = I(i) ausschließlich vom Zinssatz abhängig machen. Aber es sollte klar sein, dass beispielsweise ein höherer Arbeitseinsatz oder eine technologische Verbesserung die Investitionskurve nach rechts verschieben (vgl. zur Investitions- und Kapitalnachfrage auch Kapitel 2.8.3).
Abbildung 3.2.5: Der gewinnmaximale Kapitaleinsatz i,GPK
A
i*
GPK 0
50
K
K*
Im mikroökonomischen Teil (vgl. Kapitel 2.8) wurde die Gewinnmaximierungsbedingung bezüglich des Kapitaleinsat-
⎛ ∂Wz ⎞ ⎛ ∂Wz ⎞ ⎟ ⋅ pz = (1 + i) . Die Ableitung ⎜ ⎟ entspricht dem Grenzpro⎝ ∂WgS ⎠ ∂ gS W ⎝ ⎠
zes in Gleichung (2.8.10) so ausgedrückt: ⎜
dukt des Kapitals bei der Weizenproduktion mit Saatgut als Kapitalgut. Der Weizenpreis pz taucht auf, da Weizen und Saatgut unterschiedliche Preise haben. Dies liegt wiederum daran, dass Saatgut und produzierter Weizen in unterschiedlichen Perioden auftauchen. Schließlich wurde die Gewinnmaximierungsbedingung durch eine Bruttoverwertungsrate ausgedrückt, da explizit berücksichtigt wurde, dass Unternehmen das Kapitalgut nach jeder Periode an die Haushalte zurückgeben müssen. In der Substanz sind die mikroökonomische und die makroökonomische Variante der Gewinnmaximierungsbedingung des Kapitals identisch und führen zu den gleichen Ergebnissen. Die Makrovariante ist nur nochmals vereinfacht.
214
Neoklassische Makroökonomie
Die Sparentscheidung ist ein Teil der intertemporalen Allokation. Die Sparfunktion S=S(i) in Abbildung 3.2.6 verdeutlicht, dass im neoklassischen Makromodell davon ausgegangen wird, dass mit steigendem Zinssatz die Ersparnisse ansteigen. Nutzenmaximierende Wirtschaftssubjekte sind, so das neoklassische Argument, aufgrund ihrer Zeitpräferenz geneigt einen Güterkorb heute einem identischen in der Zukunft vorzuziehen. Steigende Zinssätze erlauben bei gleichem Konsumverzicht einen steigenden Konsum in der Zukunft und führen dadurch zu steigenden Ersparnissen. Zwingend ist dies jedoch nicht, da die Einkommenseffekte von Zinssatzänderungen auch zu anderen Ergebnissen führen können. Die Sparfunktion verschiebt sich bei Änderungen der Zeitpräferenz und Änderungen der Einkommensströme in der Gegenwart und Zukunft (vgl. Kapitel 2.8.2).
Abbildung 3.2.6: Der Kapitalmarkt einer Volkswirtschaft
i
S = S(i )
i∗
I = I(i )
I∗ , S∗
I, S
In der Abbildung 3.2.6 ergibt sich i* als gleichgewichtiger Zinssatz, der das gleichgewichtige Investitions- und Sparvolumen (I*, S*) determiniert. Hinter den gleichgewichtigen Nettoinvestitionen verbirgt sich der gleichgewichtige Kapitalbestand K*, der sich aus dem Altbestand des Kapitals plus I* ergibt. Unternehmen können aufgrund der physischen Produktivität des Kapitals einen positiven Zinssatz anbieten, um Kapitalgüter von den Haushalten zu erhalten. Investitionen kommen zustande, wenn Haushalte einen Teil ihres gegebenen Einkommens sparen. Der Zinssatz hat somit die allokative Funktion, die Verwendung des Nettoinlandsprodukts in Konsum- und Investitionsgüter zu steuern. Es sei nochmals betont, Geld oder einen Zinssatz für Geld, gibt es in dem Modell nicht. In ihrer einfachsten Form hat die neoklassische reale Makroökonomie somit im Rahmen einer kurzfristigen Analyse folgende Struktur: Die auf dem Arbeitsmarkt bestimmte Beschäftigung steuert auf dem Gütermarkt ausschließlich über Angebotsbedingungen das Produktionsvolumen, während auf dem Kapitalmarkt der Zinssatz die Verwendung der produzierten Güter für konsumtive oder investive Zwecke bestimmt. Der Arbeitsmarkt steht an dominanter Stelle, da er das Beschäftigungs-, Produktionsund Einkommensvolumen auf dem Gütermarkt steuert. Der Kapitalmarkt bestimmt dann erst bei gegebenem Einkommen die Allokation in Konsum und Investition bzw. Ersparnis. Bei dem Auftreten von Nettoinvestitionen hat sich die Ökonomie in der nächsten Periode geändert, da nun mit einem höheren Kapitalstock produziert werden kann. Betrachtet man das präsentierte neoklassische reale Makromodell im Zusammenhang, dann sind die Angebotsfunktion an Arbeit und die Sparfunktion der Haushalte verhaltenstheoretisch fundiert, denn auch andere Verläufe sind nach dem neoklassischen Modell möglich. Die Nachfrage nach Arbeit und die Investitionsnachfrage beruhen dagegen auf scheinbar „objektiven“ geltende Gesetzmäßigkeiten, die
Neoklassische Makroökonomie
215
auf technologischen und damit natürlichen Zusammenhängen zu basieren scheinen. Aber dieser Schein trügt, wie in den nächsten Unterabschnitten noch zu zeigen sein wird. Die Analyse von technischem Fortschritt und einer Erhöhung des Kapitalstocks Technischer Fortschritt erlaubt es, dass mit der verbesserten Technik mit jedem gegebenen Kapitalund Arbeitseinsatz im Vergleich zur alten Technologie mehr produziert werden kann. Bleibt der Kapitaleinsatz unverändert, dann verschiebt sich aufgrund der besseren Technik die Grenzertragsfunktion der Arbeit und damit auch die Nachfragefunktion nach Arbeit nach rechts (vgl. Abbildung 3.2.7). Ausgehend vom alten Gleichgewicht steigt bei ansonsten unveränderten Bedingungen das gleichgewichtige Arbeitsvolumen von H2 auf H3.
Abbildung 3.2.7: Der Arbeitsmarkt bei technischem Fortschritt w P ⎛w⎞ AA = AA ⎜ ⎟ ⎝P⎠
⎛w⎞ ⎜ ⎟ ⎝ P ⎠2
⎛w⎞ A N2 = A N2 ⎜ ⎟ ⎝P⎠
⎛w⎞ ⎜ ⎟ ⎝ P ⎠1
⎛w⎞ A N1 = A N1 ⎜ ⎟ ⎝P⎠
H1
H2
H3
H
Gehen wir nun von der alten Technik mit der Arbeitsnachfrage AN1 aus und unterstellen den Reallohn⎛w⎞ ⎟ . In diesem Fall ergibt sich eine Arbeitslosigkeit in Höhe von H3 minus H1. Wechselt die ⎝ P ⎠2
satz ⎜
Volkswirtschaft zur neuen Technik und bleiben die Reallöhne unverändert, dann steigt die Beschäftigung auf H3. Eine Situation der Arbeitslosigkeit ist einer Situation der Vollbeschäftigung gewichen. Die Beschäftigungserhöhung ergibt sich daraus, dass Produktivitätserhöhungen nicht in eine Erhöhung der Reallohnsätze umgesetzt wurde. Ausgehend von einer Unterbeschäftigungssituation mit Reallohnsätzen über dem Gleichgewichtsniveau kann eine Produktivitätserhöhung aufgrund verbesserter Technologie in erhöhte Reallohnsätze und/oder erhöhte Beschäftigung umgesetzt werden. Genau dieses Argument ist in der wirtschaftspolitischen Auseinandersetzung äußerst populär. Bei starren Reallöhnsätzen und unfreiwilliger Arbeitslosigkeit bieten sich nach diesem Ansatz als wirtschaftspolitische Strategie eine Erhöhung der Reallohnsätze an, die unter der Produktivitätserhöhung aufgrund technologischer Entwicklungen liegt und damit die Arbeitslosigkeit reduziert.51 51
So beispielsweise Gesamtmetallpräsident Werner Stumpfe. Bei der Frage, ob er bei der Tarifrunde 1999 bei einem Spielraum von vier Prozent bleibe, antwortete er: „Wenn man darunter ein Gesamtvolumen versteht, das nicht nur für die Erhöhung der Einkommen, sondern auch für die Schaffung und Sicherung von Arbeits- und Ausbildungsplätzen zur Verfügung steht, dann sollte die erwartete Produktivität unserer Branche der Maßstab sein“ (Tagesspiegel vom. 11. Januar 1999).
216
Neoklassische Makroökonomie
Ähnliche Effekte treten auf, wenn sich bei ansonsten unveränderten Bedingungen der volkswirtschaftliche Kapitalbestand erhöht. Denn auch in diesem Fall verschiebt sich die Nachfragefunktion der Arbeit nach rechts. Daraus wird auch deutlich, dass hohe Ersparnisse in der neoklassischen Makroökonomie als positiv angesehen werden, da sie den Kapitalstock erhöhen und die Nachfragefunktion der Arbeit nach rechts verschieben. Wirtschaftspolitisch empfiehlt die neoklassische reale Makroökonomie bei unfreiwilliger Arbeitslosigkeit zur Erhöhung der Beschäftigung somit eine Senkung der Reallöhne und/oder technologischer Fortschritts und/oder hohe Ersparnisse. Die neoklassische Grenzproduktivitätstheorie der Verteilung Es bleibt noch zu klären, wie die Einkommensverteilung in der neoklassischen realen Makroökonomie erklärt wird. Betrachten wir dazu die folgende Verteilungsgleichung, die definitionsgemäß immer gilt (vgl. dazu auch Kapitel 4.1 über die volkswirtschaftliche Gesamtrechnung): NIPr·P = w·H + i·P·K Die wertmäßige Neuwertschöpfung (NIPr ·P) muss zwingend der Lohnsumme (w·H) plus der Zinssumme bzw. Profitsumme (i·P·K) entsprechen. Wenn die beiden Seiten der Gleichung durch das Preisniveau geteilt werden, ergibt sich: ⎛w ⎞ NIPr = ⎜ ⎟ ·H + i·K ⎝P⎠
Unterstellen wir, es würde in der Ökonomie nur Weizen produziert und die Neuwertschöpfung wäre 100 kg Weizen, die mit 50 kg Saatgut und 90 Arbeitsstunden produziert werden. Bei einem Reallohn⎛w ⎞ ⎛w ⎞ satz von ⎜ ⎟ = 1 kg Weizen würden die Lohnsumme ⎜ ⎟ ⋅ H = 1kg pro Arbeiter · 90 Arbeiter = 90 kg ⎝P⎠ ⎝P⎠ Weizen betragen. Unterstellen wir einen Zinssatz von 20%, dann wäre die Zins- bzw. Profitsumme i·K =0,2·50kg = 10 kg. Die Lohnsumme und die Zinssumme würden der Neuwertschöpfung entsprechen. Jedes andere Ergebnis wäre ökonomisch inkonsistent. Die zentrale Aussage der neoklassischen Verteilungstheorie besteht darin, dass die Entlohnung der Produktionsfaktoren Kapital und Arbeit unmittelbar durch den physischen Grenzertrag der jeweiligen Faktoren bestimmt wird, wobei bekanntlich aufgrund der Gültigkeit des Ertragsgesetzes bei steigendem Einsatz eines Faktors der Grenzertrag sinkt. Die neoklassische Makroökonomie liefert somit eine Erklärung der Einkommensverteilung, die treffend als Grenzproduktivitätstheorie der Verteilung in die Theoriegeschichte eingegangen ist. Hören wir John Bates Clark, einer der Väter der Grenzproduktivitätstheorie, über die Entlohnung des Kapitals: „Die Kraft des Kapitals, das Produkt hervorzubringen, ist demnach die Grundlage des Zinssatzes“ (Hofmann 1964, S. 211). Für die Entlohnung des Faktors Arbeit können selbstverständlich analoge Beziehungen aufgestellt werden. Auch der Faktor Arbeit wird nach seinem physischen Grenzprodukt entlohnt. Hören wir nochmals Clark, der diese quasi naturgesetzlich argumentierende Verteilungstheorie, die zudem einen gesellschaftlich harmonischen Charakter der Verteilung betont, am deutlichsten aussprach: „ Eine soziale Klasse erhält nach einem Naturgesetz, das, was sie zum Gesamtprodukt der Industrie beiträgt“ (Robinson 1974, S. 40). 52 In den obigen Ausführungen über die reale neoklassische Makroökonomie haben wir die Einkommensverteilung schon implizit gelöst. Im Gleichgewicht des Arbeitsmarktes muss das Grenzprodukt
52
Es sei daran erinnert, dass Clark bei der Einkommensverteilung das Prinzip der Grundrente auf alle Produktionsfaktoren übertrug und zu diesem Zweck eine unendliche Lebensdauer von Kapitalgütern unterstellte. Das obige Zitat stammt aus seinem im Jahre 1891 veröffentlichen Aufsatz „Distribution as Determined by the Law of Rent“, der genau diesen Sachverhalt zum Ausdruck bringt.
Neoklassische Makroökonomie
217
der Arbeit dem Reallohnsatz entsprechen und der Zinssatz dem Grenzprodukt des Kapitals, was die beiden folgenden schon abgeleiteten Gleichungen zum Ausdruck bringen.
w P
(3.2.2)
GPH =
(3.2.3)
GPK = i
In der obigen Analyse werden im Modell alle Gleichgewichtsvariablen, die zur Erklärung der Einkommensverteilung notwendig sind, bestimmt. Es gilt somit als Verteilungsgleichung
⎛ w ⎞* NIPr* = ⎜ ⎟ ⋅ H* + i* ⋅ K* , ⎝P⎠ wobei die Sterne Gleichgewichtswerte ausdrücken. Zwei Punkte müssen an dieser Stelle erwähnt werden. Die Grenzproduktivitätstheorie der Verteilung ist nur bei einer substitutionalen Produktionsfunktion sinnvoll. Bei einer limitationalen Produktionsfunktion stehen die Einsatzfaktoren in einem festen Verhältnis zueinander, so dass Grenzproduktivitäten nicht definiert werden können. Dieser Punkt ist selbstverständlich und wenig dramatisch, da von gewissen Substitutionsmöglichkeiten in der Realität ausgegangen werden kann. Der zweite Punkt ist kritisch. Die Grenzproduktivitätstheorie der Verteilung ist zur Annahme konstanter Skalenerträge gezwungen, da ansonsten die abgeleitete Verteilung die Wertschöpfung nicht „ausschöpft“. Werden steigende Skalenerträge angenommen, dann wird nach den Regeln der Grenzproduktivitätstheorie mehr an Einkommen verteilt als produziert wird. Dies ist ein offener Widerspruch, denn es kann nicht mehr verteilt werden als produziert wurde. Wir können uns das Problem steigender Skalenerträge leicht verdeutlichen. Steigen die Grenzprodukte von Arbeit und Kapital an und werden Zinssatz und Lohn nach der letzten eingesetzten Einheit entlohnt, dann steht für die davor eingesetzten Arbeits- und Kapitaleinheiten offensichtlich nicht genug Einkommen zur Verfügung, da diese ja mit geringerer Produktivität ausgestattet waren. Aber auch fallende Skalenerträge müssen trotz der Gültigkeit des Ertragsgesetzes ausgeschlossen werden. Denn in diesem Fall wird weniger verteilt als es der Grenzproduktivitätsentlohnung entspricht. Es entsteht dann das Problem, welchem Produktionsfaktor das überschüssige Einkommen zugeschlagen werden soll. Es muss schon sehr verwundern, welche höchst spezifische Annahmen die neoklassische reale Makroökonomie machen muss, um sich nicht in unauflösliche Widersprüche zu verstricken. Kernpunkte Die Grundlage des neoklassischen Makromodells der Realsphäre ist die makroökonomische Produktionsfunktion mit den Inputfaktoren volkswirtschaftliche Arbeit und volkswirtschaftliche Kapitalgüter. Die Nachfrage auf dem Arbeitsmarkt seitens der Unternehmen steigt mit sinkendem Reallohnsatz aufgrund der fallenden Grenzproduktkurve der Arbeit. Das Angebot an Arbeit seitens der Haushalte wird als mit dem Reallohnsatz steigend unterstellt. Ein flexibler Reallohnsatz schafft auf dem Arbeitsmarkt ein Gleichgewicht mit Vollbeschäftigung. Ist das Arbeitsvolumen gegeben kann mit Hilfe der makroökonomischen Produktionsfunktion das kurzfristige Produktionsvolumen angebotsseitig bestimmt werden. Die volkswirtschaftliche Nachfrage nach Gütern spielt keine Rolle, da unterstellt wird, dass jedes Angebot sich seine Nachfrage schafft (Saysches Gesetz). Auf dem Kapitalmarkt treffen die Investitionsnachfrage und das Sparangebot aufeinander. Beide sind vom Zinssatz abhängig, so dass der Kapitalmarkt bei flexiblen Zinssätzen zum Gleichgewicht findet. Die Investitionsnachfrage steigt bei sinkenden Zinssätzen, was das fallende Grenzprodukt
218
Neoklassische Makroökonomie
der Arbeit bei steigendem Kapitalbestand reflektiert. Die Ersparnisse steigen üblicherweise bei steigendem Zinssatz aufgrund der Nutzenmaximierung der Haushalte. Die Grenzproduktivitätstheorie der Verteilung sagt aus, dass Arbeit und Kapital jeweils nach ihrer Grenzproduktivität entlohnt werden. Das Modell setzt konstante Skalenerträge voraus. Das Modell kommt gänzlich ohne Geld aus, das als neutraler Schleier über der Realsphäre gesehen wird. 3.2.2 Die neoklassische langfristige Wachstumstheorie Fragestellung Was bestimmt die langfristige Wachstumsrate im neoklassischen Paradigma? Welche Rolle spielen dabei Ersparnisse, Bevölkerungswachstum und technologischer Fortschritt? Die Grundlage der neoklassischen Wachstumstheorie beruht auf einem Modell, dass von Robert Solow (1956 and 1957) entwickelt wurde. Alle späteren Varianten der neoklassischen Wachstumstheorie basieren auf diesem Modell. Wir werden uns in dieser Einführung im Wesentlichen auf die Grundstrukturen dieses Modells beschränken. Das Modell beruht auf der uns schon bekannten makroökonomischen Produktionsfunktion NIPr = NIPr (H,K) bzw. in der konkreten Form der Cobb-Dougals-Funktion NIPr = Ha1Ka2 (vgl. Kapitel 3.2.1.). Unterstellt sind zudem konstante Skalenerträge und damit die Gültigkeit des Ertragsgesetzes. Auch unterstellen wir, dass die Bevölkerung identisch ist mit der Anzahl der Arbeiter und zunächst konstant ist. Auch die Technologie wird als gegeben vorausgesetzt. Zwei Veränderungen sind bei der Produktionsfunktion jedoch notwendig, um die neoklassische Wachstumstheorie einfach darstellen zu können. Erstens wird die Produktionsfunktion als Pro-Kopf-Produktionsfunktion umformuliert. Wenn beide Seiten der Produktionsfunktion NIPr = NIPr (H,K) durch den Arbeitseinsatz H dividiert werden, ergibt ⎛K ⎞ NIPr K NIPr = f ⎜ ,1⎟ . Wird der Output pro Kopf sich als Π definieren und die Kapitalintensität als ⎝H ⎠ H H H Ψ, dann ergibt sich als makroökonomische Pro-Kopf-Produktionsfunktion: (3.2.4)
Π= Π(Ψ)
Die Pro-Kopf-Produktionsfunktion hat die gleichen Eigenschaften wie die gewöhnliche makroökonomische Produktionsfunktion, erleichtert uns jedoch die Argumentation. Ableitung der makroökonomischen Pro-Kopf-Produktionsfunktion am Beispiel der CobbDouglas-Produktionsfunktion Benutzen wir zur Illustration die uns schon geläufige Cobb-Douglas-Produktionsfunktion NIPr = Ha1Ka2 . Um zur Pro-Kopf-Produktionsfunktion zu kommen, müssen beide Seiten der Funktion durch H dividiert werden. Es ergibt sich: Π=
(Ha1Ka2) H
und
Π = Ka2Ha1 - 1 a2
⎛ K⎞ Da bei den unterstellten konstanten Skalenerträgen a1 + a 2 = 1 gilt, folgen a1 - 1 = -a2 und Π = ⎜ ⎟ . ⎝ H⎠ Mit Ψ als Kapitalintensität erhalten wir die Pro-Kopf-Produktionsfunktion, die von der Kapitalintensität abhängig ist:
(3.2.5)
Π = Ψa2
Neoklassische Makroökonomie
219
Die zweite Veränderung besteht darin, dass eine Bruttoproduktionsfunktion, die in ihrem Output auch den Verschleiß des Kapitalstock einschließt, angenommen wird. Beträgt, um dies zu verdeutlichen, die produzierte Menge von Weizen 1100 kg und die eingesetzte Saatgutmenge 100 kg, dann ist die Bruttowertschöpfung 1100 kg und die Neuwertschöpfung 1000 kg Weizen (ein solches Modell mit Vorleistungsgütern wurde schon im Kapitel 2.8.3 präsentiert). Somit wird die Pro-Kopf-Produktionsfunktion in Gleichung (3.2.4) zu (3.2.6)
Π B = Π B (Ψ)
bzw.
⎛K⎞ Π B = Π B⎜ ⎟ ⎝H⎠
mit ΠB als Bruttooutput pro Arbeiter. Abbildung 3.2.8 zeigt eine solche Brutto-Pro-KopfProduktionsfunktion mit konstanten Skalenerträgen und fallenden Grenzerträgen. Sie hat die übliche Form. Abbildung 3.2.8: Das Solow-Wachstumsmodell ohne Bevölkerungswachstum und ohne technischen Fortschritt ΠB
ΠB= ΠB(Ψ) d = λ· Ψ SK= Sb · ΠB(Ψ) ΠB*
Ψ Ψ*
Kommen wir zum Kapitalverschleiß. Falls die Abschreibungsrate von Kapital, die den Verschleiß des Kapitalstocks zum Ausdruck bringt, durch λ bezeichnet wird, dann beträgt die Abschreibung pro Kopf (dA) (3.2.7)
dA = λ· Ψ
Beträgt die Abschreibungsrate λ beispielsweise 10 Prozent und ist die Kapitalintensität Ψ 100 Kapitaleinheiten pro Arbeiter, dann ist die Abschreibung pro Arbeiter dA = 0,1·(100 Kapitaleinheiten pro Arbeiter) = 10 Kapitaleinheiten pro Arbeiter. Die Gleichung dA = λ· Ψ ist eine Gerade und soll als ProKopf-Kapitalerhaltungslinie oder einfacher als Pro-Kopf-Abschreibungslinie bezeichnet werden (vgl. Abbildung 3.2.8). Es ist zu beachten, dass die Abschreibung pro Kopf mit der Kapitalintensität proportional steigt, während der Output pro Kopf mit der Kapitalintensität unterproportional ansteigt Wie schon in Kapitel 2.8.2 ausgeführt wurde, können Haushalte theoretisch ihren Kapitalstock aufessen, wenn sie mehr als die Neuwertschöpfung konsumieren. Dies würde jedoch die Reproduktionsfähigkeit der Ökonomie zerstören. In aller Regel wird aus diesem Grunde in einer Ökonomie der Kapi-
220
Neoklassische Makroökonomie
talstock nicht dauerhaft reduziert. Wir definieren beim hier präsentierten Wachstumsmodell die Sparentscheidung der Haushalte als Bruttosparrate (sb). Sie drückt aus, wie viel Prozent von der Bruttowerschöpfung (Neuwertschöpfung plus Verschleiß des Kapitalstocks) die Haushalte sparen. Mit SK als Brutto-Kopf-Ersparnis ergibt sich dann SK = sb·ΠB. Für die Bruttoproduktion pro Kopf ΠB können wir die Brutto-Pro-Kopf-Produktionsfunktion einsetzen und erhalten: (3.2.8)
SK = sb · ΠB(Ψ)
Diese Funktion ist ebenfalls in die Abbildung 3.2.8 eingetragen. Sie hat die gleiche Form wie die Produktionsfunktion, liegt jedoch zwingend unterhalb der Produktionsfunktion, da die als konstant erachtete Bruttosparrate einen Wert von unter eins annimmt. Aus Abbildung 3.2.8 ist ersichtlich, dass sich unter den gegebenen Bedingungen ein langfristiges Gleichgewicht bei der Kapitalintensität Ψ* und dem Brutto-Pro-Kopf-Output von Π* ergibt. Das Gleichgewicht ist erreicht, wenn sich die Abschreibungsfunktion pro Kopf mit der Bruttosparfunktion pro Kopf schneidet. Ist die Abschreibung pro Kopf beispielsweise dA=100 Produktionseinheiten die Bruttoersparnis pro Kopf ebenfalls SK=100 Produktionseinheiten, dann wird die gesamte Neuwertschöpfung pro Kopf konsumiert und der Kapitalstock pro Kopf bleibt gerade erhalten. Dies sei bei Ψ* der Fall. Ist SK größer als dA (links von Ψ*), dann wird der Kapitalstock pro Kopf aufgebaut und die Ökonomie wandert in Richtung Ψ*. Im umgekehrten Fall (links von Ψ*) wird mehr konsumiert als der Neuwertschöpfung entspricht. Der Kapitalstock pro Kopf wird somit abgebaut bis Ψ* erreicht ist. Damit kommen wir zum ersten zentralen Resultat der neoklassischen Wachstumstheorie, nämlich dem Ergebnis, das eine Ökonomie ohne Bevölkerungswachstum und ohne technischen Fortschritt eine langfristige Wachstumsrate von Null hat und einen stationären Zustand erreicht. Ein weiterer Punkt ist erwähnenswert. Steigt die Bruttosparquote an, dann verschieb sich die Bruttosparfunktion pro Kopf in der Abbildung 3.2.8 nach oben und schneidet die Abschreibungslinie rechts von Ψ*. Im neuen und höheren permanenten Pro-Kopf-Output und Pro-Kopf-Konsum ist die Wachstumsrate dann wieder Null. Eine steigende Bruttosparrate führt somit zu einem temporären Anstieg des Wachstums, während eine höhere Kapitalintensität mit einem höheren permanenten Produktions- und Konsumniveau pro Kopf verbunden ist. Führen wir nun Bevölkerungswachstum ein, wobei wir eine Wachstumsrate der Bevölkerung von n unterstellen. Bevölkerungswachstum verteilt einen gegebenen Kapitalstock auf mehr Köpfe und senkt damit den Kapitalstock pro Kopf. Die Wirkung ist mit einer Erhöhung der Abschreibungsrate zu vergleichen. Aus diesem Grunde wird Gleichung (3.2.7) nun zu: (3.2.9)
dA+B=(λ+n) · Ψ
Die Pro-Kopf-Kapitalerhaltungslinie dA+B steigt somit bei Bevölkerungswachstum stärker an als dA ohne einen Anstieg der Bevölkerung. Ansonsten ändert sich nichts, insbesondere ist nicht zu erwarten, dass die Ersparnisse pro Kopf ansteigen. Die Situation ist in Abbildung 3.2.9 dargestellt. Die nun steilere Pro-Kopf-Kapitalerhaltungslinie dA+B führt zu einer Senkung des Kapitalstocks pro Kopf von Ψ** zu Ψ* und einer Senkung des Produktionsniveaus pro Kopf von ΠB** auf Π B*. Der Pro-Kopf-Output und Pro-Kopf-Konsum stagniert bei Π B*, allerdings wächst der volkswirtschaftliche Output, da die Bevölkerung wächst.
Neoklassische Makroökonomie
221
Das Solow-Wachstumsmodell mit Bevölkerungswachstum und ohne technischen Fortschritt
Abbildung 3.2.9:
ΠB dA+B=(λ+n) · Ψ ΠB= Π B(Ψ) d = λ· Ψ SK= Sb · ΠB(Ψ) ΠB**
ΠB* Ψ Ψ*
Ψ**
Wir kommen nun zum letzten Punkt, den wir hier diskutieren wollen, zum technischen Fortschritt, welcher sich in einer steigenden Arbeitsproduktivität niederschlägt. Die Arbeitsproduktivität (π) ist definiert als Output pro Arbeiter. Eine steigende Arbeitsproduktivität impliziert somit, dass ein Arbeiter während einer gegebenen Arbeitszeit einen höheren Output liefern kann. Wird die Arbeitsproduktivität in die Produktionsfunktion integriert, wird Gleichung (3.2.6) zu (3.2.10)
⎛ K ⎞ ΠBE= Π BE ⎜ ⎟, ⎝π ⋅ H⎠
wobei nun Π BE den Bruttooutput pro Kopf und π·H als Effizienzeinheit definiert ist. Die Effizienzeinheit erhöht sich bei gleichem Arbeitseinsatz, wenn sich die Arbeitsproduktivität aufgrund techni⎛ K ⎞ schen Fortschritts erhöht. Bei ⎜ ⎟ wird der Kapitalstock nun nicht mehr auf den Arbeitseinsatz ⎝π ⋅ H⎠ bezogen, sondern auf die Effizienzeinheit. In Abbildung 3.2.10 sind nun alle Größen auf die Effizienzeinheit bezogen. Geändert hat sich die Pro-Kopf-Kapitalerhaltungslinie. Sie wird nun zu dA+B+F = ⎛ K ⎞ (λ+n+g) · ⎜ ⎟ , denn wir unterstellen wir eine jährliche Zunahme der Effizienzeinheit aufgrund ⎝π ⋅ H⎠ von technischem Fortschritt von g. Der Kapitalstock wird nun jährlich auf mehr Effizienzeinheiten bezogen, ähnlich wie dies auch bei der Zunahme der Bevölkerung ist. Auch in diesem Fall gibt es ein langfristiges Gleichgewicht, das in Abbildung 3.2.10 beim Output pro Effizienzeinheit von ΠBE* und ⎛ K ⎞* beim Kapitaleinsatz pro Effizienzeinheit von ⎜ ⎟ liegt. ⎝π ⋅ H⎠
222
Neoklassische Makroökonomie
Abbildung 3.2.10: Das Solow-Wachstumsmodell mit technischem Fortschritt und Bevölkerungswachstum ΠBE
⎛ K ⎞ ⎟ ⎝π ⋅ H⎠
ΠBE=ΠBE ⎜
⎛ K ⎞ ⎟ ⎝π ⋅ H⎠
dA+B+F= (λ+n+g)· ⎜
⎛ K ⎞ SKE= sbE · ΠBE ⎜ ⎟ ⎝π ⋅ H⎠
ΠB*
⎛ K ⎞* ⎜ ⎟ ⎝ π⋅H ⎠
⎛ K ⎞ ⎟ ⎜ ⎝π ⋅ H⎠
Beim Gleichgewicht bezogen auf die Effizienzeinheit besteht jedoch ein großer Unterschied zu den Gleichgewichten davor. Denn bei diesem Gleichgewicht wächst die Ökonomie permanent entsprechend der Wachstumsrate der Produktivität. Dies kann folgendermaßen verdeutlicht werden. Wenn der Bruttooutput pro Kopf durch
YB symbolisiert wird, dann gilt: H
YB ⎛ YB ⎞ =⎜ ⎟ ⋅ π = Π BE ⋅ π H ⎝ H⋅ π ⎠
Mathematisch gilt, dass die Wachstumsrate eines Produktes gleicht die Summe der Wachstumsraten der Faktoren ist.53 Somit entspricht die Wachstumsrate des Bruttoproduktes pro Arbeiter der Wachstumsrate pro Effizienzeinheit ΠBE plus der Wachstumsrate von π. Aus Abbildung 3.2.10 ist ersichtlich, dass die Wachstumsrate von Π BE Null ist. Allerdings wächst π definitionsgemäß mit der Rate g. Dies bedeutet, dass die Ökonomie in der Konstellation der Abbildung 3.2.10 bei Bevölkerungswachstum n ein permanentes Pro-Kopf-Wachstum von g aufweist. Ohne Bevölkerungswachstum wäre die permanente Wachstumsrate pro Kopf natürlich höher. Das neoklassische Wachstumsmodell sagt uns somit, dass langfristig Wachstum pro Kopf nur durch technologischen Fortschritt möglich ist. Eine steigende Sparquote führt nicht zu permanentem Wachstum pro Kopf, da die Grenzerträge des Kapitals abnehmen und nach einiger Zeit sich wieder ein Gleichgewicht ohne Wachstum pro Kopf ergibt. Bevölkerungswachstum reduziert das Wachstum pro Kopf. Diese Ergebnisse werden rein angebotstheoretisch abgeleitet, die Nachfrage nach Gütern spielt keine Rolle. Geld spielt keinerlei Rolle ebensowenig wie Institutionen und Erwartungen von Unternehmen und Haushalten. Faktisch verschwinden die Menschen hinter der Mechanik des Modells. Die neoklassische Wachstumstheorie kann unseres Erachtens als Gedankenexperiment für potentielle Entwicklungsszenarien Erkenntnisse liefern, beispielsweise, dass langfristig Pro-Kopf-Wachstum nur bei technologischem Fortschritt möglich ist, sie ist jedoch nicht in der Lage einen tatsächlichen Wachstumsprozess von Ökonomien auch nur ansatzweise zu beschreiben. Zudem unterliegt sie wie die neo53
Vgl. Westphal (1994), Anhang A: Regeln für das Rechnen mit Wachstumsraten. Vgl. auch Gärtner (2009, S. 249ff.).
Neoklassische Makroökonomie
223
klassische reale Makroökonomie insgesamt den Problemen einer makroökonomischen Produktionsfunktion, die als Konstrukt nicht aufrechtzuerhalten ist. Im Gefolge des Wachstumsmodells von Robert Solow wurde das Modell weiter ausdifferenziert. So wurde die Rolle der Qualifikation der Arbeitskräfte als eigenständiger Faktor in die makroökonomische Produktionsfunktion eingebaut. Eine eigenständige Entwicklung hat die so genannte Neue Wachstumstheorie angestoßen. In diesem Ansatz wurde kritisiert, dass der technologische Fortschritt als exogener Faktor in das Modell eingeführt wurde. Die Neue Wachstumstheorie betont dagegen, dass technologischer Fortschritt entscheidend durch die Forschungspolitik und Qualifikationsförderung von Arbeitskräften beeinflusst wird. Sowohl bei der Forschung als auch bei Ausbildungsinvestitionen werden positive externe Effekte angenommen (vgl. Kapitel 2.11). Da bei positiven externen Effekten der Markt nicht genügend der entsprechenden Güter anbietet, ist der Staat gut beraten, Forschungs- und Ausbildungsinvestitionen staatlich zu fördern. Den Argumenten der Neuen Wachstumstheorie bezüglich Forschung und Ausbildung kann zugestimmt werden. Jedoch bleiben die oben genannten Mängel der neoklassischen Wachstumstheorie auch bei der Neuen Wachstumstheorie erhalten.54 Kernpunkte Nur technologischer Fortschritt ermöglicht anhaltendes Pro-Kopf-Wachstum. Ohne technologischen Fortschritt ergibt sich ein langfristig gleichgewichtiges Niveau des Pro-KopfOutputs bzw. Pro-Kopf-Konsums. Eine steigende Sparquote erhöht für eine bestimmte Zeitspanne die Wachstumsrate des Pro-KopfOutputs, jedoch pendelt sich die Ökonomie wieder auf ein Null-Pro-Kopf-Wachstum ein, allerdings nun mit einem höheren Pro-Kopf-Einkommen. Bevölkerungswachstum senkt das langfristige Pro-Kopf-Einkommen und Pro-Kopf-Konsumniveau. Die Neue Wachstumstheorie betont die Notwendigkeit staatlicher Unterstützung von Forschung und von Bildungsinvestitionen. Die Modelle sind ausschließlich angebotsorientiert, Geld und Güternachfrage oder Erwartungen von Wirtschaftssubjekten haben in dem Modell keinen Platz.
54
Zu den neueren Entwicklungen vgl. Lucas (1988), Mankiw/Romer/Weil (1992) sowie Romer (1992) und (1994).
224
Neoklassische Makroökonomie
3.2.3 Parabeln der neoklassischen Kapitaltheorie Fragestellung Was sind die produktionstheoretischen Schlussfolgerungen aus der neoklassischen realen Makroökonomie? Was sind die vier zentralen „Parabeln“ der neoklassischen Kapitaltheorie? Paul Samuelson (1962 und 1966), einer der bekanntesten und einflussreichsten US-amerikanischen Ökonomen der beiden Jahrzehnte nach dem Zweiten Weltkrieg, definierte vier zentrale „Parabeln“ der neoklassischen realen Makroökonomie, die sich um die Rolle von „Kapital“ im neoklassischen Modell drehen. Die frühen Neoklassiker, die in den 1870er Jahren das neoklassische Paradigma begründeten, vertraten diese Parabeln noch nicht. Erst unter der Führung von John Bates Clark (1847 - 1938) bildeten sich nach 1890 die vier Parabeln heraus und wurden danach zur dominierenden neoklassischen Auffassung, nicht zuletzt auf wirtschaftspolitischem Gebiet. Die Parabeln wurden in den zwanziger und dreißiger Jahren nach dem I. Weltkrieg im Rahmen des Entstehens des keynesianischen Paradigmas heftig kritisiert. Wichtiger in diesem Kapitel ist jedoch, dass sich nach dem II. Weltkrieg eine äußerst interessante Debatte entwickelte, in der die logische Konsistenz des neoklassischen Makromodells untersucht wurde und schließlich zur Widerlegung dieses Theorieentwurfs führte. Das Verständnis der vier Parabeln ist aus zwei Gründen wichtig. Erstens werden sie noch heute in zahlreichen, vor allem wirtschaftspolitisch orientierten Debatten vertreten, zweitens kann man die Kritik an den Parabeln nicht verstehen, wenn man sie selbst nicht kennt. Die erste Parabel In den Kapiteln 3.2.1 und 3.2.2 wurde ausgeführt, dass Reallohnsatz und der Zinssatz durch die jeweiligen Grenzproduktivitäten bestimmt werden. Die Grenzproduktivitätstheorie der Verteilung zeigt zudem, dass die Entlohnung des Faktors Arbeit und die des Faktors Kapital in einem genau spezifizierten Verhältnis zueinander stehen muss, so dass die Summe der Lohnsumme plus der Zinssumme der Neuwertschöpfung entspricht. Es gilt bei gegebenem Arbeitseinsatz: je mehr Kapital eingesetzt wird, umso geringer wird sein Grenzertrag, weil annahmegemäß die Grenzproduktivität eines Faktors sinkt, wenn seine Einsatzmenge bei Konstanz anderer Inputfaktoren erhöht wird; aus der Grenzproduktivitätstheorie der Verteilung folgt, dass die im Zinssatz ausgedrückte Entlohnung des Faktors Kapital ebenfalls sinkt, wenn seine Einsatzmenge wächst. Bei gegebenem Arbeitseinsatz ist somit einem niedrigen Kapitalbestand eindeutig ein hoher Zinssatz und einem hohen Kapitalbestand ein niedriger Zinssatz zugeordnet. Insgesamt ergibt sich, dass ceteris paribus mit steigender Kapitalintensität (Kapitaleinsatz pro Arbeiter) der Zinssatz monoton sinkt. Dieser Zusammenhang soll als erste Parabel der neoklassischen Makroökonomie bezeichnet werden. Die zweite Parabel Die zweite Parabel postuliert einen spezifischen Zusammenhang zwischen Reallohnsatz und Zinssatz. Die Ableitung dieser Beziehung ist notwendig, da die Lohn-Zinssatz-Kurve in den theoretischen Debatten um die reale neoklassische Makroökonomie eine herausragende Stellung einnimmt. Dazu leiten wir zunächst die Beziehung zwischen Zinssatz und Kapitalintensität genauer ab. Im Kapitel 3.2.2 wurde die Pro-Kopf-Produktionsfunktion (3.2.11)
Π= Π(Ψ)
Neoklassische Makroökonomie
225
mit Π als Pro-Kopf-Output und Ψ als Kapitalintensität abgeleitet. Die Pro-Kopf-Produktionsfunktion entsprechend der neoklassischen Annahmen ist in Abbildung 3.2.11 abgetragen. Mit steigender Kapitalintensität nehmen die Ertragszuwächse ab, was sich unmittelbar aus dem Ertragsgesetz ergibt. Denn wird bei gegebenem Arbeitseinsatz mehr Kapital eingesetzte – die Kapitalintensität steigt – dann steigt der Output unterproportional. Oder: Da bei steigendem Kapitaleinsatz das Verhältnis zwischen Kapital und Arbeit technologisch immer ungünstiger wird, muss der Ertrag pro Kopf immer langsamer ansteigen.
Abbildung 3.2.11: Die Pro-Kopf-Produktionsfunktion Π
Π=Ψa2
0
Ψ
Die erste Ableitung der Pro-Kopf-Produktionsfunktion nach Ψ gibt die Entwicklung der Grenzerträge von Kapital bei Veränderungen von Ψ an. Denn die erste Ableitung der Produktionsfunktion NIPr = NIPr(H, K) nach dem Faktor Kapital (eine Erhöhung von K bei Konstanz von H) ist identisch mit einer marginalen Erhöhung der Kapitalintensität. Die Grenzertragsfunktion bei der in Abbildung 3.2.11 angegebenen Pro-Kopf-Produktionsfunktion sinkt offensichtlich mit steigender Kapitalintensität. In der Gleichung (3.2.11) wurde gezeigt, dass das Grenzprodukt des Kapitals dem Zinssatz entsprechen muss (GPK = i). Daraus ergibt sich unmittelbar die in der Abbildung 3.2.12 dargestellte Beziehung zwischen Kapitalintensität und Zinssatz, wobei die Kurve der Grenzertragsfunktion der Produktionsfunktion entspricht. Nach neoklassischer Logik ist dieser Zusammenhang plausibel. Denn steigt die Kapitalintensität, dann sinkt das Grenzprodukt des Kapitals und darum muss auch der Zinssatz sinken.
226
Neoklassische Makroökonomie
Abbildung: 3.2.12 Die Beziehung zwischen Kapitalintensität und Zinssatz i
Ψ
Formale Ableitung der Beziehung zwischen Kapitalintensität und Grenzertrag des Kapitals Im Kapitel 3.2.2 wurde in der Gleichung (3.2.12) bei einer Cobb-Douglas-Produktionsfunktion mit konstanten Skalenerträgen folgende Pro-Kopf-Produktionsfunktion abgeleitet (3.2.12)
Π = Ψa2
Die Grenzertragsfunktion dieser Pro-Kopf-Produktionsfunktion ist: dD
dØ
= a 2Ø a 2−1
Es kann gezeigt werden, dass die partielle Ableitung erster Ordnung nach dem Kapitaleinsatz K bei einer Cobb-Douglas-Produktionsfunktion der Form NIPr = Ha1Ka2
zum gleichen Ergebnis führt. Denn es gilt: ∂NIPr = a2Ha1Ka2 − 1 ∂K
Bei a1 + a 2 = 1 ist a1 = 1- a2 . Somit ergibt sich: ∂NIPr = a2H1 - a2 Ka2 − 1 ∂K
∂NIPr H Ka2 = a2 ⋅ ∂K Ha2 K ∂NIPr H Ka 2 = a2 ⋅ K Ha 2 ∂K
∂NIPr 1 ⎛ K ⎞a 2 = a2 ⋅ ⎜ ⎟ ψ ⎝H⎠ ∂K
Neoklassische Makroökonomie
227
∂NIPr = a2 ψ −1 ψ a 2 ∂K ∂NIPr = a2 Ψa2 − 1 ∂K
Dies entspricht der ersten Ableitung der Pro-Kopf-Produktionsfunktion. Wir sehen, dass die Pro-KopfProduktionsfunktion und die Produktionsfunktion zu gleichen Ergebnissen führen. Es gilt somit dΠ ∂NIPr = =i dΨ ∂K Wir wollen nun die Beziehung zwischen Kapitalintensität und Reallohnsatz ableiten, wobei selbstverständlich konstante Skalenerträge unterstellt sind. Steigt der Kapitaleinsatz bei gleicher eingesetzter Arbeitsmenge, dann wird Arbeit in Relation zu Kapital immer knapper. Die Folge ist, dass das Grenzprodukt des Faktors Arbeit steigt, da der einzelne Arbeiter einen wachsenden Bestand an Kapitalgütern zur Verfügung hat; folglich wird die Arbeit produktiver. Da das Grenzprodukt der Arbeit steigt, wird sich auch die Entlohnung dieses Faktors erhöhen. Wir können wiederum die Pro-KopfProduktionsfunktion benutzen, um den Zusammenhang zwischen Kapitalintensität und der Pro-KopfEntlohnung – dem Reallohnsatz – abzuleiten. In Abbildung 3.2.13 gibt die Tangente am Punkt A die Steigung der Pro-Kopf-Produktionsfunktion bei der Kapitalintensität Ψ 0 an. Die Funktionsgleichung der Tangente durch den Punkt A ist folgendermaßen bestimmt: Π = C+
dΠ 0 ⋅Ψ dΨ 0
Diese Tangente schneidet die Ordinate bei C. Ihre Steigung entspricht dem Grenzertrag des Faktors dΠ 0 Kapital bei der Kapitalintensität Ψ 0 (vgl. oben). Somit kann in der Tangentengleichung durch i0 dΨ 0 ersetzt werden, und wir erhalten:
Π = C + i0 ⋅ Ψ Verschiebt man in der Abbildung 3.2.13 die Tangente Π = C + i0 ⋅ Ψ in den Ursprung und schreibt die Kapitalintensität in expliziter Form, erhält man folgende Funktionsgleichung für die Tangentengerade, die in gestrichelter Linie angegeben ist:
Π = i0 ⋅ Ψ
oder auch
Π = i0
K H
228
Neoklassische Makroökonomie
Abbildung 3.2.13: Die Relation zwischen Zinssatz und Lohnsatz Π
Π = C + i0 ⋅ Ψ
A
Π0
Π = Ψa2 K Π = i0 H
Zins pro Wertschöpfung Kopf
pro Kopf
C
Lohn pro Kopf
B
0
Mit Hilfe der Funktion Π = i0
Ψ0
Ψ
K kann die Einkommensverteilung bei Ψ 0 untersucht werden. Die ZinsH
K bei Ψ 0 entspricht der Strecke Ψ 0B . Das Nettoinlandsprodukt pro Kopf wird H bei Ψ 0 durch die Strecke Ψ 0A ausgedrückt. Dann ergibt sich zwingend als Reallohnsatz die Strecke AB . Die Strecke AB , der Lohn pro Kopf, ist gleich der Strecke C0 . Da die Wertschöpfung pro Kopf bei Ψ 0 durch Π 0 ausgedrückt wird, muss der Zins pro Kopf Ψ 0B der Strecke Π 0C entsprechen. Damit lässt sich aus dem Schnittpunkt dieser Tangente mit der Ordinate unmittelbar die Verteilung der Wertschöpfung ablesen. summe pro Kopf i 0
Nun kann die Verteilung zwischen Zinssatz und Reallohnsatz bei Veränderungen der Kapitalintensität einfach bestimmt werden. Für jede beliebige Kapitalintensität können in einer Pro-KopfProduktionsfunktion der Lohnsatz und der Zins pro Kopf abgelesen werden, wenn die entsprechende Tangente an der Produktionsfunktion zur Ordinate verlängert wird. Eine steigende Kapitalintensität führt im Ergebnis zu steigenden Reallohnsätzen. Allerdings nehmen die Steigerungsraten bei steigender Kapitalintensität sukzessive ab – wie sich aus Abbildung 3.2.13 leicht ersehen lässt. Ökonomisch liegt dies daran, dass bei gegebenem Arbeitseinsatz bei steigendem Kapitalbestand zwar die Produktivität der Arbeit steigt, jedoch die Zunahme der Produktivitätserhöhung der Arbeit abnimmt. Der Zusammenhang zwischen Kapitalintensität und Reallohnsatz ist in Abbildung 3.2.14 dargestellt.
Neoklassische Makroökonomie
229
Abbildung 3.2.14: Die Beziehung zwischen Kapitalintensität und Reallohnsatz
w P
Reallohnsatz bei Kapitalintensität
steigender
Ψ
Aus den Abbildungen 3.2.12 und 3.2.14 lässt sich mit Hilfe eines Vier-Felder-Diagramms die für die neoklassische reale Makroökonomie fundamentale Lohn-Zinssatz-Kurve ableiten. In Abbildung 3.2.15 ist im Diagramm links oben die Beziehung zwischen Zinssatz und Kapitalintensität und im Diagramm links unten die Beziehung zwischen Reallohnsatz und Kapitalintensität dargestellt. Eine hohe Kapitalintensität hat einen hohen Reallohnsatz und eine geringe Zinsrate zur Folge. Das Diagramm rechts oben dient ausschließlich zur Spiegelung des Zinssatzes von der Ordinate zur Abszisse. Im Diagramm rechts unten ergibt sich dann die gesuchte Beziehung zwischen dem Reallohnsatz und dem Zinssatz.
Abbildung 3.2.15: Die Ableitung der Lohn-Zinssatz-Kurve i
i
45°
Ψ
w P
i
w P
Lohn-Zinssatz-Kurve
Ψ
i
230
Neoklassische Makroökonomie
Bei einer niedrigen Kapitalintensität ist der Reallohnsatz im Vergleich zum Zinssatz relativ niedrig. Steigt die Kapitalintensität, dann sinkt der Grenzertrag des Faktors Kapital bei gleichzeitiger relativer Verknappung des Arbeitsinputs, was den Grenzertrag der Arbeit steigen lässt. Bei einer unbegrenzt substitutionalen Produktionsfunktion mit konstanten Skalenerträgen verläuft somit die Lohn-ZinssatzKurve konvex zum Ursprung von links oben monoton nach rechts unten. Der eindeutige Zusammenhang zwischen steigender Kapitalintensität und fallendem Zinssatz sowie zwischen steigender Kapitalintensität und steigendem Reallohnsatz, der zu einer zum Ursprung konvexen Lohn-Zinssatz-Kurve führt, ist die zweite Parabel der neoklassischen realen Makroökonomie. Eine ganz oder teilweise zum Ursprung hin konkave Lohn-Zinssatz-Kurve wäre mit der neoklassischen realen Makroökonomie nicht vereinbar.
Die dritte Parabel Die dritte Parabel gibt die Beziehung zwischen dem Zinssatz und dem Kapitalkoeffizienten an. Als Kapitalkoeffizient (k) ist das Verhältnis des Kapitalbestandes zum Produktionsvolumen definiert:
k= Die Kapitalproduktivität (3.2.13)
k=
K NIPr NIPr ist durch den Kehrwert des Kapitalkoeffizienten definiert, so dass gilt: K
1 = k −1 NIPr K
Zwischen Zinssatz und Kapitalkoeffizient gibt es in der neoklassischen Makroökonomie ebenfalls eine eindeutige Beziehung. Zur Erklärung dieser Beziehung können wir erneut auf die Pro-KopfProduktionsfunktion zurückgreifen. In Abbildung 3.2.16 sind die Kapitalintensitäten Ψ 0 und Ψ1 eingetragen. Gehen wir von der Kapitalintensität Ψ 0 aus und ziehen eine Gerade (F0) , die aus dem Ursprung durch den Punkt A läuft, dann drückt die Steigung dieser Geraden die Kapitalproduktivität bei der unterstellten Kapitalintensität Ψ 0 aus. Dies lässt sich folgendermaßen zeigen: Die Gerade (F0) hat eine Steigung, die durch das Verhältnis der Strecke Ψ 0 A zur Strecke Ψ 00 ausgedrückt wird. Es gilt: ⎛ NIPr ⎞ ⎜ ⎟ Ψ 0A ⎝ H ⎠ 0 ⎛ NIPr ⎞ −1 = =⎜ ⎟ = k0 ⎝ K ⎠0 ⎛ K⎞ Ψ 00 ⎜ ⎟ ⎝ H⎠ 0
Neoklassische Makroökonomie
231
Abbildung 3.2.16: Kapitalproduktivität und Kapitalintensität NIPr H ⎛ NIPr ⎞ ⎜ ⎟ ⎝ H ⎠1
D=
F1
F0
Π = Ψa2
⎛ NIPr ⎞ ⎜ ⎟ ⎝ H ⎠0
A
0
Ψ0
Ψ1
Ψ
⎛ NIPr ⎞ Bei der Kapitalintensität Ψ 0 existiert eine Kapitalproduktivität ⎜ ⎟ bzw. ein Kapitalkoeffizient von ⎝ K ⎠0 k 0−1 . In Abbildung 3.2.16 ist leicht zu erkennen, dass die Kapitalproduktivität bei der Kapitalintensität Ψ1 im Vergleich zur Kapitalintensität Ψ 0 gefallen ist, da die Gerade F1 eine geringere Steigung hat als die Gerade F0 aufweist. Damit ist auch der Wert von k1-1 gefallen bzw. die Kapitalproduktivität gestiegen. Offensichtlich nimmt die Kapitalproduktivität mit zunehmender Kapitalintensität ab bzw. nimmt der Kapitalkoeffizient zu, was aufgrund der Annahme des Ertragsgesetzes nicht verwundern kann. Wird die Kapitalintensität in gleich bleibenden Größenordnungen erhöht, sinkt die Kapitalproduktivität bzw. steigt der Kapitalkoeffizient allerdings in immer kleineren Schritten, was unmittelbar aus Abbildung 3.2.16 zu erkennen ist. Produktionstechnisch liegt dies daran, dass bei gegebenem Arbeitseinsatz mit zunehmendem Kapitaleinsatz der Grenzertrag des Faktors Kapital immer kleiner wird. Die Beziehung zwischen Kapitalintensität und Kapitalproduktivität ist in Abbildung 3.2.17 im linken oberen Diagramm angegeben. Die Abbildung liefert uns auch die gesuchte Beziehung zwischen dem Zinssatz und dem Kapitalkoeffizienten. Die im linken unteren Diagramm abgetragene Beziehung zwischen dem Zinssatz und der Kapitalintensität ist aus Abbildung 3.2.12 bekannt. Das rechte obere Diagramm bewirkt ausschließlich eine Spiegelung des Werts des Kapitalkoeffizienten von der Ordinatenachse auf die Abszissenachse, so dass wir zur Beziehung zwischen Zinssatz und Kapitalkoeffizient im rechten unteren Diagramm kommen.
232
Neoklassische Makroökonomie
Abbildung 3.2.17: Die Ableitung der Beziehung zwischen Zinssatz und Kapitalkoeffizient k
k
45°
Ψ i
k i Zinssatz-KapitalkoeffizientKurve
Ψ
k
Die dritte Parabel sagt aus, dass mit sinkendem Zinssatz der Kapitalkoeffizient monoton steigt. Ökonomisch ist das Ergebnis plausibel, da mit sinkendem Grenzertrag des Faktors Kapital – mit sinkendem Zinssatz – die Kapitalproduktivität sinkt und damit der Kapitalkoeffizient steigt. Die vierte Parabel Die vierte Parabel postuliert, dass mit einem niedrigen Zinssatz ein permanent höheres Pro-KopfKonsumniveau verbunden ist. Diese Beziehung ist uns aus der neoklassischen Wachstumstheorie in Kapitel 3.2.2 bekannt. In Abbildung 3.2.8 wurde gezeigt, dass es bei einer spezifischen Sparfunktion einen langfristigen stationären Zustand bei einer spezifischen Kapitalintensität und einem spezifischen permanenten Pro-Kopf-Output und Pro-Kopf-Konsum kommt. Erhöht sich die Kapitalintensität aufgrund einer Verschiebung der Sparfunktion nach oben, dann ergibt sich eine höhere Kapitalintensität und einen höheren permanenten Pro-Kopf-Output bzw. Pro-Kopf-Konsum. Da wir wissen, dass mit steigender Kapitalintensität der Zinssatz sinkt, erschließt sich unmittelbar der Zusammenhang, dass mit sinkendem Zinssatz das permanente Pro-Kopf-Konsumniveau ansteigt. Die Abbildung 3.2.18 bringt C den Zusammenhang zum Ausdruck, wobei das permanente Pro-Kopf-Konsumniveau ausdrückt. H
Neoklassische Makroökonomie
233
Abbildung 3.2.18: Die Ableitung der Beziehung zwischen Pro-Kopf-Konsum und Zinssatz i
C H Die präsentierten Parabeln der neoklassischen realen Makroökonomie basieren nicht auf Verhaltensfunktionen, sondern sind – dem Verständnis ihrer Begründer nach – präferenztheoretisch abgeleitet. Sie basieren auf scheinbar „objektiven“ Gesetzen der Produktion. Dies bedeutet, dass sich die neoklassische reale Makroökonomie bei diesen vier Parabeln auf der gleichen analytischen Ebene sah wie die mikroökonomische Totalanalyse und vor diesem Hintergrund glaubte, ewig geltende Gesetze einer Marktwirtschaft ableiten zu können. Diesem hoch gesteckten Anspruch konnte sie freilich nur genügen, bis Piero Sraffa kam, sah und siegte. Er zeigte, dass die Parabeln der neoklassischen Kapitaltheorie nur unter äußerst spezifischen und dazu extrem unrealistischen Annahmen gelten. Kernpunkte Die neoklassische reale Makroökonomie leitet vier produktionstheoretische Parabeln ab, die für die Neoklassik von eminent wichtiger Bedeutung sind: Mit steigender Kapitalintensität sinkt der Zinssatz. Mit steigendem Zinssatz sinkt der Reallohnsatz, wobei in einem Reallohnsatz-Zinssatz-Diagramm eine zum Ursprung hin konvexe Kurve unterstellt wird. Mit sinkendem Zinssatz steigt der Kapitalkoeffizient an. Ein steigendes permanentes Konsumniveau ist mit einem fallenden Zinssatz verbunden. Diese Parabeln wurden in der Debatte um die neoklassische Kapitaltheorie einer Prüfung unterzogen und gelten nur unter extrem spezifischen Bedingungen.
234
Neoklassische Makroökonomie
3.3 Kritik der neoklassischen realen Makroökonomie 3.3.1 Dogmengeschichtliche Einordnung der Kritik Im letzten Abschnitt wurde bereits angedeutet, dass im Rahmen einer makroökonomischen Analyse die Erfassung des Produktionsfaktors Kapital in einer Produktionsfunktion problematisch ist. Wird vom irrealen Fall einer Welt mit einem Kapitalgut abgesehen, kann der Faktor Kapital nur über monetäre Größen aggregiert werden.55 Monetäre Größen haben allerdings in einer Produktionsfunktion, die die Beziehung zwischen physischen Inputs und physischen Outputs widerspiegelt, nichts zu suchen. Ist dies der Fall, dann macht eine makroökonomische Produktionsfunktion keinen Sinn. Dies stellte den Ausgangspunkt einer Fundamentalkritik dar. Die Grundzüge dieser Kritik sollen in diesem Kapitel nachgezeichnet werden. Allerdings benötigt diese Widerlegung einige Vorbereitungen, wie eine knappe Einführung in die Produktionspreistheorie von Piero Sraffa (1898-1983), die im folgenden Unterabschnitt erfolgt. Sraffa lieferte 1960 mit seinem Buch „Warenproduktion mittels Waren“ den entscheidenden Sargnagel für die reale neoklassische Makroökonomie. Der Untertitel dieses Werks heißt nicht ohne Grund „Einleitung zu einer Kritik der ökonomischen Theorie“, wenngleich seine Kritik der neoklassischen Kapitaltheorie nur implizit vorgetragen wurde. Freilich war Sraffa nicht der einzige Ökonom, der der realen neoklassischen Makroökonomie kritisch gegenüberstand. Zum Beispiel wurde die bedeutende englische Wissenschaftlerin Joan Robinson zum Unbehagen ihrer Kollegen nicht müde zu fragen, was denn die Größe K (K steht für Kapital) in der makroökonomischen Produktionsfunktion überhaupt sei. Zur Widerlegung der neoklassischen realen Makroökonomie hätte auch eine moderne Fassung des walrasianischen Totalmodells dienen können. Wir haben uns allerdings aus verschiedenen Gründen für eine Widerlegung auf der Basis des Preismodells von Sraffa entschieden. Erstens wurde dogmengeschichtlich der neoklassischen realen Makroökonomie über diesen Weg der Garaus bereitet. Zweitens erscheint uns die Widerlegung über Sraffa einfacher als über das Theoriegebäude in der Tradition von Léon Walras.56 Drittens liefert die Widerlegung der realen neoklassischen Makroökonomie ein Lehrstück über wissenschaftlichen Fortschritt in der Ökonomie. Viertens entwickelte Sraffa in seinem Buch ein alternatives Modell relativer Preise, wobei er an einen der bedeutendsten Vertreter der klassischen Nationalökonomie, an David Ricardo, anknüpfte. Die relativen Preise werden bei Sraffa ausschließlich über die Produktionskosten festgelegt und so dem walrasianischen Ansatz der Bestimmung relativer Preise entgegengesetzt. Aus diesem Grunde bezeichnen wir die Preise, die dieses Modell liefert, auch als Produktionspreise. Das Produktionspreismodell, das Sraffa erarbeitete, war nach seinem eigenen Verständnis eine konsistente Formulierung der Preistheorie von Ricardo und damit der klassischen Schule.57 Das Produktionspreismodell zeigt verschiedene Verbindungen zum keynesianischen Paradigma. Auf diese wird bei der Darstellung der keynesianischen Schule an geeigneter Stellen verwiesen. Das Produktionspreismodell von Sraffa lieferte – wie gesagt – dogmengeschichtlich die theoretische Basis, um die Widersprüche in der bis dahin unangefochtenen neoklassischen realen Makroökonomie aufzudecken. Dies geschah nach dem Zweiten Weltkrieg im Rahmen der so genannten Cambridge (USA)-Cambridge (England)-Debatte, an der sich Sraffa selbst allerdings nicht direkt beteiligte. Ökonomen aus Cambridge (England) griffen das Konzept der aggregierten Produktionsfunktion als Herz55
Neben der Aggregation in Geldeinheiten wurde versucht, Kapital in verkörperten Arbeitsstunden oder in der Zeitdauer des „Produktionsumwegs“, der durch Kapital entsteht, zu messen. Der erste Versuch entspricht der Logik des klassischen Paradigmas, der zweite dem der Österreichischen Schule mit Böhm-Bawerk als bekanntesten Vertreter dieser Kapitaltheorie. Auch der schwedische Ökonom Knut Wicksell versuchte über „Produktionsumwege“ die Aggregation von Kapital zu lösen. Beide Versuche führten in eine Sackgasse. Die Grundzüge des klassischen Paradigmas werden im Kapitel 6 dargestellt; auf die Österreichische Schule kann in diesem Buch aus Platzgründen nicht eingegangen werden. Vgl. dazu z. B. Lutz (1977). 56 Zur Widerlegung auf der Basis der walrasianischen Ökonomie vgl. Bliss (1975). 57 Im Anschluss an Sraffa entwickelte sich die so genannte neoricardianische Schule, die als Strang des klassischen Paradigmas aufgefasst werden kann.
Neoklassische Makroökonomie
235
stück der neoklassischen Makroökonomie an. Die amerikanischen Vertreter aus Cambridge (USA), allen voran Paul Samuelson, versuchten in dieser Debatte zu zeigen, dass die neoklassischen makroökonomischen Parabeln als brauchbare Vereinfachungen des neoklassischen Paradigmas dienen können. Zwar war ihnen schnell klar, dass die hergebrachte makroökonomische Produktionsfunktion aufgegeben werden musste, jedoch entwickelte Samuelson eine so genannte SurrogatProduktionsfunktion, die auf mikroökonomischer Ebene abgeleitet wurde und auf makroökonomischer Ebene die Eigenschaften der alten aggregierten Produktionsfunktion haben sollte. Dabei verwickelten sich die Neoklassiker aus Cambridge (USA) allerdings in unlösbare Widersprüche. Samuelson, der prominenteste Vertreter der amerikanischen Seite, war dann auch in einem die Diskussion abschließenden Beitrag gezwungen einzugestehen, dass die Parabeln der neoklassischen realen Makroökonomie widerlegt sind. „It shows that the simple tale told by Jevons, Boehm-Bawerk, Wicksell and other neoclassical writers (...) cannot be universally valid.“ „If all this causes headaches for those nostalgic for the old time parables of neoclassical writings, we must remind ourselves that scholars are not born to live an easy existence. We must respect, and appraise, the facts of life“ (Samuelson 1966, S. 250). Diese Worte von Samuelson zeigen ihn als seriösen Theoretiker, der unangenehme Wahrheiten nicht verschweigt, wie so viele neoklassische Ökonomen bis heute. Zerbrechen die Parabeln der neoklassischen realen Makroökonomie, dann ist die Neoklassik gezwungen, sich bei der Analyse der realen Seite ihrer Dichotomie ausschließlich auf mikroökonomischer Ebene im Rahmen des walrasianischen Gleichgewichtsmodells zu bewegen. Die Konsequenz ist, dass alle neoklassischen wirtschaftspolitischen Empfehlungen, die aus der Realsphäre abgeleitet werden – insbesondere das Postulat, wonach sinkende Reallohnsätze bei unfreiwilliger Arbeitslosigkeit die Beschäftigung erhöhen – ihre theoretische Basis verlieren. Befremdlich ist, dass sich dessen ungeachtet in der gängigen Lehrbuchliteratur und auch in wirtschaftspolitischen Ratschlägen die längst widerlegten neoklassischen Parabeln bis heute großer Beliebtheit erfreuen. Dies war für uns die Begründung, die neoklassische reale Makroökonomie als längst widerlegten Theoriestrang in das Lehrbuch aufzunehmen. Mit der Sraffaschen Ableitung der relativen Preise aus seinem Produktionspreismodell hat die walrasianische Mikroökonomie – im Unterschied zu den Konsequenzen für ihre makroökonomische Kapitaltheorie – dagegen keine Probleme. Die Preisbestimmung des Produktionspreismodells kann als Spezialfall im Rahmen des walrasianischen mikroökonomischen Gleichgewichtsmodells begriffen werden. Im folgenden Abschnitt werden die Grundzüge des Produktionspreismodells von Sraffa dargestellt. Danach zeichnen wir die Kritik an der neoklassischen realen Makroökonomie nach. 3.3.2 Grundzüge des Produktionspreismodells von Sraffa: die klassische Theorie relativer Preise Fragestellung Was ist ein Produktionspreismodell? Wie werden in einem Produktionspreismodell die relativen Preise und die Verteilung des Einkommens bestimmt? Wie ist der Zusammenhang zwischen der Einkommensverteilung und der Struktur der relativen Preise in einem Produktionspreismodell? Jedes mikroökonomische volkswirtschaftliche Modell befasst sich mit der Frage, warum bestimmte Mengen (also z. B. Güter- oder Arbeitsmengen) zu jeweiligen Preisen gehandelt werden. Die Beantwortung solcher Fragen setzt ein bestimmtes Verständnis über die Funktionsweise und Logik eines jeweiligen Wirtschaftssystems voraus. Wenn aber die theoretischen Auffassungen über die Beweggründe, Resultate und Folgen marktorientierter Handlungen von Wirtschaftssubjekten je nach Paradigma unterschiedlich ausfallen, so wäre es doch mehr als merkwürdig, wenn sich diese Differenzen nicht auch bei der Bestimmung relativer Preise niederschlagen würden. Und tatsächlich verfügen ver-
236
Neoklassische Makroökonomie
schiedene theoretische Paradigmen über eine ihrem Grundverständnis entsprechende Bestimmung der Preise. In der Neoklassik spiegeln Preise bei einem Tauschmodell ohne Produktion ausschließlich die Nutzenvorstellungen der Haushalte und die Knappheitsverhältnisse der Güter wider. Bei der Berücksichtigung der Produktion werden die Preise im neoklassischen Modell durch den simultanen Einfluss der Nachfrage- und der Produktionsseite bestimmt. Die gewinnmaximierenden Unternehmen bieten entsprechend des Verlaufs ihrer Grenzkostenfunktion Güter an, während die Haushalte gemäß ihren Nutzenvorstellungen, ihrer Einkommenssituation und den marktbestimmten Preisen Güter nachfragen. Da zumindest beim Tauschmodell ohne Produktion Nutzenvorstellungen der Haushalte den Dreh- und Angelpunkt der Preistheorie darstellen und auch bei Berücksichtigung der Produktion die Nutzenvorstellungen über die Nachfrageseite einen wichtigen Einfluss auf die Preise haben, spricht man von einer subjektiven Werttheorie. Ganz anders in der klassischen Theorie: Bei Adam Smith, David Ricardo und Karl Marx – den bedeutendsten Vertretern der Klassik – werden die Preise durch gleichsam objektive Größen bestimmt, nämlich durch die gesellschaftlich notwendigen Produktionskosten. Die Nutzenvorstellungen der Haushalte und das Volumen der Nachfrage gehen nicht in die Bestimmung der Preise ein. Im klassischen Paradigma gibt es kein Tauschmodell ohne Produktion. Die Klassik kennt überhaupt keine Instrumente, um eine Erklärung der Preise in einem Modell ohne Produktion leisten zu können. Aus den genannten Gründen wird der klassische Ansatz der Bestimmung relativer Preise häufig als objektive Werttheorie tituliert. Die Klassik ging davon aus, dass Güter in Arbeitseinheiten (Arbeitsstunden) gemessen werden können, wobei als Einheit eine Arbeitseinheit durchschnittlicher Intensität angenommen wurde, welche die durchschnittliche Wertschöpfung zum Ausdruck bringt. Adam Smith machte das Beispiel, dass das Fangen eines Bibers 5 Arbeitsstunden benötigt, das Erlegen eines Hirsches aber 10 Arbeitsstunden. Also werden sich 2 Biber gegen einen Hirsch tauschen. Wir können dabei interpretieren, dass die Preise des Bibers und des Hirsches schon früher verausgabte Arbeit verkörpern. Zum Jagen eines Hirsches sei beispielweise Munition notwendig, die 3 Arbeitsstunden zur Produktion benötigt, und eine Flinte, die ihren Wert bei der Jagd in Höhe von einer Arbeitsstunde verliert. Um dem Hirsch aufzulauern werden 7 Stunden benötigt, so dass sich im Hirsch 10 Arbeitsstunden verkörpern. Smith, Ricardo und Marx haben es allerdings nie geschafft, eine formal konsistente und widerspruchsfreie Theorie relativer Preise zu präsentieren. Sie standen immer vor dem Problem, die genaue Beziehung zwischen den verausgabten Arbeitseinheiten, die als wertschaffend betrachtet wurden, und den Preisen in einer kapitalistischen Ökonomie herzustellen. Ricardo und Marx erkannten klar, dass individuelle Preise im Normalfall nicht ausschließlich die in ihnen vergegenständlichten Arbeitseinheiten repräsentieren konnten. Denn verschiedene Branchen arbeiten mit unterschiedlicher Kapitalintensität, also unterschiedlichem Verhältnis von Kapital zu Wertschöpfung. Mit Hilfe der Verkaufspreise ihrer produzierten Güter müssen in allen Branchen die geleisteten Geldvorschüsse einschließlich einer gleichen prozentualen Entlohnung des Kapitals zurückfließen. Werden die Preise jedoch ausschließlich durch die in ihnen verkörperten Arbeit bestimmt und ist die Profitrate größer als Null, ist keine gleiche Verwertung von Kapital möglich (vgl. Kapitel 6). Unterschiedliche Profitraten widersprechen jedoch der Logik kapitalistischer Ökonomien, da im Gleichgewicht in allen Branchen die Profitrate den gleichen Wert annehmen muss. Die Frage, die die Klassiker mehr oder weniger genau stellten, war somit: Wie müssen sich die Preise ändern, damit in allen Branchen die Profitrate den gleichen Wert annimmt? Sraffa gab auf diese Frage auf der Grundlage des klassischen Paradigmas eine befriedigende Antwort. Die Güternachfrage taucht, ganz in der Tradition der Klassik, im Modell von Sraffa als Einflussfaktor auf die Preise nicht auf. Beispiel für die Probleme von Preissystemen in Arbeitseinheiten Machen wir ein einfaches Beispiel. Unterstellen wir, dass zur Produktion von 100 kg Erdnüssen ein Kapitaleinsatz im Werte von 100 Arbeitseinheiten notwendig ist und bei der Erdnussproduktion die eingestellten 10 Arbeiter den Wert der Erdnüsse um 20 Arbeitseinheiten erhöhen und davon einen
Neoklassische Makroökonomie
237
Lohn in Höhe von 10 Arbeitseinheiten erhalten. Unterstellen wir, dass die Löhne am Ende der Produktion bezahlt werden, dann muss ein Kapitalist 100 Arbeitseinheiten vorschießen, um einen Profit von 10 Arbeitseinheiten zu erlangen, die Profitrate ist also 10 Prozent. In 1 kg Erdnüsse stecken 1,2 Arbeitseinheiten. Kommen wir nun zur Produktion von Ziegenkäse. Zur Produktion von 100 kg Ziegenkäse sei ein Kapitaleinsatz von 220 Arbeitseinheiten notwendig. Der Ziegenkäseproduzent benötige ebenfalls 10 Arbeiter, die ebenfalls einen neuen Wert von 20 Arbeitseinheiten schaffen und einen Lohn von 10 Arbeitseinheiten erhalten. In diesem Produktionsprozess müssen 220 Arbeitseinheiten vorgeschossen werden, der Profit ist 10 Arbeitseinheiten und die Profitrate nur 4,5 Prozent. In 1 kg Ziegenkäse stecken 2,4 Arbeitseinheiten. Zählen nur die Arbeitseinheiten, dann tauschen sich 2 kg Erdnüsse gegen 1 kg Ziegenkäse. Allerdings kann dies keine Gleichgewichtssituation sein, denn im Gleichgewicht müssen die Profitraten in allen Branchen gleich sein. Wie also wird bei Sraffa die Struktur der relativen Preise bestimmt? Er unterstellt nicht nur einheitliche Preise auf einem Markt, sondern aufgrund der Konkurrenz zwischen verschiedenen Kapitalen eine gleiche Profitrate für alle Kapitalvorschüsse. Denn Kapitalvorschüsse werden dort geleistet, wo die höchste Profitrate erzielt werden kann. Unter diesen Bedingungen führt eine unterdurchschnittliche Profitrate in der Branche A und eine überdurchschnittliche in der Branche B dazu, dass Unternehmen aus der Branche A aussteigen und sich stattdessen in B engagieren. Im Gleichgewicht sind die Profitraten in allen Branchen gleich, und es gibt keine Veranlassung mehr zu weiteren Kapitalwanderungen. Ein vollständiger Ausgleich der Profitraten ergibt sich nur bei vollständiger Konkurrenz, die Sraffa implizit unterstellt. Sollte nämlich z. B. die Branche B von einem Monopol dominiert sein, so würde es kaum zum vollständigen Ausgleich der Profitraten kommen. Ein Modell einfacher Reproduktion Sraffa entwickelte sein Produktionspreismodell stufenweise.58 Dieser Darstellungsform soll auch hier gefolgt werden. Die erste Stufe stellt ein einfaches Reproduktionsmodell (eine stationäre Ökonomie) dar. Von langlebigen Kapitalgütern wird abgesehen, es existieren somit nur Vorleistungen. Der Gedanke der einfachen Reproduktion drückt sich hier darin aus, dass alle am Beginn einer Periode zur Verfügung stehenden Waren in den Produktionsprozess eingehen und am Ende der Periode genau die Warenmenge produziert wird, die am Beginn der Periode gegeben war. Die produzierte Warenmenge kann in der folgenden Periode erneut genutzt werden, so dass sich das System unendlich reproduziert. Der Produktionsaufwand entspricht damit dem Produktionsergebnis. Das Sozialprodukt der Volkswirtschaft wächst weder, noch fällt es. Machen wir uns das einfache Reproduktionsmodell an einem konstruierten Beispiel klar. Angenommen es existieren nur zwei Branchen in einer Volkswirtschaft. Zum einen gibt es die Branche (I), die Weizen herstellt. Weizen kann auch hier sowohl für Konsum- als auch für Produktionszwecke eingesetzt werden. Zum anderen soll eine reine Produktivgüterbranche (II) vorhanden sein, die das universelle Produktivgut Eisen hergestellt. In beiden Branchen werden Weizen und Eisen als Inputs eingesetzt; in Branche I zur Erstellung von Weizen und in Branche II zur Produktion von Eisen. Es handelt sich somit nicht um eine Welt mit nur einem Gut. Beide Branchen kaufen ihre Inputs als Waren und verkaufen ihre Produktionsergebnisse ebenfalls als Waren. Es findet also – wie Sraffa es nannte – Warenproduktion mittels Waren statt. Das ist auch der Grund dafür, dass die Preise für Waren, die als Kapitalgut und als Konsumgut fungieren, in jeder Verwendung gleich sein müssen. Formal lassen sich die bislang entwickelten Sachverhalte folgendermaßen notieren (wobei die konkreten Zahlen natürlich keine realen Sachverhalte widerspiegeln):
58
Wir folgen hier auch bei den Zahlenbeispielen Sraffa (1960).
238
Neoklassische Makroökonomie
I.
280 Einheiten Weizen + 12 Einheiten Eisen → 400 Einheiten Weizen
II.
120 Einheiten Weizen + 8 Einheiten Eisen → 20 Einheiten Eisen
_____________________________________________________________ 400 Einheiten Weizen 20 Einheiten Eisen
In der Branche I werden mit Hilfe der Inputs von 280 Weizeneinheiten und 12 Eiseneinheiten 400 Einheiten Weizen als Output hergestellt. In Branche II werden 120 Weizeneinheiten und 8 Eiseneinheiten eingesetzt, um 20 Einheiten Eisen zu produzieren. Es wird bei diesem Modell einfacher Reproduktion von jedem physischen Überschuss der produzierten Gütermengen über die eingesetzten Gütermengen abgesehen. Von den 400 Einheiten produzierten Weizens werden 280 Einheiten in Branche I als Eigenverbrauch sowie 120 in Branche II eingesetzt; von den 20 Einheiten Eisen werden 12 in Branche I und 8 als Eigenverbrauch in der Eisenbranche benötigt. Will man sich diese Zusammenhänge als soziales Modell vorstellen, so kann der skizzierte Sachverhalt als eine Ökonomie mit selbständigen Warenproduzenten interpretiert werden. Die Warenproduzenten, die Eisen oder Weizen herstellen, benutzen keine Lohnarbeit, sondern tauschen eigenhändig produzierte Güter. Auch kennt diese Ökonomie keinen Zinssatz beziehungsweise Profitrate. Alle Warenproduzenten erhalten ausschließlich eine Entlohnung für ihren Arbeitsaufwand. Dies von Karl Marx so benannte Modell einfacher Warenproduktion ändert sich fundamental, wenn eine Verwertung von Kapitalvorschüssen in Form einer Profitrate eingeführt wird. Die in dem obigen Beispiel angegebene Input-Output-Struktur gibt eine spezifische makroökonomische Technologie wieder, da ein bestimmter physischer Input zu einem bestimmten physischen Output führt. Eine andere Technologie würde zu einem abweichenden Mengengeflecht führen. Im Unterschied zur neoklassisch-makroökonomischen Produktionsfunktion versucht man im Produktionspreissystem nicht, physische Größen zu aggregieren. Vielmehr werden auf mikroökonomischer Ebene volkswirtschaftliche, mengenmäßige Input-Output-Beziehungen erfasst. Selbstverständlich gibt es eine Vielzahl unterschiedlicher Input-Output-Beziehungen, wobei jede einzelne davon eine spezifische Technologie darstellt, die zu einer spezifischen Input-Output-Relation führt. Kommen wir zur Bestimmung der Preise im Produktionspreismodell. Wird der jeweilige Eigenverbrauch eines Industriezweiges von seinem Output abgezogen, dann erhält man die Menge, die auf den Märkten angeboten bzw. nachgefragt wird. In dem obigen Zahlenbeispiel werden 120 Einheiten Weizen gegen 12 Einheiten Eisen getauscht. Nur unter dieser Bedingung kann die Input-OutputVerflechtung des Systems mengenmäßig über Märkte hergestellt werden. Im Zwei-Güter-Modell wird die Funktion der Preise im Produktionspreismodell unmittelbar ersichtlich: Sie müssen im Gleichgewicht so bestimmt sein, dass die Reproduktion des Systems gewährleistet wird und eine Warenproduktion mittels Waren erreicht werden kann. Damit werden die Preise ausschließlich produktionsseitig bestimmt. Die aus dem Produktionspreissystem resultierenden Preisverhältnisse lassen sich auch allgemeiner bestimmen. Die Input-Output-Struktur in unserem Beispiel kann durch folgendes Gleichungssystem erfasst werden, wobei p1 den Preis des Gutes der Branche I und p2 den Preis des Gutes der Branche II ausdrückt.
(3.3.1)
I.
280 p1 + 12 p2 = 400 p1
II.
120 p1 + 8 p2 = 20 p2
Neoklassische Makroökonomie
239
Gesucht werden die Preise p1 und p2, die die Reproduktion des Systems ermöglichen. Das Gleichungssystem (3.3.1) liefert jedoch nur eine linear unabhängige Gleichung. Dies erklärt sich daraus, dass bei der Annahme einfacher Reproduktion die Summe der ersten Spalte des Gleichungssystems immer der Summe der ersten Zeile des Gleichungssystems, die Summe der zweiten Spalte der Summe der zweiten Zeile entsprechen muss etc. Damit sind wir in einem Modell mit zwei Branchen in der Lage, die zweite Branche zu bestimmen, wenn wir die erste kennen. Das Modell mit zwei Branchen liefert uns folglich nur eine linear unabhängige Gleichung. Damit kann Sraffa, wie das walrasianische Mikromodell, nur die relativen Preise und damit die Tauschmengen ableiten, die die Reproduktion garantieren. Aus jeder der beiden Gleichungen im Gleichungssystem (3.3.1) lässt sich allein der gleichgewichtige p relative Preis bestimmen, nämlich ein Preisverhältnis von 2 = 10. Da das Preisverhältnis dem rezipp1 roken Tauschverhältnis (Kapitel 2.2) entspricht, ergibt sich somit für das gewählte Zahlenbeispiel:
p2 120 Einheiten Weizen 10 p = = Eisen = 12 Einheiten Eisen 1 p Weizen p1 Der Preis einer Einheit Eisen beträgt somit das Zehnfache des Preises einer Einheit Weizen. Wird der Weizen als Numéraire-Gut angenommen, dann ist der Preis des Weizens definitionsgemäß p1 = 1 (eine Einheit Weizen pro Einheit Weizen). Der Preis von Eisen ist dann p 2 = 10 bzw. 10 Einheiten Weizen pro Einheit Eisen. Allgemein gilt, dass bei einem System mit n Branchen, das sich annahmegemäß reproduzieren soll, die n-te Branche bestimmt ist, wenn in n-1 Branchen die Mengenkonstellationen festgelegt sind. Die dann existierenden n-1 linear unabhängigen Gleichungen können die n-1 relativen Preise bestimmen. Ein Gut fungiert als Numéraire-Gut, dessen Preis zwingend 1 ist. Damit ist das System in formaler Hinsicht eindeutig lösbar. Das Gleichungssystem (3.3.1) lässt sich auch in der folgenden Form schreiben: (3.3.2)
⎛ 280 ⎞ ⎛ 12 ⎞ I. ⎜ ⎟ p1 + ⎜ ⎟ p = p1 ⎝ 400 ⎠ ⎝ 400 ⎠ 2 ⎛ 8 ⎞ ⎛ 120 ⎞ II. ⎜ ⎟p1 + ⎜ ⎟p 2 = p 2 20 ⎝ 20 ⎠ ⎠ ⎝
Machen wir uns die Aussagekraft des so modifizierten Modells am Beispiel der Weizenbranche klar. Zunächst einmal lassen sich mit dem Modell technologische Zusammenhänge klarer erfassen. Die ⎛ 280 Einheiten Weizen ⎞ ⎛ 12 Einheiten Eisen ⎞ Größen ⎜ ⎟ bzw. ⎜ ⎟ stellen Produktionskoeffizienten dar. ⎝ 400 Einheiten Weizen ⎠ ⎝ 400 Einheiten Weizen ⎠ Sie drücken aus, welche Menge der jeweiligen Produktionsgüter benötigt werden, um eine Mengeneinheit Weizen herzustellen. Produktionskoeffizienten sind Input-Output-Relationen. Zur Produktion von 280 12 = 0,7 Einheiten Weizen und = 0,03 Einheiten Eisen noteiner Einheit Weizen sind z. B. 400 400 120 8 = 6 Einheiten Weizen und = 0,4 wendig, und zur Produktion einer Einheit Eisen braucht man 20 20 Einheiten Eisen. In dem obigen Gleichungssystem drücken die Produktionskoeffizienten somit eine bestimmte Technologie aus. Allerdings erfasst das Modell nicht nur technologische Aspekte. Da die Produktionskoeffizienten mit Preisen bewertet sind, zeigen die linken Seiten der Gleichungen des Produktionspreissystems zugleich die Produktionskosten je produzierter Einheit und die rechten Seiten die Absatzpreise der produzierten
240
Neoklassische Makroökonomie
p 2 = 10 und p1 = 1 entsprechen die Produktionskosten p1 p1 für eine Einheit Weizen bzw. Eisen dann genau dem Verkaufspreis einer Einheit Weizen bzw. Eisen: Waren. Ausgedrückt in den relativen Preisen
I.
0,7
II.
6
Weizen Weizen Eisen Weizen Weizen ⋅1 + 0,03 ⋅ 10 =1 Eisen Weizen Weizen Weizen Weizen
Weizen Weizen Weizen Eisen Eisen ⋅1 + 0,4 ⋅ 10 = 10 Eisen Eisen Eisen Weizen Weizen
Offensichtlich sind die Preise von der benutzten Technik und der unterstellten Notwendigkeit der Produktion abhängig. Obwohl das Modell noch sehr rudimentär ist, verdeutlicht es doch bereits hier, dass die Preise produzierter Güter offensichtlich von den Produktionskosten ohne jeglichen Einfluss der Nutzenschätzungen bzw. der Präferenzen der Haushalte oder der Güternachfrage bestimmt werden. Selbstverständlich muss das Produktionspreismodell nicht auf zwei konkrete Branchen reduziert werden, sondern es lässt sich verallgemeinern. Dann erhalten wir: (3.3.3)
(a11p1 + a12p2 +... a1npn) = p1 (a21p1 + a22p2 +... a2npn) = p2 .
.
.
.
(an1p1 + an2p2 + ... annpn) = pn Die Produktionskoeffizienten werden mit dem Symbol aij bezeichnet, mit i, j = 1, ..., n. Der erste Index i kennzeichnet jeweils die Branche, in der die Produktionsgüter eingesetzt werden. Der zweite Index j gibt an, in welcher Branche das Einsatzgut hergestellt wurde. Der Ausdruck a43 gibt z. B. an, wie viel Güter der dritten Branche zur Produktion eines Gutes der vierten Branche benötigt werden. In diesem System gibt es n-1 linear unabhängigen Gleichungen, die ausreichen, um alle n-1 relativen Preise zu bestimmen. Die Einführung von Überschüssen Nachdem wir uns die Grundlagen des Produktionspreismodells an einem sehr einfachen Beispiel verdeutlicht haben, lassen sich nun Differenzierungen einführen. Unterstellen wir in einem zweiten Schritt, dass dank einer modifizierten Technologie physische Überschüsse und damit ein wertmäßiges Nettoprodukt produziert werden können. Des Weiteren führen wir nun eine positive Profitrate ein. Um den theoretischen Ansatz Sraffas ganz deutlich zu machen, nehmen wir mit ihm an, dass der physische Überschuss ausschließlich in der ersten Branche produziert wird. Als Mengenstruktur könnte sich dann das folgende Bild ergeben:
I.
280 Einheiten Weizen + 12 Einheiten Eisen → 575 Einheiten Weizen
II.
120 Einheiten Weizen + 8 Einheiten Eisen → 20 Einheiten Eisen
________________________________________________________ 400 Einheiten Weizen 20 Einheiten Eisen Das gesellschaftliche Nettoprodukt besteht im gewählten Beispiel aus 175 Einheiten Weizen. Würden die alten relativen Preise beibehalten, so würden die Unternehmen der Konsumgüterbranche einen Überschuss in Höhe von 175 Einheiten Weizen realisieren und die Eisenproduzenten gingen leer aus. Zu
Neoklassische Makroökonomie
241
alten Preisen, also Weizen zum Preis von 1 und Eisen zum Preis von 10 würde in der Weizenbranche eine Profitrate von 175
p1 p1
p p 280 1 + 12 2 p1 p1
=
175 ⋅ 1 = 0,4375 280 ⋅ 1 + 12 ⋅ 10
auftreten, was 43,75% entspricht, und in der Eisenbranche eine von Null. Ein solcher Zustand ist freilich in einer Marktökonomie auf Dauer unhaltbar, da kein Unternehmer unter dieser Bedingung zur Eisenproduktion bereit wäre. Ein Gleichgewichtsmodell, das die Logik einer Marktökonomie widerspiegeln will, muss daher von einer gleichen Profitrate zwischen allen Branchen ausgehen. Soll bei der nun unterstellten Technologie eine gleiche Profitrate in allen Branchen erzielt werden, dann müssen sich offensichtlich die relativen Preise verändern. Formal lässt sich das Produktionspreissystem unter der Bedingung einer gleichen Profitrate (q') in allen Branchen folgendermaßen fassen: (3.3.4)
I.
(280 p1 + 12 p2) (1 + q') = 575 p1
II.
(120 p1 + 8 p2) (1 + q') = 20 p2
Jede Branche erhält nun ihr vorgeschossenes Kapital zurück und erzielt die gleiche Profitrate. Werden die jeweils linken Seiten der Gleichungen ausmultipliziert, so zeigt sich dies explizit: I.
280p1 + 12p2 + q' (280p1 + 12p2) = 575p1
II.
120p1 + 8p2 + q' (120p1 + 8p2) = 20p2
Also erhält jede Branche im Gleichgewicht wertmäßig ihren Kapitalvorschuss zurück: I.
(280p1 + 12p2) = Kapitalvorschuss Branche I
II.
(120p1 + 8p2) = Kapitalvorschuss Branche II
Jede Branche erzielt entsprechend des vorgeschossenen Kapitals als Profit: I.
q' (280p1 +12p2) = Profit Branche I
II.
q' (120p1 + 8p2) = Profit Branche II
Das Produktionspreissystem mit Überschuss und einheitlicher Profitrate kann selbstverständlich auch mit Produktionskoeffizienten ausgedrückt werden. (3.3.5)
I.
(
280 12 p1 + p 2 )(1 + q ' ) = p1 575 575
II.
(
120 8 p1 + p 2 )(1 + q ' ) = p 2 20 20
Das Modell mit Überschüssen hat folgende Struktur: Das System ist weiterhin reproduktionsfähig, da in jeder Branche zumindest so viel produziert wird wie als Input in der Gesamtökonomie an dem entsprechenden Gut benötigt wird. Allerdings gibt es jetzt in zumindest einer (potenziell in allen Branchen) physische Überschüsse. Als Unbekannte des Systems tritt nun neben die Preise p1 und p 2 die Profitrate q'. Unser Modell mit zwei Branchen liefert uns nun zwei linear unabhängige Gleichungen, da nun die Produktionsmenge einer Branche nicht mehr der Menge an physischen Inputs des entsprechenden
242
Neoklassische Makroökonomie
Gutes in allen Branchen entspricht. Gibt es in der Ökonomie n Branchen, dann kann aus Kenntnis von n-1 Branchen nicht mehr die Gleichung für die n-te abgeleitet werden. Die Unbekannten des Systems mit Überschuss sind weiterhin die relativen Preise und nun zusätzlich die Profitrate. Die Anzahl der linear unabhängigen Gleichungen reicht aus, um diese Unbekannten zu bestimmen. In unserem Beispiel mit zwei Branchen können der relative Preis und die Profitrate bestimmt werden. Das Gut 1, der Weizen, bleibt im Zahlenbeispiel das Numéraire-Gut, das definitip2 onsgemäß den Wert von Eins annimmt. Die Lösung des Systems lautet q' = 0,25 und = 15. Der p1 Eisenpreis hat sich in Relation zum Weizenpreis erhöht, so dass beide Branchen die gleiche Profitrate erzielen können. Die aggregierten Größen des Systems – die Kosten bzw. der Kapitalvorschuss, die Profitsummen und die Umsätze bzw. das Bruttoprodukt – ausgedrückt in Weizeneinheiten wurden in Tabelle 3.3.1 wiedergegeben. Eine einheitliche Profitrate bedeutet, dass die Unternehmen 25% des vorgeschossenen Kapitals als p2 Profit realisieren. Das vorgeschossene Kapital der Branche I beläuft sich bei einer Preisrelation von p1 = 15 auf 280 Weizeneinheiten für den Weizen als Saatgut plus 180 Weizeneinheiten für Eisen, wobei sich der Wert von 180 aus 12 Eiseneinheiten multipliziert mit dem Eisenpreis 15 ergibt. Der Kapitalvorschuss der Branche I beträgt somit insgesamt 460 Weizeneinheiten. Eine Profitrate von 25 % auf diesen Kapitalvorschuss bedeutet einen preislich bewerteten Überschuss von 115 Weizeneinheiten. Für die zweite Branche lässt sich eine analoge Rechnung anstellen; man erhält in der Eisenbranche einen Vorschuss von 240 Weizeneinheiten und einen Überschuss von 60 Weizeneinheiten.
Tabelle 3.3.1:
Das Gleichgewicht entsprechend des Beispiels der Gleichung (3.3.4)
Kapitalvorschuss
Profit
Bruttoprodukt
Profitrate
Branche I
460
115
575
25 %
Branche II
240
60
300
25 %
Gesamt
700
175
875
25 %
p2 . Es ist im Vergleich zum System ohne Überschuss p1 von 10 auf 15 gestiegen. Die Erhöhung des Eisenpreises wurde notwendig, da ansonsten in der Eisenbranche, die kein Nettoprodukt produziert, kein wertmäßiger Überschuss entstanden wäre. Demnach haben die Preise im Produktionspreismodell eine doppelte Funktion: Erstens müssen sie bei gegebener Technik – ausgedrückt durch die Produktionskoeffizienten – die Reproduktion der Ökonomie über Märkte ermöglichen, und zweitens müssen sie die wertmäßige Aufteilung der gesellschaftlich produzierten Überschüsse auf die einzelnen Branchen so übernehmen, dass in allen Branchen eine gleiche Profitrate existiert.
Legen wir nun die Lupe auf das Preisverhältnis
Die explizite Einführung von Arbeit Bisher ist Arbeit als Produktionsfaktor nicht aufgetaucht. Implizit wurde Arbeit als ein Inputfaktor wie jeder andere interpretiert, wobei die Güter, die die Arbeiter konsumieren, als Produktionskosten des
Neoklassische Makroökonomie
243
Faktors Arbeit angesehen wurden. Nunmehr sollen in einer dritten Stufe des Produktionspreismodells Arbeit und Lohnzahlungen explizit berücksichtigt werden. Auch in diesem Modell wird ein einheitlicher Lohnsatz unterstellt, so dass von qualitativen Unterschieden bei den Arbeitskräften abgesehen wird. Der notwendige Arbeitseinsatz ist, wie die restliche Input-Output-Verflechtung, durch die unterstellte Technologie gegeben. Dem Arbeitslohn entspricht ein bestimmter Warenkorb, den die Arbeiter als Entgelt erhalten. Dieser Warenkorb gilt als Reallohnsatz. Er besteht in unserem einfachen Zahlenbeispiel ausschließlich aus einer bestimmten Menge an Weizen, die ein Arbeiter pro gearbeiteter Zeiteinheit erhält.59 Der Reallohnsatz steigt, wenn die bezahlte Weizenmenge pro Arbeitseinheit steigt. ⎛w ⎞ Wenn ⎜ ⎟ für den Reallohnsatz und H für die Anzahl der geleisteten Arbeitseinheiten steht, erweitert ⎝P⎠ sich das Gleichungssystem auf: (3.3.6)
I.
⎛w ⎞ (280 p1 + 12 p2) (1 + q') + ⎜ ⎟ H1 = 575 p1 ⎝P⎠
II.
⎛w ⎞ (120 p1 + 8 p2) (1 + q') + ⎜ ⎟ H2 = 20 p2 ⎝P⎠
⎛w ⎞ Der aufmerksame Leser wird bemerkt haben, dass ⎜ ⎟ H – die Lohnsumme – nicht mit (1+q') multip⎝P⎠ liziert wurde. Wir sind davon ausgegangen, dass der Lohn erst am Ende der Produktionsperiode gezahlt wird, so dass ein Kapitalvorschuss für die Arbeitslöhne nicht nötig ist. Allerdings kann auch angenommen werden, dass die Löhne vorab gezahlt werden müssen. Dann müssten sie in der Tat mit (1+q') multipliziert werden.60 An der Logik des Modells würde sich dadurch grundsätzlich nichts ändern. Das Nettoprodukt, das im Beispiel stofflich 175 Einheiten Weizen beträgt, muss nun aufgeteilt werden, nämlich in Lohn und Profit. Damit wird die Frage der Einkommensverteilung in das Modell eingeführt. ⎛w ⎞ p2 , q' und ⎜ ⎟ und nur zwei ⎝P⎠ p1 Gleichungen. Das System weist einen so genannten Freiheitsgrad auf. Formal bedeutet der Freiheitsgrad, dass eine Unbekannte vorgegeben werden muss, damit die beiden restlichen ermittelt werden können. Mathematisch kann das System eindeutig gelöst werden, wenn eine beliebige Variable exogen gesetzt wird. Aufgrund ökonomischer Erwägungen werden jedoch entweder die Profitrate oder der Reallohnsatz exogen bestimmt, während alle relativen Preise und die verbleibende Verteilungsgröße endogen bestimmt werden.
Nun haben wir im Modell mit zwei Branchen drei Unbekannte, nämlich
Wir können nun das Produktionspreismodell in seiner allgemeinen Form präsentieren, wobei die Arbeitskoeffizienten durch b angegeben werden. So gibt z. B. b1 den Arbeitskoeffizienten in der Weizenproduktion an, der sich aus der Anzahl der Arbeitszeiteinheiten H1, dividiert durch die produzierte Weizenmenge ergibt und somit den Arbeitseinsatz pro Weizeneinheit darstellt.61 (3.3.7)
59
⎛w ⎞ (a11p1 + a12p2 + ... a1npn) (1+q') + b1 ⎜ ⎟ = p1 ⎝P⎠
Zur Vereinfachung sei unterstellt, dass die Profitrate sowie der Reallohnsatz auf die gleiche Zeitperiode bezogen sind, am einfachsten auf ein Jahr. 60 So haben Ricardo und Marx in ihren Modellen die Löhne als Teil des Kapitalvorschusses gefasst. 61 Bei einem Modell mit n Gütern ist der einfachste Fall, dass die Arbeiter ausschließlich die Menge eines Gutes – eine Weizenmenge – pro gearbeitete Zeiteinheit erhalten. Der Reallohnsatz kann jedoch auch aus einem festen Lohnkorb mit potenziell allen Gütern bestehen. Bei Lohnerhöhungen erhöht sich dann die Anzahl der Lohnkörbe, die ein Arbeiter pro Arbeitszeiteinheit erhält.
244
Neoklassische Makroökonomie ⎛w ⎞ (a21p1 + a22p2 + ... a2npn) (1+q') + b2 ⎜ ⎟ = p2 ⎝P⎠
.
.
.
.
.
.
⎛w ⎞ (an1p1 + an2p2 + ... annpn) (1+q') + bn ⎜ ⎟ = pn ⎝P⎠
Die Werte a11, ..., ann sind die Produktionskoeffizienten, die zusammen mit den Werten b1 bis bn die Technologie der Ökonomie festlegen. Wir haben in diesem allgemeinen System n linear unabhängige Gleichungen und n+1 Unbekannte, nämlich die n-1 relativen Preise, den Reallohnsatz und die Profitrate. Durch die exogene Schließung des Freiheitsgrades durch die Vorgabe des Reallohnsatzes oder der Profitrate lässt sich das Gleichungssystem lösen. Die Existenz des Freiheitsgrades ist kein Mangel, sondern spiegelt den Sachverhalt wider, dass im Produktionspreismodell die Verteilung des Nettoprodukts von Faktoren abhängt, die nicht Bestandteil des Modells sind. D. h. die Verteilung zwischen Lohn und Profit folgt weder aus technischen Bedingungen noch aus irgendwelchen Tauschregeln. Es wird zuerst die Verteilung bestimmt, dann das System relativer Preise. Oder noch schärfer: Das System der relativen Preise kann erst bestimmt werden, wenn ein Verteilungsparameter feststeht. Damit ist auch der Preis der Kapitalgüter (also der Wert des vorgeschossenen Kapitals) erst nach der Verteilung bestimmbar, ein Umstand, der uns noch beschäftigen wird. Wird z. B. die Profitrate als die bekannte und gegebene Größe angenommen, dann kann das vorgeschossene Kapital als Aggregat berechnet werden, in dem die Mengen mit ihren Gleichgewichtspreisen bewertet werden. Um den Wert des Kapitals zu ermitteln, müssen die Güterpreise bekannt sein, und letztere erhält man erst, nachdem die Profitrate festgelegt wurde. Setzt man umgekehrt den Reallohnsatz als exogene Größe voraus, dann resultieren die Profitrate und die relativen Preise als Gleichgewichtsbedingung aus dem Gleichungssystem. Um die Verteilung zwischen Lohn und Profit bestimmen zu können, gibt es somit zwei Möglichkeiten. Erstens gibt man einen Reallohnsatz vor. Das ist dann plausibel, wenn angenommen wird, dass in der Ökonomie zuerst der Reallohnsatz bestimmt wird und sich der Profit dann als Rest der Neuwertschöpfung ergibt. Diese Lösung entspricht der klassischen Vorstellung einschließlich der von Karl Marx. Die Klassik leitet Arbeitslosigkeit als Systemmerkmal eines kapitalistischen Systems ab. Arbeitslosigkeit bewirkt, dass die gesellschaftliche Lohnsumme aufgrund der schwachen Marktposition der Arbeitnehmer niemals das gesamte Nettoprodukt einer Ökonomie ausmachen kann (vgl. Kapitel 7). Im einfachsten Fall kann der Reallohnsatz bei der Klassik als Existenzlohn gefasst werden. Vereinbar mit dem klassischen Paradigma wäre auch eine marktmäßige Lohnbestimmung über den Arbeitsmarkt, wobei der Lohn dann über einen Existenzlohn steigen kann. Jedoch wird angenommen, dass Arbeitslosigkeit die Marktmacht der Arbeitnehmer immer ausreichend schwächt, um ein Verschwinden des Profits zu verhindern. Dafür leitet die Klassik auch einen Mechanismus ab. Wie auch immer, zuerst muss der Reallohnsatz bestimmt werden und der Profit ergibt sich als passives Resultat. Wird der Freiheitsgrad des Systems über den Reallohnsatz geschlossen, so werden bei gegebener Technologie die Profitrate und die relativen Preise endogen bestimmt. Im Rahmen des Keynesianismus wird die Verteilungsfrage gänzlich anderes geschlossen. Auf den Vermögensmärkten wird eine Verwertungsrate bestimmt, die dann die Profitrate determiniert (vgl. Kapitel 4). Wird der Freiheitsgrad der Verteilung über die exogene Setzung der Profitrate geschlossen, dann werden der Reallohnsatz und die relativen Preise zu endogenen Größen. Es sei daran erinnert, dass das neoklassische Paradigma an diesem Punkt einer gänzlich anderen Logik folgt. Die neoklassische reale Makroökonomie löst die Verteilung über die makroökonomische Produktionsfunktion, wobei Kapital und Arbeit entsprechend ihren Grenzproduktivitäten entlohnt werden. Das unlösbare Problem der neoklassischen realen Makroökonomie wird vor dem Hintergrund des Pro-
Neoklassische Makroökonomie
245
duktionspreismodells deutlich: Zur Bestimmung der Verteilung benötigt die neoklassische Makroökonomie eine aggregierte Produktionsfunktion. Wird von der irrealen Annahme einer Welt mit nur einem Kapitalgut abgesehen, so muss die Aggregation über Geldgrößen erfolgen. Dies ist freilich leichter gesagt als getan. Denn der Wert der Kapitalgüter ist nicht unabhängig von der Verteilung. Ändert sich im obigen Beispiel die Verteilung, so ändern sich alle relativen Preise. Da wir nun veränderte Preise auch für die Kapitalgüter haben, ändert sich auch Größen wie die Kapitalintensität, obwohl rein technisch alles beim Alten geblieben ist. Kapitalintensitäten oder ähnliche „technische“ Größen sind auf makroökonomischer Ebene kein physisches Phänomen, sondern Resultat preislicher Bewertungen, die von der Verteilung des Einkommens abhängen. Die wertmäßige Aggregation setzt also die Kenntnis der Verteilung voraus. Damit „beißt sich die Katze in den Schwanz“. Die neoklassische reale Makroökonomie braucht zur Bestimmung der Verteilung den Kapitalbestand, der Kapitalbestand kann jedoch nur bestimmt werden, wenn die Preise und damit die Verteilung bekannt sind. Der Ansatz der Grenzproduktivitätstheorie der Verteilung scheitert. Die neoklassische Mikroökonomie entgeht diesen Fallstricken, da sie alle relativen Preise einschließlich Reallohnsatz und Zinssatz (ausgedrückt im Eigenzinssatz einer beliebigen Ware) simultan bestimmt. Für sie ist die Vorgabe des Reallohnsatzes beziehungsweise eines Eigenzinssatzes zur Bestimmung aller Modellvariablen nicht notwendig. Sie bedarf lediglich der Anfangsbestände der Haushalte sowie deren individuellen Nutzenfunktionen sowie der Produktionsfunktionen von Einzelunternehmen, um alle relativen Preise einschließlich der Verteilung des Einkommens simultan zu lösen. Um die dritte Stufe des Produktionspreismodells zu verdeutlichen, wollen wir unser Beispiel im das Gleichungssystem (3.3.6) weiter modifizieren. Wir unterstellen, dass die Weizenbranche deutlich mehr Arbeitskräfte benötigt als die Investitionsgüterbranche. Nehmen wir an, in Branche I sei H1 = 117,08 Arbeitseinheiten, und in Branche II sei H2 = 6,72 Arbeitseinheiten. Der Reallohnsatz ist in beiden Branchen einheitlich. Wenn wir von diesen Werten für H1 und H2 ausgehen und den Freiheitsgrad des Systems mit einer exogen gesetzten Profitrate von 8 % schließen, erhalten wir das folgende Gleichungssystem: (3.3.8)
I.
⎛w ⎞ (280 p1+ 12 p2) (1 + 0,08) + ⎜ ⎟ 117,08 = 575 p1 ⎝P⎠
II.
⎛w ⎞ (120 p1 + 8 p2) (1 + 0,08) + ⎜ ⎟ 6,72 = 20 p2 ⎝P⎠
⎛w ⎞ Das System ist durch folgende Werte charakterisiert: q' = 0,08, p1 = 1, p 2 = 12 und ⎜ ⎟ = 1, wobei q' ⎝P⎠ p1 als Profitrate und p1 als Numéraire vorgegeben sind. Die Preisrelation p 2 hat sich im Vergleich zum p1 Produktionspreismodell ohne explizite Berücksichtigung des Arbeitseinsatzes von 15 auf 12 verändert, so dass Eisen im Vergleich zum Numéraire-Gut Weizen billiger geworden ist.
246
Neoklassische Makroökonomie
Tabelle 3.3.2:
Das Gleichgewicht entsprechend des Beispiels des Gleichungssystems (3.3.8)
Kapitalvorschuss
Lohn
Profit
Bruttoprodukt
Profitrate
Branche I
280 + 144
117,08
33,92
575
8%
Branche II
120 + 96
6,72
17,28
240
8%
640
123,80
51,20
815
8%
Gesamt
Sehen wir uns das Ergebnis in Tabelle 3.3.2 etwas genauer an. Die Weizenproduzenten mussten einen Kapitalvorschuss in Höhe von 424 Einheiten Weizen leisten, nämlich von 280 Weizeneinheiten für Weizen plus 144 Weizeneinheiten für Eisen (12 Einheiten Eisen bei p2 = 12 Einheiten Weizen pro Einheit Eisen). Bei einer Profitrate von 8% erzielen sie einen Profit von 33,92 Weizeneinheiten. Des Weiteren fallen Lohnkosten in Höhe von 117,08 Weizeneinheiten an. Der Umsatz beläuft sich weiterhin auf 575 Weizeneinheiten und entspricht den Kosten plus Profit. Die Werte für beide Branchen sind der Tabelle 3.3.2 zu entnehmen. Das Nettoprodukt (das Volkseinkommen) entspricht 175 Weizeneinheiten und wird komplett in Profite (33,92 Weizeneinheiten + 17,28 Weizeneinheiten = 51,20 Weizeneinheiten) und Löhne (117,08 Weizeneinheiten + 6,72 Weizeneinheiten = 123,80 Weizeneinheiten) aufgeteilt. Das obige Zahlenbeispiel mit einer Profitrate von 8% drückt einen spezifischen Zusammenhang zwischen der Profitrate, dem Reallohnsatz und dem relativen Preis aus. Ändert sich die Profitrate, dann ändert sich der relative Preis p 2 und der Reallohnsatz. In Tabelle 3.3.3 ist für das Gleichungssystem p1 (3.3.8) der Zusammenhang angegeben.
Neoklassische Makroökonomie Tabelle 3.3.3:
247
Reallohnsatz und relativer Preis im Gleichungssystem (3.3.8) bei Variation der Profitrate Profitrate
Reallohnsatz
p2 p1
0%
1,41
10,79
2%
1,31
11,08
4%
1,21
11,38
6%
1,10
11,69
8%
1,00
12,00
10 %
0,89
12,32
12 %
0,78
12,65
14 %
0,67
12,99
16 %
0,55
13,33
18 %
0,43
13,69
20 %
0,31
14,05
22 %
0,19
14,42
25 %
0,00
15,00
Aus der Tabelle 3.3.3 lässt sich eine Lohn-Profitraten-Kurve bzw. Lohn-Zinssatz-Kurve ableiten, die den Zusammenhang zwischen dem Reallohnsatz und der Profitrate aufzeigt (vgl. Abbildung 3.3.1). Die Lohn-Zinssatz-Kurve zeigt eine maximale Profitrate von 25%, die bei einem Reallohnsatz von Null realisiert wird. Als maximaler Reallohnsatz ergibt sich ein Wert von 1,41 Weizeneinheiten, der bei einer Profitrate von Null erreicht wird. Der relative Preis p2 steigt mit wachsender Profitrate zunehp1 mend an, da bei der Existenz eines physischen Überschusses ausschließlich in Branche I nur bei steigendem Preis von p2 im Vergleich zu p1 eine gleiche Profitrate in allen Branchen erreicht werden kann.
248
Neoklassische Makroökonomie
Abbildung 3.3.1: Die Lohn-Zinssatz-Kurve des Gleichungssystems (3.3.8) wr
1,41
25
q‘
Die Lohn-Zinssatz-Kurve der Abbildung 3.3.1 entspricht nur auf den ersten Blick der zweiten neoklassischen Parabel (vgl. Kapitel 3.2.3). Entsprechend der zweiten Parabel sinkt zwar die Zinsrate, wenn der Reallohnsatz steigt – was immer so ist –, jedoch ist die Lohn-Zinssatz-Kurve in der neoklassischen Parabel immer konvex zum Ursprung, während sie in dem Beispiel der Abbildung 3.3.1 konkav zum Ursprung verläuft. Die Möglichkeit zum Ursprung hin konkaver Lohn-Zinssatz-Kurven hat für die neoklassische reale Makroökonomie, wie sich zeigen wird, äußerst unangenehme Konsequenzen. Fassen wir zusammen: Die aus einem Produktionspreismodell ableitbaren Lohn-Zinssatz-Kurven haben folgende Eigenschaften62: Es existiert eine maximale Profitrate, die sich bei einem Lohnsatz von Null ergibt. Der maximale Lohnsatz ergibt sich bei einer Profitrate von Null. Eine fallende Profitrate ist immer mit einem steigenden Lohnsatz verbunden und umgekehrt. Die Lohn-Zinssatz-Kurve kann zum Ursprung hin konvex oder konkav sein. Unter spezifischen Bedingungen kann sie auch eine Gerade sein. Das klassische Produktionspreismodell, das von Piero Sraffa formalisiert wurde, hat Stärken und Schwächen. Eine Stärke besteht darin, dass es die unüberwindbaren Schwächen der neoklassischen realen Makroökonomie offen legte (vgl. das nächste Kapitel). Das war offensichtlich das Hauptziel von Sraffa. Eine weitere Stärke des Modells kann darin gesehen werden, dass es eine in sich schlüssige Theorie relativer Preise auf der Grundlage des klassischen Paradigmas liefert. Für die Klassik, die hinter den Preisen der Waren verkörperte Arbeitsmengen unterstellt, hat dieser Fortschritt allerdings einen fahlen Nachgeschmack, da zur Bestimmung der relativen Preise Arbeitsmengen keinerlei Rolle mehr spielen und damit die klassische Arbeitswertlehre zumindest in ihrer Bedeutung zur quantitativen Bestimmung der Preise hinterfragt werden muss (vgl. Kapitel 7). Das Produktionspreismodell harmoniert mit der zentralen Aussage des klassischen und keynesianischen Paradigmas, dass es einen Freiheitsgrad bei der Verteilung gibt bzw. dass ein zusätzliches Theorieelement herangezogen werden muss, um die Einkommensverteilung zu klären. In der Klassik wird der Reallohnsatz vorgegeben, der als das Resultat des Verteilungskampfes auf dem Arbeitsmarkt angesehen wird. Es wird angenommen, dass in kapitalistischen Ökonomien der Marktmechanismus immer zu Arbeitslosigkeit führt, dadurch die Verhandlungsmacht der Arbeiter immer relativ schwach ist und dadurch ein Reallohn zustande kommt, der 62
Die Eigenschaften gelten bei der Unterstellung von Vorleistungen als Kapitaleinsatz allgemein. Gibt es Kapitalgüter, die mehrere Perioden im Produktionsprozess fungieren und sich somit periodisch entwerten, wird der Verlauf von Lohn-Zinssatz-Kurven komplizierter (vgl. dazu Pasinetti 1988).
Neoklassische Makroökonomie
249
einen Profit als Überschuss erlaubt. Im Keynesianismus wird der Zinssatz bzw. die Profitrate vorgegeben und der Reallohnsatz ergibt sich als Resultat. Hier wird so argumentiert, dass Prozesse auf dem Vermögensmarkt einen bestimmten Profitaufschlag erzwingen. Im einfachsten Fall kann argumentiert werden, dass ein Unternehmen mit einem Geldzinssatz für Kredite konfrontiert ist und die Profitrate mindestens dem Geldzinssatz entsprechen muss. Spezifische Prozesse auf Vermögensmärkten können jedoch einen höheren Profitaufschlag erzwingen. Diesen Stärken des Produktionspreismodells stehen Schwächen gegenüber, wobei die Schwächen insbesondere darin liegen, dass zu verschiedenen ökonomischen Problemen keine Aussagen gemacht werden können. So lässt sich im Rahmen des Produktionspreissystems zwar ein physisches Nettoprodukt ableiten, das durch die dem System unterlegte Technik determiniert wird. Das Nettoprodukt wird dann allerdings nicht mit der Konsumnachfrage in Verbindung gebracht. Die Nachfrage taucht als Kategorie überhaupt nicht auf; die Konsumenten müssen sozusagen „essen was auf den Tisch kommt“. Aus der Perspektive des walrasianischen Totalmodells ist das Produktionspreismodell ein sehr spezifischer Spezialfall, der integriert werden kann. Das Produktionspreissystem geht von einem Mengengerüst aus, das exogen gegeben ist. Dies gilt einerseits für die Produktionskoeffizienten, andererseits jedoch auch für die Quantität des Nettoproduktes. Das Mengengerüst diktiert dann bei vorgegebener Verteilung die relativen Preise und den Wert des Nettoproduktes. Über die Wirkung von Veränderungen des Produktionsvolumens auf die relativen Preise kann keine Aussage getroffen werden. Zwar würde, sofern konstante Skalenerträge unterstellt werden, eine Verdopplung aller Mengen (bei unveränderter Verteilung) das Preissystem unverändert lassen, aber über die Art der Skalenerträge, die dem Produktionspreissystem unterliegen, wird gewöhnlich keine Aussage gemacht. Diese Schwächen schmälern freilich nicht die destruktive Kraft des Modells von Sraffa. Dies soll im nächsten Kapitel gezeigt werden. Ob die positiven Seiten des Produktionspreismodells einer Weiterentwicklung fähig sind, muss die künftige Forschung zeigen. Kernpunkte Ein Produktionspreismodell ist in der Lage, bei der Existenz vieler Kapitalgüter ein System relativer Preise abzuleiten, das die Reproduktion der Ökonomie garantiert und eine gleiche Profitrate in allen Branchen impliziert. Das Produktionspreismodell kann die Einkommensverteilung nicht klären, dazu braucht es ein zusätzliches Theorieelement. Die Einkommensverteilung kann wie im klassischen Paradigma durch die Vorgabe des Reallohnsatzes oder wie im keynesianischen Paradigma durch die Vorgabe der Profitrate bzw. des Zinssatzes bestimmt werden. Die relativen Preise hängen von der Verteilung des Einkommens ab. Das Produktionspreismodell impliziert Lohn-Zinssatz-Kurven, die konvex oder konkav zum Ursprung sein können. Piero Sraffa hat das Produktionspreismodell in erster Linie zur Kritik der realen neoklassischen Makroökonomie entwickelt. Es kann jedoch auch als formale Fassung der Theorie relativer Preise im klassischen Paradigma gelten. Eine der Schwächen des Modells ist, dass die Produktionsmenge und die Struktur der Endnachfrage nicht erklärt werden können.
250
Neoklassische Makroökonomie
3.3.3 Die Widerlegung der neoklassischen realen Makroökonomie Fragestellung Warum gelten die Parabeln der neoklassischen Kapitaltheorie nur unter äußerst spezifischen und unrealistischen Bedingungen? Wie können die zentralen Aussagen der realen neoklassischen Makroökonomie widerlegt werden? Die neoklassische reale Makroökonomie braucht die aggregierte Produktionsfunktion als zentralen Baustein ihrer Argumentation, da ohne eine solche Produktionsfunktion das Produktionsvolumen, das Einsatzverhältnis von Kapital und Arbeit und vor allem die Verteilung nicht bestimmt werden können. Es führt jedoch kein Weg an der Erkenntnis vorbei, dass Äpfel und Birnen nicht addiert werden können. Eine aggregierte Produktionsfunktion ist ohne Wertkategorien bei mehreren Kapitalgütern offensichtlich nicht formulierbar. Im Folgenden werden wir zeigen, welchen Weg die Neoklassik gegangen ist, um diesem Dilemma zu entkommen und warum dieser Weg in einer Sackgasse endete. Das Ergebnis wird zur Folge haben, dass die vier Parabeln der neoklassischen Makroökonomie nicht aufrecht zu erhalten sind und eigentlich keine makroökonomischen Produktionsfunktionen mehr benutze werden dürften. „Eigentlich“ drückt aus, dass trotz der Probleme der makroökonomischen Produktionsfunktion in Lehrbüchern und wissenschaftlichen Beiträgen makroökonomische Produktionsfunktionen weiter benutzt werden. Die erste Runde der Kritik an der neoklassischen realen Makroökonomie und ihrem Herzstück der makroökonomischen Produktionsfunktion bestand in der Feststellung, dass bei mehreren Kapitalgütern eine makroökonomische Produktionsfunktion ohne eine wertmäßige Erfassung von Kapital nicht möglich ist. Dem konnte nicht widersprochen werden. Insbesondere der international renommierte amerikanische Ökonom Paul Samuelson versuchte jedoch, eine makroökonomische Produktionsfunktion auf mikroökonomischer Grundlage zu entwickeln, die dem Cobb-Douglas-Typ entsprechen sollte. Sein Ziel war es, zu zeigen, dass die makroökonomische Produktionsfunktion eine legitime Abstraktion von einer Welt mit vielen Kapitalgütern sei. Der Versuch dieser Ableitung soll nun anhand eines sehr reduzierten Modells, das auch von Samuelson benutzt wurde, dargestellt werden. Um die folgenden Ausführungen nachvollziehen zu können, sollte man sich mit dem zuvor dargestellten Produktionspreissystem von Sraffa vertraut gemacht haben (vgl. Kapitel 3.3.2). Unterstellt wird eine Ökonomie mit nur einem Konsumgut. Daneben gibt es jedoch zahlreiche heterogene Kapitalgüter. Das Konsumgut kann mit einem dieser Kapitalgüter und mit Arbeit produziert werden. Es gibt so viele unabhängige Produktionsprozesse – Techniken – wie es Kapitalgüter gibt. Es existieren, trotz zahlreicher Technikvarianten, immer nur zwei Branchen. In der Kapitalgüterbranche wird genau die Menge an Kapitalgütern produziert, die in beiden Branchen in der betrachteten Periode verbraucht wird. Physische Überschüsse fallen nur in der Konsumgüterbranche an; es handelt sich somit um eine Ökonomie ohne Wachstum. Diese Annahmen vereinfachen zwar die Realität in extremer Form; jedoch kann das Scheitern der neoklassischen realen Makroökonomie selbst bei diesen extremen Vereinfachungen gezeigt werden. Nehmen wir als Konsumgut Weizen und als Kapitalgut Eisen. Damit lässt sich eine Technik darstellen, die mit dem Kapitalgut Eisen arbeitet. In der Weizenbranche wird mit Hilfe von Eisen und Arbeit Weizen und in der Eisenbranche durch den Einsatz von Eisen und Arbeit Eisen produziert. Damit ergibt sich das folgende Miniaturproduktionssystem, das der Logik des Produktionspreissystems von Sraffa entspricht: Eisen + Arbeit → Weizen Eisen + Arbeit → Eisen
Neoklassische Makroökonomie
251
Wird der Weizen statt mit Eisen mit Holzschaufeln produziert, ergibt sich eine zweite von der ersten unabhängige Technik, die nun Holzschaufeln als Kapitalgut und Weizen als Konsumgut beinhaltet. Werden Holzschaufeln durch Düngemittel ersetzt, resultiert eine dritte Technik etc. Stellen wir eine der vielen Techniken genauer dar: Für die Produktion eines Konsumgutes wird der Input des Kapitalgutes im Umfang von ac und der Einsatz von Arbeit im Umfang von bc benötigt, wobei a für Kapital- und b für Arbeitskoeffizienten steht. Entsprechend wird für die Produktion eines Kapitalgutes der Input des Kapitalgutes im Umfang von ak und der Einsatz von Arbeit im Umfang von bk benötigt. Die Preise der Güter werden mit pc und pk bezeichnet, die Profitrate bzw. Zinsrate63 mit q' und der Reallohnsatz mit wr . Damit können wir notieren:
(1 + q' ) ⋅ acpk + wrbc = pc
(Konsumgüterindustrie)
(1 + q' ) ⋅ akpk + wrbk = pk
(Kapitalgüterindustrie)
Man sieht, das obige System gleicht vollständig einem vereinfachten Produktionspreissystem von Sraffa. Es sei daran erinnert, dass das Modell nur relative Preise bestimmen kann, ein Gut also als Numéraire definiert werden muss. Wird der Preis des Konsumgutes als Numéraire gewählt, dann ist pc = 1 . pk pk = pk . Wird statt der BruttoverDer relative Preis des Kapitalgutes ist dann . Da pc = 1 ist, folgt pc pc wertungsrate (1 + q') nur eine Zins- bzw. Profitrate q' unterstellt64, dann wird das Produktionspreissystem zu: (3.3.9)
q' acpk + wrbc = 1
(Konsumgüterindustrie)
q' akpk + wrbk = pk
(Kapitalgüterindustrie)
Wird pk im Gleichungssystem (3.3.9) für die Konsumgüterindustrie isoliert und der entsprechende Wert dann in die Gleichung für die Kapitalgüterindustrie eingesetzt und nach wr umgestellt, ergibt sich: (3.3.10)
wr =
(1 − q' ak) q' (acbk − akbc) + bc
Die Gleichung (3.3.10) stellt die Lohn-Zinssatz-Kurve des obigen Produktionspreissystems dar. Unterstellen wir weiter, dass in allen Branchen die gleiche Kapitalintensität herrscht. Bei gleicher Kapitalintensität besteht bei einer Veränderung der Verteilung keine Notwendigkeit der Veränderung der relativen Preise, da alle Branchen von Verteilungsänderungen gleich betroffen werden und die Profitbzw. Zinsraten zwischen den Branchen nicht unterschiedlich werden. Diese Annahme ist faktisch identisch mit der Annahme nur eines Kapitalgutes. Denn eine gleiche Kapitalintensität unterstellt implizit eine identische Technik und damit die Existenz nur eines Kapitalgutes. Unter dieser äußerst spezifischen Annahme sind die Kapital- und Arbeitskoeffizienten in allen Branchen gleich. Wir unterstellen:65 bc = bk = b
und
ac = ak = a Die Lohn-Zinssatz-Kurve in Gleichung (3.3.10) vereinfacht sich unter der Bedingung gleicher Kapitalintensitäten zu:
63 64 65
Es sei daran erinnert, dass Profit- und Zinsrate in diesem Kapitel zusammenfallen. Um das Argument plausibel zu machen, kann eine unendliche Lebensdauer der Kapitalgüter angenommen werden. Die Annahme gleicher Kapitalintensität in allen Branchen würde schon durch
chung nehmen wir jedoch an, dass
bk ak = erfüllt sein. Zur Vereinfabc ac
bc = bk = b und ac = ak = a ist, was eine noch engere Unterstellung ist.
252
Neoklassische Makroökonomie
(3.3.11)
wr =
1 − q' a b
wr =
1 a − ⋅ q′ b b
bzw.
Die Lohn-Zinssatz-Kurve bei gleicher Kapitalintensität der Branchen wird somit zu einer Geraden mit a 1 der Steigung - und dem Achsenabschnitt (vgl. Abbildung 3.3.2). b b
Abbildung 3.3.2: Die Lohn-Zinssatz-Beziehung bei gleicher Kapitalintensität in allen Branchen r
1 =Π b
w 1 a = − q′ P b b
Ψ
−a = −Ψ b
q’
Der Betrag der Steigung der Lohn-Zinssatz-Geraden drückt zugleich die Kapitalintensität Ψ = hier betrachteten Produktionspreissystems aus, so dass gilt Ψ =
PV des H
a . Dies lässt sich leicht zeigen. In b
jeder der beiden Branchen gilt:
Eisen Eisen PV a Outputeinheit = = = Arbeitsinput Arbeitsinput H b Outputeinheit Ist die Profit- bzw. Zinsrate Null, dann erhält der Faktor Arbeit das gesamte Nettoprodukt. Der maxi1 male Reallohnsatz ist somit identisch mit dem Output pro Kopf (Π). Der Achsenabschnitt drückt b somit ökonomisch Π aus. Die Lohn-Zinssatz-Gerade in Abbildung 3.3.2 gilt für das Miniaturproduktionssystem mit einem Konsumgut (Weizen) und einem spezifischen Kapitalgut (z. B. Eisen), das in der Kapital- und Konsumgüterbranche benutzt wird. Entsprechend den Annahmen des Modells von Samuelson gibt es aber zahlreiche unterschiedliche Kapitalgüter. Jedes Kapitalgut kann grundsätzlich zur Produktion des einen Konsumgutes und zur Produktion von sich selbst eingesetzt werden und führt zu einem unabhängigen
Neoklassische Makroökonomie
253
Produktionssystem. Jede einzelne Technik – jedes Produktionssystem mit einem Kapitalgut und gleicher Kapitalintensität in allen Branchen – liefert eine spezifische Lohn-Zinssatz-Kurve in der Form einer Geraden. Betrachten wir Abbildung 3.3.3 mit vier willkürlich gewählten Lohn-Zinssatz-Geraden. Die Technik Te4 hat von den vier eingetragenen Techniken die höchste Kapitalintensität ( Ψ 4) , da die Lohn-Zinssatz-Kurve hier am steilsten verläuft. Die Technik Te3 hat die zweithöchste Kapitalintensität, jedoch das höchste Produktionsvolumen pro Kopf ( Π3) . Dies ergibt sich unmittelbar daraus, dass die Lohn-Zinssatz-Gerade die Ordinate am höchsten Punkt schneidet. Technik Te2 hingegen hat eine geringere Kapitalintensität und ein geringeres Produktionsvolumen pro Kopf als Te3 . Technik Te1 zeichnet sich schließlich durch die geringste Kapitalintensität und das geringste Produktionsvolumen pro Kopf aus.
Abbildung 3.3.3: Mehrere Lohn-Zinssatz-Kurven mit jeweils gleicher Kapitalintensität der Branchen
w P Π3 A
⎛w ⎞ ⎜ ⎟4 ⎝P⎠
Te3
⎛w ⎞ ⎜ ⎟3 ⎝P⎠
Te4 Π2
Te2 Π1
⎛w ⎞ ⎜ ⎟2 ⎝P⎠ ⎛w ⎞ ⎜ ⎟1 ⎝P⎠
Te1
B C D
Ψ4
Ψ3
Ψ2
Ψ1 q‘
Nun stellt sich die Frage, welche Technik ein gewinnmaximierendes Unternehmen auswählt. Machen wir uns auch dies an Abbildung 3.3.3 klar. Angenommen die Unternehmen seien mit einem Lohnsatz von ( wr ) 4 konfrontiert. Dann scheiden die Techniken Te4 , Te2 und Te1 aus, da sie selbst bei einer Profit- bzw. Zinsrate rate von Null keine Lohnzahlungen in dieser Höhe ermöglichen würden. Ein gewinnmaximierendes Unternehmen wird sich bei (wr )4 somit für die Technik Te3 entscheiden, da dies die einzige Technik ist, die bei dem Lohnsatz einen Profit ermöglicht. Nehmen wir nun an, der Reallohnsatz würde auf (wr )3 sinken. Bei diesem Lohnsatz könnte Technik Te4 zur Anwendung kommen, allerdings nur um den Preis einer geringeren Verwertungsrate als bei Technik Te3 . Damit kommt sie nicht zum Zuge. Ein gewinnmaximierendes Unternehmen würde folglich weiterhin Te3 anwenden.
254
Neoklassische Makroökonomie
Kommen wir nun zum Reallohnsatz (wr )2 . Grundsätzlich wären hier alle vier Techniken einsetzbar. Allerdings ermöglicht Technik Te2 beim gegebenen Reallohnsatz die höchste Verwertungsrate, so dass diese Technik gewählt wird. Bei einem Reallohnsatz von (wr )1 würde, entsprechend der gewinnmaximierenden Logik, Technik Te1 gewählt. Bei gegebenem Lohnsatz wird ein Unternehmen somit immer auf die Lohn-Zinssatz-Gerade bzw. die Technik springen, die am weitesten rechts liegt. Wie die Technik Te4 in Abbildung 3.3.3 zeigt, müssen nicht alle Techniken zur Anwendung kommen. Ist der Einsatz einer Technik bei allen Lohnsätzen mit geringeren Profit- bzw. Zinsraten verbunden als bei anderer Techniken, spielt sie für die Ökonomie keine Rolle. Gäbe es in einer Ökonomie nur die in Abbildung 3.3.3 eingezeichneten Techniken, würde ein gewinnmaximierendes Unternehmen bei Lohnbzw. Zinssatzveränderungen der Umhüllenden der drei ökonomisch relevanten Techniken – also der Strecke ABCD – folgen. Nehmen wir nun nicht nur drei, für ökonomische Entscheidungen bedeutsame Techniken an, sondern sehr viele, dann entspricht die Umhüllende dieser vielen Techniken genau einer zum Ursprung hin konvexen Lohn-Zinssatz-Kurve, die bereits aus der neoklassischen makroökonomischen Produktionsfunktion abgeleitet wurde. Samuelson hat damit gezeigt, dass unter den von ihm gesetzten Bedingungen eine Beziehung zwischen Zinsrate und Reallohnsatz existiert, die der zweiten Parabel der neoklassischen realen Makroökonomie entspricht. Offen ist noch, wie man auf der Basis der bisherigen Überlegungen eine makroökonomische Pro-KopfProduktionsfunktion ableiten kann, die dem Cobb-Douglas-Typ entspricht. Dazu müssen alle Techniken, die jeweils einen spezifischen Pro-Kopf-Output und eine spezifische Kapitalintensität haben, geordnet werden. Über dieses Verfahren ergibt sich dann aus der Lohn-Zinssatz-Kurve eine makroökonomische Pro-Kopf-Produktionsfunktion. In der Abbildung 3.3.4 sind im oberen Teil bei der abgetragenen Lohn-Zinssatz-Kurve spezifische Techniken mit den entsprechenden Kapitalintensitäten und dem Pro-Kopf-Output angegeben. Es ist dann ein Leichtes, aus diesen Kombinationen eine Pro-KopfProduktionsfunktion abzuleiten, die im unteren Teil der Abbildung angegeben ist. Werden viele Techniken unterstellt, dann ergibt sich die aus der Neoklassik bekannte Pro-Kopf-Produktionsfunktion (vgl. Kapitel 3.2.3)
Neoklassische Makroökonomie
255
Abbildung 3.3.4: Die makroökonomische Surrogat-Pro-Kopf-Produktionsfunktion wr Π4 Π3 Π2
Lohn-Zinssatz-Kurve
Π1 Ψ4
Ψ3
Ψ2
Ψ1
q‘
Π Π = Π (Ψ)
Π4 Π3 Π2 Π1
Ψ1
Ψ2
Ψ3
Ψ4
Ψ
Es ergibt sich bei der abgeleiteten Produktionsfunktion ein ertragsgesetzlicher Kurvenverlauf, da eine steigende Kapitalintensität mit positiven, aber abnehmenden Grenzerträgen einhergeht. Paul Samuelson nannte die so konstruierte Funktion Surrogat-Produktionsfunktion. Er glaubte, auf diese Weise bewiesen zu haben, dass auch bei heterogenen Kapitalgütern die Gesetze gelten, die mit der makroökonomischen Produktionsfunktion abgeleitet werden konnten. Die Parabeln der „alten“ Neoklassiker seien somit nicht falsch, sondern ausschließlich analytisch unbefriedigend abgeleitet worden. Der Ansatz von Samuelson erwies sich jedoch als Bumerang. Die von ihm unterstellte Annahme einer gleichen Kapitalintensität in allen Branchen bzw. bei allen Technologien ist keine akzeptable Unterstellung. Warum sollte die Chemieindustrie mit der gleichen Kapitalintensität arbeiten wie Unternehmensberater oder Opernsänger? Die Annahme gleicher Kapitalintensitäten in allen Branchen läuft, wie schon betont, auf die gleiche Unterstellung hinaus wie die Annahme, dass es in der gesamten Ökonomie nur ein Kapitalgut gibt. Was passiert aber, wenn die Annahme gleicher Kapitalintensitäten in allen Branchen aufgegeben wird? Die Antwort lautet: Die theoretische Konstruktion der Parabeln der neoklassischen realen Makroökonomie fällt zusammen wie ein Kartenhaus. Samuelson hat damit – unfreiwillig – gezeigt, unter welchen äußerst spezifischen Bedingungen die Parabeln der neoklassischen Makroökonomie gelten. Bei unterschiedlichen Kapitalintensitäten in verschiedenen Branchen kann die Lohn-Zinssatz-Kurve in
256
Neoklassische Makroökonomie
Gleichung (3.3.10) nicht mehr vereinfacht werden. Dann sind jedoch konkave oder konvexe LohnZinssatz-Kurven möglich. An zwei numerischen Beispielen soll dies bewiesen werden. Unterstellen wir die Gleichung (3.3.10) nutzend im ersten Beispiel eine sehr kapitalintensive Produktion in der Konsumgüterindustrie und eine sehr arbeitsintensive in der Kapitalgüterindustrie. Diese Annahme spiegelt sich in den gewählten Zahlen ac = 10 ; bc = 0,1 ; ak = 0,1 und bk = 20 wider. Der sich bei unterschiedlichen Verwertungsraten ergebende Reallohnsatz entsprechend der Gleichung (3.3.10) ist in der Tabelle 3.3.4 angegeben. Es ergibt sich eine zum Ursprung hin konvexe Lohn-Zinssatz-Kurve mit einem maximalen Reallohnsatz von 10 Weizeneinheiten und einer maximalen Profit- bzw. Zinsrate von 1000%. Abbildung 3.3.5 zeigt einen Ausschnitt dieser Lohn-Zinssatz-Kurve.
Tabelle 3.3.4: Das Beispiel einer zum Ursprung konvexen Lohn-Zinssatz-Kurve Zins- und Profitrate
Reallohnsatz
0,0
10,0000
0,1
0,0493
0,5
0,0095
0,9
0,0051
10,0
0,0000
Abbildung 3.3.5: Die konvexe Lohn-Zinssatz-Kurve aus Tabelle 3.3.4
w P 10,0
Lohn-Zinssatz-Kurve
0,0493 0,0095 0,0051 q‘
Nehmen wir nun den umgekehrten Fall einer sehr arbeitsintensiven Produktion in der Konsumgüterindustrie und eine sehr kapitalintensiven in der Kapitalgüterindustrie an. Wenn wir ac = 0,1 ; bc = 20 ; ak = 0,9 und bk = 0,1 unterstellen, dann resultieren daraus die Zinssatz-Reallohn-Relationen in der Tabelle 3.3.5. Die resultierende Lohn-Zinssatz-Kurve ist in Abbildung 3.3.6 dargestellt. Sie ist zum Ursprung hin konkav und hat einen maximalen Lohnsatz von 0,05 Weizeneinheiten und eine maximale Verwertungsrate von rund 110%.
Neoklassische Makroökonomie Tabelle 3.3.5:
257
Das Beispiel einer zum Ursprung konkaven Lohn-Zinssatz-Kurve Zins- und Profitrate
Reallohnsatz
0,0
0,050000
0,1
0,049997
0,5
0,049977
0,9
0,049880
1,1
0,000000
Abbildung 3.3.6: Die konkave Lohn-Zinssatz-Kurve aus Tabelle 3.3.4 wr
0,05
Lohn-Zinssatz-Kurve
1,11
q‘
Es bestätigt sich somit das aus Sraffas Produktionspreismodell abgeleitete Ergebnis: Bei einer allgemeinen Analyse, die unterschiedliche Kapitalintensitäten in verschiedenen Branchen zulässt, werden Lohn-Zinssatz-Kurven konvex oder konkav. Mit der Möglichkeit zum Ursprung hin konkaver LohnZinssatz-Kurven ist die zweite Parabel der realen neoklassischen Makroökonomie widerlegt, die zwingend von zum Ursprung hin konvexen Lohn-Zinssatz-Kurven ausgehen muss. Die Konsequenzen konkaver Lohn-Zinssatz-Kurven sollen für die neoklassische Argumentation im Folgenden näher ausgeführt werden. Unterstellen wir in einem ersten Schritt, dass in der Ökonomie nur eine Technik existiert, die jedoch, entsprechend dem obigen Zahlenbeispiel, eine zum Ursprung hin konkave Lohn-Zinssatz-Kurve erzeugt (vgl. Abbildung 3.3.7). Wie üblich impliziert die Technik einen maximalen Lohnsatz und eine maximale Verwertungsrate. Da der maximale Lohnsatz der Wertschöpfung pro Kopf entspricht, ergibt sich bei einem Lohnsatz von beispielsweise (wr )1 ein Pro-Kopf-Profit in Höhe der Strecke AB . Wird, ausgehend vom maximalen Lohnsatz, eine Sekante durch die willkürlich gewählte Lohn-ZinssatzKombination auf der Lohn-Zinssatz-Kurve gezogen, so ist die Steigung der Sekante bestimmt durch die Strecken
258
Neoklassische Makroökonomie tan α =
AB 0q'
Q1 entspricht bei dem gewählten Punkt auf der Lohn-Zinssatz-Kurve der Strecke H Q1 AB . Die Strecke 0q'1 entspricht der Zinsrate q'1 , die durch definiert ist. Somit gilt: PV
Der Pro-Kopf-Profit
Q1 ΑΒ PV tanα = = Η = Η 0q '1 Q1 PV
mit
PV = Ψ1 H
Der Tangens des Winkels α in Abbildung 3.3.7 drückt somit unmittelbar die Kapitalintensität aus. Werden – ausgehend vom maximalen Lohnsatz – durch alle Punkte auf der Lohn-Zinssatz-Kurve Sekanten gezogen, dann zeigt sich, dass die Kapitalintensität – der Tangens des Winkels α – mit steigender Profit- bzw. Zinsrate größer wird. Es ergibt sich also eine mit steigender Zinsrate steigende Kapitalintensität (vgl. Abbildung 3.3.8). Eine positive Korrelation zwischen Zinssatz und Kapitalintensität widerspricht den Vorstellungen der neoklassischen realen Makroökonomie fundamental, da sie mit steigender Kapitalintensität fallende Profitraten bzw. Zinssätze postuliert. Ein Resultat entsprechend der neoklassischen Logik würde sich nur bei einer zum Ursprung hin konvexen Lohn-Zinssatz-Kurve ergeben, die jedoch keineswegs zwingend ist.
Abbildung 3.3.7: Kapitalintensität und Einkommensverteilung wr
w r max A
B
w r1
0
tan α
q‘1
q‘
Neoklassische Makroökonomie
259
Abbildung 3.3.8: Die Beziehung zwischen Zinssatz und Kapitalintensität bei zum Ursprung konkaven Lohn-Zinssatz-Kurven Ψ
q‘
Das Phänomen sich verändernder Kapitalintensitäten bei unveränderter Technik und unverändertem Pro-Kopf-Output ging als Kapitalreversing in die Literatur ein. Es drückt aus, dass ein steigender Kapitalstock nicht wie in der Neoklassik mit einer fallenden Zinsrate einhergehen muss. Kapitalreversing kommt dadurch zustande, dass sich, wie wir beim Produktionspreismodell von Sraffa gezeigt haben, bei Verteilungsänderungen die relativen Preise zur Realisierung einer gleichen Verwertungsrate in allen Branchen verändern müssen und damit der Wert des physisch unveränderten Kapitalbestands neu bewertet wird. In einem allgemeinen Modell lässt sich die Bewegung der relativen Preise bei Verteilungsänderungen nicht allgemein bestimmen, so dass bei einem steigenden Wert des Kapitalbestandes die Zinsrate sinken (wie in Neoklassik unterstellt) oder steigen kann. Genau diesen Punkt hat David Ricardo erahnt, als er von der „merkwürdigen Wirkung“ von Verteilungsänderungen auf die relativen Preise bei unverändertem physischem Kapitalstock sprach (vgl. Dobb 1977, S. 76 ff.) Führen wir nun die Möglichkeit verschiedener Techniken ein. Es gibt so viele Lohn-Zinssatz-Kurven wie verfügbare Techniken, denn für jede Technik kann eine spezifische Lohn-Zinssatz-Kurve errechnet werden. Um die Anschaulichkeit nicht zu gefährden, beschränken wir uns in der Darstellung auf zwei Lohn-Zinssatz-Kurven. In Abbildung 3.3.9 ist eine konkave (Te1) und eine konvexe (Te2) LohnZinssatz-Kurve eingezeichnet.
260
Neoklassische Makroökonomie
Abbildung 3.3.9: Lohn-Zinssatz-Kurven von zwei möglichen Techniken
w P ⎛w ⎞ ⎜ ⎟ ⎝ P ⎠3 ⎛w ⎞ ⎜ ⎟ ⎝ P ⎠2
Te1
⎛w ⎞ ⎜ ⎟ ⎝ P ⎠1
Te2 q‘1
q‘2
q‘
Bei einem hohen Reallohnsatz und einer Profit- bzw. Zinsrate, die kleiner als q'1 ist, entscheiden sich die Unternehmen für Te2 . Im Punkt q'1 sind die Verteilungsgrößen, also der Lohnsatz und die Verwertungsraten, für beide Techniken gleich. In diesem Fall sind die Unternehmen zwischen den beiden Techniken indifferent. Die gleiche Situation findet man bei der Profit- bzw. Zinsrate q'2 . Steigt die Verwertungsrate über den Punkt q'1 hinaus, der als Switchpunkt bezeichnet wird, dann wählen die Unternehmen die Technik Te1. Steigt die Profit- bzw. Zinsrate rate über das Niveau von q'2 , dann kehren die Unternehmen – zur größten Überraschung der Vertreter der Grenzproduktivitätstheorie der Verteilung – zur Technik Te2 zurück. Da sie auf die „alte“ Technik zurückkehren, wird der Punkt q'2 auch als Reswitchingpunkt bezeichnen. Bei weiter steigender Verwertungsrate wird bis zur maximalen Zinsbzw. Profitrate q'3 die Technik Te2 benutzt. Mit der Möglichkeit des Switching ist der neoklassische Zusammenhang zwischen Kapitalintensität und Zinsrate restlos zerstört. Eine kapitalintensive Produktion ist aufgrund von Technikwechseln mit hoher Zinsrate ebenso möglich wie mit niedriger. Dies wird deutlich, wenn entsprechend den LohnZinssatz-Kurven der Abbildung 3.3.9 der Zusammenhang zwischen Kapitalintensität und Zinsrate hergestellt wird (vgl. Abbildung 3.3.10). Zu beachten ist, dass bei einer zum Ursprung konvexen Kurve die Zinsrate mit steigender Kapitalintensität sinkt und bei einer zum Ursprung konkaven Kurve der Zinssatz mit steigender Kapitalintensität steigt. Zwischen der Zins- bzw. Profitrate Null und q'1 wird Technik Te2 benutzt. In diesem Bereich sinkt mit steigender Zinsrate die Kapitalintensität, was den Annahmen der neoklassischen realen Makroökonomie entspricht. Bei Verwertungsraten zwischen q'1 und q'2 wird Te1 gewählt. Die Kapitalintensität sinkt bei q'1 schlagartig. Auch dies passt noch in die Vorstellungswelt der Neoklassik, obwohl schon Sprungstellen die postulierte monotone inverse Beziehung zwischen Zinsrate und Kapitalintensität stören. Steigt die Zins- bzw. Profitrate weiter an, dann erhöht sich mit steigender Zinsrate die Kapitalintensität, was den neoklassischen Parabeln gänzlich widerspricht. Wird die Profitrate q'2 durchlaufen, dann kommt es zum Reswitching, also zur Rückkehr zur Technik Te2 . Die Kapitalintensität springt auf einen niedrigeren Wert und sinkt bis zur maximalen Zinsrate.
Neoklassische Makroökonomie
261
Abbildung 3.3.10: Die Zerstörung der Beziehung zwischen Kapitalintensität und Zinsrate
w P A ⎛w ⎞ ⎜ ⎟ = Π2 ⎝ P ⎠3
⎛w ⎞ ⎜ ⎟ = Π1 ⎝ P ⎠2
B Te1
⎛w ⎞ ⎜ ⎟ ⎝ P ⎠1 Ψ
C Te2 q‘1
q‘1
q‘2
q‘2
D q‘3
q‘
q‘3
q‘
Wie in Abbildung 3.3.10 deutlich wird, kann eine hohe Kapitalintensität bei hohen und bei niedrigen Zinsraten auftreten. Wertmäßige Veränderungen des Kapitalstocks bei gegebener Technik sowie die Wiederkehr von Techniken zerstören die neoklassische Parabel einer mit sinkender Zinsrate steigenden Kapitalintensität der Produktion. Im allgemeinen Fall können so viele Wechsel zwischen zwei Techniken auftreten, wie es Kapitalgüter in der Ökonomie gibt. Die Vorstellung einer mit fallendem Zinssatz steigenden Kapitalintensität muss dann schlicht und einfach zu den Akten gelegt werden. Im Folgenden sollen die Konsequenzen für die Grenzproduktivitätstheorie der Verteilung und die makroökonomische Produktionsfunktion untersucht werden. In der Abbildung 3.3.4 haben wir Samuelsons Surrogat-Produktionsfunktion dargestellt, die eine Beziehung zwischen Kapitalintensität und Output je Arbeiter entsprechend einer Cobb-Douglas-Produktionsfunktion lieferte. Wie sieht nun die Produktionsfunktion vor dem Hintergrund der bisherigen Ausführungen aus? In Abbildung 3.3.11 ist für das Beispiel in Abbildung 3.3.10 die Beziehung zwischen Kapitalintensität und Produktionsvolumen pro Kopf angegeben. Es sei daran erinnert, dass der maximale Lohnsatz der jeweiligen Lohn-ZinssatzKurve identisch ist mit dem Pro-Kopf-Output der jeweiligen Technik. Beginnen wir mit dem Punkt D in Abbildung 3.3.10. Bei einer Wanderung nach links bis zum Punkt C erhöht sich die Kapitalintensität kontinuierlich, während das Produktionsvolumen pro Kopf mit Π 2 gleich bleibt. Diesem Verlauf entspricht der Abschnitt DC in Abbildung 3.3.11. Am Switchpunkt C wird eine Technik mit geringerem Produktionsvolumen je Arbeiter – nämlich mit Π1 – und höherer Kapitalintensität gewählt. Bei der
262
Neoklassische Makroökonomie
Wanderung entlang der Lohn-Zinssatz-Kurve von Punkt C zu B sinkt die Kapitalintensität beim unveränderten Outputniveau pro Kopf Π1 . Dem entspricht CB in Abbildung 3.3.11. Beim nächsten Switchpunkt in B steigt die Kapitalintensität schlagartig an und das Produktionsvolumen springt auf das Niveau Π 2 zurück. Der Abschnitt BA ist durch einen gleich bleibenden Output je Arbeitseinheit bei steigender Kapitalintensität charakterisiert. An den Switchpunkten sind beide Techniken gleichwertig, d. h. sie bieten bei einem gegebenen Lohnsatz dieselbe Verwertungsrate, so dass völlig unbestimmt bleibt, für welche Technik sich die Unternehmen entscheiden werden. Von der neoklassischen makroökonomischen Produktionsfunktion bleibt nichts übrig. Ein gleicher Pro-Kopf-Output kann grundsätzlich mit unterschiedlichsten Kapitalintensitäten produziert werden und ein steigender Pro-Kopf-Output kann mit sinkenden Kapitalintensitäten einhergehen. Und, was der neoklassischen Argumentation gänzlich widerspricht, eine Technik, die bei sehr hohen Zinsraten gewinnmaximierend ist, kann dies auch bei sehr niedrigen Zinsraten sein.
Abbildung 3.3.11: Die zerstörte Produktionsfunktion Π Π2 Π1
D
C
B
B
A
C Ψ1
Ψ2
Ψ3
Ψ4
Ψ
Unterschiedliche Techniken sind mit einem unterschiedlichen Arbeitseinsatz verbunden, denn jede Technik zur Produktion einer gegebenen Outputmenge wird mit einer spezifischen Arbeitsmenge einhergehen. Nehmen wie als Beispiel den in den Abbildungen 3.3.9 und 3.3.10 angegebenen Zusammenhang und unterstellen, dass die Technik Te2 mit einem höheren Arbeitsinput verbunden ist als die Technik Te1 . Erhöht sich der Reallohnsatz, beginnend von Null, dann wird zunächst Technik Te2 benutzt (vgl. Abbildung 3.3.12) Beim Reallohnsatz wr1 wird zur Technik Te1 übergegangen, die mit weniger Arbeitskräften auskommt. Erhöhen sich die Reallohnsätze weiter, so wird beim Durchschreiten des Reallohnsatzes wr 2 erneut auf die Technik mit der höheren Beschäftigung umgestiegen, was den Aussagen der neoklassischen realen Makroökonomie vollständig widerspricht. Denn für sie ist es unverständlich, dass bei sehr hohen Reallohnsätzen eine arbeitsintensive Beschäftigung gewählt wird, die auch bei sehr niedrigen Reallohnsätzen profitmaximierend ist.
Neoklassische Makroökonomie
263
Abbildung 3.3.12: Die Zerstörung der Arbeitsnachfragefunktion
w P
⎛w ⎞ ⎜ ⎟ ⎝ P ⎠2 ⎛w ⎞ ⎜ ⎟ ⎝ P ⎠1 H1
H2
H
Eine geringe Beschäftigung ist sowohl bei hohen als auch bei niedrigen Reallöhnen möglich. Von einer mit sinkendem Reallohnsatz zunehmenden Arbeitsnachfrage kann keine Rede mehr sein. Zwischen Reallohnhöhen und Beschäftigung gibt es damit keinen Zusammenhang mehr. Hören wir hierzu Luigi Pasinetti, einer der Diskutanten der neoklassischen Kapitaltheorie: „Außerdem nimmt die Feststellung, dass bei fallender Profitrate die Produktionstechniken nicht in der Reihenfolge steigender Kapitalintensitäten auftreten, auch der zweiten grundlegenden Vorstellung der traditionellen Kapitaltheorie jeden Sinn, dass nämlich (...) ein Substitutionsprozess zwischen Arbeit und Kapital stattfinden müsste, wenn sich die Profitrate und Lohnsatz in entgegengesetzter Richtung verändern“ (Pasinetti 1988, S. 191). Der populären Vorstellung, Lohnsenkungen würden das Beschäftigungsniveau erhöhen, ist damit jedes theoretische Fundament entzogen – was allerdings nichts daran ändert, dass entsprechende Vorschläge nach wie vor ständig und überall vorgetragen werden.
264
Neoklassische Makroökonomie
Abbildung 3.3.13: Die Zerstörung der Beziehung zwischen Konsumniveau und Profitrate Π
Π2
Π1
Te1
Te2 q‘1
Π
q‘
q‘2
Π2 Π1 Te2 q‘1
Te1
Te2 q‘2
q‘
Kommen wir nun zu einer weiteren Parabel der neoklassischen realen Makroökonomie. Gemäß der vierten Parabel hängt das Konsumniveau pro Kopf im stationären Zustand von der Kapitalintensität ab, wobei mit steigender Kapitalintensität bzw. sich daraus ergebender sinkender Verwertungsrate das permanent mögliche Konsumniveau pro Kopf steigt. Greifen wir auch hier auf die Lohn-ZinssatzKurven zurück, die jeweils eine Technik zum Ausdruck bringen. Jede einzelne Technik ermöglicht jeweils ein bestimmtes Konsumniveau pro Kopf, dass sich nur ändert, wenn sich auch die Technik selbst ändert. In Abbildung 3.3.13 ist Technik Te2 mit einem höheren Konsumniveau im stationären Zustand verbunden als Technik Te1 . Dies ergibt sich, wie oben bereits betont wurde, aus dem Umstand, dass Technik Te2 einen höheren maximalen Reallohnsatz und damit einen höheren Pro-KopfOutput hat als Technik Te1 . Von der Zins- bzw. Profitrate Null bis zur Profitrate q'1 wird Technik Te2 mit dem Konsumniveau Π 2 gewählt. Steigt die Verwertungsrate nun über q'1 , wechseln gewinnmaximierende Unternehmen zu Technik Te1 , die mit einem niedrigen Pro-Kopf-Output verbunden ist. Dies entspricht der neoklassischen Logik. Bei einer weiter steigenden Profitrate kommt es schließlich bei q'2 zur Rückkehr zum alten hohen Konsumniveau Π1 . Hier führt eine steigende Profitrate zu einem steigenden Konsumniveau – ein Fall, der in der neoklassischen Makroökonomie nicht auftreten darf. Somit folgt, dass ein gleiches Konsumniveau bei unterschiedlichen Zins- bzw. Profitraten möglich ist. Sehen wir uns die Beziehung zwischen Verwertungsrate und Kapitalkoeffizienten an, die in der letzten noch verbleibenden neoklassischen Parabel postuliert wird. Nach neoklassischer Sicht muss mit sinPV kender Zinsrate der Kapitalkoeffizient ansteigen. Wird der Kapitalkoeffizient k = , der das eingeNIPr
Neoklassische Makroökonomie
265
setzte Kapital ins Verhältnis zum physischen Output setzt, im Zähler und Nenner durch die benötigten Ψ Arbeiter dividiert, ergibt sich k = . Der Kapitalkoeffizient ergibt sich somit aus dem Quotienten aus Π Kapitalintensität und Output pro Arbeitseinheit. In Abbildung 3.3.14 ist im oberen Bild die in der Abbildung 3.3.10 abgeleitete Beziehung zwischen Kapitalintensität und Verwertungsrate abgebildet. Im mittleren Teil der Abbildung 3.3.14 ist die Beziehung zwischen Output pro Arbeitseinheit und der Profit- bzw. Zinsrate dargestellt. Bezieht man Kapitalintensität und Output pro Kopf bei Veränderungen der Verwertungsrate aufeinander, dann ergibt sich der Kapitalkoeffizient in Abhängigkeit von der Zinsbzw. Profitrate.
Abbildung 3.3.14: Die Zerstörung der Beziehung zwischen Kapitalkoeffizient und Profitrate
Ψ
Kapitalintensität und Profitrate
q‘
Π
q‘1
q‘2
Output pro Arbeitseinheit
q‘1
k=
q‘2
q‘
Ψ Π Kapitalkoeffizient und Profitrate
q‘1
q‘2
q‘
Bei einer Verwertungsrate unter q'1 wird Technik Te2 benutzt. In diesem Abschnitt sinkt der Kapitalkoeffizient mit steigender Verwertungsrate, da bei unverändertem physischen Pro-Kopf-Output die Kapitalintensität sinkt. Steigt die Profitrate über q'1 , dann kommt es zum Wechsel zur Technik Te1 . Nach einem Sprung steigt der Kapitalkoeffizient mit steigender Profit- bzw. Zinsrate bis zur Rate q'2 an. Eine solche Entwicklung zwischen Verwertungsrate und Kapitalkoeffizient widerspricht der neo-
266
Neoklassische Makroökonomie
klassischen Makroökonomie, die zwischen steigender Verwertungsrate und Kapitalkoeffizient eine strikt inverse Beziehung ableitet. Schließlich wird bei der Profitrate q'2 zur alten Technik zurückgekehrt. Nach einem erneuten Sprung sinkt der Kapitalkoeffizient mit steigender Verwertungsrate. Als Fazit ergibt sich: Entgegen der neoklassischen realen Makroökonomie kann mit steigender Verwertungsrate der Kapitalkoeffizient steigen und bei gleicher Profit- bzw. Zinsrate können unterschiedliche Niveaus des Kapitalkoeffizienten auftreten. Die neoklassische reale Makroökonomie ist auf den Fall einer Welt mit einem Kapitalgut beschränkt, denn die Annahme einer gleichen Kapitalintensität in allen Branchen, die die Gesetze der neoklassischen realen Makroökonomie aufrechterhält, läuft auf dieses Ergebnis hinaus. Die Annahme nur eines Kapitalgutes bzw. die Unterstellung einer gleichen Kapitalintensität in allen Branchen stellen keine legitimen Abstraktionen von Ökonomien dar, da die Aufhebung dieser Annahmen die zentralen Aussagen des Modells zerstört. Abstraktionen sollen den Kern eines Arguments darstellen. Die reale neoklassische Makroökonomie definiert jedoch das Problem der Bewertung von Kapital weg, wenn sie nur ein Kapitalgut bzw. gleiche Kapitalintensitäten in allen Branchen unterstellt. Damit muss sich die Neoklassik insgesamt von ihrem Anspruch trennen, auf makroökonomischer Ebene harte Aussagen etwa über den Zusammenhang zwischen Lohnhöhe und Beschäftigung, oder Profitrate bzw. Zinssatz und Kapitalbestand oder über die Verteilung des Volkseinkommens machen zu können. Der Versuch, auf präferenztheoretischer Ebene substantielle makroökonomische Aussagen ableiten zu können, ist als gescheitert anzusehen. Das Scheitern der realen neoklassischen Makroökonomie offenbart zwei tief greifende Missverständnisse neoklassischen Denkens. Kapital wird erstens in der Neoklassik als physische Größe – als Weizen oder Pflug – begriffen und nicht als Wert. Es ist jedoch gerade der Charakter des Kapitals, eine Wertgröße zu sein, die eine kapitalistische Ökonomie ausmacht. Dadurch unterscheiden sich das gegenwärtige Wirtschaftssystem von anderen Ökonomietypen, wie z. B. den Feudal- oder Stammesgesellschaften. Die neoklassische reale Makroökonomie befindet sich mit ihrem physischen Kapitalbegriff freilich in guter Gesellschaft. Auch die Klassiker – Adam Smith, David Ricardo und Karl Marx – konnten ihr Verständnis von Kapital als einer physischen Menge von Arbeitseinheiten nicht überwinden. Es ist schon erstaunlich, dass unter der Bedingung gleicher Kapitalintensitäten in allen Branchen auch das Marxsche Modell sich als konsistent erweist, da dann nicht das so genannte Transformationsproblem von Arbeitswerten in Preise auftaucht, das Marx nicht lösen konnte (vgl. das 6. Kapitel). Das zweite Missverständnis der realen neoklassischen Makroökonomie besteht darin, die Gesetzmäßigkeiten bei einem einzelnen Unternehmen unreflektiert auf die Makroebene zu übertragen. Jede Berücksichtigung der Interaktion von Märkten, die ja die ganzen Umbewertungen von Kapital erzeugt, wird von den Theoretikern der realen neoklassischen Makroökonomie ausgeblendet. Es war das Verdienst des großen Neoklassikers Léon Walras, diese Interaktion in den Mittelpunkt seiner Analyse gestellt zu haben, freilich ohne zu harten Aussagen auf der Makroebene kommen zu können. Für neoklassische Ökonomen, die ursprünglich an die Möglichkeit härterer ökonomischer Aussagen glaubten, wurde „das Leben“ nicht einfacher. Zwei Reaktionsweisen kennzeichnen ihr Verhalten: Von einigen wird das Ergebnis der Kontroverse schlicht und einfach ignoriert. Dies spiegelt sich am deutlichsten – darauf bleibt es allerdings nicht beschränkt – in Lehrbüchern wider.66 Andere beschränken
66
Zwei Beispiele sollen der Illustration dienen. Felderer und Homburg schreiben in ihrem ohne Zweifel beachtlichen Lehrbuch: “Das Kapital ist in der makroökonomischen Abstraktion ein homogenes Gut, das mit dem produzierten Gut identisch ist“ (Felderer/Homburg 1988, S. 54). Diese weit reichende Unterstellung wird dann mit keinem Wort thematisiert, so dass sie für unbedarfte Leser im Text „verschwindet“. Samuelson, immerhin einer der Hauptbeteiligten an der Debatte über Kapitalreversing und Reswitching, gestand die Unhaltbarkeit der neoklassischen Parabeln uneingeschränkt ein, verfasste jedoch ein weit verbreitetes Lehrbuch, das die für die Neoklassik heikle Debatte verschwieg (vgl. Samuelson/Nordhaus 1987, 2. Bd.). Es drängt sich auf, dass Samuelson – Kant folgend – für den Durchschnittsstudenten die „praktische Vernunft“ für ausreichend hielt und die „reine Vernunft“ als „gefährliche Idee“ für kleine Zirkel reservierte.
Neoklassische Makroökonomie
267
sich auf die Analyse mikroökonomischer Phänomene und sind gegenüber einfachen makroökonomischen Konzepten äußerst kritisch.67 Kernpunkte Die vier zentralen neoklassischen Parabeln (eine mit sinkendem Zinssatz steigende Kapitalintensität, eine zum Ursprung konvexe Reallohnsatz-Zinssatz-Kurve, ein mit sinkendem Zinssatz steigender Kapitalkoeffizient und ein mit sinkendem Zinssatz steigendes permanentes Konsumniveau) gelten nicht allgemein. Damit bricht in der neoklassischen realen Makroökonomie im allgemeinen Fall auch die mit sinkenden Reallohnsätzen steigende Nachfrage nach Arbeit zusammen. Die neoklassischen Parabeln lassen sich nur unter der extrem restriktiven Annahme einer gleichen Kapitalintensität in allen Branchen bzw. der Existenz nur eines Kapitalgutes in der Ökonomie aufrechterhalten. Die Annahme einer gleichen Kapitalintensität in allen Branchen bzw. der Existenz nur eines Kapitalgutes ist nicht akzeptabel, da die Aufgabe dieser Annahme die zentralen Aussagen des Modells zerstört. Abstraktionen dürfen Theorieprobleme nicht wegdefinieren, und bei der Aufhebung der Abstraktion darf das Modell nicht in sich zusammenbrechen. Die Probleme der neoklassischen Kapitaltheorie rühren daher, dass sich bei Verteilungsländerungen die relativen Preise ändern und es damit zur Neubewertung des Kapitalstocks und zu Technikwechseln kommt, die das neoklassische Modell der realen Makroökonomie zerstören. Erhalten bleibt das mikroökonomische neoklassische Totalmodell, das jedoch wenige makroökonomische Aussagen erlaubt.
67
Vgl. beispielsweise Hahn (1982).
268
Neoklassische Makroökonomie
3.4 Monetäre neoklassische Makroökonomie 3.4.1 Nominale und reale Größen Fragestellung ▪ Was versteht man unter realen und nominalen Größen? ▪ Was ist ein Preisindex? ▪ Wie werden Preisniveauänderungen berechnet? ▪ Wie berechnet man reale Größen? Beim volkswirtschaftliche Produktionsvolumen oder auch anderen volkswirtschaftlichen Aggregaten wurde bisher vom Unterschied zwischen realen und nominalen Größen abgesehen. Solange nur einer Periode betrachtet wird, ist dies auch unproblematisch. Beim Periodenvergleich ergibt sich jedoch ein Problem: Sind Veränderungen zwischen Perioden auf eine Bewegung der in der Periode gezählten Mengen und/oder auf veränderte Preise zurückzuführen? Wenn wir z. B. in der Zeitung die Nachricht lesen, im Land A sei das nominale Produktionsvolumen im letzten Jahr um 50% gestiegen, so hilft uns diese Information noch nicht viel weiter. Möglicherweise sind die Preise im Schnitt um 80% gestiegen, so dass real weniger produziert wurde als im Jahr zuvor. Um eine Differenzierung zwischen Mengenund Preiseffekten zu ermöglichen, wird zwischen nominalen und realen Größen unterschieden. Die nominalen Größen umfassen dabei Preis- und Mengeneffekte, während die realen Größen nur mengenmäßige Veränderungen ausdrücken. Nehmen wir zur Verdeutlichung das nominelle Nettoinlandsprodukt (NIP), das in einer geschlossenen Ökonomie das Produktionsvolumen eines Landes innerhalb einer Periode (in der Regel ein Jahr) umfasst. Es besteht aus allen langlebigen Gütern, die von Unternehmen gekauft werden und deren Kapitalbestand erhöhen, aus allen Konsumgütern, die von privaten Haushalten gekauft werden, und allen Gütern, die der Staat kauft. Das NIP entspricht der Neuwertschöpfung in einer Periode und ist in einer geschlossenen Ökonomie mit dem Volkseinkommen identisch.69 Das NIP hat an dieser Stelle nur exemplarische Bedeutung. Der Zusammenhang zwischen dem nominalen und realen Nettoinlandsprodukt ergibt sich durch: (3.4.1)
NIPr =
NIP P
bzw.
P ⋅ NIPr = NIP
Das reale Nettoinlandsprodukt ( NIPr ) ergibt sich somit, wenn das nominale Nettoinlandsprodukt durch den Preisindex (P) dividiert wird. Das reale Nettoinlandsprodukt multipliziert mit dem Preisindex ergibt das nominale Nettoinlandsprodukt. Der Preisindex kann auch als Preisniveau bezeichnet werden. Der Preisindex hat die Funktion, die ausschließlich auf Preisveränderungen beruhenden Zuoder Abnahmen des Nettoinlandsproduktes herauszurechnen. Der Preisindex kann als gewichteter Durchschnittspreis der in dem betrachteten Aggregat enthaltenen Güter gelten. Bei einem Preisindex werden immer zwei Perioden verglichen. Das Berichtsjahr ist das jeweils aktuell betrachtete Jahr, während das Basisjahr in der Vergangenheit liegt und als Vergleichsjahr fungiert. Empirisch werden unter Inflation (Preisniveauerhöhungen) und Deflation (Preisniveausenkungen) die jährlichen Veränderungsraten eines Preisindexes verstanden. Das nach dem Statistiker Paasche benannte Verfahren geht zur Berechnung des Preisindexes folgendermaßen vor, wobei das Nettoinlandsprodukt als Beispiel benutzt wird. Das Nettoinlandsprodukt der laufenden Periode (des Berichtsjahres) wird so berechnet, dass alle produzierten Güter des entsprechenden Jahres mit den aktuellen Preisen aggregiert werden. Beim Basisjahr werden die Mengen des Berichtsjahres mit den Preisen des Basisjahres aggregiert und man erhält den Wert des Nettoin69
Vgl. dazu die Ausführungen zur den Volkswirtschaftlichen Gesamtrechnungen im Kapitel 4.1.
Neoklassische Makroökonomie
269
landsprokuktes des Berichtsjahres zu Preisen des Basisjahres. Es wird somit implizit unterstellt, dass die Mengen des Basisjahres die gleichen sind wie die des Berichtsjahres. Der Preisindex ergibt sich dann, wenn ein Quotient gebildet wird und der Wert des Berichtsjahres im Zähler und der Wert des Basisjahrs im Nenner steht. Gibt es in der Volkswirtschaft n Güter, die in das Nettoinlandsprodukt eingehen, und ist Xgt das g-te Gut in der Berichtsperiode t und pgt der entsprechende Preis, so ist das nominale Nettoinlandsprodukt der Berichtsperiode NIPt = ∑ Xgt pgt ; g = 1, 2, ..., n. In der Basisperiode werden beim PaaschePreisindex die Mengen der Berichtsperiode mit den Preisen der Basisperiode multipliziert. Bezeichnet t-1 die vergangene Periode, so entspricht das mit den Preisen der Basisperiode bewertete Nettoinlandsprodukt der Berichtsperiode ∑ Xgt pgt - 1 ; g = 1, 2, ..., n. Der Paasche-Preisindex ist daher folgendermaßen definiert: (3.4.2)
Paasche-Preisindex =
∑ Xgt pgt ∑ Xgt pgt - 1
g = 1, 2, ..., n
Der Preisindex ist eine dimensionslose Zahl, die Werte zwischen 0 < P < ∞ annehmen kann. Es wird anhand dieser Formel unmittelbar deutlich, dass ein Wert des Preisindexes von eins ein unverändertes Preisniveau ausdrückt, während Werte über eins Preisniveauerhöhungen und Werte unter eins Preisniveausenkungen ausdrücken.70 Ein Anstieg des Preisindexes von eins auf 1,05 drückt aus, dass das Preisniveau um 5% gestiegen ist, während ein Wert von 0,9 eine Senkung des Preisniveaus um 10% wiedergibt. Verwendung findet der Paasche-Preisindex vor allem bei der Berechnung von Mengenentwicklungen, beispielsweise des realen Nettoinlandsprodukts, der realen Investitionsnachfrage und anderen realer Mengengrößen. Machen wir ein Beispiel. In einer Miniaturökonomie werden im Berichtsjahr 40 Fische zu je 20 €, 1 Fass Wein zu 500 €, 60 Brote zu je 20 € und 3 Käse zu je 15 € produziert. Im Basisjahr waren die Mengen 50 Fische zu je 15 €, 2 Fässer Wein zu je 300 €, 15 Brote zu je 25 € und 2 Käse zu je 30 €. Der Paasche-Preisindex im Berichtsjahr ( PPBe ) ergibt sich dann durch:
PPBe =
40Fische⋅ 20Euro + 1Wein⋅ 500Euro + 60Brote⋅ 20Euro + 3Käse⋅15Euro 2545Euro = 40Fische⋅15Euro + 1Wein⋅ 300Euro + 60Brote⋅ 25Euro + 3Käse⋅ 30Euro 2490Euro = 1,022
In dem Beispiel ist das Preisniveau um 2,2% angestiegen. Das reale Nettoinlandsprodukt des Berichtsjahres ( NIPrBe ) ist:
NIPrBe =
NIP Be 2545Euro = = 2490,22Euro PPBe 1,022
Die reale Wachstumsrate des realen Nettoinlandsproduktes (oder jeder Mengengröße) im Berichtsjahr im Vergleich zum Basisjahr ergibt sich durch die prozentuale Veränderung des preisbereinigten Nettoinlandsproduktes (oder jeder Mengengröße) im Berichtsjahr im Vergleich zum Nettoinlandsprodukt •
(der Menge) des Basisjahres. Für Wachstumsrate des Nettoinlandsprodukt ( NIPrBe ) gilt: •
(3.4.3)
NIPrBe =
(NIPrBe − NIP Ba )100 NIP Ba
Auch hier kann ein Beispiel die Berechnung verdeutlichen. Wird das Nettoinlandsprodukts 1997 mit 70
Es ist verbreitet, einen Preisindex mit Hundert zu multiplizieren. Beispielsweise sind dann Preisniveauerhöhungen mit einem Index von größer als Hundert verbunden.
270
Neoklassische Makroökonomie
nominal 4000 Mrd. € angegeben und 1998 mit 4840 Mrd. €, und nehmen wir an, dass der Preisindex zwischen 1997 und 1998 von 1 auf 1,1 gestiegen ist, dann ergibt sich das reale Nettoinlandsprodukt im 4840 Mrd.Euro = 4400 Mrd.Euro . Real hat das Nettoinlandsprodukt soJahre 1998 durch NIPr1998 = 1,1 mit im Vergleich zum Vorjahr um 400 Mrd. € zugenommen. 440 Mrd. € sind der Preiserhöhung geschuldet. Im gewählten Beispiel nimmt die reale Wachstumsrate des Nettoinlandsproduktes im Jahre ⎛ 400 Mrd.Euro ⎞ 1998 den Wert ⎜ ⎟ ⋅100% = 10% an. Wird von ökonomischem Wachstum gespro⎝ 4000 Mrd.Euro ⎠ chen, so ist damit die jährliche Zuwachsrate des realen Nettoinlandsprodukts, des realen Bruttonationalprodukts oder eines ähnlichen Aggregats gemeint. Werden im Unterschied zum Paasche-Berechnungsverfahren die Mengen des Basisjahres als Gewichtung gewählt und mit alten und neuen Preisen multipliziert, so spricht man vom Laspeyres-Preisindex. Entsprechend der eingeführten Symbole gilt dann: (3.4.4)
Laspeyres-Preisindex =
∑ Xgt - 1 pgt ∑ Xgt - 1 pgt - 1
g = 1, 2, ..., n
Der Laspeyres-Preisindex wird insbesondere für die Messung der Entwicklung von Preisen benutzt. Er ist für einen Vergleich der Entwicklung des Preisniveaus über einen längeren Zeitraum geeigneter als der Paasche-Preisindex, da beim Laspeyres-Preisindex über das Zeitintervall hinweg die Mengengewichtung des Indexes unverändert bleiben kann. Während der Paasche-Preisindex jedes Jahr eine neue Gewichtung der Mengen vornimmt, kann beim Laspeyres-Preisindex das Basisjahr eine beliebige Anzahl von Perioden zurückliegen. Dieser Vorteil erklärt, dass der Laspeyres-Preisindex zur Beschreibung der Veränderungen des Preisniveaus herangezogen wird. Allerdings wird die Mengenstruktur des Basisjahres mit zunehmender Entfernung zum Berichtsjahr immer unrealistischer, da sich der heutige Warenkorb aufgrund veränderter Qualitäten, neuer Güter, neuer Konsumgewohnheiten etc. immer weiter von der Mengenstruktur des Basisjahres entfernt. Folglich muss auch beim Laspeyres-Preisindex in größeren Abständen ein neues Basisjahr mit neuen Mengenzusammensetzungen gewählt werden. Es ist möglich, einen Kettenindex zu bilden. In diesem Fall ändert sich beim Laspeyres-Preisindex der Warenkorb in kurzen Abständen, da die Basisperiode schnell angepasst wird. Auch beim Kettenindex kann eine lange Indexreihe gebildet werden. Nehmen wir an, der Warenkorb der Basisperiode wird jährlich angepasst und stammt aus dem Vorjahr. Ergibt sich bei dieser Methode in drei aufeinander folgenden Jahren je ein jährlicher Preisindex von 1,1, dann gab es in jedem der drei Jahre eine Inflationsrate von 10%. Der Kettenpreisindex wird dann so gebildet, dass im zweiten Jahre der Indexwert des ersten Jahres um 10% erhöht wird und der Indexwert des dritten Jahres wiederum um 10%. Er gibt sich nach drei Jahren also ein Wert des Kettenindexes von 1,1 ⋅ 1,1 ⋅ 1,1 ⋅ 100 = 133,10 . Der Indexwert von 133,10 reflektiert, dass es in jeder Periode eine Inflationsrate von 10% gegeben hat. Wie wichtig der Warenkorb zur Berechnung des Preisniveaus ist, kann am Beispiel unsere Miniaturökonomie verdeutlicht werden. Berechnen wir den Laspeyres-Preisindex für das Berichtsjahr ( PLBe ), dann erhalten wir für unser obiges Beispiel:
PLBe =
50Fische ⋅ 20Euro + 2Wein ⋅ 500Euro + 15Brote ⋅ 20Euro + 2Käse ⋅15Euro 50Fische ⋅15Euro + 2Wein ⋅ 300Euro + 15Brote ⋅ 25Euro + 2Käse ⋅ 30Euro =
2330Euro = 0,305 1785Euro
Bei diesem Warenkorb ist der Preisindex um 30,5% gestiegen. Der Warenkorb hat sich in unserem Beispiel zugegebenermaßen zwischen dem Basis- und dem Berichtsmarkt stark verändert, aber das Beispiel verdeutlicht die grundlegenden Probleme der Preisniveaumessung.
Neoklassische Makroökonomie
271
Ist das Basisjahr z. B. 1992 und ergibt sich im Berichtsjahr 1998 beim Laspeyres-Preisindex ein Wert von 1,3, so bedeutet dies, dass das Preisniveau zwischen 1992 und 1998 um insgesamt 30% gestiegen ist. Gleichzeitig kann berechnet werden, wie die Preisniveauentwicklung in den einzelnen Jahren verlief. Ist der Preisindex z. B. von 1,2 auf 1,3 gestiegen, so beträgt die Preissteigerungsrate 8 13 %. Bei der Messung von Preisniveauveränderungen können verschiedene Warenkörbe als Gewichtung herangezogen werden. Ein umfassender Warenkorb wäre z. B. das Nettoinlandsprodukt. Da Preisniveauveränderungen jedoch unterschiedlich auf verschiedene Gruppen in der Ökonomie wirken, werden spezifische Warenkörbe gebildet: die Verbrauchsmengen aller privaten Haushalte, Verbrauchsmengen von verschiedenen Haushaltstypen, etc. Für die Europäische Währungsunion ist der „Harmonisierte Verbraucherpreisindex“ (HVPI) relevant, dem ein Warenkorb zugrunde liegt, der in allen Ländern der Währungsunion vorhanden ist. Länderspezifische Verbrauchsgüter sind nicht im Index enthalten. Der HVPI ist ein Laspeyres-Preisindex, wobei die Methode des Kettenindexes angewandt wird, da sich der Warenkorb der Basis regelmäßig ändert. Inflation und Deflation im theoretischen Sinne kann empirisch niemals exakt erfasst werden. Dies wäre nur möglich, wenn sich Nationalprodukt, Verbrauchsgewohnheiten etc. in ihrer Mengenstruktur (einschließlich Qualität und Anzahl der Güter) nicht ändern würden. Da dies nicht der Fall ist, bleibt es letztlich immer willkürlich, welche Periode als Gewichtungsmaß herangezogen wird. So kommen der Laspeyres- und der Paasche-Preisindex nur zufällig zu gleichen Ergebnissen. Wir sehen, es gibt keine ideale Lösung zur Messung von Preisniveauveränderungen. Entweder wird der Warenkorb permanent verändert, was einen Vergleich schwierig macht. Oder es wird ein Warenkorb in der Vergangenheit über mehrere Perioden benutzt, dann wird der Warenkorb zunehmend „falsch“ zur Betrachtung der tatsächlichen Entwicklung. Im Prinzip kann jede nominale Größe in eine reale umgerechnet werden. Weitere Beispiele für eine solche Umrechnung sind der Reallohn, der sich aus dem nominalen Stundenlohn dividiert durch einen, den Konsum erfassenden Preisindex ergibt, oder das reale Importvolumen, das aus dem nominalen Importvolumen dividiert durch den Preisindex der Importgüter resultiert. In der breiten Öffentlichkeit spielt der Preisindex für Lebenshaltungskosten eine zentrale Rolle. Der zugrundeliegende Warenkorb spiegelt die typischen Konsumgewohnheiten eines privaten Haushalts wider. Nachdem gezeigt wurde, wie Veränderungen des Preisniveaus im Rahmen der Volkswirtschaftlichen Gesamtrechnungen ermittelt werden, können nun die Ursachen für Preisniveauveränderungen dargestellt werden. Folgend wird die neoklassischen Erklärung von Preisniveauveränderungen erklärt. Kernpunkte Ein Preisindex drückt die Veränderung der Preise eines Warenkorbes aus bzw. die Veränderung des Preisniveaus. Als Gewichte dienen die Anzahl und Menge der Waren im Warenkorb. Der Preisindex ist eine dimensionslose Zahl, die eine Wert von größer als Null annehmen muss. Steigt der Preisindex (gewöhnlich ausgedrückt als prozentuale Veränderung zum Vorjahr), dann spricht man von einer Inflation; sinkt der Preisindex, dann spricht man von Deflation. Wird ein Warenkorb aus der aktuellen Periode (Berichtsperiode) gewählt, liegt ein PaaschePreisindex vor. Wird ein Warenkorb aus der Vergangenheit gewählt (Basisperiode) handelt es sich um einen Laspeyres-Preisindex. Bei der Umrechnung von nominalen in reale Größen (beispielsweise des Produktionsvolumen einer Volkswirtschaft in einem Jahr) wird der Effekt von Preisänderungen aus den nominalen Größen mit Hilfe des Preisindexes herausgerechnet.
272
Neoklassische Makroökonomie
3.4.2 Die alten Varianten der Quantitätstheorie Fragestellung Wie erklärt das neoklassische Paradigma Veränderungen des Preisniveaus? Was versteht man unter der Quantitätstheorie des Geldes? Wie erklären die traditionellen Varianten der Quantitätstheorie des Geldes (Theoretiker vor dem Zweiten Weltkrieg) die Beziehung zwischen Geldmenge und Preisniveau? Das neoklassische Paradigma ist – wie schon bekannt – durch die Neutralität des Geldes bzw. eine Dichotomie zwischen monetärer und realer Sphäre gekennzeichnet. Nach dieser theoretischen Vorstellung werden in der realen Sphäre die relativen Preise, die Einkommensverteilung, das Produktions- und Beschäftigungsvolumen, die Arbeitslosenquote, Investitionen und Ersparnisse bzw. nahezu alle wichtigen Größen in der Ökonomie bestimmt, während in der monetären Sphäre ausschließlich das Preisniveau und die nominelle Ausdrücke der realen Größen bestimmt werden. In der monetären Sphäre erhalten die realen Größen, wenn man so will, einen nominalen Ausdruck. Ist das Preisniveau bekannt, dann werden die realen Größen aus der Realsphäre wie reales Produktionsvolumen, Reallöhne oder realer Zinssatz zu nominalen Größen, wobei die nominalen Größen an sich unwichtig sind. Die monetäre Seite der neoklassischen Theorie wird nun dargestellt. Die monetäre Sphäre wird in der Neoklassik durch die Quantitätstheorie des Geldes erfasst. Da die Klassik die These von der Neutralität des Geldes ebenfalls vertritt, sind die Kernaussagen dieses theoretischen Bausteins der Neoklassik bereits Anfang des 19. Jahrhunderts von klassischen Ökonomen wie David Ricardo aber auch schon von Karl Marx entwickelt worden. Die Ursprünge der Quantitätstheorie reichen noch weiter zurück. Beispielsweise wurden wesentliche Gedanken der Theorie schon im 18. Jahrhundert von David Hume skizziert. Wir knüpfen bei unserer Darstellung der traditionellen Varianten der Quantitätstheorie zunächst an Irving Fisher (1867-1947) an, der die Quantitätstheorie im Jahre 1911 in seinem Buch „Die Kaufkraft des Geldes“ sehr klar formuliert hat. Er begann seine Analyse mit der so genannten Verkehrsgleichung (3.4.5)
M ⋅ v = P ⋅ NIPr
mit M als nominaler Geldmenge, v als Umlaufgeschwindigkeit des Geldes, P als Preisniveau und NIPr als realem Nettoinlandsprodukt. Das reale Nettoinlandsprodukt symbolisiert bei diesem Ansatz das real Transaktionsvolumen in der Ökonomie, das selbstverständlich weitaus größer als das reale Nettoinlandsprodukt ist. Die Verkehrsgleichung ist für eine Periode definiert, typischerweise ein Jahr. Und sie ist eine Identität, die immer erfüllt sein muss. Auf der rechten Seite der Gleichung ( P ⋅ NIPr ) steht das volkswirtschaftliche nominale Nettoinlandsprodukt. Die mit dem realen Nettoinlandsprodukt verbundenen Transaktionen werden somit mit Hilfe von Geld durchgeführt. Das nominale Nettoinlandsprodukt ergibt sich aus dem preisniveaubereinigten Nettoinlandsprodukt multipliziert mit dem Preisindex.71 Zwar ist das tatsächliche Transaktionsvolumen einer Ökonomie weitaus größer als P ⋅ NIPr , da im Nettoinlandsprodukt nicht aller Güter erfasst sind, einzelne Güter auch mehrmals den Eigentümer wechseln können und auch Vermögenswerte zirkulieren, die – wie Grundstücke oder Wertpapiere – nicht zum Nettoinlandsprodukt gezählt werden, jedoch wird unterstellt, dass alle Transaktionen mit P ⋅ NIPr erfasst werden bzw. P ⋅ NIPr ein guter Indikator für alle Transaktionen ist. Auf der linken Seite der Gleichung steht die nominale Geldmenge, die zur Durchführung der Transaktionen in der betrachteten Periode vorhanden ist, multipliziert mit der durchschnittlichen Umlaufgeschwindigkeit des Geldes. Später werden wir zwischen der nominalen Geldmenge M und der realen
71
Zur Definition des Preisniveaus vgl. Kapitel 4.4.1.
Neoklassische Makroökonomie
273
M unterscheiden, die die reale Kaufkraft des Bestandes der nominalen Geldmenge ausP drückt. Steigt bei unveränderter nominaler Geldmenge das Preisniveau von eins auf zwei, dann reduziert sich die reale Geldmenge auf die Hälfte. Wird nur von der Geldmenge gesprochen, so ist im Folgenden immer die nominale Geldmenge gemeint.
Geldmenge
Die Umlaufgeschwindigkeit des Geldes gibt an, wie oft ein Geldstück im Durchschnitt während einer Periode „die Hände“ wechselt. Ist die durchschnittliche Umlaufgeschwindigkeit des Geldes eins, dann muss die Geldmenge entsprechend der Verkehrsgleichung dem Nettoinlandsprodukt entsprechen. Ist die Umlaufgeschwindigkeit des Geldes zwei, dann genügt ceteris paribus die Hälfte dieser Geldmenge. Beträgt das reale Nettoinlandsprodukt z. B. 500 Mrd. €, der Preisindex 2, die Geldmenge 200 Mrd. €, dann muss die Umlaufgeschwindigkeit des Geldes 5 betragen. Die Verkehrsgleichung ist, wie erwähnt, zunächst eine Tautologie, die ex post immer erfüllt ist. Sie wird erst zu einer Theorie, wenn Aussagen über Veränderungen ihrer Größen und deren Ursachen gemacht werden. Die Quantitätstheorie stellt die folgenden Postulate auf: Das reale Nettoinlandsprodukt wird durch die Realsphäre bestimmt und ist somit zumindest im langfristigen Gleichgewicht von monetären Prozessen unabhängig. Damit ist es für die Geldsphäre exogen gesetzt. Die Umlaufgeschwindigkeit des Geldes wird nach der Argumentation der alten Quantitätstheorie durch Zahlungssitten und -gewohnheiten determiniert. So wird sich die Umlaufgeschwindigkeit des Geldes erhöhen, wenn sich der Rhythmus der Lohnzahlung in der Ökonomie verkürzt, da dann das Geldvolumen, das von den Unternehmen an die Arbeitnehmer gezahlt wird, schneller an die Unternehmen zurückfließt und so schneller ein neuer Kreislauf begonnen werden kann. Auch Innovationen im Zahlungsverkehr können zu Ökonomisierungen in der Geldsphäre führen und die Umlaufgeschwindigkeit erhöhen. Unabhängig von den jeweiligen Begründungen für die Umlaufgeschwindigkeit des Geldes wird sie von der Quantitätstheorie als kurz- bis mittelfristig stabil angenommen. Denn die Ursachen, welche die Umlaufgeschwindigkeit verändern, werden als sehr träge unterstellt. Bei verschiedenen Quantitätstheoretikern gibt es Streit, ob die Umlaufgeschwindigkeit auch in Ungleichgewichten stabil ist. Es besteht jedoch Einheit, dass die Umlaufgeschwindigkeit beim Vergleich von Gleichgewichtskonstellationen stabil ist. Es handelt sich bei diesem Postulat um eine typische Verhaltensannahme, die nicht aus der Funktionslogik von Märkten abgeleitet werden kann. Denn die Konstanz war im Denken der alten Quantitätstheoretiker an die Vorstellung geknüpft, dass Geld ausschließlich für Transaktionszwecke gehalten wird und aus diesem Grunde die Wirtschaftssubjekte ihre Geldhaltung am Transaktionsvolumen orientieren. Explizit ausformuliert wurde die Verhaltenshypothese allerdings nicht, sondern dies blieb den weiteren Entwicklungen der Quantitätstheorie vorbehalten. Insbesondere Milton Friedman und Anna Schwartz (1963) haben dann eine umfassende empirische Analyse der Geldgeschichte der USA vorgelegt und daraus geschlossen, dass die Umlaufgeschwindigkeit des Geldes stabil ist. Die Annahme der Stabilität der Umlaufgeschwindigkeit des Geldes ist umstritten seit es die Quantitätstheorie gibt. So wurde darauf verwiesen, dass die Geldhaltung und damit die Umlaufgeschwindigkeit je nach konjunktureller Lage, dem Niveau der Unsicherheit zukünftiger Ereignisse, spekulativen Erwägungen etc. variiert. Das theoretische Argument ist, dass Geld nicht nur zur Vereinfachung der Transaktionen von Gütern und Dienstleistungen gehalten wird. Auch empirisch ist die Annahme der Stabilität der Umlaufgeschwindigkeit umstritten. Die Analyse von Friedman und Schwartz wurde keineswegs allgemein akzeptiert, sondern es wurde ihnen vorgeworfen, methodisch fragwürdig vorgegangen zu sein. Die Geldmenge wird exogen gesetzt, da angenommen wird, dass die Zentralbank autonom hierüber entscheidet. Auch diese Annahme bildet einen gemeinsamen Nenner in allen Varianten der Quantitätstheorie. Als Symbol der Exogenisierung der Geldmenge kann hier ein Hubschrauber dienen, der eine bestimmte Geldmenge über einem Land abwirft. Hören wir hierzu Milton Friedman, dem wohl bekanntesten Vertreter der monetären Neoklassik in den Jahrzehnten nach dem Zweiten Weltkrieg:
274
Neoklassische Makroökonomie
„Wir wollen nunmehr annehmen, dass eines Tages ein Hubschrauber über dieses Land fliegt und 1000 Dollar in Banknoten abwirft, die natürlich von allen Leuten hastig aufgesammelt werden“ (Friedman 1976a, S. 14). Die nominale Geldmenge ist dann unwiderruflich für die Ökonomie gegeben – es sei denn, der Hubschrauber würde erneut Geld abwerfen bzw. Geld würde auf staatliche Anweisung hin verbrannt. Die Neoklassik geht somit von einer Omnipotenz der Zentralbank in dem Sinne aus, dass sie die nominale Geldmenge gleichsam nach Belieben festlegen kann. Im vierten Kapitel werden wir zeigen, dass der Keynesianismus weder von der Stabilität der Umlaufgeschwindigkeit des Geldes noch von einer Exogenität der Geldmenge ausgeht. Die nominale Geldmenge entspricht im einfachsten Fall dem aggregierten (aufgedruckten) Wert aller Geldzeichen, die sich in der Ökonomie befinden. Man könnte unter Geldmenge also von der Zentralbankmenge ausgehen, also die Geldmenge, die der Geldhubschrauber abwirft. Allerdings gehen alle Varianten der Quantitätstheorie davon aus, dass Geld das Medium ist, das Geldfunktionen übernimmt. Damit rücken Einlagen beim Bankensystem in die Betrachtung. Denn Bankeinlagen – auch Buchgeld genannt – können Geldfunktionen übernehmen. Täglich fällige Sichteinlagen bei der Bank spielen beim Zahlungsverkehr in der Tat eine wichtige Rolle. Aber auch Bankeinlagen mit einer kurzfristigen Laufzeit oder einer kurzfristigen Kündigungsfrist werden als Geld bezeichnet. Zentralbanken definieren als Geldmenge ein relativ breites Aggregat an Liquidität, das historisch immer wieder modifiziert wurde und bei verschiedenen Zentralbanken auch nicht identisch ist. Die Quantitätstheorie des Geldes löst das Problem so, dass die Zentralbank eine bestimmte Menge an Zentralbank exogen in die Ökonomie „abwirft“ und das Geschäftsbankensystem dann mit dieser gegebenen Zentralbankgeldmenge ein bestimmtes Depositenvolumen schafft. Die Banknoten und Münzen, die vom Publikum (also dem Nichtfinanzsektor) gehalten werden, plus der Bankeinlagen des Publikums werden dann als Geldmenge definiert. Es wird dabei unterstellt, dass zwischen der exogen gesetzten Zentralbankgeldmenge und der als relevant erachteten Geldmenge (Banknoten und Münzen beim Publikum plus Bankeinlagen des Publikums) eine stabile Beziehung existiert. Es wird unterstellt, dass die Zentralbank über Instrumente verfügt, die von ihr definierte Geldmenge quantitativ vollständig zu steuern. In einem Exkurs (Kapitel 3.4.6) wird die Beziehung zwischen Zentralbankgeldmenge und als relevant erachteter Geldmenge dargestellt. Sind das reale Produktionsvolumen und die Umlaufgeschwindigkeit des Geldes gegeben, dann führt eine Veränderung der nominalen Geldmenge im Rahmen einer komparativ-statischen Analyse unmittelbar zu einer Veränderung des Preisniveaus. Die Kernaussage der Quantitätstheorie des Geldes besteht somit darin, dass eine Veränderung der Geldmenge sich längerfristig ausschließlich im Preisniveau niederschlägt und insbesondere das reale Produktionsvolumen und die Beschäftigung unverändert lässt. Inflation ist damit ausschließlich Ausdruck einer zu starken Erhöhung der Geldmenge seitens der Zentralbank. Da die Umlaufgeschwindigkeit als konstant angenommen wird, führt bei unverändertem Produktionsvolumen die Erhöhung der Geldmenge zu einer proportionalen Erhöhung des Preisniveaus. Gilt z. B. für M ⋅ v = P ⋅ NIPr 100 € ⋅
5 Umschläge 500 € = 1⋅ Periode Periode
und erhöht sich die Geldmenge ceteris paribus auf 200 €, dann steigt der Preisindex auf 2. Dies kommt einer Inflationsrate von 100% gleich. Die reale Geldmenge ist unverändert geblieben, da M 200 € = = 100 € ergibt. P 2 Irving Fisher und auch andere frühe Vertreter der Quantitätstheorie des Geldes postulierten zwar einen langfristig proportionalen Zusammenhang zwischen Geldmenge und Preisniveau, jedoch gingen sie davon aus, dass während der Übergangsphasen von einem gleichgewichtigen Preisniveau zum anderen Schwankungen der Umlaufgeschwindigkeit des Geldes und des Produktionsvolumens auftreten können. Wir werden unten sehen, dass die Argumentationsfigur von langfristiger Neutralität des Geldes
Neoklassische Makroökonomie
275
bei gleichzeitig kurzfristigem Störpotenzial von Geldmengenveränderungen bei den meisten theoretischen Weiterentwicklungen der Quantitätstheorie erhalten blieb. Wir wenden uns nun einer zweiten Variante der Quantitätstheorie des Geldes zu, die von dem englischen Ökonomen Alfred Marshall (1842-1924) formuliert wurde und als Cambridge-Variante bezeichnet wird. Marshall (1923) formulierte die Quantitätstheorie in der Form einer Geldnachfrage und eines Geldangebots. Wir können wiederum von der Verkehrsgleichung ausgehen. Wird vom Ausland abgesehen, entspricht das reale Nettoinlandsprodukt dem realen Volkseinkommen (Yr) , so dass in Gleichung (3.4.5) NIPr durch Yr ersetzt werden kann. Wird zudem in Gleichung (3.4.5) die Umlauf1 geschwindigkeit des Geldes durch den Kassenhaltungskoeffizienten κ ersetzt, der durch κ = defiv niert ist, ergibt sich: (3.4.6)
M = κ ⋅P ⋅ Yr
Zwischen der Umlaufgeschwindigkeit des Geldes und dem Kassenhaltungskoeffizienten gibt es also einen direkten Zusammenhang. Beträgt die Umlaufgeschwindigkeit z. B. 3 Umschläge pro Jahr, dann 1 ist der Kassenhaltungskoeffizient Jahr. Im Durchschnitt wird dann ein Geldstück vom Publikum 4 3 Monate gehalten. Der Kassenhaltungskoeffizient kann jedoch auch anders interpretiert werden, nämlich als prozentualer Anteil der Geldhaltung am nominalen Einkommen P ⋅ Yr . Ein Kassenhaltungsko1 effizient von bedeutet, dass die Wirtschaftssubjekte rund 33,3% ihres nominalen Einkommens als 3 Geld halten. Gleichung (3.4.6) wird als Cambridge-Gleichung bezeichnet und erlaubt es, zwischen einer Geldnachfrage und einem Geldangebot zu unterscheiden. Das Geldangebot wird hier von der Zentralbank exogen gesetzt. Das dogmenhistorisch Entscheidende an der Cambridge-Gleichung ist die Betonung der Geldhaltung als Ausdruck einer ökonomischen Entscheidung. Aus diesem Grund sah es Marshall als vorteilhafter an, das reale Nettoinlandsprodukt durch das reale Volkseinkommen zu ersetzen, da es ökonomisch plausibler ist, eine gewünschte Geldhaltung an das Einkommen zu binden als an das Nettoinlandsprodukt. Die Geldnachfrage (MN) des Publikums ergibt sich durch (3.4.7)
MN = κ ⋅ P ⋅ Yr
Das reale Volkseinkommen wird auch in diesem Fall durch die Realsphäre festgelegt, und der Kassenhaltungskoeffizient ist konstant. Die Variable κ drückt aus, dass das Publikum 10%, 15% oder 20% des Einkommens als Kasse zu halten wünscht. Es handelt sich bei der Gleichung um eine makroökonomische Geldnachfrage, die mühelos aus der Aggregation der individuellen Geldnachfragefunktionen abgeleitet werden kann. Die Konstanz des Kassenhaltungskoeffizienten ist wie bei der Fisherschen Variante ausschließlich verhaltenstheoretisch bestimmt. Über die Funktionsweise von Märkten lässt sich weder die Höhe noch die Konstanz der Kassenhaltung begründen. Bezeichnet MA das Geldangebot und wird das Geldangebot der Geldnachfrage gleichgesetzt, MA = MN , dann ergibt sich: (3.4.8)
MA = κ ⋅ P ⋅ Yr
Da der Kassenhaltungskoeffizient und das reale Einkommen als gegeben unterstellt werden und die Zentralbank die Geldmenge steuert, kann sich bei Veränderungen der Geldmenge nur noch das Preisniveau anpassen. Eine Erhöhung der Geldmenge führt somit ceteris paribus zur Erhöhung des Preisniveaus. Damit kommt die Cambridge-Gleichung zum gleichen Ergebnis wie die Fassung der Quantitätstheorie in Form der Verkehrsgleichung.
276
Neoklassische Makroökonomie
Bei der Benutzung des Begriffs Geldmarkt ist Vorsicht geboten, da unter Geldmarkt einmal der Kreditmarkt zwischen Banken und der Zentralbank gemeint ist und einmal der Geldmarkt in der Fassung der Cambridge-Gleichung. Im zweiten Fall ist der Geldmarkt kein Markt, auf dem etwas angeboten oder nachgefragt wird, und insbesondere handelt es sich hier auch nicht um einen Kreditmarkt, auf dem Kreditangebot und -nachfrage aufeinander treffen. Hier geht es vielmehr darum, ob die Wirtschaftssubjekte mit ihrer Geldhaltung zufrieden sind oder nicht. Die Geldnachfragefunktion drückt aus, welchen Geldbestand Wirtschaftssubjekte zu halten wünschen. Verfügt ein Wirtschaftssubjekt über mehr Geld als es seinen Wünschen entspricht, wird es den Geldbestand abbauen. Dies ist möglich, indem es Güter kauft oder Kredite vergibt. Ist der Geldbestand, den ein Wirtschaftssubjekt hält kleiner als gewünscht, dann wird es seine Konsumausgaben einschränken, weniger Kredite vergeben oder Kredite aufnehmen. Im Rahmen der Quantitätstheorie ist die Geldmenge für die Ökonomie exogen gegeben und kann durch die Kalküle von Wirtschaftssubjekten nicht verändert werden. Eine von der Zentralbank ausgegebene Geldmenge muss somit vom Publikum gehalten werden. Entspricht die Geldmenge nicht den Wünschen des Publikums, wird es durch ökonomische Aktivitäten versuchen, die individuelle Geldhaltung auf- oder abzubauen. Ein Gleichgewicht auf dem Geldmarkt ist somit ein Zustand, bei dem die angebotene Geldmenge genau den aggregierten Geldhaltungswünschen der Wirtschaftssubjekte entspricht. Machen wir uns die Zusammenhänge am Beispiel der Cambridge-Gleichung klar. Beginnen wir mit einem Gleichgewicht auf dem Geldmarkt, das der Gleichung (3.4.8) folgend durch 500 € 100 € = 0,2 Perioden ⋅ 1 ⋅ gekennzeichnet ist. Verdoppelt nun die Zentralbank z. B. durch einen Periode Hubschrauberabwurf die Geldmenge auf 200 €, dann wird die Bevölkerung mehr Geld halten als gewünscht. Der Geldmarkt ist somit im Ungleichgewicht. Wirtschaftssubjekte werden ihre Geldhaltung individuell abbauen wollen. Da das Publikum insgesamt die Geldmenge nicht reduzieren kann, wird Geld wie eine „heiße Kartoffel“ von einem zum anderen gereicht. Letztlich wird sich, entsprechend der Annahmen der Quantitätstheorie, das Preisniveau von P = 1 auf P = 2 erhöhen müssen. Es war das Verdienst von Milton Friedman, im Rahmen der Neoquantitätstheorie diesen Prozess genauer untersucht zu haben. Kernpunkte Die Quantitätstheorie des Geldes sieht Inflationen und Deflationen als Ausdruck einer entsprechenden Geldmengenveränderung. Bei ansonsten unveränderten Bedingungen existiert eine proportionale Beziehung zwischen Geldmenge und Preisniveau. Als zentrale Annahmen unterstellt die Theorie: die Geldmenge ist exogen von der Zentralbank bestimmt (Hubschraubergeld), die Umlaufgeschwindigkeit des Geldes bzw. die Geldnachfrage sind stabil und das reale Produktionsvolumen ist zumindest langfristig unabhängig von Geld. Damit können Geldmengenänderungen nur noch zu Preisniveauänderungen führen. 3.4.3 Die Neoquantitätstheorie (Monetarismus I) Fragestellung Wie unterscheidet sich die Neoquantitätstheorie bzw. die monetaristische Schule von den älteren quantitätstheoretischen Vorstellungen? Wie wird die Nachfrage nach Geld erfasst? Wie verläuft der Marktprozesse, wenn die Geldmenge erhöht wird? Warum ist die Annahme auch der langfristigen Neutralität des Geldes fragwürdig? Die theoretische Fundierung der alten Verkehrsgleichung war unbefriedigend, da die Beziehung zwischen Geldmengen- und Preisniveauveränderungen rein mechanisch erfasst und das Verhalten von
Neoklassische Makroökonomie
277
Wirtschaftssubjekten nicht explizit begründet wurde. Zwar weist die Cambridge-Version der Quantitätstheorie einen Fortschritt gegenüber der Verkehrsgleichung auf, da die Geldnachfrage der Wirtschaftssubjekte ins Zentrum der Analyse gerückt wurde. Dessen ungeachtet konnte sie das nicht weiter begründete Postulat eines konstanten Kassenhaltungskoeffizienten nicht befriedigen. Vor allem nach der keynesianischen Kritik an der Neoklassik in den 1930er Jahren, die eine Instabilität der Geldnachfrage unter anderem durch den Aufbau der Kassenhaltung bei einer unsicheren ökonomischen Lage und einen Abbau der Kasse bei einem geringen Niveau der Unsicherheit betonte, und der Verbreitung keynesianischer Ideen nach dem Zweiten Weltkrieg waren quantitätstheoretische Vorstellungen in die Krise geraten. Vor diesem Hintergrund entwickelte besonders Milton Friedman schon in den 1950er Jahren die Neoquantitätstheorie, die die Kernaussagen der simpleren Quantitätstheorien zwar bestätigte, diese jedoch analytisch weiterentwickelte. Milton Friedman war zwar lange ein Außenseiter, konnte jedoch in den 1970er Jahren einen wirtschaftspolitischen Triumph feiern, da seine Ideen in dieser Zeit sehr populär wurden und von nahezu allen Regierungen und Zentralbanken in der westlichen Welt übernommen wurden. Die Ansätze von Friedman und ähnlich argumentierenden Theoretikern wurden unter dem Namen Monetarismus bekannt. In der Diskussion der 1950er und 1960er Jahre waren Vertreter des Monetarismus die Hauptgegner einer makroökonomischen Theorie, die als neoklassische Synthese bezeichnet wird und in den meisten Lehrbüchern unter dem Titel IS-LM-Modell abgehandelt wird (vgl. zur neoklassischen Synthese Kapitel 5). Die neoklassische Synthese hatte sich nach dem Zweiten Weltkrieg als Hauptströmung der Makroökonomie etabliert. Sie war eine Mischung von keynesianischem und neoklassischem Gedankengut. Die entscheidende Diskussion, die den Niedergang der neoklassischen Synthese endgültig besiegelte, drehte sich um die Stabilität und Form der so genannten Phillips-Kurve (vgl. dazu Kapitel 3.4.4). Der Monetarismus in der Tradition von Milton Friedman kann als Monetarismus I bezeichnet werden. Monetarismus II verbindet die Quantitätstheorie des Geldes mit rationalen Erwartungen. Auf diese Variante des Monetarismus wird in Kapital 3.4.5 eingegangen. Zunächst sollen aber die Grundzüge der Neoquantitätstheorie dargestellt werden. Dazu wird die Nachfrage nach Geld in einem vereinfachten Friedmanschen Modell auf der Ebene einzelner Wirtschaftssubjekte analysiert. Danach wird die Neoquantitätstheorie auf makroökonomischer Ebene dargestellt. Im Anschluss daran werden dynamische Prozesse diskutiert. Das mikroökonomische Gleichgewicht aus Sicht der Neoquantitätstheorie Ein zentrales Element der keynesianischen Analyse des Vermögensmarktes in den 1930er Jahren war die Neubestimmung der Nachfrage nach Geld in der Tradition von Alfred Marshall und die Einführung von nichtpekuniären Verwertungsraten, die das Halten von Geld begründeten. Nach John Maynard Keynes (1936) wirft Geld eine Liquiditätsprämie ab, die das zinslose Halten von Geld erklärt. Durch die Einführung einer nichtpekuniären Verwertungsrate auf Geld wird es möglich, eine zinslose Geldhaltung zu begründen und die Struktur einer gleichgewichtigen Vermögenshaltung eines Wirtschaftssubjektes (ein Portfoliogleichgewicht) abzuleiten. Friedman folgte bei der mikroökonomischen Ableitung der Geldnachfrage dieser Methodik.72 Geld wirft nach ihm eine nichtpekuniäre Verwertungsrate ab, da Geldhaltung die Transaktionskosten senkt und ein Sicherheitsgefühl erzeugt. Insbesondere liefert es für Unternehmen „produktive Dienste“ und für Haushalte „nicht-geldliche Konsumdienste“ in „Form von Sicherheitsgefühl und Besitzstolz“ (vgl. Friedman 1976a, S. 32 ff.). Konzentrieren wir uns im Folgenden auf die Geldhaltung der Haushalte, da die Geldhaltung der Unternehmen bei Friedman nicht im Zentrum der Analyse stand und eine Integration dieser Geldhaltungskomponente keine wichtigen neuen Erkenntnisse bringt. Die nichtpekuniären Verwertungsraten werden wie Zinssätze in Prozent ausgedrückt. Man stelle sich vor, ein Wirtschaftssubjekt gibt den nichtpekuniären, subjektiven Vorteil des Haltens von 100 € mit 5 € 72
Wir folgen hier insbesondere Friedman (1976a).
278
Neoklassische Makroökonomie
an. Dann wäre die nichtpekuniäre Verwertungsrate von 100 € für das betreffende Wirtschaftssubjekt 5%. Der Nutzen der Geldhaltung hängt zwingend von der subjektiven Einschätzung der Wirtschaftssubjekte ab. Friedman unterstellt, dass die Zunahme der Dienste der Geldhaltung mit zunehmendem Geldbestand sinkt. Ein Geldhaltung von 200€ würden für das Wirtschaftssubjekt beispielsweise nur eine nichtpekuniäre Verwertungsrate von 3% bringen. Damit wird das aus der Haushaltstheorie bekannte Postulat eines steigenden Gesamtnutzens bei gleichzeitig sinkendem Grenznutzen beim Konsum eines Gutes auf die Geldhaltung übertragen. Es gibt nur zwei kleine Modifikationen im Vergleich zur Analyse der Nachfrage nach einem Konsumgut. Erstens wird der marginale individuelle Vorteil der Geldhaltung in der Form eines Prozentsatzes ausgedrückt, zweitens wird unterstellt, dass der marginale Vorteil des Haltens von Geld ab einer bestimmten Geldhaltung Null wird. Die zweite Annahme weicht von der keynesianischen Analyse ab, da Keynes davon ausging, dass man niemals genug Geld halten kann und auch bei einer sehr hohen Geldhaltung eine weitere Zunahme einen positiven marginalen Ertrag erbringt. Die Liquiditätsprämie, wie Keynes die nichtpekuniäre Verwertungsrate der Geldhaltung nannte, fällt bei ihm nie unter ein bestimmtes Minimum, da bei der Geldhaltung keine Sättigungsmenge existiert. Es ist, so Keynes, immer besser, mehr Geld als Wertspeicher abstrakten Reichtums, als Schutzmittel vor Unsicherheit, als jederzeit verfügbares Liquiditätsmittel für Spekulationszwecke etc. zu halten als weniger. Friedman hingegen ging von einer Sättigungsgrenze aus. Bezeichnen wir die marginalen Dienste des Geldes für ein Wirtschaftssubjekt mit lGh und die individuelle Geldhaltung mit MNh , dann drückt Abbildung 3.4.1 den von Friedman postulierten Zusammenhang zwischen lGh und MNh aus. Bei einer Geldhaltung in Höhe von M SNh sinkt der marginale Vorteil der Geldhaltung auf Null. Bei dieser Geldhaltung ist dann offensichtlich die Sättigungsmenge erreicht. Das bedeutet, dass ein Wirtschaftssubjekt die Geldmenge M SNh zu wünschen hält, wenn es die Geldhaltung nichts kostet. Zur Erklärung der Geldhaltung sind noch einige Bausteine notwendig, die nun geliefert werden sollen. Gäbe es immer Preisniveaustabilität, dann wäre die Verwertung der Geldhaltung hinreichend durch lGh erfasst. Bei Inflation sinkt jedoch der Wert des Geldes, während er bei Deflation steigt. Wirtschaftssubjekte werden erwartete Veränderungsraten des Preisniveaus bei der Geldhaltung berücksichtigen. Die Verwertung der Geldhaltung wird somit durch eine erwartete Inflationsrate reduziert und eine erwartete Deflationsrate erhöht, so dass die Gesamtverwertung durch •
lGh − P he •
mit P he als subjektiv erwartete Preisniveauänderungsrate ausgedrückt wird. Beträgt lGh beispielsweise 2% und existiert eine Preisänderungsrate (Deflationsrate) von minus 2% beträgt die Gesamtverwertung der Geldhaltung 4%.
Neoklassische Makroökonomie
279
Abbildung 3.4.1: Die marginale nichtpekuniäre Verwertungsrate von Geld in Abhängigkeit von der Geldhaltung lGh + P˙ he
rE + lEh = rB + 1Bh − P *eh M ∗Nh
M SNh
MNh
•
Die Höhe der Geldhaltung hängt nicht allein von lGh − Phe ab, sondern auch von den Verwertungsraten anderer Vermögensarten. Selbst wenn das Halten von Geld für ein Wirtschaftssubjekt kostenfrei ist – es also für die Geldhaltung nichts pekuniär bezahlen muss – gibt es doch Opportunitätskosten in der Form entgangener pekuniärer Erträge. Als weitere Vermögensarten führt Friedman Obligationen73 und Aktien ein. Obligationen und Aktien sind durch die pekuniären Verwertungsraten iB und iE gekennzeichnet. Bei Friedman erzielen Obligationen und Aktien – wie Geld – eine nichtpekuniäre subjektive Verwertungsrate, wobei lBh die marginale nichtpekuniäre Verwertungsrate von Obligationen und lEh die von Aktien sei. Es wird auch hier unterstellt, dass die nichtpekuniären Verwertungsraten von Obligationen und Aktien mit steigendem Bestand sinken. Friedman begründete nicht ausführlich, warum die nichtpekuniären Raten bei Geld, Obligationen und Aktien mit steigendem Vermögensbestand sinken.74 Die Verwertung von Obligationen wird durch erwartete Preisniveauänderungen beeinflusst, da Inflationen den Wert von Forderungsbeständen reduzieren und Deflationen deren Wert erhöhen. Die marginale Verwertung von Obligationen ergibt sich somit aus dem Obligationenzinssatz ( rB ) plus der mar•
ginalen nichtpekuniären Verwertung von Obligationen ( lBh ) minus der erwarteten Inflationsrate ( P he ), also durch: •
rB + lBh - P he
Aktien sind Anteilspapiere an Unternehmen und damit an Produktivvermögen. Da Produktivvermögen aus Fließbändern, Hämmern, etc. besteht, reflektieren sich allgemeine Preisniveauveränderungen im Wert des Produktivvermögens und damit auch in der Verwertungsrate von Aktien, die somit keine Korrektur durch Preisniveauänderungen bedarf. Die marginale Verwertung von Aktienvermögen entspricht dann: 73
Friedman trifft die in der Volkswirtschaftslehre übliche Annahme, dass alle Kreditverträge die Form von Obligationen (festverzinslichen Wertpapieren bzw. Bonds) annehmen. Schuldner geben die Obligationen aus, und Gläubiger kaufen die Wertpapiere. Vom Bankensystem wird abgesehen. 74 Er unterstellte, dass die nichtpekuniäre Rate von Obligationen niemals diejenige von Geld übersteigen kann. Da 1Gh und 1Bh nicht negativ werden können, impliziert diese Annahme, dass sowohl 1Gh als auch 1Bh Null sind, wenn die Sättigungsmenge der Geldhaltung erreicht wird.
280
Neoklassische Makroökonomie rE + lEh
Das Portfoliogleichgewicht eines Wirtschaftssubjektes h ist erreicht, d. h. die Verwertung des Portfolios ist maximiert, wenn die marginalen Verwertungsraten bei allen Vermögensarten den gleichen Wert annehmen. Denn ist die Verwertungsrate bei Aktien beispielsweise 10% und bei Obligationen 15%, dann kann die Gesamtverwertung erhöht werden, wenn der Aktienanteil am Portfolio sinkt und der Anteil der Obligationen steigt. Somit gilt im Gleichgewicht: (3.4.9)
•
•
lGh - Phe = rE + lEh = rB + lBh - Phe
Beim Anpassungsprozess zum optimalen Portfolio ist zu beachten, dass rE und rB für ein Wirtschaftssubjekt gegeben sind und sich nicht verändern, während sich die nichtpekuniären Raten bei Portfolio•
umstrukturierungen verändern. P he spiegelt zwar Erwartungen wider, ist jedoch von der Struktur des Portfolios unabhängig. Die Anpassung zum optimalen Portfolio verläuft somit über die nichtpekuniären Raten lGh , lEh , und lBh . Unterstellen wir ein gleichgewichtiges Portfolio mit gleichen Verwertungsraten für alle Vermögensarten, dann ergibt sich daraus auch unmittelbar die Höhe der Geldhaltung. Werden in der Abbildung 3.4.1 gleichgewichtige Verwertungsraten von Aktien und Obligationen an der Ordinate eingetragen, dann lässt sich unmittelbar die gleichgewichtige Geldnachfrage MNh * ablesen. Sinkt ceteris paribus beispielsweise die Verwertung von Aktien und/oder Obligationen, steigt die Geldnachfrage. Auch eine Zunahme des Gesamtvermögens wird zu einer Zunahme der Geldhaltung führen. Wir können erkennen, welchen analytischen Zweck die Einführung nichtpekuniärer Raten hat. Sie erlauben abzuleiten, warum Wirtschaftssubjekte überhaupt mehr als nur eine Vermögensform ins Portfolio aufnehmen. Gäbe es keine nichtpekuniären Raten und wäre die erwartete Preisänderungsrate Null, dann würde bei rE > rB ein Wirtschaftssubjekt sein Vermögen vollständig auf Aktien konzentrieren. Existiert dagegen eine nichtpekuniäre Verwertungsrate auf Aktien, die mit steigendem Aktienbestand sinkt, dann wird die Gesamtverwertung von Aktien bei zunehmender Aktienhaltung irgendwann die Gesamtverwertung von Obligationen erreichen, und das Wirtschaftssubjekt wird dann Aktien und Obligationen halten. Friedman führte zur Ableitung des endgültigen Portfoliogleichgewichts eine weitere Rate ein, nämlich eine so genannte „interne Diskontierungsrate“, die die subjektive Zeitpräferenz eines Wirtschaftssubjektes zum Ausdruck bringt. Die interne Diskontierungsrate drückt in Form eines Prozentsatzes aus, wie hoch ein Wirtschaftssubjekt die Kosten des gegenwärtigen Konsumverzichts einschätzt. Beträgt die interne Diskontierungsrate z. B. 5% und die Verwertung von Obligationen 10%, dann wird ein Wirtschaftssubjekt auf gegenwärtigen Konsum verzichten, da die Zunahme des Konsums in der Zukunft höher bewertet wird als der gegenwärtige Konsumverzicht. Je mehr gegenwärtiger Konsum in die Zukunft transferiert wird, desto höher wird die interne Diskontierungsrate werden, da gegenwärtiger Konsum im Vergleich zum zukünftigen als immer wichtiger eingeschätzt wird.75 In dem obigen Beispiel wird sich die individuelle Diskontierungsrate mit zunehmenden Ersparnissen erhöhen. Der Haushalt hat sein Gleichgewicht erreicht, wenn die interne Diskontierungsrate auf 10% – die Verwertung von Obligationen – gestiegen ist. Wird die interne Diskontierungsrate mit ih bezeichnet, ergibt sich als endgültiges Portfoliogleichgewicht eines Wirtschaftssubjektes: (3.4.10) 75
•
•
lGh - P he = rE + lEh = rB + lBh - P he = ih
Dahinter steht selbstverständlich das Gesetz steigender Grenznutzen bei der Reduktion des Konsums eines Gutes. Vgl. dazu die Ausführungen zur Sparentscheidung der Haushalte in Kap 2.8.
Neoklassische Makroökonomie
281
Das Verhältnis der internen Diskontierungsrate zu den restlichen Verwertungsraten entscheidet, ob ein Haushalt Vermögen auf- oder abbaut, ob er spart oder nicht spart. Bei •
•
lGh - P he = rE + lEh = rB + lBh - P he > ih wird Konsum reduziert und der Vermögensbestand durch Er-
sparnisse erhöht; im umgekehrten Fall wird der Vermögensbestand abgebaut. Friedman versuchte an verschiedenen Stellen seines Entwurfs, seine monetäre Analyse mit dem walrasianischen Gleichgewichtsmodell zu verbinden – so auch hier. Wohlfahrtsmaximierend und damit dem Pareto-Optimum (vgl. Kapitel 2.8.2) entsprechend ist eine Geldhaltung in Höhe der Sättigungsmenge. In Abbildung 3.4.1 wäre eine Geldhaltung in Höhe von MNh * nicht optimal, da (ohne auch nur einem Wirtschaftssubjekt zu schaden) die Wohlfahrt aller Geldhalter erhöht werden kann, wenn sie statt der Menge MNh * die Sättigungsmenge M SNh halten. Denn bis zur Sättigungsmenge leistet die Geldhaltung nichtpekuniäre Dienste, welche den Nutzen eines Individuums erhöhen. Die Notwendigkeit einer Geldhaltung in Höhe der Sättigungsmenge hat jedoch einen weitaus wichtigeren Grund. Halten Wirtschaftssubjekte nicht die Sättigungsmenge, dann wird das walrasianische Gleichgewichtssystem durch die Geldsphäre gestört und die Neutralität des Geldes geht verloren. Existieren Opportunitätskosten der Geldhaltung – wird also weniger als die Sättigungsmenge gehalten –, wirkt die monetäre Sphäre auf das walrasianische Gleichgewicht zurück, da eine zusätzliche Verwertungsrate in Form der nichtpekuniären Verwertung der Geldhaltung in die Ökonomie eingeführt wird. In der walrasianischen Ökonomie gibt es dann das zusätzliche Gut „Geld“ mit einem spezifischen Nutzen und einem spezifischen Preis, dem Geldzinssatz. Dieses zusätzliche Gut und dessen Preis beeinflusst dann die Gleichgewichtspreise und –mengen im walrasianischen System. Dies ist nur dann nicht der Fall, wenn die Opportunitätskosten der Geldhaltung Null sind. In diesem Fall hat Geld jegliche Knappheit verloren. Geld hätte in einer solchen Situation die gleiche ökonomische Bedeutung wie Sand in einer Wüste – unterstellt Sand sei ein freies Gut. Jedes Wirtschaftssubjekt könnte sich zum Preis von Null so viel Sand nehmen, wie es benötigt. Sand wäre nicht knapp und hätte auf den Preis von knappen Gütern wie etwa Wasser und grünen Turbanen keinen Einfluss. Die Opportunitätskosten der Geldhaltung können durch zwei geldpolitische Maßnahmen auf Null gebracht werden. Beide hat Friedman benannt. Erstens kann für die Geldhaltung ein Zinssatz bezahlt werden, der dem Zinssatz für Obligationen entspricht (Vgl. Friedman 1953 und Friedman 1976a, S. 59). Man stutzt! Die Bedingung impliziert, dass ein Wirtschaftssubjekt für eine Kreditvergabe und eine Nichtkreditvergabe den gleichen pekuniären Ertrag erhält. Zweitens werden die Opportunitätskosten der Geldhaltung Null, wenn eine Deflationsrate existiert, die die Nominalzinssätze Null werden lässt. Dann entspricht die Verwertung von Geldvermögen ebenfalls der Verwertung von Kreditverträgen. •
Die Verwertung von Kreditverträgen beträgt rBh + lBh - P he . Wird die Deflationsrate ausreichend hoch, dann fällt rBh auf Null. In diesem Fall erfolgt die reale Verzinsung von Kreditverträgen über die Erhöhung der Kaufkraft des Geldes aufgrund der Deflation. Ist die Zinsrate Null, dann werden Wirtschaftssubjekte die Sättigungsgrenze bei der Geldhaltung wählen, denn sie können sich ohne Zinskosten verschulden, um ihre Kasse beliebig aufzubauen. Im Ergebnis ergibt sich dann eine gleiche Verwertung von Geldhaltung und Kreditverträgen für alle Wirtschaftssubjekte in Höhe der Kaufkrafterhöhung des Geldes. Friedman bezeichnete die Geldmengenentwicklung, die eine entsprechende Deflationsrate erzeugt, als optimal. „Unsere endgültige Regel für die optimale Geldmenge besagt, dass sie durch eine Preissenkungsrate realisiert wird, die den nominellen Zins dem Werte Null zuführt. (...). Folglich wird sich jedes Individuum (...) dazu veranlasst sehen, gerade jene Kasse zu halten, bei der die marginalen Erträge – als Nutzen für das Individuum (...) – gleich Null sind“ (Friedman 1976a, S. 53). Die von Friedman abgeleiteten Bedingungen, die zu einer Geldhaltung in Höhe der Sättigungsmenge führen, sind wirklichkeitsfremd. Erstens: Wird Geld in der Tradition der Quantitätstheorie ausschließlich als Mittel der Warenzirkulation begriffen, dann ist es plausibel, dass die marginale nichtpekuniäre Verwertung der Geldhaltung ab einem gewissen Punkt Null wird. Fasst man die Geldhaltung nach
282
Neoklassische Makroökonomie
keynesianischer Logik als Schutz vor Unsicherheit in einer unsicheren Welt auf, dann ist es fraglich, ob die marginale nichtpekuniäre Verwertungsrate von Geld innerhalb eines relevanten Bereichs Null werden kann. Denn Geld ist kein Gut, das in seinem Grenznutzen mit steigender Geldhaltung auf Null sinken muss. Geld ist die Verkörperung gesellschaftlichen Reichtums und Wirtschaftssubjekte möchten unter Umständen so viel wie möglich davon halten. Mehr Geld zu halten scheint in einer kapitalistischen Ökonomie immer besser zu sein als weniger zu halten – zumindest, wenn es nichts kostet! Zweitens: Sind die Opportunitätskosten der Geldhaltung Null, dann entspricht dies zwar der Neutralität des Geldes und der Pareto-Optimalität, es widerspricht jedoch jeglicher geldwirtschaftlicher Logik. Wer würde einen Kredit vergeben wollen, wenn seine Geldhaltung die gleiche Verzinsung erfährt wie die Kreditvergabe (vgl. Riese 1986, S. 21f.)?76 Eine Kreditvergabe ist immer mit Risiken verbunden, so dass immer das Halten von Geld vorgezogen wird, wenn eine Kreditvergabe keinen ökonomischen Vorteil bietet. Friedman ging der wichtigen Frage nach, unter welchen Bedingungen Geld in die neoklassische Realökonomie eingeführt werden kann und vor allem unter welcher Bedingung Geld keine Auswirkungen auf das Modell der Realökonomie hat. Er kam zu dem Resultat, dass dies nur der Fall ist, wenn die Opportunitätskosten der Geldhaltung Null sind und die Geldhaltung bis zur Sättigungsmenge ausgedehnt wird. Die dazu notwendigen Bedingungen widersprechen jedoch den Grundprinzipien einer Ökonomie mit Geld und Kredit. Offensichtlich gibt es in der walrasianischen Theorie keinen Platz für Geld. Denn sobald es Geld gibt, übt dieses einen unabhängigen Einfluss auf die Realsphäre aus und zerstört die Neutralität des Geldes. Die hier angerissene Diskussion ist weitgehend in Vergessenheit geraten, spielt jedoch zum Verständnis des neoklassischen Paradigmas eine wichtige Rolle. Das makroökonomische Gleichgewicht aus Sicht der Neoquantitätstheorie Die Variablen der mikroökonomischen Analyse der Geldnachfrage erscheinen direkt oder in modifizierter Form in der Friedmanschen makroökonomischen Geldnachfragefunktion (3.4.11)
•
MN = MN(P, iB, iE, P , GV, U) •
mit iB als Ertragsrate von Obligationen, iE als Ertragsrate von Aktien, P als Inflationsrate, GV als nominales Gesamtvermögen und U als Präferenzen der Wirtschaftssubjekte. Zwischen der mikroökonomischen Analyse der Geldnachfrage und der makroökonomischen Geldnachfragefunktion gibt es jedoch keine strikte Verbindung. Auch kümmerte sich Friedman nicht mehr um die Frage, wie die Opportunitätskosten der Geldhaltung auf Null gebracht werden können. Der Friedmansche Vermögensbegriff in der obigen Funktion ist äußerst umfassend, da er neben den üblichen Vermögensarten wie Obligationen und Aktien auch Humankapital umfasst. Das Humankapital eines Wirtschaftssubjekts wird durch die Berechnung des Gegenwartswertes des zukünftigen Arbeitseinkommens ermittelt (vgl. zur Bestimmung von Gegenwartswerten Kapitel 4.3). Das Gesamtvermögen einer Person wird durch die Berechnung des Gegenwartswertes der aggregierten zukünftigen Einkommen bestimmt.77 Die Größe U soll den Einfluss der Präferenzen der Wirtschaftssubjekte auf die Geldhaltung erfassen, also den Einfluss der oben auf mikroökonomischer Ebene abgeleiteten nichtpekuniären Raten. Die Geldnachfrage sinkt bei steigenden Ertragsraten von Obligationen und Aktien, da die Zinsverluste bzw. die Opportunitätskosten der Kassenhaltung mit steigenden Zinssätzen steigen. Die Kassenhaltung sinkt ebenfalls mit steigender Inflationsrate, da die Kosten der Kassenhaltung mit steigender Inflationsrate aufgrund inflationsbedingter Wertverluste steigen. Die Geldnachfrage sinkt des Weiteren mit sinkendem Gesamtvermögen, da in diesem Fall alle Vermögensarten des Portfolios und somit auch die 76
Vgl. auch Hahn (1971). Zur Berechnung des Gesamtvermögens benutzt Friedman eine durchschnittliche Verwertungsrate aller Vermögensformen. Bei Friedman findet sich noch eine Variable, die das Verhältnis des Humankapitals zu den anderen „üblichen“ Vermögensformen ausdrückt. Da diese Variable in der folgenden Darstellung keine Rolle spielt, sei unterstellt, dass sie durch GV mit erfasst wird.
77
Neoklassische Makroökonomie
283
Geldhaltung abgebaut werden. Schließlich sinkt die Geldhaltung, wenn die Präferenz zur Haltung anderer Vermögensarten im Vergleich zur Geldhaltung zunimmt. Erhöht sich das Preisniveau, dann steigt die Kassenhaltung. Diese Aussage steht durchaus nicht in Widerspruch zur inversen Beziehung zwischen Inflationsrate und Kassenhaltung. Dies kann an einem Beispiel verdeutlicht werden. Verdoppelt sich, ausgehend von einem stabilen Zustand, das Preisniveau und bleibt dann wieder stabil, wird sich die Nachfrage nach Geld langfristig erhöhen, da P gestiegen ist. Während der Übergangsphase vom • niedrigen zum höheren Preisniveau ist die Inflationsrate P positiv und wirkt sich senkend auf die Geldnachfrage aus. Der entscheidende Punkt der Friedmanschen Neuformulierung der Quantitätstheorie des Geldes besteht in der Vorstellung, dass Wirtschaftssubjekte eine reale Kasse nachfragen. Dies bedeutet, dass die „Nachfragegleichung als in jeder wesentlichen Hinsicht von den Nominaleinheiten, die zur Messung der Geldvariablen verwendet werden, unabhängig betrachtet werden muss“ (Friedman 1976c, S. 86). Beispielsweise führt dann jede Verdopplung des Preisniveaus innerhalb einer komparativ-statischen Analyse zur Verdopplung der nominellen Geldnachfrage.78 Die allgemeine Geldnachfragefunktion (3.4.11) wird, entsprechend des Friedmanschen Postulats einer Nachfrage nach Realkasse, zur folgenden sehr spezifischen Geldnachfragefunktion: (3.4.12)
•
M = P ⋅ MNr(iB, iE, P , GVr, U)
Das Preisniveau P ist nun nicht mehr eine Variable innerhalb der Geldnachfragefunktion, sondern bloß noch Multiplikator der Nachfrage nach „realer Kasse“ (MNr) . In Gleichung (3.4.12) drückt GVr nun MN • = MNr(iB, iE, P , GVr, U) überdas reale Gesamtvermögen aus. Die Gleichung (3.4.12) lässt sich in P führen. Bei der Nachfrage nach realer Kasse verschwindet das Preisniveau als unabhängige Variable. Die Variablen, die die reale Geldnachfrage bestimmen, sind bei Friedman längerfristig weder von der Geldmenge noch vom Preisniveau abhängig. Die Größen iB , iE , GVr und U sind im Gleichgewicht • ausschließlich durch die Realökonomie bestimmt; P ist nur bei inflationären oder deflationären Prozessen relevant. Wird eine Geldnachfragefunktion nach realer Kasse postuliert und entstammen die relevanten unabhängigen Variablen der Funktion aus der Realökonomie, dann ist der entscheidende Baustein für die Neuformulierung der Quantitätstheorie gelegt. Friedman unterstellte, dass die Nachfrage nach realer Kasse im historischen Zeitablauf im Wesentlichen stabil ist. Offensichtlich ging er davon aus, dass die realökonomisch bestimmten Raten iB , iE sowie die Präferenzen U im Zeitablauf keinen starken Schwankungen unterworfen sind. Schwankungen des aktuellen Einkommens spielen bei Friedman auch eine geringe Rolle, da die Kassenhaltung von den (abdiskontierten) langfristigen Einkommensströme in der Form des realen Gesamtvermögens GVr beeinflusst wird, das sich bei zyklischen Störungen nicht merklich verändert. Spekulative Umstrukturierungen zwischen Obligationen und Aktien einerseits und Geldhaltung andererseits spielten für Friedman ebenso wenig eine Rolle wie sich schnell verändernde Erwartungen, die zu einer Umgestaltung des Portfolios führen können. Die reale Ökonomie und damit auch die reale Geldnachfrage wurden von ihm implizit als stabil unterstellt. Das Geldangebot wurde bei Friedman – man denke an seinen Hubschrauber – exogen von der Zentralbank gesetzt, so dass MA = M . Die Gleichgewichtsbedingung auf dem Geldmarkt ist bekanntlich MA = MN . Werden Geldangebot und Geldnachfrage in die Gleichgewichtsbedingung eingesetzt, ergibt sich bei Friedman als makroökonomische Variante der Quantitätstheorie des Geldes: (3.4.13)
78
•
M = P ⋅ MNr(iB, iE, P , GVr, U) bzw.
Die Abhängigkeit der Geldnachfrage ausschließlich von realen Größen lässt sich auch so ausdrücken, dass die Geldnachfrage bezüglich des Preisniveaus homogen vom ersten Grade ist.
284 (3.4.14)
Neoklassische Makroökonomie M • = MNr(iB, iE, P , GVr, U) P
Aus diesen Gleichgewichtsbedingungen lässt sich unmittelbar der quantitätstheoretische Zusammenhang erkennen. Erhöht die Zentralbank die Geldmenge (M) und ist die reale Geldnachfrage (MNr) stabil, wird sich bei einer komparativ-statischen Analyse ausschließlich das Preisniveau (P) erhöhen. Während der Übergangsphase vom alten zum neuen Gleichgewicht wirkt die Preisänderungsrate störend auf die Ökonomie ein. Veränderungen der realen Geldnachfrage, die auf das Preisniveau wirken könnten, werden durch die Annahme deren Stabilität ausgeschlossen. Die Ergebnisse der alten Quantitätstheorie werden damit vollständig bestätigt. Im Kern wurde bei der Neuformulierung der Quantitätstheorie der Kassenhaltungskoeffizient, der in der Cambridge-Version ohne theoretische Ableitung als konstant angenommen wurde, durch eine stabile Geldnachfragefunktion nach realer Kasse ersetzt, die sich aus einer Vielzahl von Variablen ergibt. Eine Geldnachfragefunktion, die im Gleichgewicht ausschließlich von realen Faktoren abhängt und zudem stabil ist, kann nicht präferenztheoretisch zwingend abgeleitet werden.79 Friedman saß durchaus nicht der Illusion auf, die Stabilität der realen Geldnachfragefunktion zwingend aus den mikroökonomischen Kalkülen der Wirtschaftssubjekte ableiten zu können. Er betonte vielmehr, dass das Stabilitätspostulat empirisch zu begründen sei. Damit wird die Stabilität der realen Geldnachfragefunktion und damit auch die proportionale Beziehung zwischen exogener Geldmengenerhöhung und Preisniveauanpassung verhaltenstheoretisch begründet. Friedman versuchte, wie schon betont, durch umfangreiche empirische Untersuchungen sein Verhaltenspostulat zu belegen (vgl. Friedman/Schwartz 1963). Seine Ergebnisse wurden, wie immer bei empirischen Untersuchungen, angezweifelt. So blieb schon umstritten, ob Friedman, der empirisch eine positive Beziehung zwischen Geldmenge und Preisniveau ableitete, gezeigt hat, dass das Preisniveau von der Geldmenge abhängt oder die Geldmenge vom Preisniveau. Ist die Geldnachfrage im Gleichgewicht nicht ausschließlich von realen Faktoren abhängig und ist die reale Geldnachfrage nicht stabil, dann ist die monetaristische Proportionalität zwischen Geldmengenund Preisniveauveränderung zerstört. Insbesondere für die von Monetaristen empfohlene Geldpolitik hätte dies verheerende Konsequenzen (vgl. unten). Der Realkasseneffekt Milton Friedman arbeitete auf makroökonomischer und Don Patinkin auf mikroökonomischer Ebene den so genannten Realkasseneffekt aus, der den dynamischen Prozess der Preisanpassung bei Geldmengenveränderungen wiedergeben soll. Dieser Effekt soll nun mit Hilfe eines Beispiels dargestellt werden.
79
Sie kann nicht, wie Frank Hahn als Vertreter der neoklassischen Mikroökonomie es ausdrückt „without further assumptions, be deduced from first principles“ (Hahn 1980, S. 15).
Neoklassische Makroökonomie
285
Abbildung 3.4.2: Der Realkasseneffekt M
•
P
t0
t1
t
t0
t1
t
t0
t1
t
t0
t1
t
P
M P
Angenommen, die Zentralbank verdoppele, ausgehend von einer Gleichgewichtssituation und bei ansonsten unveränderten Bedingungen, die nominelle Geldmenge im Zeitpunkt t0 , die dann auf dem erhöhten Niveau verharren soll (vgl. den oberen Teil in Abbildung 3.4.2). Dann verdoppelt sich zum Zeitpunkt t0 bei zunächst unverändertem Preisniveau die reale Geldmenge ebenfalls (unterer Teil der Abbildung). Allerdings ist nun bei der Vermögenshaltung des Publikums ein Ungleichgewicht entstanden. Die reale Geldmenge, die es hält, ist nun größer als gewünscht. An dieser Stelle tritt der Realkasseneffekt in Kraft, indem das Publikum beginnt, die reale Kasse auf ihr altes Gleichgewichtsniveau abzubauen. Der Abbau der Kasse führt zu einer Überschussnachfrage auf dem Gütermarkt, da die zunächst gestiegene Vermögensposition der Haushalte die Konsumgüternachfrage stimuliert. Die Möglichkeit, dass die Haushalte mehr Kredite vergeben, der Zinssatz sinkt und die Nachfrageerhöhung über steigende Investitionen verläuft, wird beim Realkasseneffekt in den Hintergrund gedrängt. Über welchen Kanal auch immer: Da das Güterangebot durch realökonomische Faktoren gegeben ist, kommt es zu einer Überschussnachfrage. Auf diese Konstellation reagieren die Unternehmen mit Preiserhöhungen, so dass es makroökonomisch zu einem inflationären Prozess, also zu einer Erhöhung des Preisniveaus kommt. Während der Phase des Abbaus der nominellen Geldmenge ist die Inflationsrate positiv und der Preisindex erhöht sich. Ab Punkt t1 in Abbildung 3.4.2 befindet sich die monetäre Sphäre wieder im Gleichgewicht. Die Inflationsrate wird wieder Null, der Preisindex hat sich verdoppelt und die reale Geldmenge ist auf ihr altes Niveau gefallen.
286
Neoklassische Makroökonomie
Würde eine Zentralbank bei gegebenem realen Produktionsvolumen bzw. realem Einkommen und stabiler Geldnachfrage die Geldmenge in jeder Periode erhöhen, ergibt sich ein permanenter Inflationsprozess. Würde bei einem steigenden realen Produktionsvolumen die Geldmenge nicht erhöht, so müsste das Preisniveau sinken. Würde bei stabiler Geldnachfrage das Geldmengenwachstum dem Wachstum des realen Sozialproduktes angepasst, so würde das Preisniveau unverändert bleiben. Die Quantitätstheorie des Geldes leitet ab, dass die reale Geldmenge endogen durch die Geldnachfrage bestimmt wird. Durch den Realkasseneffekt wird hinter dem Rücken der Marktteilnehmer immer genau jene reale Geldmenge erzeugt, die gewünscht wird. Unmittelbar deutlich wird dies bei der Definition des Geldmarktgleichgewichts entsprechend der Gleichung (3.4.14). Entwicklungen der nominalen Geldmenge haben längerfristig somit nicht nur keine Auswirkungen auf Produktionsvolumen, Beschäftigung, Ersparnisse etc., sondern auch keine auf die ökonomisch allein relevante reale Geldmenge. Die Omnipotenz der Zentralbank bei der Bestimmung des Preisniveaus geht einher mit ihrer (zumindest längerfristigen) absoluten Impotenz bei der Beeinflussung realökonomischer Prozesse und der realen Geldmenge. Nach Friedman verläuft der Anpassungsprozess nach einer inflationär wirkenden Erhöhung der Geldmenge zum neuen Gleichgewicht komplizierter als bisher dargestellt. Wegen der durch die Inflation gestiegenen Opportunitätskosten der Kassenhaltung werden die Wirtschaftssubjekte ihre reale Kasse auf ein niedrigeres Niveau als im inflationsfreien Zustand abbauen. Aufgrund der Inflationsrate sinkt die reale Kassenhaltung nun unter ihr langfristiges Gleichgewichtsniveau. Als Folge ergibt sich bei einer einmaligen Geldmengenerhöhung und ansonsten unveränderten Bedingungen ein Anstieg des Preisniveaus, der über dem langfristigen Gleichgewicht liegt. Sinkt die Inflationsrate schließlich im Verlaufe des Anpassungsprozesses zum neuen Gleichgewicht, erhöht sich das Volumen der gewünschten realen Kassenhaltung wieder. Die Nachfrage auf den Gütermärkten kann dann sogar temporär sinken und ein Sinken des Preisniveaus bewirken, was den Wunsch zur Kassenhaltung weiter erhöht und die reale Kassenhaltung über ihr Gleichgewichtsniveau ansteigen lässt. Die instabile Entwicklung hält an, bis das neue Gleichgewicht mit einem verdoppelten Preisniveau und einer unveränderten realen Geldmenge erreicht ist. Abbildung 3.4.3 zeigt beispielhaft eine mögliche Entwicklung. Detaillierte Beschreibungen über den Übergangsprozess von einem Gleichgewicht zum anderen können nicht geliefert werden. Wenn auch Schwankungen des Preisniveaus, der realen Geldmenge und der Inflationsrate während des Übergangs zu erwarten sind, „so kann ohne eine viel genauere Spezifizierung der Reaktionsweisen der Wirtschaftssubjekte und des Prozesses, durch den ihre Erwartungen über Preisbewegungen geformt werden, über die Einzelheiten nur wenig gesagt werden“ (Friedman 1976a, S. 26). Friedman geht somit davon aus, dass die Geldnachfrage kurzfristig alles andere als stabil ist. Kurzfristig können sich vielmehr Instabilitäten bei der Preisniveauentwicklung ergeben, die sich dann auf die gesamte Ökonomie auswirken (vgl. unten). Es lässt sich unschwer erkennen, dass Friedman zum Befürworter einer Geldpolitik wurde, die das Preisniveau unverändert lässt oder mit einer stabilen Rate steigen lässt. Denn eine schwankende Preisniveauänderungsrate wird als kurzfristig destabilisierend für die gesamte Ökonomie betrachtet. Eine stabile Preisniveauentwicklung lässt sich nach Friedman erreichen, wenn die Zentralbank einer sturen Geldmengenregel folgt und die Geldmenge jedes Jahr mit einer bestimmten Rate wachsen lässt (vgl. dazu Kapitel 6.2.2).
Neoklassische Makroökonomie
287
Abbildung 3.4.3: Instabilität der Preisniveauentwicklung nach einem Anstieg der Geldmenge
M
t P
t
Langfristig geht der neoklassische Monetarismus trotz der kurzfristigen Nichtneutralität des Geldes von der Bedeutungslosigkeit von Geld aus. Gleichzeitig wird von der Stabilität des privaten Sektors ausgegangen. Noch deutlicher als Friedman brachte dies Karl Brunner, ein weiterer Wortführer des Monetarismus, zum Ausdruck: „Die monetaristische These ... behauptet, dass die Dynamik des privaten Sektors im Grunde sehr stabil ist. Im Besonderen wird verneint, dass diese Dynamik den Hauptteil der beobachteten Schwankungen erklären kann. (...) Der private Sektor absorbiert Schocks und formt sie in eine stabilisierende Bewegung um“ (Brunner 1973, S. 75). Geld wird dann langfristig nichts anderes als zum Schleier über einer stabilen Realsphäre, wobei Geldpolitik jedoch kurzfristig zu Störungen führen kann. Bei der Analyse dynamischer Prozesse tauchen Effekte auf, welche die Neutralität des Geldes auch im Rahmen einer neoklassischen Argumentation unwahrscheinlich machen. Sobald sich während des Anpassungsprozesses realökonomische Effekte einstellen und sich damit auch die realökonomischen Variablen in der aggregierten Geldnachfragefunktion verändern, wird das neue realökonomische Gleichgewicht nicht mehr mit dem alten identisch sein und es wird keine strikte Proportionalität zwischen Geldmengen- und Preisniveau geben können. Anpassungen des Preisniveaus – dies sieht auch Friedman so – erfolgen auf letztlich unbekannten Wegen. Daher können Wirtschaftssubjekte dynamische Prozesse niemals korrekt antizipieren. Beispielsweise führen Preisniveauveränderungen zu Umverteilungseffekten zwischen Schuldnern und Gläubigern. Durch diesen Umstand werden individuell die realen Vermögenspositionen der Individuen modifiziert und damit auch Variablen in der makroökonomischen realen Geldnachfragefunktion. Nur bei der willkürlichen Annahme, dass sich die Umverteilungseffekte so gleichmäßig auf die Gläubiger und Schuldner verteilen, dass die neue reale makroökonomische Geldnachfrage exakt der alten entspricht, wird die Realsphäre nicht gestört. Um theoretisch die Neutralität des Geldes zu bewahren, müssen überaus harte Verhaltensannahmen gesetzt werden. Führt z. B. der Abbau einer zu hohen realen Kasse zum Anstieg des Kreditangebots und damit zu sinkenden Zinssätzen und steigender Investitionsgüternachfrage, dann ändert sich die Realökonomie ohne Zweifel aufgrund monetärer Prozesse. Denn eine steigende Investitionsgüternachfrage wird den Kapitalstock verändern. Dies erklärt, warum beim Realkasseneffekt so viel Wert auf die Überschussnachfrage nach Konsumgütern im Vergleich zu den Investitionsgütern gelegt wird. Eine Modifikation des Kapitalstocks ergibt sich aber im Grunde bereits durch eine steigende Konsumgüternachfrage, da die
288
Neoklassische Makroökonomie
Konsumenten die Preise hochtreiben, Investoren durch ihre Nachfrage verdrängen und dadurch die Allokation der Produktionsfaktoren verändert wird. Im Kern zeigt sich erneut, dass, sobald im Ungleichgewicht gehandelt wird, völlig offen bleibt, wohin sich die Ökonomie entwickeln wird. Transaktionen im Ungleichgewicht verändern die Realsphäre. Ein Weg zurück zum ursprünglichen Zustand ist dann auf jeden Fall versperrt. Das Problem lässt sich an dem schon öfters erwähnten Fall eines Kriegsgefangenenlagers verdeutlichen. Nehmen wir an, jeder Gefangene erhält eine spezifische exogene Anfangsausstattung an Gütern. Durch Tausch können die Gefangenen ihren Nutzen erhöhen. Es ergibt sich im Gleichgewicht ein Set von gleichgewichtigen Tauschverhältnissen bzw. relativen Preisen (vgl. Kapitel 2.2). Wird nun Geld nach der Logik der neoklassischen Quantitätstheorie in dieses Modell eingeführt, dann muss jeder Gefangene neben seinen Gütern einen exogenen Anfangsbestand an Geld erhalten. Damit Geld nicht die Neutralität des Geldes zerstört, müssen die Geldbestände so verteilt sein, dass Geld die Tauschverhältnisse, die sich ohne Geld ergeben, nicht verändert. Haben wir zwei Wirtschaftssubjekte mit identischen Anfangsbeständen an Gütern und an Geld und hat Wirtschaftssubjekt A einen größeren Wunsch nach Geldhaltung als Wirtschaftssubjekt B, dann wird Wirtschaftssubjekt A Güter abgeben, um seinen Geldbestand zu erhöhen. Wirtschaftssubjekt B wird Geld abgeben und dafür mehr konsumieren. Die Tauschverhältnisse mit Geld entsprechen dann nicht mehr den Tauschverhältnissen ohne Geld – Geld ist nicht mehr neutral. Genau aus diesem Grunde hat Friedman gefordert, dass die Opportunitätskosten des Geldes Null sein sollten und jedes Wirtschaftssubjekt die Sättigungsmenge an Geld nachfragt. Kommen wir zum nächsten Problem. Jede Erhöhung der Geldmenge, die neutral ist, muss nun so sein, dass jeder Gefangene eine proportionale Erhöhung seines Geldbestandes erfährt. Wirft der Hubschrauber Banknoten ab, dann müssen die Wirtschaftssubjekte die Scheine so auffangen, dass sich dieses Resultat ergibt. Dies ist selbstverständlich reiner Zufall. Gelingt es einigen Gefangenen nicht, Geldscheine zu fangen, und fangen andere dafür viele Banknoten, wird die gesamte Struktur der Tauschverhältnisse verändert. Die Neutralität des Geldes zerbricht. Wird vom Hubschraubergeld abgegangen, dann muss immer davon ausgegangen werden, dass eine Geldmengenerhöhung nicht proportional auf die Geldhalter verteilt wird. Gäbe es im Gefangenenlager schließlich Kreditverhältnisse und würden die Gefangenen zukünftige Inflationsprozesse nicht richtig antizipieren, dann würde eine Geldmengenerhöhung zu Vermögensumverteilungen zwischen Gläubigern und Schuldnern führen. Zudem würde jede Investitionstätigkeit die reale Struktur der Ökonomie ändern. Auch in diesen Fällen würde dies auf die gleichgewichtigen Tauschverhältnisse zurückwirken. Insgesamt ist der Ansatz einer „kurzfristigen Nichtneutralität des Geldes“ bei „langfristiger Neutralität des Geldes“ methodisch nicht haltbar. Denn wirkt Geld kurzfristig auf die Realsphäre ein – was angesichts der ausgeführten vielfältigen Einflüsse des Geldes schwerlich zu leugnen sein wird –, dann kann Geld auch langfristig nicht neutral sein. Kernpunkte Die Neoquantitätstheorie leitet auf mikroökonomischer und makroökonomischer Ebene die Geldnachfrage in differenzierter Form ab. Die zentrale Unterstellung dabei ist, dass die Nachfrage nach Geld eine Nachfrage nach realer Kasse ist und diese Nachfrage stabil ist. Durch diese Annahme bleibt der proportionale Zusammenhang zwischen exogener Geldmengen- und Preisniveauveränderung bestehen. Der Realkasseneffekt beschreibt den Prozess bei einer Geldmengenveränderung zu einem neuen Gleichgewicht mittels einer Überschussnachfrage bzw. eines Überschussangebots auf dem Gütermarkt. Der Prozess kann instabil verlaufen. Die Annahme der langfristigen Neutralität des Geldes hängt an extrem unrealistischen Annahmen und ist damit abzulehnen.
Neoklassische Makroökonomie
289
3.4.4 Die Phillips-Kurve Fragestellung Wie ist der Zusammenhang zwischen Preisniveauveränderung und Beschäftigung? Was beschreibt die kurzfristige und die langfristige Phillips-Kurve? Warum gibt es im neoklassischen Modell Arbeitslosigkeit? Was ist die natürliche Arbeitslosigkeit? Die Phillips-Kurve erhielt ihren Namen von Alban W. Phillips, der in den 1950er Jahren in einer empirischen Untersuchung über die Entwicklung in Großbritannien während des Zeitraums von 1886 bis 1957 eine inverse Beziehung zwischen der Entwicklung der Arbeitslosenquote (Alq) und der Verände& ) feststellte (vgl. Abbildung 3.4.4). Der von Phillips (1958) empirisch entrungsrate der Geldlöhne ( w deckte Zusammenhang zwischen steigenden Geldlöhnen und sinkender Arbeitslosenquote ist kaum überraschend, drückt er doch ausschließlich einen üblichen Marktmechanismus aus. Bei konjunkturellen Aufschwüngen mit sinkender Arbeitslosenquote wird Arbeit knapper und die Macht der Arbeitnehmer steigt, was eine Tendenz zu steigenden Geldlöhnen freisetzt. Steigt die Arbeitslosigkeit, dann haben die Geldlöhne die Tendenz, weniger zu steigen oder gar zu sinken, da die Verhandlungsmacht der Arbeitnehmer durch den Anstieg der Arbeitslosigkeit geschwächt wird.
Abbildung 3.4.4: Die ursprüngliche Phillips-Kurve & w
Alq
Die von Phillips empirisch gefundene Kurve wurde im Rahmen der neoklassischen Synthese in spezifischer Weise interpretiert. Die Veränderung der Nominallöhne in der ursprünglichen Phillips-Kurve wurde kurze Zeit nach der Publikation von Phillips von Paul Samuelson und Robert Solow durch die Veränderung des Preisniveaus ersetzt.80 Damit war die eigentliche Phillips-Kurve geboren (vgl. Abbildung 3.4.5). Sie zeigt nun eine Beziehung zwischen der Arbeitslosenquote und der Inflationsrate. Bei geringer Arbeitslosenquote ist die Inflationsrate hoch, bei hoher Arbeitslosenquote gering. Vor dem Hintergrund der keynesianischen Inflationstheorie könnte hinter der Phillips-Kurve eine Lohn-PreisSpirale vermutet werden. Bei geringer Arbeitslosenquote steigen die Geldlöhne verstärkt an, was über eine Lohn-Preis-Spirale zu einer Erhöhung der Inflationsrate führt. Umgekehrt, bei hoher Arbeitslosigkeit nehmen Lohnsteigerungen und Inflationsrate ab. In der Tat kann nach keynesianischer Sicht ein solcher Zusammenhang hergesellt werden, wenngleich auch andere ökonomische Prozesse auf die 80
Vgl. den Wiederabdruck dieses Aufsatzes Samuelson/Solow (1974).
290
Neoklassische Makroökonomie
Preisänderungsrate einwirken. In Kapitel 4.5 wird auf die Beziehung zwischen Geldlöhnen, Preisniveau und Beschäftigung anknüpfend an das Originalwerk von John Maynard Keynes näher eingegangen.
Abbildung 3.4.5: Die Phillips-Kurve P&
P& 2
P&1
Al q1
Alq
Alq 2
Die Phillips-Kurve wurde von der neoklassischen Synthese, also der herrschenden makroökonomischen Theorie der 1950er jedoch nicht auf der Grundlage des Originalwerkes von Keynes interpretiert. Vielmehr kam es zu einer neoklassischen Interpretation der Phillips-Kurve. Unterstellt wurde, dass Geldlöhne starr sind und sich Arbeitnehmer insbesondere weigern, Nominallohnsenkungen zu akzeptieren. Bei den Reallöhnen gilt dies nicht. Arbeitnehmer, so das Argument, würden jedoch Reallohneinbußen hinnehmen, wenn diese durch eine Erhöhung des Preisniveaus zustande kommen. Mit diesem Argument wurde nun der neoklassische Arbeitsmarkt analysiert: Existiert Arbeitslosigkeit aufgrund einer ungenügenden Nachfrage nach Arbeit, dann müssen die Reallöhne nach neoklassischer Sicht gesenkt werden. Senken die Arbeitnehmer nicht die Nominallöhne, dann kann durch den „Trick“ einer Erhöhung des Preisniveaus die Reallohnsenkungen erzeugt und das Beschäftigungsniveau erhöht werden. Eine Erhöhung des Preisniveaus kann durch eine expansive Geldpolitik erzeugt werden, sprich durch eine Erhöhung der Geldmenge.81 Durch diese höchst eigenwillige und fragwürdige Verbindung zwischen der originalen Phillips-Kurve, dem neoklassischen Arbeitsmarkt und quantitätstheoretischen Vorstellungen erhielt die Phillips-Kurve plötzlich eine wirtschaftspolitische Bedeutung, die in den ersten Jahrzehnten nach dem Zweiten Weltkrieg von zentraler Bedeutung war und bis heute nachwirkt. Denn die Phillips-Kurve suggeriert, dass es wirtschaftspolitisch möglich sei, beliebig auf einer Phillips-Kurve hin- und herzuwandern. Die Ökonomie kann demnach z. B. von einer Arbeitslosenquote Alq2 zur geringeren Arbeitslosenquote Alq1 •
•
wandern, wenn von einer Inflationsrate P1 auf die höhere Inflationsrate P2 übergegangen wird (vgl. Abbildung 3.2.5). Eine auf Beschäftigung bedachte Wirtschaftspolitik würde somit das Preisniveau erhöhen und dadurch die Arbeitslosigkeit senken. Typisch ist beispielsweise die Aussage des sozialdemokratischen deutschen Bundeskanzlers Helmut Schmidt in den 1970er Jahren, dass ihm eine Inflationsrate von 5% lieber sei als eine Arbeitslosenquote von 5%. Andere Regierungen sahen es dann bei81
Unter bestimmten Bedingungen kann Geldpolitik in der neoklassischen Synthese versagen. Dann sind andere Wirtschaftspolitiken zur Erhöhung der Beschäftigung notwendig, insbesondere Fiskalpolitik (vgl. zur neoklassischen Synthese Kapitel 5.3).
Neoklassische Makroökonomie
291
spielsweise als günstiger an, die Inflationsrate etwas zu senken und dafür eine etwas höhere Arbeitslosenquote in Kauf zu nehmen. Eine Auswahlmöglichkeit zwischen Arbeitslosenquote und Inflationsrate gibt es natürlich nur dann, wenn die Phillips-Kurve stabil ist. Dies musste unterstellt werden. Theoretisch ist die Phillips-Kurve freilich völlig unbefriedigend, da sie weder neoklassischem noch keynesianischem Denken entspricht. Es handelt sich bei der Phillips-Kurve schlicht und einfach um schlechte Ökonomie. Auf alle Fälle wurde die Phillips-Kurve eine „leichte Beute“ des Monetarismus. Milton Friedman, schon immer ein erklärter Gegner der neoklassischen Synthese, kritisierte die Phillips-Kurve und diskreditierte damit die neoklassische Synthese insgesamt. Er ließ sich zunächst auf die Phillips-KurvenDebatte ein, um dann allerdings der Phillips-Kurve ihren Todesstoß zu versetzten. Friedman postulierte zunächst, dass inflationäre Effekte die Informationsbeschaffung von Wirtschaftssubjekten erschweren. Inflationäre Entwicklungen werden danach erst langsam durch Erfahrungen und Beobachtungen bemerkt. Die Erhöhung der absoluten Preise kann beispielsweise als Veränderung eines relativen Preises missgedeutet werden. Bei den Löhnen bedeutet dies, dass Geldlohnerhöhungen mit einer Erhöhung des Reallohnes verwechselt werden können. In solchen Fällen erzeugen Geldmengenveränderungen Geldillusionen, da Wirtschaftssubjekte auf Basis fehlerhafter Einschätzungen handeln. Genau davon ging Friedman aus. Kurzfristig können Geldillusionen nach Friedman durchaus positive Wachstums- und Beschäftigungseffekte auslösen, die allerdings längerfristig nicht aufrechterhalten werden können. Begründet wurde diese Idee, indem Friedman davon ausging, dass „die Verkaufspreise der Güter typischerweise auf eine unerwartete Erhöhung der Nominalnachfrage schneller reagieren als die Preise der Produktionsfaktoren“. Sollte das stimmen, dann „sind die bereits ausgezahlten Reallöhne gesunken, obgleich die von den Arbeitnehmern erwarteten Reallöhne gestiegen sind, da die Arbeitnehmer das Lohnangebot automatisch mit dem früheren Preisniveau bewerten. Tatsächlich sind es das gleichzeitige ex post-Absinken der Reallöhne aus der Sicht der Arbeitgeber und der ex ante-Anstieg der Reallöhne aus der Sicht der Arbeitnehmer, die einen Beschäftigungseffekt ermöglichen“ (Friedman 1976b, S. 147). Das Friedmansche Argument kann an der für uns schon bekannten Abbildung des neoklassischen Arbeitsmarktes aus dem Kapitel 3.2 verdeutlicht werden (vgl. Abbildung 3.4.6). Als Gleichgewicht vor ⎛ w0 ⎞ * der Geldmengenerhöhung existiere die Beschäftigungsmenge H* und der Reallohn ⎜ ⎟ . Erhöht ⎝ P0 ⎠ sich die nominale Geldmenge und beginnt der Realkasseneffekt zu wirken, dann beginnt ein inflationärer Prozess. Unternehmer, die die Überschussnachfrage spüren und ihre Preise erhöhen, versuchen bei unveränderten Geldlöhnen die Produktion zu erhöhen, da das Wertgrenzprodukt nun über dem Geldlohnsatz bzw. der Grenzertrag der Arbeit über dem Reallohnsatz liegt. Das gelingt allerdings bei unveränderten Löhnen nicht, da die Arbeitnehmer bei gegebenem Lohnsatz nicht bereit sind, zusätzliche Arbeit anzubieten. Um die Beschäftigung zu erhöhen, bieten die Unternehmen nun steigende Geldlöhne an. Die Geldlöhne steigen in der Abbildung auf w1, wobei der Anstieg der Geldlöhne (Δw) unter dem von den Unternehmen erwarteten Anstieg des Preisindexes ( ΔPU e ) liegt. Die Reallöhne aus der w0 + Δw Sicht der Unternehmen sinken trotz steigender Geldlöhne auf , da Δw < ΔPU e ist. Untere P0 + ΔPU nehmen gehen somit korrekterweise von sinkenden Reallöhnen aus und können die Beschäftigung auf H1 erhöhen. Warum aber bieten die Arbeitnehmer – trotz sinkender Reallohnsätze – mehr Arbeit an? Sie unterliegen einer Geldillusion, indem sie eine zu geringe oder keine Inflation erwarten. Die Inflationserwartungen der Arbeitnehmer sind daher niedriger als die Erhöhung der Nominallöhne, wobei die Erhöhung der Nominallöhne niedriger ist als die richtig erwartete Inflationsrate der Unternehmen. Die Arbeitnehmer erwarten in der Abbildung unter den genannten Bedingungen den Reallohnsatz w1 und bieten folgerichtig H1 an Arbeit an. Der Anstieg der Geldlöhne auf w1 wird von ihnen P0 + ΔPA e als Anstieg der Reallöhne interpretiert, obwohl die Reallöhne faktisch sinken. Die Geldillusion hat so-
292
Neoklassische Makroökonomie
mit einen Beschäftigungseffekt erzeugt, der auf einer nicht korrekt antizipierten Reallohnentwicklung seitens der Arbeitnehmer beruht. Es ist zu beachten, dass die Erhöhung der Beschäftigung als Reaktion der Geldmengenerhöhung nicht über einen Nachfrageeffekt auf den Gütermärkten erzeugt wurde, wie beim Keynesianismus, sondern über Angebotseffekte, die durch falsche Erwartungen hervorgerufen wurden.
Abbildung 3.4.6: Der Arbeitsmarkt bei Geldillusion w P
⎛ w AA = AA ⎜ ⎜P e ⎝ A
⎞ ⎟ ⎟ ⎠
w1 P0 + ΔPA e
⎛ w0 ⎞* ⎜⎜ ⎟⎟ ⎝ P0 ⎠ w1 P0 + ΔPU e
H*
H1
⎛ w AN = AN⎜ ⎜P e ⎝ U H
⎞ ⎟ ⎟ ⎠
So weit folgt Friedman durch seine etwas an den Haaren herbeigezogene Argumentation der PhillipsKurve der neoklassischen Synthese. Sein entscheidendes Argument ist jedoch, dass die Beziehung zwischen Inflationsrate und Arbeitslosenquote nicht stabil ist, da die Phillips-Kurve nicht als stabile Kurve interpretiert werden darf. Die Neoquantitätstheorie geht davon aus, dass die Arbeitnehmer nach einiger Zeit registrieren, dass die Preise schneller gestiegen sind als ihr Geldlohnsatz. Die Geldillusion zerbricht. Die Geldlöhne werden daraufhin der inflationären Entwicklung angepasst, wobei der Reallohnsatz auf sein altes Niveau zurückgeht. In der Abbildung 3.4.6 sinkt die Beschäftigung wieder auf H* zurück. Die Neutralität des Geldes bleibt trotz der kurzfristigen Wirkung der Geldpolitik auf die Beschäftigung nach Friedmans Sicht langfristig gewahrt. Friedman unterschied somit zwischen einer langfristigen und einer kurzfristigen Phillips-Kurve. In Abbildung 3.4.7 stellt die Vertikale bei der Arbeitslosenquote Alq die langfristige Phillips-Kurve dar. Die dieser Kurve entsprechende Arbeitslosenquote ist die so genannte natürliche Arbeitslosenquote ( Alq ). Auf den ersten Blick erscheint die Annahme von Arbeitslosigkeit als eigenartig, da flexible Löhne nach dem Modell des neoklassischen Arbeitsmarktes immer zu Vollbeschäftigung führen. Friedman führt hier jedoch verschiedene Arten von Marktunvollkommenheiten ein, die immer einen Sockel von Arbeitslosigkeit erzeugen. Gemeint sind hier Arbeitsmarktfriktionen wie Such- oder Saisonarbeitslosigkeit, temporäre Probleme bei der Übereinstimmung der Struktur der Arbeitsnachfrage mit der des Arbeitsangebots, temporäre Lohnstarrheiten, jedoch auch Marktstörungen, die durch die Existenz von Gewerkschaften, gesetzlichen Mindestlöhnen und zu hohe Sozialleistungen erzeugt werden können.
Neoklassische Makroökonomie
293
Abbildung 3.4.7: Langfristige und kurzfristige Phillips-Kurve P& langfristige Phillips-Kurve
P&1
B
A
P& = 0
C kurzfristige Phillips-Kurve Alq1
Al q
Alq
Friedman erhob den nicht geringen Anspruch, die natürliche Arbeitslosenquote auf der Grundlage des walrasianischen allgemeinen Gleichgewichtsmodells abzuleiten: „Das 'natürliche Unterbeschäftigungsniveau' ist mit anderen Worten jenes, das sich aus dem Walrasianischen Gleichgewicht ergeben würde, vorausgesetzt, die aktuellen Strukturcharakteristika der Arbeits- und Gütermärkte sind eingebaut, und zwar einschließlich Marktunvollkommenheiten, Zufallsvariabilitäten von Angebot und Nachfrage, Kosten der Informationsbeschaffung über freie Stellen und Arbeitsreserven, Mobilitätskosten“ (Friedman 1976b, S. 144). Eine derartige Verknüpfung zwischen Mikro- und Makroökonomie wirft jedoch unter methodischen Aspekten zahlreiche Probleme auf. Ein Unterbeschäftigungsniveau kennt die walrasianische Ökonomie nicht und es konnte bisher auch weder von Friedman noch von einem anderen Theoretiker aus diesem Modell abgeleitet werden. Das walrasianische Totalmodell kann keine quantitativ ausgerichteten Aussagen zur Unterbeschäftigung machen.82 Wenn die natürliche Arbeitslosenquote aber nicht aus dem walrasianischen Totalmodell abgeleitet werden kann, dann bleibt nur die theoretisch eher unbefriedigende Bestimmung über die Empirie: Die natürliche Arbeitslosenquote ist jene, die sich empirisch mittelfristig ergibt. Dann aber kann nicht theoretisch hart erklärt werden, warum sich die natürliche Arbeitslosenquote seit den 1960er Jahren in vielen westlichen Industrieländern erhöht hat und auch beträchtlichen Schwankungen ausgesetzt ist. Die Vorstellung einer natürlichen Arbeitslosenquote ist ein theoretisch wie empirisch unbefriedigendes Konstrukt.83 Doch kommen wir auf den Kern der Argumentation innerhalb der Neoquantitätstheorie zurück. Postuliert wird eine Arbeitslosenquote – eben die natürliche –, die unabhängig von Geldmengen- und Preisniveauveränderungen ist und auf Imperfektionen auf dem Arbeitsmarkt beruht. Kurzfristig gibt es jedoch aufgrund von Geldillusionen eine inverse Beziehung zwischen Inflationsrate und Arbeitslosenquote, so dass mit steigender Inflationsrate die Arbeitslosenquote sinkt und mit sinkender Inflationsrate steigt. Dieser Zusammenhang wird in Abbildung 3.4.8 durch eine kurzfristige Phillips-Kurve ausge• drückt. Steigt ausgehend von einer Preisniveauänderungsrate von Null die Inflationsrate auf P1 , dann 82
Ähnlich argumentiert Frank Hahn, der als neoklassischer Mikroökonom ein ausgesprochen gespanntes Verhältnis zum neoklassischen Makroökonomen Friedman hat: „As far as I know, no one has ever succeeded in writing down such equations (um das natürliche Unterbeschäftigungsniveau zu bestimmen, d. V.) nor in ‘grinding out’ the natural level of unemployment from them. I also doubt that such a task is well formulated“ (Hahn 1971, S. 62). 83 Von der natürliche Arbeitslosigkeit zu unterscheiden ist die so genannte NAIRU (Non-Accelerating Inflation Rate of Unemployment). Hier wird eine Arbeitslosenquote postuliert, die eine Preisänderungsrate weder ansteigen noch absinken lässt (vgl. zur NAIRU Kapitel 4.7.2).
294
Neoklassische Makroökonomie
wandert die Ökonomie aufgrund von Geldillusionen der Arbeiter auf der kurzfristigen Phillips-Kurve von A nach B. Zerbricht die Geldillusion, steigt die Arbeitslosenquote von Alq1 wieder auf Alq . Die kurzfristige Phillips-Kurve gilt auch bei Deflation. Sinkt (ausgehend von Preisniveaustabilität) das Preisniveau, dann erwarten die Arbeitnehmer sinkende und die Unternehmen steigende Reallöhne, was auf der kurzfristigen Phillips-Kurve einer Wanderung z. B. von A nach C gleichkommt. Auch in diesem Fall fällt die Ökonomie auf die natürliche Arbeitslosenquote zurück, wenn die Geldillusion zerbricht.
Abbildung 3.4.8: Verschiebung der kurzfristigen Phillips-Kurve P&
langfristige Phillips-Kurve
D
P&1
kurzfristige Phillips-Kurve 2
A P& = 0
kurzfristige Phillips-Kurve 1 Al q1
Al q
Al q 2
Alq
Die auf der Phillips-Kurve basierenden Vorstellungen der neoklassischen Synthese mussten endgültig zu den Akten gelegt werden, als es den Monetaristen gelang zu zeigen, dass es nicht nur eine kurzfristige Phillips-Kurve, sondern beliebig viele gibt. Der Erklärung dieses Sachverhalts wenden wir uns nun zu. Wir gehen von einem von der Realsphäre gegebenen realen Produktionsvolumen bzw. Einkommen aus und unterstellen, dass die Zentralbank, ausgehend von Preisniveaustabilität, permanent die Geldmenge mit einer bestimmten Rate erhöht. Dann kommt es zu einer stetigen Inflationsrate in Höhe von • z. B. P1 und einer kurzfristigen Ausdehnung der Beschäftigung, so dass die Arbeitslosenquote auf Alq1 sinkt. Nach einiger Zeit werden die Wirtschaftssubjekte diese Inflationsrate antizipieren und sich von Geldillusionen befreien. Die Ökonomie fällt auf das alte Niveau an Arbeitslosigkeit zurück. Allerdings erreicht sie nicht den Punkt A in Abbildung 3.4.8, sondern den Punkt D auf der langfristigen • Phillips-Kurve, der einer permanenten Inflationsrate in Höhe von P1 entspricht. Auch bei dieser Inflationsrate schneidet eine kurzfristige Phillips-Kurve die langfristige. Neben der kurzfristigen Phillips-Kurve 1 gibt es somit eine kurzfristige Phillips-Kurve 2. Potenziell verläuft durch jeden Punkt der langfristigen eine kurzfristige Phillips-Kurve. Unterstellen wir nun, dass die Geldpoli• tik die Inflationsrate von P1 zurückführt und eine Inflationsrate von Null schafft. In diesem Fall wandert die Ökonomie aufgrund von Geldillusionen zunächst auf der kurzfristigen Phillips-Kurve 2 nach rechts, und es wird sich kurzfristig eine erhöhte Arbeitslosenquote von Alq2 ergeben. Die Arbeitslosenquote steigt über ihr natürliches Niveau. Dies liegt daran, dass die Unternehmer die Inflationsrate • von Null korrekt antizipieren, während die Arbeitnehmer noch von der Inflationsrate P1 ausgehen, entsprechend hohe Lohnforderungen stellen und den Reallohn über sein langfristiges Niveau treiben. Nach einiger Zeit realisieren die Arbeitnehmer die gesunkene Inflationsrate. Die Ökonomie wandert
Neoklassische Makroökonomie
295
zurück auf die kurzfristige Phillips-Kurve 1. Den positiven Beschäftigungseffekten bei der Inflationsratenerhöhung stehen somit negative bei der Inflationsrückführung gegenüber. Die Monetaristen waren mit den oben beschriebenen Argumenten in der Lage, konjunkturelle Schwankungen aufgrund monetärer Störungen zu erklären, die ihre Ursache in einer diskretionären Geldpolitik fanden. Die Realökonomie wurde – wie schon betont – als stabil interpretiert. Diskretionäre Geldpolitik bedeutet, dass die Geldpolitik keiner sturen Regel folgt, sondern entsprechend der jeweiligen historischen Situation reagiert. Schwankungen der Arbeitslosenquote um ihr natürliches Niveau wurden von monetaristischen Theoretikern insbesondere durch die kurzfristige Orientierung der Wirtschaftspolitik erklärt. Kurz vor Wahlen, so das Argument, wurde die Geldmenge erhöht, um darüber „künstliche“ Erfolge bei der Beschäftigung zu haben und die Wahlchancen zu erhöhen. Nach der Wahl war der Anstieg der Arbeitslosenquote im Rahmen der Zurückführung der Inflation dann politisch einfach verkraftbar. Mit einer einmaligen Erhöhung der Inflationsrate gelingt es der Geldpolitik offenbar nicht, die Arbeitslosenquote permanent unter ihrem natürlichen Niveau zu halten. Allerdings kann dies durch eine Akzeleration des Geldmengenwachstums mit ständig steigenden Inflationsraten erreicht werden. Machen wir uns dies an einem Beispiel klar: Angenommen die Arbeitnehmer erwarten zunächst keine Inflation; sie befinden sich in Abbildung 3.4.9 im Punkt A auf der langfristigen Phillips-Kurve. Die Geldmenge wird nun so erhöht, dass eine permanente Inflation von 5% herrscht. Nachdem die Geldillusionen zerbrochen sind, pendelt sich das Arbeitsangebot auf das alte Niveau ein. Nun erwarten die Arbeitnehmer eine Inflationsrate von 5%. Die Volkswirtschaft befindet sich am Punkt F auf einer nun höheren kurzfristigen Phillips-Kurve. Allerdings kann die Zentralbank nun beispielsweise eine Inflationsrate von 10% initiieren. Aufgrund der erneuten Geldillusionen erreicht die Volkswirtschaft kurzfristig den Punkt G. Jedoch zerbricht auch hier die Geldillusion und die Ökonomie landet auf dem Punkt H einer erneut nach oben verschobenen Phillips-Kurve. Eine weitere Erhöhung der Inflationsrate könnte nun Punkt I realisieren usw. Die Konsequenz dieser Analyse ist, dass die Geldpolitik die Arbeitslosenquote nur unter ihrem natürlichen Niveau halten kann, wenn sie durch eine zunehmende Expansion der Geldmenge die Inflationsrate laufend erhöht. Allerdings werden die Kosten der Rückführung der Inflationsrate auf ein niedriges Niveau in der Form einer temporären Arbeitslosenquote über ihrem natürlichen Niveau dann immer höher.
Abbildung 3.4.9: Die Akzeleration des Geldmengenwachstums P& langfristige Phillips-Kurve 15
10
I
G
H
B
F
Phillips-Kurve 3 5
Phillips-Kurve 2 A
0 Alq1
Al q
Alq Phillips-Kurve 1
296
Neoklassische Makroökonomie
Friedman konnte über die Verschiebung der kurzfristigen Phillips-Kurven ableiten, dass trotz kurzfristiger Wirksamkeit der Geldpolitik die langfristige Erhöhung der Beschäftigung über ihr natürliches Niveau nicht möglich ist – es sei denn um den Preis einer eskalierenden Inflation. Denn die Probleme einer hohen natürlichen Arbeitslosigkeit lassen sich letztlich, so sein Argument, nur durch den Abbau der Imperfektionen auf dem Arbeitsmarkt lösen, insbesondere durch Flexibilisierung und Deregulierung der Arbeitsmärkte. Im Ergebnis haben Friedman und die anderen Vertreter der Neoquantitätstheorie die neoklassische Synthese theoretisch diskreditiert. Denn sie konnten ableiten, dass ein Trade-Off zwischen Inflationsrate und Arbeitslosenquote nur kurzfristig stabil ist. Als dann ab Ende der 1969er Jahre relativ hohe Inflationsraten nicht mit sinkenden Arbeitslosenquoten einhergingen und in den 1970er Jahren sogar mit steigenden, war die Vorstellung einer stabilen Phillips-Kurve auch empirisch „widerlegt“. Hinter der Annahme der Geldillusion stehen adaptive Erwartungen der Arbeitnehmer. Bei adaptiven Erwartungen ist die Erwartungsbildung ausschließlich vergangenheitsorientiert. Wird ausgehend von einem inflationsfreien Zustand und unverändertem realen Sozialprodukt von der Zentralbank das Geldmengenwachstum erhöht, merken die Arbeitnehmer erst langsam durch empirische Erfahrungen, dass das Preisniveau steigt und passen folglich ihre Erwartungen schrittweise an. Selbst eine wiederholte Beschleunigung der Geldmengenerhöhung führt nicht zu einem Lernprozess. Zusätzlich zu adaptiven Erwartungen unterstellte Friedman eine unterschiedliche Informationsverarbeitung verschiedener ökonomischer Gruppen. Ausschließlich den Arbeitern wurde eine Geldillusion unterstellt, so dass sie systematisch als „dümmer“ angesehen wurden. Auf diesen Annahmen beruht beispielsweise das Postulat von Friedman, dass die Geldpolitik durch eine beständige Beschleunigung der Geldmengenerhöhung und damit der Inflationsrate die aktuelle Arbeitslosenquote unter ihrem natürlichen Niveau halten kann. Überzeugen kann eine solche Erwartungshypothese nicht. Es ist nicht verwunderlich, dass Milton Friedman an diesem Punkt vom eigenen Lager angegriffen wurde. Bevor wir uns im nächsten Kapitel mit dem Monetarismus II beschäftigen, wollen wir die aggregierten Angebotsfunktionen darstellen, die sich unmittelbar aus der Phillips-Kurven-Diskussion ergeben. Das langfristige aggregierte Angebot wird im neoklassischen Modell durch die Angebotsfaktoren der Realsphäre bestimmt und ist vom Preisniveau unabhängig. In der Abbildung 3.4.10 mit dem Preisniveau an der Ordinate und dem realen Nettoinlandsprodukt bzw. realen Einkommen an der Abszisse ist die aggregierte langfristige Angebotsfunktion (AAlang) eine Vertikale beim Niveau des natürlichen Produktionsvolumens (NIPrn). Letzteres korrespondiert in der Phillips-Kurven-Darstellung mit der natürlichen Arbeitslosigkeit. Bei der Existenz von Geldillusion wird eine Erhöhung des Preisniveaus zu einem kurzfristigen Anstieg der Beschäftigung führen. In der Abbildung wird dies durch die kurzfristige Angebotsfunktion (AAkurz) ausgedrückt. Zerbricht die Geldillusion, dann stellt sich wieder das natürliche Produktionsvolumen ein.
Neoklassische Makroökonomie
297
Abbildung 3.4.10: Die kurzfristige und langfristige Angebotsfunktion
P AAlang AAkurz
NIPr=Yr NIPrn
Die Analyse mit kurz- und langfristigen aggregierten Angebotsfunktionen erfreut sich einer großen Beliebtheit. Immer wenn die Nominallöhne starr sind und sich das Preisniveau erhöht ergibt sich aufgrund sinkender Reallöhne eine kurzfristige Reaktion des Produktionsvolumens. Nach der neoklassischen Synthese und Milton Friedman werden kurzfristig starre Nominallöhne auch vom so genannten Neu-Keynesianismus unterstellt, wobei die Starrheit auf mikroökonomischen Optimierungskalkülen beruht. Alle diese Varianten einer kurzfristigen Phillips-Kurve bzw. einer kurzfristigen aggregierten Angebotsfunktion sind Varianten des neoklassischen Paradigmas. Kernpunkte Die Phillips-Kurve beschreibt einen Zusammenhang zwischen steigender Inflationsrate und fallender Arbeitslosigkeit und war ein Kernelement der neoklassischen Synthese. Der Monetarismus I erklärte den Zusammenhang zwischen steigender Inflationsrate und fallender Arbeitslosigkeit durch die Geldillusion der Arbeitnehmer, die inflationäre Prozesse nicht richtig antizipieren und deshalb Nominallohnerhöhungen mit Reallohnerhöhungen verwechseln. Jedoch existieren Geldillusionen nur kurzfristig. Geldpolitik kann somit nur kurzfristig die Beschäftigung über ihr natürliches Niveau erhöhen. Langfristig ist die Beschäftigung unabhängig von Geldpolitik. Es gibt somit eine langfristige Phillips-Kurve, die von der Inflationsrate unabhängig ist, und eine Schar kurzfristiger Phillips-Kurven, die auf verschiedenen Niveaus der Inflationsrate verlaufen. Die natürliche Arbeitslosenquote, welche die Lage der langfristigen Phillips-Kurve determiniert, wird durch Imperfektionen auf dem Arbeitsmarkt bestimmt und kann langfristig über Geldpolitik nicht beeinflusst werden. Aus der kurzfristigen Phillips-Kurve lässt sich eine kurzfristige aggregierte Angebotsfunktion ableiten.
298
Neoklassische Makroökonomie
3.4.5 Die Neuklassik (Monetarismus II) Fragestellung Was sind rationale Erwartungen? Warum ist die Annahme einer Geldillusion nicht akzeptabel? Was impliziert die Annahme der Markträumung? Wie verändert sich die Quantitätstheorie des Geldes unter der Annahme von Markträumung und rationalen Erwartungen? Die von Milton Friedman im vorhergehenden Kapitel dargestellte Argumentation einer langfristig vertikalen und kurzfristig geneigten Phillips-Kurve beruht auf der Idee einer Geldillusion der Arbeitnehmer und den daraus kurzfristig abgeleiteten Mengenreaktionen auf der Grundlage kurzfristiger PhillipsKurven. Den Arbeitnehmern wurde eine adaptive Erwartungsbildung unterstellt, den Unternehmern eine korrekte. Die Argumentation im Rahmen der Neoquantitätstheorie blieb nicht unumstritten. Sie wurde durch theoretische Arbeiten auf der Basis des eigenen neoklassischen Paradigmas in Frage gestellt. In den 1970er Jahren entwickelten vor allem Robert Lucas, Thomas Sargent, Neil Wallace und Robert Barro die so genannte Neuklassik. Das neuklassische makroökonomische Modell fasst drei Elemente zusammen: rationale Erwartungen, sofortige Markträumung und eine spezifische neuklassische aggregierte Angebotsfunktion. Wir beginnen mit der Analyse rationaler Erwartungen. Rationale Erwartungen Bei rationalen Erwartungen, die schon 1961 von John Muth in die Ökonomie eingeführt wurden, verwenden Wirtschaftssubjekte alle ihnen zur Verfügung stehenden Informationen. Sie wissen, dass bei der Erwartungsbildung vergangene Entwicklungen nicht automatisch in die Zukunft fortgeschrieben werden können. Wirtschaftssubjekte verharren bei ihrer Erwartungsbildung nicht ausschließlich auf mikroökonomischer Ebene in einer „Froschperspektive“, sondern bilden sich zu jedem Zeitpunkt auch Erwartungen über die makroökonomische Entwicklung. Sie nehmen also auch die „Vogelperspektive“ ein. Dazu benutzen sie einerseits alle verfügbaren Informationen, die Zentralbanken, Regierungen, Wirtschaftsforschungsinstitute, Verbände, Fachzeitschriften etc. zur Verfügung stellen, andererseits verarbeiten sie die Informationen entsprechend des ökonomischen Modells, das sie „im Kopf“ haben. Zwischen den Erwartungen von ökonomischen Experten, Institutionen etc. und denen der Wirtschaftssubjekte gibt es keinen fundamentalen Unterschied. Nichts spricht demnach dafür, dass die Prognosefehler z. B. der Zentralbank geringer sind als diejenigen eines Arbeiters oder eines Unternehmers. Mit dem Ansatz rationaler Erwartungen wurde das adaptive Erwartungsbildungsmodell der Neoquantitätstheorie einschließlich der These der asymmetrischen Informationsverarbeitung radikal angegriffen. Die Logik rationaler Erwartungen kann an einem einfachen Modell verdeutlicht werden, das sich an die Ausführungen von John Muth anlehnt (vgl. Muth 1961 und Palley 1996). Nehmen wir einen Gütermarkt für ein beliebiges Gut, wobei Angebot und Nachfrage vom Preis abhängen sollen. Die Nachfragefunktion XNt in der aktuellen Periode t ist: (3.4.15)
X Nt = a − b ⋅ p et + ut
Bei der Funktion gibt a den Schnittpunkt mit der Ordinate, b die Steigung der Funktion und pte den erwarteten Preis in der aktuellen Periode an. Die Größe ut ist eine Zufallsvariable, die exogene Schocks ausdrückt. Die Schocks sind voneinander unabhängig, normalverteilt und haben einen Erwartungswert von ut = 0. Die Angebotsfunktion XAt nimmt die folgende Form an: (3.4.16)
X At = c + d ⋅ p et + u t
Neoklassische Makroökonomie
299
Die Angebotskurve schneidet die Ordinate bei c und hat die Steigung d. Auch hier wird der Preis erwartet und hängt von Zufallsschocks ab. Als Marktgleichgewichtsbedingung gilt wie üblich: (3.4.17)
XNt = XAt
Der Markt ist in der Abbildung 3.4.11 dargestellt.
Abbildung 3.4.11: Aggregierter Gütermarkt für ein Gut pt p2
XAt = c + d ⋅ p te + ut
pt e
XNt = a − b ⋅ p te + ut
p1 X1
Xt
X2
Xt
Es stellt sich nun die Frage, welche Erwartungen die Wirtschaftssubjekte bezüglich des Preises am Beginn der Periode t haben. Das Konzept rationaler Erwartungen impliziert zunächst, dass die Erwartungsbildung: Erstens auf Basis aller ökonomisch relevanten Daten erfolgt und zweitens dieser umfassende Informationsstand auf der Grundlage eines ökonomischen Modells interpretiert wird. Das ökonomische Modell erschließt sich den Wirtschaftssubjekten im Zweifel aus vergangenen Beobachtungen. Die entscheidende Annahme der Theorie rationaler Erwartungen ist, dass in der einfachsten Variante bei der Erwartungsbildung von allen Wirtschaftssubjekten die „wahren“ ökonomischen Variablen und das „wahre“ Modell benutzt werden. Folglich muss nicht nur das „wahre“ Modell aus dem Ensemble konkurrierender Modelle ausgewählt werden, sondern es müssen auch die Koeffizienten, die ein Modell näher spezifizieren, richtig geschätzt werden. Nun wird von Vertretern rationaler Erwartungen zugestanden, dass sich einzelne Wirtschaftssubjekte täuschen können. Aber die Fehler haben eine Normalverteilung und haben somit keine Auswirkung. Aber selbst im Falle von fehlerhaften Erwartungen von einzelnen Wirtschaftssubjekten, die keine Normalverteilung aufweisen, werden Arbitrageprozesse der richtig informierten Wirtschaftssubjekte die fehlerhaften Erwartungen korrigieren. Zudem werden „dumme“ Wirtschaftssubjekte am Markt Schaden erleiden und an Bedeutung verlieren. Wie im Einzelnen auch begründet, das Kernargument der Theoretiker rationaler Erwartungstheoretiker besteht darin, dass das durchschnittliche Wirtschaftssubjekt korrekte Erwartungen hat und auf dem Markt immer die richtigen Erwartungen dominieren. Der Markt erwartet immer die richtigen Fundamentalfaktoren, wie es heißt. In dem oben dargestellten Gütermarkt kennt somit das durchschnittliche Wirtschaftssubjekt die Funktionsweise des Gütermarktes – kennt das Modell – und kennt gleichzeitig die Parame-
300
Neoklassische Makroökonomie
ter des Modells, also a, b, c und d. Es handelt sich hier um eine extrem weitreichende Annahme, unterstellen rationale Erwartungen doch nicht mehr und nicht weniger als die Kenntnis der Zukunft. Der Markt erwartet immer das Richtige, er ist rational, da er immer durch Fundamentalfaktoren bestimmt wird und es gibt keine Unsicherheiten über zukünftige Entwicklungen. Kommen wir zu der Bedeutung der Zufallsvariablen ut. Die Annahme ist hier, dass die Wirtschaftssubjekte alle zukünftig möglichen Schocks kennen. Sie erfassen die Zukunft auf Grundlage objektiver Wahrscheinlichkeiten. Mögen sich die Wirtschaftssubjekte auch subjektive Wahrscheinlichkeiten errechnen, die subjektiven Wahrscheinlichkeiten entsprechen dabei den objektiven Wahrscheinlichkeiten, zumindest im Durchschnitt. Dies bedeutet, dass erstens die Zukunft mit objektiver Wahrscheinlichkeit erfasst werden kann und zweitens Wirtschaftssubjekte in Durchschnitt auch subjektiv erwarten, was auf Basis objektiver Wahrscheinlichkeiten prognostiziert wird. Letztlich hat die Schockvariable ut keinen Einfluss auf die Preiserwartungen, da die Schocks normalverteilt sind und der Erwartungswert der Schocks den Wert von Null annimmt. Langfristig gleichen sich die Schocks somit vollständig aus und haben damit faktisch keine ökonomische Relevanz. Würde beispielsweise der Erwartungswert von Null abweichen, würde dies selbstverständlich die Erwartungen bezüglich des zukünftigen Preises tangieren. Die Schockvariable hat somit für die Substanz des Modells keine Relevanz, sie ist „heiße“ Luft, in die das Modell ohne Not eingehüllt wird. Fällt ut aus der Gleichgewichtslösung heraus, dann ergibt sich für den erwarteten gleichgewichtigen Preis: (3.4.18)
pte =
a −c b+d
Dieses Ergebnis ergibt sich, wenn die Angebots- und die Nachfragefunktion in die Gleichgewichtsbedingung des Marktes eingesetzt werden und ut bei der Erwartungsbildung keine Rolle spielt. Realisiert werden muss der erwartete Gleichgewichtspreis nicht zwingend. Vielmehr werden zufallsbedingte Schocks den tatsächlichen Preis um den durch Fundamentalfaktoren gegebenen Preis „tanzen“ lassen, allerdings ohne eine Auswirkung auf die langfristige Entwicklung zu haben. Das Modell erhält dadurch einen Hauch von Realität und kann die beständigen Preisschwankungen erklären. Das Beispiel des einfachen Gütermarktmodells verdeutlicht die Grundstruktur rationaler Erwartungen. Erstens sind die Erwartungen der Wirtschaftssubjekte identisch mit der Gleichgewichtslösung des Modells, wobei die Gleichgewichtslösung die Erwartungen determiniert. Rationale Erwartungen müssen somit als modellgegebene Erwartungen bezeichnet werden.84 Da das Modell die Erwartungen bestimmt, hat die Neuklassik ein klares Modell der Erwartungsbildung. Erwartungen werden vom Modell endogen erklärt. Die Konsequent ist, dass Erwartungen als eigenständige Variable verschwinden und Modelle gebaut werden können, die in keiner Weise auf Erwartungen eingehen. Es reicht, wenn man so will, eine Fußnote mit der Ankündigung, dass rationale Erwartungen unterstellt werden. Zweitens impliziert die Modellkonstruktion, dass sich die Wirtschaftssubjekte aufgrund der Schockvariablen in einzelnen Perioden täuschen können. Langfristig gleichen sich solche Erwartungsfehler aus. Würden wir die Schockvariable aus der Angebotsfunktion herausnehmen, dann würden alle Wirtschaftssubjekte immer genau den Marktpreis prognostizieren können. Die Schockvariable „verschleiert“ somit, dass die Wirtschaftssubjekte faktisch die Zukunft kennen. Bei adaptiven Erwartungen wird im einfachsten Fall unterstellt, dass der vergangene Preis die Erwartungen für die laufende Periode bestimmt. Es gilt dann pte = pt-1. Sehen wir in der Abbildung 3.4.11 unter dieser Annahme zunächst von der Schockvariablen ab und nehmen an, in der vergangenen Periode wurde der Preis p2 realisiert. Die Unternehmen produzieren nun die Menge X2. Diese Menge können sie nur zum Preis p1 absetzten. Entsprechend adaptiver Erwartungen produzieren sie nun die Menge 84
Dies bringt Muth zum Ausdruck, wenn er betont, dass „expectations, since they are informed predictions of future events, are essentially the same as the predictions of the relevant economic theory“ (Muth 1961, S. 316).
Neoklassische Makroökonomie
301
X1. Der Preis steigt nun auf p2 und der Kreislauf beginnt erneut. Bei diesem Cobweb-Modell mit adaptiven Erwartungen wird in dem gewählten Beispiel das Gleichgewicht nie erreicht. Gibt es Zufallsschocks, dann wird die Ökonomie durch adaptive Erwartungen permanent destabilisiert. Es können Prozesse entstehen, die zum Gleichgewicht führen, jedoch auch Prozesse, die vom Gleichgewicht wegführen. Adaptive Erwartungen können beliebig kompliziert modelliert werden. Man kann die adaptive Erwartungsbildung nämlich auch von der Preisentwicklung der vergangenen zwei Perioden abhängig machen. Dann gilt pte = z pt-1 + y pt-2 mit z und y als Gewichten. Adaptive Erwartungen sind willkürlich und letztlich nicht gerechtfertigt, da sie ein mechanisches Menschenbild unterstellen, dass in die Zukunft gerichtete Erwartungen ebenso ausschließen wie die Möglichkeit des Lernens. Es mag in spezifischen Situationen adaptive Erwartungen geben, in andern nicht und auf keinen Fall immer. Zudem ist es bei adaptiven Erwartungen willkürlich, welche Anzahl vergangener Perioden bei der Erwartungsbildung einbezogen wird und wie die Gewichte der verschiedenen Perioden sind. Unbestritten hat der Ansatz rationaler Erwartungen die Schwächen adaptiver Erwartungen gnadenlos offen gelegt. Auch haben bei rationalen Erwartungen Geldillusion der Arbeitnehmer keine Platz mehr, denn es ist theoretisch höchst unbefriedigend, Arbeitnehmern eine andere Erwartungsbildung zu unterstellen als Unternehmen. Wirtschaftssubjekte, die über makroökonomisches Wissen verfügen, werden dies in ihre ökonomischen Handlungen einfließen lassen. Unbestritten werden Wirtschaftssubjekte auch alle möglichen Informationen nutzen. Trotz der richtigen Kritik an adaptiven Erwartungen sind rationale Erwartungen ebenfalls unbefriedigend. Untestellen sie doch, dass Wirtschaftssubjekte die Zukunft kennen, zumindest die Fundamentalfaktoren, welche die Gleichgewichte bestimmen. Das ist schon auf Partialmärkten (etwa dem Markt für Weizen, Autos oder Stahl wie in der Abbildung 3.4.11 dargestellt) schwierig, bei noch komplexeren ökonomischen Prozessen ist es schlicht und einfach abwegig, zu unterstellen, dass Wirtschaftssubjekte zumindest im Durchschnitt und in ihrer Masse die Zukunft kennen. Wir werden im Kapitel 4.2 auf rationale Erwartungen zurückkommen, wenn die Erwartungsbildung im keynesianischen Paradigma dargestellt wird. Beständige Markträumung Die Neuklassik unterstellt, dass Märkte kurzfristig wie auch langfristig immer geräumt sind und sich damit in einem Gleichgewicht befinden. Jede Veränderung der Technik, der Präferenzen der Haushalte oder auch der Geldmenge führt sofort zu einer neuen Gleichgewichtskonstellation. Die Märkte springen somit als Reaktion auf Veränderungen exogener Variablen von einem Gleichgewichtspunkt zum anderen. Die Annahme der Markträumung führt unter anderem dazu, dass es in der Neuklassik auch temporär keine unfreiwillige Arbeitslosigkeit gibt. Jedes Beschäftigungsniveau ist definitionsgemäß gleichgewichtig und entspricht der Vollbeschäftigung. Beschäftigungsschwankungen müssen dann beispielsweise auf Änderungen der Präferenzen der Haushalte oder Änderungen in der Technologie zurückgeführt werden. Sofortige Markträumung und rationale Erwartungen sind für die Neuklassik zwei Seiten der gleichen Medaille. Denn wenn das durchschnittliche Wirtschaftssubjekt über vollständige Informationen verfügen und das „wahre“ Modell zur Erklärung der Ökonomie kennen, dann wird jede neue Information zu sofortigen Marktreaktionen führen. Märkte passen sich bei neuen Informationen aufgrund nun veränderter Bedingungen an und springen in ein neues Gleichgewicht. Die Kombination von realen Schocks und sofortiger Markträumung hat in der Neuklassik zur Theorie sogenannter realer Konjunkturzyklen geführt. Der Kern zyklischer Schwankungen wird im Bereich der Angebotsschocks gesehen. Dabei spielen zufallsbedingte technologische Veränderungen die wichtigste Rolle. Technologieschocks führen zu verändertem Verhalten der Wirtschaftssubjekte und damit zu Schwankungen von makroökonomischen Variablen wie dem realen Bruttoinlandsprodukt. Auch solche Schwankungen sind zu jedem Zeitpunkt mit einem Marktgleichgewicht verbunden. Jedoch auch Präfe-
302
Neoklassische Makroökonomie
renzänderungen, die außerhalb der Erklärungskraft der Ökonomie liegen, können zu realökonomischen Schwankungen führen. Der neuklassische Ansatz führt zur Superneutralität des Geldes. Denn Geldmengenveränderungen werden von den Wirtschaftssubjekten wie Technologieschocks oder Präferenzschocks sofort erfasst und verarbeitet. Die Ökonomie springt dann als Resultat einer Geldmengenerhöhung sofort in ein neues Gleichgewicht. Geld ist somit kurz- und langfristig neutral. Geldpolitik hat keine kurzfristige Wirkung mehr auf reale Variable, weil es keine Geldillusion mehr geben kann. Die Neuklassik umschifft mit der Annahme der sofortigen Reaktion auf exogene Veränderungen und Markträumung das Problem von Friedman, dass Wirtschaftssubjekte im Ungleichgewicht handeln, die reale Welt verändern und damit Geld auch langfristig nicht mehr neutral sein kann. In der Neuklassik wird nur im Gleichgewicht gehandelt. Allerdings ist diese Annahme für die meisten Märkte ebenso abstrus wie die Annahme der Kenntnis der Zukunft. Eine Konsequenz der Annahme rationaler Erwartungen und Markträumung ist, dass es auf Märkten keine Spekulationsgewinne geben kann. Spekulation ist nicht möglich, da bei einer neuen Information der Markt sofort in sein neues Gleichgewicht springt und damit Spekulationsgewinne unmöglich sind. Das neuklassische Modell Wir stellen folgend das neuklassische Makromodell dar, wobei uns insbesondere die Konsequenzen für die Geldpolitik interessieren. Im Zentrum des neuklassischen makroökonomischen Modells steht die aggregierte Lucassche Angebotsfunktion.85 In die Angebotsfunktion gehen drei Elemente ein: Erstens das natürliche Outputniveau. Dieses hat eine ähnliche Bedeutung wie die natürliche Arbeitslosenquote bei Friedman und wird durch die walrasianische Mikroökonomie, also die Realsphäre bestimmt. Nun treten bei einer kurzfristigen Analyse neben das natürliche Outputniveau, das nicht näher untersucht und als gegeben angenommen wird, zwei weitere Einflussfaktoren. Zweitens eine Zufallsvariable uz. Diese erfasst zufällige exogene Schocks. Drittens ein Prognosefehler, da aufgrund der Zufallsvariablen das aktuelle Preisniveau nicht den Erwartungen entsprechen muss. Erwartet wird das Preisniveau Pte , das tatsächliche Preisniveau wird durch Pt ausgedrückt. Die Lucassche Angebotsfunktion nimmt folgende Form an: (3.4.19)
⎛ Pt ⎞ χ NI Pr t = NI Pr t * ⋅⎜⎜ e ⎟⎟ ⋅ uz ⎝ Pt ⎠
Das reale Nettoinlandsprodukt in der Periode t entspricht dem natürlichen Nettoinlandsprodukt in der ⎛ Pt ⎞ χ Periode t, wenn ⎜ e ⎟ und uz jeweils den Wert von eins annehmen. χ sei eine positive Zahl, die die ⎝ Pt ⎠ Stärke der Reaktion angibt, wenn Pt nicht Pte entspricht. Der Wert von χ ist nicht allgemein bestimmbar, sondern basiert auf Verhaltensannahmen, die historisch spezifisch sind. Betrachten wir die beiden Faktoren etwas genauer, die das tatsächliche vom natürlichen Produktionsvolumen abweichen lassen können. Die Größe uz ist eine Variable, die zufallsbedingte Schwankungen des realen Outputniveaus erklärt. Zufällige und nicht prognostizierbare reale Schocks wirken sich damit auf das reale Produktionsvolumen aus. Beispiele hierfür sind Missernten, neue Erfindungen, die die Produktivität erhöhen, Präferenzänderungen der Konsumenten etc. Bei dem von der Neuklassik präsentierten Modell handelt es sich somit um ein (stochastisches) Modell, das konjunkturelle Schwan85
Vgl. Lucas (1975) und (1981), Wachtel (1994) und Neumann (1979). Gewöhnlich werden neuklassische Modelle in logarithmischer Form dargestellt. Wir werden darauf verzichten.
Neoklassische Makroökonomie
303
kungen durch Zufallsereignisse erklärt. Im Unterschied zu deterministischen Modellen kann dann selbst auf Basis objektiver Wahrscheinlichkeiten ein auftretendes Einzelereignis nicht mehr mit Sicherheit erwartet werden. Die Zufallsvariable uz in der obigen Fassung der Lucasschen Angebotsfunktion hat den Erwartungswert von Eins, eine endliche Varianz und ist durch eine Normalverteilung charakterisiert. Das bedeutet, dass die Zufallsvariable langfristig keine Rolle für die Realökonomie spielt, da sich langfristig positive und negative Störungen ausgleichen. Die Varianz gibt an, wie stark die potenziellen Störungen sind. Ist die Varianz groß, dann sind auch die Outputschwankungen groß. Ein kleiner Wert der Varianz zeigt geringe Schwankungen des realen Outputs um sein natürliches Niveau an. Schwankungen des Outputniveaus müssen jedoch nicht nur durch exogene reale Schocks hervorgerufen werden, sondern können auch das Ergebnis falscher Erwartungen bezüglich des Preisniveaus sein. ⎛ Pt ⎞ Entspricht das erwartete Preisniveau Pte dem tatsächlich realisierten Preisniveau Pt , wird ⎜ e ⎟ eins ⎝ Pt ⎠ ⎛ Pt ⎞ χ und damit ⎜ e ⎟ ebenfalls eins. Liegt das tatsächliche Preisniveau höher als das erwartete, wirkt sich ⎝ Pt ⎠ ⎛ Pt ⎞ χ der Erwartungsfehler positiv auf das aktuelle Produktionsvolumen aus, da ⎜ e ⎟ größer als eins wird. ⎝ Pt ⎠ ⎛ P ⎞χ Liegt das tatsächliche Preisniveau unter dem erwarteten, liegt der Wert von ⎜ te ⎟ zwischen Null und ⎝ Pt ⎠ eins. Die Argumentation der Neuklassik scheint auf den ersten Blick der Friedmanschen Argumentation mit Geldillusion ähnlich zu sein, da auch bei ihm ein höheres tatsächliches Preisniveau als erwartet positive Mengeneffekte auslöst und umgekehrt. Es sollte jedoch bedacht werden, dass hier Pte nicht von adaptiven Erwartungen abhängt, sondern von rationalen.
Wie kann es zu Fehlern bei der Antizipation des Preisniveaus kommen? Der Kern des Arguments besteht darin, dass es den Wirtschaftssubjekten schwer fällt, zwischen relativen und absoluten Preisniveauänderungen zu unterscheiden. Als Illustration kann die berühmt gewordene Inselparabel von Edmund Phelps dienen. Hier arbeitet jede Firma auf einer Insel, wobei die Inseln ausschließlich durch einen kostspieligen Bootsverkehr verbunden sind. Jede Firma kennt die sie individuell betreffenden Preise. Das Gleiche gilt für die Arbeitnehmer auf der Insel. Firmen und Arbeiter haben allerdings keinen generellen Überblick über die Entwicklung des allgemeinen Preis- bzw. Geldlohnniveaus. Ein solcher Überblick ist nur mit Hilfe des kostspieligen Bootsverkehrs und bei Aufwendung eines Arbeitstages möglich. Steigen nun auf einer Insel Verkaufspreise unerwartet an, dann ist für diese Firma auch bei rationalen Erwartungen ungewiss, ob es sich um eine relative oder um eine absolute Verschiebung der Preise handelt. Im ersten Fall wird ein gewinnmaximierendes Unternehmen nach gängigen mikroökonomischen Kalkülen sein Angebot erhöhen. Bei einer absoluten Preisniveauerhöhung wird dies nicht der Fall sein. Aufgrund von Informationskosten und Informations-Unvollkommenheiten ist ein einzelner Anbieter nicht in der Lage, bei der Erhöhung des Verkaufspreises seines Produktes den relativen und absoluten Preiseffekt eindeutig zu differenzieren. Lucas betonte, dass in einer solchen Situation ein rational agierendes Unternehmen einen Teil der Preiserhöhung als Verschiebung des relativen Preises und einen Teil als Verschiebung des absoluten Preises interpretiert. Bei einer unerwarteten Preiserhöhung wird ein Unternehmen somit seine Produktion erhöhen. Sie wird mehr Arbeit einsetzen wollen und die Geldlöhne erhöhen. Die Arbeitnehmer werden ihrerseits die Lohnerhöhung zumindest zum Teil als Erhöhung des relativen Preises der Arbeit interpretieren und mehr Arbeit anbieten. Bei einer unerwarteten Erhöhung des Preises kommt es dann zu einem positiven Beschäftigungseffekt und einem Anstieg des realen Nettoinlandsproduktes. Bei unerwartet niedrigem Preis für das produzierte Gut eines Unternehmens kommt es aufgrund des gleichen Mechanismus zu negativen Mengenreaktionen.
304
Neoklassische Makroökonomie
Fassen wir zusammen: Sofern keine zufälligen Schocks und Prognosefehler auftreten, entspricht das reale Nettoinlandsprodukt der laufenden Periode NIPrt (bzw. die Arbeitslosenquote) dem natürlichen Nettoinlandsprodukt der laufenden Periode NIPrt * (bzw. der natürlichen Arbeitslosenquote). Die Bestimmung des Preisniveaus im neuklassischen Modell ist konventionell, da die Quantitätstheorie des Geldes unterstellt wird. Wir benutzen zur Darstellung im folgendem die simple Quantitätsgleichung (vgl. Kapitel 3.4.2) (3.4.20)
Mt ⋅ v = Pt ⋅ NIPrt
mit Mt als Geldmenge in der Periode t und v als Umlaufgeschwindigkeit des Geldes. Die Geldmenge wird wie üblich exogen von der Zentralbank bestimmt, und die Umlaufgeschwindigkeit des Geldes wird als konstant angenommen. Das Preisniveau in der Periode t wird entsprechend der Logik der Quantitätstheorie bei gegebener Umlaufgeschwindigkeit des Geldes und gegebenem realen Nettoinlandsprodukt in der Periode t durch die Geldmenge bestimmt. Werden in Gleichung (3.4.20) Pt isoliert und für das Produktionsvolumen die Lucassche Angebotsfunktion (Gleichung 3.4.19) eingesetzt, ergibt sich: (3.4.21)
Pt =
Mt ⋅ v χ
⎛ Pt ⎞ NIPrt * ⋅⎜ e ⎟ ⋅ uz ⎝ Pt ⎠
Wird auch hier Pt isoliert, folgt: (3.4.22)
Pt =
χ +1
Mt ⋅ v 1 NIPrt * ( e ) χ ⋅ uz Pt
Das neuklassische Modell bestimmt somit das Preisniveau der aktuellen Periode entsprechend der obigen Gleichung. Wenden wir uns nun der Frage zu, welches Preisniveau die Wirtschaftssubjekte erwarten. Erstens wird unterstellt, dass das durchschnittliche Wirtschaftsubjekt die Quantitätstheorie des Geldes kennt und als „wahres“ Modell der Preisniveaubestimmung annimmt. Zweitens müssen die Wirtschaftssubjekte so informiert sein, dass sie die Variablen des Modells kennen. Da die Wirtschaftssubjekte die „wahren“ Variablen kennen und das „wahre“ neoklassische Modell im Kopf haben, wird das erwartete Preisniveau von den Wirtschaftssubjekten korrekt erwartet, es gilt Pt = Pte . Damit wird Gleichung (3.4.21) zu: (3.4.23)
Pte
=
Mt ⋅ v
χ
⎛P ⎞ NIPrt * ⋅⎜⎜ et ⎟⎟ ⋅ uz ⎝ Pt ⎠
Bei der Erwartungsbildung treten nun zwei Vereinfachungen auf. Da die Wirtschaftssubjekte die bestmögliche Prognose erstellen, wird das von ihnen erwartete und das realisierte zukünftige Preisniveau den gleichen Wert annehmen. Wäre dies nicht der Fall, dann würde keine rationale Prognose vorliegen. Pt Somit wird e = 1 . Bei der Prognose der stochastische Variable nimmt diese den Wert von eins an, so Pt dass uz = 1 gilt. Wäre der Erwartungswert der Zufallsvariablen ungleich eins, dann würde dieser Wert sofort in die Bestimmung des natürlichen realen Produktionsniveaus und damit auch des gleichgewichtigen erwarteten Preisniveaus eingehen. Es sollte beachtet werden, dass uz keine Unsicherheit oder gar Unwissenheit über die Zukunft ausdrückt, die bei den Wirtschaftssubjekten zu Handlungen führen könnten, sich vor der Unsicherheit zu schützen. Zwar kennen die Wirtschaftssubjekte nicht das reale
Neoklassische Makroökonomie
305
Produktionsvolumen in einem spezifischen Jahr, jedoch wissen sie, entsprechend den Annahmen des neuklassischen Modells, dass im langfristigen Durchschnitt das reale Produktionsvolumen dem natürliPt chen entspricht. Mit e = 1 und uz = 1 vereinfacht sich die Gleichung (3.4.23) und wird zu: Pt (3.4.24)
Pte =
Mt ⋅ v NIPrt *
Diese Gleichung stellt das Herzstück des neuklassischen Ansatzes dar, drückt sie doch aus, dass die Erwartungen der Gleichgewichtslösung des Modells entsprechen. Gleichung (3.4.24) kann nun in Gleichung (3.4.21) eingesetzt werden. Es ergibt sich: Pt =
Mt ⋅ v
bzw.
χ
⎛ ⎞ ⎜ Pt ⎟ ⎜ ⎟ ⋅ uz NIPrt * ⋅ ⎜ Mt ⋅ v ⎟ ⎜ ⎟ ⎝ NIPrt * ⎠ χ
Pt =
1 M t ⋅ v ⎛ Mt ⋅ v ⎞ 1 ⋅ ⋅⎜ ⎟ ⋅ Ptχ NIPrt * ⎝ NIPrt * ⎠ uz
Nach einer weiteren Umformung folgt: ⎛ Mt ⋅ v ⎞ Pt(1+χ ) = ⎜ ⎟ ⎝ NIPrt * ⎠
(1+χ )
⋅
1 uz
und
1
(3.4.25)
Pt =
Mt ⋅ v ⎛ 1 ⎞ 1+χ ⋅⎜ ⎟ NIPrt * ⎝ uz ⎠
Gleichung (3.4.25) bringt zum Ausdruck, dass das aktuelle Preisniveau ausschließlich von objektiven Faktoren abhängt. Dieses Ergebnis ist deshalb instruktiv, da es zum Ausdruck bringt, dass die Erwartungen der Wirtschaftssubjekte implizit aus dem Modell als eigenständiger Faktor eliminiert wurden. Dieses Ergebnis wurde erzielt, indem unterstellt wurde, dass alle Wirtschaftssubjekte genau das erwarten, was der Modellbauer als Modellergebnis präsentiert. Benutzen wir die Gleichungen (3.4.24) und (3.4.25), um einen Quotienten zu bilden, ergibt sich 1
Mt ⋅ v ⎛ 1 ⎞ 1+ χ ⋅⎜ ⎟ Pt NIPrt * ⎝ uz ⎠ bzw. = Mt ⋅ v Pte NIPrt * 1
(3.4.26)
Pt ⎛ 1 ⎞ 1+ χ =⎜ ⎟ Pte ⎝ uz ⎠
Wird Gleichung (3.4.26) schließlich in die Lucassche Angebotsfunktion (Gleichung 3.4.19) eingesetzt, folgt: χ
1 ⎛ ⎞ ⎛ 1 ⎞ 1+ χ ⎟ ⎜ NIPrt = NIPrt * ⋅⎜ ⎜ ⎟ ⎟ ⋅ uz ⎝ uz ⎠ ⎝ ⎠
306
Neoklassische Makroökonomie
NIPrt = NIPrt * ⋅uz (3.4.27)
NIPrt = NIPrt * ⋅uz
-
χ 1+ χ
⋅ uz
1 1+ χ
Gleichung (3.4.27) bringt einer der Kernaussagen der Neuklassik auf den Punkt. Sie zeigt, dass ohne exogene zufällige Schocks das reale Nettoinlandsprodukt (die Arbeitslosenquote) dem natürlichen Nettoinlandsprodukt (der natürlichen Arbeitslosenquote) entspricht, das (die) sich wiederum aus der walrasianischen Realökonomie ergibt. Die Neuklassik kann mehrere Phänomene erklären, die mit dem Instrumentarium der Neoquantitätstheorie schwer zu fassen sind. Durch die Benutzung eines stochastischen Modells mit Zufallsschwankungen können konjunkturelle Bewegungen auch bei einer Geldpolitik erklärt werden, die keine Störungen auf die Realökonomie ausübt. Bei Friedman sind die Zentralbanker immer die „bösen“ Buben, die aus kurzfristigen Erwägungen heraus realökonomische Störungen erzeugen. Bei dem „realen“ Konjunkturmodell der Neuklassik spielen Erwartungen keine Rolle, sondern exogene Schocks. Es sei allerdings dahingestellt, ob exogene Schwankungen der Produktivitätsentwicklung, der Nutzenschätzung zwischen Freizeit und Arbeit etc. eine plausible Erklärung von Konjunkturzyklen erlauben, die bekanntlich in einer gewissen Regelmäßigkeit auftreten und zu einem wesentlichen Element der Dynamik von Geldwirtschaften gehören. Es erscheint wenig plausibel, dass exogene Schocks gleichsam regelmäßig wie Konjunkturzyklen auftreten und so stark ausgeprägt sind. Die Neoquantitätstheorie konnte gut erklären, dass eine sich beschleunigende Inflation nicht zu Beschäftigungseffekten führen muss. Jedoch auch sie hatte Probleme, eine steigende Inflationsrate und eine sinkende Beschäftigung zu erklären. Eine solche Konstellation nennt man Stagflation, die realökonomische Stagnation und Inflation verbindet. Für die Neuklassik ist die Erklärung von Stagflation möglich. So kann sie etwa das Resultat des gleichzeitigen Auftretens eines negativen realen Schocks mit einer starken antizipierten Geldmengenerhöhung sein, die aufgrund korrekter Erwartungen wirkungslos bleibt. Die Neoquantitätstheorie war mit dem Problem konfrontiert, die Vorstellung von der Neutralität des Geldes letztlich doch nicht aufrechterhalten zu können. Denn z. B. kann durch eine Geldmengenerhöhung ein dynamischer Prozess ausgelöst werden, durch den sich bis zum neuen Gleichgewicht die Realökonomie durch Mengenreaktionen verändern und/oder es zu Umverteilungseffekten zwischen Wirtschaftssubjekten kommen kann. Das neue realökonomische Gleichgewicht ist dann zwingend nicht identisch mit dem alten. Die Neuklassik löst dieses Problem insofern elegant, als sich die Ökonomie faktisch immer im Gleichgewicht befindet. Erhöht die Zentralbank aufgrund einer gewissen Regel die Geldmenge, dann wird dies von allen Wirtschaftssubjekten antizipiert und die Ökonomie springt sofort ins neue Gleichgewicht und zwar ohne Anpassungsprozess. Handeln im Ungleichgewicht scheidet dann aus, und die Geldsphäre ist „super-neutral“. Konsequenzen für die Geldpolitik Für die Geldpolitik bedeuten die Ergebnisse des neuklassischen Modells, dass sie keinen kurz- oder langfristigen systematischen Einfluss auf die Entwicklung der realen Produktion und auf die Arbeitslosenquote hat. Prognostizieren die Wirtschaftssubjekte das Preisniveau falsch, treten zwar positive und negative Mengenwirkungen auf, jedoch ist die Geldpolitik nicht in der Lage, Prognosefehler der Wirtschaftssubjekte nach einer spezifischen Regel auszunutzen. Denn sobald die Wirtschaftssubjekte bei der Geldpolitik eine Regel erkennen, werden sie diese Regel bei ihrer Erwartungsbildung berücksichtigen und die Geldpolitik dann wirkungslos machen. Nur eine chaotische Geldpolitik, die keine systematischen Wirkungen entfalten kann, kann Prognosefehler erzeugen und auf die Realökonomie wirken.
Neoklassische Makroökonomie
307
Bei der Neoquantitätstheorie war es möglich, durch die Akzeleration des Geldmengenwachstums die aktuelle Arbeitslosenquote unter der natürlichen zu halten. Dies ist bei rationalen Erwartungen nicht möglich, da Wirtschaftssubjekte jede systematische Geldpolitik erkennen und sich darauf einrichten. Beziehen wir diese Ergebnisse auf die Phillips-Kurven-Diskussion, so ergibt sich, dass bei rationalen Erwartungen auch kurzfristig eine vertikale Phillips-Kurve existiert. Die Existenz kurzfristiger PhillipsKurven, die einen kurzfristigen Trade-Off zwischen Inflationsrate und Arbeitslosenquote ausdrücken, den die Geldpolitik ausnutzen kann, wird somit bestritten. Zur Erinnerung: In der Neoquantitätstheorie mit ihrer Unterstellung adaptiver Erwartungen ist die Beschleunigung oder Verlangsamung des Geldmengenwachstums der zentrale Bestimmungsfaktor von Prognosefehlern der Arbeitnehmer. Auf Grundlage dieser Annahme konnte eine kurzfristige Wirkung der Geldpolitik bei langfristiger Neutralität des Geldes abgeleitet werden. Die Neuklassik ersetzt Lang- versus Kurzfristigkeit durch Antizipierbarkeit versus Prognosefehler. Auch kurzfristig ist antizipierte Geldpolitik neutral, reale Wirkungen der Geldpolitik treten jedoch bei Prognosefehlern auf. Es sollte bedacht werden, dass Geldpolitiken, die irgendeinem Muster folgen, antizipiert werden. So bliebe eine „keynesianische“ Geldpolitik, die bei Schrumpfung des realen Produktionsvolumens das Geldmengenwachstum mit einer bestimmten Rate beschleunigt und bei Zunahme des realen Sozialproduktes das Geldmengenwachstum mit einer bestimmten Rate verlangsamt, antizipierbar und damit neutral. Wird Geldpolitik in Form einer „Geheimdiplomatie“ ohne erkennbare Regel betrieben, dann ist es für Wirtschaftssubjekte unmöglich, die Geldpolitik richtig zu antizipieren. Das Argument wird deutlich, wenn eine geldpolitische Überraschungskomponente in das obige Modell eingebaut wird. Unterstellen wir eine Geldpolitik, die vom Zentralbankpräsidenten ausgewürfelt wird und aufgrund ihres regellosen Charakters nicht prognostizierbar ist. Das Geldmengenwachstum erhält damit für das Modell den Charakter einer Zufallsvariable. Es ist somit zu erwarten, dass eine für Wirtschaftssubjekte unkalkulierbare Geldpolitik zu einer größeren Amplitude konjunktureller Schwankungen führt. Geld wird in diesem Fall auch für die Neuklassik zu einem permanenten Störfaktor und verliert seine Neutralität. Eine für die Wirtschaftssubjekte nicht antizipierbare Geldpolitik führt, so insbesondere das Argument von Lucas, zu einer Veränderung des von ihm so benannten ökonomischen Regimes. So kommt es bei einer unkalkulierbaren im Vergleich zu einer kalkulierbaren Geldpolitik dazu, dass in der Ökonomie eine zusätzliche Störvariable existiert, die die Schwankungen des Produktions- und Beschäftigungsvolumens erhöht.86 Würdigung der Neuklassik Die Neuklassik hat mit ihrer Betonung der rationalen Erwartungen zweifellos die Diskussion über Erwartungsmodelle befördert und gezeigt, dass Wirtschaftssubjekte Informationen der Vergangenheit nutzen, aber diese interpretieren und nicht wie Marionetten glauben, dass sich vergangene empirische Entwicklungen unreflektiert in der Zukunft fortsetzten. Es ist eben nicht so, dass ein Motorradfahrer während des Fahrens einer langgezogenen Linkskurve glaubt, dass die Linkskurve immer eine Linkskurve bleib. Selbst langfristige Beobachtungen können den falschen Weg weisen. So kann beispielsweise über 50 Jahre beobachtet werden, dass Frau Angela Merkel lebt. Nach adaptiven Erwartungsmodellen87 müsste Frau Merkel noch unbegrenzt weiterleben. Und diese Auffassung bestünde bis zu ih86
Das Lucassche Argument gilt als Kritik an einem zu hohen Anspruch an die Ökonometrie – impliziert es doch, dass noch so ausgefeilte ökonometrische Modelle wenig Aussagen über die zukünftigen Wirkungen einer wirtschaftspolitischen Maßnahme machen können. Haben sich die Löhne beispielsweise nach ökonometrischen Untersuchungen die letzten zwanzig Jahre jährlich um zwei Prozent erhöht, so könnte die Wirtschaftspolitik auf die Idee kommen, zur Senkung der Arbeitslosigkeit die Inflationsrate zu erhöhen und anzunehmen, dass die Löhne weiterhin jährlich um zwei Prozent steigen. Aber die Erkenntnis des vergangenen Anstiegs der Geldlöhne ist wertlos, denn ein stärkerer Anstieg der Geldmenge (wenn er bekannt wird) wird die ökonometrischen Berechnungen zu Makulatur machen. Denn Wirtschaftssubjekte werden die Geldmengeerhöhung erkennen, die Löhne entsprechend stärker erhöhen und die wirtschaftspolitische Maßnahme läuft ins Leere. 87 Übrigens auch nach ökonometrischen Modellen.
308
Neoklassische Makroökonomie
rem Tod (vgl. Taleb 2007, S. 120).88 Rationale Erwartungen kritisieren damit zu Recht alle Erwartungsmodelle, die Erwartungen entsprechend vergangener und/oder gegenwärtiger Entwicklungen schematisch modellieren. Damit sind Wirtschaftssubjekte nicht länger passive Opfer der Geldpolitik. Beispielsweise beobachten sie genau die Geldpolitik der Zentralbank und reagieren auch auf geldpolitische Aktionen. Aufgrund dieses Umstandes kann nicht davon ausgegangen werden, dass Verhaltensannahmen von wirtschaftspolitischen Maßnahmen unberührt bleiben. Verändern wirtschaftspolitische Maßnahmen jedoch Verhaltensfunktionen, dann wird es für die Wirtschaftspolitik zwingend schwieriger, ihre Ziele durchzusetzen. Damit stellt die Neuklassik auch eine Kritik am simplem Ziel-Mittel-Denken dar, das die Wirtschaftspolitik nach dem Zweiten Weltkrieg dominiert hat. Diesen positiven Aspekten steht jedoch eine Reihe von ernsthaften Bedenken gegenüber. Die Neuklassik unterstellt, dass ihr Modell das „wahre“ ist und vom durchschnittlichen Wirtschaftssubjekt als „wahr“ angesehen wird. Des Weiteren soll das durchschnittliche Wirtschaftssubjekt in der Lage sein, eine korrekte Prognose zu liefern. Im wissenschaftlichen, politischen und publizistischen Raum konkurrieren aber verschiedene ökonomische Paradigmen miteinander, oftmals sogar verschiedene ökonomische Modelle innerhalb des gleichen Paradigmas. Verschiedene Wirtschaftssubjekte werden, wie verschiedene Wirtschaftswissenschaftler, unterschiedliche Modelle wählen. Die Empirie hilft den Wirtschaftssubjekten nicht weiter, da sich alle ökonomischen Paradigmen durch die „Realität“ bestätigt fühlen. Die Unterstellung einer kollektiven Erwartungsbildung unterstellt letztlich eine Ökonomie mit nur einem Wirtschaftssubjekt. Und dieses Wirtschaftssubjekt muss in der Lage sein, die Zukunft richtig zu erkennen. Denn nur dann können die Erwartungen von der Gleichgewichtslösung des Modells bestimmt werden. Rationale Erwartungen vereinfachen die Ökonomie in einer Weise, dass das Problem der Erwartungsbildung wegdefiniert wird. Gibt es schon zwei Wirtschaftssubjekte, dann gibt es potenziell auch zwei unterschiedliche Erwartungen, die beide durchaus rational sein können. Damit weist die Weiterentwicklung der Quantitätstheorie im Rahmen rationaler Erwartungen, so Hajo Riese, „eine überaus künstliche Grundlage auf, indem sie auf den Prämissen beruht, dass a) Individuen (kollektiv!) die Ergebnisse der 'relevanten' ökonomischen Theorie – die selbstverständlich nur die neoklassische monetäre Theorie sein darf – antizipieren, b) die Wirtschaftspolitik ihre Signale so setzt, dass sie antizipierbar sind. (...) Aber die Unterstellung eines kollektiven Verhaltens widerspricht den Normen der liberalen Ökonomie“ (Riese 1986, S. 27). Selbst wenn sich alle Wirtschaftssubjekte auf ein Modell einigen könnten, bleibt es mehr als unwahrscheinlich, dass alle auch zu gleichen Parameterwerten und damit gleichen Prognosen kommen. Zu Recht hat Riese auf die eigenwillige Methodik hingewiesen, kollektives Verhalten als Normalzustand einer marktverfassten Ökonomie zu unterstellen. Erwartungsbildung bleibt immer subjektiver Natur. Selbstverständlich kann nicht ausgeschlossen werden, dass die Erwartungen vieler Wirtschaftssubjekte in spezifischen Situationen konvergieren und sich eine Stimmungslage herausbildet. Aber solche Stimmungslagen gelten nicht allgemein. Und gänzlich abwegig ist, dass die subjektiven Erwartungen, selbst wenn sie konvergieren, den objektiven Wahrscheinlichkeiten entsprechen. Wirtschaftssubjekte haben neoklassische, keynesianische und klassische rationale Erwartungen. Zuweilen bilden sich auch rationale Erwartungen auf der Grundlage subjektiver Modelle, die keinerlei Allgemeingültigkeit beanspruchen können. Verschiedene ökonomische Paradigmen und selbst Modelle innerhalb eines Paradigmas basieren auf unterschiedlichen Grundlagen und Annahmen und lassen selbst bei gleichem Informationstand unterschiedliche Erwartungen zu. Rational sind diese Erwartungen alle in dem Sinne, dass bestimmte Ziele auf Basis gegebener Informationen und Überzeugungen angestrebt werden. Aber rationales Verhalten und rationale Erwartungen im Sinne der Neuklassik sind zwei Paar Stiefel. Machen wir ein Beispiel. Auch amerikanische Indianer handeln auf der Grundlage rationaler Erwartungen in neuklassischen Sinne, wenn sie Regentänze veranstalten, um entsprechend ihres Glaubens 88
Vgl. dazu auch Herr (2011).
Neoklassische Makroökonomie
309
Regen herbeizuführen.89 Sie haben ein Modell, dass Regen von Regentänzen abhängt. Sie unterstellen dieses Modell als wahr. Da es immer irgendwann regnet, werden die Regentänze auch immer belohnt und die Empirie bestätigt das „Modell“. Es kann sogar sein, dass alle amerikanischen Indianer an die Notwendigkeit und Wirksamkeit von Regentänzen glauben lässt. Vielleicht halten aber auch 20 Prozent der Indianer die Beziehung zwischen Regen und Tänzen für Humbug. Für den Ökonomen im Indianerstamm sind rationale Erwartungen willkommen. Erlauben sie ihm doch ein Modell des Regens zu entwickeln, das von Regentänzen abhängt. Er unterstellt dann einfach, dass die durchschnittliche Erwartung der Indianer vollständig seinem Modell entspricht, ohne dass er dies selbstverständlich jemals beweisen kann. Er muss sich nicht darum kümmern, dass 20 % der Indianer vielleicht nicht an das Modell glauben und es möglicherweise eine Entwicklung gibt, die vielleicht die Mehrheit der Indianer nicht mehr an Regentänze glauben. Man sieht, rationale Erwartungen sind eine inadäquate Methode zur Erfassung von Erwartungen und führen zu Modellen, die mit keiner Ökonomie in der Welt etwas zu tun haben. Es wurde bereits ausgeführt, dass eine „natürliche Unterbeschäftigung“ auf der Grundlage des walrasianischen Totalmodells nicht abzuleiten ist. Dieser Vorbehalt gilt auch für die Setzung eines natürlichen Produktionsvolumens durch die Neuklassik. Das natürliche Produktionsvolumen muss von den Wirtschaftssubjekten gekannt werden, wenn sie ihre Erwartungen bilden. Können sie das? Niemand hat bisher die Gleichung gezeigt – so Frank Hahn – die aus dem walrasianischen Totalmodell das natürliche Produktionsvolumen „ausspuckt“. Das Problem beginnt schon damit, dass das natürliche Nettoinlandsprodukt, das durch das walrasianische Totalmodell bestimmt werden soll, nicht zwingend nur einen Gleichgewichtswert annimmt, sondern im allgemeinen Fall sind mehrere ökonomisch sinnvolle Gleichgewichtslösungen möglich (vgl. Kapitel 2.2). Welches Gleichgewicht wird bei mehreren Gleichgewichten von den Wirtschaftssubjekten im neuklassischen Modell als das natürliche erwartet? Es dürfte eine in der Tat unlösbare Herausforderung sein, ein bestimmtes, numerisch spezifisches Nettoinlandsprodukt aus dem walrasianischen Modell abzuleiten. Die Wirtschaftssubjekte in der Neuklassik sind einerseits ungewöhnlich klug, da sie über die vergangenen Variablen bestens informiert sind und das wahre Modell kennen. Sie können selbst das natürliche Nettoinlandsprodukt aus dem walrasianischen Totalmodell errechnen. Andererseits sind sie vergleichsweise dumm, da sie nämlich nicht zwischen relativen und absoluten Preisbewegungen differenzieren können. Die beiden Ökonomen Bernhard Felderer und Stefan Homburg merken berechtigterweise an: „Im Kontext der Neuklassischen Theorie ist dieser ‘Informationsmangel’ höchst merkwürdig. Über die Struktur des ökonomischen Modells und seine Parameterwerte sind alle bestens informiert, warum nicht auch über das Preisniveau?“ (Felderer/Homburg 1987, S 284.). Würde die Neuklassik die Kenntnis des aktuellen Preisniveaus unterstellen, dann wäre auch unsystematische Geldpolitik ohne jegliche Konsequenzen. Geldpolitische Empfehlungen wären dann gänzlich unnötig. Diese Freiheit wollten die Theoretiker der Neuklassik jedoch nicht geben. Geldpolitisch sitzen sie mit Milton Friedman in einem Boot. Kernpunkte Die Neuklassik folgt dem neoklassischen Paradigma und unterstellt die Korrektheit der Quantitätstheorie des Geldes (Monetarismus II), wobei zwei radikale Annahmen gemacht werden: rationale Erwartungen und sofortige Räumung aller Märkte. Rationale Erwartungen unterstellen, dass das durchschnittliche Wirtschaftssubjekt und damit der Markt Erwartungen entsprechend sogenannter Fundamentalfaktoren hat. Damit entsprechen Erwartungen definitionsgemäß der Gleichgewichtslösung des Modells und sind damit endogen bestimmt.
89
Machlup bringt dies auf den Punkt: „American Indians were perfectly rational if they, on the basis of their beliefs, performed a rain dance when they wanted rain, and they entertained ‘rational expectations’ when they expected their rites to have the desired effects“ (Machlup 1983, S. 174).
310
Neoklassische Makroökonomie
Sofortige Markträumung bedeutet, dass Wirtschaftssubjekte nie im Ungleichgewicht handeln. Durch diese Annahme zusammen mit rationalen Erwartungen springt der Markt vom alten Gleichgewicht zu einem neuen Gleichgewicht sobald sich ein exogener Faktor des Modells ändert. Aufgrund der Annahme rationaler Erwartungen und Markträumung ergibt sich eine SuperNeutralität des Geldes, da Geld weder kurz- noch langfristig systematisch auf die Ökonomie einwirken kann. Damit wird der Argumentation von Milton Friedman widersprochen, der bei Geldillusion der Arbeitnehmer eine kurzfristige Wirksamkeit der Geldpolitik unterstellte. Die Annahme von Erwartungen des durchschnittlichen Wirtschaftssubjektes entsprechend der Gleichgewichtslösung des Models widerspricht jeglicher Realität. Es ist ein „Trick“ zur Eliminierung von Erwartungen als unabhängige Variable in ökonomischen Modellen. Letztlich gibt es keine Möglichkeit der endogenen Bestimmung von Erwartungen. Rationale Erwartungen sind ebenso abzulehnen wir adaptive. Auch die Annahme permanenter Markträumung ist mehr eine Methode Probleme wegzudefinieren als zu lösen. 3.4.6 Exkurs: Bestimmung der Geldmenge Fragestellung Was sind die Geldmenge und das Geldangebot? Wie ist der Zusammenhang zwischen Zentralbankgeldmenge und Geldangebot? Nunmehr soll im Rahmen des neoklassischen Modells der Zusammenhang zwischen der Zentralbankgeldmenge, die von der Zentralbank (wie im Hubschreiberbeispiel gegeben) exogen bestimmt ist, und dem Geldangebot verdeutlicht werden. Geldmenge oder Geldangebot entsprechen nach neoklassischer Sicht der Zentralbankgeldmenge (Banknoten und Münzen), die vom Publikum bzw. im Bereich der Nicht-Finanzinstitutionen gehalten werden, plus der Depositen (Einlagen), die das Publikum beim Bankensystem hält. Geldmenge bzw. Geldangebot stellen somit ein spezifisches Liquiditätsaggregat dar. Die Begründung für die Definition der Geldmenge als Liquiditätsaggregat ist darin zu finden, dass alles was Geldfunktionen übernimmt als Geld definiert wird. Sichteinlagen (manchmal auch Buchgeld genannt) übernehmen zweifellos Geldfunktionen beispielsweise im Rahmen des bargeldlosen Zahlungsverkehrs. Auch kurzfristige Bankeinlagen können als „geldnah“ angesehen werden. Die Europäische Zentralbank gibt verschiedene Definitionen der Geldmenge. „Das Eurosystem unterscheidet die folgenden Geldmengenbegriffe: M 1 = Bargeldumlauf (ohne Kassenbestände der Monetären Finanzinstitute (MFI)) plus täglich fällige Einlagen der im Währungsgebiet ansässigen Nicht-MFIs; M 2 = M 1 plus Einlagen mit vereinbarter Laufzeit bis zu zwei Jahren und Einlagen mit vereinbarter Kündigungsfrist bis zu drei Monaten; M 3 = M 2 plus Anteile an Geldmarktfonds, Repoverbindlichkeiten, Geldmarktpapieren und Bankschuldverschreibungen mit einer Laufzeit bis zu zwei Jahren. Dieses Aggregat steht bei der Geldpolitik des Eurosystems im Vordergrund.“90 Bei der Europäischen Zentralbank steht somit die Geldmenge oder das Geldangebot M3 im Zentrum. Dies ist ein sehr breites Aggregat, das nahezu alle Bankeinlagen plus einige verzinsliche Wertpapiere mit relativ kurzer Laufzeit mit einschließt.91
90
Vgl. Deutsche Bundesbank, http://www.bundesbank.de/bildung/bildung_glossar_g.php Ein Geldmarktfond ist ein Fond, der nur in kurzfristige verzinslichen Anlagen investiert. Repoverbindlichkeiten sind sogenannte Pensionskredite. Dabei verkauft der Eigentümer eines Wertpapiers das Wertpapier gegen eine Geldzahlung an einen Käufer des Wertpapiers. Mit dem Verkauf wird jedoch gleichzeitig ein Rückkauf vereinbart, wobei Preis und Zeitpunkt festgelegt werden. Faktisch handelt es sich dabei um einen in aller Regel kurzfristigen Kredit, den der Verkäufer des Wertpapiers aufnimmt. Geldmarktpapiere sind kurzfristige Wertpapiere, die auf dem Geldmarkt (dem kurzfristigen Kreditmarkt zwischen Finanzinstituten) ausgegeben werden. Bankschuldverschreibungen sind verzinsliche Wertpapiere, die von Banken emittiert werden. Faktisch handelt es sich dabei um verbriefte Bankeinlagen.
91
Neoklassische Makroökonomie
311
Wir unterstellen folgend, dass alle Bankeinlagen Geldfunktionen übernehmen und damit zum Geldangebot zählen. In der einfachsten Variante der Geldschöpfung schmeißt der Zentralbankhubschrauber eine bestimmte Zentralbankgeldmenge in die Ökonomie, die dann gehalten werden muss. In der Realität erfolgt die Entstehung von Zentralbankgeld jedoch vor allem durch die Interaktion zwischen der Zentralbank und den Geschäftsbanken (folgend kurz Banken genannt). Wir unterstellen deshalb folgend, dass die Zentralbank eine exogen von ihr bestimmte Zentralbankgeldmenge in der Form von Noten und Münzen an die Banken verleiht. Die Banken sind in der Lage, mit der (zusätzlich) erhaltenen Zentralbankgeldmenge ein bestimmtes Kreditvolumen zu schaffen. Wenn wir unterstellen, dass Kredite der Banken bar ausgezahlt werden, dann führt jede Kreditexpansion zu einer Erhöhung der Haltung von Zentralbankgeld beim Publikum. Das Publikum wird jedoch in modernen Finanzsystemen nicht soviel Bargeld halten wollen. Entsprechend der Entscheidungen des Publikums fließt Zentralbankgeld wieder an die Banken zurück, da die Haushalte ihr Geldvermögen zumindest zum Teil in Bankeinlagen halten. Die Kreditexpansion der Banken führt also zu einer Zunahme der Depositenhaltung. Die den Banken über Einlagen wieder zugeflossenen Zentralbankgeldbestände können erneut verliehen werden. Es entsteht eine „zweite Runde“ der Kreditexpansion, da die Banken das erhaltene Zentralbankgeld wieder verleihen können. Allerdings können die Banken nicht alles vom Publikum zurückfließende Geld wieder verleihen, da sie eine Reserve halten müssen. Durch die Kreditvergabe in der „zweiten Runde“ fließt Zentralbankgeld zum Publikum. Letzteres legt wiederum einen Teil bei den Banken als Einlage ein. Die Banken können erneut einen Teil des zugeflossenen Zentralbankgeldes verleihen. Es kommt zu einer „dritten Runde“ etc. Das Aktivgeschäft der Banken – die Kreditvergabe – dominiert das Passivgeschäft – die Depositeneinlagen. Da bei einer Kreditvergabe wieder Zentralbankgeld an die Banken zurückfließt, können sie viel mehr Kredite vergeben als Zentralbankgeld existiert. Dieser Zusammenhang soll nun genauer untersucht werden. Konstruieren wir ein Beispiel und nehmen dabei an, dass die Zentralbank den Banken einen Kredit von 1000 Geldeinheiten gibt und diesen Kredit in Zentralbankgeld auszahlt. Nun unterstellen wir, dass die Banken das Zentralbankgeld von 1000 Einheiten an den Unternehmenssektor verleihen. Der Unternehmenssektor zahlt Einkommen an die privaten Haushalte, wobei wir vereinfachend annehmen, dass alle 1000 Einheiten Zentralbankgeld an die Haushalte fließen. Abbildung 3.4.12 gibt die Bilanzpositionen unter diesen Voraussetzungen an.
Abbildung 3.4.12: Die Bilanzen nach der Kreditvergabe der Banken, erster Schritt A
Zentralbank
FDZB
1000
A PV
M
Unternehmen 1000
VBUB
B 1000
B 1000
A
Banken
KBU
1000
VBBZB
A
Haushalte
MHZ
1000
RV
B 1000
B 1000
Dabei gelten folgende Symbole: Forderungen der Zentralbank an Banken (FDZB) , Zentralbankgeldmenge (M), Kreditvergabe der Banken an Unternehmen (KBU) , Verbindlichkeiten der Banken gegenüber der Zentralbank (VBBZB) , Produktivkapital der Unternehmen (PV), Verbindlichkeiten der Unternehmen (VBUB) , Zentralbankgeldhaltung der Haushalte (MHZ) und Reinvermögen der Haushalte (RV). Die Zentralbank hat in ihrer Bilanz eine Forderung an die Banken. Dieser steht die geschöpfte Zentralbankgeldmenge gegenüber, die auf der Passivseite der Zentralbankbilanz gebucht wird. Die Banken haben in ihrer Bilanz eine Verbindlichkeit gegenüber der Zentralbank und eine Forderung gegenüber
312
Neoklassische Makroökonomie
den Unternehmen, da sie die 1000 Geldeinheiten an die Unternehmen verliehen haben. Die Unternehmen haben, so wollen wir unterstellen, Produktivvermögen in Höhe von 1000 Geldeinheiten gekauft, was zu einer entsprechenden Verschuldung gegenüber den Banken führt. Das gesamte Zentralbankgeld ist an die Haushalte geflossen. Der Geldhaltung der Haushalte steht das Reinvermögen der Haushalte gegenüber. Da die Haushalte bei der Vermögenshaltung nicht einseitig den Bestand an Geld aufstocken, wird zumindest ein Teil des Geldes zu den Banken als Depositen (D) zurückfließen. Nehmen wir an, 800 Einheiten Zentralbankgeld werden als Depositen bei den Banken und 200 Einheiten als Bargeld gehalten. In unserem Beispiel sind somit 200 Einheiten Bargeld beim Publikum „versickert.“ Es gibt eine zweite Quelle des „Versickerns“ von Zentralbankgeld. Geschäftsbanken müssen eine Reserve (R) an Zentralbankgeld halten, da jederzeit Unternehmen oder Haushalte Bargeldabhebung von ihren Einlagen vornehmen können. In den meisten Ländern gibt es zudem eine gesetzliche Mindestreserve, welche die Banken verpflichtet einen Prozentsatz ihrer Depositen in Zentralbankgeld zu halten. Unterstellen wir einen Reservesatz von 10 % dann werden von den 800 Einheiten Zentralbankgeld 80 Einheiten als Bankreserve gebunden. Übrig bleiben 720 Geldeinheiten, welche freie Reserven (FR) darstellen und wieder verleihen werden können. Nach den Beschriebenen Transaktionen sehen die Bilanzen folgendermaßen aus (vgl. Abbildung 3.4.13).
Abbildung 3.4.13: Die Bilanzen nach Depositeneinlagen der Haushalte, zweiter Schritt A
Zentralbank
FDZB
1000
A PV
M
Unternehmen 1000
VBU
B 1000
B 1000
A KBU
Banken 1000
R
80
FR
720
A
VBBZB D
Haushalte
MHZ
200
D
800
RV
B 1000 800
B 1000
Verleihen die Banken die 720 Geldeinheiten, dann fließt erneut Bargeld zum Publikum. Ein Teil fließt erneut als Depositum zu den Banken zurück, nämlich 576 Geldeinheiten. Die gesamten Bankeinlagen betragen nun 1376 Geldeinheiten. Bei dem gegebenen Reservesatz müssen 10 Prozent von den zusätzlichen Depositen als Reserve gehalten werden (57,6 Geldeinheiten), so dass die zwingenden Reserven der Banken nun auf 137,5 Geldeinheiten ansteigen. Als freie Reserven bleiben 518,4 Geldeinheiten, nämlich 90 Prozent der zugeflossenen Depositen in Höhe von 576 Geldeinheiten (vgl. Abbildung 3.4.14).
Neoklassische Makroökonomie
313
Abbildung 3.4.14: Die Bilanzen nach Depositeneinlagen der Haushalte, dritter Schritt A
Zentralbank
FDZB
1000
A PV
M
B 1000
Unternehmen 1720
VBU
B 1720
A
Banken
B
KBU
1720
VBBZB
1000
R
137,6
D
1376
FR
518,4
A
Haushalte
MHZ D
344
RV
B 1720
1376
Die freie Reserve der Bank ist nach der zweiten Kreditvergaberunde der Banken von 720 auf 518,4 Geldeinheiten gesunken. Die Geldmenge ( MHZ ) definiert als Zentralbankgeld beim Publikum plus Depositen des Publikums hat sich erhöht auf MHZ = 1720 Geldeinheiten. Wir könnten jetzt die weiteren Runden der Kreditvergabe verfolgen, bis die freien Reserven der Banken vollständig verbraucht sind. Das Ergebnis lässt sich jedoch einfacher allgemein bestimmen. In den folgenden Ausführungen steht M für die Zentralbankgeldmenge und ( MHZ ) für das Liquiditätsaggregat, das als Geldmenge und Geldangebot gilt. Die Geldmenge entspricht (3.4.28 )
MH = D + MHZ ,
also der Depositenhaltung der Haushalte (D) plus der Zentralbankgeldhaltung der Haushalte (MHZ). Die Zentralbankgeldmenge entspricht: (3.4.29)
M = MHZ + R
mit R als Reservehaltung der Banken. Dabei unterstellen wir, dass die Banken Kredite vergeben bis ihre gesamte Zentralbankgeldmenge als notwendige Reserve gehalten wird. Die notwendige Zentralbankgeldhaltung der Banken errechnet sich bei gegebenem Reservesatz (ξ) durch: (3.4.30)
R=ξ⋅D
Die Bargeldquote (qM) sei definiert als Anteil der Bargeldhaltung an MH, also MHZ qM = bzw. MH (3.4.31)
MHZ = qM ⋅ MH
Wird in Gleichung 3.4.28 der Ausdruck MHZ aus Gleichung (3.4.31) eingesetzt, folgt: (3.4.32)
D = MH (1-qM)
Wird Gleichung (3.4.32) in Gleichung (3.4.30) eingesetzt, ergibt sich: (3.4.33)
R = ξ ⋅ MH (1-qM)
Werden schließlich die Gleichungen (3.4.31) und (3.4.33) in Gleichung (3.4.29) eingesetzt, resultiert: (3.4.34)
MH =
1 ⋅M q M + ξ (1− q M )
Der Geldmengenmultiplikator mMH ist somit: mMH =
1 ⋅M q M + ξ (1− q M )
314
Neoklassische Makroökonomie
Unterstellen wir, anknüpfend an das obige Beispiel, ξ = 10% und qM = 20%, dann resultiert als Geldmengenmultiplikator: mMH =
1 ≈ 3,571 0,2 + 0,1(1 − 0,2)
Bei einer exogen gegebenen Zentralbankgeldmenge von 1000 Geldeinheiten ergibt sich eine Geldmenge bzw. ein Geldangebot von rund 3571 Geldeinheiten, wobei die Differenz zwischen dem Geldangebot und der Zentralbankgeld aus dem Depositenvolumen des Publikums besteht. Die exogen gegebene Zentralbankgeldmenge ist vollständig für die Reservehaltung der Banken und die Bargeldhaltung des Publikums „verbraucht“ (vgl. Abbildung 3.4.15).
Abbildung 3.4.15: Die Bilanzen nach Depositeneinlagen der Haushalte, letzter Schritt92 A
Zentralbank
FDZB
1000
M
B 1000
A KBU R FR
A PV
Unternehmen 3571
VBU
B 3571
A MHZ D
Banken 3571 286
B
VBBZB
1000
D
2856
0
Haushalte 714
RV
B 3571
2856
Es sei am Rande erwähnt, dass der Kreditschöpfungsmultiplikators den gleichen Wert annimmt wie der Geldmengenmultiplikator, wobei der Kreditschöpfungsmultiplikator (mK) durch mK =
KBU M
definiert ist. Dieser Sachverhalt ergibt sich zwingend daraus, dass Zentralbankgeld über die Kreditvergabe der Banken an die Unternehmen zum Publikum gelangt. Der Ansatz der Geldschöpfungs- und Kreditschöpfungsmultiplikatoren kann nicht überzeugen. Die Banken und Unternehmen spielen in dem Ansatz eine absolut passive Rolle. Die Banken agieren wie Marionetten der Zentralbank und geben automatisch Kredite and die Unternehmen solange sie freie Reserven haben. Banken werden sich aber davor hüten, automatisch Kredite zu geben. Wenn sie die Zahlungsfähigkeit von Schuldnern bezweifeln, dann werden sie auch bei freien Reserven keine Kredite geben. Im Zweifel werden sie dann lieber freie Reserven halten. Sind die Banken bei den Geschäftsbanken verschuldet, dann können sie die freien Reserven abbauen indem sie ihre Verschuldung bei der Zentralbank reduzieren. Ebenso fragwürdig ist in dem Ansatz, dass die Unternehmen immer Kredite nachfragen. Unternehmen werden keine Kredite aufnehmen, wenn sie beispielsweise negative Zukunftserwartungen haben. Der deutsche Ökonom Karl Schiller hat schon in den 1960er Jahren in diesem Zusammenhang betont, dass man die Pferde zur Tränke führen kann, dass sie aber selbst saufen müssen.
92
Durch Rundungen sind die Bilanzen nicht alle numerisch ausgeglichen.
Neoklassische Makroökonomie
315
Ein weiterer Mangel des Ansatzes ist, dass der Zinssatz offensichtlich für das Kreditangebot der Banken, die Kreditnachfrage der Unternehmen oder die Depositenhaltung der Haushalte eine Rolle keine spielt. James Tobin und einige andere Keynesianer haben der „alten Sicht“ des starren Geldschöpfungsprozesses ihre „neue Sicht“ entgegengesetzt, indem sie das Portfolioverhalten der Banken und Haushalte in den Vordergrund rückten. Auf dieser Basis lehnten sie einen starren Depositen- und auch Kreditschöpfungsmultiplikator ab (vgl. Tobin 1974). Die „neue Sicht“ verdeutlichte, dass es einer Zentralbank schwerfallen kann, eine bestimmte Geldmenge zu steuern. Damit kommt die Annahme der Exogenität des Geldes ins Schwanken. Ein weiteres Problem besteht darin, dass nicht eindeutig ist, was als Geldmenge bzw. Geldangebot gelten soll. Zentralbankgeld ist eindeutig definiert, jedoch die Geldmenge, die ein Liquiditätsaggregat darstellt, hat keine eindeutige Definition. In unserer Analyse oben wurden alle Bankeinlagen des Publikums als Geld definiert. Gibt es aber sehr langfristige Einlagen, beispielsweise mit einer festgelegten Anlagedauer von über 2 Jahren, oder emittiert die Bank verzinsliche Wertpapiere an das Publikum, dann muss unklar bleiben, bis zu welcher Anlagedauer von Geld gesprochen werden kann oder ob kurzfristige verzinsliche Wertpapiere auch zum Geldangebot gehören. Wir werden uns im Kapitel 4 noch intensiv mit diesen Problemen beschäftigen. Kernpunkte Geldangebot bzw. Geldmenge werden als ein Liquiditätsaggregat definiert, das vereinfacht alles Zentralbankgeld beim Publikum plus die Bankeinlagen des Publikums umfasst. Zwischen der exogen gegebenen Zentralbankgeldmenge und dem Geldangebot besteht ein starrer Zusammenhang, so dass die Zentralbank über die Steuerung der Zentralbankgeldmenge auch das Geldangebot steuern kann. Das Geldangebot ist höher als die Zentralbankgeldmenge, da Haushalte nur einen Teil ihres Geldvermögens in Zentralbankgeld halten und bei einer Kreditvergabe der Banken Zentralbankgeld an die Banken zurückfließt, die dann erneut Kredite vergeben können. Der Geldschöpfungsmultiplikator gibt die Beziehung zwischen der Zentralbankgeldmenge und dem Geldangebot an. Zentralbankgeld „versickert“ bei einer Kreditexpansion der Banken, da Haushalte einen Teil ihres Geldvermögens in bar halten und die Banken Reserven in Zentralbankgeld halten müssen. Der Geldschöpfungsmultiplikator hängt von der Bargeldquote der Haushalte und dem Reservesatz der Banken ab. Der Ansatz eines starren Geldschöpfungsmultiplikators kann nicht überzeugen. Banken vergeben nicht wie Marionetten Kredite und Unternehmen nehmen nicht wie Marionetten Kredite auf. Es ist ein Mangel, dass der Zinssatz und Erwartungen der Wirtschaftssubjekte in dem Ansatz keine Rolle spielt. Der Zinssatz und Erwartungen spielen jedoch bei der Kreditvergabe, der Kreditaufnahme und der Depositenhaltung eine wichtige Rolle. 3.4.7 Kritische Würdigung Die theoretischen Entwicklungen im Rahmen quantitätstheoretischer Vorstellungen haben von der einfachen Quantitätstheorie des Geldes, die den Bestand an Geld schlicht mit einer Menge von Waren in Proportion setzte, über die Neoquantitätstheorie mit ihrer Betonung der Geldnachfrage bis zur Neuklassik, die das Konzept rationaler Erwartungen benutzt, eine beachtliche Dynamik bewiesen. Gleichwohl blieben die Grundlagen all dieser Varianten der neoklassischen monetären Theorie unangetastet – was wenig verwundert, da es sich um Entwicklungen innerhalb eines Paradigmas handelt. In allen Varianten der Quantitätstheorie des Geldes wird die Realsphäre als stabil postuliert, die zumindest längerfristig bei ungestörten Marktmechanismen zur Vollauslastung der Ressourcen einschließlich Vollbeschäftigung führt. Damit werden alle relevanten ökonomischen Variablen – außer dem Preisniveau und den nominellen Ausdrücken der realökonomischen Größen – durch Marktkräfte
316
Neoklassische Makroökonomie
bestimmt, die durch Geld und Geldpolitik längerfristig nicht beeinflusst werden können. Die Realökonomie wird durch Gesetze gesteuert, die nahe an Naturgesetze heranreichen.93 Der Markmechanismus wird als wunderbarer Apparat angesehen, der das individuelle egoistische Verhalten der Wirtschaftssubjekte so steuert, dass gesellschaftliche Harmonie und Wohlfahrt daraus resultieren. Der von Adam Smith hervorgehobene Glauben an die „unsichtbare Hand“ des Marktes scheint an allen Ecken und Enden hinter neoklassischen Modellen und auch hinter der Quantitätstheorie des Geldes hervor. Die monetäre Neoklassik hat große Probleme, die monetäre Theorie mit der Realsphäre konsistent zu verzahnen. Am deutlichsten wurde dies bei Friedman, der herausarbeitete, dass Geld nur dann keinen Einfluss auf die Realökonomie nimmt, wenn Wirtschaftssubjekte bei der Geldhaltung die Sättigungsmenge halten beziehungsweise die Opportunitätskosten der Geldhaltung Null sind. Es widerspricht jedoch der Logik einer Geldwirtschaft, wenn für das Halten von Geld die gleiche pekuniäre Verwertung erzielt werden kann wie für das Verleihen von Geld. Sobald im Ungleichgewicht gehandelt wird, hängt ein Gleichgewicht vom Anpassungspfad ab. Der Monetarismus I (die Neoquantitätstheorie) hat dafür keine Lösung. Der Monetarismus II (Neuklassik) unterstellt, dass Ökonomien immer im Gleichgewicht sind und von einem Gleichgewicht sofort ins nächste springen. Überzeugen kann eine solche Annahme auf Güter- und Arbeitsmärkten nicht. Probleme bereiten der Quantitätstheorie des Geldes auch die Größen „natürliches“ Produktionsvolumen, „natürliche“ Arbeitslosigkeit etc., die unmittelbar aus dem walrasianischen Modell abgeleitet werden sollen. Sind diese Größen schon bei Friedman nicht fundiert – die natürliche Arbeitslosenquote ist die, die existiert –, so werden sie in der Neuklassik mehr als fragwürdig, da die Wirtschaftssubjekte das „wahre“ natürliche Produktionsvolumen kennen müssen, was noch nicht einmal den führenden Theoretikern des neoklassischen Paradigmas gelingen kann. Es ergibt sich aus unserer Sicht der Dinge als Resultat, dass der monetären neoklassischen Makroökonomie keine in sich konsistente Kopplung mit der Realsphäre gelingt. Das keynesianische Paradigma verwirft die Annahme einer Dichotomie zwischen einer realen Sphäre, die zu Vollbeschäftigung und Pareto-Effizienz führt, und einer monetären Sphäre, die längerfristig keine Auswirkungen auf die Realökonomie hat. Damit gibt es auch keine Neutralität des Geldes. Monetäre Prozesse wirken immer und unmittelbar lang- und kurzfristig auf die Ökonomie ein. Geld ist kein Störfaktor, sondern „money makes the world go round“. Größen wie natürliche Arbeitslosenquote oder natürliches Produktionsvolumen existieren im keynesianischen Paradigma nicht. Die keynesianische Theorie hat es in gewissem Sinne „einfacher“, da sie nicht getrennte Sphären postuliert, die dann verbunden werden müssen. Das neoklassische Postulat einer stabilen Realsphäre vermag aus keynesianischer Sicht ebenfalls nicht zu überzeugen. Dies wird im folgenden Kapitel ausführlich begründet. Aber auch in der walrasianischen Ökonomie, die die realökonomische Grundlage des neoklassischen Paradigmas liefert, kann über dynamische Prozesse nichts Substanzielles gesagt werden. Welchen Gleichgewichtspunkt eine Ökonomie erreicht, wie der Prozess von einem Gleichgewicht hin zu einem anderen sich entwickelt und welcher Endpunkt erreicht wird, ist unbekannt. Grundsätzlich sind kumulative Prozesse und Ungleichgewichte nicht auszuschließen. Das keynesianische Paradigma lehnt die Vorstellung einer quasinatürlichen, stabilen Realsphäre der Ökonomie ab. Bei der Stabilitätshypothese handelt es sich um ein reines Glaubensbekenntnis. Märkte sind nach keynesianischer Überzeugung nicht automatisch stabil. Vielmehr sind insbesondere Vermögensmärkte in spezifischen Situationen durch kumulative Prozesse gekennzeichnet, die nicht zu einem Gleichgewicht führen müssen. Des Weiteren wird bestritten, dass die Ökonomie automatisch zur Vollauslastung der Ressourcen einschließlich des Arbeitskräftepotenzials führt. Die Quantitätstheorie des Geldes ist vom methodischen Ansatz her eine typisch makroökonomische Theorie. Ihr makroökonomischer Charakter kommt deutlich an der verhaltenstheoretischen Setzung einer stabilen Nachfrage nach realer Kasse zum Ausdruck, die – wie gezeigt wurde – alle Varianten der 93
Es ist deshalb auch kein Zufall, dass in der Neoklassik von natürlichem Produktionsvolumen, natürlicher Arbeitslosenquote, natürlichem Zinssatz etc. gesprochen wird.
Neoklassische Makroökonomie
317
Quantitätstheorie prägt. Diese Annahme ist für die monetäre Neoklassik deshalb so wichtig, weil im anderen Fall die Proportionalität zwischen Geldmengen- und Preisniveauveränderungen zerstört wird. Die Verhaltensannahme einer Stabilität der Nachfrage nach realer Kasse ist allerdings sehr spezifisch. Keynes hat bei der Analyse einer Geldwirtschaft eine ganze Reihe von Gründen benannt, die zu einer Instabilität der Geldnachfrage führen können. Beispielsweise würde die Annahme eines spekulativen Auf- oder Abbaus der Geldhaltung die Stabilität der Geldnachfrage zerstören. Auch innerhalb der Friedmanschen Analyse könnte es bei unveränderter Geldmenge dann zu Inflations- und Deflationseffekten kommen. Der gleiche Effekt tritt auf, wenn die Erwartungen der Wirtschaftssubjekte unsicherer werden und sie als Reaktion darauf die Geldhaltung auf- oder abbauen. Hortungs-, Spekulations- und Vorsichtskasse werden – wie wir im vierten Kapitel noch ausführlich zeigen werden – nicht als reale Kassen gehalten. Beispielsweise richtet sich die Vorsichtskasse eines Schuldners, der nicht zahlungsunfähig werden will und mit unsicheren Einkünften rechnen muss, nach dem nominellen Schuldenstand. Aktienspekulanten werden, um ein anderes Beispiel zu nennen, bei ihrer Spekulationskasse die Bewegung der Aktienkurse im Auge halten und entsprechend ihrer Erwartungen die Kasse aufoder abbauen. Mit der Nachfrage nach realer Kasse hat dies nichts zu tun. Aus keynesianischer Sicht ist die Nachfrage nach Geld erstens potenziell instabil und zweitens eine Nachfrage nach nomineller Kasse. Nach unserer Sicht ist auch die Erklärung des Geldangebots in der Quantitätstheorie unbefriedigend, da hier die nominale Geldmenge von der Zentralbank exogen gesetzt wird, die ihrerseits kein Marktteilnehmer ist. Wir werden im Zusammenhang mit dem keynesianischen Modell zeigen, dass die nominelle Geldmenge als endogene Größe begriffen werden muss. Denn die Zentralbank gibt einen Refinanzierungszinssatz exogen vor, während die Geldmenge dann endogen durch die Kalküle der Geschäftsbanken, Unternehmen und Vermögenshaushalte gesteuert wird. Der geldabwerfende Hubschrauber ist eine falsche Vision des Geldentstehungsprozesses und wird ersetzt durch die kreditgewährende Zentralbank. Eng mit der Frage nach der Endogenität oder Exogenität der nominellen Geldmenge ist die Frage nach den Ursachen inflationärer Prozesse verknüpft. Nach neoklassischer Vorstellung reflektieren Inflationen oder Deflationen stets eine zu reichliche oder zu eng bemessene Geldversorgung. Bei Preisniveauveränderungen ist die Zentralbank immer der „böse Bube“. Im Gegensatz dazu wird ein Inflationsprozess im keynesianischen Paradigma nicht über die Geldmenge erklärt. Die Geldmenge passt sich im keynesianischen Paradigma endogen den Stückkosten, der Entwicklung des realen Produktionsvolumens und der potenziell instabilen Umlaufgeschwindigkeit des Geldes an. Schließlich soll ein letzter entscheidender Unterschied zwischen neoklassischer und keynesianischer monetärer Makroökonomie angesprochen werden. Erwartungen wurden in der Neoquantitätstheorie durch die vergangene Entwicklung erklärt (adaptive Erwartungen). In der Neuklassik wiederum waren sie Ausdruck umfassender und „wahrer“ Informationen, die auf der Grundlage eines „wahren“ Modells interpretiert wurden (rationale neoklassische Erwartungen). Die Vorstellung adaptiver Erwartungen ist ohne Zweifel zu mechanisch, beinhaltet fragwürdige Unterstellungen und kann kaum universelle Gültigkeit beanspruchen. Rationale Erwartungen im neuklassischen Gewande sind methodisch in dem Sinne sauber, als dass die Erwartungen nicht willkürlich gewählt wurden. Sie entsprechen nämlich genau dem, was das Modell prognostiziert. Eine solche Unterstellung eliminiert implizit eine eigenständige Rolle von Erwartungen in dem Modell und ist aus keynesianischer Sicht nicht akzeptabel. Geht man jedoch von der Extremannahme der neuklassischen Theorie ab, dann wird jede Erwartungshypothese auf einer allgemeinen theoretischen Ebene willkürlich. Im Keynesianismus wird jeder Versuch als unmöglich aufgegeben, Erwartungen auf allgemeiner Ebene endogen ökonomisch bestimmen zu wollen. Ein bestimmter Zustand der Erwartungen wurde von Keynes vielmehr als exogen gegeben unterstellt (vgl. zu diesem Aspekt auch Kapitel 4). Das mag unbefriedigend erscheinen, jedoch ist ein allgemeingültiges endogenes Erwartungsmodell, das den Erwartungen eine eigene Rolle zubilligt, nicht formulierbar. Erwartungen sind immer subjektiver Natur und schließen sozialökonomische, politische, kulturelle und ideologische Faktoren ein, die sich im historischen Zeitablauf schrittweise bis eruptiv
318
Neoklassische Makroökonomie
ändern können. Dem hat eine ökonomische Theorie, die Plausibilität beanspruchen will, Rechnung zu tragen. Rationale Erwartungen sind zwar eine elegante Methode, Erwartungen aus Modellen als unabhängige Faktoren zu eliminieren, aber damit katapultieren sich Modelle mit rationalen Erwartungen in eine Parallelwelt, die aber zur Erklärung der die existierenden Welt erschreckend wenig beitragen kann.
4. Kapitel: Keynesianische Makroökonomie 4.1 Volkswirtschaftliche Gesamtrechnungen 4.1.1 Die Nationalproduktberechnung Fragestellung Was ist die Funktion der Volkswirtschaftlichen Gesamtrechnungen (VGR)? Wie werden Bruttoinlandsprodukt, Volkseinkommen und andere volkswirtschaftliche Größen definiert? Welche Saldenzusammenhänge existieren in den VGR? Was ist der volkswirtschaftliche Kreislauf? Methodische Grundlagen Das Ziel makroökonomischer theoretischer Anstrengungen besteht letztlich darin, die Funktionsweise von Volkswirtschaften sowie deren Entwicklungsprozesse zu erklären und, sofern dies möglich ist, sie wirtschaftspolitisch auch zu beeinflussen. Um eine Volkswirtschaft analytisch zu erfassen, müssen Kategorien entwickelt werden, die auf volkswirtschaftlicher Ebene angesiedelt sind und die nicht direkt beobachtet werden können. So muss z. B. genau definiert werden, was das volkswirtschaftliche Produktionsvolumen ist, während sich auf mikroökonomischer Ebene die Aussagekraft des Produktionsvolumen, etwa die Anzahl der Stühle, die ein Stuhlproduzent produziert, relativ einfach ergibt. Zur Analyse aggregierter Zusammenhänge bedarf es demnach Kategorien, die die Volkswirtschaft als Ganzes erfassen. Diese Kategorien stehen in einem logischen Zusammenhang. Derartige Zusammenhänge und wechselseitige Abhängigkeiten werden im Rahmen eines volkswirtschaftlichen Kreislaufs analysiert. So stehen Güter- und Geldströme zwischen ökonomischen Sektoren, etwa Unternehmen und Haushalten, im Zentrum der volkswirtschaftlichen Erfassung von Wirtschaftsprozessen. Unternehmen zahlen beispielsweise Einkommen aus, die dann die Grundlage für die Konsumnachfrage der Haushalte bieten. Geld fließt also zunächst den Haushalten über Einkommen zu und fließt dann wieder über Konsumausgaben an die Unternehmen zurück. Solche Zu- und Abflüsse stehen in einem systematischen Zusammenhang. Es ergibt sich folglich eine makroökonomische Saldenmechanik, die zwingend gelten muss. Ein solcher Saldenzusammenhang steht z. B. hinter der Aussage, dass ohne die Berücksichtigung des Staates und des Auslands die volkswirtschaftlichen Nettoinvestitionen den volkswirtschaftlichen Ersparnissen entsprechen. Die VGR sind mit der Buchführung auf Unternehmensebene vergleichbar, die insbesondere von mittelalterlichen Kaufleuten in Venedig entwickelt wurde. Auch bei der Buchführung existiert ein System von Saldenzusammenhängen, die ein logisch konsistentes System ergeben. Volkswirtschaftliche Kategorien sind die Voraussetzung, um die wirtschaftliche Lage eines jeweiligen Landes empirisch messen zu können. Dazu dienen die VGR. Sie geben uns Auskunft darüber, wie sich z. B. das Wirtschaftswachstum, das Nationalprodukt, die aggregierte Nachfrage, das Preisniveau oder die Einkommensverteilung entwickelt haben. Dadurch liefern sie die unabdingbare Voraussetzung für wirtschaftspolitische Entscheidungsfindungen. Das Statistische Bundesamt definiert die Aufgaben der VGR folgendermaßen: „Die Volkswirtschaftlichen Gesamtrechnungen haben die Aufgabe, für einen bestimmten Zeitraum ein möglichst umfassendes, übersichtliches, hinreichend gegliedertes, quantitatives Gesamtbild des wirtschaftlichen Geschehens in einer Volkswirtschaft zu geben.“ (Statistisches Bundesamt 2010, S. 3). Grundlagen für die VGR heute bildet das System of National Accounting von den Vereinten Nationen und für Deutschland das Europäische System Volkswirtschaftlicher Gesamtrechnungen. Beide Systeme werden laufend in Detailbereichen weiterentwickelt.
320
Keynesianische Makroökonomie
Empirische Ergebnisse der VGR werden wir in diesem Lehrbuch nicht wiedergeben, da es uns um die Darstellung der wichtigsten theoretischen Auffassungen über die Strukturen und Entwicklungsmuster einer Volkswirtschaft geht. Allerdings werden wir im Folgenden die zentralen Begriffe der VGR erläutern und Zusammenhänge zwischen ihnen aufzeigen. Weitere Ausführungen zu Teilaspekten der VGR werden wir im Kontext der jeweiligen inhaltlichen Abhandlungen liefern. So wurde die Berechnung des Preisniveaus schon im Rahmen der Behandlung von nominalen und realen Größen im Kapitel 3.4.1 behandelt und außenwirtschaftliche Saldenzusammenhänge werden im Rahmen der Außenwirtschaftstheorie entwickelt. Ohne Zweifel gibt es auch um die analytische und empirische Erfassung der Makroökonomie theoretische Differenzen. So ist z. B. umstritten, was unter staatlichen Investitionen konkret verstanden werden soll und ob die Einkommen von Staatsbediensteten, etwa der Beschäftigten im Verteidigungsministerium oder der Steuerverwaltung zur Wertschöpfung einer Ökonomie beitragen. Klassiker bewerteten Tätigkeiten im staatlichen Sektor als „unproduktiv“; üblicherweise werden diese Arbeiten allerdings in der modernen volkswirtschaftlichen Gesamtrechnung als wertschöpfend eingestuft. Hierauf werden wir an anderer Stelle noch näher eingehen. Da der Keynesianismus vor allem makroökonomisch orientiert ist, kommt den VGR innerhalb dieses Paradigmas eine besondere Bedeutung zu. So ist es kein Zufall, dass die heute verfolgte Systematik zur Erfassung und Anordnung der Daten zu den VGR stark durch den Keynesianismus geprägt worden ist. Dem entspricht, dass die VGR eng mit dem Entstehen der modernen Makroökonomie in den 1920er und 1930er Jahren verbunden sind. Im 19. Jahrhundert gab es noch keine Systematik bei der Erfassung volkswirtschaftlicher Zusammenhänge. Allerdings gab es Vorläufer beim Verständnis makroökonomischer Zusammenhänge. So hat François Quesnay, Arzt der einflussreichen Mätresse des Königs Ludwig XV., Madame de Pompadour, im Jahre 1758 einen wirtschaftlichen Kreislauf, das „Tableau économique“ entwickelt, der zeigt, dass Produktion, Verteilung und Verbrauch systematisch zusammenhängen und sich bedingen. Karl Marx hat rund 100 Jahre später im zweiten Band seines Werkes „Das Kapital“ den Zirkulationsprozess des Kapitals analysiert und mit seinen Reproduktionsschemata schon wesentliche Erkenntnisse der VGR vorweggenommen.94 Kommen wir zurück zu den Saldenbeziehungen im Rahmen der VGR. Sie sind als Identitäten aufzufassen, also als Zusammenhänge, die im Rahmen des Systems der Erfassung volkswirtschaftlicher Prozesse definitionsgemäß immer erfüllt sein müssen. Dies bedeutet, dass empirisch die volkswirtschaftlichen Saldenzusammenhänge immer erfüllt sind. Der Grund für diesen Sachverhalt liegt darin, dass die VGR bei der empirischen Erfassung von Entwicklungen ex-post-Analysen sind und damit nur vergangene ökonomische Prozesse erfassen, ob die erfassten Größen den Wünschen der Haushalte entsprechen oder nicht, können die volkswirtschaftlichen Gesamtgrößen nicht liefern. So zählen beispielsweise Erhöhungen von Lagerbeständen zu den volkswirtschaftlichen Investitionen. Erhöhungen von Lagerbeständen können jedoch unfreiwillig erfolgen, beispielsweise in einer Krise, wenn ein Unternehmen seine Produktion nicht verkaufen kann. Die VGR stellen somit keine ex-ante-Analysen dar, die die Planungen von Wirtschaftssubjekten zu erfassen suchen. Ex-ante Analysen werden im Rahmen volkswirtschaftlicher Modelle entwickelt. So planen Unternehmen beispielsweise, einen bestimmten Lagerbestand zu halten. Wird diese Planung aufgrund einer Krise nicht realisiert, dann befindet sich das Unternehmen aus der Perspektive eines Modells im Ungleichgewicht. Im Rechenwerk der VGR werden sowohl Strom- als auch Bestandsgrößen erfasst. In der Stromgrößenrechnung (Flow-Rechnung) werden ökonomische Aktivitäten berechnet, die während eines definierten Zeitraumes anfallen. Alle Kategorien der Stromgrößenrechung haben somit die Dimension Euro/Zeitperiode. Stromgrößen sind z. B. Umsatzerlöse, Lohnzahlungen oder Produktionsvolumina. Bei der Bestandsgrößenrechnung (Stock-Rechnung) werden Bestände zu einem bestimmten Zeitpunkt
94
Vergleiche die neu herausgegebenen Schriften von Quesnay (1971 und 1976) sowie Marx (1892).
Keynesianische Makroökonomie
321
erfasst. Alle Kategorien der Bestandsgrößenrechung haben somit die Dimension Euro/Zeitpunkt. Bestandsgrößen sind z. B. Geld- und Lagerbestände oder Verbindlichkeiten. Bestandsänderungsgrößen bilden ein Scharnier zwischen Strom- und Bestandsgrößen, indem sie Bestände verändern. So sind z. B. Ersparnisse eine Stromgröße, da nur während einer Periode aus dem laufenden Einkommen gespart werden kann. Gleichzeitig erhöhen Ersparnisse das Vermögen der Sparer und werden somit eine Bestandsänderungsgröße. Ähnlich verhält es sich mit Investitionen. Investiert ein Unternehmen in zusätzliche Maschinen, so kann dies nur während eines Zeitraumes geschehen. Am Ende des Zeitraumes hat sich dann der Maschinenbestand des Unternehmens im Vergleich zur Vorperiode erhöht. Neben spezifischen Stromgrößen können Bestände auch durch bloße Umbewertung verändert werden. Ein entsprechendes Beispiel wäre ein steigender Goldpreis, der zu einer wertmäßigen Zunahme des Goldbestandes eines Haushalts führt. In den folgenden Abschnitten wird die Grundstruktur der VGR – soweit sie für das Verständnis makroökonomischer Modelle notwendig ist – skizziert. Wir konzentrieren uns zunächst auf die Darstellung der Stromgrößen, da mit ihrer Hilfe die Strukturen und die Dynamik einer Volkswirtschaft sowie Bestandsänderungen, die auf Stromgrößen basieren, erfasst werden können. Entstehungs-, Verteilungs- und Verwendungsrechnung Eine wichtige Aufgabe der VGR besteht darin, Produktionsvolumen, Einkommen und die Beziehung zwischen diesen beiden Größen in einer Volkswirtschaft zu berechnen. Erfasst werden grundsätzlich nur Transaktionen, die über Märkte erfolgen. Die VGR unterteilen die Ökonomie in verschiedene ökonomische Sektoren: Unternehmenssektor (Unternehmen, auch die im Staatseigentum, mit dem Ziel der Gewinnerzielung oder zumindest Kostendeckung), Haushaltssektor (alle privaten Haushalte und Organisationen ohne Erwerbscharakter), Staatssektor (Gebietskörperschaften und Sozialversicherungen) und das Ausland. Die verschiedenen Sektoren übernehmen in der Ökonomie unterschiedliche Funktionen. Inländische Produktion und Wertschöpfung finden im Unternehmens- und Staatssektor statt.95 Der inländische Endkonsum wird von den Haushalten übernommen. Dies impliziert, dass Handwerker Müller dem Unternehmenssektor angehört, so lange er z. B. Kabel verlegt, und dem Haushaltssektor, sobald er nach Feierabend seine Wohnung renoviert oder in der Mittagspause einen Espresso trinkt. Eine umfangreiche Produktion findet im staatlichen Sektor statt. Wie aber sollen die Leistungen des Staates ermittelt werden? Bekanntlich verkauft er seine Leistungen – öffentliche Sicherheit, Bildung, Verkehrsinfrastruktur etc. – üblicherweise nicht, sondern stellt sie kostenlos bereit. Die Wertschöpfung des Staates wird aus diesem Grunde, soweit sie nicht verkauft wird, über die Kosten der Erstellung eben dieser Leistungen ermittelt, also über die Addition der vom Staat gezahlten „Löhne“, der vom Staat gekauften Güter etc. Diese Verfahrensweise unterstellt, dass der Output, den Staatsbedienstete erbringen, gerade ihren „Löhnen“ entspricht, eine Annahme, die, würde eine Marktbewertung vorliegen, manchem nicht gerecht wird und andere zu gut bewertet. Das methodische Vorgehen ist sicherlich nicht befriedigend, so dass die Art und Weise der Erfassung staatlicher Aktivitäten letztlich bis heute umstritten ist. 95
Nach der Auffassung des Europäischen Systems der Volkswirtschaftlichen Gesamtrechnungen (ESVG) findet Produktion in begrenztem Umfang auch im Haushaltssektor statt. Kleinunternehmen, deren wirtschaftliche Tätigkeit sehr eng mit der ökonomischen Logik privater Haushalte und nicht mit der privater Unternehmen verbunden ist, wie dies beispielsweise bei selbständigen Freiberuflern häufig der Fall ist, werden dem Haushaltssektor zugerechnet. Zur Abgrenzung vgl. Schabacker (2002), S. 148 ff.
322
Keynesianische Makroökonomie
Im Zentrum der volkswirtschaftlichen Stromrechnungen stehen das Inlandsprodukt und das Nationalprodukt. Das Inlandsprodukt gibt den in einer Periode (in der Regel in einem Jahr) produzierten Output innerhalb eines Wirtschaftsraumes (einer Region, eines Landes, eines Staates, eines Kontinents etc.) an. Das Nationalprodukt erfasst das während einer Periode erzielte Einkommen der Wirtschaftssubjekte innerhalb eines Währungsraumes und führt zur Berechnung des National- oder Volkseinkommens. Beim Inlandskonzept, welches dem Inlandsprodukt zu Grunde liegt, wird die Wertschöpfung errechnet, die innerhalb der Staatsgrenzen des betrachteten Landes entsteht, wobei es gleichgültig ist, ob sie von In- oder Ausländern erbracht wird. Das Inländerkonzept, welches dem Nationalprodukt zu Grunde liegt, ist personenbezogen. In diesem Fall spricht man vom Einkommen aller Inländer innerhalb der Staatsgrenzen in einer spezifischen Zeitperiode. So wird beim Einkommen der Individuen, die in der Bundesrepublik Deutschland leben, vom bundesdeutschen Volkseinkommen gesprochen. Inlandsprodukt und Nationalprodukt sind miteinander verknüpft, jedoch nicht identisch. Das Nationalprodukt und Einkommen können über verschiedene Methoden ermittelt werden, nämlich über die Entstehungs-, Verteilungs- und Verwendungsrechnung. Entstehungsrechnung Wir beginnen mit einer vereinfachten Darstellung der Entstehungsrechnung, wobei zunächst nur vom Inlandskonzept ausgegangen wird.96 Der Grundgedanke der Entstehungsrechnung läuft darauf hinaus, während einer Zeitperiode die Wertschöpfung einer Volkswirtschaft zu erfassen. Wertschöpfung findet im Unternehmenssektor und im Staatssektor statt, während der Haushaltssektor nur konsumiert und das Ausland hier keine Rolle spielt, da nur die Produktion im Inland erfasst werden soll. Wie aber sollen die dort erstellten Leistungen erfasst werden? Da Unternehmen Waren und Dienstleistungen auf dem Markt verkaufen, ergibt sich auch unmittelbar eine marktmäßige Bewertung der Wertschöpfung des Unternehmenssektors. Begonnen wird folglich bei der Summe der Käufe bzw. Verkäufe innerhalb einer Periode (einschließlich der spezifischen Erfassung des Staates).97 Das so erhaltene Aggregat wird als Produktionswert definiert.98 Werden vom Produktionswert Vorleistungen abgezogen, so erhält man das Bruttoinlandsprodukt zu Marktpreisen. Als Vorleistungen sind Güter definiert, die während der betrachteten Periode produziert wurden und gleichzeitig durch ihren Einsatz in der Produktion vollständig untergehen. Typisch für Vorleistungen sind Roh-, Hilfs- und Betriebsstoffe (Werkstoffe) sowie Kosten für produktionsbedingte Dienstleistungen wie Steuerberatung, Informationsübermittlung für Unternehmen oder Mieten für Geschäftsräume. Vorleistungen werden vom Produktionswert abgezogen, um Doppelzählungen zu verhindern. Betrachten wir einen dreistufigen Produktionsprozess in der Form, dass ein Automobilkonzern Reifen, Bleche etc. von Zulieferern bezieht, die Autos an den Handel veräußert und dieser die Autos schließlich an die Endverbraucher weiterverkauft. Im Produktionswert sind die Umsätze der Reifen- und Blechproduzenten, die Umsätze des Autokonzerns und die des Handels enthalten. Folglich würden z. B. die Reifen gleich dreimal erfasst; explizit beim Reifenhersteller und implizit in den Umsätzen des Konzerns sowie des Händlers. Zudem wäre dann der Produktionswert von der Art und Weise der vertikalen Integration der Unternehmen abhängig. Würde in unserem Beispiel der Automobilkonzern von Reifen und Blechen bis zum fertigen Auto alles selbst produzieren und auch noch den Vertrieb übernehmen, wäre der Produktionswert im Vergleich zum ersten Beispiel drastisch geringer, da unternehmensinterne Vorleis96
Differenziertere Darstellungen finden sich z. B. bei Schabacker (2002), Brümmerhoff (2007) oder Haslinger (1992). Eine klare Darstellung findet sich auch online auf der Website des Statisches Bundesamt (2010). 97 Es hat sich eingebürgert zwischen Waren (physischen Produkten) und Dienstleistungen zu differenzieren. Güter umfassen Waren und Dienstleistungen. 98 Geht man weiter ins Detail, dann gibt es beim Produktionswert des Unternehmenssektors kleine Modifikationen. Lagerbestandszunahmen aus eigenen Erzeugnissen und selbsterstellten Anlagen werden zu den Umsatzerlösen des Unternehmenssektors addiert. Sie können als fiktive Umsätze innerhalb der Unternehmen interpretiert werden. Als Bewertungsbasis dienen die Herstellungskosten.
Keynesianische Makroökonomie
323
tungen nicht in den Produktionswert eingehen. Das Bruttoinlandsprodukt zu Marktpreisen hat den Vorteil, dass es von der Art und Weise der vertikalen Integration unabhängig ist. Die Veränderungen des Bruttoinlandsproduktes zu Marktpreisen sind somit ein tauglicher und verbreiteter Indikator, um die Entwicklung des erwerbswirtschaftlichen Aktivitätsniveaus einer Volkswirtschaft anzugeben. Das Bruttoinlandsprodukt zu Marktpreisen besteht stofflich aus allen Konsum- und allen Investitionsgütern, aus den Exportgütern sowie aus jenen Gütern, die der Staat verbraucht. Investitionsgüter sind alle Güter, die ein Unternehmen kauft, abzüglich der Vorleistungen. Konsumgüter sind alle Güter, die private Haushalte kaufen, unabhängig von ihrer Langlebigkeit. Exportgüter werden vom Ausland gekauft. Unternehmen halten Anlagevermögen (Maschinen, Gebäude, etc.), um Produktionsprozesse durchführen zu können. Während jeder Periode wird ein Teil des volkswirtschaftlichen Anlagevermögens verbraucht. Anlagegüter haben mit Vorleistungen gemein, dass sie letztlich in der Produktion verschlissen werden. Sie haben jedoch im Vergleich zu Vorleistungen eine Lebensdauer, die länger ist als die gewählte Periode der Nationalproduktberechnung. Theoretisch könnte die Periode zur Berechnung zwar so ausgedehnt werden, dass alle Anlagegüter zu Vorleistungen werden, allerdings müsste eine solche Periode dann mehrere Jahrzehnte umfassen (man denke z. B. an die Abschreibungsdauer von Gebäuden). Dies würde den analytischen und praktischen Anforderungen an die VGR widersprechen. Durch die periodenüberschreitende Lebensdauer von Anlagegütern fällt bei ihnen ein Wertverlust in mehreren Perioden an. Entsprechend des Wertverzehrs reduziert sich der Wert eines Anlagegutes schrittweise, bis schließlich der Wert von Null erreicht ist. Nehmen wir eine Maschine, die gleichmäßig 10 Jahre im Produktionsprozess eingesetzt wird. Die Maschine verliert jedes Jahr ein Zehntel ihres Wertes, jedoch erst im zehnten Jahr geht sie physisch unter. Bedacht werden sollte, dass das Beispiel sehr vereinfacht ist, da die ökonomische Wertminderung einer Maschine von ihrem physischen Verschleiß abweichen kann. Dies ist z. B. dann der Fall, wenn technologische Innovationen bisherige Anlagen entwerten, indem mit ihnen nicht länger wettbewerbsfähig produziert werden kann. Anlagegüter werden gewöhnlich in Ausrüstungen (Maschinen, Betriebsausstattungen etc.) und Bauten unterteilt. Die wertmäßige periodische Minderung des Anlagevermögens wird als Abschreibung bezeichnet. Die Bruttoinvestitionen umfassen alle Anlagegüter, die Unternehmen kaufen, plus bzw. minus Lagerbestandververänderungen in der Volkswirtschaft. Denn Lagerbestände sind notweniger Teil der volkswirtschaftlichen Produktion und zählen zum Produktivvermögen, das wir als Anlagevermögen plus Lagerbestände definieren. Die Investitionsgüter, die dem Wert der Abschreibungen entsprechen, nennt man Ersatzinvestitionen. Die Nettoinvestitionen ergeben sich, wenn von den Bruttoinvestitionen in einer Periode die Ersatzinvestitionen abgezogen werden. Somit erhöht sich der Bestand des Produktivvermögens nur entsprechend der Höhe der Nettoinvestitionen in einer Periode. Selbstverständlich können Nettoinvestitionen auch negativ sein, dann reduziert sich der Bestand an Produktivvermögen. Werden vom Bruttoinlandsprodukt zu Marktpreisen die Abschreibungen abgezogen, so erhält man das Nettoinlandsprodukt zu Marktpreisen. Es stellt die Neuwertschöpfung des Inlands innerhalb der betrachteten Periode dar. Das Nettoinlandsprodukt zu Marktpreisen wird durch Steuern und Subventionen modifiziert. Steuern sind Zwangsabgaben, die ohne direkte Gegenleistung an den Staat gezahlt werden müssen. Bei den Steuern werden indirekte und direkte unterschieden. Typische indirekte Steuern sind die Mehrwertsteuer oder Verbrauchssteuern wie die Mineralöl- oder Tabaksteuer. Direkte Steuern senken unmittelbar das erzielte Einkommen der Belasteten, werden also nach der Entlohnung der Produktionsfaktoren erhoben. Typische direkte Steuern sind die Einkommenssteuer oder die Kraftfahrzeugsteuer der privaten Haushalte. Es wird davon ausgegangen, dass die indirekten Steuern die Preise erhöhen, während dies bei den direkten Steuern nicht der Fall ist. Es wird somit korrekterweise angenommen, dass die Mehrwertsteuer oder Verbrauchssteuern von den Unternehmen auf die Preise abgewälzt werden und damit die Preise „verzerren“. Zudem fließen indirekte Steuern von den Unternehmen direkt an den Staat und können nicht mehr als Einkommen an die Haushalte ausgeschüttet
324
Keynesianische Makroökonomie
werden.99 Damit spiegeln die indirekten Steuern – im Unterschied zu den direkten – keinen Teil der Entlohnung der Produktionsfaktoren wider und müssen folglich vom Nettoinlandsprodukt zu Marktpreisen abgezogen werden, wenn die Entlohnung der Produktionsfaktoren ermittelt werden soll. Subventionen sind staatliche Zuschüsse an den Unternehmenssektor ohne direkte Gegenleistung. Sie senken tendenziell die Preise. Auf alle Fälle erhöhen sie das Einkommen des Unternehmenssektors. Werden vom Nettoinlandsprodukt zu Marktpreisen nach der gängigen Konvention die indirekten Steuern abgezogen und Subventionen addiert, ergibt sich das Nettoinlandsprodukt zu Faktorkosten. Das Nettoinlandsprodukt steht als Einkommen zur Verfügung, das sich auf die verschiedenen Produktionsfaktoren verteilt. Stofflich stehen hinter dem Nettoinlandsprodukt zu Faktorkosten die gleichen Güter wie hinter dem Nettoinlandsprodukt zu Marktpreisen. Durch indirekte Steuern und Subventionen kommt es ausschließlich zu Preisveränderungen und Veränderungen des Einkommens, das den Produktionsfaktoren zur Verfügung steht. Beispielsweise führt eine Anhebung der Mineralölsteuer zur Erhöhung des Benzinpreises, während bei unverändertem Benzinverbrauch die Faktoreinkommen in der Mineralölindustrie unverändert bleiben. Subventionen erlauben dagegen Preise, die unter den Produktionskosten liegen. Ein Beispiel wäre hierfür die Subventionierung der inländischen Kohleproduktion oder des Wohnungsbaus. In der Tabelle 4.1.1 sind die Berechnungen nach dem Inlandskonzept und dem Inländerkonzept zusammengefasst.
99
Unternehmen zahlen in geringem Umfang auch direkte Steuern. Für die überwältigende Masse des Steueraufkommens kann jedoch unterstellt werden, dass indirekte Steuern von den Unternehmen abgeführt und nicht getragen werden und direkte Steuern von den privaten Haushalten getragen werden. Eine gänzlich andere Frage ist, ob Unternehmen tatsächlich ihre direkten Steuern tragen, da Unternehmen grundsätzlich in der Lage sind, alle ihre Steuern auf die Preise abzuwälzen.
Keynesianische Makroökonomie
325
Die Entstehungsrechnung des Volkseinkommens
Tabelle 4.1.1:
Inlandskonzept Produktionswert
Inländerkonzept Umrechnung zum Inlandskonzept
– Vorleistungen = Bruttoinlandsprodukt zu Marktpreisen
Bruttoinlandsprodukt zu Marktpreisen
– Abschreibungen
+ ausländische Faktoreinkommen von Inländern – inländische Faktoreinkommen von Ausländern = Bruttonationalprodukt zu Marktpreisen
= Nettoinlandsprodukt zu Marktpreisen
Nettonationalprodukt zu Marktpreisen
– indirekte Steuern
+ ausländische Faktoreinkommen von Inländern
+ Subventionen
– inländische Faktoreinkommen von Ausländern
= Nettoinlandsprodukt zu Faktorkosten
Nettoinlandsprodukt zu Faktorkosten + ausländische Faktoreinkommen von Inländern – inländische Faktoreinkommen von Ausländern = Nettonationalprodukt zu Faktorkosten = Volkseinkommen
Wir gingen bei der Entstehungsrechnung bisher vom Inlandskonzept aus, das eine Volkswirtschaft geografisch definiert. Davon zu unterscheiden ist, wie oben bemerkt, das Inländerkonzept. Die unterschiedliche Betrachtungsweise lässt sich mit einigen Beispielen erläutern. Ein deutscher Maschinenschlosser, der auf Montage in Belgien arbeitet und sein Einkommen mit nach Deutschland nimmt, erhöht das Inlandsprodukt Belgiens, während er zum Inlandsprodukt der Bundesrepublik Deutschland nichts beiträgt. Allerdings erhöht sich so das Einkommen der Inländer in Deutschland. Gerade umgekehrt ist es beim polnischen Pendler, der in Berlin seiner Arbeit nachgeht. Ein anderes Beispiel wäre der Kauf eines amerikanischen Wertpapiers durch einen Deutschen. Werden die Zinseinnahmen nach Deutschland transferiert, so erhöhen sich die Einkommen der Inländer in Deutschland. Wird in Deutschland nach dem Inländerkonzept gerechnet, so werden die Leistungen des deutschen Montagearbeiters in Belgien und die ausländischen Zinseinkünfte eines Deutschen zum Nettoinlandsprodukt zu Faktorkosten addiert und die des polnischen Pendlers in Berlin subtrahiert. Folglich wird beim Inländerkonzept das Einkommen aller Inländer berechnet, wobei als Inländer alle Personen und Organisationen gelten, die ihren Hauptsitz im Inland haben. (Es geht somit nicht um die Frage der Staatsangehörigkeit). Gibt es also ausländische Faktoreinkommen von Inländern und inländische Faktorentlohnungen von Ausländern, so müssen diese Faktorströme beim Inländerkonzept berücksichtigt werden, um zum Einkommen eines Landes zu kommen. Werden zum Nettoinlandsprodukt zu Faktorkosten die Faktoreinkommen, die von Inländern vom Ausland ins Inland transferiert werden, addiert und die Faktoreinkommen, die von Ausländern vom Inland ins Ausland transferiert werden, abgezogen, so resultiert das Nettonational- oder Volkseinkommen. Ist der Nettoeinkommensstrom zwischen In- und Ausland positiv, dann ist das Volkseinkommen größer als das Nettoinlandsprodukt zu Faktorkosten. Im umgekehrten Fall ist das Volkseinkommen kleiner als das Nettoinlandsprodukt zu Faktorkosten. Werden die Einkommensströme zwischen dem Inland und dem Ausland bereits beim Bruttoinlands-
326
Keynesianische Makroökonomie
produkt bzw. Nettoinlandsprodukt zu Marktpreisen berücksichtigt, so erhält man das Bruttonationalprodukt bzw. Nettonationalprodukt zu Marktpreisen (vgl. Abbildung 4.1.1). Ohne die Berücksichtigung des Auslandes ist das Nettoinlandsprodukt zu Faktorkosten mit dem Volkseinkommen zwingend identisch. Diese Gleichheit bringt zum Ausdruck, dass die Produktionsseite die Einkommensseite zum Reflex hat. Produktion und Einkommen sind somit zwei Seiten der gleichen Medaille. Im Unternehmens- und im Staatssektor werden produziert und dadurch entsteht Einkommen. Verteilungsrechnung Das Volkseinkommen (Y) teilt sich – ohne Berücksichtigung der Umverteilungseinflüsse durch den Staat – in Profite (Q) und Löhne (W) auf: (4.1.1)
Y=W+Q
Die Lohnsumme drückt den Teil des Einkommens aus, der durch Verausgabung von unselbständiger Arbeit erlangt wurde. Hinter der Profitsumme verbergen sich zahlreiche verschiedene Einkommen aus Unternehmertätigkeit und Vermögen, wie etwa Zinseinkommen, Einkommen aus Pacht und Miete, Dividendenzahlungen, Unternehmergewinne etc. Im unten entwickelten makroökonomischen Modell werden die verschiedenen Einkommen aus Nicht-Arbeit als Profiteinkommen zusammengefasst. Vom Boden als Produktionsfaktor und damit der Grundrente wird abstrahiert. Die Verteilung des Einkommens in Lohn und Profit wird als Primärverteilung bezeichnet. Diese drückt die realisierte Einkommensverteilung ohne staatlichen Einfluss aus. Da sie sich im Kern an den wahrgenommenen Funktionen der Wirtschaftssubjekte im Produktionsprozess orientiert, wird sie auch als funktionale Einkommensverteilung bezeichnet. Wird die Gleichung (4.1.1) durch Y dividiert, so ergibt sich: 1=
W Q + Y Y
W Q als Lohnquote und als Profitquote bezeichnet. Beide Größen sind wichtige IndikaY Y toren der Primärverteilung und häufig Gegenstand von verteilungspolitischen Auseinandersetzungen. Lohnquote und Profitquote addieren sich zwingend zu eins.
Dabei wird
Der Staat greift durch Steuern und Transferzahlungen in die Verteilung ein. Transferzahlungen sind monetäre Zuwendungen des Staates an private Haushalte ohne direkte Gegenleistung wie z. B. Kindergeld oder Wohngeld. Da zum Staatssektor auch die gesetzlichen Sozialversicherungen zählen, können unter die Transferzahlungen des Weiteren Arbeitslosengeld, Krankengeld und Rente und unter die direkten Steuern die gesetzlichen Sozialversicherungsbeiträge subsumiert werden. Zieht man vom Volkseinkommen die direkten Steuern ab und addiert die Transferzahlungen dazu, erhält man das disponible Einkommen der Haushalte. Schließlich ist die personelle Einkommensverteilung von der funktionalen zu trennen. Bei der funktionalen Verteilung spielt die ökonomische Funktion des Einkommensempfängers bei der Wertschöpfung – nämlich lohnabhängig zu sein oder nicht – die entscheidende Rolle. Private Haushalte erzielen jedoch in aller Regel verschiedene funktionale Einkommen wie, neben dem Lohn, etwa Zinsen auf das Sparguthaben oder Dividenden auf Aktien. Werden die privaten Haushalte in verschiedene Einkommensgruppen unabhängig von der Quelle des Einkommens unterteilt, gelangt man zur personellen Einkommensverteilung. Auch die personelle Verteilung kann vor und nach der staatlichen Umverteilung untersucht werden.
Keynesianische Makroökonomie
327
Verwendungsrechnung Güter können verschiedenen Verwendungen zugeführt werden. Dabei ist ihnen nicht zwingend anzusehen, welcher Verwendung sie dienen. Beispielsweise kann ein Auto sowohl als Konsum- als auch als Investitionsgut eingesetzt werden, je nachdem, ob es für die Urlaubsreise oder für die professionelle Auslieferung von Arzneimitteln genutzt wird. Kauft ein privater Haushalt ein Gut, dann ist es ein Konsumgut; wird es von einem Unternehmen gekauft (und ist es kein Vorleistungsgut), gilt es als Investitionsgut. Sofern es vom Ausland erworben wird, ist es ein Exportgut. Als letzte Gütergruppe verbleiben Güter, die an den Staat verkauft werden. Ohne Staat und Ausland entspricht, wie sich aus der obigen Analyse ergibt, das Nettoinlandsprodukt (NIP) dem Volkseinkommen (Y). Das Nettoinlandsprodukt besteht unter diesen vereinfachenden Bedingungen nur aus Konsumgütern (C) und Nettoinvestitionen (I). Y=C+I Im einfachsten Fall, also ohne Berücksichtigung von Staat und Ausland, kann das Volkseinkommen der Haushalte für den Kauf von Konsumgütern (C) eingesetzt oder gespart werden. Es ist darauf zu achten, dass unter Ersparnissen hier ausschließlich laufende Ersparnisse aus dem Einkommen verstanden werden und nicht angespartes Vermögen aus vergangenen Perioden. Mit S als volkswirtschaftliche Ersparnisse ergibt sich: Y=C+S Aus den beiden letzten Gleichungen ergibt sich zwingend I = S. Wird vom Staat und vom Ausland abgesehen und damit nur vom Unternehmens- und Haushaltssektor ausgegangen, stellt sich der Zusammenhang zwischen Entstehungs-, Verteilungs- und Verwendungsrechnung folgendermaßen dar: Volkseinkommen Y=
Entstehung NIP
Verteilung =
W+Q
Verwendung =
C+I=C+S zudem gilt S = I
Ohne Staat und Ausland entspricht das Nettoinlandsprodukt dem Volkseinkommen, das sich in Löhne und Profite sowie in Konsum- und Nettoinvestitionsgüter aufteilt. Das Nettoinlandsprodukt entspricht der Neuwertschöpfung der betrachteten Periode und ohne Einkommensströme zwischen dem In- und dem Ausland dem Volkseinkommen. Dies sind die Identitäten, die in einführenden volkswirtschaftlichen Modellen zunächst benutzt werden. Selbstverständlich müssen, wie schon betont, die von den Unternehmen geplanten Investitionen nicht den geplanten Ersparnissen der Haushalte entsprechen. Denkbar wäre zum Beispiel, dass bei einem Volkseinkommen von 100 Geldeinheiten die Unternehmen bei geplanten Ersparnissen der Haushalte in Höhe von 20 nur für 10 Geldeinheiten investieren möchten. In diesem Fall würden sich die gesamten Verkäufe der Unternehmen auf 90 (80 für Konsum- und 10 für Investitionsgüter) addieren. Da aber im Gegenwert von 100 Geldeinheiten produziert wurde, würden sich die Lager um den Gegenwert von 10 Geldeinheiten füllen. Dieser unfreiwillige Aufbau von Lagerbeständen wird von den VGR als Lagerinvestition erfasst, so dass sich die Gesamtinvestitionen auf 20 Einheiten belaufen; 10 geplante und 10 unfreiwillige. Gleichwohl ist die Gleichheit von Investitionen und Ersparnissen ex post gewahrt. Es wäre auch denkbar, dass die Unternehmen im Gegenwert von 30 Geldeinheiten investieren möchten, so dass die geplanten Investitionen größer sind als die Ersparnisse der Haushalte. In diesem Fall könnte der Anpassungsprozess so laufen, dass die Unternehmen ihre Preise erhöhen. Unterstellen wir unveränderte Löhne, dann steigen die Profite um 10 Geldeinheiten. Unterstellen wir weiter, dass die Profite im Unternehmen verbleiben. In diesem Fall gelten sie als volkswirtschaftliche Ersparnisse. Die
328
Keynesianische Makroökonomie
Anpassung erfolgt in diesem Fall also durch eine Erhöhung der Ersparnisse auf 30 Geldeinheiten und die Erhöhung des Nettoinlandsproduktes auf 110 Geldeinheiten. Erneut ist die Gleichheit von Investitionen und Ersparnissen ex post gewahrt. Die volkswirtschaftlichen Zusammenhänge können weiter ausdifferenziert werden. Der Staat greift in die Primärverteilung zwischen Löhnen und Profiten durch Transferzahlungen (Tr) , Subventionen (Sub) und Steuern ein. Die Steuern unterteilen sich in indirekte (Ti) und in direkte (Td) . Tdw bzw. Tdq sind die direkten Steuern, die Lohnempfänger bzw. Profitempfänger bezahlen. Das Arbeitseinkommen nach staatlicher Umverteilung (WN) ergibt sich nun durch: (4.1.2)
WN = W + Tr − Tdw
Für Profiteinkommen nach staatlicher Umverteilung (QN) gilt entsprechend: (4.1.3)
Q N = Q + Sub − Ti − Tdq
Das Verhältnis zwischen WN und QN kann als Sekundärverteilung interpretiert werden, da die staatliche Umverteilung berücksichtigt wird. Im Nettoinlandsprodukt zu Marktpreisen (NIPM) sind nicht alle im Inland produzierten Güter enthalten, da Vorleistungen und Ersatzinvestitionen vom Produktionswert abgezogen werden. Enthalten sind im NIPM die jeweils im Inland produzierten Konsumgüter (CI) , Nettoinvestitionsgüter (II) , vom Staat gekauften Güter (GI) 100 sowie die Exportgüter (Ex). Damit gilt: (4.1.4)
NIPM = CI + II + GI + Ex
Zum Nettoinlandsprodukt zu Faktorkosten (NIPF) gelangt man, wenn das NIPM um Subventionen (Sub) erhöht und um indirekte Steuern (Ti) reduziert wird. Somit ergibt sich: (4.1.5)
NIPF = CI + II + GI + Ex + Sub - Ti
Importe (Im) sind im Ausland gekaufte Güter. Sie teilen sich auf in: (4.1.6)
Im = CA + IA + GA
CA steht für importierte Konsumgüter, IA für importierte Investitionsgüter und GA für vom Staat erworbene importierte Güter. Aufgrund der Gleichung (4.1.6) können wir in Gleichung (4.1.5) auf der rechten Seite CA + IA + GA addieren, wenn wir gleichzeitig Im abziehen. Es ergibt sich:
(4.1.7)
NIPF = CI + II + GI + Ex + Sub - Ti + CA + IA + GA - Im
Wird zudem berücksichtigt, dass die von den Haushalten verbrauchten Konsumgüter (C) sich aus C = CI + CA , die von Unternehmen investierten Nettoinvestitionsgüter (I) sich aus I = II + IA und die vom Staat gekauften Güter (G) sich aus G = GI + GA ergeben, folgt: (4.1.8)
NIPF = C + I + G + Ex - Im + Sub - Ti
Aus der Entstehungsrechnung ist bekannt, dass sich das Volkseinkommen (Y) beziehungsweise das Nettonationalprodukt durch die Addition des Einkommenssaldos zwischen In- und Ausland zum Nettoinlandsprodukt zu Faktorkosten ergibt. Mit YA als vom Ausland ins Inland transferierte Faktoreinkommen von Inländern minus vom Inland ins Ausland transferierte Faktoreinkommen von Ausländern gilt: (4.1.9)
100
Y = NIPF + YA ,
Grundsätzlich soll G alle staatlichen Käufe umfassen, also auch die Käufe von Faktorleistungen, für die Lohn- und Zinszahlungen anfallen.
Keynesianische Makroökonomie
329
Wird Gleichung (4.1.8) in Gleichung (4.1.9) eingesetzt, so ergibt sich als Definition des Volkseinkommens: (4.1.10)
Y = C + I + G + Ex - Im + Sub - Ti + YA
Das Volkseinkommen kann somit im Inland für Konsumgüter, Nettoinvestitionsgüter und Güter, die der Staat kauft, verwendet werden. Exporte geben die Güter an, die ins Ausland fließen. Steigen z. B. die Exporte, dann bleibt für die inländischen Sektoren ceteris paribus eine geringere Gütermenge, die verwendet werden kann. Steigen dagegen die Importe, dann können ceteris paribus im Inland private Haushalte und/oder Unternehmen und/oder der Staat mehr Güter verwenden. Subventionen, indirekte Steuern und der Einkommenssaldo zwischen dem In- und Ausland stellen Geldströme dar, die keine Güter repräsentieren. Wird die Entstehungs-, Verteilungs- und Verwendungsrechnung im Zusammenhang dargestellt, dann gilt: Entstehung Y = NIPF + YA
Verteilung =
W+Q
Verwendung =
C + I + G + Ex - Im + Sub - Ti + YA
Bei den Ersparnissen stellt sich der Fall nun ebenfalls komplizierter dar. Ersparnisse der Haushalte ( SH ) stellen einen Einnahmeüberschuss des Haushalte dar, denen typischerweise mehr Einkommen zufließt als sie konsumieren. Würde der Konsum der Haushalte über den Ersparnissen liegen, wären die Ersparnisse negativ. Auch die öffentlichen Haushalte können sparen. In diesem Fall sind die Einnahmen der öffentlichen Haushalte größer als die Ausgaben. In diesem Fall spricht man von einem Budgetüberschuss (BÜ). Typischer ist allerdings ein Budgetdefizit (BD), also ein Ausgabenüberhang der öffentlichen Haushalte. Das Ausland kann ebenfalls für das Inland sparen. In diesem Fall spricht man von einem Leistungsbilanzdefizit (LBD) des Inlandes, also ein Ausgabenüberschuss des Inlandes gegenüber dem Ausland. Ein Leistungsbilanzüberschuss (LBÜ) liegt vor, wenn das Inland einen Einnahmenüberschuss hat und damit für das Ausland spart. Schließlich sind unverteilte Profite der Unternehmen als Ersparnisse der Unternehmen ( SU ) zu interpretieren, denn unverteilte Profite werden nicht konsumiert. Aus der volkswirtschaftlichen Saldenmechanik folgt, dass die Summe der Haushaltsersparnisse, der Unternehmensersparnisse, des Budgetsaldos und des Leistungsbilanzsaldos sich auf null addieren müssen. Als Konstellation ergibt sich nun beispielsweise: SH + SU + BÜ +LBD = I
In diesem Fall gehen alle inländischen und ausländischen Ersparnisse in die Nettoinvestitionen. Typisch ist dieser Fall nicht. Ein weiterer Fall könnte folgendermaßen aussehen:
SH + SU = I +BD +LBÜ In diesem Fall entsprechen die Ersparnisse der Haushalte und der Unternehmen den Nettoinvestitionen, dem Budgetdefizit und dem Leistungsbilanzüberschuss. Theoretisch können alle Saldenkonstellationen auftreten, welche die Summe der angegebenen Größen auf null addiert. Bestände und Bestandsänderungsgrößen Wir haben uns bisher nur um Stromgrößen in den VGR gekümmert. Folgend soll auf Bestandsgrößen eingegangen werden. Bei einem sehr weiten Vermögensbegriff können alle Vermögensobjekte einschließlich nichtreproduzierbarer Vermögensarten wie Boden oder Kunstwerke berücksichtigt werden. Selbst der Produktionsfaktor Arbeit wird zuweilen als Humankapital interpretiert. Zu den Bestandsgrößen zählt selbstverständlich auch die Verschuldung von ökonomischen Einheiten und Sektoren. Sofern bei einem Wirtschaftssubjekt bzw. in einem Sektor der Volkswirtschaft laufend höhere Einnahmen als Ausgaben realisiert werden, entstehen Netto- bzw. Reinvermögen bzw. spiegelbildlich Verschuldungspositionen. Vermögensbestände können sich auch durch reine Umbewertungen verändern, beispiels-
330
Keynesianische Makroökonomie
weise wenn Aktienpreise fallen oder Immobilienpreise sich erhöhen. Wir wollen in diesem Unterabschnitt ausschließlich näher auf das volkswirtschaftliche Produktivvermögen und dessen Veränderung durch Bestandsänderungsgrößen eingehen. Dabei interessieren uns insbesondere die volkswirtschaftlichen Investitionen und Ersparnisse. Das volkswirtschaftliche Produktivvermögen umfasst, wie bei der Entstehungsrechnung des Nationalproduktes schon vermerkt, das Anlagevermögen und die Lagerbestände. Das Anlagevermögen besteht aus dauerhaften, reproduzierbaren Produktionsmitteln, die über mehrere Perioden eingesetzt werden und schrittweise ihren Wert verlieren. Von Vermögenswerten wie Boden, die nicht reproduzierbar sind, sehen wir ab. Die Lagerbestände bestehen aus Vor-, Zwischen- und Endprodukten. Da private Haushalte in dieser Rechnung nicht produzieren, gehören weder lang- noch kurzlebige Güter der Haushalte zum Produktivvermögen. Die Bruttoinvestitionen (IB) bestehen aus Bruttoanlageinvestitionen (IBA) und Lagerbestandsveränderungen (IL) . Damit ergibt sich: IB = IBA + IL .
Werden von den Bruttoanlageinvestitionen die Ersatzinvestitionen (IE) abgezogen, die den periodischen Verschleiß des Anlagevermögens kompensieren, erhält man die Nettoanlageinvestitionen (INA) . INA = IBA - IE
Schließlich ergeben sich die Nettoinvestitionen als Summe aus Nettoanlageinvestitionen und Lagerbestandsveränderungen. I = INA + IL .
Sind die Nettoinvestitionen Null bzw. entsprechen die Bruttoinvestitionen genau den Ersatzinvestitionen, dann bleibt der Bestand an Produktivkapital unverändert. Eine Gesellschaft kann bei unveränderter Produktivität und der Erfüllung dieser Bedingung das erreichte Niveau des Konsums für unendliche Zeit aufrechterhalten. Das Konsumniveau pro Kopf sinkt allerdings nur dann nicht, wenn die Bevölkerung nicht wächst. Steigt die Produktivität durch technischen Fortschritt, ist auch bei Nettoinvestitionen von Null und unveränderter Bevölkerung ein Wachstum des Pro-Kopf-Konsums möglich. Erschöpfung natürlicher Ressourcen etc. machen sich statistisch als Senkung der Produktivität bemerkbar, so dass bei Nettoinvestitionen von Null auch bei konstanter Bevölkerung ein sinkender Pro-Kopf-Verbrauch denkbar ist. Bei Nettoinvestitionen von Null bzw. der Gleichheit von Brutto- und Ersatzinvestitionen handelt es sich um einen so genannten stationären Zustand oder um einfache Reproduktion.
Abbildung 4.1.1: Die Vermögenspositionen von Unternehmen und Haushalten Unternehmenssektor - Produktivvermögen
- Eigenkapital
- Eigenkapitaltitel
- Fremdkapital
- Forderungen
Δ Produktivvermögen Δ Eigenkapital =I
Privater Haushaltsbereich
Δ Fremdkapital
- Reinvermögen
Δ Eigenkapitaltitel
Δ Reinvermögen
+ Δ Forderungen
=S
Nehmen Investitionen und Ersparnisse positive Werte an, verändern sich Vermögensbestände da diese beiden Größen die zentralen Bestandsänderungsgrößen einer Ökonomie darstellen. In der Abbildung
Keynesianische Makroökonomie
331
4.1.2 wird der Zusammenhang zwischen Ersparnissen und Investitionen und Beständen dargestellt, wobei wir zur Vereinfachung vom Ausland und vom Staatssektor absehen. Das Produktivvermögen der Unternehmen wird durch Eigenkapital und Fremdkapital finanziert. Der Passivseite der Bilanz des Unternehmenssektors steht die Aktivseite der Bilanz des Haushaltssektors gegenüber, der das Eigenkapital und Forderungen gegenüber dem Unternehmenssektor hält. Auf der Passivsseite des Haushaltssektors steht das Reinvermögen. Jede Erhöhung des Produktivkapitals (Veränderungen werden durch das griechische Delta Δ ausgedrückt) durch Nettoinvestitionen führt zur Zunahme des Eigenkapitals und/oder Fremdkapitals, wobei die Zunahme der Finanzierungsseite des Produktivvermögens selbstverständlich der Zunahme des Produktivvermögens entsprechen muss. Das Reinvermögen der Haushalte erhöht sich entsprechend der volkswirtschaftlichen Ersparnisse, die den gleichen Wert wie die Nettoinvestitionen annehmen. Auf der Aktivseite der Bilanz der Haushalte erhöhen sich der Bestand an Eigenkapitaltiteln und/oder der Bestand an Forderungen. Der Produktivkapitalbestand des Unternehmenssektors und das Vermögen der Haushalte verändern sich somit simultan. Das Preisniveau und nominale und reale Größen Im Kapitel 3.4.1 wurde ausgeführt, dass die Entwicklung des Preisniveaus durch einen Preisindex gemessen wird. Der Preisindex drückt die Preisentwicklung eines Warenkorbes aus. Die Zusammenstellung des Warenkorbes stellt dabei die Gewichtung dar, so dass die Entwicklung des Preisniveaus die gewichtete Entwicklung der Preise im Warenkorb ausdrückt. Für viele Fragestellungen, die verschiedene Perioden vergleichen, ist es sinnvoll, bei Veränderungen von volkswirtschaftlichen Aggregaten zwischen nominalen und realen Veränderungen zu unterscheiden. Die nominalen Veränderungen drücken dabei die Veränderung der Preise und die realen Größen die Veränderung der Mengen aus. Der Zusammenhang zwischen dem nominalen und realen Bruttoinlandsprodukt ergibt sich beispielsweise durch BIPr = BIP/P bzw. BIPr·P = BIP mit P als Preisindex und BIPr als realem und BIP als nominalem Bruttoinlandsprodukt. Ist im Vergleich zum Vorjahr das BIP von 2000 Mrd. € auf 2200 Mrd. € gestiegen und stieg der Preisindex des Warenkorbes des BIPs von 1 auf 1,1, dann ist das reale BIP im betrachteten Jahr nicht gestiegen da BIPr = 2200/1,1= 2000 € ergibt. Die Wachstumsrate des realen BIPs war also null Prozent. Nach der gleichen Methode können das reale Volkseinkommen, die reale Konsumnachfrage oder die Reallöhne ausgerechnet werden (vgl. zu den Details Kapitel 3.4.1). Kernpunkte Die VGR haben die Aufgabe, für einen bestimmten Zeitraum ein möglichst umfassendes quantitatives Gesamtbild des wirtschaftlichen Geschehens in einer Volkswirtschaft zu geben. Die VGR stellen ein System mit definitorischen Zusammenhängern dar, ähnlich der Buchführung auf Unternehmensebene. Dabei wird zwischen Strom-, Bestands-, und Bestandsänderungsgrößen unterschieden. Berechnungen können für eine geographisches Gebiet (Inlandskonzept) oder die Personen in einem geographischen Gebiet (Inländerkonzept) durchgeführt werden. Das Bruttoinlandsprodukt drückt den Wert aller produzierten Güter eines geographischen Gebietes innerhalb eines Zeitraumes abzüglich der verbrauchten Vorleistungen aus. Beim Nettoinlandsprodukt werden die Abschreibungen vom Bruttoinlandsprodukt abgezogen. Das Volkseinkommen kann über die Entstehungs-, Verteilungs- und Verwendungsrechnung erfasst werden. Es folgt dem Inländerkonzept und misst das Einkommen aller Personen innerhalb eines geographischen Gebietes. Beim Volkseinkommen werden neben der inländischen Wertschöpfung Einkommensströme, beispielsweise in der Form von Zinszahlungen oder Lohnzahlungen, zwischen In- und Ausland berücksichtigt. Ohne öffentliche Haushalte und Ausland und bei Existenz nur des Unternehmens- und Haushaltssektors gilt definitionsgemäß: Nettoinlandsprodukt = Volkseinkommen = Nettoinvestitionen + Kon-
332
Keynesianische Makroökonomie
sum der Haushalte = Ersparnisse + Konsum der Haushalte. Damit gilt auch Ersparnisse = Nettoinvestitionen. 4.1.2 Der volkswirtschaftliche Kreislauf Fragestellung Was ist ein volkswirtschaftlicher Kreislauf? Wie stellen sich beim Kreislauf die Saldenzusammenhänge bei Strom- und Bestandsänderungsgrößen dar? Ein Kernpunkt der VGR besteht in der Darstellung des Zusammenhangs zwischen Produktion, Einkommen und Verbrauch in einer Volkswirtschaft. Zur Verdeutlichung eignet sich der volkswirtschaftlicher Kreislauf, bei dem Ströme zwischen den verschiedenen volkswirtschaftlichen Sektoren (oder Polen) dargestellt werden. Da alle Sektoren Zu- und Abflüsse realisieren, ergibt sich in der Tat ein Kreislauf.
Abbildung 4.1.2: Volkswirtschaftlicher Kreislauf mit Haushalten und Unternehmen ohne Einahmen-Ausgaben-Ungleichgewichte von Sektoren
Der denkbar einfachste volkswirtschaftliche Kreislauf ist in Abbildung 4.1.3 angegeben. Gibt es nur den Unternehmens- und den Haushaltssektor und wird zudem unterstellt, dass die Haushalte ihr gesamtes Einkommen – Löhne und Profite – für Konsumgüter ausgeben, so ergeben sich folgende Geldströme: Vom Unternehmenssektor fließen Einkommen zum Haushaltssektor in Höhe von 10 Geldeinheiten. Die Haushalte verwenden das gesamte Einkommen für den Kauf von Konsumgütern; die Umsatzerlöse der Unternehmen entsprechen somit ebenfalls 10 Geldeinheiten. Den eingezeichneten monetären Geldströmen entsprechen reale Ströme, die in umgekehrter Richtung fließen. Die Einkommen entstehen durch die Produktion, wobei die Arbeitsleistungen durch Löhne und das Kapital durch Profite entlohnt werden. Für die Konsumausgaben erhalten Haushalte Konsumgüter. Im skizzierten Beispiel handelt es sich um einen Kreislauf ohne Einnahmen-AusgabenUngleichgewichte einzelner Sektoren, da bei jedem Sektor die Abflüsse den Zuflüssen entsprechen, ohne, dass es zu Bestandsänderungen bzw. Vermögensänderungen kommt: die Einkommenszahlungen des Unternehmenssektors entsprechen den Umsatzerlösen, die Einkommenszuflüsse der Haushalte den Konsumausgaben. Nettovermögenspositionen zwischen den Sektoren, etwa Kreditbeziehungen, entstehen also nicht. Kreislaufschemata werden naturgemäß komplizierter, wenn weitere volkswirtschaftliche Sektoren und Transaktionsarten berücksichtigt werden. Im zweiten Kreislaufbeispiel wird in Abbildung 4.1.3 der Staat als zusätzlicher Sektor berücksichtigt. In diesem Fall gilt nicht länger, dass hinter jedem monetären Strom ein realer steht. So stellen Steuerzahlungen (einschließlich Sozialversicherungsabgaben), Subventionen und staatliche Transfers monetäre Ströme dar, denen kein direkter realer Strom gegenübersteht.
Keynesianische Makroökonomie
333
Abbildung 4.1.3: Volkswirtschaftlicher Kreislauf mit Haushalten, Unternehmen und Staat ohne Einnahmen-Ausgaben-Ungleichgewichte von Sektoren
Die Situation stellt sich nun folgendermaßen dar: Der Unternehmenssektor realisiert als Zuflüsse die Konsumausgaben der Haushalte (9 Geldeinheiten), die Staatsnachfrage (1 Geldeinheit) und Subventionen (1 Geldeinheit). Diesen Zuflüssen von 11 Geldeinheiten stehen Abflüsse in gleicher Höhe gegenüber, nämlich für Löhne und Profite von 8 und für Steuerzahlungen von 3 Geldeinheiten. Der Haushaltssektor bucht als Zuflüsse Löhne und Profite von den Unternehmen und vom Staat (11 Geldeinheiten) und Transfers (1 Geldeinheit). Dabei wird unterstellt, dass der Staatssektor nur Löhne bezahlt. Bei einer Verschuldung des Staates fließen natürlich noch Zinsen vom Staat an die Haushalte. Diesen Zuflüssen von 12 Geldeinheiten stehen als Abflüsse Konsumausgaben von 9 und Steuern von 3 Geldeinheiten gegenüber. Der Staatssektor erhält Steuereinnahmen von 6 Geldeinheiten. Diesen stehen Güterkäufe (1 Geldeinheit), Lohnzahlungen (3 Geldeinheiten), Transfers (1 Geldeinheit) und Subventionen (1 Geldeinheit) gegenüber. Damit decken sich die Zuflüsse und Abflüsse in allen Sektoren, ohne dass Bestandsänderungen ausgelöst werden. Wir könnten nun noch das Ausland als weiteren Sektor einfügen oder den Unternehmenssektor in verschiedenen Untersektoren aufgliedern. Da die Grundlogik der Darstellung erhalten bliebe, sehen wir jedoch davon ab. Dargestellt werden soll folgend ein Kreislauf, bei dem Einnahmen-Ausgaben-Ungleichgewichte von Sektoren existieren (vgl. Abbildung 4.1.4). In diesem Fall schließt der Kreislauf Bestandsänderungsgrößen ein, welche die Vermögenspositionen von Sektoren verändern.
334
Keynesianische Makroökonomie
Abbildung 4.1.4: Volkswirtschaftlicherr Kreislauf mit Haushalten, Unternehmen und EinnahmenAusgaben-Ungleichgewichten
Im Vergleich zur Abbildung 4.1.3 sparen nun die Haushalte und realisieren einen Einnahmeüberschuss von 2 Geldeinheiten. Die Unternehmen können nicht ihre gesamte Produktion von 10 Geldeinheiten an die Haushalte verkaufen, da die Konsumausgaben nur 8 Geldeinheiten betragen. Sie realisieren einen Ausgabenüberschuss von 2 Geldeinheiten, den sie nicht über Umsätze verdienen. Der Kreislauf wird dadurch geschlossen, dass entsprechend der Saldenlogik der VGR die Ersparnisse zwingend den Nettoinvestitionen entsprechen, die 2 Geldeinheiten betragen und den Unternehmen erlauben, ihre gesamte Produktion zu verkaufen. Der Pol „Bestandsänderungen“ in der Abbildung ist nicht mit einer Bank zu verwechseln. Es ist nicht so, dass die Haushalte entsprechend der Ersparnisse Bankeinlagen einlegen, die dann in Form von Krediten an die Unternehmen weitergereicht werden. Die ökonomische Kausalbeziehung zwischen Sparen und Nettoinvestitionen ist theoretisch höchst umstritten und es muss an dieser Stelle offen bleiben, ob die Ersparnisse die Investitionen bestimmen oder umgekehrt. Verdeutlicht werden kann hier nur, dass es eine zwingende Saldenbeziehung zwischen Ersparnissen und Nettoinvestitionen gibt. Bei einer Differenz zwischen Zu- und Abflüssen eines Sektors ergeben sich zwingend Veränderungen der Vermögenspositionen. Sind die Abflüsse größer als die Zuflüsse, so bedeutet dies eine Verschlechterung der Nettovermögensposition (Vermögensbestände minus Schulden), in unserem Fall des Unternehmenssektors. Spiegelbildlich erhöht im Beispiel der Haushaltssektor seine Nettovermögensposition durch Ersparnisse. Ein Sektor mit permanenten Ausgabenüberschüssen wird letztlich eine negative Nettovermögensposition einnehmen, während ein Sektor mit anhaltenden Einnahmeüberschüssen eine positive Nettovermögensposition aufbaut. Der private Haushaltssektor hat faktisch immer eine positive Nettovermögensposition und der Unternehmenssektor eine negative Nettovermögensposition. Bei der Berücksichtigung der öffentlichen Haushalte und des Auslandes können auch diese Sektoren Differenzen zwischen Zu- und Abflüssen realisieren und positive oder negative Nettovermögenspositionen aufbauen. Öffentliche Haushalte haben typischerweise eine negative Nettovermögensposition, was sich im Aufbau einer Staatsverschuldung ausdrückt. Beim Ausland ist die Nettovermögensposition völlig offen. Ein Teil der Länder der Welt hat eine negative, ein anderer Teil eine positive Nettovermögensposition.
Keynesianische Makroökonomie
335
Kernpunkte Beim volkswirtschaftlichen Kreislauf werden die Geldströme in einem Wirtschaftsraum während eines Zeitraumes zwischen den verschiedenen volkswirtschaftlichen Sektoren dargestellt. In der Regel werden als Sektoren Unternehmen, private Haushalte, öffentliche Haushalte und das Ausland erfasst. Den Geldströmen können Leistungsströme entgegenstehen (beispielsweise beim Kauf von Konsumgütern oder der Entlohnung von Arbeit) oder nicht (beispielsweise bei Steuerzahlungen oder Transferzahlungen). Volkswirtschaftliche Sektoren haben in der Regel Einnahmen-Ausgaben-Ungleichgewichte, die durch Bestandsänderungsgrößen „geschlossen“ werden und die die Nettovermögenspositionen der Sektoren verändern. Private Haushalte sparen beispielsweise und bauen eine positive Nettovermögensposition auf, Unternehmen investieren und bauen dadurch eine negative Nettovermögensposition auf. 4.1.3 Nationalprodukt und Wohlfahrt Fragestellung Drücken die Kategorien der VGR die Wohlstandsentwicklung eines Landes aus? Wie kann man die Mängel der traditionellen VGR beseitigen? Die VGR erfassen traditionell ausschließlich die über Märkte vermittelten Transaktionen einschließlich der staatlichen Produktion über die Kostenseite. Die Frage ist, ob die so ermittelte Einkommenshöhe (oder das Produktionsvolumen) ein guter Maßstab für die Wohlfahrt einer Gesellschaft ist. Natürlich können bei dieser Frage nicht einfach die absoluten Einkommen der verschiedenen Länder verglichen werden, sondern es muss ein Vergleich der Entwicklung der Einkommen pro Kopf durchgeführt werden. Ist also das Einkommen pro Kopf ein guter Maßstab für die Wohlfahrt der Menschen in einem Land? Bevor dieser Punkt weiter diskutiert wird, soll nochmals darauf hingewiesen werden, wie schwierig es ist, Wohlfahrt zu messen. Im Kapitel 2.9.2 wurde mit der Pareto-Optimalität von Produktion und Konsum im Rahmen des neoklassischen Modells darauf hingewiesen, dass ein Vergleich von Nutzen von Individuen nicht möglich ist und es deshalb keine messbare gesellschaftliche Wohlfahrtsfunktion geben kann. Amartya Sen (1999) hat eindringlich darauf hingewiesen, dass die Erhöhung des Pro-KopfEinkommens und Entwicklung nicht schlicht gleichgesetzt werden können. Entwicklung (auch in entwickelten Ländern) geht weit über Veränderungen des Pro-Kopf-Einkommens hinaus. Nehmen wir stark vereinfacht die Lebenserwartung bei Geburt als einen Indikator für Wohlstand und vergleichen diese mit dem Pro-Kopf-Einkommen ausgedrückt in einem Warenkorb. Sicherlich ist die Lebenserwartung kein perfekter Indikator, jedoch ist die Dauer des Lebens für Menschen in der Regel ihr wichtigstes „Gut“. Die Tabelle 4.1.2 zeigt in einem Ländervergleich, dass es einen gewissen Zusammenhang zwischen der Lebenserwartung bei Geburt und dem Pro-Kopf-Einkommen gibt, jedoch dieser Zusammenhang keineswegs sehr eng ist. Die Tabelle zeigt, dass die Bevölkerung in Ländern mit sehr geringem Pro-Kopf-Einkommen in der Regel eine geringere Lebenserwartung hat als die Bevölkerung in Ländern mit hohem Pro-Kopf-Einkommen. Aber innerhalb der Gruppen gibt es große Unterschiede. Die USA haben eines der höchsten Pro-Kopf-Einkommen, stehen jedoch bei der Lebenserwartung bei Weitem nicht an der Spitze. Japan, Schweden und Deutschland haben beispielsweise eine höhere Lebenserwartung als die USA trotz geringerem Pro-Kopf-Einkommen. Bei der Gruppe der Länder mit vergleichsweise geringem Pro-Kopf-Einkommen wurden Länder ausgewählt, die bei ähnlichem ProKopf-Einkommen beachtliche Unterschiede bei der Lebenserwartung bei der Geburt aufweisen.
336 Tabelle 4.1.2:
Keynesianische Makroökonomie Einkommen pro Kopf in US-Dollar und Lebenserwartung bei der Geburt in ausgewählten Ländern (CIA World Fact Book 2011) Lebenserwartung bei Geburt
Einkommen pro Kopf
in Jahren
in US-Dollar
2009
2011
2009
2010
Angola
-
38,8
8.300
8.200
Thailand
-
73,2
8.200
8.700
Chat
-
48,3
1.600
1.600
Bangladesch
-
69,8
1.600
1.700
Südafrika
-
49,3
10.400
10.700
Aserbaidschan
-
67,4
10.500
10.900
Japan
82,6
82,3
34.000
34.000
Deutschland
79,4
80,7
35.000
35.700
Schweden
80,9
81,1
39.100
39.100
USA
78,3
78,4
47.200
47.200
Katar
65,6
75,7
179.000
179.000
Letztlich können nur Indikatoren entwickelt werden, welche die Wohlfahrt von Gesellschaften messen. Die ausgewählten Indikatoren sind Ausdruck bestimmter politischer Vorstellungen und Wertungen. Die Weltbank und die Vereinten Nationen versuchen mit einem ganzen Set von Indikatoren die Entwicklung von Ländern zu erfassen. Auch wurde versucht, verschiedene Indikatoren in einem Index zusammenzufassen.101 Eine weitere Methode zur Erfassung der Wohlfahrt sind Umfragen, welche die subjektive Wahrnehmung der Befragten erfassen können. Faktoren, die eine Rolle spielen, sind beispielsweise medizinische Versorgung, Bildung, Armut, Kindersterblichkeit, Lebenserwartung, Einkommens- und Vermögensverteilung, soziale Absicherung gegen elementare Lebensrisiken, Partizipation am gesellschaftlichen Leben, politische Teilhabe etc. Alle Versuche zur Messung von Wohlstand sind, wie bemerkt, Ausdruck von Wertorientierungen und sind nicht objektivierbar. Sie erlauben dennoch ein besseres Bild der Entwicklung der Wohlfahrt in einem Land als die hergebrachten Kategorien der VGR. Folgend wollen wir uns der theoretischen Debatte widmen, warum das in den VGR gemessene Inlandsprodukt oder Einkommen ein sehr unverlässlicher Indikator für Wohlfahrt ist.102 Die VGR erfassen nicht die gesamte Wertschöpfung. Relevantere Größenordnungen würden sich ergeben, wenn auch die nicht marktvermittelte Produktion der Haushalte, wie das Kochen, Backen, Putzen, Anbauen von Tomaten, Reparieren von Haushaltsgeräten usw. erfasst würde. Diese Arbeiten, so umfangreich und wichtig sie in einer Gesellschaft auch sein mögen, werden nicht berücksichtigt. Werden
101
Vgl. dazu die World Develpment Indicators der World Bank (2011) und den Human Development Index der United Nations (2011). Vgl. dazu Stiglitz/Sen/Fitoussi (2010). Diese drei Ökonomen fassen die Ergebnisse einer Kommission zusammen, die der französische Präsident Nicolas Sarkozy im Jahre 2008 einberief, um die Aussagekraft der üblichen Ergebnisse der Volkswirtschaftlichen Gesamtrechnungen zu bewerten. Vgl. auch Rogall (2011).
102
Keynesianische Makroökonomie
337
ältere Menschen beispielsweise in der Familie gepflegt, dann wird dies nicht erfasst, während ein privat geführtes Pflegeheim zum Unternehmenssektor gehört und zur gemessenen volkswirtschaftlichen Wertschöpfung beträgt. Des Weiteren wird der informelle Sektor (in entwickelten Ökonomien oftmals auch als Schattenwirtschaft bezeichnet) nicht oder nur teilweise berücksichtigt. Statistische Schätzungen sind aufgrund des Charakters des Sektors schwierig. Das betrifft z. B. den gesamten Bereich der Schwarzarbeit, der das Nationalprodukt erheblich erhöht, aber nur geschätzt werden kann und in der offiziellen Statistik nicht berücksichtigt wird. In vielen Ländern hat der informelle Sektor zugenommen, was die statistische Erhebung der ökonomischen Entwicklung eines Landes erschwert. Einen großen Unterschied kann es machen, wie viel (freiwillige) Freizeit eine Gesellschaft auswählt. Ein Land A mag ein hohes Einkommen pro Kopf haben, jedoch kaum Urlaub und lange Wochenarbeitszeiten. Ein Land B dagegen mag ein vergleichsweise geringes Pro-Kopf-Einkommen und längeren Urlaub und kürzere Wochenarbeitszeiten wählen. Es wäre verfehlt zu argumentieren, dass das Land B eine geringere Wohlfahrt hat. Die Verteilungssituation des Nationalproduktes geht nicht in das Einkommen pro Kopf ein. So dürften die meisten Menschen eine Verteilung des Einkommens ablehnen, bei der einer kleinen Anzahl von Personen fast alles Einkommen zufließt und die Masse kaum das Existenzminimum wahren kann. Von der Glücksforschung ist bekannt, dass große Einkommensunterschiede die Personen mit relativ geringem Einkommen unglücklich machen. Zudem wurde herausgefunden, dass Menschen ab einem gewissen Einkommensniveau eine weitere Zunahme des Einkommens nicht mehr als Zunahme des Glücks empfunden haben. Die in der Literatur angegebene Einkommensschwelle, die bei einer Erhöhung des Einkommens kein weiteres Glück mehr erwarten lässt, liegt bei einem Jahreseinkommen einer Person von ca. 25.000 € (in Preisen von 2011). Offensichtlich können mit einem solchen Einkommen alle Basisbedürfnisse befriedigt werden und ein höherer Konsum wird nicht mehr als zusätzliches Glück empfunden.103 Bisher wurden Probleme benannt, die mit dem Umfang der Erfassung ökonomischer Aktivitäten zu tun haben. Gravierender ist jedoch, dass die Aggregate, die statistisch erfasst werden, nicht zwingend zum Wohlstand und noch nicht einmal zu den Konsummöglichkeiten einer Gesellschaft beitragen. Gleichzeitig werden schädliche Prozesse, welche die Wohlfahrt reduzieren, in den gemessenen Aggregaten nicht erfasst. Angesprochen ist der gesamte Bereich negativer externer Effekte (vgl. Kapitel 2.11). Die Emission von CO2, die zur Erderwärmung führt, die Vergiftung von Gewässern und Böden usw. finden in der Nationalproduktberechnung keine Berücksichtigung. Erst wenn die entstandenen Schäden „repariert“ werden, also wenn z. B. belastete Böden saniert, Sturm- und Flutschäden aufgrund der Erderwärmung beseitigt werden etc., erfolgt eine Berücksichtigung und zwar als Steigerung des Nationalprodukts. Es gibt hier folglich zwei Probleme: Erstens, die systematisch verzerrte Preisstruktur aufgrund negativer externer Effekte führt zu einer systematisch verzerrten Messung des Nationalproduktes als Maßstab für Wohlstand. Zweitens, es werden in großem Umfang Aktivitäten gemessen, die keinen Wohlstand schaffen, sondern nur Schäden reparieren. Bei einem Teil der gemessenen Wertschöpfung erhöhen sich nicht die Konsummöglichkeiten einer Gesellschaft und/oder es ist fraglich, ob die Güter zur Wohlfahrt beitragen. Ein krasser Fall ist der Verbrauch von Gütern, die offensichtlich schädliche Wirkungen entfalten, beispielsweise beim Kauf von (legalen) Drogen, welche die Gesundheit zerstören. Fraglich ist auch, in welchem Umfang Produktionen für Kriegsgerät oder Werbeausgaben den Wohlstand mehren. Man bewegt sich an diesem Punkt allerdings auf sehr dünnem Eis, da es faktisch nicht bestimmbar ist, ob und in welchem Umfang welche Güter für wen den Wohlstand erhöhen oder nicht erhöhen.
103
Zur Glücksforschung vgl. Layard (2006).
338
Keynesianische Makroökonomie
Kernpunkte Die traditionellen VGR erfassen im Kern nur Transaktionen, die über Märkte vermittelt werden. Produktionen die nicht über Märkte vermittelt werden sind durch die traditionellen Kategorien der VGR nicht erfasst, beispielsweise Hausarbeit, ehrenamtliche Arbeit etc. Aufgrund negativer externer Effekte und dem dadurch „verzerrten“ Preissystem erfassen die traditionellen Kategorien der VGR die Marktkategorien nicht entsprechend ihrer tatsächlichen Knappheiten. Zudem sind in der VGR Größen enthalten, die nicht die Wohlfahrt erhöhen, beispielsweise die Reparaturen von Umweltzerstörungen. Für die Messung von Wohlfahrt kann es keinen objektiven Indikator geben, sondern Wohlfahrt hängt von Werturteilen ab und kann nur mit einem Strauß von Indikatoren versucht werden zu erfassen. Solche Indikatoren sind beispielsweise die Lebenserwartung, die Einkommensverteilung, das Bildungsniveau, die Gesundheitsversorgung, die Sicherheit der Lebensverhältnisse und viele andere denkbare Indikatoren.
Keynesianische Makroökonomie
339
4.2 Grundlagen des keynesianischen Paradigmas 4.2.1 Dogmengeschichtliche Einordnung Der Keynesianismus geht auf den britischen Ökonomen John Maynard Keynes (1883-1946) zurück, der in den 1920er und 1930er Jahren seine Theorie entwickelte. Seine wichtigsten Werke sind „Vom Gelde“ (Berlin 1930) und „Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes“ (Berlin 1936). Keynes erstritt sich nicht nur als Theoretiker einen großen Namen, sondern er war auch politisch einflussreich. Als Vertreter des britischen Schatzamtes war er als junger Mann Teilnehmer der britischen Delegation auf der Friedenskonferenz von Versailles nach dem Ersten Weltkrieg. Während des Zweiten Weltkriegs entwickelte er einen Plan für Großbritannien zur Finanzierung des Krieges. Er war faktisch von den 1920ern bis in die 1940er Jahre an jeder relevanten wirtschaftspolitischen Debatte in Großbritannien beteiligt. Als Leiter der britischen Delegation bei den Verhandlungen zur Schaffung der internationalen Währungsordnung prägte er entscheidend das spätere Bretton-Woods-Systems, das der westlichen Welt bis in die 1970er Jahre einen stabilen Rahmen lieferte. Keinesfalls war Keynes seinerzeit der einzige Ökonom, der der neoklassischen Theorie kritisch gegenüberstand. Er wurde jedoch der bekannteste Kritiker der neoklassischen Schule in seiner Zeit und zum Begründer des Keynesianismus. Diese Sonderstellung erklärt sich nur partiell aus seinen unbestrittenen theoretischen Leistungen. Sein bekanntestes Buch, die „Allgemeine Theorie“ von 1936, ist insgesamt ein sehr unklares Werk und gibt in vielen Dimensionen Möglichkeiten unterschiedlicher Interpretationen.104 Die Durchschlagskraft des Keynes’schen Werkes erklärt sich auch dadurch, dass er zum britischen Establishment gehörte (Sohn eines Professors, Ausbildung an den Eliteinstituten Eton und King’s College in Cambridge, Mitglied elitärer Zirkel, Beratertätigkeit für die Regierung) und seine immer größere Distanz zum neoklassischen Paradigma aufgrund seiner Stellung wahrgenommen wurde und von der herrschenden Lehrmeinung nicht marginalisiert werden konnte. Die dogmengeschichtliche Entwicklungslinie der ökonomischen Theorie hin zum Keynesianismus verlief – trotz aller Brüche – über die britischen Klassiker (Adam Smith, Ende des achtzehnten Jahrhunderts, und vor allem David Ricardo, der Anfang des neunzehnten Jahrhunderts sein Hauptwerk schrieb), über John Stuart Mill, der eine Zwischenstellung einnahm (Mitte des achtzehnten Jahrhunderts), und die makroökonomisch orientierte Neoklassik (insbesondere Alfred Marshall Ende des neunzehnten Jahrhunderts/Anfang des zwanzigsten Jahrhunderts und Lehrer von Keynes). Von der walrasianischen Mikroökonomie, die ebenfalls Ende des neunzehnten Jahrhunderts entstand, gibt es dagegen keine Verbindungslinie zum Keynesianismus. Wir interpretieren das Werk von Keynes so, dass er das Ziel hatte, die Basis für ein neues Paradigma jenseits der Neoklassik zu legen. Das gelang sicherlich nur partiell, jedoch hat er einen Forschungsansatz angestoßen, der bis heute versucht das keynesianische Paradigma als eigenständiges Paradigma weiterzuentwickeln. Die folgenden grundsätzlichen Unterschiede zur neoklassischen Theorie bestätigen dieses Argument. Im keynesianischen Denken wird die modelltheoretische Dichotomie zwischen einer Real- und einer Geldsphäre abgelehnt, die klassisches und neoklassisches Denken prägen. Die Geldsphäre ist kein Störfaktor einer theoretisch angenommenen Realökonomie, sondern das Steuerungszentrum marktverfasster Ökonomien. Keynes sprach von kapitalistischen Ökonomien als „monetäre Produktionswirtschaften“ mit Geld bzw. Vermögensmärkten als Steuerungszentrum.105 Dadurch unterschied er sich fundamental sowohl von der damals dominierenden Neoklassik als auch von der Klassik. Da Neoklas104
Paul Samuelson, der wohl bekannteste amerikanische keynesianische Ökonom in den 1950er und 1960er Jahren schrieb über die „Allgemeine Theorie“: „It is a badly written book, poorly organized; any layman who beguiled by the author's previous reputation, bought the book was cheated of his five shillings. It is not well suited for classroom use. It is arrogant, bad tempered, polemical and not overly generous in its acknowledgements. It abounds in mares' nests and confusions... In short, it is a work of genius.” (Samuelson 1964, S. 316) 105 Vgl. dazu seinen Aufsatz von 1933 in Keynes (1973).
340
Keynesianische Makroökonomie
sik und Klassik starke Gemeinsamkeiten in der jeweiligen Geldtheorie aufweisen, fasste Keynes beide Paradigmen unter den Begriff der Klassik zusammen, ein Sprachgebrauch, der sich nur teilweise durchsetzte, bei der Lektüre von Keynes’ Schriften aber zu berücksichtigen ist. Im keynesianischen Paradigma wird das Gesetz der effektiven Nachfrage betont. Nach dieser Ansicht bestimmt grundsätzlich die Güternachfrage das Angebot. Die Angebotsseite der Ökonomie kann keineswegs alleine die Entwicklung von Produktion und Beschäftigung erklären. Damit lehnte der Keynesianismus das Saysche Gesetz ab, das behauptet, dass jedes Angebot sich seine Nachfrage schafft und damit die aggregierte Nachfrage nach Gütern für die Ökonomie keine relevante Kategorie ist. Keynesianisches Denken betont den Aspekt der Unsicherheit, die auch nicht mit ausgefeilten Wahrscheinlichkeitsrechnungen überwunden werden kann. In vielen Situation, gerade bei den ökonomisch wichtigen wie der Investitionstätigkeit, liegen die ökonomischen Auswirkungen einer Entscheidung weit in der Zukunft. Wirtschaftssubjekte müssen mit der Unsicherheit der Zukunft umgehen. Dies führt zu Handlungen, etwa dem Horten von Geld in einer Situation hoher Unsicherheit oder dem Zusammenbruch der Investitionstätigkeit, die im neoklassischen Paradigma keinen Platz haben, die jedoch für das Verständnis der Entwicklung einer Ökonomie essentiell sind. Nach keynesianischer Sicht sind kapitalistische Ökonomien instabil und tendieren keineswegs zu Vollbeschäftigung. Die Instabilität kommt dabei nicht allein aufgrund exogener Schocks zustande, sondern entsteht endogen. Es können einerseits lange und stabile Phasen von hoher Unterbeschäftigung entstehen, andererseits können Marktprozesse zu sich selbst verstärkenden Entwicklungen führen, die eine Ökonomie immer weiter destabilisieren. Beispiele für solche Entwicklungen gibt es massenhaft. Instruktiv sind in diesem Zusammenhang Blasen, beispielsweise auf Immobilien- und Aktienmärkten, jedoch auch sich selbst verstärkende Prozesse auf Arbeitsmärkten mit fallenden Löhnen und fallenden Preisen und steigernder Arbeitslosigkeit. Keynesianische Ideen können an dieser Stelle gut an Karl Polanyi anknüpfen, der hervorhob, dass Märkte wertvolle Dienste leisten können, dass kapitalistische Ökonomien jedoch in hohem Maße destabilisiert werden, wenn Geld (Finanzmärkte), Arbeit (Arbeitsmärkte) und Natur (Fischerei, schädliche Emissionen wie CO2 oder Verbrauch von Ressourcen wie Öl) nicht strikt reguliert werden.106 Adam Smith argumentierte in seinem Buch 1776 über den Wohlstand der Nationen, dass der Markt wie die unsichtbare Hand das dezentrale egoistische Handeln der Marktakteure zu einem guten Ergebnis führt: „Wenn daher jeder einzelne soviel wie nur möglich danach trachtet, sein Kapital zur Unterstützung der einheimischen Erwerbstätigkeit einzusetzen und dadurch dieses so lenkt, dass ihr Ertrag den höchsten Wertzuwachs erwarten lässt, dann bemüht sich auch jeder einzelne ganz zwangsläufig, dass das Volkseinkommen im Jahr so groß wie möglich werden wird. Tatsächlich fördert er in der Regel nicht bewusst das Allgemeinwohl, noch weiß er wie hoch der eigene Beitrag ist. Er wird in diesem wie auch in vielen anderen Fällen von einer unsichtbaren Hand geleitet, um einen Zweck zu fördern, der keineswegs in seiner Absicht lag.“ (Smith 1976, S. 371) Nach dieser Vorstellung, die tief im Verständnis der Neoklassik verankert ist, ist der Markt ein wunderbarer Automat, der die Ökonomie koordiniert und ohne äußeres Zutun die Gesellschaft zu Wohlfahrt führt. Wirtschaftspolitisch führt dies zu einer Politik des Laissez-Faire (des Laufenlassens) und einer begrenzten Rolle des Staates, der letztlich nur den Rahmen für die Ökonomie setzen soll. Der Traum von Adam Smith ist so schön wie er falsch ist. Der Rolle des Marktes als „guter Diktator“ und den Vorstellungen des wirtschaftspolitischen Laissez-Faire wird vom Keynesianismus widersprochen. Angestrebt wird eine Ökonomie, die viele Bereiche über Märkte regeln kann, die jedoch Institutionen und weitreichende staatliche Eingriffe im Bereich des Geldes, der Arbeit und der Natur braucht, um reproduktionsfähig und nachhaltig zu sein.107 Der Keynesianismus hat die Ökonomie zurück in die Gesellschaft gebracht. Joan Robinson, eine Schülerin von Keynes, drückte es so aus, dass die „Allgemeine Theorie“ die künstliche Mauer zwischen Geschichte und ökonomischer Theorie niedergerissen hat (vgl. Robinson 1962, S. 75). Ökonomie ist 106 107
Siehe dazu das Buch „The Great Transformation“ von Polanyi (1978). Vgl. dazu Dullien/Herr/Dullien (2009 und 2011) sowie Herr/Kazandziska (2011).
Keynesianische Makroökonomie
341
eine Sozialwissenschaft und neoklassische Ambitionen Modelle in der Logik der Newtonschen Mechanik zu bauen sind auf Sand gebaut. Ökonomische Entwicklungen sind Teil eines historischen Prozesses, der von institutionellen Gegebenheiten, Wirtschaftspolitik, der sozialen und politischen Situation eines Landes, der Psychologie der Bevölkerung und vielen weiteren Faktoren abhängt. Der Keynesianismus ist offen gegenüber anderen Wissenschaften, er braucht die Kooperation mit der Soziologie oder der Politologie. Keynes hat, wie oben angemerkt, der Nachwelt keine in sich geschlossene Theorie hinterlassen – eher einen Steinbruch neuer Ideen. Dieser Mangel hat dazu geführt, dass sein Werk in verschiedene Richtungen interpretiert wurde, so dass bis heute kein einheitliches, geschlossenes keynesianisches Modell existiert. Die in den 1940er bis 1970er Jahren dominierende und von John Richard Hicks (1937) begründete Keynes-Interpretation im Rahmen des so genannten IS-LM-Modells und seine Weiterentwicklung zur Neoklassischen Synthese ist eine Mischung aus keynesianischer und neoklassischer Theorie. Das IS-LM-Modell kann als verkürzte Interpretation der „Allgemeinen Theorie“ von Keynes gelten, wobei Hicks vom Arbeitsmarkt vollständig absah, Nominallöhne und Preisniveau schlichtweg als gegeben unterstellte und die Aspekte von Unsicherheit und Erwartungen weitgehend in den Hintergrund rückte. Die Neoklassische Synthese hat dann diesem Versatzstück der „Allgemeinen Theorie“ einen neoklassischen Arbeitmarkt hinzugefügt und damit eine Theoriemischung im schlechten Sinne erzeugt. Dabei war die Mischung nicht gleichgewichtig. Denn die Neoklassik wurde als grundsätzlich richtiges Modell betrachtet, das die Gesetzmäßigkeiten kapitalistischer Ökonomien korrekt erfasst, während der Keynesianismus die Rolle zugeschrieben bekam, gewisse Unvollkommenheiten auf Basis des neoklassischen Modells abzuleiten. Langfristig wird die Korrektheit des neoklassischen Modells betont, kurzfristig kann es zu keynesianischen Störungen kommen.108 Rigiditäten und Marktunvollkommenheiten wurden, so der spätere Vorwurf, ad hoc ohne nähere Begründung unterstellt. Da der Marktmechanismus, so das Argument, zu lange zur Erreichung des langfristigen neoklassischen Gleichgewichts braucht, werden wirtschaftspolitische Eingriffe insbesondere in der Form von Geld- und Fiskalpolitik gerechtfertigt und empfohlen. Mit dem Originalwerk von Keynes hat die Neoklassische Synthese wenig gemein. Joan Robinson (1979) hat die Neoklassische Synthese mit Recht als „Bastardkeynesianismus“ bezeichnet. Dieser „Bastardkeynesianismus“ wurde nach dem Zweiten Weltkrieg theoretisch und wirtschaftspolitisch zunehmend durch den Monetarismus unter der Führung von Milton Friedman und später durch die Neuklassik attackiert und in den 1970er Jahren diskreditiert (vgl. Kapitel 3.4). Dogmengeschichtlich erlitt die Neoklassische Synthese in den 1970er Jahren eine tiefe Niederlage. Doch gelang ihr in einem neuen Gewand eine Wiederbelegung in der Form des Neu-Keynesianismus. Der NeuKeynesianismus übernahm von der Neuklassik den Ansatz rationaler Erwartungen, ohne den im Denken der Mehrheit der Ökonomen kein Blumentopf mehr zu gewinnen (und keine Karriere mehr zu machen) war. Rationale Erwartungen wurden in der Form ins neu-keynesianische Modell eingebaut, dass mit deren Hilfe spezifische Rigiditäten von Preisen und Löhnen abgeleitet wurden. Die Mikrofundierung der Makroökonomie stand auf dem Programm. Mit Stolz wurden bei der Analyse einzelner Haushalte und Unternehmen Rigiditäten abgeleitet und dann ohne Umstände auf die Makroebene übertragen. So ist es beispielsweise rational, zur Senkung von Verhandlungskosten Löhne längerfristig vertraglich zu binden. Aufgrund der Kosten des Druckens von Prospekten ist es ebenfalls rational, Verkaufspreise für einige Zeit zu fixieren. Auf Grundlage dieser nun rational abgeleiteten und nicht mehr ad hoc unterstellten Rigiditäten konnte auf die gleiche Argumentationsfigur wie bei der Neoklassischen Synthese zurückgegriffen werden. Kurzfristig versagt der Markt (nun aufgrund von rational abgeleiteten Rigiditäten), wobei gleichzeitig das neoklassische Paradigma als langfristig richtig oder zumindest als Referenzsystem herangezogen wird. Mit dem Neu-Keynesianismus können dann, wie in der Neoklassischen Synthese, wirtschaftspo108
Vgl. zu dieser Einordnung des Keynesianismus beispielhaft Felderer und Homburg: „Wie wir sahen, geht die Keynesianische Theorie von einem grundsätzlich Neoklassischen Modell aus; freilich ‘bereichert’ sie jenes um gewisse Unvollkommenheiten“ (Felderer/Homburg 1987, S. 270).
342
Keynesianische Makroökonomie
litische Eingriffe des Staates gerechtfertigt werden. Als beliebtes Makromodell bildete sich auf der Grundlage des Neu-Keynesianismus das so genannte Neue Konsensmodell (New Consensus Model) heraus, das auch als Neue Neoklassische Synthese bezeichnet wird. Abbildung 4.2.1: Die Entwicklung des Keynesianimus John Maynard Keynes Michal Kalecki IS-LM-Modell Post-Keynesianismus Neoklassisches Paradigma
Neoklassische Synthese
Neuklassik (rationale Erwartungen)
Neu-Keynesianismus
Das Neue Konsensmodell (Neue Neoklassische Synthese)
Schon früh entstand neben dem IS-LM-Modell und der Neoklassischen Synthese eine Keynesinterpretation, die den „originären“ Keynes gegenüber der neoklassischen Interpretation verteidigt und den monetären Charakter des Keynesianismus stärker betont. Bei diesem Theoriestrang, der wiederum keineswegs einheitlich ist, spielten insbesondere Axel Leijonhufvud (1973), Sydney Weintraub (1966), Paul Davidson (1978) und Hyman Minsky (1990) eine Rolle. Dieser Strang der Keynesinterpretation wird unter Post-Keynesianismus zusammengefasst. Der Post-Keynesianismus wurde nicht unwesentlich von Michał Kalecki (1899-1970) beeinflusst, der an einer ganzen Reihe von Punkten ähnlich argumentierte als Keynes (Kalecki 1954 and 1971). In Deutschland wurde eine monetäre KeynesInterpretation um Hajo Riese (2001) entwickelt.109 Der Begriff Post-Keynesianismus ist schillernd, da sich hinter ihm auch Arbeiten in der Tradition von Piero Sraffa finden (vgl. Kapitel 3.3), die das neoklassische Paradigma mit Modellen angreifen, die kein Geld beinhalten oder bei denen Geld eine untergeordnete Rolle spielt. Jan Kregel (1985) hat diesen so genannten Cambridge-Strang des Keynesianismus mit William Shakespeares Drama Hamlet verglichen, bei dem die Hauptperson, der Prinz, nicht auftaucht. So wichtig diese Ansätze sein mögen, ihr primärer Zweck ist die Kritik der Neoklassik und nicht so sehr der Aufbau eines keynesianischen Paradigmas, das Geld ins Zentrum der Analyse stellen muss. 109
Natürlich können hier nicht annähernd alle wichtigen Ökonomen im Bereich des Post-Keynesianismus erwähnt werden. Zur Geschichte des Post-Keynesianismus vgl. King (2002) und Hein (2004). Sidney Weintraub und Paul Davidson gründeten 1978 das Journal of Post Keynesian Economics. Im deutschen Sprachraum steht die Schriftenreihe des Forschungsnetzwerks Makroökonomie und Makropolitik im Metropolis Verlag in einer post-keynesianischen Tradition.
Keynesianische Makroökonomie
343
Die folgende, in diesem Kapitel dargestellte, Keynes-Interpretation setzt sich von der Neoklassischen Synthese und dem Neu-Keynesianismus ab und sieht sich in der Tradition eines eigenständigen keynesianisches Paradigmas. Wenn wir von Keynesianismus sprechen, dann meinen wir die Strömung des Post-Keynesianismus, die Geld als wichtige Kategorie betrachtet. Gleichwohl werden wir im Lehrbuch auch das IS-LM-Modell, die Neoklassische Synthese und den Neu-Keynesianismus einschließlich des Neuen Konsensmodells darstellen (vgl. Kapitel 4.8). 4.2.2 Geldvorschuss und Einkommensbildung Fragestellung ▪ Was ist die Kreislaufformel des Kapitals? ▪ Was ist eine monetäre Produktionswirtschaft? ▪ Welche Hierarchie der Märkte gibt es im Keynesianismus? Die Kreislaufformel des Kapitals Die hier präsentierte keynesianische Theorie geht nicht – wie die Neoklassik – von einem wie Manna vom Himmel fallenden Anfangsbestand an Gütern aus. Der gegebene Bestand an Gütern ist eher nebensächlich. Dadurch tritt auch die Frage der optimalen Allokation von Gütern, so wichtig sie für die Effizienz einer Ökonomie ist und selbstverständlich auch von keynesianischen Autoren als wichtig erachtet wird, nicht ins Zentrum der Analyse. Die zentrale Frage ist, welche Bedingungen erfüllt sein müssen, damit Güter produziert und reproduziert werden. Denn nur durch Produktion entstehen wirtschaftliches Wachstum, Einkommen und Beschäftigungsmöglichkeiten. Im Zentrum des keynesianischen Interesses steht aus diesem Grunde auch nicht, wie ein gegebener Güterbestand optimal getauscht werden kann, sondern wie Produktion zustande kommt. John Maynard Keynes hat Karl Marx nur an wenigen Stellen in seinem Werk erwähnt. Positiv hob Keynes die Marxsche Kreislaufformel des Kapitals M – X – M' mit M als Geldvorschuss, X als Ware und M’ als Geldrückfluss hervor. Diese Formel passt zur Keynesschen Vorstellung einer monetären Produktionswirtschaft. M’ ist dabei größer als M. Nur so macht der Kreislauf Sinn, da kein Wirtschaftssubjekt Geld aufgeben wird, um nach einiger Zeit die gleiche Geldsumme zurückzubekommen. In differenzierterer Form nimmt die Kreislaufformel des Kapitals die Form Arbeitskräfte M–X
··· Produktion ··· X' – M' Produktivkapital
an. Geld (M) wird im ersten Schritt für Waren (X) vorgeschossen, nämlich für Produktivkapital. Falls die benötigten Arbeitskräfte erst nach dem Verkauf der Waren entlohnt werden müssen, braucht der Unternehmer kein Geld für Löhne vorzuschießen. In der Modellbildung wird dieser Fall meistens unterstellt. Auch wir werden dieser Annahme aus didaktischen Gründen folgen, da die andere Unterstellung das Modell ohne analytischen Gewinn komplizierter machen würde. Im zweiten Schritt wird produziert. Das Resultat der Produktion sind Waren (X'), die im letzten Schritt durch einen Verkauf in Geld (M') verwandelt werden. Die Kreislaufformel des Kapitals verdeutlicht, dass Produktion und Einkommensschöpfung nur als Resultat des Geldvorschusses stattfinden. Unterbleiben Geldvorschüsse in Produktivkapital, dann liegt der Einkommensbildungsprozess brach und die Beschäftigung ist gering; steigt der Geldvorschuss in Produktivkapital, dann steigen Beschäftigung und Einkommen. Die Kreislaufformel des Kapitals kann weiter ausdifferenziert werden. Wird unterstellt, dass ein Unter-
344
Keynesianische Makroökonomie
nehmer mit geliehenem Geld Produktionsprozesse durchführt, dann nimmt sie folgende endgültige Form an: 110 Arbeitskräfte (M – M) – X
··· Produktion ··· X' – (M' – M') Produktivkapital
Der Produktionsprozess ist in diesem Fall durch ein Gläubiger-Schuldner-Verhältnis eingerahmt. Der obige Kreislauf ist typisch für Geldwirtschaften, da der Unternehmenssektor immer eine Nettoschuldnerstellung innehat und mit geliehenem Geld arbeitet. Empirisch resultiert diese Stellung des Unternehmenssektors aus dem Sachverhalt, dass die Eigenkapitalfinanzierung immer nur einen Teil der gesamten Finanzierung ausmacht. Es kommt zu einem doppelten Geldvorschuss (M – M), da ein Gläubiger einem Unternehmer Geld leiht, das dieser dann in Produktivkapital investiert. Diese Kreditaufnahme erzwingt ihrerseits einen doppelten Geldrückfluss (M'– M'), da der Unternehmer das geliehene Geld plus Zinsen an den Gläubiger aus seinen Umsatzerlösen zurückzahlen muss. Obwohl Marx und Keynes die gleiche Kreislaufformel des Kapitals nutzen, gibt es fundamentale Unterschiede. Keynes untersucht die Kalküle der verschiedenen Wirtschaftssubjekte, die am Kreislauf des Kapitals beteiligt sind. Wichtig ist bei ihm beispielsweise die Frage, unter welchen Bedingungen wird in Produktivvermögen investiert. Für Marx drückt die Kreislaufformel ein Strukturmerkmal kapitalistischer Ökonomien aus. Unterschiedlich ist auch die Beantwortung der Frage, wo die Differenz zwischen dem Geldvorschuss und dem Geldrückfluss herkommt. Keynes sieht die Begründung in der Macht der Finanzmärkte, die einen Profitaufschlag erzwingen können, Marx sieht die Begründung in einem Niedrighalten der Löhne aufgrund von Arbeitslosigkeit, die einen Profit erlaubt. Die Einführung von Gläubiger-Schuldner-Verhältnissen führt zur Analyse der Bedingungen, die zu Geldvorschüssen in Produktivkapital führen. Bei der Existenz von Kreditverhältnissen rückt neben den Unternehmer als Kreditnehmer der Kreditanbieter ins Blickfeld. Kreditanbieter sind Finanzinstitutionen wie Banken und Haushalte. Selbstverständlich können Unternehmen auch Mittel zur Verfügung gestellt werden, wenn Finanzinstitutionen und Haushalte neu emittierte Aktien von Unternehmen kaufen oder in andere Form neues Eigenkapital zur Verfügung stellen. Zentralbanken agieren mit Banken in der Form, dass sich die Banken bei der Zentralbank refinanzieren können und dadurch Geld geschöpft wird. Dies macht das Kreditangebot zu einem komplizierten Prozess zwischen Banken, Haushalten und der Zentralbank. Einkommensbildung findet nur statt, wenn der Unternehmer als Schuldner und Banken und Haushalte als Gläubiger zu Geldvorschüssen bereit sind und die Zentralbank geldpolitisch einen Kreditexpansionsprozess zulässt. Dagegen lässt sich die walrasianische Ökonomie durch X – X charakterisieren, also durch den Tausch von Ware (Anfangsbestände) gegen Ware (konsumierte Endbestände). Die Logik des Wirtschaftens liegt hier nicht in der Disposition über Geld, sondern in der Bedürfnisbefriedigung durch Tausch. Selbst bei der Berücksichtigung von Produktion ändert sich an dieser Fassung nichts, da durch Produktion lediglich der Weg zwischen dem anfänglichen X und dem schließlichen X „umwegiger“ wird. Zwar maximieren auch in der Neoklassik die Unternehmen die Gewinne, sie sind jedoch nur die Vermittler zwischen den Haushalten als Anbieter von physischen Ressourcen und dem souveränen Endverbraucher. Geld spielt in der Tauschökonomie keine Rolle. Letztlich wird Geld, wenn es überhaupt eingeführt wird, in der neoklassischen Ökonomie dem Gütermarkt untergeordnet. Formal kann dieser Umstand durch die Modifikation der direkten Tauschlogik X – X in X – M – X ausgedrückt werden, so dass die Anfangsbestände zunächst gegen Geld und Geld gegen die gewünschten Endbestände getauscht werden. Geld ist auch bei der erweiterten Formel X – M – X sekundär und nur als Instrument 110
Die einfache Kreislaufformel findet sich bei Marx im Band I des Kapitals, die ausdifferenzierte im Band III (vgl. Marx 1973).
Keynesianische Makroökonomie
345
zur Vereinfachung des Gütertausches zu betrachten. Die walrasianische Theorie ist somit aufgrund ihrer Sicht der Dinge berechtigt, Geld aus ihrer Analyse zu verbannen. Der Unterschied zwischen keynesianischer und neoklassischer Ökonomie lässt sich auch so fassen, dass bei Keynes Geld die makroökonomische Budgetrestriktion des Marktsystems bildet, während in der Neoklassik diese Funktion durch die exogen gesetzten Erstausstattungen der Güter übernommen wird. In der neoklassischen wie auch in der keynesianischen Ökonomie ist das Ziel der Unternehmer die Maximierung ihrer Gewinne. Allerdings stehen den Unternehmen in der Neoklassik die Haushalte gegenüber, die ihnen physische Ressourcen zur Verfügung stellen, während im Keynesianismus den Unternehmern Wirtschaftssubjekte gegenüberstehen, die über Geld disponieren. Hinter den unterschiedlichen Budgetrestriktionen verbirgt sich ein unterschiedliches Verständnis von Knappheit. In der neoklassischen Ökonomie bewirken die exogenen Anfangsbestände Knappheit, denen unendliche Bedürfnisse gegenüberstehen. Der Keynesianismus setzt der Neoklassik eine monetär begründete Knappheit entgegen, die keineswegs zur vollständigen Auslastung von Ressourcen – etwa Vollbeschäftigung – führen muss. Auch im keynesianischen Paradigma kann es zu physischen Knappheiten kommen, etwa wenn alle Produktionskapazitäten ausgelastet sind und Vollbeschäftigung existiert, jedoch ist dies ein absoluter Spezialfall. Der keynesianische Knappheitsbegriff gilt nicht für alle Gesellschaftsformen – z. B. nicht für eine Stammeswirtschaft –, sondern ist historisch spezifisch für kapitalistische Ökonomien.111 Hierarchie der Märkte Aus der Kreislaufformel des Kapitals erschließt sich unmittelbar, dass das keynesianische Paradigma durch eine Hierarchie der Märkte charakterisiert ist. An der Spitze der Markthierarchie steht der Vermögensmarkt, der den Gütermarkt steuert, indem je nach Höhe der Geldvorschüsse der Umfang der Produktion festgelegt wird. Ist der Produktionsumfang fixiert, werden die – je nach gewählter Technik – benötigten Arbeitskräfte nachgefragt, so dass der Arbeitsmarkt an letzter Stelle der hierarchischen Ordnung steht. Da alle makroökonomischen Märkte über Geld gesteuert werden, macht eine Unterscheidung zwischen einer Realsphäre ohne Geld und einer monetären Sphäre, die zudem nur als Schleier über der Realsphäre liegt, keinen Sinn. Vereinfacht und ohne Berücksichtigung des Staatssektors und des Auslands kann die Interaktion der makroökonomischen Märkte wie in Abbildung 4.2.2 skizziert werden.
111
Vgl. zu diesem Punkt Riese (1986), S. 65 ff.
346
Keynesianische Makroökonomie
Abbildung 4.2.2: Die Hierarchie der Märkte im keynesianischen Paradigma
V e r mö g e ns ma r k t
Unternehmen
Zentralbank, Banken, Haushalte
Unsicherheitserwägungen, erwartete Verwertung Unsicherheitserwägungen, Geldpolitik
erwartete Verwertung von Produktivkapital
Kreditnachfrage
Kreditangebot Zinssatz/Kreditvolumen Bestand an Produktivkapital
Gü te r ma r k t
Investitionsnachfrage
Einkommensbildung einkommensunabhängige Konsumnachfrage
aggregierte Nachfrage
Konsumnachfrage
Mengen-Preis-Effekte
Preisniveauveränderung
A r be i ts m a r k t
reales Produktionsvolumen Lohnentwicklung
Arbeitsnachfrage
Haushalte
Arbeitsangebot Beschäftigung/Arbeitslosigkeit nominaler Lohnsatz
Auf dem Vermögensmarkt treffen das aggregierte Kreditangebot von Banken und Haushalten und die aggregierte Kreditnachfrage des Unternehmenssektors aufeinander. Die aggregierte Kreditangebotsfunktion wird durch das Zusammenspiel der Zentralbank, der Banken und der privaten Haushalte gesteuert. Für die Gläubiger spielen bei der Kreditvergabe neben dem zu erzielenden Zinssatz insbesondere Unsicherheitserwägungen über die Zahlungsfähigkeit und -willigkeit der Schuldner eine Rolle. Das Kreditangebot wird auch von der Geldpolitik der Zentralbank maßgeblich beeinflusst. Die Kreditnachfragefunktion seitens der Unternehmen hängt von der Relation zwischen der erwarteten Verwertungsrate von Produktivkapital und dem Zinssatz ab, da ein Unternehmer nur dann Produktivkapital halten will, wenn der Zinssatz nicht über der erwarteten Verwertungsrate von
Keynesianische Makroökonomie
347
Produktivkapital liegt. Beim Kreditangebot als auch bei der Kreditnachfrage spielen Unsicherheitserwägungen der Wirtschaftssubjekte eine große Rolle. Das Gleichgewicht auf dem Kreditmarkt zwischen Banken, Zentralbank und Haushalten einerseits und Unternehmen andererseits bestimmt den Zinssatz und das Kreditvolumen. Kreditangebots- und Kreditnachfragefunktion müssen sich keineswegs schneiden. Typisch für Kreditmärkte sind unbefriedigte Kreditnehmer, die gerne einen Kredit aufnehmen wollen, jedoch von den Gläubigern keinen Kredit bekommen. Kommen wir zum Gütermarkt. Liegt der gewünschte Bestand an Produktivvermögen über dem tatsächlichen, kommt es zu Nettoinvestitionen. Die Investitionen können jedoch auch so gering sein, dass nur teilweise oder auch keine Ersatzinvestitionen vorgenommen werden und der Kapitalstock der Unternehmen sinkt. Werden Investitionen getätigt, so ergibt sich auf dem Gütermarkt eine entsprechende Nachfrage nach Investitionsgütern. Damit wird die Investitionsnachfrage zum entscheidenden Scharnier zwischen dem Vermögens- und Gütermarkt. Auch andere Nachfragekomponenten, beispielsweise die Konsumnachfrage kann vom Zinssatz und der Verfügung von Krediten abhängen, aber wir betrachten diesen Aspekt an dieser Stelle als sekundär. Die Investitionsnachfrage führt zur Produktion und damit zur Einkommensbildung, die ihrerseits die Konsumnachfrage anregt. Sie hängt im Keynesianismus nicht primär vom Zinssatz, sondern hauptsächlich vom Einkommen ab. Die Konsumnachfrage wiederum hat Rückwirkungen auf die Produktion von Konsumgütern und somit auf die Einkommensbildung. Zwischen der Erhöhung der Investitionsnachfrage, dem daraus entstehenden Einkommen und der Konsumnachfrage gibt es somit einen multiplikativen Prozess. Konsum- und Investitionsnachfrage bilden die aggregierte Nachfrage auf dem Gütermarkt. Bei unausgelasteten Kapazitäten und Arbeitslosigkeit bestimmt die aggregierte Nachfrage das Produktionsvolumen. Bei ausgelasteten Kapazitäten bzw. Vollbeschäftigung und der Unmöglichkeit der Erhöhung der Produktion treibt die Überschussnachfrage das Preisniveau in die Höhe. Es hängt somit von der spezifischen Situation auf dem Gütermarkt ab, ob Änderungen der aggregierten Nachfrage zu Mengen- und/oder Preisniveaueffekten führen. Auf dem Arbeitsmarkt kommt es – bei unveränderter Technik – zu einer Erhöhung der Nachfrage nach Arbeit, wenn das Produktionsvolumen steigt und im umgekehrten Fall zu einer Absenkung. Wenn es zu einer Erhöhung der Arbeitsproduktivität aufgrund technologischer Verbesserungen kommt, dann steigt die Nachfrage nach Arbeit geringer als die Erhöhung des Outputs. Das Arbeitsangebot hängt von der arbeitsfähigen Bevölkerung und einem Set von Institutionen ab, die von Regulierungen der Arbeitszeit bis hin zu Wertvorstellungen über die Beteiligung von Frauen am Erwerbsleben reichen. In gewissem Umfang kann auch die Lohnhöhe eine Rolle für das Arbeitsangebot spielen. Ob der Umfang der Produktion ausreicht, der gegebenen arbeitsfähigen und -willigen Bevölkerung Beschäftigungsmöglichkeiten zu bieten, ist ungewiss. Unfreiwillige Arbeitslosigkeit ist nicht nur möglich, sondern historisch der Normalzustand in kapitalistischen Ökonomien. Im Vergleich zur neoklassischen Theorie gibt es keinen Mechanismus auf dem Arbeitsmarkt, der über Lohnveränderungen unmittelbar zu Veränderungen der Beschäftigung führt. Das Beschäftigungsniveau wird vielmehr auf dem Vermögens- und Gütermarkt und durch die Entwicklung der Arbeitsproduktivität festgelegt. Zwar ist der Arbeitsmarkt was die Beschäftigung betrifft im keynesianischen Paradigma ein Appendix, aber er hat gleichwohl eine große volkswirtschaftliche Bedeutung. Die Lohnkosten, die primär durch die Entwicklung der nominalen Löhne bestimmt werden, sind ein wesentlicher Bestimmungsfaktor des Kostenniveaus. Letztlich bestimmen die Lohnkosten das Preisniveau. Eine instabile Entwicklung der Nominallöhne bewirkt ein instabiles Preisniveau. Ein instabiles Preisniveau wirkt wiederum auf den Vermögensmarkt zurück, da z. B. bei inflationären Entwicklungen die Wirtschaftssubjekte ihr Vermögen so anlegen, dass es möglichst inflationsgeschützt ist. Auch die Zentralbank wird durch eine entsprechende Erhöhung der Zinssätze Inflationen zu bekämpfen versuchen, was wiederum auf das Investitionsverhalten einwirkt. Lohnsenkungen führen zu Deflation. In unserer Darstellung des keynesianischen Paradigmas in den nächsten Kapiteln wird dieser kurzen Skizze der Hierarchie der Märkte gefolgt. Die Analyse beginnt mit dem Vermögensmarkt, um danach den Güter- und dann den Arbeitsmarkt zu untersuchen. Es werden zunächst das Produktions- und Be-
348
Keynesianische Makroökonomie
schäftigungsvolumen und dann die Preisniveauentwicklung abgeleitet. Zunächst sollen jedoch noch zwei Punkte angesprochen werden, die im keynesianischen Paradigma fundamentale Bedeutung besitzen, nämlich die Rolle der Unsicherheit der Zukunft und die Bedeutung der verschiedenen Funktionen des Geldes. Kernpunkte Eine monetäre Produktionswirtschaft kann durch den Kreislauf des Kapitals mit Geldvorschuss, Produktion und Einkommensschöpfung und Geldrückfluss beschrieben werden, wobei der Geldvorschuss wesentlich durch Kreditvergabe bzw. -aufnahme mitbestimmt wird. Eine Unterscheidung zwischen einer Realsphäre und einer monetären Sphäre, wie in allen Varianten der Neoklassik, ergibt beim Keynesianismus keinen Sinn. Im Keynesianismus gibt es eine Hierarchie der Märkte. Es dominieren der Vermögens- und Kreditmarkt über den Gütermarkt, während der Arbeitsmarkt zum Appendix von Vermögens- und Gütermarkt wird und in der Regel durch unfreiwillige Arbeitslosigkeit gekennzeichnet ist. Lohnkosten sind jedoch nicht unwichtig, sie bestimmen letztlich das Preisniveau. 4.2.3 Zeit, Unsicherheit und Geld Fragestellung Was ist der Unterschied zwischen Unsicherheit und Risiko? Wie gehen verschiedene Paradigmen mit dem Problem der Zeit und mit Erwartungen um? Welche Funktionen hat Geld? Wie hängen die Geldfunktionen mit Unsicherheit zusammen? Das Problem der Zeit Dispositionen von Wirtschaftssubjekten finden zwar in der Gegenwart auf Basis ererbter historischer Bedingungen statt, sie haben jedoch unweigerlich Auswirkungen auf die Zukunft. Gerade die ökonomisch wichtigsten Entscheidungen ragen weit in die Zukunft hinein. So folgen bei Geldvorschüssen in Produktivkapital und bei langfristigen Kreditvergaben die Geldrückflüsse erst nach Jahren – manchmal Jahrzehnten. Damit kommen bei vielen Entscheidungen zwingend Erwartungen über die Zukunft ins Spiel. Was könne wir über die Zukunft sagen, etwa den Rückflüssen einer Investition in eine neue Stahlfabrik? Keynes wurde nicht müde zu betonen, dass wir über die Zukunft wenig wissen können und damit unter Unsicherheit handeln. Die Unsicherheit zukünftiger Entwicklungen spielt bei Kalkülen und Handlungen aller Wirtschaftssubjekte eine wichtige Rolle, und es ist eines der zentralen Anliegen der keynesianischen Theorie, Handeln unter Unsicherheit zu erfassen. Zwar gibt es eine breite Palette juristisch fixierter und/oder durch Gewohnheiten entstandener Regelungen wie langfristig laufende Verträge, Versicherungen, stabile und auf Vertrauen basierende Kooperationen zwischen Akteuren etc., die die Unwägbarkeiten der Zukunft für Wirtschaftssubjekte reduzieren – die Unsicherheit verschwindet damit jedoch keineswegs. Selbstverständlich versuchen Akteure, sich gegen Unsicherheiten abzusichern. Gläubiger beispielsweise erwarten von den Schuldnern üblicherweise Sicherheiten. Die Schuldner ihrerseits werden ein Kreditangebot ausschlagen, wenn ihnen die Unwägbarkeiten der Zukunft zu groß sind. Gläubiger und Unternehmer sind bei der Finanzierung und Durchführung von Produktionsprozessen jedoch letztlich gezwungen, die Unsicherheit der Geldrückflüsse zu tragen. Investitionsentscheidungen und deren Finanzierung können im Vergleich zu kurzfristigen Routineentscheidungen in dem Sinne als „kritisch“ eingestuft werden, als sie aufgrund der sich ändernden Bedingungen in der Welt als jeweils einmalig eingeschätzt werden müssen, sich also nicht an gesicherten Erfahrungswerten oder an vertraglich gebundener Zukunft orientieren können.112 Investitionen in Produktivvermögen und deren Finanzierung sind gleichsam Wetten auf die Zukunft. 112
Vgl. dazu die Ausfühungen in Shackle (1958), der den Charakter von kritischen Entscheidungen betonte.
Keynesianische Makroökonomie
349
Das Problem der Zeit liegt, wie es Alfred Marshall schon vor über hundert Jahren ausführte, im Zentrum nahezu aller großen ökonomischen Probleme.113 Warum bereitet die Zeit der ökonomischen Theorie so viele Schwierigkeiten? Ökonomisches Handeln findet unweigerlich in historischer Zeit statt. Entlang der Zeitachse ist jeder Zeitpunkt einmalig und unwiederholbar. Historische Zeit unterscheidet sich von logischer Zeit, die der Newtonschen Physik unterlegt ist. Bei der Newtonschen Physik können wir mit Bewegungsgleichungen die Bewegung von Körpern berechnen und wir können davon ausgehen, dass die Bewegung der Körper bei unveränderten Bedingungen in der Zukunft und in der Vergangenheit die gleiche ist. Bei menschlichem Verhalten ist dies nicht der Fall. Bei historischer Zeit ist es unmöglich, die Zukunft zu erkennen, da sie beständig neu geschaffen wird. Gleiche Bedingungen wird es im historischen Prozess nur in den sehr seltenen Fällen oder eher nie geben. Und selbst bei gleichen Bedingungen werden Menschen unterschiedlich reagieren. Das bedeutet, dass Erfahrungen der Vergangenheit und Gegenwart zwar hilfreich sind, Zukunftsprognosen zu erstellen, dessen ungeachtet ist es jedoch selbst bei bestem Wissensstand nicht möglich, Gewissheit über die Zukunft zu erlangen. Wir wissen nicht, wer in fünf Jahren deutscher Fußballmeister wird, ja wir wissen nicht einmal, welche Mannschaften dann in der ersten Bundesliga spielen werden, und erst recht wissen wir nichts über Borussia Dortmund. Oder: Niemand weiß wirklich, wie die ökonomischen Rahmenbedingungen in Russland in vier Jahren aussehen werden, oder wie in fünf Jahren die konjunkturelle Entwicklung in Europa beschaffen sein wird und mit welchen Zinssätzen die Unternehmen dann konfrontiert sein werden. Ganz in diesem Sinne fasste Keynes Unsicherheiten: „Mit unsicherem Wissen ... beabsichtige ich nicht bloß das, was als sicher bekannt ist, von dem, was nur wahrscheinlich ist, zu unterscheiden. Das Roulettespiel unterliegt in diesem Sinne nicht der Unsicherheit (...). Oder, nochmals, auch die Lebenserwartung ist nur in geringem Maße unsicher. Selbst das Wetter ist nur mäßig unsicher. Der Sinn, in dem ich den Begriff gebrauche, ist der, in welchem Ausmaß Unsicherheit herrscht über den Ausgang eines Europäischen Krieges, oder über den Kupferpreis sowie den Zinssatz in zwanzig Jahren, oder das Veralten einer Neuerung, oder die Lage privater Vermögensbesitzer im Gesellschaftssystem von 1970. Für diese Fragen gibt es keine wissenschaftliche Grundlage, auf der man irgendeine, was für eine auch immer, berechenbare Wahrscheinlichkeit bilden kann. Wir wissen es einfach nicht“ (Keynes 1937, S. 213 f.).114 Unsicherheit ist bei Keynes eine Fundamentalkategorie. Sie umfasst nicht nur die Unsicherheit individueller Lebensrisiken wie Krankheit etc., sondern sie ist insbesondere eine Unsicherheit, die durch Marktprozesse entsteht, also die Unsicherheit arbeitslos zu werden, Schulden nicht eintreiben zu können oder als Unternehmen im Konkurrenzkampf unterzugehen. Wir können somit von einer systemspezifischen Unsicherheit sprechen. Neoklassische und keynesianische Theorie gehen unterschiedlich mit dem Problem der Zeit um.115 Den radikalsten Ansatz zur Erfassung der Zeit findet sich in der walrasianischen Gleichgewichtstheorie (vgl. Kapitel 2.9). In ihr werden universelle Zukunftsmärkte unterstellt, die alle Güter und alle zukünftigen Zeitpunkte umfassen. Es gibt somit nicht nur jeweils einen Markt für Autos, Zahnbürsten, Arbeitsleistungen, Kühlschränke usw. heute, sondern jeweils einen für jede zukünftige Periode. Gleichgewichtspreise, Angebots- und Nachfragemengen auf diesen Zukunftsmärkten werden heute schon festgelegt. Der Markt wird nur heute eröffnet und bleibt dann in allen zukünftigen Perioden geschlossen, da bereits alle Verträge abgeschlossen sind. Durch diese Konstruktion wird die Zukunft auf die Gegenwart reduziert. Da alle zukünftigen ökonomischen Transaktionen schon heute festgelegt sind, gibt es keine Unsicherheit mehr. Sicherlich gibt es in der Realität Terminmärkte: Auf dem Weizenterminmarkt z. B. wird vor der Ernte vereinbart, für welche Menge und zu welchem Preis Verkäufe nach der Ernte abgewickelt werden. Auf
113
“The first which we have to consider arises from the element of time, the source of many of the greatest difficulties in economics“ (Marshall 1982, S. 7). Übersetzung durch die Verfasser. 115 Im klassischen Paradigma ist die Handlungstheorie unentwickelt. Aus diesem Grunde spielen Zeit und Erwartungen bei Klassikern keine Rolle. 114
350
Keynesianische Makroökonomie
dem Devisenterminmarkt, um ein anderes Beispiel zu nennen, kann heute vereinbart werden, wie viele US-Dollar zu welchem Preis in sechs Monaten gegen Euro getauscht werden. Terminmärkte sind jedoch auf wenige Güter begrenzt und vor allem reichen diese Märkte nicht weit in die Zukunft. Zudem sind die meisten Terminmärkte auf dem Vermögensmarkt und nicht auf dem Gütermarkt angesiedelt. Tatsächlich existierende Terminmärkte müssen Unsicherheit keineswegs für beide Vertragspartner eliminieren. Zwar kann beispielsweise ein Weizenproduzent über ein Weizentermingeschäft die Unsicherheit der Zukunft individuell reduzieren, jedoch trägt in diesem Fall in der Regel ein Spekulant die Unsicherheit. Er muss nämlich auf eine schlechte Ernte spekulieren, damit der Preis des Weizens in der Zukunft auf dem Markt höher ist als im Terminvertrag fixiert. Sollten sich seine Erwartungen bestätigen, hat er das Spiel gewonnen. Im umgekehrten Fall werden Verluste unvermeidlich. Zwar werden in Termingeschäften die Konditionen für die Zukunft vorwegbestimmt, das wirtschaftliche Umfeld ist jedoch zum Zeitpunkt seiner Erfüllung unbestimmt. Die Unsicherheiten werden nicht aufgehoben, sondern selbst zu einem Markt. Terminmärkte sind geradezu ideal zur Durchführung von Spekulationen und wirken keineswegs automatisch stabilisierend und unsicherheitsreduzierend (wie alle empirischen Erfahrungen dann auch zeigen). Das Modell universeller Zukunftsmärkte ist so weit von jeglicher Realität entfernt, dass es nicht praktikabel auf tatsächliche Probleme angewandt werden kann. Die universellen Zukunftsmärkte werden in der modernen Neoklassik durch rationale Erwartungen ersetzt (vgl. das Kapitel 3.4.5 über die Neuklassik). Bei diesen wird eine deterministische und stochastische Welt mit objektiven Wahrscheinlichkeiten und endlicher Varianz unterstellt. Aber nur auf den ersten Blick wird durch die Annahme einer stochastischen Welt Unsicherheit in ein Modell integriert. Bei der Annahme einer stochastischen Welt ist zwar für Wirtschaftssubjekte nicht bekannt, welches jeweilige Einzelergebnis eintritt, jedoch kann die Zukunft auf Basis objektiver Wahrscheinlichkeiten grundsätzlich prognostiziert werden. Denn bei objektiven Wahrscheinlichkeiten sind alle zukünftigen möglichen Ereignisse bekannt. Zusätzlich muss unterstellt werden, dass jedem der zukünftigen Ereignisse eine eindeutige Wahrscheinlichkeit zugeordnet werden kann und sich die Summe der Wahrscheinlichkeiten somit auf eins addiert. Um objektive Wahrscheinlichkeiten sinnvoll anwenden zu können, muss das Gesetz der großen Zahl gelten. „Kritische“ Entscheidungen wie der Bau einer Stahlfabrik oder die Entwicklung eines neuen Automodells folgen nicht dem Gesetz der großen Zahl, sondern sind einmalige Entscheidungen. Denn es handelt sich bei Investitionen um einmalige und finanziell relevante Entscheidungen in einem ganz spezifischen historischen Umfeld, das sich nicht mehr wiederholen wird. Verdeutlichen wir uns diesen Punkt am Beispiel des Würfels. Bei einem gewöhnlichen Würfel mit sechs Oberflächen sind alle möglichen Ereignisse bekannt und jedes Ereignis – das Würfeln jeder Zahl – hat eine Wahrscheinlichkeit von 1 6 , so dass sich die Summe der Wahrscheinlichkeiten auf eins addiert. Würfle ich sehr häufig, dann weiß ich zwar nicht, welche Zahl sich beim einzelnen Wurf ergibt, ich weiß jedoch genau, dass ich z. B. die Drei in einem Sechstel aller Würfe erhalte. Ich kann mir bei häufigem Würfeln auch sehr sicher sein, dass ich im Schnitt eine 3,5 würfle ( 1 6 ·1+ 1 6 ·2+ 1 6 ·3 + 1 +4· 1 +5· 1 + 1 ·6). 6 6 6 6
Unterstellen wir ein Spiel, dass zehn Ereignisse hat. Mit der Wahrscheinlichkeit von 0,1 erwarte ich einen Nettogewinn von 1000 €. Die anderen neun Ereignisse mit einer Wahrscheinlichkeit von jeweils ebenfalls 0,1 lassen einen Verlust von je 100 € erwarten. Dann ist der Erwartungswert dieses Spiels 10 € (nämlich 0,1·1000 € - 9·0,1·100 €). Kann ich das Spiel beliebig oft spielen, so werde ich langfristig mit Sicherheit gewinnen. Ist jedoch nur ein Spiel erlaubt, dann werde ich mir sehr genau überlegen, ob ich mit meinem ganzen Vermögen spiele, denn mit einer Wahrscheinlichkeit von neunzig Prozent der Fälle werde ich verlieren. Durch die Annahme objektiver Wahrscheinlichkeiten existiert, anknüpfend an den Sprachgebrauch von Frank Knight, nur Risiko, aber keine Unsicherheit (vgl. Knight 1921). Risiko kann über objektive Wahrscheinlichkeiten von Wirtschaftssubjekten in Sicherheit überführt werden. Beispielsweise arbei-
Keynesianische Makroökonomie
351
ten Lebens- und Feuerversicherungen mit objektiver Wahrscheinlichkeit und können damit das Risiko des Todes bzw. Feuers bei normalen gesellschaftlichen Umständen versichern. Existiert keine Unsicherheit, sondern nur Risiko, dann funktioniert die Ökonomie im Prinzip so, als ob die Zukunft bekannt wäre. Auch die stochastische Welt objektiver Wahrscheinlichkeiten bleibt im Kern deterministisch. Wie weitreichend die Annahme rationaler Erwartungen ist, zeigt sich anschaulich, wenn theoretisch unterstellt wird, dass es nur ein zukünftiges Ereignis gibt. In diesem Fall wäre beim Ansatz objektiver Wahrscheinlichkeit das Ereignis mit hundertprozentiger Sicherheit bekannt. Bei vielen Ereignissen ist zwar nur der Erwartungswert zukünftiger Ereignisse errechenbar, denn das Einzelereignis ist stochastisch bedingt. Aber die Nichtkenntnis des Einzelereignissen ist unwichtig, da sich bei vielen „Spielen“ der Erwartungswert mit Sicherheit ergibt. Bei der praktischen Umsetzung des Ansatzes rationaler Erwartungen gibt es das unüberbrückbare Problem, dass zukünftige Ereignisse nicht gemessen werden können, da sie nicht existieren. Wie kann man das Problem lösen? Man schaut nicht in die Zukunft, man blickt in die Vergangenheit und misst die Ereignisse der Vergangenheit. Denn mit vergangenen Daten kann man Ausfallrisiken von Krediten, Korrelationen zwischen ökonomischen Variablen, Varianzen und was die Statistik so hergibt wunderbar messen. Dann wird unterstellt, dass die Ergebnisse der Vergangenheit auch in der Zukunft gelten. Die Rechtfertigung für dieses Vorgehen liegt in der Annahme einer ergodischen Welt, also eine Welt bei der die Zukunft identisch ist mit der Vergangenheit und die Vergangenheit mit der Zukunft.116 Kurz: Die Neoklassik (ver)formt das soziale Gebilde „Ökonomie“ somit in ein physikalisches Gebilde nach dem Muster der Newtonschen Mechanik ohne historische Zeit (vgl. Brodbeck 2000). Auch in der keynesianischen Theorie handeln Wirtschaftssubjekte rational. Die Erfassung der Welt über Risiko auf Basis objektiver Wahrscheinlichkeiten ist vom Standpunkt der keynesianischen Theorie allerdings keine akzeptable Abstraktion von Verhalten, da durch dieses Verfahren von einem zentralen Charakteristikum von Geldwirtschaften und Gesellschaften überhaupt abgesehen wird, nämlich der Unwissenheit vieler Dimensionen der Zukunft. Der Unterschied zwischen Risiko und Unsicherheit kann bei Versicherungen beobachtet werden. So werden Feuer- und Lebensversicherungen dank der Berechnung objektiver Wahrscheinlichkeiten die üblichen Schadensfälle abdecken können. Dagegen verweigern sie einen Versicherungsschutz, wenn aufgrund der Unbestimmtheit der Veränderungen des Umweltzustandes objektive Wahrscheinlichkeiten keine Anwendung finden können; dies ist beispielsweise bei Kriegen der Fall. Unfälle von Atomkraftwerken werden nicht versichert, weil es nicht gelingt eine objektive Wahrscheinlichkeit eines Super-Gaus auszurechnen, der dann versichert werden könnte. Bei historischer Zeit können Wirtschaftsubjekte allenfalls subjektive Wahrscheinlichkeiten haben. Sie konstruieren sich in diesem Fall in ihrem Kopf eine subjektive stochastische Welt. Selbstredend wird sich dann grundsätzlich jedes Subjekt seine eigene Welt zimmern. Das Konzept subjektiver Erwartungen führt dazu, dass Wirtschaftssubjekte wissen, dass sie selbst bei der sorgfältigsten Erwartungsbildung die Zukunft falsch prognostizieren können – weil z. B. ein Ereignis eintritt, das unbekannt war und nicht berücksichtigt werden konnte und das den Weltzustand radikal verändert. Machen wir uns das Argument wiederum an einem Würfel klar. Handelt es sich nun nicht mehr um einen gewöhnlichen Würfel, sondern um einen, der eine unbekannte und sich im Zeitablauf ändernde Zahl von Oberflächen hat, so sind zukünftige Umweltzustände und die Zahl der möglichen Einzelereignisse unbekannt.117 Für einen Würfel mag das Beispiel mystisch erscheinen, Gesellschaften freilich können sich in dieser Logik entwickeln, da sie sich entlang der historischen Zeitachse von einem Umweltzustand in einen anderen bewegen und selbst heftigste Brüche in der Entwicklung nicht ausgeschlossen werden können. Le116
Vgl. zum Argument einer ergodischen Welt Davidson (1991). Die Unsicherheit der Zukunft führt bei subjektiven Erwartungen zur Einführung von Restwahrscheinlichkeiten. Da Wirtschaftssubjekte wissen, dass sie nicht alle Umweltzustände kennen, können sie für den subjektiv geschätzten Bereich der Unwissenheit einen bestimmten Anteil der Wahrscheinlichkeiten reservieren. Die Summe der Wahrscheinlichkeit aller bekannten Ereignisse addiert sich dann nicht mehr auf eins, sondern beispielsweise auf 0,7. Die Erhöhung der Wahrscheinlichkeit des Eintritts eines Ereignisses muss dann nicht mehr – wie bei objektiven Wahrscheinlichkeiten – mit der Reduzierung der Wahrscheinlichkeiten der restlichen Ereignisse einhergehen (vgl. Davidson 1991).
117
352
Keynesianische Makroökonomie
onard Savage (1954), einer der Begründer der subjektiven Wahrscheinlichkeitstheorie, argumentierte dann auch, dass subjektive Wahrscheinlichkeiten gewöhnlich nur innerhalb eines Umweltzustandes gebildet werden (innerhalb einer „kleinen“ Welt), jedoch vom Universum zukünftiger Umweltzustande abgesehen wird. Bei Erwartungen auf der Basis von objektiven Wahrscheinlichkeiten ist es bei rationalem Verhalten der Wirtschaftssubjekte legitim, von identischen Erwartungen zumindest der Mehrheit der Wirtschaftssubjekte auszugehen. Deren subjektive Erwartungen sind dann identisch mit den objektiven Erwartungen. Da einem Universitätsprofessor die gleichen geistigen Kapazitäten zugesprochen werden müssen wie einem Würstchenverkäufer in Berlin Mitte, müssen bei objektiven Erwartungen grundsätzlich beide zum gleichen Ergebnis kommen. Die Theorie rationaler Erwartungen räumt ein, dass sich Einzelne, aus welchen Gründen auch immer, täuschen können. Jedoch gleichen sich die Fehler aus oder Arbitrageprozesse eliminieren den Einfluss einzelner falscher Erwartungen. Als Kernpunkt des Arguments bleibt, dass das durchschnittliche oder repräsentative Wirtschaftssubjekt die Zukunft richtig auf Basis objektiver Erwartungen antizipiert. Bei subjektiven Erwartungen gibt es keine solche Vereinheitlichungstendenz, da unterschiedliche Wirtschaftssubjekte gleiche Informationen unterschiedlich bewerten. So wenig es eine gesellschaftliche Nutzenfunktion geben kann, so wenig sind dann gesellschaftlich einheitliche Erwartungen denkbar. Zwar mag es in einer spezifischen historischen Situation eine allgemeine Stimmungslage geben, jedoch gilt diese niemals für alle Wirtschaftssubjekte. Bei Stimmungsumbrüchen – etwa in Krisensituationen – können sich dann auch gänzlich unterschiedliche Stimmungslagen bei großen Gruppen von Wirtschaftssubjekten ergeben. Keynes stand sogar der Erfassung der Zukunft über subjektive Wahrscheinlichkeiten skeptisch gegenüber. Denn er glaubte, dass gerade bei wichtigen zukunftsorientierten Entscheidungen der Informationsstand zu gering ist, um eine relevante Anzahl zukünftiger Ereignisse zu kennen und diesen eine subjektive Wahrscheinlichkeit zuordnen zu können. In vielen Bereichen herrscht schlicht Unwissenheit. Bei Unwissenheit werden Stimmungslagen der Wirtschaftssubjekte relevant – spontaner Tatendrang und Verzagtheit werden zu relevanten Größen. Keynes sprach in diesem Zusammenhang von „animal spirits“ (Lebensgeistern), die speziell bei Investitionsentscheidungen ins Spiel kommen sowie von einem gesellschaftlichen Zustand des Vertrauens und Konventionen (vgl. Keynes 1936, Kap. 12 und Keynes 1937). Wichtig werden somit Verhaltensweisen, die von einer spezifischen Situation abhängen und gesellschaftlich und kulturell bedingt sind. In Tabelle 4.2.1 werden die verschiedenen Erwartungsansätze zusammengefasst.
Keynesianische Makroökonomie
353
Tabelle 4.2.1: Die Erfassung der Zukunft
Alle zukünftigen Ereignisse stehen subjektiv fest Allen zukünftigen Ereignissen werden subjektive Wahrscheinlichkeiten zugeordnet Implizit muss eine „kleine Welt“ unterstellt werden mit gegebenem Umweltzustand
Nicht alle zukünftigen Ereignisse sind bekannt Selbst bekannten zukünftigen Ereignissen können keine Wahrscheinlichkeiten zugeordnet werden
Voraussetzungen
Unwissenheit / Keynes
Alle zukünftigen Ereignisse stehen objektiv fest Jedem Ereignis kann eine eindeutige Wahrscheinlichkeit zugeordnet werden Alle zukünftigen Ereignisse werden von Wirtschaftssubjekten erkannt und bewertet, beim durchschnittlichen Wirtschaftssubjekt sind die subjektiven Erwartungen mit den objektiven identisch Gesetz der großen Zahl
Erfassung der Welt
Subjektive Wahrscheinlichkeiten
Deterministische Welt Konstruierte Welt bzw. subjek- Unbekannte Welt bzw. bzw. die Zukunft ist im tiv konstruierte Zukunft Wahrscheinlichkeitsansatz stochastischen Sinne beist nicht anwendbar, wichkannt tig werden ein Zustand des Vertrauens, eine gesellschaftliche Übereinkunft, „animal spirits“ Relevant werden gesellschaftliche und soziale Normen, die Verhalten mitprägen; solche Verhaltensweisen schließen auch kulturelle Dimensionen ein; zudem werden sich Verhaltensweisen im historischen Zeitablauf verändern
Schlussfolgerungen
Objektive Wahrscheinlichkeiten / rationale Erwartungen
Die Masse der Wirtschaftssubjekte kommt zu gleichen Erwartungen, Fehler einzelner Wirtschaftssubjekte verschwinden Preise reflektieren immer Fundamentalfaktoren Erwartungen sind endogen und entsprechen der Gleichgewichtslösung des Modells Spekulation ist nicht möglich Es gibt nur Risiko
Wirtschaftssubjekte kommen zu unterschiedlichen Erwartungen Unsicherheit erfolgreiche Spekulation ist möglich Erwartungen sind exogen
Wirtschaftssubjekte kommen zu unterschiedlichen Erwartungen Unsicherheit erfolgreiche Spekulation ist möglich Erwartungen sind exogen
354
Keynesianische Makroökonomie
Dies führt uns zum nächsten Punkt. Es gibt zwei grundsätzliche Methoden, Erwartungen in ein ökonomisches Modell zu integrieren. Sie werden erstens exogen gesetzt, oder sie werden zweitens vom Modellbauer irgendwie modelliert. Frank Hahn sieht diesen Punkt in gewohnter Klarheit: „Man kann nun zwei Wege beschreiten. Der eine liegt darin, die Erwartungsbildung als exogen gegeben zu unterstellen, und das Augenmerk nur auf kurzfristige Gleichgewichte zu lenken. (...). Diesen Überlegungen zufolge schlittert die Wirtschaft von einem kurzfristigen Gleichgewicht zum nächsten und ein Gutteil dabei hängt von der ungeklärten Erwartungsbildung ab. Der andere Weg besteht im Herbeiflehen von [neoklassischen] rationalen Erwartungen. (...) Ein Gleichgewicht bei rationalen Erwartungen ist dann erreicht, wenn die im Lichte ihrer rationalen Erwartung getroffenen optimalen Entscheidungen der Wirtschaftssubjekte zur Räumung der Märkte in allen Perioden führt“. (Hahn 1984, S. 166 f. ) Sind nur subjektive Erwartungen möglich oder herrscht Unwissenheit, dann ist es für einen Modellbauer ausgeschlossen, auf allgemeiner Ebene eine spezifische Erwartungshypothese zu bilden, die in jeder historischen Periode gilt. Dann muss offensichtlich der erste von Hahn beschriebene Weg beschritten werden, unter anderem mit der Konsequenz, dass langfristige Gleichgewichte, die sich über mehrere oder sogar viele Perioden erstrecken, nicht definiert werden können. Vielmehr schlittert die Wirtschaft von einem kurzfristigen Gleichgewicht zum nächsten entsprechend der Veränderung der Erwartungen. Erwartungen haben im keynesianischen Paradigma den Charakter von exogenen Setzungen, die nicht eng ökonomisch erklärt werden können. Dies schließt nicht aus, dass auf einer theoretisch weniger rigiden Ebene durch Plausibilitätserwägungen Aussagen über Erwartungsbildungen vorgenommen werden können. Solche Erwartungshypothesen können dann jedoch immer nur historischspezifischer Art sein. Dies verdeutlicht die keynesianische Auffassung, dass die Ökonomie immer in einen gesellschaftlichen Gesamtzusammenhang eingebettet bleibt. Erwartungen sind in der keynesianischen Theorie somit nicht allein durch das gesellschaftliche Teilsystem „Ökonomie“ bestimmt, sondern auch durch politische, sozioökonomische, kulturelle und institutionelle Faktoren. Sollen Erwartungen endogenisiert werden, also von einem ökonomischen Modell erklärt werden, dann gibt es nur eine Möglichkeit, Willkürlichkeiten bei der Erwartungshypothese zu vermeiden: Der Modellbauer muss dann – so „verrückt“ dies auf den ersten Blick erscheint – unterstellen, dass Wirtschaftssubjekte genau das erwarten, was das Modell aussagt. Eine solche Endogenisierung der Erwartungen wirft damit unter der Hand Erwartungen wieder aus dem Modell heraus, da die Erwartungen die Resultate des Modells nicht verändern. Bezogen auf das neoklassische Paradigma bedeutet dies, dass unterstellt wird, dass der Erwartungswert der wahrscheinlichkeitstheoretischen Überlegungen dem Gleichgewicht des Modells entspricht. Um den Erwartungswert bzw. das Gleichgewicht kann dann ein „weißes Rauschen“ in der Form eines stochastischen Prozesses gelegt werden, wobei das weiße Rauschen sekundär ist. Es ist selbstverständlich, dass Spekulationsgewinne bei einem solchen Modell unmöglich sind, da Preise immer ihren Fundamentalwerten entsprechen und sich bei fundamentalen Veränderungen sofort dem neuen Fundamentalgleichgewicht anpassen. Geht ein Modellbauer von der skizzierten Form der Erwartungsbildung ab, gerät er in den Sumpf der Willkürlichkeit, da sich nun nach Belieben eine unbegrenzte Zahl von Erwartungshypothesen entwickeln lässt, die subjektiv vom „Modellbauer“ konstruiert werden können. Es tauchen dann etwa folgende Fragen auf: Sollen Erwartungen von keynesianisch denkenden Wirtschaftssubjekten in ein neoklassisches Modell aufgenommen werden? Welche Glaubwürdigkeit findet ein wirtschaftspolitisches Versprechen der Europäischen Zentralbank? Welche Rolle spielen spezifische Vorlieben amerikanischer Präsidenten bei der Wechselkursentwicklung des US-Dollars? Methodisch nicht zufriedenstellend sind auch adaptive Erwartungen. Bei diesen wird aus vergangenen Entwicklungen blind auf zukünftige geschlossen. So werden zum Beispiel der in der Vergangenheit beobachtbare Wachstumspfad der Nachfrage oder die Preisniveauentwicklung in die Zukunft verlängert. Ein Erwartungsmodell kann nicht überzeugen, das den Blick in die Vergangenheit richtet. Wirtschaftssubjekte werden bei der Erwartungsbildung immer auch in die Zukunft blicken und kaum annehmen, dass sich vergangene Trends automatisch immer in die Zukunft fortsetzen. Zudem bleibt offen, wie viele vergangene Perioden für die Erwartungsbildung herangezogen und wie diese gewichtet werden sollen. Davon hängt jedoch die erwartete zukünftige Entwicklung ab. Bei rationalen
Keynesianische Makroökonomie
355
jedoch die erwartete zukünftige Entwicklung ab. Bei rationalen Erwartungen werden zwar vergangene Werte zur Errechnung des „weißen Rauschens“ herangezogen, aber die Erwartungen (die Erwartungswerte) werden letztlich modelltheoretisch bestimmt. Neuklassik und Keynesianismus sind dann auch scharfe Kritiker des Ansatzes adaptiver Erwartungen. Die Neuklassik beschritt dabei ohne Zweifel einen methodisch „sauberen“ Weg, allerdings einen, der aus unserer Perspektive der falsche ist. Der zweite „saubere“ Weg hat Keynes mit der Exogenisierung der Erwartungen bestritten. Geld und Geldfunktionen Was ist Geld? In entwickelten kapitalistischen Gesellschaften ist Geld zunächst nichts anderes als von der Zentralbank des entsprechenden Landes bereitgestelltes gedrucktes Papier (einschließlich Münzen), wobei die Zentralbank die Monopolstellung bei der Schaffung von Zentralbankgeld hat. Zentralbankgeld wird als gesetzliches Zahlungsmittel definiert und ist damit Staatsgeld. Georg Friedrich Knapp (1905) hat korrekterweise betont, dass modernes Geld ein Geschöpf der Rechtsordnung ist und keinen Substanzwert hat. Es ist ein Symbol abstrakt gesellschaftlichen Reichtums, das staatlich geschaffen wird. Historisch, etwa unter dem Goldstandard vor dem Ersten Weltkrieg, stand hinter den Banknoten ein Goldbestand bei der Zentralbank und Noten konnten gegebenenfalls in Gold umgetauscht werden. Hinter dem modernen Geld steht nichts außer dem Vertrauen, dass die Zentralbank den Wert ihres ausgegebenen Geldes in der Zukunft erhalten kann. Joseph Schumpeter (1926) hat dann auch betont, dass Geld in modernen Geldwirtschaften aus dem Nichts geschaffen wird. Geldschöpfung verursacht (sieht man von den Druckkosten der Banknoten und den Prägekosten der Münzen ab) keine Kosten, so dass von irgendwelchen Produktionskosten keine Begrenzung der Geldschöpfung zu erwarten ist. Die Analyse des Geldes hat viele große Ökonomen beschäftigt. Karl Marx hat das Geld so bezeichnet: „Es ist als ob neben und außer Löwen, Tigern, Hasen und allen andern, wirklichen Tieren, die gruppiert die verschiednen Geschlechter, Arten, Unterarten, Familien u. s. w. des Tierreichs bilden, auch noch das Tier existierte, die individuelle Inkarnation des ganzen Tierreichs“. (Marx 1983, S. 37) In der Tat ist es so, dass gesellschaftlicher Reichtum in vielfältigen stofflichen Formen existiert, in Häusern, Autos, Kühlschränken oder Goldketten. Aber es gibt eben auch die Inkarnation des gesellschaftlichen Reichtums an sich, eben Geld. Es kann in jede Ware umgetaucht werden, während dies für konkreten Reichtum gerade nicht gilt. Das Halten von Geld beschert seinem Halter somit außerordentliche Vorteile. Keynes fasst diese Vorteile so: „Warum sollte jemand außerhalb eines Irrenhauses den Wunsch haben, Geld als Wertaufbewahrungsmittel zu halten? Unser Wunsch nach Geld als Wertaufbewahrungsmittel ist ein Barometer für den Grad unseres Mistrauens in unsere eigenen Berechnungen und Gepflogenheiten bezüglich der Zukunft. (…) Der Besitz von tatsächlichem Geld zerstreut unsere Unruhe; und die Prämie, welche wir verlangen, um uns vom Geld zu trennen, ist ein Maßstab für den Grad unserer Unruhe“ (Keynes 1937, S. 216.118 Geldhaltung bildet somit Schutz vor Unsicherheit. Wirtschaftssubjekte sind in kapitalistischen Ökonomien permanenten Unsicherheiten ausgesetzt (Arbeiter können arbeitslos werden, Unternehmen können in Zahlungsprobleme kommen oder zusammenbrechen, Schuldner zahlen nicht zurück etc.), so dass das Halten von Geld rational ist. Für den Keynesianismus hängt somit Unsicherheit und Geld unmittelbar zusammen, da Geldhaltung ein individuelles Schutzinstrument gegen Unsicherheit ist. „Geld ist geprägte Freiheit“' – wie es Fjodor Dostojewski ausdrückte.119 Allerdings wird die Disposition über Geld zu einem eigenständigen Faktor zur Erzeugung von gesellschaftlicher Unsicherheit. Wollen plötzlich alle in einer Panik Geld halten, dann wollen alle Waren verkaufen, aber keine kaufen. Die Nachfrage nach Gütern und Arbeit sinkt und die Panik kann sich verschärfen. Keynes spricht in dem obigen Zitat von einer Prämie, die von Haltern von Geld erlangt wird. Er nennt diese Liquiditätsprämie, die den subjektiven nichtpekuniären Vorteil der Geldhaltung in einem Prozentsatz ausdrückt. Geldhaltung wird also nur dann aufgegeben, wenn der Zinssatz oder die 118 119
Übersetzung durch die Autoren. Fjodor Dostojewski, Aufzeichnungen aus einem Totenhaus.
356
Keynesianische Makroökonomie
Verwertungsrate beim Kauf einer Aktie oder andere Vermögenswerte über der Liquiditätsprämie liegen. Geld muss von Wirtschaftssubjekten akzeptiert werden; anderenfalls kann es nicht als Geld fungieren. Die Akzeptanz des Geldes hängt, wie oben schon betont, in erster Linie von der Erwartung ab, dass es seinen Wert erhält. Der Staat kann somit in letzter Instanz nicht gesetzlich bestimmen, welches Medium als Geld fungiert, da die Wirtschaftsubjekte im Zweifelsfall die Annahme eines diskreditierten Geldes verweigern. Verliert staatliches Geld seine Stabilität, dann geht dessen Akzeptanz verloren und ausländische Gelder oder andere Medien übernehmen Geldfunktionen. Dies zeigt sich deutlich an den „Doppelwährungen“ in zahlreichen unterentwickelten Geldwirtschaften, in denen die einheimische Währung oftmals nur noch ein Schattendasein als Transaktionsmittel für den Kleinhandel und Zahlungsmittel für Steuerschulden führt. Dies impliziert, dass Zentralbanken, die ein umfassend funktionsfähiges Geld bereitstellen wollen, eine Geldpolitik verfolgen müssen, die die Akzeptanz ihres Geldes verteidigt. Wir wollen folgend die verschiedenen Funktionen von Geld etwas genauer analysieren (vgl. Abbildung 4.2.3). Geld muss in seiner Funktion als Wertstandard physisch nicht anwesend sein. Es ist in dieser Funktion jedoch notwendig, um Kreditverträge definieren, Preise der Waren ausdrücken und Vermögen – beispielsweise im unternehmerischen oder gesellschaftlichen Rechnungswesen – bewerten und vergleichen zu können. Insofern ist das Vorhandensein von Geld als Wertstandard analytisch den anderen Funktionen vorgelagert. Denn ohne Wertstandard sind Kaufverträge und vor allem Kreditverträge nicht definierbar. Es erleichtert in diesem Sinne nicht nur die Kalkulation und die Transaktionen, sondern ist deren Voraussetzung. Geld als Wertstandard ist grundsätzlich eine Nicht-Ware und wird der Güterwelt von außen vorgesetzt. Die Geldfunktion Wertstandard darf somit auch nicht mit dem Numéraire der walrasianischen Theorie verwechselt werden. Letzterer ist eine willkürlich ausgewählte Ware, die es ermöglicht, die Tauschverhältnisse innerhalb der Güterwelt möglichst einfach auszudrücken. Wenn Gold historisch Geldfunktionen übernahm, dann war dies nicht der Fall, weil Gold eine Ware, sondern weil es knapp war und es noch keine Zentralbanken gab, die rein gesellschaftlich bestimmte Wertstandards schaffen konnten. Abbildung 4.2.3: Die Geldfunktionen Geld als
Wertstandard für Kreditverträge Waren Vermögensrechnungen (in Bilanzen etc.)
Wertaufbewahrungsmittel für
Zahlungsmittel bei Kreditverträgen Kaufverträgen Verpflichtungen (wie Steuern etc.)
Vorsichtszwecke Hortungszwecke Spekulationszwecke Transaktionszwecke
Geld in seiner Funktion als Zahlungsmittel muss physisch auftauchen. Bei Kreditverträgen fungiert es beim Gläubiger bei der Auszahlung des Kredits als Kreditmittel und beim Schuldner beim Schuldendienst als Schuldentilgungsmittel. Bei Kaufverträgen dient Geld dem Käufer als Kaufmittel. Geld als Zahlungsmittel tilgt generell Verpflichtungen und zwar nicht nur zwischen privaten Wirtschaftssubjekten, sondern auch zwischen Bürger und Staat, wie beispielsweise Steuerschulden. Geld wird von Wirtschaftssubjekten als Wertaufbewahrungsmittel gehalten. Verschiedene Motive der Geldhaltung oder auch Geldnachfrage spielen eine Rolle.
Keynesianische Makroökonomie
357
Geld wird als Transaktionskasse gehalten, um über genügend Kaufkraft für die Durchführung der täglichen Transaktionen zu verfügen. Transaktionen umfassen dabei Gütertransaktionen, jedoch auch Transaktionen auf Finanzmärkten. Dieses Motiv der Geldhaltung beinhaltet keine größeren Geheimnisse. Geld wird als Vorsichtskasse gehalten, um der Gefahr von Illiquidität vorzubeugen. Es sind insbesondere Wirtschaftseinheiten wie Unternehmen oder Banken, die unregelmäßige Geldzu- und Abflüsse haben, die aus Vorsichtsgründen eine bestimmte Geldhaltung benötigen. Geld wird als Spekulationskasse gehalten, um bei günstigen Gelegenheiten Gewinnchancen auch wahrnehmen zu können. Geld wird als Hortungskasse gehalten, um Reichtum in sicherer Form von der Gegenwart in die Zukunft zu transferieren. Es dient der Reduzierung von Unsicherheit. Alle vier Kassen werden gemeinsam gehalten und können nur analytisch getrennt werden. Verschiedene Medien (bedrucktes Papier, Edelmetalle, Reiskörner etc.) haben historisch als Geld fungiert. Theoretisch können die verschiedenen Geldfunktionen auch zu einem gegebenen Zeitpunkt von verschiedenen Medien übernommen werden. So kann sich die Funktion des Geldes als Wertstandard für Kreditverträge von der Funktion des Geldes als Kreditmittel und Schuldentilgungsmittel trennen. Beispielsweise kann in Ländern, die Währungen mit geringer Akzeptanz haben, beobachtet werden, dass der Wertstandard eines Kredits der US-Dollar sein kann, während Kreditauszahlung und Rückzahlung in heimischer Währung erfolgt. Bei Auszahlung und Rückzahlung hängt die zu zahlende Summe in heimischer Währung dann vom jeweils geltenden Wechselkurs zwischen der heimischen Währung und dem US-Dollar ab. Faktisch gilt der US-Dollar im beschriebenen Fall als Mittel der Indexierung des Kreditvertrages. In stabilen Geldwirtschaften übernimmt ein Medium alle Geldfunktionen. Bei der Betrachtung der Motive der Geldnachfrage ist nicht zu erwarten, dass die Geldnachfrage stabil ist. Vergleichsweise stabil dürfte die Transaktionskasse für Waren und Dienstleistungen sein und in einem stabilen Verhältnis zum Volumen der Transaktionen stehen. Bei den Transaktionen auf Finanzmärkten sind Instabilitäten wahrscheinlich, dass es Phasen hoher und Phasen niedriger Transaktionen gibt. Insbesondere wenn die Spekulationskasse noch berücksichtigt wird, ist von einer instabilen Geldnachfrage auszugehen. Denn der Sinn einer Spekulationskasse ist es, diese zu nutzen und periodisch auf- oder abzubauen. Geld als Vorsichtskasse dürfte ebenfalls instabil sein, da entsprechend der ökonomischen Lage und der Erwartungen der Wirtschaftssubjekte eine größere oder geringere Vorsicht bei der Kassenhaltung geboten erscheint. Schließlich muss von einer hohen Instabilität der Nachfrage nach Hortungskasse ausgegangen werden, da in einer Situation hoher Unsicherheit die Kassenhaltung scharf in die Höhe schnellen kann. Insgesamt geht der Keynesianismus von einer instabilen realen und nominalen Geldnachfrage aus.120 Die potentiell hohe Instabilität der Geldnachfrage kommt in dem folgenden Keynes-Zitat zum Ausdruck: „Die Gewohnheit von Ruhe und Immobilität, von Gewissheit und Sicherheit bricht plötzlich zusammen. Neue Ängste und Hoffnungen, ohne Warnung, bestimmen menschliches Verhalten. Die Kräfte der Ernüchterung können die allgemeinen Bewertungsmaßstäbe plötzlich verändern. All die hübschen und artigen Techniken, gemacht für einen schön getäfelten Sitzungsraum und einen gut regulierten Markt, neigen dazu zusammenzubrechen. Zu allen Zeiten sind die vagen panischen Ängste und die ebenfalls vagen und unbegründeten Hoffnungen nicht wirklich beschwichtigt und liegen nur ein wenig unter der Oberfläche“ (Keynes 1937, S. 215).121 Es sind genau diese Hoffnungen und Paniken, welche die Nachfrage nach Geld abbauen und in die Höhe schnellen lassen. Marx hat das potentiell plötzliche Hochschnellen der Nachfrage nach Geld mit ebenso kräftigen Worten beschrieben wie Keynes: „Eben noch erklärte der Bürger in prosperitätstrunkenem Aufklärungsdünkel das Geld für leeren 120 121
Dies war einer der Punkte, die Keynes (1936) betont hat. (Übersetzung durch die Autoren).
358
Keynesianische Makroökonomie
Wahn. Nur die Ware ist Geld. Nur das Geld ist Ware! gellt's jetzt über den Weltmarkt. Wie der Hirsch schreit nach frischem Wasser, so schreit seine Seele nach Geld, dem einzigen Reichtum (...) Die Geldhungersnot bleibt dieselbe, ob in Gold oder Kreditgeld, Banknoten etwa, zu zahlen ist“. (Marx 1973 Band I, S. 152) In der Tat hat Geld etwas Göttliches!122 In der Tat haben historische Forschungen ergeben, dass Geld nicht als Mittel zur Vereinfachung von Tausch entstand, sondern religiösen Ursprung hat. Opfergaben an den Tempel wurden zu Geld. Die Priester wurden später durch Staatsbeamte ersetzt, die nun ein „Opfer“ an den Staat verlangten und damit Staatsgeld schufen.123 Wenn wir das hier skizzierte Verständnis von Geld mit dem neoklassischen Verständnis (vgl. Kapitel 3.4) vergleichen, springen sofort zwei Unterschiede ins Auge. Erstens hat Geld im neoklassischen Paradigma nichts Göttliches. Es ist neutral und der Diener der Realsphäre. Die grundlegende Funktion des Geldes besteht darin, den Warentausch zu vereinfachen. Die Notwendigkeit des Geldes wird dann auch aus den Problemen des unmittelbaren Warenaustauschs abgeleitet. Die Funktionen des Geldes als Wertstandard für Waren, als Kaufmittel von Waren und als Transaktionskasse sind somit am Wichtigsten. In der walrasianischen Theorie, die den Kern des neoklassischen Paradigmas bildet, taucht dann Geld konsequenterweise überhaupt nicht auf. Zweitens, die Geldhaltung ist in der Neoklassik auf den Gütermarkt bezogen. Deutlich wird dies an dem Postulat einer stabilen Nachfrage der Wirtschaftssubjekte nach realer Kasse, das allen Varianten der Quantitätstheorie des Geldes unterliegt. Ein Teil der Geldfunktionen kann von anderen Vermögensformen wahrgenommen werden. So können an die Stelle der Haltung von Banknoten und Münzen kurzfristige Bankeinlagen treten. In der Tat wird Geld in seiner Funktion als Zahlungsmittel und als Wertaufbewahrungsmittel in stabilen Geldwirtschaften hauptsächlich von Bankeinlagen übernommen. Dies führt uns zum Begriff der Liquidität. Liquidität kann als sofort oder schnell mobilisierbare Verfügungsmacht über abstrakten gesellschaftlichen Reichtum definiert werden, mit dem bei Bedarf beliebige konkrete Güter und Produktionsfaktoren angeeignet oder Schulden beglichen werden können. Unterschiedliche Vermögensarten weisen unterschiedliche Liquiditätsgrade auf. Zentralbankgeld besitzt offensichtlich die höchste Liquidität, da sich mit ihm jederzeit konkreter Reichtum aneignen lässt und Schulden beglichen werden können. Ein Grundstück hat im Vergleich dazu einen geringeren Liquiditätsgrad, da seine Umwandlung in Vermögen mit hoher Liquidität Zeit beansprucht. Selbst eine gebrauchte Maschine, die noch verkäuflich ist, bindet Liquidität, die freigesetzt wird, wenn man die Maschinen verkauft. Allerdings wird eine Termineinlage von drei Tagen einen höheren Liquiditätsgrad haben als die gebrauchte Maschine. Je unmittelbarer demnach die Verfügungsmacht über das allgemein anerkannte Zahlungsmittel ist, umso höher ist der Liquiditätsgrad des entsprechenden Vermögensobjektes. Von der Haltung von Zentralbankgeld, das den höchsten Liquiditätsgrad hat, bis zur Haltung von gebrauchten Maschinen, Häusern, Grundstücken etc. kann ein Kontinuum von Vermögensarten mit abnehmendem Liquiditätsgrad definiert werden. Versucht man deshalb Aggregate zu finden, die Geldfunktionen übernehmen, dann müssen spezifische Liquiditätsaggregate definiert werden, etwa M1, M2 oder M3. M3 als sehr breites Liquiditätsaggregat umfasst den Bargeldumlauf plus täglich fällige Einlagen plus Einlagen mit vereinbarter Laufzeit bis zu zwei Jahren und Einlagen mit vereinbarter Kündigungsfrist bis zu drei Monaten plus spezifische kurzfristige Wertpapiere (vgl. Kapitel 3.4.6). Es hat sich eingebürgert, Liquiditätsaggregate als Geldmengen oder gar Geldangebot zu bezeichnen. Eine solche Definition erscheint uns sehr unsauber und untauglich. Es ist analytisch klarer, nur Zentralbankgeld als Geld zu bezeichnen. Bankeinlagen, die Geldfunktionen übernehmen, können dann als Geldsubstitute angesehen werden, wobei keine endgültige und befriedigende Definition der möglichen Substitute erfolgen kann. Selbst ein Geldsystem ohne Bargeldhaltung der Haushalte und Unternehmen wäre vorstellbar. Dies würde allerdings unterstellen, dass Bankguthaben universell als Zahlungsmittel akzeptiert werden und die Bevölkerung an die Stabilität 122
Friedrich von Schiller schrieb in seinem Gedicht An die Freunde (1802): „Und es herrscht der Erde Gott, das Geld.“ Auch Wolfgang von Goethe sah im Geld einen Gott. 123
Vgl. dazu Bernhard Laum (1924) in seinem Buch „Heiliges Geld“.
Keynesianische Makroökonomie
359
der Banken glaubt. Auf keinen Fall kann Geld als Wertstandard ersetzt werden, denn dann könnten keine Bankeinlagen und generell keine Kreditverhältnisse definiert werden, was die Bedeutung des Geldes als Wertstandard für jedes Geldsystem unterstreicht. Wechselt der Wertstandard, dann wechselt das Geldsystem – etwa von der D-Mark zum Euro. Es gibt noch einen weiteren Unterschied zwischen Geld und Liquidität. Geld fungiert als gesetzliches Zahlungsmittel, das von Verkäufern, Gläubigern, dem Staat etc. als Mittel der Erfüllung einer Zahlungsverpflichtung akzeptiert werden muss. Ein Scheck z. B. muss dagegen nicht angenommen werden. Dies ist deshalb plausibel, weil ein Scheck unter Umständen nicht gedeckt ist oder die bezogene Bank zahlungsunfähig sein kann. Selbst gegenüber Sichtdepositen hat Geld eine höhere Qualität, da Sichtdepositen beim Zusammenbruch einer Bank entwertet werden können. Historisch kam es immer wieder zu so genannten Bank Runs, also Anstürmen auf Banken, um Depositen in Zentralbankgeld umzutauschen. Wenn oben von einer instabilen Nachfrage nach Geld gesprochen wurde, so stellt sich dies bei Berücksichtigung von Liquiditätsaggregaten so dar, dass Wirtschaftssubjekte entsprechend des Niveaus der Unsicherheit und ihrer Erwartungen von langfristigen Anlagen wie Aktien oder langfristigen Krediten in kurzfristige Liquidität (Bankeinlagen) springen und zurück. Es ist dann in entwickelten Geldwirtschaften die schwankende Nachfrage nach Liquidität, die relevant ist. Kernpunkte Im keynesianischen Paradigma ist Unsicherheit eine wichtige Kategorie. Unsicherheit bedeutet, dass es keine Möglichkeit gibt über Wahrscheinlichkeitsbetrachtungen die Zukunft zu erfassen. Erwartungen werden dadurch für ökonomische Modelle exogen. Wirtschaftssubjekte können auch subjektive Erwartungen konstruieren, die nicht auf objektiven Erwartungen basieren. In diesem Fall wird jedes Wirtschaftssubjekt andere subjektive Erwartungen haben, wobei die Erwartungen für ökonomische Modelle ebenfalls exogenisiert werden müssen. Die neoklassische Theorie rationaler Erwartungen geht davon aus, dass die Zukunft mit objektiver Wahrscheinlichkeit erfasst werden kann, wobei der Erwartungswert der Gleichgewichtslösung des Modells entspricht. Das durchschnittliche Wirtschaftssubjekt hat subjektive Erwartungen, die mit den objektiven identisch sind. Damit haben Erwartungen keinen Einfluss auf die Gleichgewichtslösung des Modells. Rationale Erwartungen sind aufgrund ihrer extremen Annahmen, die das Problem der Erwartungen wegdefinieren, zu verwerfen. Bei der Erfassung der Zukunft mit objektiven Erwartungen gibt es Risiko, aber keine Unsicherheit. Für ökonomische Modelle stellt Risiko letztlich nur unwichtiges „weißes Rauschen“ dar. Im Keynesianismus wird Geldhaltung zu einem individuellen Schutzinstrument gegen die Unsicherheiten kapitalistischer Ökonomien. Horten von Geld bzw. Liquidität wird damit rational. Geldfunktionen können von vielen anderen Vermögensarten übernommen werden, insbesondere von kurzfristigem Geldvermögen wie Bankeinlagen. Liquiditätsaggregate wie M3 versuchen diesen Effekt quantitativ zu erfassen. Die Funktion des Geldes als Wertstandard kann nicht substituiert werden. Die reale und nominale Geldnachfrage muss als instabil angesehen werden.
360
Keynesianische Makroökonomie
4.3 Der Vermögensmarkt 4.3.1 Die Struktur des Vermögensmarktes Der Analyse des Vermögensmarktes kommt im keynesianischen Paradigma eine besondere Bedeutung zu, da der Vermögensmarkt in der Hierarchie der Märkte an oberster Stelle steht. Im Zentrum der Analyse steht die Bestimmung des Kreditangebots und der Kreditnachfrage. Beim Kreditangebot stehen das Bankensystem einschließlich der Zentralbank und die Vermögenshaushalte im Zentrum. Bei der Kreditnachfrage steht die Nachfrage des Unternehmenssektors nach Produktivkapital im Mittelpunkt. Von öffentlichen Haushalten und dem Ausland wird zunächst abgesehen. Über die Analyse des Kreditmarktes ergibt sich das volkswirtschaftliche Investitionsvolumen, das als wichtigstes Scharnier zwischen dem Vermögens- und Gütermarkt fungiert. Bei der folgenden Analyse des Vermögensmarktes wird – wie dies in jedem makroökonomischen Modell üblich ist – von Differenzierungen abgesehen, die den Kern der Argumentation nicht verändern. Um die Analyse des Vermögensmarktes nicht zu überfordern, wird in diesem Kapitel Preisniveaustabilität unterstellt. Zwar können Preisniveauänderungen bzw. Erwartungen über das zukünftige Preisniveau potenziell zu erheblichen Umstrukturierungen von Vermögen führen, jedoch sollen diese Effekte im Rahmen der Inflationstheorie behandelt werden (vgl. Kapitel 4.5). Auf dem Vermögensmarkt wird über Bestände disponiert. Als Vermögensbestände gelten Geld, Forderungstitel, Produktiv- und Sachkapital. Bestandsänderungen wie periodische Investitionen oder Ersparnisse sind dabei im Vergleich zu schon existierenden Vermögensbeständen quantitativ relativ klein, verändern jedoch die Bestände. Als private Wirtschaftseinheiten agieren auf dem Vermögensmarkt Geschäftsbanken – kurz Banken genannt – private Haushalte und Unternehmen. Es handelt sich dabei – wie immer – um eine funktionale Bestimmung der verschiedenen Agenten, die im Vergleich zu realen Personen – die z. B. sowohl Unternehmer als auch Haushalt sein können – immer nur genau spezifizierte Funktionen übernehmen. Zur Vereinfachung unterstellen wir, dass Unternehmen nur Produktivvermögen halten. Die privaten Haushalte überlegen sich, in welcher Form sie ihr Reinvermögen anlegen. Sie haben als Möglichkeiten Geld, Bankeinlagen, Sachvermögen und Aktien. Die Banken leihen sich Geld, um selbst Kredite vergeben zu können. Als staatliche Institution existiert die Zentralbank als Träger der Geldpolitik. Die Struktur des Vermögensmarktes lässt sich durch die Darstellung der nach funktionalen Kriterien radikal vereinfachten Bilanzen der hier handelnden Wirtschaftssubjekte bzw. Institutionen verdeutlichen (vgl. Abbildung 4.3.1). In der Bilanz der Zentralbank stehen auf der Aktivseite Forderungen an Banken. Auf der Passivseite steht die Zentralbankgeldmenge. Zentralbankgeld besteht aus Banknoten (und Münzen), die der Privatsektor hält, sowie aus Sichtdepositen der Banken bei der Zentralbank, die aus Sicht der Zentralbank Verbindlichkeiten darstellen. Depositen bei der Zentralbank sind für Banken von gleichem Wert wie Banknoten, da das Depositum bei der Zentralbank in Banknoten umgewandelt werden kann. Ein spezieller Fall sind gesetzliche Mindestreserven, welche die Banken bei der Zentralbank halten müssen. Unter Geld wird hier nur dasjenige verstanden, das die entsprechende nationale Zentralbank selbst schaffen kann – also die Zentralbankgeldmenge in Euro bei der Europäischen Zentralbank oder die Zentralbankgeldmenge in US-Dollar beim Federal Reserve System der USA. Ausländische Geldhaltung stellt für die inländische Zentralbank einen Teil ihrer Devisenreserven dar, die bei einem differenzierten Modell auf der Aktivseite der Bilanz der Zentralbank stehen.
Keynesianische Makroökonomie
361
Abbildung 4.3.1: Die Struktur des Vermögensmarktes Zentralbank • Forderungen an Banken
• Banknoten • Verbindlichkeiten gegenüber Geschäftsbanken Banken
• Forderungen an Unternehmen • Geld • Kurzfristige Einlagen bei der Zentralbank
• Verbindlichkeiten gegenüber der Zentralbank • Verbindlichkeiten gegenüber Haushalten • Eigenkapital
Unternehmen • Produktivkapital
• Verbindlichkeiten gegenüber Banken • Verbindlichkeiten gegenüber Haushalten • Eigenkapital
Haushalte • Eigentum an Unternehmen (Aktien) • Forderungen an Unternehmen • Depositenforderungen • Geld • Sachvermögen
• Reinvermögen
Es wird unterstellt, dass Zentralbankgeld ausschließlich über kurzfristige Kreditbeziehungen zwischen der Zentralbank und den Banken entsteht. Dies bedeutet, dass die Zentralbank nur Geld emittieren kann, wenn seitens der Banken eine Nachfrage danach besteht. Die Zentralbank ist somit eine Marktteilnehmerin am Vermögensmarkt und steht nicht außerhalb der Ökonomie. Steigt der Forderungsbestand der Zentralbank, so steigt auch die Zentralbankgeldmenge, da die Zentralbank Kredite in eigenem Geld gibt. Bei einer Bilanzverlängerung schöpft die Zentralbank somit Geld. Sinkt ihr Forderungsbestand, dann sinkt automatisch auch die Zentralbankgeldmenge. Wenn Geld nur durch Kreditbeziehungen entsteht, so muss der aggregierte Geldvermögensbestand einer Volkswirtschaft (ohne Berücksichtigung des Auslands) Null sein. Denn dem aggregierten Geldvermögen stehen zwingend gleich große Verbindlichkeiten gegenüber. Banken haben mit den Unternehmen gemein, dass sie sich verschulden müssen, um Vermögenswerte halten zu können. Allerdings sind Banken gleichzeitig Gläubiger und Schuldner, da sie kein Produktiv-
362
Keynesianische Makroökonomie
kapital halten, sondern das geliehene Geld ausleihen. Banken können sich einerseits über Depositen der Haushalte refinanzieren und andererseits über eine Kreditaufnahme bei der Zentralbank. Als Vermögenswerte tauchen auf der Aktivseite der Bankbilanzen insbesondere Forderungen an Unternehmen auf. Jedoch müssen Banken auch Zentralbankgeld als „Liquiditätsspeicher“ halten, da Banken mit Geldabflüssen an andere Banken und Barabhebungen rechnen müssen. Zentralbankgeld wird bei Banken in Form von Bargeld und als Einlage bei der Zentralbank gehalten. In vielen Ländern sind die Banken gezwungen, so genannte gesetzliche Mindestreserven (als Prozentsatz der Depositeneinlagen) zu halten und bei der Zentralbank zu hinterlegen. Das Eigenkapital der Banken hat in einem abstrakten Modell keine eigenständige Bedeutung und wird nur zur Vervollständigung der Bilanz angeführt, wenngleich das Vertrauen des Publikums in die jeweilige Bank vom Eigenkapital nicht unabhängig sein dürfte. Bei der Bankenregulierung wird die Eigenkapitalhaltung wichtig, aber dies ist nicht unser Thema hier. Wir unterstellen, dass die Kredite an die Unternehmen langfristig sind, während die Depositeneinlagen bei den Banken eine kurze Laufzeit haben. Banken betreiben somit Fristentransformation von kurzfristiger Refinanzierung zu langfristigen Krediten. Auch dieser Umstand zwingt sie zur Haltung von Zentralbankgeld. Beim Unternehmenssektor steht auf der Aktivseite der Bilanz das Produktivkapital, also der bewertete Bestand an Maschinen, Hämmern, Computern, Autos, Gebäuden etc. Auf der Passivseite lässt sich die Finanzierung des Produktivkapitals ablesen. Unternehmen finanzieren ihr Produktivvermögen über Eigenkapital und Fremdkapital. Verbindlichkeiten existieren dabei gegenüber den Banken und den Haushalten. In einfachen ökonomischen Modellen wird in der Regel von Eigenkapital der Unternehmen abgesehen. Diese Annahme stößt zuweilen auf Unverständnis, da in der Realität selbstverständlich geradezu alle Unternehmen Eigenkapital aufweisen. Dennoch ist diese Unterstellung bei vielen Analysen weit weniger tief greifend als es auf den ersten Blick erscheinen mag. Denn das Eigenkapital eines Unternehmens kann durchaus als Direktkredit des Eigentümerhaushalts an das eigene Unternehmen aufgefasst werden. Implizit wird somit oftmals unterstellt, dass Eigenkapital eine Verbindlichkeit des Unternehmens gegenüber dem Eigentümerhaushalt. Für andere Fragestellungen, beispielsweise die Stabilität der Ökonomie, spielt die Eigenkapitalausstattung eines Unternehmens dagegen eine entscheidende Rolle. Schließlich sollen aufgrund der funktionalen Aufteilung der ökonomischen Agenten auf dem Vermögensmarkt Unternehmen keine Forderungstitel und kein Geld halten. Dieser Teil der Vermögensdisposition bei real existierenden Unternehmen wird im Modell auf Haushalte übertragen, die an diesem Punkt für alle Nichtbanken stehen. Bei den Haushalten tauchen als Vermögensarten auf der Aktivseite der Bilanz Aktien (einschließlich andere Arten von Eigenkapital), Forderungen an Unternehmen, Depositen bei Banken, Sachvermögen und Geld auf. Aktien sind Eigentumsanteile an Unternehmen; Forderungen an Unternehmen nehmen oftmals die Form von Unternehmensobligationen an. Aktien und Obligationen werden auf Sekundärmärkten gehandelt. Forderungen an Unternehmen plus Depositen plus Geldhaltung bilden das Geldvermögen der Haushalte. Das Sachvermögen besteht aus den bewerteten Gegenständen wie Häusern, Grundstücken oder Edelmetallen, die die Haushalte halten. Langlebige Gebrauchsgüter der Haushalte wie Fernseher, Waschmaschinen oder Kühlschränke zählen normalerweise bei einer Vermögensmarktanalyse nicht zum Sachvermögen, da ihre Anschaffung und Nutzung nach anderen Kriterien erfolgt. Natürlich sind Situationen extremer Geldentwertung denkbar, die zu einer umfassenden Flucht in Sachwerte führen. Unter solchen Extrembedingungen ist nicht auszuschließen, dass ein Haushalt z. B. fünf Kühlschränke erwirbt, um sein Vermögen so gut es geht zu sichern. Entscheidend also ist, ob ein Kauf getätigt wird, um zu konsumieren oder um Vermögen zu sichern. Da Haushalte mit ihrem Bestand an Waren keine Produktionsprozesse durchführen, wird hier auch nicht von Produktivkapital gesprochen. Das Reinvermögen auf der Passivseite der Bilanz stellt die buchhalterische Gegenbuchung dieser Aktivposten dar. Der Haushaltssektor insgesamt weist keine Verschuldung auf. In der Realität sind bekanntlich einzelne Haushalte durchaus verschuldet. Werden allerdings für den Haushaltssektor insgesamt die Schulden und Forderungen saldiert, so ist er Nettogläubiger. Das entspricht seiner Position in der Ökonomie insgesamt. Aus diesem Grunde kann in einer einfachen makroökonomischen Analyse von Verschuldungen einzelner Haushalte zunächst abgesehen werden.
Keynesianische Makroökonomie
363
4.3.2 Das Kreditangebot Fragestellung Wie entsteht Geld und welche geldpolitischen Instrumente haben Zentralbanken? Steuert eine Zentralbank die Geldmenge oder den Zinssatz? Was sind die Kalküle einer Bank? Von welchen Faktoren hängt das volkswirtschaftliche Kreditangebot ab? In diesem Abschnitt geht es darum, das aggregierte Kreditangebot an den Unternehmenssektor zu bestimmen. Eine entscheidende Rolle auf dem Kreditmarkt spielt die Zentralbank. Deshalb werden wir uns zunächst mit ihr beschäftigen. Danach untersuchen wir das Verhalten der Banken und deren Interaktion mit der Zentralbank. Schließlich leiten wir das volkswirtschaftliche Kreditangebot ab. Die Zentralbank und ihre Instrumente Über den Geldmarkt124 können sich Banken Zentralbankgeld beschaffen. Der Geldmarkt ist der Kreditmarkt zwischen einzelnen Banken mit der Zentralbank als mächtigem Teilnehmer an diesem Markt. Er ist durch äußerst kurzfristige Kreditlaufzeiten charakterisiert. Banken mit einem Überschuss an Zentralbankgeld verleihen Geld an Banken, die Zentralbankgeld nachfragen. Die dominierende Marktteilnehmerin auf dem Geldmarkt ist die Zentralbank, die den Markt „flüssig“ hält und den Geldmarktzinssatz diktiert. In aller Regel interagiert eine Zentralbank nur mit Banken und nicht direkt mit Unternehmen und privaten Haushalten. Die Zentralbank stellt den Banken Zentralbankgeld zur Verfügung und die Banken versorgen das Publikum mit Zentralbankgeld.125 Dazu hat die Zentralbank verschiedene geldpolitische Instrumente. Zwar weisen unterschiedliche Zentralbanken im Detail unterschiedliche Instrumente auf, jedoch sind die Unterschiede für unsere Fragestellung sekundär.126 Wie stellen sich die Instrumente einer typischen Zentralbank in entwickelten Industrieländern dar? Als Einstieg in die Darstellung dient eine ausdifferenzierte Bilanz der Zentralbank (vgl. Abbildung 4.3.2). Die verschiedenen Entstehungskanäle von Zentralbankgeld sind auf der Aktivseite der Bilanz der Zentralbank ersichtlich.
124
Der Begriff „Geldmarkt“ hat noch eine andere Bedeutung. Er wird in vielen makroökonomischen Modellen auch als Ausdruck der Vermögenshaltung des Publikums benutzt. Das Publikum fragt dann eine bestimmte Geldmenge nach. Die Zentralbank stellt das Angebot zur Verfügung. 125 Die Zentralbanken können auch ausländische Devisen kaufen und damit direkt mit Personen auf Devisenmärkten in Kontakt treten. Auch sind in spezifischen Situationen direkte Kredite der Zentralbank an Unternehmen und die öffentlichen Haushalte denkbar. So hat die US-amerikanische Zentralbank während der Finanzkrise in den Jahren 2008-2010 auch Großunternehmen direkt unterstützt. Direkte Kredite der Zentralbank an öffentliche Haushalte sind in den westlichen Industriestaaten begrenzt oder verboten. 126 Vgl. zu den Instrumenten der Europäischen Zentralbank Heine/Herr (2008) sowie Bofinger/Reischle/Schächter (1997). Für einen Vergleich der verschiedenen Institutionalisierungen vgl. Bank for International Settlements (2001).
364
Keynesianische Makroökonomie
Abbildung 4.3.2: Bilanz der Zentralbank • Hauptfinanzierungsgeschäfte (Offenmarktpolitik) • Spitzenrefinanzierungsfazilität • Währungsreserven
• Banknoten • Einlagen der Banken o
Mindestreserven
o
Einlagenfazilität
Im Zentrum der Geldpolitik stehen Offenmarktgeschäfte. Der Name deutet die Geschichte dieses geldpolitischen Instruments an: Ursprünglich wurden so Käufe und Verkäufe von Wertpapieren an der Börse benannt. Zentralbanken wickeln Offenmarktgeschäfte nur mit Banken ab. Die Möglichkeit der einzelnen Bank, von der Zentralbank über Offenmarktgeschäfte Geld zu erlangen, hängt von ihrer Verfügbarkeit über Wertpapiere ab, die von der Zentralbank akzeptiert werden. Die Zentralbank kann durch die Spezifizierung refinanzierungsfähiger Vermögenswerte das maximale Refinanzierungsvolumen des Bankensystems steuern. Gewöhnliche Offenmarktgeschäfte haben für Zentralbanken den Nachteil, dass beim Kauf der Papiere – der Geldschöpfung – der Zeitpunkt der Geldvernichtung nicht festgelegt ist. Zwar kann die Zentralbank beim Kauf von Wertpapieren zu einem späteren Zeitpunkt die Papiere wieder verkaufen, jedoch ist der zukünftige Kurs der Papiere heute unbekannt und die Zentralbank ist beim Verkauf von den Kalkülen privater Käufer abhängig. Aus diesem Grunde sind Zentralbanken in allen entwickelten Geldwirtschaften zu so genannten Wertpapierpensionsgeschäften übergegangen. Bei diesen Geschäften kauft die Zentralbank bestimmte, zuvor festgelegte Wertpapiere von den Geschäftsbanken, wobei letztere sich verpflichten, die Wertpapiere nach einer festgesetzten Zeitperiode zu einem festgelegten Preis zurückzukaufen. Bei Wertpapierpensionsgeschäften koppelt die Zentralbank somit den Kauf von Papieren mit einem Termingeschäft, das die Bedingungen des zukünftigen Rückkaufs schon heute festlegt. Die Laufzeit dieser Papiere ist äußerst kurzfristig in der Regel deutlich unter einem Monat. Der so genannte Wertpapierpensionssatz ist der Zinssatz, den die Zentralbank für diese Geschäfte verlangt. Er errechnet sich aus der Differenz zwischen dem Kauf- und Verkaufspreis des Wertpapiers. Faktisch verbirg sich hinter der Offenmarktpolitik mit Rückkaufsvereinbarung ein Kredit, so dass Geld durch Kredite an Banken erschaffen wird. Grundsätzlich gibt es zwei Möglichkeiten der Abwicklung von Pensionsgeschäften. Im Falle eines Mengentenders nennt die Zentralbank den Zinssatz, zu dem sie ihr Geld zur Verfügung stellen möchte, und die Banken nennen die Beträge, die sie zu diesem Zinssatz gern hätten. Übersteigt die Nachfrage der Kreditinstitute den angestrebten Zuteilungsbetrag von Zentralbankgeld, so werden die Gebote der Geschäftsbanken anteilig bedient. Davon zu unterscheiden ist der Zinstender. Beim Zinstenderverfahren müssen die Geschäftsbanken nicht nur die gewünschte Geldmenge, sondern auch die Zinssätze nennen, zu denen sie bereit sind, das Geld aufzunehmen. Die Banken mit den höchsten Zinsgeboten werden bedient, wobei der Mindestzinssatz von der Zentralbank vorgegeben wird. Die Zentralbank kann den Geschäftsbanken das Geld zu einem einheitlichen Zinssatz zuteilen (holländisches Verfahren). Der Ankauf der Papiere erfolgt dann bei allen Banken zu dem niedrigsten Zinssatz, der mit der vorgesehenen Kaufmenge an Wertpapieren noch bedient werden. Oder die Zentralbank kann zunächst das höchste Zinsangebot mit dem entsprechenden Zinssatz bedienen, dann das zweithöchste usw., bis die erwünschte Zuteilungsgrenze erreicht ist (amerikanisches Verfahren). Die Masse der Geldschöpfung erfolgt üblicherweise über die beschriebenen Offenmarktgeschäfte mit Rückkaufsvereinbarung (deshalb auch Hauptrefinanzierungsgeschäfte genannt). Der Zinssatz für diese Geschäfte kann auch Leitzinssatz genannt werden, da dieser Zinssatz die generelle geldpolitische Richtung angibt. Bei diesen Geschäften, die in kurzen Zeitabständen (zumindest wöchentlich) durchgeführt
Keynesianische Makroökonomie
365
werden, gibt die Zentralbank die Menge vor. Allerdings versuchen die Zentralbanken die Liquiditätsbedürfnisse der Banken zu antizipieren und passen das Volumen der Offenmarktgeschäfte entsprechend an. Wichtig für das Verstehen der Geldpolitik ist des Weiteren ihr Angebot an die Banken, sich auch außerhalb der üblichen Verfahren an die Zentralbank wenden zu können, wenn Bedarf besteht. Bei der Spitzenrefinanzierungsfazilität können sich die Banken jederzeit kurzfristig Geld bei der Zentralbank besorgen. Für diese Form der Geldschöpfung gibt es keine quantitativen Höchstgrenzen, sofern die Banken hinreichende Sicherheiten in Form von Wertpapieren hinterlegen können. Dadurch garantieren Zentralbanken dem Finanzsektor eine stets ausreichende Geldversorgung. Allerdings sind diese Kredite teurer als die üblichen Zentralbankkredite. Der Spitzenrefinanzierungszinssatz begrenzt die Zinssätze auf dem Geldmarkt nach oben, weil auch bei Liquiditätsengpässen keine Bank, die refinanzierungsfähige Papiere hält, bereit ist, einem anderen Kreditinstitut höhere Zinssätze zu zahlen als den Zinssatz der Spitzenrefinanzierungsfazilität.127 Durch die Einlagenfazilität haben die Kreditinstitute die Möglichkeit, Guthaben bei der Zentralbank zu halten, wobei die Zentralbanken für das „Parken“ von Zentralbankgeld einen Einlagenzinssatz bezahlen. Sofern also eine Geschäftsbank am Abend überschüssige Liquidität hat, kann sie dieses Geld entweder anderen Geschäftsbanken leihen, die „knapp bei Kasse“ sind, oder es bei der Zentralbank über Nacht anlegen. Der Zinssatz für diese Einlagen liefert somit die untere Grenze für Zinsen auf dem Geldmarkt, da keine Bank, die Geld verleihen möchte, einen niedrigeren Zinssatz akzeptieren wird als jenen, den ihr die Zentralbank zahlt. Mit dem Zinssatz für Einlagenfazilitäten und dem für Spitzenrefinanzierungsfazilitäten schaffen Zentralbanken einen Zinskorridor, der die Zinsschwankungen auf dem Interbanken-Geldmarkt eng begrenzt.
Abbildung 4.3.3: Zinssätze auf dem Geldmarkt Zinssätze in Prozent Spitzenrefinanzierungszinssatz Geldmarktzinssatz Zinssatz für Hauptrefinanzierungsgeschäfte (Leitzinssatz) Einlagenzinssatz
Zeit
In der Abbildung 4.3.3 sind die verschiedenen Zinssätze auf dem Geldmarkt eingezeichnet. Der Geldmarktzinssatz ist zwar durch Angebot und Nachfrage auf dem Geldmarkt gegeben, jedoch hat die Zentralbank nahezu vollständige Kontrolle über den Geldmarktzinssatz. Denn sie setzt die in der Abbildung 127
Zentralbanken können die Geldmenge zusätzlich steuern, indem sie ausländische Währungen ankaufen und zu einem vereinbarten Termin wieder verkaufen. In diesem Fall spricht man von Devisenswapgeschäften. Die prozentuale Abweichung des Terminkurses vom Kassakurs wird als Swapsatz bezeichnet. Kauft die Zentralbank auf dem Devisenmarkt ausländische Währungen, dann erhöht sich die inländische Geldmenge, da die Zentralbank die Devisen mit ihrem Geld kauft. Sinken die Devisenbestände, sinkt die Zentralbankgeldmenge.
366
Keynesianische Makroökonomie
institutionell gegebenen drei Zinssätze. Damit können wir festhalten, dass die Zentralbank die Kontrolle über den Geldmarktzinssatz hat. Die Steuerung des Geldmarktzinssatzes ist dann auch das zentrale Instrument der Geldpolitik, das Zentralbanken zur Verfügung haben. Nicht alle Zentralbanken zahlen auf Einlagen einen Einlagenzins.128 Aber selbst ohne eine Einlagenfazilität kann eine Zentralbank ein Absinken des Zinssatzes auf dem Geldmarkt verhindern, denn sie ist aufgrund der sehr kurzen Fristigkeiten auf diesem Markt in der Lage, auch kurzfristig Zentralbankgeld zu vernichten. Dadurch sind die Geschäftsbanken schon nach kurzer Zeit gezwungen, zur Liquiditätsbeschaffung auf das verteuerte Zentralbankgeld zurückzugreifen. Hinzu kommt, dass die Banken ihre Verbindlichkeiten gegenüber der Zentralbank nur begleichen können, wenn die Zentralbank die Zentralbankgeldmenge mindestens um die Zinssumme erhöht. Denn beläuft sich ein Kredit der Zentralbank mit einer Laufzeit von zwei Wochen auf z. B. 12 Mrd. € und beträgt der Refinanzierungszinssatz 5%, so muss die Bank bereits nach zwei Wochen neben der Tilgung der 12 Mrd. € Zinsen in Höhe von 25 Mio. aufbringen. Das aber ist nur möglich, wenn die Zentralbank der Bank die nötigen Mittel in Zentralbankgeld leiht. Die Zentralbank kann die Banken somit an einer „engen Leine“ führen, da der Schuldendienst der Banken Geld vernichtet und die Zentralbank die Bedingungen setzt, die das Entstehen neuen Zentralbankgeldes steuern. Bei der Mindestreservepolitik, die in den dreißiger Jahren des letzten Jahrhunderts nach heftigen Bankkrisen in den meisten Ökonomien eingeführt wurde, werden Banken gezwungen, einen bestimmten Prozentsatz der Depositeneinlagen des Publikums bei der Zentralbank zu hinterlegen. Wird der Mindestreservesatz erhöht, dann wird die Liquidität des Bankensystems verringert. Banken werden dann – möglicherweise um den Mindestreservevorschriften zu entsprechen – verstärkt gezwungen, auf Offenmarktgeschäfte zurückzugreifen. Bei einer Senkung der Mindestreservesätze treten die umgekehrten Effekte auf. Die Mindestreserveverpflichtungen der Banken, die monatlich erfüllt werden müssen, hängen vom aktuellen Reservesatz und den Depositen des Vormonats ab. Wichtig ist, dass die Mindestreserven nur im Monatsdurchschnitt erfüllt sein müssen. Dies bedeutet, dass eine Bank bei Liquiditätsengpässen auf ihre Mindestreserven zurückgreifen kann. Aufgrund dieser Möglichkeit nutzen Banken vergleichsweise selten die Möglichkeiten der Spitzenrefinanzierungsfazilität, da die Nutzung der Mindestreserven für die Banken kostengünstiger ist. Fahren alle Geschäftsbanken ihre Mindestreserven in den ersten Wochen eines Monats unter das vorgeschriebene durchschnittliche Monatsmaß zurück, können sie sicher sein, dass die Zentralbank am Monatsende ausreichend Liquidität zur Verfügung stellt. Andernfalls könnten die Banken ihre Mindestreserveverpflichtungen nicht erfüllen. Eine solche Situation zu provozieren, macht für keine Zentralbank der Welt einen Sinn. 129 Die Zentralbank als Garant von Liquidität Die Macht der Zentralbank beruht darauf, dass Banken Zentralbankgeld nachfragen müssen, während die Zentralbank dank der Rechtsordnung das Monopol zur Schaffung von Zentralbankgeld besitzt. Die Nachfrage einer Ökonomie nach Zentralbankgeld speist sich aus zwei Quellen. Erstens sind Kreditinstitute in nahezu allen Währungsräumen verpflichtet, bei der Zentralbank gesetzliche Mindestreserven zu hinterlegen. Zweitens wollen Wirtschaftssubjekte – trotz Scheckkarten und elektronischem Geld – zuweilen bar bezahlen und aus welchen Gründen auch immer Bargeld halten. Dadurch müssen die Banken immer mit Barabhebungen rechnen, so dass sie Zentralbankgeld vorrätig haben müssen oder freiwillig Einlagen bei der Zentralbank halten, die dann sofort in Banknoten umtauschbar sind. Das Bankensystem hat somit eine beständige Nachfrage nach Zentralbankgeld und gleichzeitig einen beständigen Bedarf an Refinanzierung, denn ein Teil des von den Banken geliehenen Zentralbankgeldes 128
Beispielsweise zahlte die Deutsche Bundesbank vor der Schaffung des Euro keine Einlagenzinsen für Einlagen von den Banken. Die Bank of England hat beispielsweise keinerlei relevante gesetzlichen Mindestreserven. Sie muss aus diesem Grund täglich am Markt sein, da die Banken nicht über den Liquiditätspuffer der Mindestreserven verfügen.
129
Keynesianische Makroökonomie
367
ist beim Publikum und ein anderer in Mindestreserven gebunden. Da somit die Banken auf eine Refinanzierung bei der Zentralbank unter keinen Umständen verzichten können, kann die Zentralbank, wie oben schon betont, ihre Refinanzierungszinssätze grundsätzlich beliebig weit erhöhen, ohne dass sich die Geschäftsbanken letztlich dagegen wehren können. Das Monopol der Schöpfung von Zentralbankgeld bringt auch Verpflichtungen mit sich. Die Zentralbanken können den Banken niemals ihren Kredithahn zudrehen, ohne die Ökonomie gänzlich zu zerrütten. Geldwirtschaften, wie wir sie hier analysieren, benötigen zwingend Liquidität. Bei ungenügender Liquiditätsausstattung können Kreditverträge nicht erfüllt und Güter nicht erworben werden – eine Geldwirtschaft würde bei einem allgemeinen Liquiditätsmangel implodieren. Der Markt für Zentralbankgeld und damit für Liquidität ist der Geldmarkt. Da die Zentralbank das Monopol zur Schaffung von Zentralbankgeld hat, ist sie verpflichtet, die Banken und damit die Wirtschaft insgesamt, mit der benötigten Liquidität zu versorgen. Würde sie dieser Anforderung nicht nachkommen, so würde sie die Banken in Zahlungsprobleme bringen und zu einem massiven Störfaktor des Bankensystems und der Ökonomie insgesamt werden. Der konkrete Umfang der Liquiditätsbedürfnisse ergibt sich durch ökonomische Prozesse und ist damit endogener Natur. Es gibt somit Phasen, die eine höhere Liquiditätsversorgung der Banken erfordern als diese von der Zentralbank erwartet wurde, und es gibt Phasen, die mit einem geringeren Liquiditätsbedarf verbunden sind als er von der Zentralbank erwartet wurde. Zentralbanken müssen auf solche Entwicklungen flexibel reagieren und dem Markt die Liquidität zur Verfügung stellen, die er braucht. Die Deutsche Bundesbank, die in keiner Weise für eine laxe Geldpolitik stand, verdeutlichte diesen Punkt: „Die Bundesbank kann weder die Expansion der Geldmenge in beliebiger Weise unmittelbar beschränken, indem sie überschießende Nachfrage der Banken nach Zentralbankguthaben einfach unbefriedigt lässt, noch ist sie in der Lage, eine zu schwache Nachfrage nach Zentralbankgeld durch die Schaffung von Überschussguthaben der Kreditinstitute so nahtlos auszugleichen, dass die Geldmenge zu keinem Zeitpunkt hinter den gesteckten Zielen zurückbleibt“ (Bundesbank 1995, S. 92). Die Funktion einer Zentralbank als Garant für Liquidität zeigt sich besonders schlagend in krisenhaften Situationen: Geraten einzelne Schuldner in Zahlungsschwierigkeiten, so ziehen sie ihre Gläubiger vor allem dann ebenfalls in die Krise, wenn diese ihrerseits gegenüber Dritten Verbindlichkeiten bedienen müssen. Ein solches Reißen von Kreditketten führt bei einer Geldpolitik, die nicht ausreichend Liquidität zur Verfügung stellt, zu Liquiditätsengpässen in der Ökonomie und zu schweren Störungen. Liquiditätsengpässe können zwischen Unternehmen auftreten und über den „Dominoeffekt“ große Teile des Unternehmenssektors zusammenbrechen lassen. Auch das Bankensystem kann in eine solche Krise hineingezogen werden, wenn Unternehmen massenhaft ihrem Schuldendienst nicht nachkommen können. Auch kann der Geldmarkt zusammenbrechen, wenn sich die Banken gegenseitig nicht mehr trauen und keine Kredite mehr an andere Banken geben.130 Ist das Vertrauen der Einleger in die Zahlungsfähigkeit der Banken erschüttert, kommt es zu massenhaften Barabhebungen. Ohne Hilfe der Zentralbank führt ein solcher „Run“ unweigerlich zum Zusammenbruch des Bankensystems insgesamt. Besonders schwer sind Liquiditätskrisen, wenn der Unternehmens- und der Bankensektor betroffen sind, da sich dann die Krisen in beiden Sektoren gegenseitig verstärken. Liquiditätskrisen führen zu kumulativen Prozessen und zerstören die Kohärenz einer Geldwirtschaft. Sollen derartige Störungen der monetären Sphäre verhindert werden, so muss die Ökonomie immer mit ausreichender Liquidität versorgt werden. Die Zentralbank ist die einzige ökonomische Einheit, die (in inländischem Geld) nicht zahlungsunfähig werden und die beliebig Liquidität schaffen kann. Daher spricht man davon, dass Zentralbanken, wollen sie Ökonomien nicht massiv destabilisieren, die Funktion des Lender of Last Resort übernehmen müssen. Ihr „Diskontfenster“ muss, wie es heißt, für Banken immer geöffnet bleiben.131 Institutionalisiert ist das immer offene Diskontfenster in der Spitzenrefinanzierungsfazilität. 130
Dies ist beispielsweise in den westlichen Industrieländern im Jahre 2008 im Verlaufe der sogenannten Subprime-Krise mit ihren weltweiten Folgen aufgetreten. Besonders klar hob dies der britische Ökonom Nicholas Kaldor hervor: "But the Central Bank cannot close the 'discount window' without endangering the solvency of the banking system, they must maintain their function as a 'lender
131
368
Keynesianische Makroökonomie
Aufgrund des ökonomischen Zwangs der Zentralbank, den Geldmarkt „flüssig“ zu halten, ist es ihr nicht möglich, eine Politik der unmittelbaren Geldmengensteuerung durchzuführen. Das Volumen der Geldschöpfung wird ihr vielmehr durch die Liquiditätsbedürfnisse des Marktes diktiert. Nur indirekt kann eine Zentralbank über die Refinanzierung der Banken die Geldmenge zu steuern versuchen. Das bedeutet, dass die Zentralbank zwar die Refinanzierungskosten für die Banken festlegen kann, die Geldschöpfung selbst unterliegt jedoch nicht ihrer unmittelbaren Steuerungsmacht. Hören wir auch an diesem Punkte wieder die Bundesbank: „Vielmehr liegt es in der Natur des komplexen Geldschöpfungsprozesses, in dem die Notenbank, Kreditinstitute und Nichtbanken zusammenwirken, dass die Bundesbank nur durch entsprechende Gestaltung der Zinskonditionen ... mittelbar darauf einwirken kann, dass die Geldmenge sich in dem angestrebten Rahmen entwickelt“ (Bundesbank 1995, S. 92). Wir wollen im folgenden theoretischen Modell die verschiedenen geldpolitischen Instrumente zu einem Instrument zusammenfassen. Es wird unterstellt, dass es auf dem Geldmarkt nur einen Zinssatz gibt und dieser von der Zentralbank festgelegt wird. Die Geschäftsbanken entscheiden auf dieser Grundlage über die Höhe der Refinanzierung bei der Zentralbank und damit der Geldschöpfung. Diese Vereinfachung tut der Realität keinen Zwang an, sondern bringt die Zusammenhänge auf den Punkt. Die Geldschöpfung wird von der Zentralbank indirekt über ihren Refinanzierungszinssatz beeinflusst. Die Interaktion zwischen der Zentralbank und dem Privatsektor verläuft somit nicht so, dass die Zentralbank exogen eine Geldmenge festsetzt, die sie der Ökonomie zur Verfügung stellt. Die Zentralbank wirft nicht – um auf das Bild von Friedman zurückzukommen (vgl. Kapitel 3.4) – jährlich per Hubschrauber über ihrem Währungsgebiet eine exogen gesetzte Geldmenge ab, die dann von der Bevölkerung aufgesammelt und gehalten werden muss. Die Zentralbank setzt vielmehr den Refinanzierungszinssatz exogen fest, während die daraus resultierende Geldmenge endogen durch private Kalküle bestimmt wird. Zentralbanken können die Geldmenge nicht gegen den Willen der Marktteilnehmer erhöhen. Dies zeigt sich immer dann, wenn eine Zentralbank mit Hilfe niedriger Refinanzierungszinssätze die konjunkturelle Entwicklung unterstützen möchte, die Privatwirtschaft aber – aus welchen Gründen auch immer – dieses Angebot nicht annimmt. Sie kann bei Liquiditätsengpässen umgekehrt eine Refinanzierung der Banken nicht verweigern. Bei einer Panik auf den Finanzmärkten muss die Zentralbank soviel Liquidität in die Ökonomie pumpen wie nachgefragt wird. Damit wird deutlich, dass Geldpolitik in modernen Geldwirtschaften Zinspolitik ist und in welchem Umfang die Zentralbank Marktteilnehmerin ist und keine außerhalb von Märkten agierende Institution.132 Das Kreditangebot Das Ziel dieses Abschnittes ist es, ein möglichst einfaches Modell des Kreditangebots zu präsentieren, das dennoch die Kernzusammenhänge auf Finanzmärkten zum Ausdruck bringt. Banken sind Finanzintermediäre, die sich zum Zweck der eigenen Kreditvergabe verschulden. Wir unterstellen, dass sie sich kurzfristig refinanzieren und langfristige Kredite vergeben, also eine Fristentransformation betreiben. Zwischen dem Refinanzierungszinssatz und dem Verleihzinssatz einer Bank muss zwingend eine Zinsspanne existieren. Diese Differenz muss erstens die Kosten des Bankbetriebs (Gebäude, Löhne etc.) decken und eine Verwertung des in einer Bank eingesetzten Eigenkapitals erlauben. Zweitens, und dies ist für den hier interessierenden Zusammenhang wichtiger, ist in der Zinsspanne die Unsicherheitsprämie enthalten. Bei der Unsicherheitsprämie handelt es sich nicht um einen im historischen Zeitablauf stabilen prozentualen Aufschlag, sondern um eine zeitlich schwankende Rate, die von sub-
of last resort'" (Kaldor 1986, S. 259) Zur Funktion des Lender of Last Resort vgl. auch Bagehot (1920), der als Theoretiker und Mitverantwortlicher der englischen Geldpolitik schon 1873 in seinem Buch „Die Lombardenstraße“ die Notwendigkeit der Liquiditätsversorgung der Ökonomie durch die Zentralbank klar herausgearbeitet hat, sowie Solow (1982), Goodhart (1988) oder Tobin (1992). 132 Es gibt Geldsysteme, die den Zentralbanken stärkere Instrumente an die Hand geben. So wurde und wird in vielen asiatischen Ländern von der Zentralbank das Kreditvolumen der Banken gesteuert, beispielsweise durch Kreditobergrenzen für Banken.
Keynesianische Makroökonomie
369
jektiven Erwartungen über den Gesamtzustand der Ökonomie geprägt ist. Die Unsicherheitsprämie soll auch nicht individuelle Risikoaufschläge entsprechend der Qualität der Schuldner zum Ausdruck bringen, sondern eine Prämie, die aller Schuldner betrifft. Sie wird in Phasen starker Unsicherheit höher ausfallen als in Phasen stabiler wirtschaftlicher Entwicklung. Die Unsicherheitsprämie bringt zum Ausdruck, dass die Banken niemals gänzlich sicher sein können, dass geliehenes Geld auch zurückgezahlt wird und die Unsicherheit von der erwarteten konjunkturellen, politischen und sonstigen Lage abhängt. Wir können die Unsicherheitsprämie auch als den wichtigsten Faktor für die Differenz zwischen dem kurzfristigen und dem langfristigen Zinssatz interpretieren. Denn die Banken verschulden sich kurzfristig, um langfristige Kredite zu vergeben. Unter den genannten Bedingungen lässt sich das Kalkül einer Bank folgendermaßen abbilden: Bezeichnet iref den Refinanzierungszinssatz, den wir für alle Banken als gleich unterstellen, ub die Zinsspanne, die durch die Unsicherheitsprämie der Bank b determiniert wird, dann ergibt sich als Verleihzinssatz der b-ten Bank: ib = iref + ub Der Refinanzierungszinssatz wird durch die Zentralbank im Rahmen ihrer Geldpolitik fixiert. In Abbildung 4.3.4 ist der Zusammenhang dargestellt. Die Bank kann sich in Höhe des Zinssatzes iref refinanzieren. Wie unterstellen dabei, dass es bei der Refinanzierung keine quantitative Begrenzung gibt, da die Zentralbank den Refinanzierungszinssatz vorgibt und die Refinanzierungsmenge dem Markt überlässt. Bei gegebener Zinsspanne ergeben sich dann der Verleihzinssatz der Bank ib und die individuelle Kreditangebotsfunktion. Wir unterstellen somit, dass die Kreditangebotsfunktion der Bank (KAb) grafisch eine Horizontale ist, die parallel zur Refinanzierungsfunktion verläuft.
Abbildung 4.3.4
Kreditangebotsfunktion einer einzelnen Bank
ib, iref
ib = iref + ub
KAb
iref
KAbmax
KAb
Typisch ist auf Kreditmärkten eine Rationierung der Kreditvergabe und gerade keine Markträumung. Eine Bank wird nicht jedem einen Kredit geben, der den Marktzinssatz bezahlt. Denn die Bank muss darauf achten, ob der Kredit zurückgezahlt werden kann oder nicht. Auf dem Fischmarkt wird jeder einen Fisch bekommen, der den Marktpreis des Fisches bar zahlt, während dies auf Kreditmärkten nicht der Fall ist. Wie unterteilen die Kreditnachfrager in „gute“ Schuldner und in „schlechte“ Schuldner, wobei wir aus Vereinfachungsgründen unterstellen, dass die Qualität der Kreditnachfrager inner-
370
Keynesianische Makroökonomie
halb der jeweiligen Gruppe gleich ist. Eine Bank wird alle guten Kreditnachfrager bedienen und alle schlechten nicht. Gute Schuldner sind Schuldner, die gute und ausreichende Sicherheiten haben und/oder die Bank mit ihrem Investitionsprojekt überzeugen. Aber auch bei diesen Schuldnern besteht selbstverständlich die Gefahr, dass sie die Schulden nicht bedienen können. Sind alle guten Schuldner bedient, wird eine Bank keinen weiteren Kredit mehr vergeben. Denn auch ein hoher Zinssatz wird eine Bank nicht zu einer Kreditnachfrage bewegen, wenn sie davon ausgehen muss, dass „schlechte“ Schuldner den Kredit nicht zurückzahlen können.133 Die Höhe des Zinssatzes wird selbst ein Faktor, der die Zahlungsfähigkeit von Schuldnern beeinflusst.134 Denn mit steigendem Zinssatz steigt die Wahrscheinlichkeit, dass Schuldner ihren Schuldendienst nicht leisten können. Je höher die Zinssätze, desto vorsichtiger werden Banken sein und ihr maximales Kreditvolumen einschränken. Banken werden auf keinen Fall so hohe Zinsen wie möglich verlangen, da dies die Zahlungsunfähigkeit ihrer Schuldner vorprogrammieren würde. In der Abbildung 4.3.4 beträgt die maximal angebotene Kreditmenge der Bank KAbmax. Dabei unterstellen wir, dass die Bank b nicht alle guten Schuldner in der Ökonomie kennt, sondern nur einen Teil davon.135 Wenn wir die Analyse auf die Volkswirtschaft übertragen, erhalten wir eine äußerst einfache aggregierte Kreditangebotsfunktion (KA), die eine Parallele zur Abszisse darstellt (vgl. Abbildung 4.3.5). Der Verleihzinssatz (i*) ist der Zinssatz für langfristige Kredite. Die Kreditangebotsfunktion endet beim Kreditvolumen KAmax, wenn alle guten Kreditnehmer auf dem Markt bedient sind. Formal kann die Kreditangebotsfunktion folgendermaßen dargestellt werden: (4.3.1)
KA= KA(iref,ΘF)
Die aggregierte Kreditangebotsfunktion hängt letztlich von zwei Variablen ab. Die erste unabhängige Variable ist der Refinanzierungszinssatz der Zentralbank (iref), der Ausdruck der Geldpolitik ist. Erhöht die Zentralbank den Refinanzierungszinssatz, dann verschiebt sich die Kreditangebotsfunktion nach oben, andernfalls nach unten. Die zweite unabhängige Variable wird durch die Erwartungen der Banken gegeben (ausgedrückt durch den griechischen Buchstaben Theta Θ, wobei der Index F für Finanzsystem steht). Verschlechtern sich die Erwartungen, dann erhöht sich die Zinsspanne aufgrund der gestiegenen Unsicherheitsprämie und die Kreditangebotsfunktion verschiebt sich nach oben auf ein höheres Niveau des Verleihzinssatzes. Gleichzeitig reduziert sich das maximale Kreditangebot. Bei Verbesserungen der Erwartungen verschiebt sich die Kreditangebotsfunktion nach unten und das maximale Kreditangebot steigt.
133
Wir könnten die Kreditnachfrager in unterschiedliche Risikoklassen unterteilen mit einem jeweils spezifischen Zinsabschlägen. Aber auch bei individuellen Zinsaufschlägen werden nicht alle Kreditnachfrager bedient. Wir sehen von individuellen Risikoaufschlägen zur Vereinfachung des Modells ab. Die Grundaussagen werden dadurch nicht tangiert. 134 Dies haben Stiglitz/Weiss (1981) betont. 135 Würden wir diese Annahme nicht einfügen, dann würde die Bank b alle guten Schuldner in der Ökonomie bedienen. Da alle Banken dies täten, würde jede Bank alle guten Schuldner bedienen wollen. Die Annahme dient somit zur Begrenzung der Expansion der einzelnen Bank. Faktisch werden Banken unter anderem aufgrund von Bankenregulierungen durch ihr Eigenkapital in der Expansion begrenzt, da Regulierungen vorschreiben, dass ein bestimmter Prozentsatz der Kreditvergabe als Eigenkapital gehalten werden muss.
Keynesianische Makroökonomie
371
Abbildung 4.3.5: Die aggregierte Kreditangebotsfunktion i
i*
KA = KA(iref, ΘF)
0 KAmax
KA
Die aggregierte Kreditangebotsfunktion in Abbildung 4.3.5 mag als überaus vereinfacht gelten. Es kann eingewandt werden, dass insbesondere die Vermögenshaushalte in der Kreditangebotsfunktion überhaupt nicht explizit auftauchen. Dies ist in der Tat der Fall. Haushalte können sowohl Bankeinlagen halten als auch direkt finanzielle Mittel an die Unternehmen geben. In beiden Fällen bleibt die Kreditangebotsfunktion jedoch in ihrer Grundform erhalten. In einem Exkurs wird folgend auf den Einfluss der Haushalte näher eingegangen. Der geneigte Leser, der den Exkurs nicht im Einzelnen nachvollziehen will, kann ohne Schaden direkt zur Kreditnachfrage springen. Kernpunkte Geld entsteht in modernen Geldwirtschaften durch die Interaktion der Zentralbank mit den Banken auf dem Geldmarkt. Die Banken verschulden sich kurzfristig bei der Zentralbank und erlangen so Zentralbankgeld, wobei das Geld von der Zentralbank aus dem „Nichts“ geschöpft wird. Das wichtigste geldpolitische Instrument ist die Offenmarktpolitik mit Rückkaufsvereinbarung. Dabei verkaufen die Banken an die Zentralbank Wertpapiere und verpflichten sich, diese nach festgelegter (kurzer) Zeit wieder zu einem vereinbarten Preis zurückzukaufen. Faktisch handelt sich dabei um einen kurzfristigen Kredit. Die Zentralbank muss aufgrund ihrer Funktion als Lender of Last Resort den Banken immer ausreichend Liquidität zur Verfügung stellen. Die Refinanzierung der Banken kann von der Zentralbank ohne eine Zerrüttung der Ökonomie nicht abgelehnt werden. Die Zentralbank diktiert auf dem Geldmarkt den Zinssatz, während sich die Geldschöpfung durch den Marktprozess ergibt. Die Zentralbankgeldmenge ist somit endogen bestimmt. Banken refinanzieren sich über (kurzfristige) Kreditaufnahme und vergeben (langfristige) Kredite. Die Zinsspanne zwischen dem Refinanzierungszinssatz einer Bank und dem Verleihzinssatz wird wesentlich durch die Unsicherheitsprämie bestimmt, die von subjektiven Erwartungen abhängt. Das volkswirtschaftliche Kreditangebot hängt vom Refinanzierungszinssatz der Zentralbank und den Erwartungen der Banken (und anderer Gläubiger) ab. Im einfachsten Fall bedient eine Bank alle guten Kreditnachfrager mit dem gleichen Verleihzinssatz, während schlechte Kreditnachfrager keinen Kredit bekommen. Gut und schlecht wird durch die Verfügbarkeit der Kreditnachfrager über Pfänder und/oder gute Projekte in der Einschätzung der Gläubiger bestimmt. Die Kreditangebotsfunktion verschiebt sich, wenn die Zentralbank den Refinanzierungszinssatz verändert und wenn sich die Erwar-
372
Keynesianische Makroökonomie
tungen der Banken verschlechtern oder verbessern. Auch die bereitgestellte Kreditmenge hängt von den Erwartungen der Gläubiger ab. 4.3.3. Exkurs: Der Einfluss der Haushalte auf das Kreditangebot Fragestellung Wie sieht das Portfolioverhalten eines Haushaltes aus? Wie leitet sich das Kreditangebot der privaten Haushalte an Unternehmen ab? Wie die Haltung von Bankdepositen und anderen Vermögensarten? Wie modifizieren die Haushalte das aggregierte Kreditangebot? Zur Analyse des Einflusses der Haushalte auf das Kreditangebot ist zunächst deren Portfolioverhalten zu untersuchen. Dann wird der Einfluss der direkten Kreditvergabe der Haushalte auf die aggregierte Kreditangebotsfunktion untersucht, danach der Einfluss der Depositenhaltung auf das aggregierte Kreditangebot und die Geldschöpfung. Das Portfolioverhalten der privaten Haushalte Ein Haushalt h verfügt, wie die oben angeführte Bilanz des privaten Haushaltssektors zeigt, über vier Vermögensarten: langfristige Kredite an Unternehmen (KAHh) , kurzfristige und verzinsliche (Bank-) Depositen (Dh) , Sachvermögen (SVh) , (Zentralbank-) Geld (MNh) und Aktien (Ah).136 Das aggregierte Vermögen eines Haushalts ergibt dessen Reinvermögen (RVh) . RVh = KAHh + Dh + Ah + MNh + SVh
Haushalte werden ein für sie optimales Portfolio wählen. Es ist eine Binsenweisheit, dass Individuen sich auch unter ökonomischen Aspekten voneinander unterscheiden. Daher gibt es kein optimales Portfolio, welches für alle gleich ist. Einige Haushalte sind ausgesprochen risikobereit. Deren Portfolio wird relativ viele Vermögenswerte aufweisen, die hohe pekuniäre Ertragsraten aufweisen, jedoch auch durch hohe Unsicherheiten etwa aufgrund der Zahlungsunfähigkeit von Schuldnern gekennzeichnet sind. Der andere Pol wird von risikoaversen Haushalten gebildet, die sich mit relativ geringen pekuniären Ertragsraten zufrieden geben, dafür aber relativ sichere Vermögenswerte halten. Ihr vorrangiges Ziel besteht also in einer Vermögenssicherung. Einige Vermögensarten, wie z. B. Geldhaltung oder Bankdepositen, zeichnen sich durch hohe Sicherheit aus. Freilich erkauft man sich diese Sicherheit durch eine fehlende oder eine nur geringe pekuniäre Verwertung. Dessen ungeachtet werden stark risikoaverse Haushalte einen erheblichen Teil ihres Vermögens in dieser oder in ähnlich sicheren Anlageformen halten. Andere sind risikobereiter. In deren Portfolio befinden sich z. B. Kredite an die Unternehmen oder Aktien. In aller Regel findet man bei der Vermögenshaltung eine Mischung verschiedener Vermögensarten. Bei einer Konzentration der Vermögenshaltung auf nur eine Vermögensart, die ein Verlustrisiko trägt, sind die Verluste umfassend, wenn sich das Engagement als Fehler erweisen sollte. Aus diesem Grunde werden Wirtschaftssubjekte als Schutzinstrument vor künftigen Unwägbarkeiten üblicherweise ihr Vermögen diversifizieren – es also auf verschiedene Vermögensarten aufteilen – und/oder es als in sicher erachteten Vermögenswerten halten. James Tobin gab für den hier diskutierten Punkt ein einleuchtendes Beispiel. Wird ein kleiner Junge 1 mit einem Korb voll Eier losgeschickt, so sei die Wahrscheinlichkeit, dass er die Eier zerbricht . 5 136
Wir unterstellen standardisierte Kreditbeziehungen. Es gibt langfristige Kredite an Unternehmen, und kurzfristige Bankeinlagen, die verzinst sind. Wie sehen also von zinslosen Bankeinlagen auf Girokonten und unterschiedlichen Laufzeiten von Krediten ab, ohne die Aussage des Modells im Kern zu verändern.
Keynesianische Makroökonomie
373
Werden die Eier nun auf zwei Körbe aufgeteilt und zwei Jungen losgeschickt, die jeweils mit einer 1 Wahrscheinlichkeit von die Eier zerbrechen, dann sinkt die Wahrscheinlichkeit des Verlustes aller 5 1 1 1 Eier auf ⋅ = . Selbst wenn der zweite Junge unzuverlässiger ist als der erste und die Eier mit 5 5 25 einer Wahrscheinlichkeit von fünfzig Prozent zerbricht, reduziert sich die Wahrscheinlichkeit des tota1 1 1 len Verlustes auf ⋅ = . Dies zeigt, dass selbst die Aufnahme risikobehafteter Anlagen die Sicher5 2 10 heit eines Portfolios erhöhen kann (Tobin 1998, S. 73 f.). Die Portfoliotheorie präzisiert die intuitiv plausible Annahme, dass Wirtschaftssubjekte bei ihrer Portfoliogestaltung zwischen dem pekuniären Ertrag und der geschätzten Sicherheit bzw. Unsicherheit der verschiedenen Anlagen auswählen und so ihr Portfolio optimieren. Eine Erhöhung der Sicherheit des Portfolios durch Vermögensmischung ist immer dann möglich, wenn angenommen wird, dass unterschiedliche Anlageformen unterschiedlichen Unsicherheiten unterworfen sind. Machen wir uns das Argument an der Portfolioentscheidung zwischen verschiedenen Unternehmen klar. Unternehmen A und Unternehmen B sollen so miteinander verbunden sein, dass die Zahlungsunfähigkeit von A zwingend einhergeht mit der von B und umgekehrt. Die Risiken sind in diesem Fall vollständig positiv korreliert. Eine Vermögensmischung von Krediten an A und B wäre sinnlos. Unterstellen wir im zweiten Beispiel zwei Aktien, wobei sich der Wert der Aktie C immer dann verdoppelt, wenn sich der Wert der Aktie D halbiert und umgekehrt. In diesem Fall liegt eine vollständig negative Korrelation der Kursentwicklung beider Aktien vor. Ein Wirtschaftssubjekt wird einen Teil seines Vermögens in Aktie C und einen anderen in Aktie D anlegen und dadurch die Sicherheit seines Portfolios erheblich erhöhen. Selbstverständlich ist es unmöglich, auf objektiver Basis die Korrelation zwischen Aktienkursen zu kennen, so dass auch hier subjektive Erwartungen eine wichtige Rolle spielen. Aber dennoch kann festgehalten werden, dass eine Mischung von Vermögensanlagen die Unsicherheit eines Portfolios reduzieren kann. Konzentrieren Haushalte ihr Vermögen auf eine von ihnen als unsicher eingeschätzte Vermögensart (z.B. Aktien oder Kredite an Unternehmen), steigt mit der Konzentration die Unsicherheit des gesamten Portfolios. Wirtschaftssubjekte werden zu einer solchen Konzentration ihrer Vermögensanlage nur bereit sein, wenn die damit steigende Unsicherheit des Gesamtportfolios pekuniär vergütet wird. Werden bestimmte Vermögensarten als extrem unsicher eingeschätzt, dann sinkt deren Anteil an der Vermögenshaltung auf ein Minimum bzw. auf Null. Am analytisch einfachsten lässt sich die Portfolioentscheidung eines Wirtschaftssubjekts modellieren, wenn jeder Vermögensart eine nichtpekuniäre Verwertungsrate zugeordnet wird, die den Grad an subjektiv eingeschätzter Unsicherheit bzw. Sicherheit sowie die individuellen Präferenzen erfasst.137 Es kann generell angenommen werden, dass die marginale nichtpekuniäre Verwertungsrate mit steigendem Vermögensbestand sinkt. Die marginale Rate drückt aus, wie die Verwertung der jeweils letzten zusätzlichen Einheit einer Vermögensart bewertet wird. Die marginalen nichtpekuniären Raten können sowohl positive als auch negative Werte annehmen. Das Portfoliogleichgewicht eines einzelnen Haushalts ist gegeben, wenn gilt: (4.3.2)
i + lKh = id + lDh = iAh + lAh = lGh = lSh
Jede der fünf Vermögensarten, die ein Haushalt in unserem Modellrahmen halten kann, hat eine eigene nichtpekuniäre Verwertungsrate, wobei Aktien, Kredite an Unternehmen und Depositen zusätzlich durch eine pekuniäre Verwertungsrate gekennzeichnet sind. Ein Haushalt wird sein Vermögen umstrukturieren, bis Gleichung (4.3.2) erfüllt ist und die marginale Verwertung bei jeder Vermögensart den gleichen Wert annimmt. In diesem Fall wird die Verwertung des Portfolios bei gegebenen subjek-
137
Ausgefeilte Portfoliomodelle entwickelten unter anderem James Tobin (1957) und Harry M. Markowitz (1970). Milton Friedman folgte der hier präsentierten Methode (vgl. Kapitel 3.4.3).
374
Keynesianische Makroökonomie
tiven Bewertungen und Präferenzen maximiert.138 Wir analysieren folgend die verschiedenen Vermögensformen der Reihe nach. Bei Krediten an Unternehmen, die wie bei den Banken als langfristig angenommen werden, erhalten die privaten Haushalte den Marktzinssatz (i). Zusätzlich ordnen die Wirtschaftssubjekte ihrem Bestand an Kreditforderungen gegenüber dem Unternehmenssektor eine subjektiv bestimmte marginale nichtpekuniäre Rate (lKh) zu, die das subjektiv geschätzte Risiko und den Vorteil der Haltung dieser Vermögensart in Form eines Prozentsatzes zum Ausdruck bringt. Da Kredite an Unternehmen ausfallen können, wird die nichtpekuniäre Rate bei dieser Vermögensart negativ sein. Auch hier unterstellen wir eine Gruppe von guten und von schlechten Schuldnern mit jeweils gleicher Qualität innerhalb der Gruppen. Haushalte werden wie Banken nur an gute Schuldner Kredite vergeben. Mit einer Zunahme des Anteils von Krediten an Unternehmen am Reinvermögen wird der Wert von lKh absinken.139 Drückt i den gegebenen Kreditzinssatz, RVh das Reinvermögen und KAHh das Kreditvolumen des hten Haushalts an Unternehmen aus, dann ergibt sich ein Verlauf der Verwertungsrate von Krediten an Unternehmen wie in Abbildung 4.3.6 dargestellt. Die Gesamtverwertung der Kredite an Unternehmen i + lKh sinkt ceteris paribus mit zunehmendem Kreditbestand, da diese Kredite als relativ unsichere Vermögensanlage unterstellt werden und damit die Unsicherheit des Gesamtportfolios wächst. Bei K 1AHh ist die marginale Gesamtverwertung von Krediten an Unternehmen null. Die i + lKh -Kurve verschiebt sich typischerweise nach rechts oben, wenn der Zinssatz steigt, das Reinvermögen steigt oder die Unsicherheit von Krediten an Unternehmen sinkt. Abbildung 4.3.6: Die individuelle Verwertung bei Krediten an Unternehmen i+lKh, lKh
i
i + lKh 0
K 1AHh
RVh
KAHh
lKh
Aktien sind als Eigentumstitel langfristige Anlagen und haben eine pekuniäre Verwertungsrate in der Höhe von iAh entsprechend der Dividendenzahlung (einschließlich spekulativer Gewinne). Im Unterschied zur Zinszahlung bei Krediten müssen zukünftige Dividendenzahlungen von einem Wirtschaftssubjekt geschätzt werden. Da Aktienanlagen mit Unsicherheiten behaftet sind, dürfte die nichtpekuniäre Verwertung von Aktien lAh somit wie bei der Kreditvergabe an Unternehmen im Negativen liegen 138
Bei den folgenden Verwertungsraten spielt die erwartete Preisniveauänderungsrate eine wichtige Rolle. Um die Analyse an dieser Stelle nicht zu komplizieren, wird deren Einfluss wird jedoch erst im Rahmen der Inflationstheorie behandelt. 139 Wenn der Kreditbestand Null ist und sich dann erhöht, dann steigt üblicherweise die marginale Verwertungsrate zunächst, da das Portfolio anfangs sicherer wird. Ab einem gewissen Bestand dieser Kredite wird bei einer weiteren Erhöhung die marginale Rate sinken. Wir betrachten zur Vereinfachung nur den fallenden Teil der nichtpekuniären Rate.
Keynesianische Makroökonomie
375
und fallen. Er ergibt sich für Aktien also insgesamt ein ähnlicher Zusammenhang wie bei langfristigen Krediten an Unternehmen. Wir verzichten auf eine grafische Darstellung, die mit der Abbildung 4.3.6 identisch wäre. Kommen wir zur Geldhaltung von Zentralbankgeld bzw. Geldnachfrage (vgl. dazu auch Kapitel 4.2.3 über die Geldfunktionen).140 Geld erzielt keine pekuniäre Verwertung und wird dennoch als eine Vermögensform gehalten. Warum? Es bringt dem Halter von Geld als nichtpekuniäre Verwertungsrate die von Keynes (1936, Kapitel 17) so genannte Liquiditätsprämie (lGh) . Diese nichtpekuniäre Rate hat positive Werte. Sie drückt die subjektive Einschätzung der Bequemlichkeit und Sicherheit der Geldhaltung aus. Geldhaltung ist bequem, da der Zahlungsverkehr mit geringem Aufwand abgewickelt werden kann und begehrte Güter schnell und mühelos angeeignet werden können. Eine Transaktionskasse führt zur Reduzierung von Transaktionskosten. Bei ansteigender individueller Kassenhaltung muss ein Wirtschaftssubjekt z. B. zur Abwicklung eines gegebenen Transaktionsvolumens weniger oft bei der Bank Geld abheben. Dieser „Lagerhaltungsansatz“ der Geldnachfrage wurde in den 1950er Jahren von Baumol und in den 1970er Jahren von Tobin entwickelt.141 Wichtiger als die Dienstleistungsfunktion der Transaktionskasse beim Zahlungsverkehr ist jedoch, dass Geldhaltung ein Sicherheitsbedürfnis befriedigt. Dies gilt sowohl für die Vorsichtskasse, die als Schutz vor Illiquidität angelegt wird, als auch für die Hortungskasse, die wegen des Bedürfnisses, Vermögen in sicherer Form zu halten, existiert.142 Sind Vermögensanlagen unsicher, dann kann die Sicherheit eines Portfolios erhöht werden, wenn ein Teil des Vermögens in einem Vermögensobjekt gehalten wird, das sicher ist – eben in Geld.143 Schließlich wird eine Spekulationskasse gehalten, um günstige Gelegenheiten, wie den preiswerten Erwerb eines Vermögensgegenstandes oder eine voraussichtlich rentierliche Spekulation nutzen zu können (Keynes 1936). In Abbildung 4.3.7 ist der Zusammenhang zwischen der marginalen Liquiditätsprämie und der Geldhaltung wiedergegeben. Wie bei allen Vermögensarten sinkt die nichtpekuniäre Rate mit zunehmender Vermögenshaltung. Allerdings ist nicht zu erwarten, dass die Liquiditätsprämie auf Null sinkt. Bei unterstellter Preisniveaustabilität gibt es keine Sättigungsgrenze bei der Geldhaltung, da die Verfügung über mehr Geld zweifelsfrei vorteilhafter als die über weniger ist. Außerdem gibt es bei Geld keine Unsicherheit des Vermögensrückflusses. Geld ist somit eine ganz besondere Vermögensart. Diesen Aspekt hob Keynes deutlich hervor: „Mit anderen Worten, über einen gewissen Punkt hinaus wird das Erträgnis des Geldes aus Liquidität auf eine Vermehrung seiner Menge nicht annähernd in dem Maße fallen, in dem das Erträgnis aus anderen Arten von Vermögensanlagen bei einer vergleichbaren Vermehrung ihrer Menge fällt“. (Keynes 1936, S. 195) Der horizontale Ast der Geldnachfrage ging später unter dem Begriff der Liquiditätsfalle in die Literatur ein. Vor dem Hintergrund der bisherigen Ausführungen wird deutlich, warum die Geldhaltung in der Lage ist, einen Mindeststandard der Verwertung bei allen anderen Vermögensarten zu erzwingen. Deren Verwertung kann im Gleichgewicht nicht auf Null fallen, da die Geldhaltung immer mit einer positiven nichtpekuniären Verwertungsrate eine mögliche Alternative darstellt. Die Liquiditätsprämie wird, wie Keynes es nannte, zum „Hahn im Korb“ aller Verwertungsraten.
140
Es sei daran erinnert, dass bei der Nachfrage nach Geld und Depositen die Haushalte für das Publikum generell stehen. Vgl. Baumol (1952) und Tobin (1974a). 142 Vgl. zur Vorsichtskasse Whalen (1966) oder Wand (1975) 143 Diesen Punkt hat Tobin (1974) im Rahmen der Portfoliotheorie betont. 141
376
Keynesianische Makroökonomie
Abbildung 4.3.7: Die Nachfrage nach Geld l Gh lGh
iV
MNh*
RVh
MNh
Nehmen wir für einen Moment an, die Verwertungsrate für eine Geldanlage sei iv und diese sei neben Geld die einzige Anlageform. Unterstellen wir zur Verdeutlichung des Arguments, dass iv unabhängig vom Volumen der Vermögenshaltung sei. In diesem Fall wird in Abbildung 4.3.7 die Geldnachfrage des hier betrachteten Haushaltes den Wert von MNh * annehmen, während die zweite Vermögensform in Höhe von RVh – MNh * gehalten wird. Denn genau bei dieser Portfoliostruktur ist die marginale Verwertung beider Vermögensarten gleich. Unter den Bedingungen eines funktionierenden Geldsystems wird die Haltung an Zentralbankgeld relativ gering ausfallen, da Bankdepositen ein gutes Substitut für die Haltung von Zentralbankgeld sind. Bei der Dienstleistungsfunktion des Geldes sind Einlagen bei der Bank aufgrund des bargeldlosen Zahlungsverkehrs in vielen Fällen noch bequemer als Geld. Bei der Haltung der Vorsichts-, Spekulationsund Hortungskasse sind Bankeinlagen bei einem stabilen Bankensystem ebenfalls ein enges Substitut für die Haltung von Zentralbankgeld. Folglich kann die Nachfrage nach Bankdepositen die Nachfrage nach Zentralbankgeld um ein Vielfaches übersteigen. Bricht das Vertrauen in Banken zusammen, dann wird die Zentralbankgeldhaltung allerdings in die Höhe schnellen. Wie bei der Kreditvergabe an Unternehmen gibt es bei der Unterstellung eines stabilen Bankensystems auch bei Depositen eine positive subjektiv bestimmte marginale nichtpekuniäre Rate (lDh) , die mit steigender Depositenhaltung sinkt. Darüber hinaus können die Haushalte, die ihr Vermögen in der Form von Depositen halten, eine pekuniäre Verwertung in Höhe des Depositenzinssatzes (id) erzielen, der allerdings unter dem Verleihzinssatz an Unternehmen liegt. Die Gesamtverwertung bei Depositen beträgt somit id + lDh .
Keynesianische Makroökonomie
377
Abbildung 4.3.8: Nachfrage nach Depositen id , lDh
id + lDh
id
RVh
Dh
Es verbleibt Sachvermögen, Edelmetalle wie Gold, Immobilien etc. Dieses wird, so wie wir es definiert haben, von den Haushalten erworben, um Sicherheitsbedürfnisse zu befriedigen. Obwohl wir hier zunächst ein stabiles Preisniveau annehmen, soll erwähnt werden, dass Sachvermögen besonders die Furcht eines Wirtschaftssubjekts vor Inflation mildern kann. Beispielsweise weisen Edelmetalle oder Häuser im Vergleich zu Forderungen und Geld eine hohe Vermögenssicherungsqualität auf, da Sachvermögen bei Inflationsprozessen keinem Wertverlust unterliegt. Der Wertcharakter von Sachvermögen zeigt sich schlagend, wenn es unter der Bedingung hoher Inflationsraten zu einer Flucht in Sachwerte kommt. Die individuell kalkulierte nichtpekuniäre Verwertungsrate auf Sachvermögen soll als Vermögenssicherungsprämie (lSh) bezeichnet werden. Sachvermögen hat mit Geld gemein, dass es keine Unsicherheit des Vermögensrückflusses kennt. Es ist damit potenziell in der Lage, die Rolle des Geldes als „Hahn im Korb“ der Verwertungsraten zu übernehmen. Dies gilt insbesondere für Grund und Boden. Eine grafische Darstellung der Vermögenssicherungsprämie würde der Abbildung der Liquiditätsprämie auf Geld entsprechen und kann daher unterbleiben (Keynes 1936, S. 192). Es sind im historischen Prozess heftige Umstrukturierungen der Portfolios der Haushalte zu erwarten. Erwartungsänderungen, die typisch für eine Geldwirtschaft sind, können zu starken Schwankungen in der Haltung einzelner Vermögensarten führen. Ein Vertrauensverlust in die Zukunft führt zum Abbau von langfristigen Krediten an Unternehmen und Aktienhaltung und einem Aufbau der Liquiditätshaltung in der Form von Bankeinlagen und Zentralbankgeld. Keynes hat immer wieder betont, dass das Portfolioverhalten der Haushalte durch heftige Wechsel zwischen kurzfristigen Anlagen – in unserem Beispiel von Geld und Depositen – und langfristigen Anlagen – Kredit an Unternehmen und Aktien – gekennzeichnet ist.144 Das Kreditangebot der privaten Haushalte Mit Hilfe der Gleichgewichtsbedingung (4.3.2) lässt sich ableiten, wie ein Haushalt bei einer Veränderung einzelner pekuniärer Verwertungsraten reagiert. Erhöht sich, ausgehend von einem Gleichgewicht, ceteris paribus der Kreditzinssatz i, dann werden Depositen, Geld und Sachvermögen in Kredite an Unternehmen umgewandelt. Dabei sinkt lKh aufgrund des gestiegenen Bestandes Unternehmenskrediten, während lDh , lGh und lSh steigen, da nun weniger von diesen Vermögensarten gehalten wird. Die Umstrukturierung wird durchgeführt bis ein neues Gleichgewicht erreicht ist. Wird i laufend erhöht, dann ergibt sich typischerweise ein mit dem Zinssatz steigendes Kreditangebot an Unternehmen seitens eines Haushaltes (vgl. Abbildung 4.3.9). Das Kreditangebot eines einzelnen Haushaltes an Unternehmen beginnt bei einem Zinssatz, der größer ist als Null. Beginnend bei diesem subjektiv be144
Vgl. dazu insbesondere Keynes (1930). Axel Leijonhufvud (1973) hat betont, dass dieser Wechsel zwischen lang- und kurzfristigen Anlagen zentral für Keynes war und die Neoklassische Synthese bei der Portfolioentscheidung der Haushalte nur langfristige Kredite an Unternehmen kennt, aber keine Aktien.
378
Keynesianische Makroökonomie
stimmten Mindestzinssatz erhöht sich das individuelle Kreditangebot mit steigendem Zinssatz. Mit zunehmendem Anteil der Kredite an Unternehmen am Reinvermögen des Haushalts steigt die Unsicherheit des Portfolios zunehmend schneller an, so dass eine gleiche Zunahme des Kreditangebots nur durch überproportional steigende Zinssätze möglich ist. Ein Haushalt wird sein Vermögen niemals ganz in einer unsicheren Vermögensart anlegen. Das Kreditangebot eines Haushalts wird ab einem gewissen Prozentsatz am Reinvermögen vollständig zinsunelastisch, erstens weil eine höherer Anteil an Krediten an Unternehmen als nicht mehr akzeptabel angesehen wird und/oder weil es keine guten Schuldner mehr gibt. Abbildung 4.3.9: Das individuelle Kreditangebot eines Haushalts i
KAHh
RVh
KAHh
Werden alle individuellen Kreditangebote aggregiert, so ergibt sich die Kreditangebotsfunktion aller Haushalte an den Unternehmenssektor, welche die gleiche Form wie die individuelle Angebotsfunktion hat. Die Kreditangebotsfunktion der Haushalte verschiebt sich nach rechts, wenn das Reinvermögen steigt, die Unsicherheit der Kreditvergabe an Unternehmen sinkt und die Verwertungsraten anderer Vermögensarten sinken. Bei einer Verbesserung der Zukunftserwartungen ist beispielsweise mit einer Zunahme der Kreditvergabe an Unternehmen zu rechnen. Wir können an dieser Stelle auch die Rolle der Ersparnisse erkennen. Sie erhöhen das Reinvermögen und können zu einem Anstieg des Kreditangebots an Unternehmen führen. Zwingend ist dies allerdings nicht, da Ersparnisse auch in anderen Vermögensanlagen angelegt werden können. Zudem sind die Effekte der Portfolioumschichtungen der Bestände als wichtiger zu beurteilen als Vermögensdisposition über Ersparnisse. In der Abbildung 4.3.10 ist das Kreditangebot der Haushalte an den Unternehmenssektor (KAH*) und das Kreditangebot der Banken (KAB*) eingetragen. Letzteres entspricht der Angebotsfunktion in der Abbildung 4.3.5. Das gemeinsame Kreditangebot (KAH+AB) beginnt bei einem Zinssatz von imin. Dann kommen zunächst nur die privaten Haushalte beim Kreditangebot zum Zug, da unter dem Zinssatz i* Banken keinen Kredit anbieten. Private Haushalte haben keine Refinanzierungskosten und können dadurch Kredit günstiger anbieten. Es ist natürlich nicht zwingend, dass die Haushalte unter einem Zinssatz von i* Kredite vergeben wollen, aber doch wahrscheinlich. Beim Zinssatz i* beginnen die Banken mit ihrem Kreditangebot. Sie bieten Kredite an bis alle guten Schuldner bedient sind. Die privaten Haushalte verdrängen somit im Vergleich zu einer Situation ohne direkte Kredite der Haushalte an Unternehmen ein Teil der Bankkredite, ohne dass das Kreditvolumen insgesamt verändert wird.
Keynesianische Makroökonomie
379
Abbildung 4.3.10: Das aggregierte Kreditangebot aller Haushalte und das Kreditangebot der Banken i
Bankkredite KAH + KAB
i* Kredite der Haushalte
imin KAH*
KAB*
KAmax
KA
Die Depositenhaltung der privaten Haushalte Mit der gleichen Argumentation wie beim Kreditangebot der Haushalte an Unternehmen lässt sich auch die Depositenhaltung ableiten, die aus diesem Grunde gleich in aggregierter Form betrachtet werden soll. Die Depositenhaltung (DA) erhöht sich mit steigendem Depositenzinssatz. Es ist zu erwarten, dass Depositen zunächst bei sehr niedrigen Zinssätzen gehalten werden, da deren Haltung für Haushalte eine hohe Dienstleistungsfunktion beinhaltet und Depositen bei einem stabilen Bankensystem ein ideales Mittel der Wertaufbewahrung sind. Der Verlauf einer typischen aggregierten Angebotsfunktion von Depositen ist aus Abbildung 4.3.11 ersichtlich. Die Depositenhaltung wird steigen, wenn das Reinvermögen steigt, die Verwertung andere Vermögensanlagen zurückgeht und der Grad der Unsicherheit in der Ökonomie ansteigt (unterstellt das Bankensystem ist stabil).
Abbildung 4.3.11: Das aggregierte Depositenangebot der Haushalte id
DA
RV
DA
380
Keynesianische Makroökonomie
Nachfrager nach Depositen sind die Banken, denen diese Einlagen als zweite Refinanzierungsquelle zur Verfügung stehen. Wie können uns den Sachverhalt theoretisch so vorstellen, dass die Banken Kredite in bar auszahlen und dann die Empfänger des Bargelds entscheiden, wie viel sie vom Bargeld wieder bei den Banken als Depositen einlegen wollen. Faktisch läuft es natürlich so, dass Banken einen Kredit geben, indem sie den Kredit dem Konto des Schuldners gutschreiben. Der Schuldner überlegt dann, wie viel Bargeld er abheben möchte. Einen Teil des erhaltenen Depositums wird der Schuldner typischerweise zur Bezahlung von Gütern an andere Kontoinhaber überweisen (etwa andere Unternehmen), diese werden das Guthaben erneut zur Bezahlung benutzen (etwa Löhne bezahlen) etc. Jeder Kontoinhaber, der das Depositum erhält, wird sich dann überlegen, wie viel Bargeld er abheben möchte. Wie dem auch sei, eine Kreditvergabe der Banken führt teilweise zu Depositen und teilweise zur Erhöhung des Bargeldbestandes beim Publikum. Depositen stellen eine Refinanzierungsquelle der Banken dar. Ist die Refinanzierung der Banken über Depositen günstiger als die über den Geldmarkt, dann werden sie sich über Depositen refinanzieren. Diese Quelle hat für Banken allerdings einen Nachteil: Haushalte können Barabhebungen vornehmen oder Depositen zu anderen Banken verlagern, wobei Verpflichtungen zwischen Banken in Zentralbankgeld beglichen werden müssen. Banken werden dadurch einem Liquiditätsproblem ausgesetzt. Aus diesem Grunde müssen sie eine Reserve in Form von Zentralbankgeld halten. Eine Bank wird selbst dann Reserven halten, wenn sie Zugang zum Geldmarkt hat. Erstens benötigt sie eine Kasse, um Barabhebungen bedienen zu können. Müsste sie sich im Extremfall wegen jeder Barabhebung Geld von der Zentralbank oder anderen Banken leihen, so wäre sie mit hohen Transaktionskosten konfrontiert. Zudem müsste sie darüber informiert sein, wann und wie viel Bargeld ihre Kunden täglich abheben. Zweitens wird sie in aller Regel selbst über diesen Bargeldbedarf hinaus eine Reserve halten. Die Höhe dieser Reserve hängt von einer Reihe von Faktoren ab. Die Ökonomen Whalen und Waud haben die folgenden Faktoren benannt: Die Reservehaltung steigt mit wachsenden Kosten der Illiquidität (die etwa aus hohen Kosten der Liquiditätsbeschaffung über den Geldmarkt oder Reputationsverlusten entstehen), steigender Fremdkapitalquote und dem Anstieg der subjektiv vermuteten Wahrscheinlichkeit illiquide zu werden.145 In vielen Ländern werden von der Zentralbank gesetzliche Mindestreserven in der Form eines festgesetzten Prozentsatzes des Depositenvolumens vorgeschrieben. In diesem Fall existieren neben ökonomisch motivierten Reserven der Banken auch institutionell gesetzte. Im Folgenden werden wir auf eine Unterscheidung zwischen einer ökonomisch motivierten und einer institutionell fixierten Reservehaltung verzichten. Um das Modell nicht unnötig zu komplizieren, wird zudem vereinfachend ein konstanter Reservesatz unterstellt. Aber es sollte klar sein, dass der Reservesatz entsprechend der Erwartungen der Banken auch schwanken kann. Der Reservesatz ist als prozentualer Anteil der Reserven der Bank an deren Depositen definiert. Die Notwendigkeit der Reservehaltung verteuert für eine Bank die Refinanzierung durch Depositen über den Depositenzinssatz hinaus. Der individuelle Refinanzierungszinssatz einer Bank über Depositen ( ηDb) (η als griechisches Eta), der die Kosten der Reservehaltung einschließt, errechnet sich durch (4.3.3)
ηDb =
id (1- ξb)
mit ξb (ξ als griechisches Xi) als individuellem Reservesatz und id als Depositenzinssatz. Dabei ist unterstellt, dass die Zentralbank keine Zinsen auf die Reserven bezahlt. Wollte sie die Kosten der Banken auf die Reservehaltung auf Null reduzieren, so müsst die Verzinsung der Einlagen dem Reservesatz entsprechen. Wir nehmen folgend vereinfachend an, dass keine Zinsen auf Zentralbankeinlagen der Banken bezahlt werden. Machen wir uns dies an einem Beispiel klar. Eine Bank hat – unsere Modellannahmen unterstellt – bei einer Kreditaufnahme auf dem Geldmarkt von 20 Mio. € die gesamte Summe zur eigenen Kre145
Vgl. Whalen (1966) sowie Waud (1975).
Keynesianische Makroökonomie
381
ditvergabe zur Verfügung. Bei einer Kreditaufnahme über Depositen muss sie bei einem Reservesatz von 20% 25 Mio. € aufnehmen, damit sie über 20 Mio. € verfügen kann. Beträgt der Geldmarktzinssatz 10%, dann muss die Bank bei einer Kreditaufnahme auf dem Geldmarkt für die freie Verfügung von 20 Mio. € Zinsen von 2 Mio. € aufbringen. Bei der Kreditaufnahme über Depositen wird die Bank für die freie Verfügung von 20 Mio. € in keinem Fall mehr aufwenden. Setzt man die 2 Mio. € Zinskosten der Geldmarktfinanzierung in Beziehung zu den 25 Mio. € Depositen, die ebenfalls frei verfügbare Mittel von 20 Mio. € erbringen, so ergibt sich ein Zinssatz von 8%. In unserem Beispiel wird die Bank somit für Depositen auf keinen Fall mehr als 8% bezahlen, da es für sie anderenfalls günstiger ist, sich auf dem Geldmarkt zu 10% zu verschulden. In unserem Rechenbeispiel ergeben sich wenig überraschend bei einem Depositenzinssatz von 0,08 (= 8%) Refinanzierungskosten der 0,08 Bank von = 0,1 oder 10%. Die Differenz zwischen dem Depositenzinssatz und dem Refinan1 − 0,2 zierungszinssatz erhöht sich mit steigendem Depositenzinssatz, da die Reservehaltung zu steigenden Zinsverlusten führt. Bei einem Depositenzinssatz von 2% ergeben sich bei unverändertem Reservesatz Refinanzierungskosten von 2,5%. Bei einem Depositenzinssatz von 30% steigen die Refinanzierungskosten auf 37,5%. Die Differenz der Zinssätze steigt von 0,5% auf 7,5%. Hat eine Bank die Möglichkeit sich auf dem Geldmarkt für 10 Prozent zu refinanzieren, dann wird sie einen maximalen Depositenzinssatz von 8% anbieten. Dies ergibt sich aus Gleichung (4.3.3). Denn es gilt i dmax = 0,1 (1 – 0,2) = 0,08. Banken können mit steigenden Depositenzinssätzen zusätzliche Depositen anwerben, da mit steigendem Depositenzinssatz die Haushalte weniger Bargeld halten. Wie stark der Effekt ist, kann an dieser Stelle offen bleiben. In der Abbildung 4.3.12 ist der Zustand dargestellt, der eintritt, wenn alle guten Schuldner bedient sind (KAmax), wobei wir vereinfachend unterstellen, dass alle Banken den gleichen Reservesatz haben. Das Depositenvolumen (D) steigt mit dem Depositenzinssatz id. Das Refinanzierungsvolumen, das die verleihbaren Mittel bei einer Refinanzierung über Depositen angibt, ist aufgrund der Reservehaltung der Banken geringer als das Depositenvolumen. Gleichzeitig liegen die Refinanzierungskosten für Banken über Depositen (ηD) aufgrund der Reservehaltungspflicht über dem Depositenzinssatz. Die Banken werden Depositen anwerben bis die Refinanzierungskosten über Depositen den Refinanzierungskosten über den Geldmarkt (iref) erreichen. Dann werden sie sich bei ihrer Kreditexpansion über den Geldmarkt refinanzieren. In der Abbildung ist die Refinanzierungsfunktion der Banken, erst über Depositen, dann über den Geldmarkt eingezeichnet. Darüber ist als gestrichelte Linie das Kreditangebot der Banken (KAB+D) angegeben, das aufgrund der Kreditrationierung bei KAmax endet.
382
Keynesianische Makroökonomie
Abbildung 4.3.12: Das Kreditangebot einer Bank bei Refinanzierung über Depositen id, iref, KD KAB + D
Refinanzierung über Geldmarkt
iref = KDmax
Refinanzierungsfunktion
D
idmax = iref(1-[) Refinanzierungsvolumen über Depositen
Reserven
KA Dmax
KAmax
Das maximale Depositenvolumen des Bankensystems (Dmax) ist erreicht, wenn für Banken die Refinanzierung über den Geldmarkt günstiger wird als über Depositen. Dann werden sie keine weiteren Depositen anzuwerben versuchen. Der maximale Depositenzinssatz im Bankensystem ist idmax = iref (1). Dieser ergibt sich aus der Gleichung (4.3.3), wenn für die Refinanzierungskosten über Depositen (D) der Refinanzierungszinssatz über den Geldmarkt iref eingesetzt wird. Da die Refinanzierungsbedingungen von Banken über den Geldmarkt von der Zentralbank gesteuert werden, hat die Geldpolitik fast direkten Einfluss auf das Niveau der Depositenzinssätze. Erhöhungen des Refinanzierungszinssatzes der Zentralbank führen zu steigenden Depositenzinssätzen, während Senkungen des Refinanzierungszinssatzes die Verzinsung von Depositen reduzieren. Wie bei der direkten Kreditvergabe der Haushalte an Unternehmen wird auch bei der Berücksichtigung von Depositen das maximale Kreditvolumen nicht verändert. Im Vergleich zu einer Situation ohne Bankdepositen reduziert sich allerdings der Refinanzierungsbedarf bei der Zentralbank. Wenn wir unterstellen, dass das gesamte Kreditangebot (KAmax) nachfrageseitig ausgenutzt wird, dann beträgt in der Abbildung 4.3.12 die Zentralbankgeldmenge den Bankreserven plus der Bargeldhaltung des Publikums (KAmax - Dmax). Es könnte der Eindruck erweckt werden, dass sich bei einem geringen Kreditvolumen die Banken über Depositen refinanzieren könnten. Dies ist jedoch falsch. Depositen entstehen zwingend erst nach der Kreditvergabe (wenn wir unterstellen, dass die Kredite erst bar ausbezahlt werden) oder gleichzeitig mit der Kreditvergabe (wenn der Kredit einem Konto gutgeschrieben wird). Das Aktivgeschäft der Bank bestimmt somit das Passivgeschäft. Führt eine Kreditexpansion zur Reservehaltung und/oder zum Bargeldabfluss, dann können die Depositeneinlagen niemals die Quelle aller Kredite der Banken sein. Die Banken befinden sich somit immer auf dem horizontalen Ast der Kreditangebotsfunktion. Bei der Analyse des neoklassischen Geldangebotsprozesses bestimmt die Zentralbank exogen die Geldmenge (vgl. Kapitel 3.4.6). „Überschüssiges“ Zentralbankgeld führt zu einer Kreditexpansion der Banken bis alles überschüssige Zentralbankgeld beim Publikum oder in den notwendigen Reserven
Keynesianische Makroökonomie
383
„versickert“ ist und der Kreditexpansionsprozess zu seinem Ende kommt. Reservesatz und Bargeldquote des Publikums sind dabei als konstant unterstellt. In dem oben präsentierten Ansatz agieren Banken und Haushalte nicht wie Marionetten, sondern im Rahmen ihrer Portfolioentscheidung. Das Kreditangebot und die Zentralbankgeldmenge sind. Steigt, warum auch immer, der Reservesatz und die Bargeldhaltung erhöht sich endogen die Geldschöpfung der Zentralbank. Steigt ceteris paribus die Depositenhaltung, dann werden die Banken das überschüssige Zentralbankgeld der Zentralbank zurückgeben bzw. sich weniger bei der Zentralbank verschulden. Das aggregierte Angebot an Finanzierung an den Unternehmenssektor Unternehmen können sich finanzielle Mittel über Aktien bzw. Eigenkapital, direkte Kredite der Haushalte an Unternehmen und Kredite der Banken besorgen. Abbildung 4.3.13 fasst dies zusammen. Bei der Neuausgabe von Aktien (oder anderen Eigenkapitalformen) verfügen sie über finanzielle Mittel ohne eine Kreditaufnahme. Verschiedene Punkte sind zu beachten. Erstens darf der aktuelle Aktienwert eines Unternehmens auf dem Sekundärmarkt nicht mit den finanziellen Mitteln verwechselt werden, die dem Unternehmen über die Neuausgabe von Aktien zugeflossen sind. Zweitens spielt die Neuemission von Aktien empirisch eine sehr geringe Rolle als Quelle zur Finanzierung von Produktivvermögen. Drittens können wir dem Eigenkapital unverteilte Profite zurechnen. Diese Quelle der Finanzierung kann eine durchaus wichtige quantitative Rolle spielen. Wir werden hier auf Eigenkapital nicht näher eingehen, denn der Unternehmenssektor ist trotz Eigenkapital immer in einer Schuldnerstellung und nimmt Kredite zur Finanzierung von Produktivvermögen auf. Es sind die Bereitschaft und die Möglichkeiten der Kreditaufnahme von Unternehmen, die in erster Line die Entwicklung einer Ökonomie bestimmen. Wir werden in diesem Lehrbuch bis auf ausgewählte Kapitel vom Eigenkapital der Unternehmen absehen, wohl wissend, dass es sich um eine Vereinfachung handelt.
Abbildung 4.3.13: Das Angebot an Finanzierung an den Unternehmenssektor i, iref
i* KA iref
Aktien (Eigenkapital)
Kreditangebot von Banken und Haushalten
KAmax
Finanzmittel an Unternehmen
Die Kreditangebotsfunktion (KA), die in der Abbildung 4.3.13 an das Eigenkapital angehängt ist, hat erst einen mit dem Zinssatz ansteigenden Ast, wird dann beim Zinssatzniveau i* horizontal zur Abszisse und endet, wenn alle guten Schuldner bedient sind bei KAmax. Der Zinssatz i* entspricht dem Refi-
384
Keynesianische Makroökonomie
nanzierungszinssatz auf dem Geldmarkt plus der Zinsspanne der Banken. Der ansteigende Ast der Kreditangebotsfunktion kommt aufgrund der direkten Kreditvergabe der Haushalte an Unternehmen und aufgrund der Refinanzierung der Banken über Depositen zustande. Wie können davon ausgehen, dass der ansteigende Ast der Kreditangebotsfunktion zwar existiert, jedoch keine praktische Relevanz hat. Aus diesem Grunde ist es legitim, in einem abstrakten ökonomischen Modell die Kreditangebotsfunktion vereinfachend als Horizontale bei dem Zinsniveau i* darzustellen. Wir haben eine gleiche Qualität aller Kreditnachfrager unterstellt, die einen Kredit bekommen können. Haushalte und Banken können jedoch unterschiedliche individuelle Kreditangebotsfunktionen aufgrund unterschiedlicher Erwartungen haben und damit unterschiedliche Verleihzinssätze anbieten. Würde dies berücksichtigt, gäbe es einen Schwarm individueller Kreditangebotsfunktionen bei unterschiedlichen Zinssätzen, wobei jede individuelle Angebotsfunktion ein Maximum der Kreditvergabe aufweisen würde. Würden die Kreditangebotsfunktionen geordnet, dann könnte eine mit dem Zinssatz steigende Kreditangebotsfunktion konstruiert werden, die ein maximales Kreditvolumen aufweist. Wir sehen von dieser Komplikation ab, die für unsere Fragestellungen sekundär ist. Innerhalb der Vertreter einer endogenen Entstehung der Geldmenge gab es über Jahre einen heftigen Streit zwischen so genannten Horizontalisten, die bei einem gegebenen Zinssatz ein horizontales Kreditangebot bis zur Befriedigung aller Kreditnachfrager unterstellen, und Strukturalisten, die den Geldendstehungsprozess sowie das Kreditangebot als einen komplexeren Prozess ansahen.146 Die Strukturalisten argumentierten beispielsweise, dass die Zentralbank oftmals bei ihrer Zinspolitik dem Markt folge und der Refinanzierungszinssatz nicht immer als exogen anzusehen sei. Als Frage taucht dann auf, wann und wie und auf was Zentralbanken reagieren. Auch wurde die Kreditangebotsfunktion als komplizierter angesehen als von Horizontalisten postuliert. Die Möglichkeit der Kreditrationierung wurde beispielsweise explizit erwähnt sowie das Anwerben von Depositen über Zinsanreize seitens der Banken. Wir stimmen Marc Lavoie (2011) zu, einer der Hauptteilnehmer an der Debatte, dass die Strukturalisten eine Menge an wichtigen Verfeinerungen des Kreditangebotsprozesses und der Geldschöpfung eingebracht haben und diese von den Horizontalisten auch nicht bestritten werden. Jedoch das Hauptargument der Horizontalisten, dass die Zentralbank den Zinssatz festsetzt und die Kredit- und Geldmenge dann endogen durch den Markt bestimmt wird, wird dadurch nicht tangiert. Kernpunkte Die Portfoliohaltung der Haushalte wird von pekuniären Verwertungsraten und von subjektiven Einschätzungen über die Sicherheit bzw. Unsicherheit einer Anlage bestimmt. Die subjektiven Einschätzungen können über eine nichtpekuniäre Verwertungsrate der einzelnen Vermögensarten erfasst werden. Bei Zentralbankgeld und bei Depositen in stabilen Bankensystemen sinkt die nichtpekuniäre Verwertungsrate auch bei einer Zunahme der Vermögenshaltung nicht auf Null, da diese Vermögensarten als Liquiditätsspeicher zur sicheren Aufbewahrung von Vermögen dienen. Es lässt sich ableiten, dass das Kreditangebot an Unternehmen seitens der Haushalte mit steigendem Zinssatz ansteigt. Dadurch modifiziert sich die aggregierte Kreditangebotsfunktion. Die Depositenhaltung der Haushalte bewirkt, dass die Kreditvergabe der Banken größer ist als die Geldschöpfung. Durch Depositen verändert sich die Refinanzierungs- und Kreditvergabefunktion der Banken. Trotz vielfältiger möglicher Modifikationen durch den Einfluss der Haushalte auf das aggregierte Kreditangebot bestimmen die Banken das volkswirtschaftliche Kreditvolumen und vor allem den Zinssatz. 146
Bekannte Horizontalisten sind Moore (1983), Kaldor (1985) Kaldor / Trevithick (1981) oder Lavoie (1984). Als Strukturalisten zählen Pollin (1991) oder Palley (1996).
Keynesianische Makroökonomie
385
4.3.4 Die Kreditnachfrage und die Investitionsentscheidung Fragestellung Warum werden zukünftige Geldströme abgezinst? Welche Kalküle haben Unternehmen bei ihrer Investitionsentscheidung? Welche Rolle spielen die Erwartungen bei der Investitionsentscheidung? Wie hängen der Bestand an Produktivvermögen, Investitionen und Kreditnachfrage zusammen? Als Kreditnachfrager treten die Unternehmen auf. Ihre Kreditnachfrage richtet sich nach dem gewünschten Bestand an Produktivkapital. Wir sehen dabei von Eigenkapital ab. Würden wir Eigenkapital berücksichtigen, dann würde dies ausschließlich den Bestand an Krediten verändern, ohne uns an dieser Stelle einen analytischen Gewinn zu bringen. Durch das Absehen von Eigenkapital entsprechen die Verbindlichkeiten der Unternehmen dem Bestand an Produktivvermögen (vgl. Kapitel 4.3.1). Der Bestand an Produktivkapital verändert sich durch Investitionen und Abschreibungen. Nettoinvestitionen ergeben sich als Differenz zwischen den Bruttoinvestitionen und den Abschreibungen, so dass Nettoinvestitionen der Unternehmen den Bestand an Produktivkapital erhöhen. Sollte der Umfang der Investitionen unter den Abschreibungen bleiben, so reduziert sich der Bestand an Produktivkapital. Positive Nettoinvestitionen bringen zum Ausdruck, dass bei Unternehmen der aktuelle Bestand an Produktivkapital geringer ist als der gewünschte, negative Nettoinvestitionen oder gar Bruttoinvestitionen von Null signalisieren, dass der Bestand als zu hoch beurteilt wird. Unternehmer werden bei Investitionsentscheidungen die Verwertungsrate von Produktivkapital mit der Zinsrate vergleichen. Wäre die Lebensdauer von Produktivkapital nur eine Periode, so würde ein Unternehmer Kredite für ein Investitionsprojekt aufnehmen, solange der Zinssatz unter der erwarteten Profitrate des Investitionsprojektes liegt, da das Unternehmen dann die Differenz zwischen Profit- und Zinssumme als Gewinn erwirtschaften kann. Wäre bei einem Investitionsprojekt die Zinsrate höher als die erwartete Profitrate des Projektes, gäbe es kein Interesse an Produktivkapital, da das Unternehmen bei vollständiger Fremdfinanzierung Verluste realisieren würde. Da die Lebensdauer von Produktivkapital jedoch weit über eine Periode hinausreicht, muss die Zeitdauer der Kapitalbindung bei der Investitionsentscheidung berücksichtigt werden. Offensichtlich macht es für einen Investor einen Unterschied, ob seinem heutigen Geldvorschuss von z. B. 10 000 € ein Geldrückfluss von 11 000 € bereits in einem Jahr oder erst in zehn Jahren folgt. Mit dem Faktor Zeit kommen Zinseszinseffekte ins Spiel. Bevor der gleichgewichtige Bestand an Produktivkapital und die Kreditnachfrage bestimmt werden, ist es notwendig, Zinseszinseffekte und die Verzinsungsrate von Produktivkapital zu analysieren. Zinseszins und die Verzinsungsrate von Produktivkapital Ist Bt die kreditierte Geldsumme heute und i der gegenwärtig existierende Zinssatz, so hat die Geldsumme in einem Jahr den Wert von Bt + 1 = Bt(1 + i) . Wird die Geldsumme Bt+1 für ein weiteres Jahr angelegt, so gilt bei unverändertem Zinssatz Bt + 2 = Bt +1 (1 + i) bzw. nach Einsetzen Bt + 2 = Bt (1 + i)(1 + i) und Bt + 2 = Bt (1 + i)2 . Somit ergibt sich, dass eine heute angelegte Geldsumme nach n Perioden folgenden Wert hat:
(4.3.4)
Bt + n = Bt (1 + i) n
Für zahlreiche ökonomische Kalküle ist aber auch die umgekehrte Fragestellung interessant. Wenn ich in drei Jahren aus einer Investition einen einmaligen Geldrückfluss von X Euro erwarten darf, wie viel darf mich dann heute diese Investition kosten? Oder: Ein Wertpapier verspricht in zwei Jahren einen Geldrückfluss von Y Euro. Wie teuer darf das Papier heute sein? Fragen dieser Art sind durch eine einfache Umstellung von Gleichung (4.3.4) zu beantworten.
386 (4.3.5)
Keynesianische Makroökonomie
Bt =
Bt + n (1 + i) n
Gleichung (4.3.5) gibt an, dass ein Geldstrom, der am Ende der Periode n anfällt, durch (1 + i) n dividiert werden muss, um seinen gegenwärtigen Wert zu bestimmen. Mit der Formel lässt sich bei gegebenem Zinssatz für beliebige zukünftige Geldströme der Gegenwartswert (oft auch Vermögenswert genannt) berechnen. Die skizzierte Methode zur Berechnung von Gegenwartswerten kann auf jedes beliebige Vermögensobjekt angewandt werden, beispielsweise auch auf den Gegenwartswert verzinslicher Wertpapiere oder auf Aktien. In allen diesen Fällen müssen die tatsächlichen zukünftigen Geldströme ermittelt und dann mit dem Zinssatz abgezinst werden. Allerdings unterscheidet sich die Aktie vom festverzinslichen Wertpapier vor allem dadurch, dass die zukünftigen Geldströme – die Dividenden – unsicher und Schwankungen unterworfen sind. Aber auch der Vermögenswert von Mietshäusern, Grundstücken oder ganzen Unternehmen wird grundsätzlich nach dem gleichen Prinzip ermittelt. Was geschieht ökonomisch bei dieser Berechnung? Geldströme gleicher Höhe, die zu unterschiedlichen Zeitpunkten anfallen, sind unterschiedlich viel wert. 1000 € in einem Jahr sind „wertvoller“ als 1000 € in 10 Jahren, da der Eigentümer mit den 1000 €, die er in 12 Monaten erhält, neun Jahre lang Zinsen erwirtschaften kann. Daher muss ein Verfahren benutzt werden, das Geldströme verschiedener Zeitpunkte auf einen gemeinsamen Zeitpunkt umrechnet und sie dadurch vergleichbar macht. So kann ein Käufer von Wertpapieren z. B. entscheiden, ob er ein neu ausgegebenes oder ein schon umlaufendes Wertpapier kaufen soll. Sehen wir uns Beispiele an. Ein Geldstrom von 121 € in zwei Jahren hat somit bei einem aktuellen Bt + 2 121 € Zinssatz von 10% heute einen Wert von Bt = = = 100 € . (1 + i) 2 (1 + 0,1) 2 Nehmen wir als weiteres Beispiel ein festverzinsliches Wertpapier mit einem Nennwert (NW) von 100 € und einer Restlaufzeit von drei Jahren. Der Zinsfuß iA bei Ausgabe des Wertpapiers habe 10% betragen, der aktuelle Zinsfuß i sei allerdings nur 5 %. Es ist vereinbart, dass der Schuldner jährliche Zinszahlungen leistet und am Ende der Laufzeit den Kredit zurückbezahlt. Der aktuelle Wert des festverzinslichen Wertpapiers (Kurs) wird ermittelt, indem der Gegenwartswert der zukünftigen Einkommensströme berechnet wird.
Kurs =
iANW iANW (iANW + NW) + + (1 + i) (1 + i) 2 (1 + i) 3
Kurs =
100 € ⋅ 0,1 100 € ⋅ 0,1 (100 € ⋅ 0,1 + 100 €) + + (1 + 0,05) (1 + 0,05) 2 (1 + 0,05) 3
Kurs = 9,52 € + 9,07 € + 95,02 € = 113,61 € Dass der aktuelle Kurs des Papiers höher als dessen Nennwert liegt, ergibt sich aus dem Sinken des Marktzinssatzes von 10% auf nunmehr nur noch 5%. Denn bei einem Zinssatz von 5% muss man mehr Geld anlegen als bei einem Zinssatz von 10%, um im Verlauf von drei Jahren in den Genuss eines vorgegebenen Geldflusses zu kommen. Bei einem Kurs von 100 wird es somit eine hohe Nachfrage nach dem umlaufenden Papier geben, welcher den Kurs nach oben treibt. Bei einer Erhöhung des aktuellen Zinssatzes auf 20% sinkt der Vermögenswert unseres Wertpapiers auf 78,93 €, da nun kein Käufer des Papiers bereit wäre, einen höheren Preis zu zahlen – er hätte ja immer die Option des Kaufs eines neu emittierten Papiers. Bleibt der Zinssatz unverändert bei 10%, dann ergibt sich nach der obigen Formel, dass der Kurs nicht vom Nennwert des Papiers abweicht. Der Wert eines festverzinslichen Wertpapiers muss sich somit immer so anpassen, dass ein Käufer eines alten Wertpapiers die gleiche effektive Ver-
Keynesianische Makroökonomie
387
zinsung erhält wie ein Käufer eines neu ausgegebenen. Zinssatzerhöhungen senken somit die Börsenkurse festverzinslicher Papiere, während Zinssatzsenkungen zu Kurserhöhungen führen. Auf dem Anleihenmarkt kann dieser Zusammenhang täglich beobachtet werden. Aus dem Zinseszinseffekt folgt zudem, dass Geldströme bei Zinssatzvariationen stärkeren prozentualen Schwankungen unterworfen sind, wenn sie weiter in der Zukunft liegen. Allerdings nimmt der Gegenwartswert von zukünftigen Geldströmen bei großen n schnell ab. Bei einem Zinssatz von 10% ist ein Geldstrom von 100 € in einem Jahr heute 90,91 € wert; ein Geldstrom von 100 € in 10 Jahren ist beim gleichen Zinssatz nur noch 38,55 € wert.147 Auch bei Investitionen in Produktivkapital spielt der Zinseszinseffekt eine zentrale Rolle, da durch Investitionen Geldvorschüsse üblicherweise längerfristig gebunden werden. Allerdings stellt sich hier, im Vergleich zur Kursbestimmung von umlaufenden Wertpapieren, das Problem in modifizierter Form. Ein Unternehmer kennt den notwendigen Geldvorschuss zum Kauf seiner benötigten Produktionsmittel aufgrund der Preise auf dem Gütermarkt – z. B. wenn er ein Angebot über eine industrielle Anlage einholt. Die Geldrückflüsse aus einer Investition hängen von den zukünftigen Umsatzerlösen minus den laufenden Kosten, also den Nettorückflüssen der entsprechenden Perioden, ab. Abschreibungen sind hier in den laufenden Kosten nicht enthalten, da sie ein Teil der zukünftigen Nettogeldströme sind. Die Rate, die zur Gleichheit zwischen den zukünftigen Nettorückflüssen und dem heutigen Geldvorschuss in ein Investitionsprojekt führt, wird erwartete Verzinsungsrate von Produktivkapital148 genannt. Sie ist folgendermaßen definiert: (4.3.5) mit:
pPK = pPK : Et : Kt : n: r:
(E1 − K1) (E2 − K2) (En − Kn) + + ... + (1+ r) (1+ r)2 (1+ r) n (Gütermarkt-) Preis für Produktivkapital, der über die Produktionskosten bestimmt ist erwartete Erlöse bzw. Umsätze in der Periode t erwartete laufende Kosten (ohne Abschreibungen) in der Periode t erwartete Funktionsdauer des Produktivkapitals erwartete Verzinsungsrate von Produktivkapital
Die von uns gewählte Schreibweise der obigen Gleichung darf man nicht so verstehen, als suche man den Preis der Anlage, der auf der linken Seite der Gleichung steht. Tatsächlich wird die erwartete Verzinsungsrate als Unbekannte gesucht. Angenommen, eine Anlage koste rund 1.031 Mio. und habe eine vermutete Lebensdauer von drei Jahren. Unser Unternehmer erwarte jährliche Umsatzerlöse von 600 Mio. Diese Beträge müssen erstens dafür sorgen, dass das vorgeschossene Geld für die Maschine zurückfließt. Zweitens müssen so die laufenden Kosten gedeckt werden. Wenn wir unterstellen, er kalkuliere während der Lebensdauer des Investitionsprojektes mit jährlichen laufenden Kosten in Höhe von 200 Mio., so ergibt sich ein jährlicher Nettogeldfluss von 400 Mio. Mit diesen Informationen kann die Verzinsungsrate des Investitionsprojektes r = 8% errechnet werden. 1,031 Mio. =
147
(600 Mio − 200 Mio) (600 Mio − 200 Mio) (600 Mio − 200 Mio) + + 1.08 (1,08)2 (1,08)3
Bei einer unendlichen Laufzeit eines festverzinslichen Wertpapiers wird n unendlich groß. Dadurch vereinfacht sich iA ⋅ NW die obige Berechnungsformel auf: Kurs = . Bei einer jährlichen Zinszahlung von 10 € für unendliche Zeit und i einem aktuellen Zinssatz von 5% beträgt der Kurswert des Papiers 200 €. In vielen ökonomischen Modellen wird zur Vereinfachung eine unendliche Laufzeit festverzinslicher Wertpapiere unterstellt. 148 Keynes (1936, Kapitel 11) hat diese Rate etwas unglücklich Grenzleistungsfähigkeit des Kapitals genannt. Diese hat zwar nicht mit der Grenzproduktivität des Kapitals zu tun, jedoch suggeriert die Grenzleistungsfähigkeit einen ähnlichen Zusammenhang.
388
Keynesianische Makroökonomie
Ceteris paribus steigt die erwartete Verzinsungsrate von Produktivvermögen (r) bei sinkenden aktuellen Gütermarktpreisen für Produktivkapital, sinkenden laufenden Kosten in zukünftigen Perioden, steigenden Erlösen in zukünftigen Perioden und zunehmender Funktionsdauer des entsprechenden Produktivkapitals. Allerdings liegen die meisten Größen, die die erwartete Verzinsungsrate von Produktivkapital bestimmen, in der Zukunft. Objektive Wahrscheinlichkeiten zur Berechnung der Verzinsungsrate gibt es im keynesianischen Paradigma aufgrund von Unsicherheiten nicht (vgl. Kapitel 4.2). Die subjektiv bestimmte Verzinsungsrate von Produktivkapital hängt, wie Keynes es nannte, von einem Zustand des Vertrauens ab. „Der Zustand des Vertrauens, wie er genannt wird, ist ein Faktor, dem die Geschäftsleute immer die tiefste und sorgfältigste Beachtung schenken. Die Ökonomen haben ihn aber nicht sorgfältig analysiert (...) Insbesondere ist nicht klargemacht worden, dass er seine Bedeutung für wirtschaftliche Fragen durch seinen wichtigen Einfluss auf die Tabelle der Grenzleistungsfähigkeit des Kapitals [in diesem Lehrbuch: Verzinsungsrate von Produktivkapital, d. V.] gewinnt. (...) Es kann aber a priori nicht viel über den Zustand des Vertrauens gesagt werden.“ Keynes (1936, S. 125) An einer anderen Stelle hat Keynes (1937) von einer gesellschaftlichen „Übereinkunft“ gesprochen, welche die Erwartungen zu einem bestimmen Zeitpunkt prägt, die sich jedoch schnell ändern kann (vgl. Kapitel 4.2.3). Aus diesem Grunde ist die erwartete Verzinsungsrate von Produktivkapital fundamental von subjektiven Erwartungen abhängig: Bei den erwarteten Erlösen muss ein Unternehmen das Verkaufsvolumen und den Preis seines Angebots abschätzen. Es muss – um nur ein Beispiel zu nennen – bei der Erwartungsbildung das mögliche Entstehen von billigeren oder qualitativ besseren Substituten berücksichtigen. Bei den laufenden Kosten muss ein Unternehmen unter anderem die Lohnentwicklung und die Güterpreise der Vorlieferanten antizipieren, da sich in einzelnen Branchen Preise und Kosten nicht gleichmäßig entwickeln müssen. Er muss die Möglichkeit der Einführung einer verbesserten Technologie durch Konkurrenzunternehmen in Betracht ziehen. Schließlich bereitet es Schwierigkeiten, die Funktionsdauer des Produktivkapitals festzulegen, da nicht nur der physische Verschleiß, sondern auch der ökonomische geschätzt werden muss: Wird es technologische Innovationen, Veränderungen der Präferenzen der Konsumenten, neue Konsumgüter etc. geben, die die Investition entwerten? Man stelle sich eine Investition in eine neue Stahlfabrik oder eine Offshore-Windkraftanlage vor, die beide eine Lebensdauer von mehreren Jahrzehnten haben, dann werden uns die Herausforderungen für die Erwartungsbildung klar. Da die erwartete Verzinsungsrate weitgehend von subjektiven Erwartungen bestimmt wird, reagiert sie empfindlich auf Veränderungen der ökonomischen Umwelt. Verschlechtern sich die Erwartungen über die Zukunft, so werden Unternehmen zukünftige Nettorückflüsse unter Umständen extrem vorsichtig einschätzen. Bei einem steigenden Niveau der Unsicherheit verkürzt sich der Zeithorizont, den Investoren ihren Planungen zugrunde legen. Dadurch sinkt die Anzahl der zukünftigen Nettogeldflüsse aus einer Investition. Alles in allem führen verschlechterte Zukunftserwartungen zur Reduzierung oder gar zum Zusammenbruch der erwarteten Verzinsungsrate von Produktivkapital. Bei positivem Investitionsklima beispielsweise angesichts einer gegenwärtig überschäumenden Konjunktur ist es dagegen möglich, dass die zukünftigen Umsätze als sehr hoch eingeschätzt werden und die erwartete Verzinsungsrate in die Höhe schnellt. Ohne Zweifel müssen Unternehmen bei der Abschätzung der Verzinsungsrate von Produktivkapital gesamtökonomische und gesellschaftliche Entwicklungen mit berücksichtigen. Dieser Umstand macht es – wie sich später noch zeigen wird – für die Wirtschaftspolitik unter Umständen schwer, das Investitionsklima zu verbessern. Der keynesianische Unternehmer hat wenig mit dem Unternehmer der Neoklassik gemein, der als reiner Mengenanpasser agiert. Dies gilt für verschiedene Aspekte: Bei der Bestimmung der Verzinsungsrate von Produktivkapital berücksichtigt ein Unternehmer seine zukünftigen Verkaufsmöglichkeiten, die er keineswegs bei gegebenem Marktpreis als unendlich annimmt. Implizit ist damit unterstellt, dass Gütermärkte durch monopolistische Konkurrenz bis hin zu Oligopol- und Monopolstrukturen gekennzeichnet sind, Unternehmen somit auf der Basis einer Preis-Absatz-Funktion kalkulieren müssen (vgl.
Keynesianische Makroökonomie
389
Kapitel 2.6). Wichtiger ist, dass der Unternehmer auf der Grundlage von „animal spirits“, also einer subjektiven, oft gefühlsmäßigen Einschätzung der wirtschaftlichen Lage seine Investitionsentscheidungen treffen muss. Unternehmensentscheidungen lassen sich keinesfalls auf mathematische Optimierungsverfahren reduzieren. „Wir wollen uns lediglich erinnern, dass menschliche Entscheidungen, welche die Zukunft beeinflussen, ob persönlicher, politischer oder wirtschaftlicher Art, sich nicht auf strenge mathematische Erwartungen stützen können, weil die Grundlage für solche Berechnungen nicht besteht; und dass es unser angeborener Drang zur Tätigkeit ist, der die Räder in Bewegung setzt, wobei unser vernünftiges Ich nach bestem Können seine Wahl trifft, rechnend, wo es kann, aber oft für seine Beweggründe zurückfallend auf Laune, Gefühl oder Zufall.“ Keynes (1936, S. 137) Deutlicher lässt sich die Gegenposition zur neoklassischen Theorie rationaler Erwartungen (vgl. Kapitel 3.4.5 und Kapitel 4.2.3) nicht formulieren, und es ist im Kern unerheblich, ob der Drang zur Investitionstätigkeit tatsächlich angeboren ist oder das Resultat einer spezifischen Gesellschaftlichkeit (wovon wir im Übrigen ausgehen). Das keynesianische Bild des Unternehmers hat Berührungspunkte zum Schumpeterschen Unternehmer, der die Technologie stetig zu verbessern sucht, neue Produkte entwickelt und seine innovativen Bestrebungen ebenfalls nicht auf objektive Wahrscheinlichkeiten basiert (vgl. Schumpeter 1926). Bei Keynes wie bei Schumpeter spielt bei der Investitionsentscheidung die Gesellschaft insgesamt eine Rolle, die politische Lage, die Institutionen und die verfolgten Politiken. Die Investitionsentscheidung Ein Unternehmer wird in der oben beschriebenen Art und Weise zu einem gegebenen Zeitpunkt für jedes spezifische Investitionsprojekt – für eine einzelne spezifische Maschine, für eine einzelne spezifische Produktionsanlage etc. – eine spezifische Verzinsungsrate erwarten. Also: Wie hoch ist die Verzinsungsrate einer neuen Drehbank? Wie hoch verzinst sich eine neue Lagerhalle, eine neue Stahlfabrik etc.? Demnach kann und muss ein Unternehmer für eine Vielzahl von Investitionsprojekten jeweilige Verzinsungsraten von Produktivkapital kalkulieren. Schließlich schätzen unterschiedliche Unternehmen die Lage unterschiedlich ein, so dass ein und dasselbe Vorhaben subjektiv recht unterschiedlich bewertet werden kann. Kurz: In jeder historischen Periode gibt es zahlreiche potenziell durchführbare Investitionsprojekte, denen von Unternehmern spezifische Verwertungsraten zugeordnet werden. Es existieren einige wenige Projekte, die mit sehr hohen erwarteten Verwertungsraten verbunden sind, andere, die eine mittlere Verzinsungsrate erwarten lassen und zahlreiche, von denen man sich nur sehr kleine oder gar keine positiven Verwertungsraten verspricht. Der Unternehmenssektor insgesamt erbt aus der Vergangenheit einen Bestand an Produktivkapital. Bezüglich dieses Bestandes können die Unternehmen nicht entscheiden, ob sie ihn halten wollen oder nicht. Allerdings reduziert sich der Bestand an Produktivkapital in jeder Periode wertmäßig um die Abschreibungen. Zwar kann auch für den Altbestand von Produktivkapital eine Verzinsungsrate erwartet werden, jedoch geht von diesen Verwertungsraten kein Impuls zu neuen Investition aus. Relevant sind die Verzinsungsraten für Produktivkapital jedoch für die Bruttoinvestitionen, da ein Unternehmer auch über Ersatzinvestitionen grundsätzlich frei entscheiden kann. Werden alle Investitionsprojekte in einer Volkswirtschaft nach der Höhe der erwarteten Verzinsungsrate geordnet und wertmäßig addiert, dann kann eine makroökonomische Tabelle der Investitionsmöglichkeiten erstellt werden. Ihr Aufbau ergibt sich aus dem Umstand, dass es nur wenige Vorhaben gibt, die eine sehr hohe Verzinsungsrate erwarten lassen. Kommen diejenigen hinzu, von denen eine geringere Verwertungsrate vermutet wird, werden die Anzahl der Investitionsprojekte und damit das wertmäßige Investitionsvolumen insgesamt zunehmen. (Und verlustreiche Vorhaben gibt es wie Sand am Meer.) In Abbildung 4.3.14 drückt PVkum in kumulativer Form und ausgedrückt in Geldeinheiten die Anordnung der potenziell möglichen Investitionsprojekte aus, die eine positive Verzinsung erwarten lassen.
390
Keynesianische Makroökonomie
Am Anfang der betrachteten Periode soll sich der ererbte Kapitalbestand auf PValt belaufen. Sind die Bruttoinvestitionen Null, wird der Kapitalbestand bis zum Ende des Jahres auf PValt1 sinken. PValt PValt 1 entspricht somit dem Wertverzehr von Produktivkapital während der Periode. Sobald Unternehmen zumindest brutto investieren, erhöhen sie den Kapitalbestand über PValt1 hinaus. Die Unternehmen kennen kein Investitionsprojekt, das eine Verzinsungsrate von über r3 erwarten lässt. Bei niedrigeren erwarteten Verzinsungsraten als r3 fallen den Unternehmen entsprechende Investitionsvorhaben ein. Bei einer Verzinsungsrate von r2 können Unternehmen Investitionsprojekte im Umfang PValt minus PValt-1 nennen, die eine Verwertungsrate von r2 oder höher erwarten lassen. In diesem Fall würden mögliche Investitionsvorhaben gerade dem Wertverzehr des Produktivkapitals entsprechen. Sehen wir uns nun die Verzinsungsrate r1 an. Hier könnten die Unternehmen Bruttoinvestitionen von PV3 minus PValt-1 vornehmen, die eine Verwertung von r1 oder höher erwarten lassen. Es gäbe in diesem Fall Nettoinvestitionen in Höhe von PV3 minus PValt. Die in Abbildung 4.3.14 abgetragene Beziehung drückt keinesfalls aus, dass aufgrund physischer Gründe – etwa einer fallenden Grenzproduktivität des Faktors Kapital – die Verwertungsrate von Produktivkapital mit steigenden Investitionen sinkt. Die Gerade bringt ausschließlich die Annahme zum Ausdruck, dass unterschiedliche Unternehmer unterschiedliche Erwartungen bezüglich der Verwertung von gleichen oder auch unterschiedlichen Investitionsprojekten in der betrachteten Periode haben. Schließlich kann sich die Tabelle der Investitionstätigkeit verschieben. Verbessern sich allgemein die Zukunftserwartungen der Unternehmer, dann wird sich die Gerade nach rechts und im umgekehrten Fall nach links verschieben.
Abbildung 4.3.14: Anordnung der Investitionsprojekte entsprechend ihrer erwarteten Verzinsung r r3
r2
r1
PVkum
PValt-1 Abschreibungen
PValt
PV3
PV
Nettoinvestitionen
Eine positive erwartete Verzinsungsrate für ein Investitionsprojekt ist ein notwendiger, jedoch kein hinreichender Grund, eine Investition auch durchzuführen. Bei Investitionsentscheidungen müssen zwei Raten miteinander verglichen werden: Da die Unternehmer für Investitionsvorhaben Kredite benötigen, müssen sie ihre erwartete Verzinsungsrate mit dem Zinssatz für die aufzunehmenden Kredite vergleichen. Wir unterstellen dabei, dass es sich um langfristige Kredite handelt, die langfristige Inves-
Keynesianische Makroökonomie
391
titionen finanzieren. Es macht für Unternehmen keinen Sinn, bei einem Zinssatz zu investieren, der höher ist als die Verzinsungsrate des fraglichen Investitionsprojekts. In diesem Fall würde der Unternehmer Verluste realisieren. Falls ein Unternehmer eine Verzinsungsrate von Produktivkapital erwartet, die größer als der Zinssatz ist, so erzielt er in seinen Erwartungen Unternehmergewinne. Ob sich diese dann auch realisieren lassen, hängt von den zukünftig existierenden Bedingungen ab. Als Investitionsregel eines gewinnmaximierenden Unternehmens ergibt sich: r ≥ i ⇒ Investitionen werden durchgeführt, wobei der Unternehmer bei r = i indifferent ist r < i ⇒ Investitionen werden nicht durchgeführt149 Die Investitionsentscheidung wurde bislang über den i-r-Vergleich abgeleitet, die manchmal auch als interne Zinsfuss-Methode bezeichnet wird. Die Größe r ist jedoch bei mehreren Perioden mathematisch nicht einfach zu berechnen. Einfacher ist eine zweite Methode zur Beurteilung von Investitionsvorhaben, die freilich zum gleichen Ergebnis führt, die so genannte Kapitalwertmethode. Bei der Kapitalwertmethode werden die zukünftigen Nettogeldströme eines Investitionsprojektes mit dem (Geld-) Zinssatz abgezinst, um den Vermögenswert des Projektes zu berechnen. Der Vermögenswert (VW) wird dann mit dem (Gütermarkt-) Preis der Kapitalgüter bzw. der Investitionssumme (pPK) verglichen. Der Vermögenswert (VW) einer Investition, hier die Unbekannte, wird entsprechend der Gleichung (4.3.5) wie folgt berechnet:
VW =
(E1 − K1) (E2 − K2) (En − Kn) + + ... + (1 + i) (1 + i) n (1 + i) 2
Die Investitionsentscheidung sieht dann folgendermaßen aus: VW ≥ pPK ⇒ Investition wird durchgeführt, wobei der Unternehmer bei VW = pPK indifferent ist VW < pPK ⇒ Investition wird nicht durchgeführt. Ist r > i, dann bedeutet dies, dass der Vermögenswert einer Investition größer ist als der (Gütermarkt-) Preis für das Vermögensobjekt; ist r < i, dann ist der Vermögenswert kleiner als die Investitionssumme. Verdeutlichen wir uns dies mit Hilfe eines Beispiels: Ein Investitionsprojekt koste heute 100 000 €. Die Nettogeldrückflüsse der Investition sollen nach der ersten Periode 50 000 €, nach der zweiten 40 000 € und nach der dritten 30 000 € betragen. Der Vermögenswert dieser Investition beträgt dann bei einem Zinssatz von 5%:
VW =
50 000 Euro 40 000 Euro 30 000 Euro + + = 109 815,35 Euro (1 + 0,05) (1 + 0,05)2 (1 + 0,05)3
Eine Investition wird nur dann durchgeführt, wenn das Investitionsgut auf dem Gütermarkt weniger als 109 815,35 € kostet. Da dies der Fall ist, wird investiert.
149
Oftmals wird eingewandt, dass bei einer Investition zur Kompensation des Unternehmerrisikos die Verwertung von Produktivkapital um einen bestimmten Prozentsatz höher sein müsste als der Zinssatz. Dieses Risiko wird in der oben angegebenen Investitionsregel in der Form einer vorsichtigeren Kalkulation von r berücksichtigt. Es wäre auch kein Problem, die Investitionsregel folgendermaßen zu fassen: Wenn r – 2% ≥ i ist, werden Investitionen durchgeführt; wenn r – 2% < i werden Investitionen nicht durchgeführt. In diesem Fall wäre explizit ein Unternehmerrisiko von 2% unterstellt.
392
Keynesianische Makroökonomie
VW , dann wird eine Investition durchgeführt, wenn q p PK größer als eins ist. Sie wird nicht durchgeführt, falls dieser Wert kleiner als eins ist. Das q wird als Tobins-q bezeichnet (Tobin 1998).
Bilden wir den folgenden Quotienten q =
Investitions- und Kreditnachfrage Wir werden im Folgenden die Investitionsentscheidungen mit Hilfe des i-r-Vergleichs ableiten. Der Zinssatz ist für den einzelnen Unternehmer ein gegebenes Datum. Er wird folglich die Investitionen und damit den Bestand an Produktivkapital bis zu dem Punkt ausdehnen, an dem die erwartete Verzinsungsrate von Produktivkapital der Zinsrate entspricht. Der Zusammenhang für den gesamten Unternehmenssektor ist in Abbildung 4.3.15 dargestellt, wobei der jeweils gegebene Zinssatz als horizontale Linie eingezeichnet wurde. Bei einem Zinssatz von i3 sind die Bruttoinvestitionen Null. Der Zinssatz ist bei den gegebenen Erwartungen der Unternehmen so hoch, dass keine Investitionen stattfinden. Sinkt der Zinssatz auf i2 , dann werden Bruttoinvestitionen in Höhe von PValt - PValt -1 möglich. In diesem Fall wird der Bestand an Produktivkapital konstant gehalten. Die Nettoinvestitionen sind Null, während die Bruttoinvestitionen den Ersatzinvestitionen entsprechen. Erst wenn der Zinssatz weiter sinkt, kommt es zu Nettoinvestitionen und zwar beim Zinssatz i1 in Höhe von PV3 - PValt . Die Bruttoinvestitionen betragen in diesem Fall PV3 - PValt-1 . Die Investitionstätigkeit wird implizit über den gewünschten Bestand an Produktivkapital abgeleitet. Bei einem Zinssatz von i3 ist der gewünschte Bestand an Produktivkapital so niedrig, dass die Bruttoinvestitionen Null sind. In diesem Fall halten die Unternehmen den am Anfang der Periode existierenden Kapitalbestand minus der Abschreibungen. Beim Zinssatz i1 wird im Vergleich zur Vorperiode eine Erhöhung des Bestandes an Produktivkapital gewünscht. Die Erhöhung wird durch Nettoinvestitionen realisiert. Es sollte beachtet werden, dass in der Abbildung die Erwartungen der Unternehmer konstant gehalten wurden. Bei positiven Erwartungsänderungen verschiebt sich die Kurve nach rechts und beginnt bei einem höheren Wert von r. Im umgekehrten Fall verschiebt sich die Kurve nach links unten.
Abbildung 4.3.15: Die Ableitung des gewinnmaximalen Bestandes an Produktivkapital r, i i3 PVkum i2
i1
PValt-1
PValt
PV3
PV
Betrachten wir die Nachfrage nach Nettoinvestitionen (I), wobei wir für einen Moment unterstellen, dass die Nettoinvestitionen nicht negativ werden können. Die Nachfrage nach Nettoinvestitionen (4.3.6)
I = I (i, PValt, ΘU )
Keynesianische Makroökonomie
393
ist dann neben dem Zinssatz durch den alten Bestand an Produktivkapital (PValt) und die gegebene Erwartungsstruktur der Unternehmer bestimmt. Der Zinssatz und die Erwartungen bestimmen den gewünschten Kapitalbestand. Bei gegebenem Produktivvermögen am Beginn der Periode ergibt sich die Nachfrage nach Nettoinvestitionen in der laufenden Periode. Die Nachfrage nach Nettoinvestitionen, die sich aus der Abbildung 4.3.15 ergibt, ist in der Abbildung 4.3.16 durch Ib gekennzeichnet. Sie beginnt bei PValt und dem Zinssatz i2 , da erst ab diesem Zinssatz Nettoinvestitionen realisiert werden. Mit sinkendem Zinssatz (und bei gegebenen Erwartungen) steigen dann die Nettoinvestitionen an. In Abbildung 4.3.16 ist eine zweite Investitionsfunktionen Ia eingezeichnet. Ia ist durch positivere Erwartungen der Unternehmer ( 4U > 4U ) gekennzeichnet als Ib. Zu jedem Zinssatz wird bei Ia mehr investiert, und die Investitionsfunktion beginnt bei einem höheren Zinssatz. Beim Zinssatz i1 steigt aufgrund des positiven Erwartungseffektes die Investitionsnachfrage von I1 auf I2 .
Abbildung 4.3.16: Die (Netto-) Investitionsfunktion i i3 i2 i1
I a i, PValt , 4 U
Ia Ib
I1
I2
I b i, PValt , U
I
Die Annahme der vollständigen Fremdfinanzierung von Produktivkapital impliziert, dass der gewünschte Bestand an Produktivkapital unmittelbar die aggregierte Kreditnachfrage der Unternehmen determiniert. Zu beachten ist, dass die bereits laufenden Kreditverträge, mit denen der Altbestand an Produktivvermögen finanziert wurde, auch zur Kreditnachfrage zählen. Wir stellen die aggregierte Kreditnachfrage der Unternehmen in Abbildung 4.3.17 dar. Bei einem Zinssatz von i3 kommt es zu keinen Investitionen, also auch die Bruttoinvestitionen sind null. Allerdings gibt es den alten Kreditbestand, mit dem – wie gesagt – der Altbestand an Produktivkapital finanziert wurde und der quantitativ den größten Teil des Kreditvolumens ausmachen dürfte. Ist der Zinssatz größer oder gleich i3 , sinkt im Vergleich zur Vorperiode der Bestand an Produktivkapital und damit der Kreditbestand um die Abschreibungen. Die Tilgung eines Teils des Kredits sollte durch erwirtschaftete Abschreibungsbeträge möglich geworden sein. Machen wir uns den Zusammenhang an einem möglichst einfachen Beispiel klar. Angenommen, PValt beläuft sich auf 1000 Geldeinheiten und der Wertverlust soll in der betrachteten Periode 500 Geldeinheiten betragen. Unter der Annahme, dass die Bruttoinvestitionen Null sind, beläuft sich am Ende der Periode PValt-1 auf 500 Geldeinheiten. Der Kreditbestand ist wegen der Tilgung ebenfalls auf 500 Geldeinheiten gesunken. Für den verbleibenden Kredit (500 Geldeinheiten) muss der Schuldendienst unabhängig vom aktuellen Zinssatz noch geleistet werden. Dieser Teil des Kreditvolumens bzw. der Kreditnachfrage ist unabhängig vom Zinssatz, so dass die Kreditnachfragekurve bis i3 vertikal verläuft.
394
Keynesianische Makroökonomie
Abbildung 4.3.17: Die aggregierte Kreditnachfrage des Unternehmenssektors i
i3 K NU
K NU ( i, PValt-1 , U )
i2 i1
PValt-1
PValt
PV3
KNU
Sinkt der Zinssatz, beginnend ab i3 , wird aufgrund der zinsabhängigen Bruttoinvestitionen auch die Kreditnachfrage ansteigen. Sofern der Marktzinssatz durch i2 charakterisiert ist, werden Investitionen in Höhe von PValt - PValt -1 realisiert. Die gesamte Kreditnachfrage entspräche dem Wert von PValt . Und bei i1 würde es entsprechend zu einer Kreditnachfrage von PV3 kommen – in Höhe von PValt als Kreditbestand am Beginn der Periode und PV3 - PValt als neue Kredite durch Nettoinvestitionen.
Die aggregierte Kreditnachfrage der Unternehmen kann durch (4.3.7)
KNU = KNU(i, PValt-1, U)
formalisiert werden. Eine Verbesserung der Zukunftserwartungen der Unternehmen verschiebt den geneigten Teil der Kreditnachfragefunktion nach rechts. Der jeweilige Bestand an Produktivkapital (PValt - 1) legt fest, bei welcher Kreditnachfrage der vertikale Ast der Kreditnachfragefunktion angesiedelt ist. Effekte der Veränderungen der relevanten Variablen werden bei der Analyse des Gleichgewichts des Gütermarktes näher untersucht. Kernpunkte Bei der Investitionsentscheidung in Produktivvermögen vergleichen Unternehmen die Verzinsungsrate von Produktivvermögen bzw. Investitionsprojekten mit dem Geldzinssatz. Wenn die Verzinsung eines Investitionsprojektes über der des Geldzinssatzes liegt wird investiert, anderenfalls nicht. Die Verzinsungsrate von Investitionsprojekten wird von Erwartungen über die zukünftigen Nettozahlungsströme einer Investition und der Investitionssumme bestimmt. Eine Rolle spielt der Zustand des Vertrauens der Investoren. Eine physische Grenzproduktivität (wie in der Neoklassik) spielt bei der erwarteten Verzinsungsrate von Produktivvermögen keine Rolle. Die Kreditnachfrage seitens der Unternehmen wird durch einen Altbestand an Kredit bzw. Produktivvermögen und durch eine – bei gegebenen Erwartungen – mit fallendem Zinssatz steigende Investitionstätigkeit bestimmt. Die Kreditnachfrage ist dabei identisch mit der Nachfrage nach Produktivvermögen. Der Bestand an Produktivkapital sinkt, wenn die Investitionstätigkeit den Werteverzehr des Produktivkapitals nicht ausgleicht. Der Bestand an Produktivvermögen und Krediten steigt bei positiven Nettoinvestitionen. Die Investitionstätigkeit und damit auch die Kreditnachfrage muss aufgrund ihrer Abhängigkeit von Erwartungen als instabil angesehen werden. Auch sind Phasen langfristig stagnierender Investitionen als auch Phasen überschäumender Investitionen möglich.
Keynesianische Makroökonomie
395
4.3.5 Das Gleichgewicht auf dem Kreditmarkt Fragestellung Wie bestimmen sich der gleichgewichtige Bestand an Produktivvermögen, das gleichgewichtige Kreditvolumen und die gleichgewichtige Investitionstätigkeit? Wann begrenzt die Kreditnachfrage und wann das Kreditangebot die Kreditexpansion? Wie wirken sich Geldpolitik und Erwartungsänderungen auf die Gleichgewichtlösungen aus? Das Gleichgewicht auf dem Kreditmarkt ergibt sich durch die Interaktion zwischen der in den obigen Kapiteln abgeleiteten aggregierten Kreditnachfragefunktion der Unternehmen (KN) mit der aggregierten Kreditangebotsfunktion des Finanzsystems (KA). In Abbildung 4.3.18 ist der Kreditmarkt dargestellt. Der gleichgewichtige Zinssatz entspricht i*, der vom Bankensystem bestimmt wird. Das Finanzsystem stellt für diesen Zinssatz Kredit zu Verfügung bis alle guten Schuldner bedient sind. Das gleichgewichtige Kreditvolumen (K*) ist in der Abbildung identisch mit dem maximalen Kreditangebot des Finanzsystems, es gilt somit K* = KAmax. In der Abbildung werden somit nicht alle Kreditnachfrager zum gleichgewichtigen Zinssatz bedient. Es gibt Kreditrationierung bzw. unbefriedigte Kreditnachfrager. Aus der Analyse des Kreditmarktes ergibt sich nicht nur das gleichgewichtige Kreditvolumen, sondern unmittelbar auch die gleichgewichtige Investitionstätigkeit. Da der gleichgewichtige Kapitalstock dem gleichgewichtigen Kreditvolumen entspricht, ergeben sich Nettoinvestitionen (I) von K*- PValt, Ersatzinvestitionen (IE) in Höhe von PValt-PValt-1 und Bruttoinvestitionen in Höhe von K*PValt-1.
Abbildung 4.3.18: Der aggregierte Kreditmarkt mit Kreditrationierung i
i1 KA
i*
IE
I
PValt -1
PValt
KN K
K*= KAmax
Die aggregierte Kreditangebots- bzw. Kreditnachfragefunktion wurde mit (4.3.1)
KA= KA(iref,F)
(4.3.7)
KNU = KNU(i, PValt-1, U)
angegeben. Daraus erschließen sich unmittelbar die Faktoren, die für den Kreditmarkt relevant sind. Als unabhängige Variable gelten die Erwartungen der Unternehmen und des Finanzsystems (die Thetas), der von der Zentralbank diktierte Refinanzierungszinssatz (iref) und der alte Bestand an Produktiv-
396
Keynesianische Makroökonomie
vermögen (PValt-1). Als endogene Variablen ergeben sich der Verleihzinssatz (i*) und das Kreditvolumen (K*). Implizit kann aus dem Ergebnis die Investitionstätigkeit abgeleitet werden. Es stellt sich die Frage, warum sich bei dem gleichgewichtigen Kreditvolumen K* nicht der Zinssatz i1 herausbildet, denn dieser wäre der markträumende Zinssatz, den die Gläubiger durchsetzen könnten. Joseph Stiglitz und Andrew Weiss (1981) haben auf der Grundlage asymmetrischer Informationen ein Kreditmodell mit Kreditrationierung vorgelegt, das zur Erklärung herangezogen werden kann. Sie gehen davon aus, dass die Qualität der einzelnen Schuldner nicht zu beobachten ist und eine Bank bei einer Zinserhöhung davon ausgehen muss, dass die Qualität der Schuldner sinkt. Ein steigender Zinssatz wird somit ab einem gewissen Punkt die Gewinne der Bank reduzieren, da die zusätzlichen Zinseinnahmen die erwarteten zusätzlichen Ausfälle nicht mehr decken. Dieses Kalkül beschränkt die Zinshöhe. Wir können dieses Argument modifiziert auf den hier vorliegenden Fall übertragen. Wir haben zwar eine Gruppe von guten Schuldnern unterstellt, jedoch hängt die Qualität der Schuldner abgesehen von anderen Faktoren auch vom Zinssatz ab. Ein höherer Zinssatz erhöht zweifelsfrei die Wahrscheinlichkeit, dass Schuldner mit ihren Projekten scheitern und/oder Pfänder nicht zur Kompensation eines Kreditausfalls ausreichen. Ein steigender Zinssatz wird somit das gleichgewichtige Kreditvolumen verringern und damit die Gewinne der Bank senken. Dieser Mechanismus beschränkt die Zinsspanne. Bei dem abgeleiteten Kreditmarktgleichgewicht handelt es sich um ein kurzfristiges Gleichgewicht einer Periode. Diese umfasst die Zeit, die zur Veränderung des aus der Vergangenheit geerbten Kapitalstocks benötigt wird. Die Nettoinvestitionen verändern den Kapitalstock, wobei die Veränderung in der folgenden Periode wirksam wird. Mit dem dann gegebenen Kapitalstock und den dann gegebenen Erwartungen der Unternehmen und des Finanzsystems sowie der Geldpolitik der Zentralbank kann in der folgenden Periode ein neues Gleichgewicht bestimmt werden. Die Ökonomie springt, modelltheoretisch gesprochen, von einer Periode zur nächsten, wobei die Dynamik im Wesentlichen durch die Erwartungen und die Geldpolitik bestimmt wird. Mit Hilfe des Kreditmarktes lassen sich verschiedene Fälle durchspielen. Zunächst ist es nicht zwingend, dass es zu einer Kreditrationierung kommt. In Abbildung 4.3.19 ist eine Situation skizziert, bei der es mehr gute Schuldner gibt als gute Kreditnachfrager. In der angegebenen Konstellation wollen somit nicht alle Schuldner, die für den Zinssatz i* einen Kredit bekommen könnten, einen Kredit haben. Der Markt wird in diesem Fall geräumt und durch den Zinssatz zum Ausgleich gebracht. Das Finanzsystem bestimmt auf der Basis des Refinanzierungszinssatzes der Zentralbank den Verleihzinssatz i*, während die Kreditnachfrage das Kreditvolumen (und dadurch implizit auch die Zentralbankgeldmenge) bestimmen. Unterstellt ist hier der Ansatz der Horizontalisten, die im einfachsten Fall genau eine solche horizontale Kreditangebotsfunktion annehmen (vgl. den Exkurs in Kapitel 4.3.3).
Keynesianische Makroökonomie
397
Abbildung 4.3.19: Der aggregierte Kreditmarkt ohne Kreditrationierung i
KA
i* IE PValt -1
KN
I K*
PValt
K
KAmax
Untersuchen wir die Wirkungsweise der Geldpolitik. Die Zentralbank erhöhe ihren Refinanzierungszinssatz. Dadurch verschiebt sich in der Abbildung 4.3.20 die Kreditangebotsfunktion von KA1 auf KA2. Der Verleihzinssatz steigt von i* auf i**, da sich die Banken zu einem höheren Zinssatz refinanzieren müssen. Aber die Kreditangebotsfunktion verschiebt sich nicht nur nach oben, sondern aufgrund des höheren Zinssatzes sinkt auch die Anzahl der als sicher geltenden Schuldner. Damit reduziert sich das maximale Kreditvolumen von KAmax1 auf KAmax2. Die Investitionstätigkeit sinkt, was bei restriktiver Geldpolitik zu erwarten ist. In der Abbildung werden die Nettoinvestitionen null.
Abbildung 4.3.20: Die Wirkung von Geldpolitik bei Kreditrationierung auf dem Kreditmarkt i
KA2
i**
KA1 i*
IE
I
K**=KAmax2 K*=KAmax1
KN K
Es ergibt sich ein ähnlicher Effekt, wenn es keine Kreditrationierung gibt. Bei steigenden Refinanzierungszinssätzen verschiebt sich die Kreditangebotsfunktion ebenfalls nach oben. Aber, da wir die Befriedigung aller guten Kreditnachfrager unterstellen, sinkt das Kreditvolumen, weil die Kreditnachfrage abnimmt. In Abbildung 4.3.19 stelle man sich vor, das Kreditangebot verschiebe sich nach oben und
398
Keynesianische Makroökonomie
schneide die Kreditnachfragekurve bei einem höheren Zinssatz. Die Folge ist eine Senkung des gleichgewichtigen Kreditvolumens. Restriktive Geldpolitik wird somit im Falle einer Kreditrationierung über die Angebotsseite das Kreditvolumen und die Investitionstätigkeit reduzieren oder über die Nachfrageseite, wenn es nicht zur Kreditrationierung kommt. Zum Schluss soll eine Veränderung der Erwartungen untersucht werden. Im Keynesianismus wird von einem Zustand des Vertrauens bzw. gesellschaftlich bestimmten Erwartungen ausgegangen, so dass eine Veränderung der Erwartungen sowohl die Unternehmen als auch die Handelnden im Finanzsystem betreffen dürfte. Wie gehen von einer Verschlechterung der Erwartungen aus, die alle Wirtschaftssubjekte in der Gesellschaft erfasst. In der Abbildung 4.3.21 verschiebt sich somit die Kreditnachfragefunktion nach links als auch das Kreditangebot nach oben, wobei der Zinssatz auf i** steigt und das maximale Kreditangebot auf KAmax2 sinkt. Als Ergebnis sinkt das Kreditangebot von K* auf K** mit den entsprechenden Konsequenzen für die Investitionstätigkeit. Denn die Bruttoinvestitionen reduzieren sich von K*-PValt-1 auf K**-PValt-1. Die Reduzierung kam im Beispiel der Abbildung 4.3.21 über das rationierte Kreditangebot zustande. Wir hätten auch eine deutlich stärkere Linksverschiebung der Kreditnachfrage annehmen können. Dann wäre die Kreditnachfrage der Faktor geworden, der das Kredit- und Investitionsvolumen bei dem erhöhten Zinssatz reduziert hätte. Welche der beiden Kurven sich bei einer Erwartungsverschlechterung stärker verschiebt kann nicht allgemein gesagt werden.
Abbildung 4.3.21: Die Wirkung von Erwartungsänderungen auf dem Kreditmarkt i
i**
KA2 KA1
i*
KN1 KN2
PValt-1 K**=KAmax2 K*=KAmax1
K
Kernpunkte Der Kreditmarkt erlaubt die gleichgewichtige Bestimmung des langfristigen Zinssatzes, des Kreditvolumens, des Bestandes an Produktivvermögen und der Investitionsnachfrage in einer Periode. Dabei hängen diese Größen von den Erwartungen der Unternehmen und der Agenten im Finanzsystem und der Geldpolitik der Zentralbank ab. Der langfristige Zinssatz wird über das Bankensystem bestimmt, nämlich durch den Refinanzierungszinssatz der Zentralbank und den Zinsaufschlag der Banken, der wesentlich von der Unsicherheitsprämie abhängt. Das Gleichgewicht auf dem Kreditmarkt kann durch Kreditrationierung gekennzeichnet sein, dann bestimmt bei gegebenem Zinssatz das Finanzsystem das Kreditvolumen. Aber auch die Unternehmen können zum begrenzenden Faktor des Kreditvolumens werden, nämlich dann, wenn nicht alle guten
Keynesianische Makroökonomie
399
Schuldner einen Kredit beim gegebenen Zinssatz wollen. Dann bestimmt die Kreditnachfrage das Kreditvolumen. Bei einer Erhöhung des Refinanzierungszinssatzes der Zentralbank und bei einer Verschlechterung der Erwartungen steigt der langfristige Zinssatz und sinkt das Kreditvolumen, der Bestande an Produktivvermögen und die Investitionsnachfrage. Im umgekehrten Fall sind die umgekehrten Effekte zu erwarten. 4.3.6 Kritische Würdigung Der Vermögensmarkt spielt im keynesianischen Paradigma eine herausragende Rolle und ist damit Gegenstand heftiger Kontroversen bei der Auseinandersetzung zwischen verschiedenen Paradigmen. Auf einige dieser Auseinandersetzungen soll im Folgenden eingegangen werden. Die oben vorgestellte Analyse des Vermögensmarktes weicht fundamental von der neoklassischen Ableitung eines gleichgewichtigen Investitionsvolumens ab. Die Kreditnachfrage und damit das Investitionsvolumen wird im Keynesianismus weder von den Sparentscheidungen der Haushalte noch von der physischen (Grenz-)Produktivität des Produktionsfaktors Kapital determiniert. Unsicherheit und Erwartungen der Wirtschaftssubjekte spielen im Keynesianismus eine entscheidende Rolle bei Investitionsentscheidungen. Aus diesem Grunde sind Investitionen nicht nur vom Zinssatz, sondern auch von der erwarteten Verzinsungsrate von Produktivkapital abhängig. Für Keynes ist diese Rate sogar der hauptsächliche „Faktor (...) (viel mehr als der Zinsfuß), durch den die Erwartung der Zukunft die Gegenwart beeinflusst“. (Keynes 1936, S. 122 f.) Die Dynamik der ökonomischen Entwicklung, die Investitionstätigkeit, hängt im Keynesianismus zu einem beachtlichen Teil von der Interaktion zwischen dem Geldzinsfuß und der Verzinsungsrate von Produktivvermögen ab. Ein solcher Ansatz hat eine lange Tradition. Knut Wicksell hat schon 1898 die Interaktion zwischen dem Geldzinssatz und einem natürlichen Zinssatz ins Zentrum seiner Analyse gestellt. Der natürliche Zinssatz war für ihn der Zinssatz, der in der Realsphäre bestimmt wird, da Wicksell an diesem Punkt ein Neoklassiker war. Der Geldzinssatz wurde dagegen von der Zentralbank fixiert. Wenn der Geldzinssatz über dem natürlichen liegt, dann, so das Argument, gibt es deflationäre Entwicklungen, da die Investitionen zu gering sind. Im umgekehrten Fall ist die Entwicklung inflationär. Die Zentralbank hat dann nach Wicksell mit ihrer Geldpolitik dem natürlichen Zinssatz wie die Greyhound-Hunde dem Kaninchenköder zu folgen, um inflationäre und deflationäre Prozesse zu verhindern. Keynes (1930) in seinem Buch „Vom Gelde“ verfolgte einem ähnlichen Ansatz. In der „Allgemeinen Theorie“ schrieb er jedoch: „In meiner Abhandlung ‚Vom Gelde’ habe ich einen vermeintlich einzigartigen Zinsfuß definiert, den ich den natürlichen Zinsfuß genannt habe. (…) Ich habe jedoch die Tatsache übersehen, dass es in einer gegebenen Gesellschaft (…) einen verschiedenen natürlichen Zinsfuß für jedes hypothetische Niveau der Beschäftigung gibt. Und ähnlich gibt es für jeden Zinsfuß ein Niveau der Beschäftigung, für das jener Zinsfuß der ‚natürliche’ Zinsfuß ist, in dem Sinne, dass das System bei diesem Zinsfuß und auf diesem Niveau der Beschäftigung im Gleichgewicht sein wird.“ (Keynes 1936, S. 203) Was Keynes hier zum Ausdruck bringt ist, dass es keinen natürlichen Zinsfuß gibt, der zu einem Anker des Geldzinssatzes werden könnte. An diesem Punkt hat Keynes die neoklassische Dichotomie, die die Welt in eine Geld- und Realsphäre teilt, überwunden. In der Tat fischt das neoklassische Paradigma in dunklen Gewässern, wenn es unterstellt, dass es einen Zinsfuß einer Realsphäre gibt, welche die physische Grenzproduktivität mit der Sparneigung der Haushalte ins Gleichgewicht bringt, und dieser Zinssatz dann den Geldzinssatz bestimmt. Es scheint, dass Zentralbanken bei ihrer Geldpolitik einen Zinssatz bestimmen, der nichts mit einem einzigartigen „natürlichen“ Zinssatz zu tun hat. Das Kreditangebot an den Unternehmenssektor wird im Keynesianismus völlig anders bestimmt als in der Neoklassik. Der fundamentale Unterschied zeigt sich selbst dann, wenn von der Bedeutung der Banken für die Kreditvergabe an Unternehmen vollständig abgesehen wird. Unterstellen wir für einen Moment, dass die Banken keine Kredite an den Unternehmenssektor vergeben. Selbst unter dieser Annahme würde das Volumen der Neuinvestitionen nicht durch die laufenden Ersparnisse begrenzt. Denn
400
Keynesianische Makroökonomie
die Haushalte verfügen – darauf machte Keynes in seinem Buch „Vom Gelde“ (Keynes 1930) aufmerksam – über einen historisch gewachsenen Vermögensbestand, der ein Vielfaches der laufenden Ersparnisse ausmacht. Dieser Vermögensbestand wird in verschiedenen Vermögensarten gehalten. Unter diesen Bedingungen können die Haushalte den Unternehmen selbst dann zusätzliche Kredite einräumen, wenn die laufenden Ersparnisse Null sind. Sie können nämlich von Geld und Bankdepositen in Kredite an Unternehmen und (neu ausgegebene) Aktien umsteigen und damit die finanziellen Mittel der Unternehmen erhöhen. Für die Banken hätte diese Portfolioentscheidung der Haushalte nur eine sekundäre Wirkung, da einmal die Haushalte und das andere Mal die Unternehmen die Depositen halten. Demnach bestimmt im beschriebenen Fall die Disposition über Vermögen das Kreditangebot der Haushalte und nicht die laufende Ersparnis. Tatsächlich aber spielt das Bankensystem nicht nur eine vermittelnde Rolle als Kapitalsammelstelle und als Finanzintermediär. Stattdessen beeinflussen Zentralbank und Banken zusammen entscheidend das aggregierte Kreditangebot. Die Zentralbank vermag dank ihrer Macht, die Refinanzierungsbedingungen auf dem Geldmarkt festzulegen, die die kurzfristigen Zinssätze bestimmen. Dadurch hat sie entscheidenden Einfluss auch auf die langfristigen Verleihzinssätze der Kredite an Unternehmen. Geldpolitik wirkt somit im Unterschied zum neoklassischen Ansatz fundamental auf das aggregierte Kreditangebot und somit auf die Investitionstätigkeit, das Wirtschaftswachstum, die Einkommensbildung und die Beschäftigung. Banken, zusammen mit der Zentralbank, dominieren das Kreditangebot. Betreiben beide eine expansive Kreditpolitik, dann kann der Haushaltssektor keine Kreditverknappung durchsetzen. Möchte eine Zentralbank eine Kreditexpansion stoppen, dann kann sie dies auch gegen den Willen der Haushalte erzwingen. Die Stellung der Haushalte auf dem Kreditmarkt ist somit relativ schwach. Dies bedeutet nicht, dass Haushalte auf dem Vermögensmarkt generell unwichtig sind. Sie können z.B. bei Inflationsprozessen destabilisierende Portfolioumstrukturierungen durchführen und so die Zentralbank zu bestimmten Politiken zwingen. Hierauf werden wir in späteren Kapiteln zurückkommen. Es wäre falsch, Vertreter des keynesianischen Paradigmas als monolithischen Block zu begreifen. Ganz im Gegenteil, die Analysen des Vermögensmarktes weichen zum Teil erheblich voneinander ab. Es kann unmöglich das Ziel einer Einführung in die Volkswirtschaftslehre sein, alle diese unterschiedlichen Forschungsansätze wiederzugeben. Stattdessen soll an einigen Punkten exemplarisch verdeutlicht werden, wie man sich kontroverse Diskussionen auf der Grundlage eines gemeinsam geteilten Paradigmas vorzustellen hat. Wir haben bei der Analyse des Vermögensmarktes den gesamten Bereich der Börse, der Optionsmärkte und anderer Derivate etc., die sich durch ihre spekulativen Aktivitäten auszeichnen, nicht analysiert. Damit wollen wir nicht bestreiten, dass die kurzfristig orientierten Spekulationen destabilisierend auf ökonomische Prozesse wirken können. Jedoch gehen wir davon aus, dass „nichtspekulative“ Aktivitäten, wie etwa die Investitionstätigkeit der Unternehmen oder die Kreditvergabe, durch Unsicherheiten geprägt und damit instabil sind. Selbst wenn die kurzfristige Spekulation unterdrückt würde, würden die Probleme, die mit der Unsicherheit der Zukunft verbunden sind, nicht verschwinden. Vor dem Hintergrund fundamentaler Unsicherheiten stufen wir kurzfristige Spekulationen im engen Sinne beispielsweise auf Aktienmärkten als destabilisierende Faktoren ein, stellen sie jedoch nicht ins Zentrum der Analyse. Keynes ist an dieser Stelle widersprüchlich. In der „Allgemeinen Theorie“ (Keynes 1936) spielt die Spekulation eine zentrale Rolle, später hat Keynes (1937) die Rolle der Spekulation deutlich reduziert. Es ist im keynesianischen Paradigma äußerst umstritten, ob die Geldmenge als exogen oder endogen aufgefasst werden kann. Keynes vor allem in der „Allgemeinen Theorie“ und in seiner Gefolgschaft die Vertreter des IS-LM-Modells, der Neoklassischen Synthese etc. gingen von einer exogenen Setzung der Geldmenge aus. Durch die exogene Setzung der Geldmenge lag es für Keynes und einen Teil seiner Interpreten dann auch nahe, den Vermögensmarkt über ein Gleichgewicht zwischen exogener Geldmenge und gewünschter Geldhaltung des Publikums zu fassen. Wir halten alle Ansätze, die von
Keynesianische Makroökonomie
401
einer exogenen Geldmenge ausgehen und dann über ein Gleichgewicht mit der Geldnachfrage ökonomische Variablen bestimmen wollen – bei Milton Friedmann das Preisniveau, bei spezifischen Keynesinterpretationen der Zinssatz – für verfehlt. Wir unterstellen eine endogene Bestimmung der Geldmenge. Auch erscheint es uns inhaltlich klarer, den Zinssatz über den Kreditmarkt zu bestimmen und nicht über ein Gleichgewicht zwischen exogener Geldmenge und Geldnachfrage. Nicht zuletzt aufgrund der exogenen Setzung der Geldmenge tritt bei Keynes, dem IS-LM-Modell, der Neoklassischen Synthese etc. die Geldnachfrage in den Vordergrund der Analyse des Vermögensmarktes. Sie wird in diesen Ansätzen als wichtige Quelle der Instabilität auf dem Vermögensmarkt lokalisiert, die vor allem aufgrund einer Spekulations- und Vorsichtskasse großen Schwankungen ausgesetzt ist, den Zinssatz stark schwanken lässt oder eine Senkung des Zinssatzes verhindern kann. Über die Frage der Stabilität der Geldnachfrage entwickelte sich nach dem Zweiten Weltkrieg eine lange Kontroverse. Insbesondere Milton Friedman setzte der keynesianischen Instabilität der Geldnachfrage im Rahmen seiner Neoquantitätstheorie das Postulat einer stabilen realen Kassenhaltung entgegen, so dass sich die Nachfrage nach nomineller Kasse proportional zum Preisniveau verändert (vgl. Kapitel 3.4.3). Wir folgen der Keynesschen Argumentation, dass die Geldnachfrage potenziell instabil ist. Jedoch sollte beachtet werden, dass die Frage der Stabilität beziehungsweise Instabilität der Geldnachfrage ihre Relevanz und Brisanz verliert, wenn die Geldmenge als endogen angenommen wird. Ein weiterer kontroverser Punkt betrifft die Rolle des Eigentums in einer Ökonomie. Es kann gegen Vermögensmarktanalysen der von uns vorgestellten Art eingewandt werden, dass der Bedeutung des Eigentums keine hinreichende Beachtung geschenkt werde. So wird argumentiert, dass ein Schuldner ohne Eigentum, das verpfändbar ist, keinen Kredit erlangen kann.150 Wir akzeptieren, dass Sicherheiten die Qualität der entsprechenden Schuldner verbessert. Wir haben jedoch auch argumentiert, dass gute Projekte Gläubiger überzeugen können, auch ohne Sicherheiten Kredite zu vergeben. Unsere Position deckt sich hier vollständig mit der von Josef A. Schumpeter: Hat ein Unternehmer verpfändbares Vermögen, dann „wird es ihm in praxi gewiss sehr erleichtern, sich Kredit zu verschaffen. Aber das gehört nicht zum Wesen der Sache in reinster Form. Die Unternehmerfunktion ist prinzipiell nicht an den Vermögensbesitz geknüpft“. (Schumpeter 1926, S. 145 f.) Auch bei Hyman Minsky (1990) erlangt Eigenkapital einen besonderen analytischen Stellenwert. Er rückt die Finanzierungsstruktur ins Zentrum seiner Analyse. Jede ökonomische Einheit muss unter Unsicherheit und bei Verbindlichkeiten ein Cash-Flow-Management betreiben, also finanzielle Zuund Abflüsse so steuern, dass sie zahlungsfähig bleibt. Je geringer die Eigenkapitalhaltung im Vergleich zu den Verbindlichkeiten ist, desto instabiler wird das Gesamtsystem. Je geringer die Eigenkapitalhaltung der Schuldner, desto geringer werden die Sicherheiten für die Gläubiger. Nach Minsky führt ein ökonomischer Aufschwung zu einer Kreditexpansion und auf Basis optimistische Erwartungen zu generell sinkenden Eigenkapitalquoten aller ökonomischen Akteure. Das ökonomische System wird immer instabiler und muss in einer Finanzmarktkrise ändern, in deren Gefolge sich die Eigenkapitalquoten dann wieder erhöhen. Wir halten solche Analysen für äußerst wichtig, jedoch ist hier nicht der Platz darauf näher einzugehen (vgl. Kapitel 4.5.4). Schließlich können wir an dieser Stelle nicht auf die vielfältigen Instabilitäten des Finanzsystems eingehen, die durch mangelnde und falsche Regulierungen zustande kommen. Während der letzten Jahrzehnte hat sich unter dem Einfluss neoklassischer Vorstellungen ein unreguliertes oder ungenügend reguliertes Schattenbankensystem mit Nichtbankfinanzintermediären wie Investmentfonds, Hedgefonds, Private-Equity-Fonds etc. herausgebildet, welche das Finanzsystem destabilisieren und die in ihren Aktivitäten von den Geschäftsbanken mit Kredit versorgt werden.151
150
Vgl. dazu Heinsohn/Steiger (1996, S. 226 f.): „Den Kreditgeber beunruhigt nämlich nicht, dass der Schuldner Güter erst produzieren soll und verkaufen muss, bevor er refundieren kann. Zutiefst beunruhigen würde ihn allerdings, wenn das vom Schuldner als Sicherheit gestellte Eigentum nicht existierte bzw. ein Nichts wäre.“ 151 Vgl. zu dieser Debatte Dullien/Herr/Kellerman (2011), Herr/Kazandziska (2011) und Herr (2011).
402
4.4
Keynesianische Makroökonomie
Der Güter- und Arbeitsmarkt bei Mengeneffekten
4.4.1 Aggregierte Nachfrage und Produktionsvolumen Fragestellung Was ist das Gesetz der effektiven Nachfrage? Unter welchen Bedingungen bestimmt die aggregierte Güternachfrage das aggregierte Güterangebot? Wie werden das gleichgewichtige Produktionsvolumen und das Einkommen bestimmt? Im Gegensatz zur neoklassischen Theorie, die den Tausch von exogen gegebenen Anfangsbeständen an Gütern und Arbeitsleistungen ins Zentrum der Analyse rückt, konzentriert sich die keynesianische Theorie auf die Faktoren, die den Umfang der Produktion und damit das Niveau der Einkommensbildung und Beschäftigung festlegen. In diesem Kontext spielt die aggregierte Nachfrage nach Gütern für das Produktionsvolumen eine herausragende Rolle. Eine Komponente der aggregierten Nachfrage wurde bei der Analyse des Vermögensmarktes bereits bestimmt, nämlich die Investitionsnachfrage. Der Investitionsnachfrage kommt – wie sich zeigen wird – auf dem Gütermarkt eine essenzielle Bedeutung zu. Sie wird aus diesem Grunde zum entscheidenden Verbindungsglied zwischen dem Vermögens- und dem Gütermarkt. Die Investitionsnachfrage ist nicht die einzige Nachfragequelle. Aus der Verwendungsrechnung der Volkswirtschaftlichen Gesamtrechnungen wissen wir, dass die aggregierte Nachfrage neben den Investitionen die Konsum-, die Staats- und die Auslandsnachfrage enthält. Zur Entwicklung des Grundmodells werden wir uns auf die Investitions- und Konsumnachfrage beschränken. Die keynesianische Mengentheorie geht davon aus, dass die aggregierte Nachfrage nach Gütern (manchmal auch als effektive Nachfrage bezeichnet) das Produktionsvolumen bestimmt. Steigt die Nachfrage, wird mehr produziert, sinkt die Nachfrage, wird weniger produziert. Der Kausalprozess von der Nachfrage zur Produktion und zum Einkommen wird als Gesetz der effektiven Nachfrage bezeichnet und ist ein Kernpunkt keynesianischen Denkens. Auch andere Theoretiker haben sehr früh ähnliche Ideen entwickelt, beisielweise Kahn (1931), Kalecki (1954) oder schwedische Ökonomen in der Tradition von Wicksell (1898).152 Im nächsten Kapitel bei der Analyse von Inflationsprozessen wird deutlich werden, dass Veränderungen der aggregierten Nachfrage auch zu Preisniveaubewegungen führen können. Keynes legte in seinem 1936 erschienenen Buch, die „Allgemeine Theorie“, den Schwerpunkt auf die Mengeneffekte, während er zuvor im Buch „Vom Gelde“, das 1930 erschien, Preisniveaueffekte untersuchte. Wir wollen uns aus Darstellungsgründen zunächst auf reine Mengeneffekte beschränken. Reine Mengeneffekte in der Art, dass sich makroökonomisch das Produktionsvolumen passiv der aggregierten Nachfrage bei unverändertem Preisniveau anpasst, sind nur unter spezifischen Bedingungen möglich. Insbesondere drei Voraussetzungen sind bei der keynesianischen Mengentheorie unterstellt: Erstens müssen bei einer Nachfrageerhöhung unausgelastete Kapazitäten vorhanden sein. Nur dann können Unternehmen kurzfristig auf Nachfrageerhöhungen mit einer Erweiterung der Produktion reagieren. Dazu müssen in allen Branchen unausgelastete Kapazitäten existieren oder die Nachfrageerhöhung konzentriert sich auf jene Branchen, die durch unterausgelastete Kapazitäten gekennzeichnet sind. Zweitens müssen die Unternehmen in der Lage sein, bei zunehmender Nachfrage das volkswirtschaftliche Arbeitsvolumen zu erhöhen. Dies ist nur unter der Bedingung von Arbeitslosigkeit 152
Vgl. dazu auch Hein (2004).
Keynesianische Makroökonomie
403
und/oder der Bereitschaft der Beschäftigten zu verlängerten Arbeitszeiten (z. B. Überstunden) möglich. Drittens ist vorausgesetzt, dass Unternehmen bei der Erhöhung des Produktionsvolumens nicht mit zusätzlichem Kostendruck konfrontiert werden. Es werden somit bei Variationen der Produktion konstante Stückkosten angenommen. Sind die ersten beiden Bedingungen nicht erfüllt, ist zumindest kurzfristig eine Produktionsausweitung aufgrund der physischen Knappheit von Ressourcen ausgeschlossen. Ist die dritte Voraussetzung nicht gegeben, so ist zwar eine Ausweitung der Produktion möglich, jedoch nicht bei unverändertem Preisniveau. Bei einer Reduzierung der aggregierten Nachfrage ist eine mengenmäßige Reaktion der Unternehmen immer möglich. Die Annahme eines unveränderten Preisniveaus unterstellt jedoch, dass Unternehmen bei einem Rückgang der Nachfrage ausschließlich mengenmäßig reagieren und sich keine Kostenveränderungen ergeben, die das Preisniveau tangieren. Die skizzierten Bedingungen verdeutlichen, dass in vielen historischen Situationen Preisniveau- und Mengeneffekte simultan zu erwarten sind. Bei der Analyse der Mengentheorie müssen die obigen Bedingungen unterstellt werden, die nicht immer existieren. Unten wird im Rahmen der Inflationstheorie der Grenzfall reiner Preisniveaueffekte diskutiert. In einem dritten Schritt werden schließlich simultane Preis-Mengen-Effekte zugelassen. Folgend soll ein einfacher analytischer Apparat entwickelt werden, der die Darstellung der Mengentheorie erleichtert. Ein Gleichgewicht auf dem Gütermarkt wird allgemein durch die Gleichheit von aggregierter Nachfrage und aggregiertem Angebot definiert. Aus den Volkswirtschaftlichen Gesamtrechnungen wissen wir bereits, dass folgende Güter nachgefragt werden, wenn vom Ausland und vom Staat abgesehen wird: Konsumgüter, Ersatzinvestitionen, Nettoinvestitionen und Vorleistungsgüter, wobei Ersatz- plus Nettoinvestitionen die Bruttoinvestitionen ergeben. Diesem Nachfrageaggregat entspricht der Produktionswert. Es wäre somit plausibel, eine Nachfrage-Angebots-Analyse auf der Ebene des Produktionswertes durchzuführen. Aus Gründen, die die weiteren Ausführungen vereinfachen, werden jedoch auf beiden Seiten des Nachfrage-Angebots-Gleichgewichts die Vorleistungen und die Ersatzinvestitionen abgezogen. Die Gleichgewichtsbedingung lautet dann „Konsum + Nettoinvestitionen = Nettoinlandsprodukt.“ Das Nettoinlandsprodukt entspricht unter den genannten Bedingungen wiederum dem Volkseinkommen, so dass das Gütermarktgleichgewicht auch durch „Konsum + Nettoinvestitionen = Volkseinkommen“ ausgedrückt werden kann (vgl. Tabelle 4.4.1).
Tabelle 4.4.1: Nachfrage- und Angebotsgleichgewichte Aggregierte Nachfrage ohne öffentliche Haushalte und Staat
Aggregiertes Angebot
Konsumnachfrage + Ersatzinvestitionen + Nettoinvestitionen + Vorleistungen
Produktionswert
Konsumnachfrage (C) + Nettoinvestitionen (I)
Nettoinlandsprodukt (NIP) = Volkseinkommen (Y)
404
Keynesianische Makroökonomie
Die aggregierte Nachfrage (XN) ist somit durch XN = I + C
definiert. Das Angebot (XA) in der Form des Nettoinlandsproduktes entspricht dem Volkseinkommen (Y), so dass gilt XA = Y . Da Preisniveauveränderungen in der Mengentheorie ausgeschlossen sind, entspricht das nominale Angebot bzw. das nominale Volkseinkommen automatisch dem realen. Somit gilt als Gleichgewichtsbedingung des Gütermarktes X N = Yr ⋅ P . mit P =1 und Yr =
Y . Das Gleichgewicht des Gütermarktes bei reinen Mengeneffekten wird dann P
auch zu: X N = I + C = Yr ⋅ P .
(4.4.1)
Das Gütermarktgleichgewicht kann in einem einfachen Diagramm grafisch dargestellt werden. In Abbildung 4.4.1 ist auf der Ordinatenachse die aggregierte Nachfrage und auf der Abszissenachse das reale Produktionsvolumen bzw. das reale Volkseinkommen eingetragen. Bei gleicher Skalierung der Achsen drücken alle Punkte auf der ebenfalls eingezeichneten 45°-Linie ein Gleichgewicht von Angebot und Nachfrage aus. Die 45°-Linie kann somit als Gütermarktgleichgewichtskurve ( X N = Yr ⋅ P ) bezeichnet werden. Eine aggregierte Nachfrage, die vom Einkommen unabhängig ist, wird in Abbildung 4.4.1 als horizontale Linie eingetragen. Beträgt die aggregierte Nachfrage, von der wir im Moment annehmen, dass sie vom Einkommen unabhängig sei, z. B. 50 Mrd. €, so ergibt sich das Gleichgewicht auf dem Gütermarkt beim Schnittpunkt der aggregierten Nachfragefunktion XN0 = 50 Mrd. € mit der Gütermarktgleichgewichtskurve, also bei einem Produktionsvolumen von ebenfalls 50 Mrd. €. Wird die aggregierte Nachfragefunktion XN1 = 100 Mrd. € unterstellt, so steigt das Produktionsvolumen eben auf 100 Mrd. €.
Abbildung 4.4.1: Das Gütermarktgleichgewicht in der Mengentheorie XN 150
X N = Yr ⋅ P
100
XN1 = 100
50
XN0 = 50 45° 50
100
150
Yr ⋅ P mit P = 1
Schon anhand dieser Abbildung lassen sich einige ökonomische Phänomene erklären. Angenommen, die Ökonomie befindet sich bei einem Produktionsvolumen von 50 Mrd. €. Verdoppelt sich nun die Nachfrage auf 100 Mrd. €, so wird im neuen Gleichgewicht das Produktionsvolumen ebenfalls auf 100 Mrd. € ansteigen. Wir sehen, dass das reale Produktionsvolumen vollständig durch die nominelle Nachfrage determiniert wird.
Keynesianische Makroökonomie
405
In aller Regel belassen wir die Analyse in diesem Lehrbuch bei einer komparativ-statischen Betrachtung. Verlassen wir jedoch kurz diese methodische Ebene und untersuchen verschiedene potenziell mögliche Anpassungsprozesse vom alten zum neuen Gleichgewicht. Haben die Unternehmen die Nachfrageerhöhung in der Vorperiode antizipiert, so werden sie sofort ein Angebot entsprechend der gestiegenen Nachfrage bereithalten. Aufgrund der richtigen Erwartungen springt die Ökonomie somit unmittelbar vom alten Gleichgewicht zum neuen. Haben Unternehmen dagegen eine unveränderte Nachfrage erwartet, so entsteht zunächst eine Überschussnachfrage in Höhe von 50 Mrd. €. Kurzfristig bewirkt sie entweder einen Abbau von Lagerbeständen und/oder eine Verlängerung der Lieferfristen. (Von Preisniveauvariationen wird ja abgesehen.) Damit sind es Lagerabbau und/oder längere Lieferfristen, die Unternehmen eine Überschussnachfrage signalisieren und zu der Produktionserhöhung anregen. Im neuen Gleichgewicht werden die Unternehmen dann ihre Produktion der erhöhten Nachfrage angepasst haben. Umgekehrte Prozesse sind zu erwarten, wenn die aggregierte Nachfrage sinkt. Haben die Unternehmen den Nachfragerückgang nicht erwartet, so entsteht ein Überschussangebot mit dem Resultat eines unfreiwilligen Aufbaus von Lagerbeständen und/oder einer Verkürzung von Lieferfristen. Auch in diesem Fall werden die Unternehmen erst zeitverzögert ihre Produktion der geänderten Nachfrage anpassen. Bisher wurden die Nettoinvestitionen (4.3.6)
I = I (i, PValt, ΘU ),
abgeleitet, die vom Zinssatz, dem Altbestand an Produktivkapital und den Erwartungen der Unternehmen abhängen. Das laufende Einkommen spielte dabei keine Rolle. Einer anderen Logik unterliegt die Konsumnachfrage. Potenziell kann sie von einer ganzen Reihe von Faktoren abhängen. Keynes (1936) nannte als objektive Faktoren unter anderem das laufende Einkommen, den Zinssatz und Veränderungen des Vermögensbestandes. Es ist davon auszugehen, dass die Verteilung des Volkseinkommens entscheidend die Konsumfunktion tangiert, da Wirtschaftssubjekte in unteren Einkommensschichten eine höhere Konsumneigung haben dürften als hohe Einkommensempfänger, die einen größeren Teil ihres individuellen Einkommens sparen. Eine Umverteilung von hohen zu niedrigen Einkommen dürfte somit dazu führen, dass ceteris paribus die Konsumnachfrage ansteigt. Als subjektive Faktoren wurden von Keynes der Wunsch nach einem finanziellen „Polster“ für unvorhersehbare Ausgaben, das Ziel, den Angehörigen eine Erbschaft zu hinterlassen, die Altersvorsorge etc. benannt. Allgemein kann die makroökonomische Konsumnachfrage durch (4.4.2)
C = C (Y, i, VK, RV, DY, DRV, ΘH)
erfasst werden. Neben dem Anstieg des aktuellen Einkommens (Y) wird der Konsum positiv durch eine Senkung des Zinssatzes (i), die Verfügbarkeit von Kredit (VK) (denn auch Haushalte werden auf dem Kreditmarkt rationiert), durch eine Erhöhung des Reinvermögens (RV), durch eine stärker ausgeglichene Verteilung des Einkommens (DY) sowie des Vermögens (DRV) und durch eine positive Veränderung der Präferenzen und Erwartungen der Haushalte ( ΘH ) beeinflusst. Wir gehen von der Prämisse aus, dass i den Konsum nur mäßig beeinflusst, ΘH gegeben ist und sich die Verteilungsparameter DY und DRV nur mittelfristig ändern dürften. Als kurzfristig wichtigsten Faktor der Konsumnachfrage muss das laufenden Einkommen (Y) gelten. Sind die Geldvorschüsse in Produktionsprozesse hoch, so florieren auch die Einkommen und die Konsumnachfrage. Werden Produktion und Einkommensbildung reduziert, dann sinkt der gesellschaftliche Konsum. „Da sich also der Haupthintergrund subjektiver und gesellschaftlicher Antriebe nur langsam ändert, während der kurzfristige Einfluss von Änderungen im Zinsfuß und den anderen objektiven Tatsachen oft von untergeordneter Bedeutung ist, bleibt uns nur der Schluss übrig, dass kurzfristige Änderungen im Verbrauch sich großenteils auf Änderungen in der Rate stützen, in der Einkommen (...) verdient wird“. (Keynes 1936, S. 94) Unbestritten blieb diese Hypothese nicht. Von Modigliani wurde die Lebenszyklustheorie des Kon-
406
Keynesianische Makroökonomie
sums und der Ersparnis ins Spiel gebracht. Er vermutete, dass Haushalte versuchen werden, ihren Konsum über ihre Lebenszeit zu glätten. In Phasen hohen laufenden Einkommens – etwa während des Berufslebens – wird ein relativ hoher Anteil des laufenden Einkommens gespart und Vermögen aufgebaut. Im Unterschied dazu wird in Phasen geringen Einkommens – etwa im Alter oder während des Studiums – Vermögen abgebaut oder sogar eine Schuldnerposition eingenommen. Ein ähnliches Argument wurde von Friedman in die Debatte eingebracht. Er versuchte zu begründen, dass Haushalte ihren Konsum vom permanenten Einkommen abhängig machen, also vom Einkommen, das sie während ihres gesamten Lebens erwarten (Modigliani 1968, Friedman 1957). Beide Thesen laufen darauf hinaus, dass der laufende Konsum bei einem kurzfristigen Rückgang des Einkommens nicht bedeutend absinken wird, da das Verhalten der Wirtschaftssubjekte langfristig orientiert ist. In diesem Fall würde die Konsumnachfrage stabilisierend auf die ökonomische Entwicklung wirken. Zwingend ist dies allerdings nicht. Es kann auch angenommen werden, dass in einer Krise mit einem Rückgang des Einkommens sich die Erwartungen der Haushalte verschlechtern. Arbeitslos gewordene Personen schränken möglicherweise ihren Konsum überproportional ein, da sie für eine unsichere Zukunft zu sparen versuchen. Fallende und sinkende Vermögenspreise können über einen Vermögenseffekt die Konsumnachfrage zusätzlich reduzieren. Umgekehrt kann in einer Boomphase der Konsum noch stärker ansteigen als das Einkommen. Eine andere Debatte ist die langfristige Entwicklung des Konsums. Keynes hielt es für möglich, dass es langfristig in reifen Industrienationen zu Sättigungstendenzen kommt, dass also die Bevölkerung aus zusätzlichem Einkommen vergleichsweise immer weniger konsumiert, da sie schon alles hat. Aus der Sättigungsthese kann dann eine Stagnationstheorie abgeleitet werden, da reife Gesellschaften an einer zu geringen Konsumnachfrage leiden. Bisher hat sich die Sättigungsthese nicht bestätigt. Vielmehr scheint der Konsum über die Jahrzehnte einen stabilen Prozentsatz des Einkommens darzustellen. Wir gehen im weiteren Verlauf der Darstellung nicht auf die verschiedenen Hypothesen über die Konsumentwicklung ein, sondern unterstellen eine sehr einfache Konsumfunktion, die uns die Darstellung der zentralen volkswirtschaftlichen Zusammenhänge einfach macht. Die makroökonomische Konsumfunktion sehe folgendermaßen aus: (4.4.3)
C = Caut + cY ,
wobei mit Caut die einkommensunabhängige Konsumkomponente und mit c die marginale Konsumneigung ausgedrückt wird. Die marginale Konsumneigung entspricht der ersten Ableitung der KondC ) . Ein Wert von c = 0,9 drückt z. B. aus, dass 90% der sumfunktion nach dem Einkommen (c = dY zuletzt erhaltenen Einkommenseinheit für den Konsum ausgegeben wird. Wäre c = 1, würde in der Volkswirtschaft das gesamte zusätzliche Einkommen für Konsumzwecke ausgegeben. Bei c = 0 würde dagegen das gesamte zusätzliche Einkommen gespart. Der einkommensunabhängige Konsum ( Caut ) gilt als Lageparameter der Konsumfunktion. Verschiebungen der Konsumfunktion können auftreten, wenn sich das Reinvermögen, die Einkommensverteilung, die Erwartungen der Haushalte oder andere Parameter in der Konsumfunktion ändern. Die Konsumfunktion wird verhaltenstheoretisch bestimmt und nimmt in verschiedenen Ländern und in verschiedenen Zeitperioden unterschiedliche Werte an. Ohne Staat, Ausland und unternehmerische Ersparnisse teilt sich der Zuwachs des Einkommens (dY) zwingend in zusätzliche Konsumausgaben (dC) und zusätzliche Ersparnisse der Haushalte (dSH) auf, wobei in diesem Fall die Haushaltsersparnisse allen volkswirtschaftlichen Ersparnissen entsprechen. Wird dY = dC + dSH durch dY dividiert, so folgt 1 = c + s, wobei s die marginale Sparneigung dSH (s = ) der Haushalte ausdrückt. Marginale Sparneigung und marginale Konsumneigung addieren dY sich somit zwingend auf eins. In Abbildung 4.4.2 wird eine typische Konsumfunktion grafisch dargestellt. Sie schneidet die Ordinate
Keynesianische Makroökonomie
407
in der Höhe des einkommensunabhängigen Konsums Caut und hat eine konstante Steigung von dC = c , so dass eine konstante marginale Konsumneigung unterstellt wurde. Es sei darauf hingewiedY sen, dass die durchschnittliche Konsumneigung in der Abbildung zwingend größer ist als die marginale und bei steigendem Einkommen sinkt. Da das Einkommen niemals Null werden kann – denn dann würde eine Gesellschaft aufhören zu existieren – hat der Schnittpunkt der Konsumfunktion mit der Ordinate keine ökonomische Bedeutung. Nur Punke rechts von diesem Schnittpunkt stellen ökonomisch sinnvolle Punkte auf der Konsumgeraden dar.
Abbildung 4.4.2: Die volkswirtschaftliche Konsumfunktion C
C = C aut + cY
Caut
c = tan α
Y
Fassen wir nun die Konsum- und die Investitionsnachfrage zusammen. Da die Investitionsnachfrage für den Gütermarkt gegeben ist (vgl. oben), kann sie vereinfachend durch I = Iaut
ausgedrückt werden. Die aggregierte Nachfrage ist somit durch die Investitionen und die Konsumnachfrage gekennzeichnet, wobei die Investitionen sowie die autonome Konsumnachfrage einkommensunabhängige Nachfragekomponenten sind. (4.4.4)
XN = Iaut + Caut + cY
Wird diese aggregierte Nachfragefunktion in das uns schon bekannte Gütermarktdiagramm eingezeichnet, lässt sich grafisch das gleichgewichtige Produktionsvolumen bzw. Gleichgewichtseinkommen bestimmen (vgl. Abbildung 4.4.3). Der Gütermarkt ist auch hier im Gleichgewicht, wenn die aggregierte Nachfragefunktion die 45°-Linie schneidet. Bei der unterstellten Nachfragefunktion ergibt sich ein Gütermarktgleichgewicht beim Produktionsniveau bzw. Einkommen Yr * .
408
Keynesianische Makroökonomie
Abbildung 4.4.3: Das Gütermarktgleichgewicht bei einkommensabhängiger Nachfrage
XN
X N = Yr ⋅ P
X N = C aut + I aut + cY
Caut + Iaut 45°
Yr *
Yr ⋅ P mit P = 1
Dieses Gleichgewicht lässt sich auch formal herleiten. Wird in die Gleichgewichtsbedingung des Gütermarktes (Gleichung 4.4.1) die aggregierte Nachfragefunktion (Gleichung 4.4.4) eingesetzt, so folgt: (4.4.5)
Yr ⋅ P = Iaut + Caut + cY
Wird aufgrund der Abwesenheit von Preiseffekten P = 1 unterstellt, dann ist Yr = Y . Das reale Einkommen bzw. reale Produktionsvolumen ist identisch mit dem nominalen. Wird auf beiden Seiten der Gleichung cYr subtrahiert und auf der linken Seite dann Yr ausgeklammert, ergibt sich
Yr (1- c) = Iaut + Caut . Nach Division durch (1 – c) erhält man das gleichgewichtige Produktionsvolumen bzw. das gleichgewichtige Einkommen: (4.4.6)
Yr* =
1 (Iaut + Caut) 1- c
Das gleichgewichtige reale Produktionsvolumen bzw. Einkommen wird bestimmt durch die autonomen Nachfragekomponenten (Iaut + Caut) und die marginale Konsumneigung (c). Das reale Produktionsvolumen bzw. Einkommen steigt bei einer Erhöhung der einkommensunabhängigen Nachfragekomponenten und bei einer Erhöhung der marginalen Konsumneigung. Betragen die Investitionen z. B. 50 Mrd. €, die autonomen Konsumausgaben 30 Mrd. € und wird eine Konsumneigung von 0,9 angenommen, so beträgt – wie leicht zu errechnen ist – das Gleichgewichtseinkommen 800 Mrd. €. Das Ergebnis überrascht auf den ersten Blick, da die autonome Investitions- und Konsumnachfrage von zusammen 80 Mrd. € ein Gleichgewichtseinkommen von 800 Mrd. € erbringt. Die Erklärung für dieses Phänomen erfolgt im nächsten Abschnitt. Wir erkennen, warum die Investitionen auf dem Gütermarkt eine so große Rolle spielen. Sie werden auf dem Vermögensmarkt bestimmt und sind auf dem Gütermarkt eine autonome Nachfragekomponente. Schwankungen der Investitionstätigkeit führen somit zu Schwankungen des Produktionsvolumens und des realen Einkommens. Auch die autonome Konsumnachfrage kann das Produktionsvolumen und das reale Einkommen verändern. So wird eine optimistischere Stimmung der Haushalte die autonome Konsumnachfrage und möglicherweise auch die marginale Konsumneigung erhöhen und zu
Keynesianische Makroökonomie
409
einem Anstieg der Produktion führen. Also auch die Konsumnachfrage kann ein Scharnier zwischen dem Vermögensmarkt und dem Gütermarkt werden, jedoch sind es die Investitionen, welche die größte Volatilität erwarten lassen. Dies bestätigt sich auch empirisch. Wie wir aus dem Kapitel über die Volkswirtschaftlichen Gesamtrechnungen wissen, müssen sich Nettoinvestitionen und Ersparnisse am Ende einer Periode immer entsprechen. Wie wird die Gleichheit dieser beiden Größen in der keynesianischen Mengentheorie hergestellt? Die Antwort lautet: Durch die Veränderung des Produktionsvolumens und damit des Einkommens. Da dYr = dC + dSH ist, steigen und fallen mit Veränderungen des realen Einkommens nicht nur die Konsumausgaben, sondern spiegelbildlich auch die Ersparnisse der Haushalte. Der Zusammenhang zwischen Investitionen und Ersparnissen lässt sich auch grafisch veranschaulichen. Wird die Konsumfunktion C = Caut + cY in die bereits bekannte Beziehung Y = C + SH eingesetzt, so folgt: Y = Caut + cY + SH SH = -Caut + Y - cY
SH = -Caut + (1- c)Y Wird zudem berücksichtigt, dass die marginale Sparneigung s = 1 – c ist, ergibt sich als Sparfunktion der Haushalte: (4.4.7)
SH = -Caut + sY
Die Sparfunktion ist in Abbildung 4.4.4 dargestellt. Die Steigung der Sparfunktion ist durch s = 1 – c gegeben. Sie schneidet die Abszisse beim Einkommen Yr0 . Bei diesem Einkommensniveau wird nicht gespart. Links von Yr0 ist die Konsumnachfrage sogar größer als das laufende Einkommen – es liegen in diesem Bereich folglich negative Ersparnisse vor –, rechts von Yr0 sind die Ersparnisse positiv, da das Einkommen die Konsumnachfrage übersteigt. Beim Schnittpunkt der Ersparnisfunktion mit der autonomen Investitionsnachfrage I 0aut ist ein gleichgewichtiges Einkommen von Yr * erreicht. Steigt die Investitionsnachfrage auf I1aut , dann muss das gleichgewichtige Einkommen auf Yr ** steigen. Die Ersparnisse entsprechen auch hier den Investitionen. Der beschriebene Zusammenhang zwischen Investitionen und Ersparnissen drückt einen der Kernpunkte des keynesianischen Paradigmas aus: Ersparnisse werden nicht, wie im neoklassischen und klassischen Paradigma, aus einem von den Investitionen unabhängigen Einkommen getätigt, sondern Ersparnisse sind das Resultat eines Einkommensschöpfungsprozesses, der wesentlich von den Investitionen gesteuert wird. In diesem Sinne erzeugen die Investitionen die notwendigen Ersparnisse, indem die aggregierte Nachfrage, die Produktion und die Einkommensschöpfung stimuliert werden.
410
Keynesianische Makroökonomie
Abbildung 4.4.4: Die Sparfunktion der Haushalte
I, SH
SH
Caut sY
1
I**= SH**
I aut
I*= SH*
I aut
0
0 Caut
0
Yr
Yr *
Yr **
Yr P mit P
1
Keynes erläuterte in seinem Buch „Vom Gelde“ eine instruktive Parabel, die den Stellenwert des Sparens in seinem Denken verdeutlicht (Keynes 1930, S. 143 f.). Er geht von einem Gemeinwesen aus, das sich eines hohen Konsumniveaus und hohen Wohlstands erfreut. In diesem Eden wird nun eine Sparkampagne durchgeführt, um die Investitionen zu erhöhen. Je versessener die Bevölkerung jedoch die Erhöhung der Ersparnisse durchzusetzen sucht, desto stärker schrumpfen Nachfrage, Produktion, Einkommen und letztlich auch die Ersparnisse. Der ökonomische Schrumpfungsprozess hört erst auf, wenn die Bevölkerung damit aufhört, das Sparvolumen durch geringere Konsumausgaben erhöhen zu wollen. Diese Parabel zeigt, dass Investitionen im Rahmen der keynesianischen Mengentheorie nicht durch Ersparnisse zu erhöhen sind – der Kausalprozess ist genau umgekehrt, die Ersparnisse steigen mit den Investitionen. Wir kennen nun zwei Methoden, um ein Gleichgewicht bzw. Ungleichgewicht auf dem Gütermarkt zu bestimmen: a) über die Gleichheit der aggregierten Nachfrage mit dem aggregierten Angebot und, b) über die Gleichheit von Nettoinvestitionen und Haushaltsersparnissen. Dieser Sachverhalt, der in weiteren Kapiteln eine Rolle spielt, kann anhand der Abbildung 4.4.5 verdeutlicht werden.
Keynesianische Makroökonomie
411
Abbildung 4.4.5: Zwei Arten zur Bestimmung des Gütermarktgleichgewichts Yr 5
XN
XN
XN XN* C
I aut C aut cY
C aut cY
I aut Caut C aut 45°
Yr0
Yr*
I, SH
SH
Caut sY
I aut
I*, SH* 0
Yr P mit P 1
Yr1
Yr0
Yr*
Yr1
Yr P mit P 1
Caut
Wie man der Abbildung entnehmen kann, gilt beim Gleichgewichtseinkommen Y * : X N * = Yr *
und
I* =SH * Befindet sich die Ökonomie im oberen Teil der Grafik links von Yr * bei einem Einkommensniveau von Yr0 , dann existiert offensichtlich ein Ungleichgewicht auf dem Gütermarkt. In diesem Fall ist die aggregierte Nachfrage größer als das Angebot. Der Nachfrageüberhang entspricht im unteren Teil der Abbildung der Strecke AYr0 . Hier sind die Investitionen größer als die Ersparnisse, denn die Ersparnisse sind bei Yr0 null. Ein Nachfrageüberhang auf dem Gütermarkt kann folglich gleichzeitig durch
XN ! Yr
und
I ! SH ausgedrückt werden. Bei einem Angebotsüberhang gilt die analoge Argumentation. Bei Yr1 ist das Angebot größer als die Nachfrage. Gleichzeitig übersteigen die Ersparnisse die Investitionen. Ein Angebotsüberhang auf dem Gütermarkt wird folglich gleichzeitig durch
412
Keynesianische Makroökonomie X N < Yr
und
I < SH ausgedrückt. Ein Ungleichgewicht zwischen I und SH muss nicht zwingend aus den Schwankungen der Investitionstätigkeit resultieren. Auch plötzliche Veränderungen anderer Nachfragekomponenten – etwa der autonomen Konsumnachfrage – können ein Ungleichgewicht zwischen Nettoinvestitionen und Haushaltsersparnissen auslösen. Kernpunkte Bei unausgelasteten Kapazitäten und Arbeitslosigkeit, ein häufiger Zustand in kapitalistischen Ökonomien, bestimmt die aggregierte Nachfrage das Angebot. In einer geschlossenen Ökonomie und ohne öffentliche Haushalte wird die aggregierte Nachfrage durch die Investitionsnachfrage und die Konsumnachfrage bestimmt. Die Investitionsnachfrage wurde im Vermögensmarkt abgeleitet und hängt wesentlich von Erwartungen und der Geldpolitik ab. Die Konsumnachfrage hängt insbesondere vom laufenden Einkommen ab, aber auch von der Vermögens- und Einkommensverteilung, von den Erwartungen der Haushalte und dem Preis und Verfügbarkeit von Krediten. Haushalte sparen einen Teil ihres Einkommens. Dies wird durch die marginale Konsum- bzw. Sparneigung ausgedrückt. Ersparnisse werden im keynesianischen Paradigma durch Investitionen bestimmt, da Investitionen die Nachfrage und die Einkommensschöpfung so anregen, dass die Ersparnisse sich dem Niveau der Investitionen anpassen. 4.4.2 Der Gütermarktmultiplikator Fragestellung Warum verändern sich bei einer Erhöhung einer autonomen Nachfragekomponente das Produktionsvolumen und das Einkommen um ein Vielfaches? Was bestimmt den Multiplikatoreffekt? Ausgehend von einer Gleichgewichtskonstellation auf dem Gütermarkt soll sich die Investitionsnachfrage – aus welchen Gründen auch immer – erhöhen. Wie stark steigt die gleichgewichtige Produktion bzw. das gleichgewichtige Einkommen und wie ist der Prozess zum neuen Gleichgewicht zu verstehen? Diese Frage beantwortet der Gütermarktmultiplikator. Nähern wir uns der Frage grafisch, indem wir in Abbildung 4.4.6, ausgehend vom Gütermarktgleichgewicht Yr * , eine permanente Zunahme der Investitionsnachfrage ( ΔIaut) einzeichnen. Die beim alten Gleichgewicht existierenden einkommensunabhängigen Nachfragekomponenten fassen wir zu Naut = Iaut + Caut zusammen. Aufgrund der erhöhten autonomen Nachfrage verschiebt sich die aggregierte Nachfragefunktion XN0 nach oben und wird zu XN1 . Grafisch ist ersichtlich, dass die Erhöhung des gleichgewichtigen Einkommens (ΔYr = Yr ** - Yr*) weitaus größer ist als die Erhöhung der Investitionsnachfrage (ΔIaut) . Folglich muss die aggregierte Nachfrage ebenfalls stärker gestiegen sein als der ursprüngliche Nachfrageimpuls ΔIaut . Dies ist tatsächlich der Fall, da die Nachfrageerhöhung ΔIaut zu einer Erhöhung des Einkommens führt, die dann ihrerseits die Konsumnachfrage anregt. Die Erhöhung der autonomen Investitionsnachfrage führt somit über die Anregung zusätzlichen Konsums zu einem multiplikativen Effekt. Baut ein Unternehmer beispielsweise eine neue Schuhfabrik, dann beauftragt er Bauunternehmen zum Bau der Fabrikhalle, Maschinenbauer zum Bau von Maschinen etc. In der Bau- und Maschinenbaubranche wird die Produktion angeregt, Arbeiter werden beschäftigt und Gewinne werden gemacht. Das Einkommen, das in der Bau- und Maschinenbaubranche entstanden ist, wird möglicherweise die Nach-
Keynesianische Makroökonomie
413
frage nach Unterhaltungselektronik und Restaurantdienstleistungen erhöhen. Nun wird die Produktion in diesen Branchen ausgedehnt, es entsteht erneut Einkommen etc. Wir unterstellen hier eine geschlossene Ökonomie. Bei der Existenz von Außenhandel modifiziert sich der Fall, da dann ein Teil der Nachfrage die Importe anregt.
Abbildung 4.4.6: Änderung der autonomen Nachfrage XN
X N = Yr · P X N1 = N aut + ΔI aut + cY X N 0 = N aut + cY
N a u t + Δ Ia u t
N au t 45° Yr *
Yr * *
Yr · P mit P = 1
Betrachten wir den Prozess, der vom alten Gleichgewicht zum neuen führt, etwas genauer, wobei betont werden muss, dass der im Folgenden dargestellte Multiplikatorprozess keinen in der historischen Zeit ablaufenden Anpassungsprozess widerspiegelt, sondern nur die Gründe für die Stärke der Verschiebung des Gleichgewichts verdeutlicht. Der komparativ-statische Charakter der Analyse bleibt somit erhalten. Worum es geht, soll ein Beispiel verdeutlichen. Unterstellt sei eine Erhöhung der Investitionsnachfrage um 100 Mrd. € und eine marginale Konsumneigung von 0,8. Der Multiplikatorprozess zum neuen Gleichgewicht wird in der Tabelle 4.4.2 dargestellt. ΔIaut , ΔYr , ΔC und ΔSH drücken den kumulativen Effekt der Einkommens- bzw. Ersparniserhöhung am Ende der jeweils betrachteten Periode aus. In der ersten Periode erhöht sich die Investitionsnachfrage um 100 Mrd. €. Das Einkommen erhöht sich ebenfalls um 100 Mrd. €. Die Investitionsnachfrage verharrt dann auf dem neuen Niveau. In der zweiten Periode wird der Einkommenszuwachs der ersten Periode entsprechend der marginalen Konsumneigung von den Haushalten ausgegeben. In unserem Beispiel beträgt die Erhöhung der Konsumnachfrage 0,8·100 Mrd. € = 80 Mrd. €. Ein Teil der Einkommenserhöhung (20 Mrd. €) wird somit nicht nachfragewirksam, sondern gespart. Es ist zu beachten, dass in der zweiten Periode die erhöhte Investitionsnachfrage das Einkommen erneut um 100 Mrd. € erhöht. Der Gesamteffekt beträgt dann 180 Mrd. €. In der dritten Periode ergeben sich folgende Nachfrageeffekte: Die Investitionsnachfrage bleibt bei 100 Mrd. €. Das Einkommen in der zweiten Periode betrug 180 Mrd. €. Daraus ergibt sich eine Konsumnachfrage von 0,8 · 180 Mrd. € = 144 Mrd. €. Nachfrage und Einkommen steigen somit in der dritten Periode auf 244 Mrd. €, die Ersparnisse auf 36 Mrd. €. In der vierten Periode bleibt der Impuls der Investitionsnachfrage erneut bei 100 Mrd. €. Das Einkommen der dritten Periode betrug 244 Mrd. €. Daraus ergibt sich ein Konsum von
414
Keynesianische Makroökonomie
0,8 · 244 Mrd. € = 195,2 Mrd. €. Die Gesamtproduktion in der Periode vier beträgt nun 295,2 Mrd. €, die Ersparnisse 48,80 Mrd. €. In den folgenden Perioden werden die Nachfrageimpulse immer kleiner, am Ende der Periode 6 hat sich allerdings aus der Erhöhung der Investitionsnachfrage von 100 Mrd. € eine Erhöhung der Gesamtnachfrage und Produktion von 368,93 Mrd. € ergeben. Würde die Rechnung weitergeführt, so würde der Einkommenszuwachs gegen 500 Mrd. € und die Ersparnisse auf 100 Mrd. €. konvergieren
Tabelle 4.4.2: Der Multiplikatorprozess
ΔC
ΔYr
ΔSH
0
100
0
100
0,8 100 = 80
180
20
3
100
0,8 180 = 144
244
36
4
100
0,8 244 = 195,2
295,20
48,80
5
100
0,8 295,2 = 236,16
336,16
59,04
6
100
0,8 336,16 = 268,93
368,93
67,23
..
..
..
..
..
500
100
Periode
ΔIaut
1
100
2
∞
Im Zahlenbeispiel der Tabelle 4.4.2 wird in der ersten Periode nichts gespart. Allerdings erhöht sich in der ersten Periode das Einkommen um ΔIaut = ΔYr = 100 Mrd. € . In den folgenden Perioden beginnt ein Sparprozess aus den Einkommenszuwächsen der jeweiligen Vorperiode. Nach 6 Perioden ergibt sich im gewählten Beispiel eine aggregierte Zunahme der Ersparnisse von 67,23 Mrd. €. Im neuen Gütermarktgleichgewicht ist das Einkommen um 500 Mrd. € gestiegen, der Konsum um 400 Mrd. € und die Investitionen um 100 Mrd. €. Die marginale Sparneigung s = 1 – c entspricht 0,2, so dass sich der Zuwachs der Haushaltsersparnisse folglich auf 0,2 · 500 Mrd. € = 100 Mrd. € beläuft. Das entspricht genau der Zunahme der Investitionen. Grafisch ist der Multiplikatorprozess in Abbildung 4.4.7 dargestellt, wobei infinitesimale periodische Veränderungen angenommen werden und dadurch eine Anpassungskurve entsteht. Das ursprüngliche Gleichgewichtseinkommen betrage 800 Mrd. €. Die Erhöhung des Niveaus der autonomen Nachfrage – in unserem Beispiel Iaut = 100 Mrd. € – erhöht das Einkommen zunächst in gleicher Höhe. Die durch das gestiegene Einkommen induzierten Nachfrageerhöhungen werden im Verlaufe der Zeit schwächer und erhöhen das laufende Einkommen um einen immer geringeren Wert. Nach der Beendigung des Prozesses ist das neue Gleichgewichtsniveau der Produktion und des Einkommens um 500 Mrd. € gestiegen und erreicht einen Wert von 1300 Mrd. €.
Keynesianische Makroökonomie
415
Abbildung 4.4.7: Der Multiplikatorprozess bei einer permanenten Erhöhung der Investitionen Yr
Yr * * = 1300
Yr * + ΔI aut = 900
Yr * = 800
Zeit
Die Addition der Einkommenszuwächse in den einzelnen Perioden ist mühsam zu berechnen. Die Beziehung zwischen einem einkommensunabhängigen Nachfrageimpuls und der Veränderung des gleichgewichtigen Einkommens lässt sich wesentlich einfacher ermitteln. Nach Gleichung (4.4.6) ergibt sich das Gleichgewichtseinkommen vor der Erhöhung der Investitionen durch: Yr* =
1 .(Iaut + Caut) 1− c
Das Gleichgewichtseinkommen nach der Erhöhung der Investitionsnachfrage um ΔIaut ist: Yr ** =
1 (Iaut + Caut + ΔIaut) 1− c
Die Veränderung des gleichgewichtigen Einkommens beträgt: ΔYr = Yr * * - Yr *
bzw.
ΔYr =
1 1 (Iaut + Caut + ΔIaut) (Iaut + Caut) 1− c 1− c
ΔYr =
1 ( ΔIaut) 1− c
Es folgt: (4.4.8)
1 wird als Multiplikator (m) bezeichnet, so dass Gleichung (4.4.8) auch in der Form 1− c von ΔYr = m ⋅ ΔIaut geschrieben werden kann. Werden die Werte aus Tabelle 4.4.2 benutzt, dann ergibt sich als Multiplikator
Der Quotient
m=
1 =5 1 − 0,8
und als Einkommenszuwachs in der hier durchgeführten komparativ-statischen Betrachtung: ΔYr = 5 ⋅ 100 Mrd. € = 500 Mrd. €
416
Keynesianische Makroökonomie
Eine Erhöhung der Investitionsnachfrage von 100 Mrd. € hat somit das Gleichgewichtseinkommen um 500 Mrd. € ansteigen lassen. Der Multiplikator m kann in unserem einfachen Modell sowohl für die Bestimmung des Gütermarktgleichgewichts bei gegebener autonomer Nachfrage als auch zur Berechnung der Veränderung des Gleichgewichtseinkommens bei einer Veränderung einer autonomen Nachfragekomponente angewandt werden.153 Steigt die Konsumneigung, so steigt der Multiplikator. Bei c = 0,9 steigt der Multiplikator auf m = 10 und in unserem Beispiel die Zunahme des Einkommens auf ΔYr = 1000 Mrd. €. Dieses Ergebnis kommt zustande, weil der Versickerungseffekt in der Form von Ersparnissen geringer geworden ist und somit ein größerer Anteil der Einkommenszuwächse nachfragewirksam wurde. Eine hohe Konsumneigung wird im Rahmen der keynesianischen Mengentheorie – im Unterschied zu neoklassischen Vorstellungen – somit keineswegs als schlecht im Hinblick auf das volkswirtschaftliche Wachstum charakterisiert. Im Gegenteil, eine hohe Konsumneigung führt bei der Erhöhung einkommensunabhängiger Nachfragekomponenten zu einem stärkeren Anstieg des Einkommens als eine geringe Konsumneigung. Umgekehrt ergibt sich allerdings, dass der Schrumpfungsprozess einer Ökonomie aufgrund einer Reduzierung der autonomen Nachfrage bei einer hohen Konsumneigung stärker ausfällt als bei einer niedrigen. Eine hohe Konsumneigung vergrößert folglich konjunkturelle Schwankungen. Bisher wurde die Erhöhung des gleichgewichtigen Einkommens bei einem permanenten Anstieg der Investitionsnachfrage untersucht. Ein anderer Fall liegt vor, wenn sich die autonome Investitionsnachfrage nur in einer Periode erhöht und danach wieder auf ihren alten Wert absinkt. Hier verbleibt das gleichgewichtige Einkommen letztlich auf seinem alten Niveau. Es kommt zwar temporär zu einer Erhöhung des Einkommens, jedoch sinkt es anschließend schrittweise wieder auf das ursprüngliche Niveau. Beträgt der einmalige Nachfrageimpuls ΔIaut = 100 Mrd. €, dann steigen Nachfrage und Produktion im Rahmen der Multiplikatorlogik in der ersten Periode um 100 Mrd. €. In der zweiten Zeiteinheit steigen bei einer marginalen Konsumneigung von 0,8 die Konsumnachfrage und die Produktion um 80 Mrd. €. Da der Nachfrageimpuls ΔIaut = 100 Mrd. € in der zweiten Periode aber auf Null gefallen ist, sinkt das Einkommen somit insgesamt um 20 Mrd. €. In der dritten Periode ergibt sich wiederum eine geringere Nachfrage, da von den 80 Mrd. € Einkommen nur noch 64 Mrd. € nachfragewirksam werden, so dass das Einkommen insgesamt um nun 16 Mrd. € sinkt usw. Die Entwicklung bei einem einmaligen Nachfrageimpuls ist in Abbildung 4.4.8 grafisch wiedergegeben.
1 nimmt hier für beide Berechnungen nur deshalb den gleichen Wert an, weil eine marginale (1 - c) konstante Konsumneigung unterstellt wurde. Bei komplizierteren Modellen wird diese Vereinfachung aufgehoben.
153
Der Multiplikator
Keynesianische Makroökonomie
417
Abbildung 4.4.8: Der Multiplikatorprozess bei einer einmaligen Erhöhung der Investitionen
Yr
Yr * + ΔI aut = 900
Yr * = 800
Zeit
Die Gleichung ΔYr = m ⋅ ΔIaut kann bei einem einmaligen Nachfrageimpuls ebenfalls zur Anwendung kommen. Allerdings drückt der Wert, der sich dann aus der Gleichung ergibt, nicht die Erhöhung des gleichgewichtigen Einkommens aus, sondern den kumulativen Wert der zeitweiligen Abweichung vom Gleichgewichtseinkommen. In unserem Zahlenbeispiel beträgt der kumulative Ungleichgewichtseffekt einer einmaligen Erhöhung der Investitionen um 100 Mrd. € somit 500 Mrd. €. Diese Variante des Multiplikators spielt wirtschaftspolitisch eine wichtige Rolle. Brechen beispielsweise die Investitionen für einen bestimmten Zeitpunkt ein, dann kann staatliche Politik die Güternachfrage durch einen einmaligen Nachfrageimpuls stabilisieren. Dadurch können auch Produktion und Beschäftigung stabilisiert werden. Der Gütermarktmultiplikator ist ein Kontrapunkt zur neoklassischen Vorstellung, dass die aggregierte Nachfrage unwichtig ist und damit das Saysche Gesetz gilt. Er zeigt die zentrale Rolle der aggregierten Güternachfrage und der autonomen Nachfragekomponenten. Auch wirtschaftspolitisch ist der Gütermarktmultiplikator von Bedeutung. Es war Richard Ferdinand Kahn (1931), ein Schüler von Keynes, dem die erste Fassung des Multiplikators zugeschrieben wird. Aber auch Michal Kalecky entwickelte die Idee der effektiven Nachfrage und eines Multiplikators. Kernpunkte Ein Multiplikatoreffekt existiert, weil jede Veränderung einer autonomen Nachfragekomponente direkte Auswirkungen auf die Produktions- und Einkommensschöpfung hat, wobei die dadurch bewirkten Einkommenseffekte über die Konsumnachfrage Produktion und Einkommen indirekt weiter verändern. Der Multiplikator wird durch die marginale Konsumneigung bestimmt; je höher die Konsumneigung, desto höher der Multiplikator. Das Gesetz der effektiven Nachfrage und der Multiplikator stellen das Saysche Gesetz vom Kopf auf die Füße: Nicht jedes Angebot schafft sich seine Nachfrage, sondern jede Nachfrage schafft sich ihr Angebot.
418
Keynesianische Makroökonomie
4.4.3 Produktion und Beschäftigung Fragestellung Was bestimmt im keynesianischen Paradigma das Beschäftigungsvolumen und die Arbeitslosigkeit? Wie sehen Angebot und Nachfrage nach Arbeit aus? Können flexible Löhne ein Gleichgewicht auf dem Arbeitsmarkt erzeugen? Der Arbeitsmarkt steht im keynesianischen Paradigma an unterster Stelle in der Hierarchie der Märkte. Die Interaktion von Vermögens- und Gütermarkt ermöglicht die Bestimmung eines gleichgewichtigen realen Volkseinkommens bzw. realen Nettoinlandsproduktes, wobei wir auch hier von einer geschlossenen Ökonomie ausgehen. Das Nettoinlandsprodukt wird mit einer spezifischen Technologie produziert, die die Unternehmen vor dem Hintergrund ihres Profitmaximierungskalküls auswählen. Bei gegebenem Produktionsvolumen und gegebener Produktivität bzw. Technik ergibt sich bei einer statischen Gleichgewichtsbetrachtung eine eindeutige Nachfrage nach Arbeit durch die Unternehmen. Das Arbeitsangebot wird in der einfachsten Fassung durch das verfügbare Arbeitskräftepotenzial gesetzt und ist für den Arbeitsmarkt exogen. Arbeitnehmer als Lohnabhängige müssen sich und ihre Familien durch den Verkauf von Arbeitsleistungen reproduzieren und haben daher nicht die freie Wahl zwischen Arbeit und Freizeit. Wenn die Reallöhne sinken, werden die Arbeitnehmer nicht ihre Arbeit niederlegen. Statt durch die Höhe des Reallohnsatzes wird das Arbeitsangebot stärker durch institutionelle, sozialpolitische und kulturelle Elemente geprägt. So werden Arbeitszeit und Arbeitsangebot stark durch Tarifverträge fixiert. Des Weiteren legt die konkrete Ausgestaltung der sozialen Sicherungssysteme fest, zu welchen Bedingungen Arbeitsleistungen angeboten werden müssen oder verweigert werden können. Existieren umfangreiche Absicherungen durch Arbeitslosenversicherungen und andere soziale Absicherungssysteme, so werden Arbeitskräfte eher in der Lage sein, für unzumutbar gehaltene Arbeitsverträge abzulehnen. Im umgekehrten Fall existieren derartige Wahlentscheidungen nicht oder nur begrenzt. Auch kulturelle Normen wirken auf den Umfang des Arbeitsangebots ein. Beispielsweise unterscheiden sich die Frauenerwerbsquoten vieler Länder auch deshalb voneinander, weil die Erwerbstätigkeit von Frauen unterschiedlich stark akzeptiert und gefördert wird. Es wäre purer Zufall, wenn sich Angebot und Nachfrage auf dem Arbeitsmarkt decken würden. Unterstellen wir in Abbildung 4.4.9 ein Produktionsvolumen von Yr0 , das eine Nachfrage nach Arbeit in Höhe von H0 erzeugt. Beim gegebenen Angebot an Arbeit ist die Arbeitslosigkeit H3 - H0. Arbeitslosigkeit kann nur reduziert werden, wenn bei gegebenem Arbeitsangebot (das wir mittelfristig als gegeben unterstellen) das Produktionsvolumen erhöht wird. Nehmen wir zunächst an, dass die Arbeitsproduktivität nicht steigt. Damit unterstellen wir, dass sich die Technologie nicht verändert, der Arbeitsprozess nicht intensiviert wird und auch die Naturbedingungen der Produktion unverändert sind. In diesem Fall ergibt sich eine lineare und proportionale Beziehung zwischen Produktionsvolumen und Arbeitsnachfrage. Die Arbeitsnachfragekurve AN1 gibt einen solchen Fall an. Steigt die Produktion von Yr0 auf Yr1 , erhöht sich die Beschäftigung von H0 auf H2 und die Arbeitslosigkeit sinkt entsprechend. Wenn wir eine Erhöhung der Produktivität unterstellen, dann produzieren weniger Arbeiter (ein geringerer Input an Arbeitsstunden) die gleiche Menge an Output. Im Vergleich zu einer Situation ohne Produktivitätserhöhung muss das Produktionsvolumen nun schneller wachsen, um den gleichen Beschäftigungseffekt zu erzielen. In der Abbildung 4.4.9 bewirkt eine Erhöhung der Produktion von Yr0 auf Yr1 nun nur eine Erhöhung der Beschäftigung auf H1 (vgl. die Arbeitsangebotskurve AN2). Um die Beschäftigung nun auf H2 zu erhöhen, muss die Produktion auf Yr2 steigen.
Keynesianische Makroökonomie
419
Abbildung 4.4.9: Der Arbeitsmarkt bei steigendem Produktionsvolumen Yr AA
AN2 bei gestiegener Produktivität
Yr2
AN1 bei gegebener Produktivität
Yr1 Yr0
H0
H1
H2
H
H3
Der Zusammenhang zwischen Arbeitsnachfrage und realem Produktionsvolumen kann genauer gefasst Yr werden. Mit H als Beschäftigung, Yr als realem Produktionsvolumen und π = als Produktivität H 154 gilt: H=
(4.4.9)
Y r Yr = Yr π H
und
˙ r − π˙ H˙ = Y
Erhöht sich die Produktivität um 2 Prozent und das reale Produktionsvolumen um 5 Prozent, dann steigt die Beschäftigung um 3 Prozent. Die Wachstumsrate der Produktivität kann als Beschäftigungsschwelle angesehen werden. Denn nur wenn das Wachstum des Produktionsvolumens über dem Produktivitätswachstum liegt, erhöht sich die Beschäftigung. Es wurde im Kapitel 3.3 ausgeführt, dass es bei Verteilungsänderungen zwischen Löhnen und Profit zu Technologiesprüngen kommen kann. Auch werden laufend neue Technologien durch Erfindungen und Innovationen bereitgestellt. Wie können somit vor allem längerfristig keinen stabilen Zusammenhang zwischen Produktionsvolumen und Beschäftigung erwarten. Indem die Arbeitsnachfrage unabhängig vom Reallohnsatz ist und wesentlich von Prozessen auf dem Vermögens- und Gütermarkt bestimmt wird und gleichzeitig das Arbeitsangebot durch das Arbeitskräftepotenzial einschließlich aller institutionellen und wirtschaftspolitischen Faktoren ebenfalls unabhängig vom Reallohn gesetzt wird, kann der Lohn Angebot und Nachfrage nach Arbeit nicht zum Ausgleich bringen. Damit wird der neoklassischen Vorstellung eines Arbeitsmarktes widersprochen, ein flexibler Lohn können wie der Preis auf einem gewöhnlichen Gütermarkt Angebot und Nachfrage nach Arbeit ins Gleichgewicht bringen. Betrachten wir zur Verdeutlichung den keynesianische Ar154
Die Wachstumsrate eines Quotienten entspricht der Differenz der Wachstumsraten von Zähler und Nenner (Westphal 1994, S. 551 f.).
420
Keynesianische Makroökonomie
beitsmarkt im neoklassischen Arbeitsmarktdiagramm (vgl. Abbildung 4.4.10). Das Arbeitsangebot (AA) und die Arbeitsnachfrage (AN) sind in aller Regel weitgehend unabhängig vom Reallohnsatz wr. Es gibt keinen Mechanismus auf dem Arbeitsmarkt, der den Arbeitsmarkt über den Lohn zum Ausgleich bringen könnte. Damit können die Reallöhne auch nicht über den Arbeitsmarkt bestimmt werden. Sie werden im keynesianischen Paradigma dann auch an anderer Stelle bestimmt (vgl. das Kapitel 4.6 über die Einkommensverteilung).
Abbildung 4.4.10: Der keynesianische Arbeitsmarkt im neoklassischen Arbeitsmarktdiagramm
wr
AN
AA
H1
H2
H
Es ändert sich an der Argumentation nichts Wesentliches, wenn wir unrealistischerweise unterstellen, dass das Arbeitsangebot in relevantem Umfang vom Reallohnsatz abhängig ist. Die Arbeitsangebotskurve würde sich in einem solchen Fall, möglicherweise beginnend bei H2, nach rechts oben bewegen. Es könnte auch unterstellt werden, dass ein vom Reallohn abhängiges Arbeitsangebot links von H1 beginnt. Es gäbe dann einen Schnittpunkt mit der Nachfrage nach Arbeit. Aber auch das würde nicht helfen, da der Reallohn nicht auf dem Arbeitsmarkt bestimmt wird und Nominallohnveränderungen nicht zu Reallohnveränderungen führen. Es gäbe also auch dann keinen Mechanismus, der das Gleichgewicht herstellen könnte. Diese an dieser Stelle möglicherweise etwas dunklen Punkte werden in Kapitel 4.5 aufgeklärt. Entscheidend ist, dass es aus keynesianischer Sicht auf dem Arbeitsmarkt keinen Mechanismus gibt, der Vollbeschäftigung herbeiführen könnte. Den neoklassischen Marktprozess, der über flexible Löhne den Arbeitsmarkt zum Gleichgewicht bringt, kennt das keynesianische Paradigma nicht. Wenn Vollbeschäftigung Zufall ist, dann ist als Normalzustand einer unregulierten kapitalistischen Ökonomie Arbeitslosigkeit zu erwarten. So auch Keynes (1936, S. 209): „Die Erfahrung weist überdies darauf hin, dass Vollbeschäftigung oder auch nur annähernde Vollbeschäftigung eine seltene und kurzfristige Erscheinung ist.“ Dies entspricht den historischen Erfahrungen der letzten zwei Jahrhunderte, also der gesamten Periode der Existenz moderner Geldwirtschaften.
Keynesianische Makroökonomie
421
Kernpunkte Die Arbeitsnachfrage ist durch das Produktionsvolumen gegeben, das auf dem Gütermarkt bestimmt wird. Produktivitätsveränderungen beeinflussen die Beziehung zwischen dem Produktionsvolumen und der Arbeitsnachfrage. Das Arbeitsangebot ist wesentlich durch institutionelle Faktoren bestimmt und weniger durch Reallöhne. Vollbeschäftigung ist Zufall. Der Arbeitsmarkt verfügt über keinen Mechanismus, Vollbeschäftigung zu erreichen.
422
Keynesianische Makroökonomie
4.5 Preisniveau und Zyklus 4.5.1 Kosten- und Nachfrageinflation Fragestellung Wie erklärt das keynesianische Paradigma das Preisniveau und dessen Veränderung? Welche Rolle spielt dabei die Geldmenge? Was versteht man unter einer Kosteninflation bzw. -deflation und eine Nachfrageinflation bzw. deflation? Was ist eine Lohn-Preis-Spirale und was stößt sie an? Wie sollten sich die Lohnstückkosten und die Nominallöhne nach makroökonomischen Gesichtspunkten erhöhen? Führen unregulierte Arbeitsmärkte zu makroökonomisch wünschenswerten Lohnentwicklungen? Die Bestimmung des Preisniveaus ist eine wichtige Aufgabe jedes ökonomischen Paradigmas. Inflations- und Deflationsprozesse sind von besonderer Relevanz, da sie einerseits das Ergebnis marktwirtschaftlicher Prozesse sind und andererseits die Ökonomie massiv destabilisieren können. Die statistische Erfassung des Preisniveaus und seiner Veränderung wurde schon im Kapitel 3.4.1 dargestellt, die neoklassische Erklärung des Preisniveaus und seiner Veränderung erfolgte im Rest des Kapitels 3. In den folgenden Ausführungen werden Inflations- und Deflationsprozesse in der Tradition von John Maynard Keynes’ Buch „Vom Gelde“ (1930) dargestellt. Dabei stehen insbesondere kostengetriebene Erklärungen von Preisniveauänderungen im Zentrum. Keynes war nicht der einzige Ökonom, der diesen Ansatz gewählt hat. Wie bei der Rolle der effektiven Nachfrage kann auch hier insbesondere Michal Kalecki (1943) genannt werden, der die Rolle der Kosten für Preisbewegungen ins Zentrum rückte.155 Die Bestimmungsgleichungen des Preisniveaus Zunächst sollen volkswirtschaftliche Identitäten so umformuliert werden, dass sie eine Bestimmung des Preisniveaus und eine Analyse von Inflations- und Deflationsprozessen erlauben. Mit Hilfe der Saldenzusammenhänge der Volkswirtschaftlichen Gesamtrechnungen lassen sich die Einflussfaktoren auf das Preisniveau herauskristallisieren. Aus dem Kapitel 4.1 über volkswirtschaftliche Saldenzusammenhänge ergibt sich, dass sich das Volkseinkommen (Y) in Löhne (W) und Profite (Q) aufteilt. Wir sehen auch hier vom Ausland und dem Einfluss öffentlicher Haushalte ab. Die Profite können in normale oder gleichgewichtige Profite, die gleichzeitig alle an die Haushalte fließen sollen (QH), und Profite, die nicht ausgeschüttet werden und damit im Unternehmenssektor verbleiben (Qq), unterteilt werden. Wenn Y = W + QH + Qq ist und YH = W + QH mit YH als Einkommen, das an die Haushalte fließt, dann gilt: (4.5.1)
Y = YH + Qq
Das nominale Volkseinkommen (nominale Nettoinlandsprodukt) dividiert durch den Preisindex (P) ergibt das reale Volkseinkommen (reale Nettoinlandsprodukt). Somit gilt auch Y = P ⋅ Yr , wobei Yr als Anzahl von Einheiten des gesellschaftlichen Produktionsvolumens interpretiert werden kann. Damit kann Gleichung (4.5.1) auch folgendermaßen geschrieben werden: P ⋅ Yr = YH + Qq bzw.
155
Vergleiche zur Inflationstheorie auch Riese (1986) und Herr (2009).
Keynesianische Makroökonomie (4.5.2)
P=
423
YH Qq + Yr Yr
Das Haushaltseinkommen kann für Konsum (C) oder Ersparnisse der Haushalte (SH) verwandt werden, so dass gilt: (4.5.3)
YH = C + S H
Es ist zu beachten, dass Ersparnisse als Einkommen definiert werden, die nicht konsumiert werden. Die volkswirtschaftlichen Ersparnisse (S) entsprechen somit den Haushaltsersparnissen und den unverteilten Gewinnen, da unverteilte Gewinne automatisch Ersparnisse der Unternehmen darstellen, S = SH + Qq. Die unverteilten Gewinne erhöhen das Eigenkapital der Unternehmen. Gleichzeitig teilt sich das nominale Volkseinkommen zwingend in Konsum und Nettoinvestitionen auf, so dass sich (4.5.4)
P ⋅ Yr = C + I
ergibt. Wird die Gleichungen (4.5.4) in Gleichung (4.5.1) für Y und die Gleichung (4.5.3) in Gleichung (4.5.1) für YH eingesetzt, so folgt daraus: (4.5.5)
Qq = I - SH
Wird Gleichung (4.5.5) wiederum in Gleichung (4.5.2) eingesetzt, so ergibt sich folgende Bestimmungsgleichung des Preisniveaus: (4.5.6)
P=
YH (I − SH) + Yr Yr
QH mit PV als Bestand an ProPV Damit wird Gleichung (4.5.6) in differenzierterer
Steht q als normale oder gleichgewichtige Profitrate und ist durch q = duktivvermögen definiert, dann ist Q H = q ⋅ PV .156 Form zu: (4.5.7)
P=
W q ⋅ PV (I − SH) + + Yr Yr Yr
Wir haben bisher von Preisniveaukomponenten abgesehen, die einen eher exogenen Charakter haben. Gemeint ist hier der Preis von Erdöl und anderen Rohstoffen oder der Preis von Lebensmitteln. Diese Preise sind von natürlichen Knappheiten abhängig oder von guten oder schlechten Ernten. Auch Spekulationen und andere Markteinflüsse können diese Preise verändern, jedoch wollen wir in dieser Einführung nicht näher auf diese Faktoren eingehen.157 Bei explizier Berücksichtigung solcher Faktoren K und ex als Kosten solcher Einflüsse je Produktionseinheit Yr wird Gleichung (4.5.7) zu Gleichung Yr (4.5.8). (4.5.8)
P=
W q ⋅ PV K Ex (I − SH) + + + Yr Yr Yr Yr
Anhand dieser Gleichung lassen sich die unterschiedlichen Bestimmungsfaktoten des Preisniveaus aufzeigen.
156
Wie sehen von Vorleistungen ab. Deren Berücksichtigung würde die Analyse nicht entscheidend verändern. Wer mag, kann die Kosten für Vorleistungen als Teil der Kosten für das Produktivvermögen interpretieren. 157 Auch Abwertungen können über die Erhöhung von Importen das Preisniveau erhöhen.
424
Keynesianische Makroökonomie
W wird als Lohninflation bezeichnet, da sich in diesem Fall die LohnYr kosten pro Produktionseinheit Yr erhöht haben. Reduziert sich der Wert des ersten Gliedes der Gleichung, dann liegt eine Lohndeflation vor.
Eine Erhöhung des Wertes
q ⋅ PV drückt eine Erhöhung der Profite pro Produktionseinheit aus, was das Yr Preisniveau ebenfalls erhöht. Reduzieren sich die Profite pro Produktionseinheit, dann senkt sich das Preisniveau. Es wird unten geklärt, warum bei den Profiten von Kosten gesprochen werden kann.
Die Erhöhung von
K ex drückt die autonomen Kostenkomponenten pro Produktionseinheit aus. Yr
Diese ersten drei Glieder der Gleichung (4.5.8) bringen die gesellschaftliche Kostenstruktur zum Ausdruck. Steigt der Wert dieser Glieder, handelt es sich um eine Kosteninflation, im umgekehrten Fall um eine Kostendeflation. Die ersten beiden Glieder der Gleichung (4.5.8) stellen Einkommen dar, da in diesem Fall die Kosten der Unternehmen den Einkommen der Haushalte entsprechen. Hier kann auch von einer Einkommensinflation bzw. Einkommensdeflation gesprochen werden. Bei der Kosteninflation bzw. -deflation wird eine Aufschlagskalkulation bzw. ein so genanntes „markup pricing„ angenommen. Damit unterstellen wir, dass die Unternehmen zumindest mittelfristig in der Lage sind, bei Kostenerhöhungen die Preise zu erhöhen und damit die Preise durch die Stückkosten bestimmt werden. Um diesen Punkt plausibler zu machen, können wir monopolistische Konkurrenz (oder oligopolistische und monopolistische Märkte) unterstellen, da in diesem Fall die Unternehmen die Macht besitzen, die Preise zu verändern (vgl. Kapitel 2.6).158 Selbstverständlich gelingt es einem Unternehmen nicht oder nur sehr begrenzt, erhöhte Kosten auf die Preise zu überwälzen, wenn die Kostenerhöhungen nur das entsprechende Unternehmen betreffen. Bei der Analyse hier handelt es sich jedoch um eine makroökonomische Analyse. Sind alle Unternehmen von einer Kostenerhöhung betroffen, dann ist eine Überwälzung der Kosten auf die Preise einfach, da der Konkurrenzprozess Preiserhöhungen nicht verhindert. Steigt der Ölpreis in der Ökonomie, dann steigen die Preise entsprechend der gestiegenen Kosten; steigt das Lohnniveau, dann sind ebenfalls alle Unternehmen betroffen und eine Überwälzung der Kosten fällt leicht und ist schnell möglich. Bei sinkenden Kosten führt der Konkurrenzprozess zu sinkenden Preisen. Der Preissenkungsprozess kann dabei Zeit in Anspruch nehmen und träge verlaufen. Bei der Kosteninflation bzw. -deflation handelt es sich um einen Kosten-PreisEffekt, der auch als Preis-Preis-Effekt bezeichnet werden kann. Das bedeutet, dass Unternehmen z.B. ihre Preise bei Kostenerhöhungen unabhängig von der Nachfragesituation, also auch bei unausgelasteten Kapazitäten erhöhen. Das letzte Glied der Gleichung der Gleichung (4.5.7) oder (4.5.8) zur Preisniveaubestimmung drückt ein Ungleichgewicht auf dem Gütermarkt aus. Sind die Nettoinvestitionen größer oder kleiner als die Haushaltsersparnisse, dann ist dies gleichbedeutend mit einem Nachfrage-Angebots-Ungleichgewicht auf dem Gütermarkt (vgl. Kapitel 4.4.1). Ist das letzte Glied positiv, dann liegt eine Nachfrageinflation vor, im umgekehrten Fall eine Nachfragedeflation. Im Vergleich zur Mengentheorie wird an dieser Stelle unterstellt, dass bei einer Nachfrageerhöhung alle Kapazitäten ausgelastet sind, die Produktion nicht erhöht werden kann und die Unternehmen die Preise erhöhen. Bei einer Reduzierung der Nachfrage unterstellen wir, dass die Unternehmen die Preise entsprechend des Überangebots senken. Da I - SH den unausgeschütteten Gewinnen der Unternehmen entspricht, kann bei I - SH > 0 von einer Gewinninflation und bei I - SH < 0 von einer Gewinndeflation gesprochen werden.159 Es sollte bedacht werden, dass bei der Kosteninflation bzw. –deflation die Kapazitätsauslastung keine Rolle spielt. Un158
Es sei daran erinnert, dass bei vollständiger Konkurrenz, die eine reine Mengenanpassung von Unternehmen unterstellt, unklar ist, wer die Preise verändern kann. Dieses Problem betrifft alle Paradigmen. Keynes (1930) entschied sich für die Begriffe Einkommensinflation bzw. -deflation und Gewinninflation bzw. deflation.
159
Keynesianische Makroökonomie
425
ternehmen werden allgemeine Kostenerhöhungen auch überwälzen, wenn es unausgelastete Kapazitäten gibt. Die Komponenten der Kosteninflation Nunmehr sollen die einzelnen Kostenkomponenten, die das Preisniveau bestimmen, genauer untersucht werden. So wichtig externe Kostenkomponenten wie Rohstoffe als Auslöser einer Inflation oder einer Deflation auch sein können, inflationäre und deflationäre Prozesse können sie nicht erklären. Deshalb sehen wir hier von den autonomen Kostenkomponenten ab. Im Gütermarktgleichgewicht entspricht das aggregierte Angebot der aggregierten Nachfrage, es gilt I - SH = 0. Unterstellen wir auch dies, so folgt als Preisniveaubestimmung in einer geschlossenen Ökonomie ohne externe Kostenkomponenten: (4.5.9)
P=
W q ⋅ PV + Yr Yr
Das erste Glied der Gleichung
W drückt die Lohnstückkosten aus.160 Verändert sich bei unveränderYr
tem realen Volkseinkommen bzw. Nettoinlandsprodukt die Lohnsumme, so verändern sich entsprechend die volkswirtschaftlichen Lohnstückkosten und damit das Preisniveau. Hinter den Lohnstückkosten stehen die Nominallöhne und die Produktivität. Dividiert man Zähler und Nenner der Lohnstückkosten durch die Anzahl der in der betrachteten Periode geleisteten Arbeitsstunden (H), so ergibt sich W w P= H = Yr π H
mit w als durchschnittlichem Stundenlohn und π als durchschnittlicher Arbeitsproduktivität. Somit können die Stundenlöhne im Ausmaß der Produktivitätserhöhung ansteigen, ohne dass sich ceteris paribus die Lohnstückkosten erhöhen. Wir wenden uns nun der Frage zu, wie eine Veränderung der Lohnstückkosten die gesamten Stückkosten und damit das Preisniveau verändert. Es könnte argumentiert werden, dass Lohnstückkosten nur einen Teil der Stückkosten ausmachen und damit zwischen der Erhöhung der Lohnstückkosten, der Stückkosten und dem Preisniveau kein proportionaler Zusammenhang besteht. Eine solche Annahme ist jedoch falsch. Bei der vereinfachten Preisniveaubestimmung entsprechend der Gleichung (4.5.9) gibt es eine proportionale Beziehung zwischen Veränderungen der Lohnstückkosten, der Stückkosten W + q ⋅ PV ) und damit dem Preisniveau. Dies liegt daran, dass die Erhöhung der Lohnstückkosten ( Yr auch die Kosten des Produktivvermögens erhöht und sich damit die Stückkosten mit der gleichen Rate verändern wie die Lohnstückkosten. Im folgenden Einschub wird dies formal bewiesen. Das reale Produktionsvolumen ist identisch mit der Arbeitsproduktivität multipliziert mit der Anzahl der geleisteten Arbeitsstunden ( Yr = H ⋅ π ). Wird auf der rechten Seite von Gleichung (4.5.9)
W durch Yr
w
ersetzt und im Nenner des letzten Gliedes Yr durch H ⋅ π , ergibt sich als Bestimmungsgleichung π für die Kosteninflation:
160
Es sollte bedacht werden, dass hier immer von Bruttolöhnen einschließlich der Arbeitgeberbeiträge zu den gesetzlichen Sozialversicherungen ausgegangen wird. Wichtig ist die Kostenbelastung der Unternehmen; wie sich diese Kosten im Einzelnen aufteilen, ist für die hier untersuchte Fragestellung unwichtig.
426 (4.5.10)
Keynesianische Makroökonomie P=
w q ⋅ PV + π H⋅π
Bei gegebenem Nettoinlandsprodukt ist jede Veränderung von π zwingend mit einer umgekehrt proportionalen Veränderung von H gekoppelt. Verdoppelt sich z. B. die Arbeitsproduktivität, dann halbiert sich zwingend die Zahl der Beschäftigten und der Nenner beim zweiten Glied auf der rechten Seite der Kosteninflation bleibt unverändert. Damit zeigt sich, dass Änderungen der Stundenlöhne entsprechend des Produktivitätswachstums die Stückkosten unverändert lassen, da dann kein Glied in Gleichung (4.5.10) seinen Wert verändert. Erhöht sich in Gleichung (4.5.10) Δw, dann wird sich zweifellos P um ΔP erhöhen. Allerdings wirkt ΔP auf das Produktivvermögen ein, das mit der PreisniveauΔP erhöhung ebenfalls im Wert ansteigt. Bei einer Preissteigerungsrate von wird es folglich den Wert P ⎛ ΔP ⎞ PV ⎜1 + ⎟ annehmen. Gleichung (4.5.10) nimmt unter Berücksichtigung dieses Aspekts die folgen⎝ P⎠ de Form an:
w + Δw + P + ΔP = π
⎛ ΔP ⎞ q ⋅ PV ⋅ ⎜1+ ⎟ ⎝ P ⎠ H⋅ π
Es folgt:
P + ΔP =
w q ⋅ PV Δw q ⋅ PV ⋅ ΔP + + + π H⋅ π π H⋅ π ⋅ P
Die beiden ersten Glieder auf der rechten Seite geben die Definition von P in Gleichung (4.5.10) an. Somit erhält man:
ΔP =
Δw q ⋅ PV ⋅ ΔP + π H⋅ π ⋅ P
⎛ q ⋅ PV ⎞ Δw ΔP⎜1− ⎟= ⎝ π ⋅ H⋅ P⎠ π ⎛ π ⋅ H ⋅ P − q ⋅ PV ⎞ Δw ΔP⎜ ⎟= ⎝ ⎠ π π ⋅ H⋅ P
ΔP =
⎞ Δw ⎛ π ⋅ H⋅ P ⋅⎜ ⎟ π ⎝ π ⋅ H ⋅ P − q ⋅ PV ⎠
Wird berücksichtigt, dass π ⋅ H ⋅ P = Y ist und Y − q ⋅ PV = w ⋅ H , folgt π ⋅ H ⋅ P − q ⋅ PV = w ⋅ H . Damit ergibt sich ⎛ Δw ⋅ π ⋅ H ⋅ P ⎞ ΔP = ⎜ ⎟ und ⎝ π⋅ w⋅H ⎠
ΔP Δw = P w
Die Gleichung bringt zum Ausdruck, dass bei gegebener Produktivität, gegebenem Produktionsvolumen und gegebener Profitrate die Veränderungsrate des Preisniveaus genau der Veränderungsrate der Geldlöhne entspricht. Wenn in einer geschlossenen Ökonomie ohne externe Kostenfaktoren wie Rohstoffe die Lohnstückkosten steigen, dann steigen die Stückkosten und das Preisniveau mit der gleichen Rate. Unter dieser
Keynesianische Makroökonomie
427
Bedingung (ausschließliche Veränderung von w und ʌ) vereinfacht sich die Gleichung (4.5.9) bzw. w (4.5.10) auf P = . Da die Wachstumsrate eines Quotienten der Differenz der Wachstumsraten von
π
Zähler und Nenner entspricht (Westphal 1994, S. 551 f.), folgt: (4.5.11)
P = w - π
mit P als Preisänderungsrate, w als Änderungsrate der Nominallöhne und π als Änderungsrate der Produktivität. Beträgt z. B. die jährliche Steigerung der Produktivität 3%, dann sind Lohnerhöhungen von 3% kostenneutral und verändern das Preisniveau nicht. Steigen (sinken) die Löhne z.B. um 7% und bleibt die Produktivitätsentwicklung bei 3%, dann steigt (fällt) das Preisniveau um 4 % (10 %). Eine Konsequenz dieser Analyse ist, dass die Arbeitnehmer als Klasse keine Möglichkeit haben, die Reallöhne durch Nominallohnänderungen zu beeinflussen. Denn wollten die Arbeitnehmer beispielsweise die Reallöhne durch eine Senkung der Nominallöhne senken, so wäre dies nicht möglich, da die Senkung der Nominallöhne zur Senkung des Preisniveaus führen würde. Keynes (1936) hat der Neoklassik dann auch korrekterweise vorgeworfen, sie würde unterstellen, dass auf dem Arbeitsmarkt Reallöhne ausgehandelt würden, was offensichtlich nicht der Fall ist. Auf Arbeitsmärkten werden keine Warenkörbe ausgehandelt. „Indem die klassische Schule (Keynes fasst die neoklassische Schule mit unter die klassische Schule, d.V.) voraussetze, dass das Lohneinkommen den Reallohn bestimmt, ist sie in eine unzulässige Voraussetzung gerutscht. Denn es ist möglich, dass es kein Mittel gibt, durch das die Arbeitsklasse ihren Reallohn auf einen gegebenen Betrag kürzen kann, indem sie die Geldabkommen mit den Unternehmen ändert“ (Keynes 1936, S. 11). q ⋅ PV ausgedrückt wird. Der Yr PV definiert, so dass für die Kapitalkoeffizient (das griechische Kappa ț) wird durch den Quotienten Yr zweiten Komponente der Kosteninflation auch q· ț geschrieben werden kann. Offensichtlich wird das Preisniveau durch die Profitrate und den Kapitalkoeffizienten bestimmt. Der Kapitalkoeffizient drückt eine spezifische Technik aus. Er hängt einerseits von den verfügbaren Technologien ab, andererseits von der Wahl der Unternehmen, die entsprechend ihrer Gewinnmaximierung eine der Technologien auswählen (bzw. permanent auf der Suche nach neuen Technologien sind, welche die Gewinne maximieren). Zwischen dem Kapitalkoeffizienten und der Profitrate gibt es keinen eindeutigen Zusammenhang (vgl. dazu die Debatte im Kapitel 3.3). Soweit die Unternehmen Zinsen zahlen müssen, können wir von faktischen Kosten sprechen, welche die Unternehmen zu tragen haben. Der Zinssatz kann somit als Mindestprofitrate interpretiert werden. Jedoch kann die Profitrate über der Zinsrate liegen. Dies erklärt sich daraus, dass die Profitrate im keynesianischen Paradigma durch den Vermögensmarkt für den Unternehmenssektor vorgegeben ist. Wir werden darauf im Kapitel 4.6 näher eingehen. Kommen wir zur zweiten Komponente der Kosteninflation, die durch
Wird die obige Diskussion zusammengefasst, dann wird die Gleichgewichtsbedingung der Gleichung (4.5.9) zu: (4.5.12)
P=
w + q⋅ κ π
Von diesen vier fundamentalen Faktoren, die das Preisniveau bestimmen, können sich drei nur relativ langsam ändern. Denn Änderungen des Kapitalkoeffizienten und der Arbeitsproduktivität brauchen Zeit. Die Profitrate kann sich zwar potentiell schnell ändern, jedoch ist eine Veränderung der Profitrate, die das Preisniveau laufend nach oben oder unten verschiebt, höchst unwahrscheinlich. Damit verbleibt als wesentlicher Bestimmungsfaktor für Preisniveauänderungen die Veränderung der Nominallöhne. Es sollte nochmals darauf hingewiesen werden, dass es sich bei einer Lohninflation bzw. –deflation um einen direkten Kosten-Preis-Effekt im Rahmen einer Aufschlagskalkulation handelt. Es wird auch nicht unterstellt, dass Lohnerhöhungen die Nachfrage erhöhen und dadurch die Preise erhöht werden
428
Keynesianische Makroökonomie
können. Würde einem solchen Argument gefolgt, dann kann man schnell auf den dubiosen Gedanken kommen, dass auch die höchsten Lohnerhöhungen bei unausgelasteten Kapazitäten die Nachfrage erhöhen und damit das Produktionsvolumen bis zur Kapazitätsauslastung erhöhen. Theoretische und empirische Argumente zeigen, dass sich auch bei hoher Arbeitslosigkeit inflationäre Lohn-PreisSpiralen drehen.161 Die Nominallöhne stellen den wichtigsten Bestimmungsfaktor für das Preisniveau dar. Ist dies der Fall, dann stellt sich unmittelbar die Frage, wie sich die Löhne verändern sollten, um zu einer stabilen Preisniveauentwicklung beizutragen und die Lohnentwicklung zu einem Anker des Preisniveaus zu machen. Dies führt uns zur Lohnnorm. Entsprechend dieser Norm sollten sich die Löhne nach folgender Formel verändern: (4.5.13)
w˙ norm = P˙ Ziel + π˙ Trend
Die gewünschte Veränderung des Nominallohnniveaus wird durch w˙ norm ausgedrückt. P˙ Ziel ist die Zielinflationsrate. Sie drückt aus, welche Inflationsrate ein Land anstrebt. In der Regel ist es die Zentralbank, die ein Inflationsziel vorgibt, jedoch kann dieses auch von der Regierung gesetzt werden. Im Rahmen der sogenannten Inflationssteuerung (Inflation-Targeting) sind immer mehr Zentralbanken dazu übergegangen, explizite mittelfristige Inflationsziele zu definieren, die um zwei bis drei Prozent jährlicher Inflationsrate liegen. Zentralbanken wollen keine vollständige Preisniveaustabilität, also keine Inflationsrate von Null, da eine solche Rate zu nahe an einer Deflation liegt. Und Deflationen werden als äußert gefährlich angesehen (vgl. dazu die Ausführungen unten im Kapitel 4.5). π˙ Trend drückt die trendmäßige bzw. mittelfristige Produktivitätsentwicklung aus. Kurzfristig kann die statistisch gemessene Produktivität stark schwanken. Denn bei einer schnellen Reduzierung des Produktionsvolumens werden Unternehmen Arbeitskräfte erst zeitverzögert entlassen, da vertragliche Bindungen oder Gesetze eine schnelle Entlassung abbremsen. Unternehmen haben auch einen Anreiz, qualifizierte und als gut erachtete Arbeitskräfte bei kurzfristigen Produktionseinbrüchen weiter zu beschäftigen, da eine spätere Einstellung mit Einarbeitungskosten etc. verbunden wäre. Die beschriebenen Faktoren führen zu einer Reduzierung der Produktivität, da der Output schneller sinkt als die Beschäftigung. Bei einem Anstieg des Produktionsvolumens können bei einem Unternehmen Arbeitskräftereserven existieren, die einen Anstieg der Produktion ohne einen Anstieg der Beschäftigung ermöglichen. In diesem Fall schnellt die Produktivität in die Höhe. Die trendmäßige Produktivitätsentwicklung eliminiert die genannten kurzfristigen Effekte, welche die Lohnentwicklung destabilisieren würden.162 Aus diesem Ergebnis folgt die Relevanz einer produktivitätsorientierten Lohnentwicklung, denn die Nominallöhne sollten entsprechend der trendmäßigen Produktivität und der Zielinflationsrate ansteigen. In einem solchen Fall wird die Lohnentwicklung zu einem Anker für das Preisniveau und einem Stabilitätsfaktor für die ökonomische Entwicklung. Nehmen wir eine trendmäßige Produktivitätsentwicklung von 1,5 Prozent und eine Zielinflationsrate von 2,5 Prozent an, dann sollte nach der Lohnnorm das nominelle Lohnniveau um 4 Prozent steigen. Denn entsprechend der Gleichung (4.5.11) würde sich dann eine Inflationsrate von 2,5 Prozent ergeben. Die Zentralbank mit dem Inflationsziel von 2,5 Prozent sähe keine Veranlassung, ihre Geldpolitik aufgrund der Preisniveauentwicklung zu verändern. Die obige Lohnnorm schlägt eine stabile Entwicklung der Nominallöhne vor, nicht der Reallöhne. Reallöhne können aufgrund der vorgeschlagenen Lohnnorm durchaus gewissen Schwankungen unterworfen werden. Nehmen wir als Beispiel den Anstieg der Rohstoff- oder Lebensmittelpreise aufgrund sich ändernder natürlicher Bedingungen. In diesem Fall führen höhere Preise dieser Güter zu höheren Einkommensströmen an die Rohstoff- und Lebensmittelproduzenten. Daraus resultiert ein geringes Real161
Vgl. dazu Dullien/Herr/Kellermann (2009) und (2011) zu empirischen Analysen, beispielsweise zur Lohninflation in den 1970er Jahren. Im Dienstleistungsbereich ist die Produktivität oft schwierig zu messen. Im Zweifel kann die Trendproduktivität in der Industrie genommen werden.
162
Keynesianische Makroökonomie
429
einkommen des Rests der Gesellschaft. Nun können die Arbeitnehmer zwar versuchen, den Reallohnverlust über stärkere Nominallohnerhöhungen den Profitempfängern aufzubürden. Allerdings wird dies nicht gelingen, denn die Unternehmen werden die Preise aufgrund des gestiegenen Nominallohnniveaus anheben. Steigen darauf die Rohstoff- und Lebensmittelpreise erneut, dann ergibt sich ein inflationärer Prozess. Die Entwicklung der Löhne entsprechend der Lohnnorm ist keineswegs garantiert und ergibt sich nicht durch Marktkräfte. Im Gegenteil, bei hoher Arbeitslosigkeit sind marktmäßig Lohnsenkungen aufgrund der Unterbietungskonkurrenz der Arbeitslosen zu erwarten, bei niedriger Arbeitslosigkeit steigende Löhne. Würden die Nominallöhne auf dem Arbeitsmarkt flexibel auf Marktkräfte reagieren, wäre das Ergebnis keine Stabilisierung der Beschäftigung, sondern eine Destabilisierung des Preisniveaus. Zur Erreichung der Lohnnorm und damit zur Unterstützung makroökonomischer Stabilität sind Institutionen auf dem Arbeitsmarkt notwendig, welche die Marktkräfte stabilisieren. Am günstigsten für diesen Zweck sind starke Gewerkschaften und starke Arbeitgeberverbände, die auf Grundlage eines makroökonomischen Verständnisses die Löhne entsprechend der Lohnnorm erhöhen. Günstig sind Flächentarifverträge in den einzelnen Industrien und eine Koordination der Lohnentwicklung zwischen den Industrien. Gewerkschaften haben die wichtige makroökonomische Funktion, Lohnsenkungen zu verhindern, da diese zu deflationären Entwicklungen führen. Auch gesetzliche Mindestlöhne, deren Entwicklung sich an der Lohnnorm orientiert, können einen Damm gegen Deflationsgefahren bilden.163 Es gibt keine Garantie, dass die Tarifparteien der oben vorgeschlagenen Lohnnorm folgen. Denn oftmals wenden Gewerkschaften eine andere Lohnformel an, nach der die Nominallöhne entsprechend der Trendproduktivität plus der aktuellen (oder erwarteten) Inflationsrate ansteigen sollten. Die Erhöhung der Löhne entsprechend der aktuellen oder erwarteten Inflationsrate soll der Reallohnsicherung dienen und die Produktivitätskomponente soll den Anteil der Beschäftigten an der Produktivitätsentwicklung gewährleisten. Bei Inflationsraten, die in etwa bei der Zielinflationsrate liegen, läuft die Lohnformel mit der aktuellen Inflationsrate statt der Zielinflationsrate auf das gleiche Ergebnis heraus. Bei höheren aktuellen Inflationsraten und/oder Preisniveauschocks, beispielsweise aufgrund schwankender Rohstoff- oder Lebensmittelpreise, führt die Lohnnorm mit der aktuellen Inflationsrate zu destabilisierenden Preisniveauentwicklungen (vgl. unten). 164 Jedoch besteht die Hoffnung oder zumindest die Möglichkeit, dass die Tarifparteien die makroökonomischen Zusammenhänge richtig erfassen und einer Lohnpolitik verfolgen, die der Lohnnorm entspricht. Die Lohnentwicklung entsprechend der Lohnnorm ist dann die gleichgewichtige Lohnentwicklung, die trotz Arbeitslosigkeit zustande kommen kann. Dass die Löhne auch bei einem Überangebot an Arbeit nicht sinken entspricht dann dem makroökonomischen Gleichgewicht, denn die makroökonomischen Entscheidungsträger wissen, dass eine Senkung der Löhne die Beschäftigung nicht erhöhen, sondern die Ökonomie destabilisieren würde. Man beachte hier den Unterschied zur neoklassischen Gleichgewichtsbedingung, die bei einem Arbeitskräfteüberschussangebot einen sinkenden Lohn unterstellt. Die Nachfrageinflation Offen ist noch die Analyse der letzten Komponente der Preisniveaubestimmungsgleichung (4.5.8), die eine Ungleichgewichtssituation ausdrückt und damit eine dynamische Betrachtung erforderlich macht. Bei I > SH übersteigt die unternehmerische Nettoinvestitionsnachfrage die Ersparnisse der Haushalte. Die Folge ist eine Überschussnachfrage auf dem Gütermarkt. Da Mengenreaktionen hier annahmegemäß ausgeschlossen sind, führt eine solche Situation zur Erhöhung des Preisniveaus, da Unternehmen die relative Knappheit des Angebots nach üblichen Annahmen über die Funktionsweise von Märkten 163
Zur Diskussion über Arbeitsmarktinstitutionen und Mindestlöhne vgl. Herr/Kazandziska/Mahnkopf-Praprotnik (2009) und Herr/Kazandziska (2011a). Diese Formel wurde beispielsweise vom Europäischen Metallgewerkschaftsbund im Jahre 1993 als Leitlinie empfohlen. Die deutschen Gewerkschaften folgen dieser Norm mit Ausnahmen seit den 1950er Jahren (Pusch 2011).
164
430
Keynesianische Makroökonomie
zu Preiserhöhungen nutzen. Im beschriebenen Fall steigen die Preise über die Kosten mit dem Resultat unverteilter Gewinne der Unternehmen (Qq = I - SH) . Sie erzielen in diesem Fall Extraprofite oder Quasi-Renten, da sie die temporäre Knappheit des Güterangebots ausnutzen.165 Je höher die Unternehmen unter diesen Bedingungen die Investitionsnachfrage schrauben (oder andere Nachfragekomponenten ansteigen), desto stärker steigt der unverteilte Gewinn. Da unverteilte Gewinne Ersparnisse der Unternehmen darstellen und sich die aggregierten Ersparnisse durch S = SH + SU ergeben, stellt sich bei der Abwesenheit von Mengeneffekten die Gleichheit von Ersparnissen und Investitionen durch einen Preisniveauschub her. Dies ist der Unterschied zur „Mengenlösung“ im vorangegangenen Kapitel, bei der die Ersparnisse der Haushalte durch eine Erhöhung des (realen) Einkommens angehoben wurden. Investoren sind bei ihrer Investitionstätigkeit nicht auf die laufenden Ersparnisse der Haushalte als Finanzierungsquelle angewiesen, sondern diese sind erst das Resultat der Investitionen. Unternehmen brauchen somit für ihre Investitionen keine laufenden Ersparnisse, sondern Geld bzw. Kredit. Genau diesen Gedanken betonte Keynes: “Der ex-ante Sparer hat kein Bargeld, aber es ist Bargeld, was der ex-ante Investor braucht” (Keynes 1937, S. 668). 166 Dies gilt sowohl im Rahmen der Mengen- als auch der Inflationstheorie. Bei der Mengentheorie erhöhen die Unternehmen ihre Kreditaufnahme und ihre Investitionsnachfrage, und der Anstieg der Haushaltsersparnisse ergibt sich dann als Reflex der Einkommensschöpfung. Aber selbst bei gegebenem Produktionsvolumen sind die Unternehmen nicht auf Haushaltsersparnisse angewiesen. Steigt die Investitionsnachfrage in einer Situation ausgelasteter Kapazitäten, kommt es zu einer Gewinninflation und Investoren verdrängen andere Nachfrager und eignen sich die Güter an, die sie zur Investitionstätigkeit benötigen. Joseph Schumpeter hat diesen Zusammenhang so gefasst: „Kredit ist wesentlich Kaufkraftschaffung zum Zweck ihrer Überlassung an den Unternehmer. (...) Durch Kredit wird den Unternehmen der Zutritt zum volkswirtschaftlichen Güterstrom eröffnet. (...) Die Kreditgewährung in diesem Sinn wirkt wie ein Befehl an die Volkswirtschaft, sich den Zwecken des Unternehmers zu fügen, wie eine Anweisung auf die Güter, die er braucht, wie ein Anvertrauen von Produktivkräften“ (Schumpeter 1926, S. 153). Da Haushalte bei einer Gewinninflation unfreiwillig ihren realen Konsum reduzieren, kann eine Situation unverteilter Gewinne und damit gleichzeitig hoher Ersparnisse der Unternehmen als Zwangssparen der Haushalte interpretiert werden, die aufgrund der Preisniveauerhöhung ihrer realen Konsummöglichkeiten beraubt werden und eine Umverteilung des Einkommens zu ihren Ungunsten hinnehmen müssen. Betreiben Unternehmen Selbstfinanzierung und investieren aus den unverteilten Gewinnen, dann steigen die Gewinne der Unternehmen aufgrund zusätzlicher Preisniveauerhöhungen weiter und werden so zu einer unerschöpflichen Quelle der Investitionsfinanzierung. Je höher die Investitionen ausfallen, desto höher werden die Gewinne. Das von den Unternehmen für Investitionen verausgabte Geld bleibt im Unternehmenssektor und wird gleichsam von einem Unternehmer zum anderen gereicht. Ein weiteres Phänomen ist erwähnenswert. Beginnen Unternehmer auf Basis unverteilter Gewinne einen luxuriöseren Lebenswandel zu pflegen, erhöhen sich ebenfalls Nachfrage und Unternehmensgewinne weiter. Gewinne als Quelle der Finanzierung des Konsums der Unternehmer sind somit ebenso unerschöpflich wie die Investitionsfinanzierung aus Unternehmensgewinnen. In beiden Fällen werden die Unternehmensgewinne, wie Keynes es ausdrückt, zum „Krug der Witwe“ (Keynes 1931, S. 113 f. )167, der sich niemals leert. 165
Als Renten werden Einkommensströme bezeichnet, die aufgrund der Knappheit eines Gutes erzielt werden können. Das Paradebeispiel einer Rente ist die Grundrente auf Land, das nicht vermehrt werden kann und damit knapp ist. Eine Quasi-Rente, ein Begriff der von dem Ökonom Alfred Marshall geprägt wurde, ist eine temporäre Rente aufgrund einer zeitlich befristeten Knappheit. 166 Eigene Übersetzung. Ärgerlich führt er weiter aus: „If there is no change in the liquidity position, the public can save ex-ante and ex-post and ex-any-thing-else until they are blue in the face, without alleviating the problem in the least” (Keynes 1937, S. 668). 167 Mit dem Krug der Witwe bezog sich Keynes auf das Alte Testament: „Während einer Hungersnot spricht der HERR: Das Mehl im Topf soll nicht verzehrt werden, und dem Ölkrug soll nichts mangeln bis auf den Tag, an dem der HERR regnen lassen wird auf Erden. Das Mehl im Topf wurde nicht verzehrt, und dem Ölkrug mangelte nichts nach dem Wort des HERRN, das er durch Elia geredet hatte.“
Keynesianische Makroökonomie
431
Unverteilte Gewinne ergeben sich bei unverändertem Produktionsvolumen auch aufgrund anderer Faktoren. Steigen z. B. ceteris paribus die autonomen Konsumausgaben oder steigt die marginale Konsumneigung, dann sammeln sich bei unverändertem Produktionsvolumen ebenfalls unverteilte Gewinne bei den Unternehmen an. Allerdings erhöhen sich in diesem Fall nicht die volkswirtschaftlichen Ersparnisse, sondern Haushaltsersparnisse werden in Unternehmensersparnisse umgewandelt. Im beschriebenen Fall wird bei unveränderter nomineller Investitionssumme real weniger investiert, da sich Unternehmen aufgrund gestiegener Preise weniger Güter für Investitionszwecke kaufen können. Es macht einen Unterschied, durch welche Nachfragequelle eine Gewinninflation angeregt wird. Entsteht die Gewinninflation durch hohe Investitionen, dann ist eine Abschwächung der Nachfrageinflation in der Zukunft schon heute angelegt, da die Investitionen heute die volkswirtschaftlichen Kapazitäten erhöhen und morgen eine Mengenkonjunktur ermöglichen. Entsteht die Nachfrageinflation durch erhöhte Konsumausgaben, dann werden die Kapazitäten durch den inflationär wirkenden Nachfrageschub nicht erhöht und bei gleichbleibenden Konsumausgaben ist kein Ende der Gewinninflation abzusehen. Bei I < SH übersteigt das aggregierte Angebot die aggregierte Nachfrage. In diesem Fall kommt es zu einer Gewinndeflation, die den Unternehmen Verluste beschert, da nun die Kosten die Preise übersteigen. Je stärker die Investitionsnachfrage sinkt und je sparsamer Unternehmer in ihrer Lebensführung werden und je härter die Haushalte sparen, desto größer sind die Verluste des Unternehmenssektors. Der immer gefüllte Krug der Witwe wandelt sich dann, um mit Keynes zu sprechen, in ein „unfüllbares Fass der Danaiden“ (Keynes 1930, S. 113 f.).168 Vor diesem Hintergrund zeigt sich die Schwäche einer Strategie, eine Krise durch verstärkte Spartätigkeit überwinden zu wollen. Lohn-Preis-Spiralen Verlassen wir kurz die Ebene einer komparativ-statischen Gleichgewichtsanalyse und betrachten die kurzfristigen Effekte von Lohnerhöhungen innerhalb eines dynamischen Kontextes, die bei inflationären oder deflationären Prozessen im Vordergrund stehen. Nicht jeder Preisniveauschub stellt gleich eine Inflation oder Deflation dar. Von einer Inflation (Deflation) kann nur gesprochen werden, wenn das Preisniveau über mehrere Perioden steigt (sinkt). In einem dynamischen Kontext können typische Szenarien entworfen werden, die durch die Verzahnung von Kosten- und Nachfrageänderungen charakterisiert sind. Wie konzentrieren uns folgend auf Inflationsprozesse, jedoch kann die Analyse leicht auf Deflationsprozesse übertragen werden. Lohnerhöhungen, die über der Lohnnorm liegen, führen von Inflationsprozessen und der Gefahr einer Lohn-Preis-Spirale, bei der sich Preise und Löhne gegenseitig hochschaukeln. Eine Lohn-Preis-Spirale kann aufgrund verschiedener Ursachen angestoßen werden. Arbeitnehmergruppen können – z. B. aufgrund eines hohen Beschäftigungsstandes – versuchen, durch entsprechende Lohnerhöhungen eine Umverteilung des Volkseinkommens zu ihren Gunsten durchzusetzen. Führt dies dazu, dass das Lohnniveau insgesamt ansteigt, dann kommt es zu einem Preisniveauschub, allerdings ohne das Ziel der Umverteilung zu erreichen. Denn die Erhöhung des Lohnniveaus erhöht das Preisniveau mit der gleichen Rate. Setzen die Arbeitnehmer in der zweiten Runde einen Inflationsausgleich durch oder erhöhen die Löhne noch stärker, um eine Umverteilung zu erzielen, dann ist eine Lohn-Preis-Spirale entstanden, da Lohnerhöhungen von den Unternehmen erneut auf die Preise abgewälzt werden, dadurch neue Geldlohnforderungen entstehen etc. Ein solcher Inflationsprozess wird manchmal auch als Konfliktinflation bezeichnet, da er auf einem Verteilungskonflikt zwischen Löhnen und Profiten beruht, wobei die Löhne allerdings letztlich nichts von den Profiten wegnehmen können. Der Anstoß zu einer Lohn-Preis-Spirale braucht keineswegs von Lohnerhöhungen auszugehen, sondern er kann das Resultat eines nachfragegetriebenen Inflationsprozesses sein. Gibt es eine anhaltende 168
Nach einer griechischen Sage mussten die Töchter des Danaus als Strafe in der Unterwelt ein bodenloses Fass mit Wasser füllen.
432
Keynesianische Makroökonomie
Nachfragequelle, die bei ausgelasteten Kapazitäten zu Preisniveauschüben und damit zu unverteilten Gewinnen der Unternehmen führt, ist die Wahrscheinlichkeit sehr hoch, dass die Gewinninflation eine Lohn-Preis-Spirale anstößt. Denn die Arbeitnehmer dürften aus naheliegenden Gründen in der Regel kaum Neigung verspüren, Reallohneinbußen zu akzeptieren, wenn es zur Gewinninflation kommt. Zu Reallohneinbußen kommt es, da der Reallohnsatz sinkt, wenn bei unverändertem Lohnsatz das Preisniveau steigt. Im Gegenteil dürfte es als ungerecht angesehen werden, wenn bei steigenden Gewinnen die Reallöhne sinken. Verbindet sich eine Gewinninflation mit einer Lohn-Preis-Spirale, dann erhält der Inflationsprozess ein dynamisches Element, da sich die Inflationsrate nun permanent erhöht. Verdeutlichen wir uns diesen Sachverhalt mit Hilfe eines Beispiels. Es sei unterstellt, dass, ausgehend von einem inflationsfreien Zustand in der ersten Periode, ein Nachfrageüberschuss auf dem Gütermarkt bei ausgelasteten Kapazitäten in jeder der folgenden Perioden eine Gewinninflation von 5% erzeugt. Gleichzeitig sei als Verhaltenshypothese angenommen, dass es den Einkommensempfängern gelingt, einen vollständigen Inflationsausgleich in der folgenden Periode durchzusetzen. Der Inflationsprozess erhält dann in jeder Periode einen weiteren Anstoß. Beträgt in der Periode zwei die Inflationsrate aufgrund der Gewinninflation 5%, so addiert sich die Gewinn- und die Einkommensinflation in der dritten Periode schon auf 10% (vgl. Tabelle 4.5.1). Selbst wenn es keine Gewinninflation mehr gäbe, würde die Inflationsrate bei den gemachten Annahmen permanent auf einem Niveau von 10% verharren. Denn die Einkommensempfänger würden eine beständige Inflation von 10% erfahren und folglich die nominellen Einkommen um 10% erhöhen wollen. Kommt es in der vierten Periode zu einer weiteren Gewinninflation, dann erhöht sich die Inflationsrate auf 15% usw. Damit perpetuiert die Einkommensinflation den Inflationsprozess auch ohne eine weitere Gewinninflation auf einem gegebenen Niveau. Kommt eine Gewinninflation hinzu, dann hebt sie die Inflation auf ein stets höheres Niveau.
Tabelle 4.5.1:
Die Interaktion zwischen Gewinn- und Einkommensinflation
Periode Gewinninflation Einkommensinflation Inflationsrate 1
0
0
0
2
5%
0
5%
3
5%
5%
10%
4
5%
10%
15%
5
5%
15%
20%
Kompliziertere dynamische Prozesse sind denkbar. Beispielsweise ist anzunehmen, dass bei Tarifverhandlungen ein Ansteigen der Inflationsrate antizipiert wird und sich dies in der aktuellen Lohnentwicklung niederschlägt. In diesem Fall wird die Inflationsrate schneller höhere Werte als im oben angegebenen Beispiel annehmen. Die Interaktion zwischen Gewinn- und Einkommensinflation legt offen, dass Inflationsprozesse ein kumulatives Element beherbergen, das den Inflationsprozess zu beschleunigen droht. Ein beliebiger Preisniveauschub, der nicht auf Löhnen oder einer Nachfrageinflation beruht, kann eine Lohn-Preis-Spirale auslösen. Beispiele sind die Erhöhung exogener Kostenfaktoren wie z.B. die Erhöhung der Preise von Lebensmitteln, Erdöl, oder anderen Rohstoffen. Diese kostengetriebenen Preisniveauschübe senken die Realeinkommen und führen sehr leicht zu nominellen Lohnerhöhungen mit
Keynesianische Makroökonomie
433
dem Ziel eine Reallohsenkung zu kompensieren. Das Resultat wird jedoch ein Anstieg der Inflationsrate sein. Erhöhen sich daraufhin z.B. die Erdölpreise weiter, weil die Erdölproduzenten einen bestimmten realen Erdölpreis zu erlangen versuchen, kommt es zu einem inflationären Prozess. Endogenität der Geldmenge Bei den beschriebenen inflationären und deflationären Prozessen ist bisher die Geldmenge nicht erwähnt worden. Offensichtlich spielt sie keine Rolle. Es wurde implizit unterstellt, dass die Zentralbank sich passiv verhält, also ihren Refinanzierungszinssatz auf dem Geldmarkt unverändert lässt. Die Geldmenge erhöht sich dann bei einem Preisniveauschub entsprechend der Kalküle der privaten Wirtschaftssubjekte endogen. Dieser Zusammenhang kann im Rahmen einer komparativ-statischen Analyse an der Verkehrsgleichung (vgl. Kapitel 3.4.2, Gleichung 3.4.5) M ⋅ v = P ⋅ NIPr
verdeutlicht werden Die Verkehrsgleichung ist eine Identität und damit immer erfüllt, da die Geldmenge (M) multipliziert mit der Einkommensumlaufgeschwindigkeit des Geldes (v) immer dem nominellen Nettoinlandsprodukt (NIPr ⋅ P ) entspricht. In der neoklassischen Quantitätstheorie des Geldes wird die Verkehrsgleichung so interpretiert, dass das reale Nettoinlandsprodukt zumindest langfristig durch die Realsphäre bestimmt wird. Bei gleichzeitig unterstellter Stabilität der Umlaufgeschwindigkeit des Geldes ergibt sich eine proportionale Beziehung zwischen der von der Zentralbank exogen gesetzten Geldmenge und dem Preisniveau. Die Verkehrsgleichung als Identität kann auch keynesianisch interpretiert werden. In diesem Fall wird der Umfang der Geldmenge endogen erklärt. Wird die Verkehrsgleichung nach der Geldmenge umgestellt, ergibt sich: M=
NIPr ⋅ P v
w Wird Gleichung (4.5.12) in die obige Gleichung eingesetzt und werden die Lohnstückkosten mit π LSK symbolisiert, ergeben sich als Bestimmungsfaktoren der Geldmenge: (4.5.14)
M=
NIPr (LSK + q ⋅ κ) v
Verändert sich einer der Faktoren auf der rechten Seite der Gleichung, indem sich beispielsweise das reale Nettoinlandsprodukt, die Lohnstückkosten oder auch der Kapitalkoeffizient verändern, dann verändert sich bei konstanter Umlaufgeschwindigkeit des Geldes die Geldmenge entsprechend. Die Umlaufsgeschwindigkeit muss natürlich nicht als konstant angesehen werden. Im Gegenteil, alles spricht dafür, dass sie instabil ist (vgl. Kapitel 4.2.3). Veränderungen der Geldmenge resultieren somit aus Veränderungen dieser Variablen. Damit wird der neoklassischen Quantitätstheorie des Geldes ein kompletter Gegenentwurf gegenübergestellt, der die Geldmenge nicht exogenisiert, sondern als Teil eines ökonomischen Prozesses betrachtet. Selbstverständlich können und werden Zentralbanken auf Preisniveauänderungen geldpolitisch reagieren. Allerdings müssen sie zur Beeinflussung der Geldmenge die Faktoren auf der rechten Seite der Gleichung (4.5.14) verändern, was nur indirekt möglich ist. Bei einer Inflationsbekämpfung mit hohen Refinanzierungszinssätzen werden dann typischerweise das Wachstum des realen Nettoinlandsproduktes schrumpfen und die Lohnstückkosten werden aufgrund steigender Arbeitslosigkeit zu sinken beginnen. Dadurch sinkt die Geldmenge, aber beim Ansatz der Endogenisierung der Geldmenge ist dies an sich unwichtig.
434
Keynesianische Makroökonomie
Kernpunkte Das keynesianische Paradigma unterscheidet zwischen einer Kosten- und Nachfrageinflation bzw. einer Kosten- und Nachfragedeflation. Bei der Kosteninflation bzw. -deflation werden Preisniveauänderungen durch Veränderungen des volkswirtschaftlichen Kostenniveaus hervorgerufen, wobei bei den Unternehmen eine Aufschlagskalkulation unterstellt wird. Es handelt sich dabei um einen Kosten-Preis-Effekt, da die Unternehmen z.B. zur Erhöhung der Preise keine Überschussnachfrage auf dem Gütermarkt benötigen. Als Kosten sind Lohnkosten, die Kosten für das eingesetzte Kapital, der gleichgewichtige Profitaufschlag und exogene Kosten wie Rohstoff- und Lebensmittelpreise relevant. In einer geschlossenen Ökonomie und ohne exogene Kosten entsprechen die Veränderungen der Lohnstückkosten genau den Veränderungen der Stückkosten und damit den Veränderungen des Preisniveaus. Dies liegt daran, dass der Output einer Industrie der Input einer anderen Industrie ist und sich so eine Lohnkostenerhöhung auf die gesamte Ökonomie überträgt. Lohnstückkosten sind somit die wichtigste Kostenkomponente und der wichtigste Faktor zur Bestimmung des Preisniveaus. Erhöhungen der Lohnstückkosten ergeben sich durch die Erhöhung der Nominallöhne minus der Erhöhung der Produktivität. Wenn die Nominallöhne langsamer steigen als die Produktivität oder gar sinken, dann entstehen deflationäre Tendenzen. Eine volkswirtschaftlich funktionale bzw. empfehlenswerte Entwicklung der Nominallöhne wird durch die Lohnnorm gegeben. Die Nominallöhne sollten sich nach der Lohnnorm entsprechend der trendmäßigen Produktivitätsentwicklung plus der Zielinflationsrate des Landes erhöhen. Dann werden die Löhne zum Anker der Preisniveauentwicklung. Zur Realisierung der Lohnnorm sind Arbeitsmarktinstitutionen wie koordinierte Lohnverhandlungen und Mindestlöhne notwendig. Deregulierte oder wenig regulierte Arbeitsmärkte mit flexiblen Nominallöhnen sind Instabilitätsfaktoren einer Ökonomie. 4.5.2 Der Konjunkturzyklus Fragestellung Was ist ein Konjunkturzyklus und wie hängen langfristige Entwicklung und Zyklus zusammen? Welche Phasen hat ein Konjunkturzyklus? Wie werden Aufschwünge, Abschwünge und Wendepunkte bei der zyklischen Entwicklung erklärt? Die ökonomische Entwicklung in kapitalistischen Ökonomien ist seit ihrem Bestehen durch ein Auf und Ab des Wachstums des realen Produktionsvolumens gekennzeichnet. Solche Schwankungen können sich als Zu- und Abnahme von positiven Wachstumsraten darstellen. Es ist auch möglich, dass in Abschwungsphasen die Ökonomie schrumpft. Ein Konjunkturzyklus beschreibt die Zeitperiode von einem Aufschwung zum nächsten. Konjunkturzyklen haben keine konstante Dauer, die mit einer gleichförmigen Sinuskurve vergleichbar wäre. Ein Zyklus dauert in der Regel zwischen vier und neun Jahren, ist also ein mittelfristiges Phänomen. Da zyklische Schwankungen offensichtlich zum kapitalistischen System gehören, muss jedes ökonomische Paradigma in der Lage sein, dieses Phänomen zu erklären.169 Das neoklassische Paradigma erklärt den Konjunkturzyklus als Schwankungen um den durch Funda169
Es haben sich in der Ökonomie auch Vorstellungen entwickelt, die von langfristigen Zyklen von mehr als einem halben Jahrhundert ausgehen und die mehrere kurz- bis mittelfristige Zyklen umfassen. Argumentiert wurde, dass beispielsweise Basisinnovationen sehr langfristige Aufschwünge auslösen können, die dann später zu langfristigen Phasen relativ schlechter Entwicklung führen. Die Existenz solcher langfristigen Zyklen ist jedoch umstritten. Vertreter dieser Vorstellung langer Wellen waren insbesondere Kondratjew (1926) und Schumpeter (1961). Wir gehen auf diesen Typus von Zyklen nicht ein.
Keynesianische Makroökonomie
435
mentalfaktoren gegebenen langfristigen Trend, der alleine von so genannten Angebotsfaktoren wie der Produktivitätsentwicklung abhängt (vgl. die Ausführungen zur neoklassischen Wachstumstheorie in Kapitel 3.2.2). Auch Keynesinterpretationen auf neoklassischer Basis wie die Neoklassische Synthese oder der Neu-Keynesianismus sehen die langfristige Entwicklung durch Angebotsfaktoren in der neoklassischen Tradition bestimmt und den Konjunkturzyklus als kurzfristige Störungen. In der reinen neoklassischen Tradition sind konjunkturelle Schwankungen das Ergebnis von exogenen Schocks, wobei insbesondere Produktivitätsschocks eine Rolle spielen. Aber auch Präferenzschocks der Haushalte können Schwankungen in der ökonomischen Aktivität bewirken. Sehr klar hat die neoklassische Sicht Robert Lucas (1975 und 1981) zum Ausdruck gebracht, der eine realökonomische Zyklustheorie auf der Grundlage realökonomischer Schocks entwickelte, wobei die Ökonomie sich zu jedem Zeitpunkt im Gleichgewicht im Sinne einer optimalen Situation befindet. Bei der Neoklassischen Synthese oder dem Neu-Keynesianismus können auch Nachfragestörungen, also „keynesianische“ Faktoren, zu konjunkturellen Schwankungen führen, die mit unfreiwilliger Arbeitslosigkeit verbunden sind. Auch bei diesem Ansatz findet die Ökonomie langfristig wieder zu ihrem langfristigen Wachstumstrend zurück. Jedoch kann dies unakzeptabel lange dauern, so dass wirtschaftspolitische Eingriffe etwa zur Bekämpfung einer Nachfrageschwäche gerechtfertig sind.170 In unserer Keynes-Interpretation gibt es keinen langfristigen Trend, der von kurzfristigen Entwicklungen unabhängig ist. Der langfristige Trend ergibt sich vielmehr statistisch aus einer Sequenz kurz- bis mittelfristiger Entwicklungen.171 Die Entwicklung einer solchen Sequenz hängt von vielfältigen Faktoren ab, die Produktivitätsentwicklung ebenso einschließt wie beispielsweise Institutionen auf dem Arbeitsmarkt oder die verfolgte Wirtschaftspolitik und politische und soziale Einflüsse. Aber auch die Produktivitätsentwicklung ist zu einem beachtlichen Maße abhängig von Institutionen und staatlicher Forschungspolitik. Konjunkturzyklen, deren Entstehung und deren wirtschaftspolitisches „Management“ spielen somit in dem von uns gewählten Ansatz eine wichtigere Rolle als in anderen Paradigmen, da die langfristige Entwicklung von der Entwicklung der einzelnen Sequenzen im historischen Prozess abhängt. Folgend werden wir den Konjunkturzyklus in der Tradition von Keynes darstellen.172 Preis-Mengen-Effekte bei Nachfrageränderungen Während des Konjunkturzyklus kommt es zu simultanen Preis-Mengen-Bewegungen. Im Kapitel 4.5.1 wurden reine Preisniveaueffekte unterstellt, bei der Analyse reiner Mengeneffekte im Kapitel 4.4 wurde Preisniveaustabilität angenommen. Bevor wir den Konjunkturzyklus näher untersuchen, sollen Preis-Mengen-Effekte betrachtet werden. Wir unterstellen folgend eine Zeitperiode mit einem gegebenen Bestand an Produktivkapital und sich erhöhender aggregierter Nachfrage. Die Entwicklung der Stückkosten wird als konstant unterstellt, es wird also insbesondere eine Entwicklung der Lohnstückkosten unterstellt, die das Preisniveau stabil hält. In Abbildung 4.5.1 wird unter diesen Annahmen der Sachverhalt von Preis-Mengen-Effekten verdeutlicht, wobei aus Vereinfachungsgründen in der Abbildung nur eine Nachfrageerhöhung betrachtet wird. Aus der keynesianischen Mengentheorie ist die Gütermarktgleichgewichtskurve schon bekannt (vgl. Kapitel 4.4.1). Diese Kurve gibt an, bei welchem Produktionsvolumen der Gütermarkt im Gleichgewicht ist. Die Kurve bei der reinen Mengentheorie ist eine Gerade mit der Steigung von 45°. Eine solche Kurve ist in der Abbildung eingezeichnet, zuerst als durchgezogene und dann als gepunktete Linie. Die ursprüngliche Gütermarktgleichgewichtskurve wird nun in drei Bereiche unterteilt. Im ers170
Vgl. zum Neu-Keynesianismus dazu Mankiw (1990) oder Snowdon/Vane/Wynarczyk (1994). Berühmt ist die Aussage von Keynes (1923, S. 80): „In the long-run we are all dead. Economists set themselves too easy, to useless a task if in tempestuous seasons they can only tell us that when the storm is long past the ocean is flat again.“ Damit betonte er, dass die kurz- und mittelfristigen Sequenz für Entwicklung von zentraler Bedeutung ist. 172 Keynes (1936) hat in seiner „Allgemeinen Theorie“ dem Konjunkturzyklus ein eigenes Kapitel gewidmet, das bis heute lesenswert ist. 171
436
Keynesianische Makroökonomie
ten Bereich – vom Produktionsvolumen Null bis A – wird eine Steigung der Gütermarktgleichgewichtskurve von 45° angenommen. Der Preisindex P nimmt hier den Wert von Eins an. Damit führen Nachfrageerhöhungen zu reinen Mengenreaktionen. Im zweiten Bereich – vom Produktionsvolumen von A bis Yr1 – wird eine Steigung zwischen 45° und 90° angenommen, so dass es bei Nachfrageerhöhungen zu Preis- und Mengenreaktionen kommt. In einem dritten Bereich – beim realen Produktionsvolumen Yr1 – hat die Gütermarktgleichgewichtskurve eine Steigung von 90°. Hier reagiert bei Nachfrageerhöhungen nur der Preisindex. Diese drei Bereiche sollen nun diskutiert werden.
Abbildung 4.5.1: Preis-Mengen-Effekte bei Nachfrageerhöhungen X N = Yr ⋅ P XN
X 6N 5
XN N aut 6 N aut 5
X 4N X 3N
N aut 4
X 2N X1N
N aut 3 N aut 2 N aut1
45° A
B
C Yr1
Yr
Die Konstellation bei reinen Mengeneffekten (Gütermarktgleichgewichtskurve mit 45°) wurde bereits im Kapitel 4.4.1 analysiert. Die Erörterung kann deshalb hier kurz ausfallen. Nachfrageerhöhungen führen in diesem Bereich zu reinen Mengeneffekten. Dies unterstellt unausgelastete Kapazitäten und die Verfügbarkeit von Arbeitskräften, so dass weder von der Nachfrage- noch von der Kostenseite her ein inflationärer Druck existiert. Erhöht sich die autonome Nachfrage von Naut1 auf Naut2 , ergibt sich das neue Gütermarktgleichgewicht durch den Schnittpunkt der aggregierten Nachfragefunktion, die bei Naut2 beginnt, mit der 45°-Linie. Bei simultanen Preis-Mengen-Effekten (Gütermarktgleichgewichtskurve zwischen 45° und 90°) wird von Kapazitätsengpässen in einigen Branchen – so genannte „Flaschenhälse“ – und unausgelasteten Kapazitäten in anderen Branchen ausgegangen. In diesem Fall werden bei einer generellen Nachfrageerhöhung einige Branchen mengenmäßig reagieren, andere, die an ihre Kapazitätsgrenze gekommen sind, werden die Preise erhöhen. Es ist zu beachten, dass eine eindeutige Kapazitätsgrenze in einer Branche nur in seltenen Fällen existiert. Durch Überstunden, Sonderschichten etc. wird vielmehr selbst bei einem gegebenen Bestand an Produktivkapital die Kapazitätsgrenze zu einer Grauzone. Die in diesem Bereich auftretenden simultanen Preis-Mengen-Effekte drücken sich in der Abbildung so aus, dass die Gütermarktgleichgewichtskurve des realen Produktionsvolumens steiler als 45°, jedoch flacher als 90° verläuft. Erhöht sich Naut3 auf Naut4 , dann treten zwar positive Mengeneffekte auf, die jedoch geringer sind als bei einer gleich großen Erhöhung der autonomen Nachfrage im ersten Bereich. Gäbe es reine Mengeneffekte, würde diese Erhöhung der Nachfrage einer realen Produktionserhöhung entspre-
Keynesianische Makroökonomie
437
chend der Strecke AC bewirken, aufgrund von Kapazitätsgrenzen steigt die reale Produktion jedoch nur um AB und das Preisniveau erhöht sich aufgrund einer Nachfrageinflation. Bei reinen Preisniveaueffekten (Gütermarktgleichgewichtskurve mit 90°) ist eine Ausdehnung der Produktion aus physischen Gründen nicht möglich. In dieser Extremphase führen Nachfrageerhöhungen zu reinen Preisniveaueffekten. Dieser Fall tritt ein, wenn die Kapazitätsgrenzen in allen Branchen erreicht sind und/oder keine zusätzlichen Arbeitsstunden in der Ökonomie geleistet werden können. In aller Regel ist die erste Grenze früher erreicht als die zweite. Dieser Sachverhalt wird dadurch ausgedrückt, dass die Gütermarktgleichgewichtskurve des realen Nationalproduktes vertikal verläuft. Bei einer Erhöhung der autonomen Nachfrage von Naut5 auf Naut6 bleibt somit das reale Nationalprodukt unverändert bei Yr1 und es tritt ausschließlich eine Nachfrageinflation auf. Bei einer Reduzierung der aggregierten Nachfrage kommt es – wenn wir von Bewegungen auf dem vertikalen Ast der Gütermarktgleichgewichtskurve in der Abbildung 4.5.1 absehen – in der Regel ebenfalls zu Preis-Mengen-Effekten. Denn Unternehmen werden bei einer Reduzierung der Nachfrage versuchen, einen Teil des Nachfragerückgangs durch eine Absenkung des Preises zu kompensieren. Es lässt sich nicht allgemein feststellen, wie stark eine Nachfragereduzierung zu einer Nachfragedeflation oder einer Reduzierung der Menge führt. Jedoch ist anzunehmen, dass die Mengeneffekte stärker ausfallen als die Preiseffekte, denn bei einer stabilen Kostenstruktur, die wir hier aufgrund der Annahme der Starrheit der Löhne unterstellen, werden Preiseffekte bei Nachfragerückgängen begrenzt bleiben. Die Ausführungen zeigen, dass weder bei Nachfrageerhöhungen noch bei Nachfragesenkungen ohne nähere Kenntnisse eindeutige Aussagen gemacht werden können. Die Preis-Mengen-Reaktionen hängen von der jeweiligen spezifischen Situation ab. Diese „Offenheit“ der Makroökonomie hat erhebliche Konsequenzen für die Wirtschafts- und Geldpolitik. Beispielsweise kann eine Zentralbank nicht davon ausgehen, dass sie in einer inflationären Situation bei Zinssatzerhöhungen nur gewünschte Preiseffekte auslöst. Sie kann und wird voraussichtlich auch die konjunkturelle Entwicklung abwürgen. Des Weiteren kann z. B. bei einer Erhöhung staatlicher Nachfrage nicht automatisch unterstellt werden, dass ausschließlich gewünschte Mengeneffekte auftreten und inflationäre Impulse unterbleiben. Die konjunkturellen Phasen Kein Konjunkturzyklus ist wie der andere, da bei der ökonomischen Entwicklung immer spezifische historische Faktoren eine Rolle spielen. Wenn im Folgenden ein konjunktureller Verlauf nachgezeichnet wird, dann sollte bedacht werden, dass historische Entwicklungen anders verlaufen können und werden. Die Darstellung hat ausschließlich den Zweck, bestimmte häufig zu beobachtende Abläufe idealtypisch zu verdeutlichen. Es handelt sich somit um eine „modellhafte Dynamik“, die typische Prozesse abzubilden sucht. Eine Weiterentwicklung dieser Analyseebene würde darin bestehen, den institutionellen Rahmen einer Ökonomie weiter auszuformulieren, denn die Art und Weise der zyklischen Entwicklung wie auch die Stärke der Aufschwünge und die Tiefe der Abschwünge hängen von diesem Rahmen ab.173 Eine noch konkretere Analyseebene würde die historisch spezifischen Bedingungen aufnehmen und zu einer theoretisch fundierten Analyse historischer Prozesse führen.174 Zentral für die Erklärung konjunktureller Entwicklungen ist der diskontinuierliche Verlauf der Investitionstätigkeit. Er spiegelt eine spezifische Interaktion zwischen der erwarteten Verzinsungsrate von Produktivvermögen und dem Zinssatz wider. In Aufschwungsphasen liegt die erwartete Verzinsungsrate von Produktivvermögen über der Zinsrate, in Abschwungsphasen ist es umgekehrt. Zyklische Schwankungen erhalten vor allem dadurch ihre Kraft, dass in einzelnen Phasen die Differenz zwischen diesen beiden Raten größer ist und somit eine starke Wirkung auf die Investitionstätigkeit ausgeübt wird. Die Erklärung von zyklischen Schwankungen über die Interaktion zweier Verwertungsraten hat 173
Im deutschsprachigen Raum hat Riese (2001) in verschiedenen Beiträgen mit dem Konzept der „Marktkonstellation“ versucht, eine solche mittlere Analyseebene zu erfassen. Eine Analyse entsprechend dieser Logik für die USA, Japan, Großbritannien und Deutschland findet sich in Herr/Kazandziska (2011).
174
438
Keynesianische Makroökonomie
eine lange Tradition. Eine klare Formulierung dieser Mechanik zwischen der Verwertungsrate von Produktivvermögen und dem Zinssatz zur Erklärung zyklischer Schwankungen wurde schon von dem schwedischen Ökonomen Knut Wicksell (1898) geliefert. Keynes griff, wie verschiedene andere Theoretiker seiner Zeit, auf den Ansatz von Wicksell zurück (Keynes 1930 und 1936). In dem beschriebenen Konjunkturzyklus wird eine Entwicklung unterstellt, die im Aufschwung positive und im Abschwung negative Wachstumsraten hat. Die Analyse lässt sich dann leicht auf andere Konstellationen übertragen. Außerdem werden Deflationsprozesse nur am Rande angesprochen, da diese im nächsten Kapitel ausführlich analysiert werden. Beginnen wir mit der Stagnation. In der Stagnationsphase ist das Wachstum des realen Bruttoinlandsproduktes (BIPr), das in aller Regel bei Konjunkturanalysen als Indikator für die Entwicklung des realen Aktivitätsniveaus einer Ökonomie genommen wird, in unserem Idealmodell Null. Die Beschäftigung (H) sinkt, da wir eine positive Produktivitätsentwicklung unterstellen und die Wachstumsrate Null ist. Die Nettoinvestitionen (I) und damit auch die Ersparnisse der Haushalte (SH) wie auch die gesamtwirtschaftlichen Ersparnisse (S) sind Null. Die Kapazitäten sind allgemein unausgelastet, und die Arbeitslosigkeit ist relativ hoch und steigt. Die Geldlöhne (w) erhöhen sich entsprechend der Lohnnorm, also entsprechend der Produktivitätserhöhung plus der Zielinflationsraste der Zentralbank. Die Veränderung des Preisniveaus (P) entspricht der Zielinflationsrate. Der Zinssatz (i) ist relativ niedrig und ändert sich nicht. Er entspricht der Verzinsungsrate von Produktivvermögen (r). In der Stagnationsphase sind die Kreditexpansion (K) und die Geldmengenerhöhung (M) Null, da auch die Nettoinvestitionen Null sind. In der Tabelle 4.5.2 ist die Konstellation der Stagnation zusammengefasst. Wir unterstellen nun eine Verbesserung des Zustandes des Vertrauens. Dies bewirkt ein Anstieg der Verzinsungsrate von Produktivvermögen und damit ein Auseinanderlaufen von Zinssatz und erwarteter Verzinsungsrate von Produktivvermögen mit dem Resultat einer sich belebenden Investitionstätigkeit. Gleichzeitig ist zu erwarten, dass die Unsicherheitsprämie der Banken sinkt, deren Kreditrationierung gelockert wird und die Bereitschaft des Publikums zu Direktkrediten an Unternehmen (oder zum Kauf neuer Aktien) zunimmt. Es ergibt sich somit eine Ausweitung der Investitionstätigkeit und eine Kreditexpansion bei unverändertem (oder gar sinkendem) Zinssatz. Die Zentralbank verhält sich dabei passiv und refinanziert die Banken bei unverändertem Refinanzierungszinssatz, während die Geldmenge endogen ansteigt. Angesichts hoher unausgelasteter Kapazitäten und hoher Arbeitslosigkeit führt der Anstieg der Investitionen zu einer Mengenkonjunktur. Da keine inflationären Tendenzen bestehen, gibt es auch keine Veranlassung für die Zentralbank, den Refinanzierungszinssatz zu verändern. Die von den Investitionen ausgehende Einkommensschöpfung stimuliert die Konsumnachfrage, und es ergibt sich ein Multiplikatorprozess, der das Wachstum weiter stimuliert. Die Gleichheit von Investitionen und Ersparnissen wird durch den Anstieg der Haushaltsersparnisse hergestellt, wobei die Ersparnisse aus zusätzlichem Einkommen der Haushalte stammen. Das reale BIP-Wachstum übersteigt den Anstieg der Produktivität, die Beschäftigung steigt und die Arbeitslosigkeit sinkt. Steigende Umsatzerlöse und eine Zunahme der Kapazitätsauslastung lassen in dieser Phase die Erwartungen aller Wirtschaftssubjekte typischerweise positiver werden. Insbesondere die Verzinsungsrate von Produktivvermögen steigt weiter an und regt die Investitionstätigkeit verstärkt an. Aber auch die Konsumnachfrage erhöht sich kräftig. Die Kredit- und Geldmengenexpansion hält an. Aktienkurse steigen, oftmals auch der Preis von Immobilien, da die Nachfrage nach Gewerbeimmobilien steigt, aber auch die Haushalte angesichts der positiven Entwicklung verstärkt Immobilien erwerben. Der Zyklus befindet sich aufgrund der reinen Mengenkonjunktur in seiner schönsten Phase: Es steigen Produktion und Beschäftigung (bzw. die Arbeitslosigkeit sinkt), die Löhne erhöhen sich entsprechend der Lohnnorm, die Reallöhne steigen entsprechend des Produktivitätsfortschritts und die Zentralbank realisiert ihre Zielinflationsrate.
Keynesianische Makroökonomie
439
Tabelle 4.5.2: Die konjunkturellen Phasen (Veränderungen werden mit Δ ausgedrückt) Phase Stagnation
r = i SH = 0 I=0 S=0
¨BIPr = 0
¨H < 0 ¨w = ¨wnorm
¨P = ¨PZiel
¨i = 0
¨K = 0 ¨M = 0
Mengenkonjunktur (Wachstum ohne Inflation) Inflationskonjunktur (Wachstum und Nachfrage- und Kosteninflation)
r > i I Æ SH I > 0 I = SH SH = S
¨BIPr > 0
¨H > 0 ¨w = ¨wnorm
¨P = ¨PZiel
¨i = 0
¨K > 0 ¨M > 0
r > i I Æ SH I > 0 SH > 0 I > SH Æ Qq > 0 Nachfrageinflation SH + Qq = S
¨BIPr > 0
¨H > 0 ¨w > ¨wnorm Kosteninflation steigt zunehmend an
¨P > ¨PZiel
¨i > 0 moderat
¨K > 0 ¨M > 0
Krise (Stagflation)
r < i I < SH I < 0 Æ Qq < 0 Nachfragedeflation
¨BIPr < 0
¨H < 0 ¨w > ¨wnorm Kosteninflation abnehmend
¨P > ¨PZiel
¨i > 0 stark
¨K < 0 ¨M < 0
r < i I < SH Abschwung (Stagflation läuft I < 0 Æ Qq < 0 Nachfragelangsam aus)
¨BIPr < 0
¨H < 0 ¨w > ¨wnorm Kosteninflation steigt nicht weiter an
¨P > ¨PZiel ¨i < 0 abnehmend, Preisniveauerhöhungen sinkenl
¨K < 0 ¨M < 0
deflation läuft langsam aus
Je länger die Phase der reinen Mengenkonjunktur dauert, desto besser ist dies für die ökonomische Entwicklung. Jedoch nicht jede Verliebtheit währt ewig. Anhaltend hohes reales Wachstum führt typischerweise in die Phase einer Inflationskonjunktur. Die Nachfrageexpansion trifft langsam auf einen zumindest partiell enger werdenden Arbeitsmarkt und auf ausgelastete Kapazitäten in einzelnen Branchen, deren Kapazitäten sich langsamer als die Nachfrage erhöht haben. Damit ergibt sich auf dem Gütermarkt eine Überschussnachfrage, die nicht mehr vollständig durch eine Ausdehnung der produzierten Menge bedient werden kann. Die Ökonomie wandert somit in den Bereich von Flaschenhälsen mit simultanen Preis- und Mengeneffekten. Aus der Überschussnachfrage resultiert eine Nachfrageinflation mit I > SH , die zu unverteilten Gewinnen (Qq) und damit Ersparnissen der Unternehmen führt. Zwar wachsen aufgrund der steigenden Einkommen auch die Ersparnisse der Haushalte, jedoch bleiben die Haushaltsersparnisse hinter den Investitionen zurück. Die makroökonomische Gleichheit von Investitionen und Ersparnissen wird somit durch Haushalts- und Unternehmensersparnisse realisiert. Die aus der Nachfrageinflation resultierenden unverteilten Gewinne vereinfachen die Investitionsfinanzierung der Unternehmen und steigern unter Umständen die Investitionsbereitschaft weiter. Es ist zu beachten, dass die Nachfrageinflation die Einkommensverteilung zum Nachteil der Arbeitnehmer verändert. Auch steigen die Reallöhne nicht mehr entsprechend der Produktivität, da die Nachfrageinflati-
440
Keynesianische Makroökonomie
on die Preisniveauerhöhung über die Zielinflationsrate der Zentralbank erhöht und die Nominallohnerhöhungen mit dieser erhöhten Inflationsrate nicht mithalten. Da während des Aufschwungs die Beschäftigung steigt und die Arbeitslosigkeit abgebaut wird, steigt die Marktmacht der Arbeitnehmer. Vieles spricht dafür, dass die Nachfrageinflation eine Kosten- bzw. eine Lohninflation auslöst. In der Tat ist es Arbeitnehmern schwer zu vermitteln, dass mit steigenden Gewinnen, steigender Beschäftigung und inflationsbedingt geringer ansteigenden Reallöhnen eine Lohnzurückhaltung einhergehen sollte – im Übrigen wirken die Marktmechanismen gegen eine solche Option. Einen Prozess steigender Geldlöhne kann unter Umständen nicht einmal eine äußerst besonnene Gewerkschaft verhindern, da bei Knappheiten auf dem Arbeitsmarkt die von den Unternehmen gesuchten Arbeitnehmer in der Lage sind, ihren Individuallohn über den Tariflohn zu drücken. Allenfalls sehr starke Arbeitgeberverbände, die eine gegenseitige Abwerbung von Arbeitskräften unterbinden, können einem solchen Marktprozess entgegenwirken. Kommt es zur Erhöhung der Geldlöhne über der Lohnnorm, dann beginnt sich eine Lohn-Preis-Spirale zu drehen. Dabei ist zu beachten, dass sich trotz steigernder Nominallöhne der geringere Anstieg der Reallöhne aufgrund einer anhaltenden Nachfrageinflation nicht verhindern lässt. Die Mengenkonjunktur mündet somit idealtypisch in eine Kombination von Nachfrage- und Kosteninflation mit beständig steigenden Lohnerhöhungs- und Inflationsraten und weiterer realökonomischer Expansion. Es entsteht eine Inflationskonjunktur. Für die Geldpolitik entsteht nun ein schwieriges Problem: Soll sie den Inflationsprozess früh bekämpfen oder erst zu einem späteren Zeitpunkt? Stoppt die Zentralbank die Inflation, dann wird sie zum Störfaktor der realökonomischen Expansion, bekämpft sie die Inflation nicht, kann ein kumulativer Inflationsprozess mit laufend steigenden Inflationsraten entstehen. Nach Keynes sollte eine Zentralbank Inflationsraten nicht zu früh bekämpfen. Auf alle Fälle sollte sie eine Nachfrageinflation, die Ausdruck einer hohen Investitionstätigkeit ist, nicht zu schnell bekämpfen. Denn: „Eine Erhöhung des Zinsfußes als ein Heilmittel für den Zustand, der sich aus einer verlängerten Periode abnormal beträchtlicher Neuinvestitionen ergibt, gehört zu den Heilmitteln, welche die Krankheit heilen, indem sie den Patienten töten.“ (Keynes 1936, S. 274)175 Eine Zentralbank wird während eines Aufschwungs, insbesondere beim Hineinwachsen in eine inflationäre Entwicklung ihre Refinanzierungszinssätze immer erhöhen. Jedoch folgt eine solche moderate Zinspolitik dem starken Anstieg der Verzinsungsrate von Produktivvermögen. Die Investitionsdynamik wird dadurch nicht gekappt. Reagiert eine Zentralbank bei den geringsten inflationären Tendenzen mit drastischen Zinssatzerhöhungen, dann verhindert sie Aufschwünge und schwächt die langfristige ökonomische Entwicklung. Die Bekämpfung einer Nachfrageinflation als Resultat hoher Investitionstätigkeit ist unter Umständen auch nicht notwendig, da sich das Problem potenziell selbst lösen kann. Denn nach einiger Zeit wird die Investitionstätigkeit die Kapazitäten und damit das Angebot erhöhen und den Inflationsdruck, der von der Nachfrage kommt, mildern. Der Handlungsspielraum einer Zentralbank verringert sich allerdings, wenn es zu einer Interaktion zwischen einer Nachfrage- und Kosteninflation kommt und der Inflationsprozess damit einen kumulativen Charakter erhält. Es besteht das zusätzliche Problem, dass inflationäre Prozesse das Vertrauen in die zukünftige Stabilität des Geldes aushöhlen und zu verstärken Portfolioumstrukturierungen führen. Denn Haushalte werden zur Sicherung ihres Vermögens aus Geldvermögen aussteigen und Sachvermögen wie Immobilien kaufen. Die Nachfrageinflation ist dann nicht mehr allein Ausdruck einer hohen Investitionsnachfrage, sondern Resultat einer zunehmenden Flucht in Sachwerte, die keinen positiven Effekt auf zukünftige Kapazitäten hat. Bekämpft eine Zentralbank die beschriebene Entwicklung immer noch nicht, führt der Inflationsprozess schrittweise zur Erosion des Geldsystems (vgl. dazu Kapitel 4.5.3). Kreditexpansion und Geldmengenerhöhung laufen in der Inflationskonjunktur weiter. Die Vermögenspreise steigen ebenfalls weiter an, wobei es zu spekulativen Exzessen kommen kann (vgl. dazu Kapitel 4.5.4). Die Phase der Krise tritt ein, wenn sich das Verhältnis zwischen dem Zinssatz und der Verzinsungsrate 175
Schumpeter (1926) war mit Keynes in diesem Punkt einer Meinung.
Keynesianische Makroökonomie
441
von Produktivvermögen umkehrt, der Zinssatz also über der Verzinsungsrate von Produktivvermögen liegt. Zwei Möglichkeiten gibt es, eine solche Umkehr zu erklären. Erstens erhöht die Zentralbank die Refinanzierungszinssätze so stark, dass aufgrund des ebenfalls steigenden Verleihzinssatzes an Unternehmen die Investitionsnachfrage zusammenbricht. In Tabelle 4.5.2 kommt dies darin zum Ausdruck, dass typischerweise auch in der Inflationskonjunktur der Zinssatz steigt, jedoch erst in der Phase der Krise der Zinssatz höher ist als die erwartete Verzinsungsrate von Produktivvermögen. Dabei ist zu beachten, dass die Zentralbank den Zinssatz auf jede beliebige Höhe treiben kann. Sie hat somit immer die Macht, die Investitionstätigkeit zu kappen. Das eigentliche Ziel der Zentralbank ist es selbstverständlich nicht, die Investitionen und damit das reale Wachstum und die Beschäftigung zu drosseln, sondern die Inflation zu bekämpfen. Sie hat als Mittel der Inflationsbekämpfung aber nur den Zinssatz, und Zinssatzerhöhungen wirken unweigerlich zunächst auf die Investitionsnachfrage und andere zinsabhängige Nachfragekomponenten. Die Preis-Mengen-Effekte einer Nachfragereduzierung kann die Zentralbank nicht steuern. Ein konjunktureller Einbruch kann zweitens auch unabhängig von der Zentralbank durch einen exogenen Stimmungsumbruch erfolgen, der die Zukunftserwartungen vor allem der Unternehmen eintrübt und die Verzinsungsrate von Produktivvermögen sinken lässt. Dies war die Position von Keynes: „Aber ich behaupte, dass eine typischere und oft die vorherrschende Erklärung der Krise primär nicht eine Erhöhung des Zinsfußes, sondern ein plötzlicher Zusammenbruch der Grenzleistungsfähigkeit des Kapitals (der erwarteten Verzinsungsrate von Produktivvermögen, d. V.) ist.“ (Keynes 1936, S. 267) In einem solchen Fall muss es auch nicht zwingend zu einer Inflationskonjunktur kommen. Die Mengenkonjunktur kann dann direkt einer Krise weichen. Eine kritische Phase während eines Aufschwungs ist es, wenn die Welle der gestiegenen Investitionen kapazitätswirksam wird und damit die Überschussnachfrage abgebaut wird. Aber auch eine Unzahl anderer Faktoren kann die Stimmung eintrüben und die Verzinsungsrate von Produktivvermögen zusammenbrechen lassen. Es ist eine theoretisch kaum zu klärende Frage, ob der Zinssatz oder die erwartete Verzinsungsrate von Produktivvermögen bei Krisen die aktivere Rolle spielt. Nur eine historische Analyse kann hier im Einzelfall Klarheit bringen. Erhöht die Zentralbank die Zinssätze, dann erzeugt die hereinbrechende Krise so viel Unsicherheit über die zukünftige Entwicklung, dass kurz danach die erwartete Verzinsungsrate von Produktivvermögen fällt und die Kreditvergabe an den Unternehmenssektor verknappt wird. Bricht zuerst die Verzinsungsrate von Produktivvermögen zusammen, dann ist dies Ausdruck eines verschlechterten Zustandes des Vertrauens, der auch die Bereitschaft zur Kreditvergabe seitens der Banken und Haushalte senkt. Was auch die Krise auslöst, nach ihrem Hereinbrechen ist ein scharfes Auseinanderlaufen der Verwertungsrate von Produktivvermögen und Zinssatz zu erwarten, da die Verzinsung von Produktivvermögen zusammenbricht. Die Folge ist ein Zusammenbruch der Investitionstätigkeit. Der mit der Krise verbundene Zusammenbruch der Investitionsnachfrage und anderer Nachfragekomponenten führt zu einer Situation eines Überschussangebots auf dem Gütermarkt. Die Unternehmen werden darauf, wie oben ausgeführt, mit einer Einschränkung ihrer Produktion reagieren. Aber ein Überschussangebot führt auch zu einer Nachfragedeflation (I < SH) , die bei den Unternehmen zu Verlusten führt. Das genaue Verhältnis von Preis- und Mengeneffekt kann allgemein nicht bestimmt werden. Indem die Produktion rückläufig wird, sinken auch die Einkommen und folglich die Konsumnachfrage und die Haushaltsersparnisse. Der Multiplikatorprozess, der im Aufschwung das Wachstum verstärkt, verläuft nun negativ. Die Beschäftigung sinkt ebenfalls und die Arbeitslosigkeit steigt. Auf breiter Front entstehen unausgelastete Kapazitäten, die zusammen mit den Unternehmensverlusten die Investitionsbereitschaft weiter belasten. Die Vermögenspreise von Aktien und Immobilien brechen in dieser Phase typischerweise ebenfalls ein, da die Haushalte nun von langfristigen Anlagen in kurzfristige Liquidität flüchten. Sinkende Vermögenspreise senken den Konsum zusätzlich. Da in unserm Modellzyklus das reale BIP sinkt, resultiert eine Rezession. Eine Rezession ist also die scharfe Variante eines Abschwungsprozesses. Wachstumsraten nehmen nicht nur ab, sondern die Ökonomie schrumpft.
442
Keynesianische Makroökonomie
In der beschriebenen Konstellation ist eine Kombination von Nachfragedeflation und Kosteninflation wahrscheinlich. Dies ist dann der Fall, wenn die noch hohe Beschäftigung und verfestigte Inflationserwartungen weiterhin zu einer Kosteninflation aufgrund von Lohnsteigerungen über der Lohnnorm führen. Die Phase nach dem Abbruch des Aufschwungs ist somit durch die Kombination von Inflation und ökonomischer Schrumpfung einschließlich steigender Arbeitslosigkeit gekennzeichnet – durch Stagflation, also die Kombination von Stagnation (oder gar Rezession) und Inflation. In der Krise steigen die Reallöhne verstärkt an, da die Nachfragedeflation die Preise sinken lässt, sich Verluste bei den Unternehmen anschwemmen und die Einkommensverteilung sich zum Vorteil der Arbeitnehmer verändert. Neoklassische Ökonomen scheinen sich von steigenden Reallöhnen in der Krise bestätigt zu sehen, sind zu hohe Reallöhne in ihrem Paradigma doch die Hauptursache für Arbeitslosigkeit. In dieser Phase kommt es zu einer Gewinnkompression, die jedoch mit einer aggressiven Lohnpolitik nichts zu tun hat, sondern mit einem Mangel an Nachfrage. In der Tabelle 4.5.2 ist die Konstellation der Krise zusammenfassend dargestellt. Wir haben in der Tabelle zudem unterstellt, dass schon in der Krise das Kreditvolumen sowie die Geldmenge sinken. In vielen empirisch beobachteten Konjunkturzyklen kommt der Umschwung bei der Kredit- und Geldmengenexpansion erst nach einer Zeitverzögerung. Denn Unternehmen können laufende Investitionsprojekte nicht sofort stoppen. Auch führen die Verluste aufgrund der Nachfragedeflation und die schrumpfende Produktion potentiell zu Zahlungsproblemen, welche die Kreditnachfrage hochhalten können. Drückt die Krise die eher kurze Phase des konjunkturellen Umbruchs aus, bringt die Phase des Abschwungs (bzw. in unserem Modellfall die Rezession) einen längerfristigen Prozess zum Ausdruck. Die in der Krise geschaffene Konstellation setzt sich im Wesentlichen im Abschwung fort. Idealtypisch läuft jedoch in der Abschwungsphase aufgrund zunehmender Arbeitslosigkeit und der Nachfragedeflation, welche die Inflationsrate senkt, die Kosteninflation aus. Lohnerhöhungen reduzieren sich auf die Lohnnorm; die Inflationsrate sinkt auf die Zielinflationsrate. Die Zentralbank wird in der Abschwungsphase die Zinssätze schnell senken, um die konjunkturelle Entwicklung zu stabilisieren. Aber die erwartete Verzinsungsrate für Produktivvermögen verharrt unter dem Zinssatz und die Investitionen schrumpfen weiter mit negativen Folgen für die aggregierte Nachfrage, die Einkommensschöpfung, das reale Wachstum und die Beschäftigung. Kredite und Geldmenge schrumpfen ebenfalls weiter. In unserem Modellzyklus läuft der Abschwung langsam aus und geht in die Situation der Stagnation über, die die Basis für einen erneuten Aufschwung liefert. Bemerkungen über den Konjunkturzyklus Bei der Analyse konjunktureller Bewegungen sind Beginn und Abbruch der Aufwärts- und Abwärtsphasen am schwersten zu erklären. Zwar existieren verschiedenste Konjunkturtheorien, die den Konjunkturzyklus auf mechanisch wirkende Faktoren zurückzuführen suchen, jedoch sind alle diese „in sich geschlossenen“ Theorien unbefriedigend.176 Unseres Erachtens gibt es keine monokausale Erklärung für das Phänomen konjunktureller Schwankungen. Es ist eine breite Palette von ökonomischen, wirtschaftspolitischen, institutionellen und psychologischen Faktoren, mit deren Hilfe der obere und untere Wendepunkt erklärt werden muss. Noch vergleichsweise einfach ist die Begründung für den Beginn der Krise. Ein starker Aufschwung beinhaltet die Gefahr einer inflationären Entwicklung, so dass die Zentralbank durch einen exogenen wirtschaftspolitischen Eingriff, zu dem sie aufgrund endogener Prozesse gezwungen wird, den Aufschwung abwürgt. Wir vertreten die Position, dass zumindest nach dem Zweiten Weltkrieg die Zentralbanken häufig den Aufschwung mittels einer entsprechenden Zinspolitik beendet haben.177 Zwar 176
Für einen dogmenhistorischen Überblick vgl. Stavenhagen (1969), Kapitel 17. Eine empirische Untersuchung von Spahn (1988) legt zumindest diesen Schluss für die Bundesrepublik Deutschland nahe. Vgl. auch Herr/Spahn (1989) und Herr/Kazandziska (2011) für andere Länder.
177
Keynesianische Makroökonomie
443
kann die Krise auch durch den Zusammenbruch der erwarteten Verzinsungsrate von Produktivvermögen eintreten, jedoch sind die Begründungen für diesen Fall exogener Natur. Möglich ist, dass eine exogene politische oder ökonomische Entwicklung dazu führt. Als weiteres Argument wurde vorgetragen, dass mit dem Aufschwung eine starke Ausweitung der Kapazitäten einhergeht, die aufgrund des langsameren Wachstums der Konsumnachfrage allmählich keine Auslastung finden kann. In der Tat kann eine fehlende Konsumnachfrage zu einem Problem werden, denn der Ausbau von Kapazitäten führt zur Krise, wenn die Nachfrage die Kapazitäten dann nicht auslasten kann. Es gibt weder kurznoch langfristig eine Garantie, dass sich die Investitionsnachfrage so entwickelt, dass sich eine proportionale Entwicklung zwischen den aufgebauten Kapazitäten und der aggregierten Nachfrage ergibt. Die Wirtschaftsgeschichte ist voll von Beispielen, bei denen in einzelnen Branchen oder für die Gesamtökonomie gigantische Überkapazitäten aufgebaut wurden, die nicht ausgelastet werden konnten.178 Von Minsky (1975) wurden steigende Fremdkapitalquoten während eines Aufschwungs zum zentralen Argument für eine eintretende Krise gemacht (vgl. dazu Kapitel 4.5.4). Schumpeter (1926) betonte das Auslaufen einer Innovationswelle, die den Aufschwung ursprünglich angestoßen hat. Ohne Probleme ließen sich in der Literatur weitere Argumente finden. Gemeinsam ist allen diesen Erklärungsmustern, das sie mögliche Ursachen für den Einbruch einer Krise geben können, jedoch die mechanische Anwendung des einen oder anderen Arguments führt in die Irre. Es kommt eben immer auf die historisch spezifische Situation an, welcher Faktor bei einem Kriseneinbruch der wichtigste ist. Für die Beendigung eines Abschwungs bzw. den Beginn eines Aufschwungs werden von Keynes unter anderem zwei wichtige Faktoren genannt. So betonte er, „dass die Kapitalwerte von verschiedenem Alter sind, sich mit der Zeit abnützen und nicht alle sehr langlebig sind, so dass, wenn die Rate der Investitionen unter ein gewisses Mindestniveau fällt, es (...) lediglich eine Frage der Zeit ist, wann die Grenzleistungsfähigkeit des Kapitals (die erwartete Verzinsungsrate von Produktivvermögen, d. V.) genügend steigt, um einen Anstieg der Investitionen über dieses Mindestniveau herbeizuführen“ (Keynes 1936, S. 212). Da es während des Abschwungs üblicherweise zu Unternehmenszusammenbrüchen kommt, wird die Schrumpfung des Kapitalstocks noch verstärkt. Sicherlich spielt dieses Argument von Keynes eine gewisse Rolle, jedoch ist auch dieses Argument zu mechanisch, um in jedem Konjunkturzyklus eine Rolle spielen zu können. Ein weiterer Punkt ist die gewöhnlich zu beobachtende und auf institutionelle Faktoren zurückgehende Starrheit der Geldlöhne auch bei hoher Arbeitslosigkeit. Dies ist nicht selbstverständlich, denn ein Abschwung kann sich zu einer Konstellation von Nachfrage- und Kostendeflation entwickeln, wenn die Reduzierung der Kosteninflation aufgrund steigender Arbeitslosigkeit in eine Kostendeflation übergeht. Die Verhinderung deflationärer Tendenzen durch Lohnerhöhungen entsprechend der Lohnnorm ist sicherlich eine zentrale Funktion des Arbeitsmarktes zur Stabilisierung der Ökonomie. „Denn wenn der Wettbewerb unter arbeitslosen Arbeitern immer zu einer großen Senkung des Geldlohnes führen würde, wäre das Preisniveau einer heftigen Unbeständigkeit unterworfen“. (Keynes 1936, S. 212) Würde der Arbeitsmarkt wie ein normaler Markt funktionieren und gäbe es keine Gewerkschaften, Arbeitgeberverbände, Tarifverträge, Mindestlöhne etc., wäre bei Abschwüngen das Tor zu deflationären Entwicklungen immer weit auf. Deflationen sind für die ökonomische Entwicklung ein Desaster und müssen auf alle Fälle verhindert werden (vgl. dazu die Kapitel 4.5.3 und 4.5.4). Garantiert ist eine Verhinderung von Deflation allerdings nicht. Stabilisierend wirkt während eines Abschwungs zudem die relativ stabile Nachfrage der Haushalte auf dem Gütermarkt, denn die Konsumnachfrage ist keineswegs einer ähnlich großen Volatilität wie die Investitionsnachfrage ausgesetzt. Nicht zuletzt stabilisiert die staatliche Nachfrage während eines Abschwungprozesses die Ökonomie. Man sieht: Bei der Ursachensuche für Auf- und Abschwünge sowie für die Beendigung von Aufwärtswie auch Abwärtsbewegungen sind wir auf ein Sammelsurium von Annahmen verwiesen. Die ist kein Mangel der Analyse. Es zeigt sich vielmehr, dass die Ökonomie ein offenes System ist und die ökono178
Vgl. dazu z. B. Keynes (1936), der dieses Problem wiederholt thematisiert.
444
Keynesianische Makroökonomie
mische Entwicklung von vielen Faktoren bestimmt wird, die sich im historischen Prozess in ihrer Bedeutung ändern und weit über den Bereich der Ökonomie hinausreichen. Kernpunkte Ein Konjunkturzyklus stellt das regelmäßige Auf- und Ab der wirtschaftlichen Entwicklung in kapitalistischen Ökonomien dar. Zyklen haben keine Ebenmäßigkeit und dauern in aller Regel zwischen vier und neun Jahren. Der langfristige Trend der ökonomischen Entwicklung ist nicht unabhängig von Zyklen, sondern ergibt sich statistisch aus der Verkettung der verschiedenen Konjunkturzyklen. Der Zyklus kann in die Phasen Stagnation, Mengenkonjunktur, Inflationskonjunktur, Krise und Abschwung unterteilt werden. Prägend für den Zyklus ist die Investitionstätigkeit, die den stärksten zyklischen Schwankungen unterworfen ist. Im Zyklus schwanken neben den Investitionen insbesondere das reale Wachstum, die Beschäftigung, die Lohnentwicklung, das Preisniveau, das Kreditvolumen, die Geldmenge und die Vermögenspreise. Der Beginn von Auf- und Abschwüngen kann oftmals nur exogen erklärt werden. Ein Aufschwung wird typischerweise durch eine Verbesserung der Erwartungen bei gleichzeitig niedrigen Zinssätzen und verfügbarer Finanzierung angestoßen. Das Ende eines Aufschwungs kommt, wenn der Aufschwung inflationär wird und die Zentralbank die Inflation zu bekämpfen beginnt. Ein Aufschwung kann auch durch negative Erwartungsänderungen zu seinem Ende kommen. Ein Abschwung wird wesentlich durch eine vergleichsweise stabile Konsumnachfrage, durch rigide Geldlöhne und staatliche Nachfrage abgebremst werden. Für den Konjunkturzyklus kann kein mechanisches Modell erstellt werden. Er hängt von einer großen Anzahl spezifischer ökonomischer, institutioneller, wirtschaftspolitischer und noch anderer Faktoren ab. 4.5.3 Extreme Preisniveauprozesse Fragestellung Wie wirken sich deflationäre und inflationäre Prozesse auf verschiedene Vermögensarten aus? Was ist der Realzinssatz im Unterschied zum Nominalzinssatz? Wie wird das Verhalten von Unternehmen, Haushalten und Banken durch inflationäre und deflationäre Prozesse beeinflusst? Wie erklären sich Hyperinflationen und Deflationen? Warum zerstören Hyperinflationen und Deflationen die Ökonomie? Zwar sind Preisniveauänderungen ein Phänomen des Gütermarktes, jedoch können sie fundamental auf den Vermögensmarkt zurückwirken, wobei die durch Preisniveauänderungen ausgelösten Prozesse auf dem Vermögensmarkt wiederum Konsequenzen für den Gütermarkt haben. Die Auswirkungen auf den Vermögensmarkt ergeben sich vor allem dadurch, dass Inflations- und Deflationsprozesse die Verwertung einzelner Vermögensarten massiv verändern. Das Ziel dieses Abschnitts ist es, die Wirkungen von Preisniveauänderungen auf dem Vermögensmarkt, der bisher unter der Prämisse der Preisniveaustabilität untersucht wurde, abzuleiten. Dies bietet die Grundlage, danach zwei Extremszenarien zu analysieren, nämlich Hyperinflation und Deflation. Preisniveauänderungen und Umverteilungseffekte bei Krediten Bevor auf die Modifikationen der Kalküle von Unternehmen, Banken und Haushalten durch Preisniveauänderungen eingegangen wird, sollen die Umverteilungseffekte von Preisniveauänderungen bei verzinslichem Geldvermögen näher untersucht werden. Potenziell kann eine ausreichende Anpassung der nominalen Zinssätze einen vollständigen Inflationsschutz für Gläubiger herstellen und auch den
Keynesianische Makroökonomie
445
Effekt von Deflationen bis zu einem gewissen Ausmaß neutralisieren. Wir verdeutlichen dies am Verleihzinssatz für Unternehmenskredite (i). Herrscht ein inflationsfreier Zustand mit einem Zinssatz i0 und entsteht eine Inflation mit der Rate P& , dann muss der nominale Zinssatz bei Inflation (i1), der den Gläubiger vollständig schützt, den Wert (4.5.15)
i1 = i0 + P˙ + i0 · P«
annehmen, da neben der vorgeschossenen Kreditsumme auch die Zinszahlung vor Inflation geschützt werden muss.179 Zur Verhinderung von Vermögensverlusten für einen Gläubiger muss der aktuelle Zinssatz folglich um mehr als die Inflationsrate erhöht werden. Bei Preisniveauänderungen kann zwischen einem nominalen Zinssatz (i) und einem Realzinssatz (ireal) unterschieden werden. Der Realzinssatz hat nichts mit der neoklassischen Vorstellung einer Realsphäre zu tun, er drückt ausschließlich einen um Preisniveauänderungen bereinigten nominalen Zinssatz aus. Sinkt der Realzinssatz bei Preisniveauänderungen oder wird sogar negativ, dann gewinnt der Schuldner, steigt umgekehrt der Realzinssatz, gewinnt der Gläubiger. Bei Preisniveaustabilität sind Nominal- und Realzinssatz identisch, so dass gilt i = ireal. Setzen wir in Gleichung (4.5.15) für i0 den Zinssatz ireal ein, ersetzen i1 durch i als Symbol für den jeweils herrschenden Nominalzinssatz und isolieren den Realzinssatz, folgt: (4.5.16)
ireal =
( i - P& ) ( 1+ P& )
Vereinfacht wird der Realzinssatz häufig durch ireal = i − P« definiert. Bei hohen Preisniveauänderungsraten führt diese vereinfachte Formel jedoch zu erheblichen Fehlern. Ein Realzinssatz kann mit schon bekannten Inflationsraten berechnet werden. Es ergibt sich dann der sogenannte Ex-post Realzins. Bei Kreditverträgen, die immer in die Zukunft reichen, muss bei der Berechnung des erwarteten Realzinssatzes die Inflationsrate geschätzt werden. Mit der Gleichung (4.5.16) lässt sich die reale Zinslast eines Schuldners bzw. die reale Verwertung eines Gläubigers leicht errechnen. Bei einem Realzinssatz von Null ist für einen Gläubiger bei Inflation sein Forderungsbestand inflationsgeschützt. Um ein reales Zinseinkommen zu erzielen, muss der Realzinssatz größer als Null sein. Sind die Inflationsrate und der nominale Zinssatz gleich, ergeben sich ein Realzinssatz und ein reales Zinseinkommen von Null. Der Nominalzinssatz kann niemals negativ werden, denn ein Gläubiger wird es immer vorziehen, keinen Kredit zu geben, wenn er dem Schuldner für die Kreditvergabe noch etwas zahlen muss. Denn der Gläubiger hat immer die Option sein Geld zu horten. Allerdings kann der Realzinssatz negativ werden, nämlich dann, wenn bei Inflationen der Nominalzinssatz nicht angepasst wird. Aber auch bei einem Nominalzinssatz von Null kann der Realzinssatz positiv sein. Dies ist bei deflationären Prozessen der Fall. Wir können uns die Zusammenhänge an einigen Rechnungen verdeutlichen. Existiert im inflationsfreien Zustand eine Zinsrate von 6% und entsteht eine Inflationsrate von 200%, dann ergibt sich für einen Gläubiger entsprechend der Gleichung (4.5.15) ein Inflationsschutz, wenn der aktuelle Zinssatz auf seinen Forderungstitel auf 218% steigt. Denn es gilt: i1 = 0,06 + 2 + 0,06·2 = 2,18 (bzw. 218%).Eine Vereinfachung der Berechnung ergibt sich, wenn mit Indexzahlen gerechnet wird. Wird eine Verzinsung im inflationsfreien Zustand von 6% angenommen, dann steigt eine Forderungssumme mit dem Index 1,06. Bei einer Inflationsrate von 200% steigt der Preisindex von 1 auf 3. Werden beide Indizes multipliziert, folgt: 1,06 · 3 = 3,18. Ein Anstieg des Indexes von 1 auf 3,18 entspricht ebenfalls einer Zinsrate von 218%. Mit der Gleichung (4.5.16) können wir z. B. den Nominalzinssatz von 218% bei einer Inflationsrate von 200% in einen Realzinssatz von 6% umrechnen. Denn es gilt: 179
Das Argument wurde schon von Irving Fisher (1965) – erste Auflage 1896 – entwickelt, vgl. dazu auch Gebauer (1982).
446
Keynesianische Makroökonomie
ireal =
( 2,18 2,0) (1 2,0)
0,06
Die entsprechenden Rechnungen können auch im Falle einer Deflation durchgeführt werden. Unterstellen wir einen Zinssatz bei Preisniveaustabilität von 6,81% und gehen nun von einer Deflationsrate von 6,38% aus, muss die Zinsrate, die den Schuldner schützt, den folgenden Wert annehmen: i1 = 0,0681 + (- 0,0638) + 0,0681 · (- 0,0638) | 0%. Bei einer Deflationsrate von 6,38% sinkt der Preisindex von 1 auf 0,9362. Eine nominelle Forderungs100€ summe von 100 € nimmt dann den realen Wert von | 106,81€ an, was einer Verzinsung von 0,9362 6,81% entspricht. Bei den gewählten Zahlen muss somit der Nominalzinssatz auf Null fallen, damit weder Gläubiger noch Schuldner Vorteile aus der Deflation ziehen können. Auch in diesem Fall können wir den Realzinssatz errechnen. Setzt man die Werte in die Formel (4.5.16) ein, folgt: ireal = 0 ( 0,0638) | 0,0681 1 ( 0,0638)
Was aber passiert, wenn die Deflationsrate größere Werte als im obigen Beispiel annimmt? Unterstellen wir zur Vereinfachung bei Preisniveaustabilität erneut einen Zinssatz von 6% und gehen nun von einer Deflationsrate von 50% aus. Dann ergibt sich der folgende Nominalzinssatz, der den Schuldner schützen würde: i1 = 0,06 + (- 0,5) + 0,06 · (-0,5) = – 0,47 (bzw. – 47%) Der Schuldner müsste somit vom Gläubiger eine nominale Verzinsung von 47% erhalten. Kein Gläubiger wird einen negativen Nominalzinssatz akzeptieren. Sinkt der nominale Zinssatz in dem obigen Zahlenbeispiel auf sein hypothetisches Minimum von Null, dann ergibt sich als Realzinssatz: ireal =
0 ( 0,5) = 1 (bzw. 100%) 1 ( 0,5)
Bei einer Deflationsrate von 50% ergibt das Horten von Geld einen Realzinssatz von 100%. Wir werden auf dieses Problem im Rahmen der Diskussion von Deflationsproblemen zurückkommen. Die Modifikation der Handlungskalküle der Unternehmen
Bekanntlich ergibt sich die erwartete Verzinsungsrate von Produktivvermögen (r) durch (vgl. Kapitel 4.3.4): pPK
( En Kn ) ( E1 K1) ( E2 K2) ... 2 (1 r ) (1 r ) n (1 r )
Investitionen werden vorgenommen, wenn die Verzinsungsrate von Produktivvermögen zumindest die Höhe des Zinssatzes erreicht. Ausgehend von Preisniveaustabilität erhöht eine in der Zukunft erwartete Inflationsrate ceteris paribus die Verzinsungsrate von Produktivvermögen. Dies ergibt sich durch den Anstieg der zukünftigen Nettogeldströme (E1 - K1) , ..., (En - Kn) . Dabei kann vereinfachend unterstellt werden, dass sich die Umsätze und die laufenden Kosten ohne Abschreibungen in der jeweiligen Periode mit dem gleichen Prozentsatz verändern. Der positive Effekt einer erwarteten Inflation auf die Rate r kommt zustande, weil das Investitionsgut (pPK) im inflationsfreien Zustand im Vergleich zu den durch die erwartete Inflation erhöhten Umsatzerlösen relativ „billiger“ geworden ist. Der beschriebene Effekt auf r ergibt sich selbstverständlich auch dann, wenn schon eine Inflation existiert, jedoch ein weiterer Anstieg erwartet wird. Bei unverändertem Zinssatz wird eine Inflation somit die Investitionsnachfrage erhöhen. Steigt der nominale Zinssatz mit der inflationären Entwicklung an, dann kommt es darauf an, welche Rate sich im Inflationsprozess schneller erhöht. Wenn Unternehmen erwarten, dass
Keynesianische Makroökonomie
447
die Zentralbank einen inflationären Prozess hart bekämpft, können sie neben Zinserhöhungen auch einen zukünftigen Einbruch der Nettogeldströme erwarten, was die Verzinsrate von Produktivvermögen ebenfalls senkt. Die umgekehrten Effekte sind beim Auftreten einer Deflation bzw. der Verstärkung eines Deflationsprozesses zu erwarten. Da in der gegenwärtigen Periode „teuer“ gekauftes Produktivvermögen zur Produktion von Gütern dient, die in ihrem Preis sinken, wird eine Deflation die erwartete Verzinsungsrate von Produktivvermögen unweigerlich absenken. Reduziert sich der Zinssatz im gleichen Umfang, so wird ein deflationsbedingtes Sinken der erwarteten Verzinsungsrate von Produktivvermögen ausgeglichen. Im Vergleich zum Inflationsprozess gibt es jedoch einen entscheidenden Unterschied. Während der nominale Zinssatz nach oben keine Grenze hat, kann er bei Deflationen nur auf Null sinken und zwar selbst dann, wenn die erwartete Verzinsungsrate von Produktivvermögen stark negative Werte annimmt. Die erste Phase eines Inflationsprozesses stimuliert, wie ausgeführt, zweifellos eine Ökonomie. „Der Beginn der Inflation macht deshalb auch ihre Süße aus, ihr Gift das nicht absehbare oder nur unter Schmerzen erreichbare Ende.“ (Riese (1986, S. 156) Das „Gift“ der Inflation besteht aus zwei Aspekten: Erstens wird eine Zentralbank früher oder später dazu gezwungen, einzugreifen, da anderenfalls die Erosion des Geldsystems eintritt (vgl. unten). Inflationsbekämpfung ist jedoch mit steigenden Zinssätzen verbunden, die die Investitionstätigkeit drosseln – mit allen daraus resultierenden Konsequenzen. Zweitens erhöht sich mit steigender und vor allem sich beschleunigender Inflationsrate die Unsicherheit über die zukünftige Entwicklung. Man weiß nicht, wann die Zentralbank den Inflationsprozess bekämpft, wie stark die Ökonomie durch die Zinssatzerhöhung in eine Krise gelangt oder ob sich der Inflationsprozess gar in eine Hyperinflation mit dem Zusammenbruch des Geldsystems ausweitet. Eine sich beschleunigende Inflationsrate wird somit aufgrund des damit verbundenen Anstiegs der Unsicherheit und der Verkürzung des kalkulierbaren Zeithorizonts früher oder später zu einem Fall der erwarteten Verzinsungsrate von Produktivvermögen führen. Eine Deflation erhöht selbstverständlich ebenfalls das Niveau der Unsicherheit. Der für eine Deflation sowieso typische Zusammenbruch der Investitionstätigkeit wird so noch verstärkt. Der Unternehmenssektor ist immer in einer Nettoschuldnerstellung und deshalb von deflationären Prozessen durch das Hochschnellen des Realzinssatzes betroffen. Eine scharfe Deflation macht somit dem Unternehmenssektor den Garaus, wie man in Süddeutschland zu sagen pflegte, da er ihn in eine Überschuldung führt. Die Modifikation der Handlungskalküle der Haushalte Für das Verständnis vor allem inflationärer Prozesse spielt das Portfolioverhalten der Haushalte eine zentrale Rolle. Wir kennen aus Kapitel 4.3.2 das Portfoliogleichgewicht eines einzelnen Haushalts bei Preisniveaustabilität aus der Gleichung (4.3.2):
i + lKh = i Ah + lAh = id + lDh = lGh = lSh Alle l-Größen sind nichtpekuniäre Raten und subjektiv bestimmt und fallen ceteris paribus in aller Regel mit steigendem Bestand der jeweiligen Vermögensart. Die Verwertungsraten der einzelnen Vermögensarten werden durch Preisniveauänderungen spürbar modifiziert. Beginnen wir mit der Verwertungsrate von Sachvermögen. Sachvermögen erzielt vor allem wegen seiner Sicherungsfunktion eine nichtpekuniäre Vermögenssicherungsprämie. Sie basiert darauf, dass Sachvermögen inflationsgeschützt ist, da sein Nominalwert simultan mit Preisniveauänderungen schwankt. Dieser Sachverhalt begründet die Existenz einer Vermögenssicherungsprämie lSh . Die nominale erwartete Gesamtverwertung von Sachvermögen bei der Berücksichtigung von Preisniveauänderungseffekten ergibt sich durch lSh + P& e , wobei P& e die subjektiv erwartete Inflationsrate ausdrückt. Eine Deflationsrate drückt sich in einem negativen Wert von P& e aus. Je stärker also die In-
448
Keynesianische Makroökonomie
flationserwartungen sind, desto größer ist die für die Portfolioentscheidung relevante Gesamtverwertung von Sachvermögen. In einem inflationären Umfeld wird sich das Niveau der Vermögenssicherungsprämie auf Sachvermögen erhöhen. Dies erklärt den bekannten Sachverhalt einer Flucht in Sachwerte unter inflationären Bedingungen. Im Falle einer erwarteten Deflationsrate wird die erwartete Gesamtverwertung von Sachvermögen gering oder unter Umständen negativ und zwar dann, wenn die erwartete Deflationsrate die subjektive Vermögenssicherungsprämie überkompensiert. Es ist zu erwarten, dass in einem Inflationsprozess der Preis von Sachvermögen im Vergleich zur allgemeinen Inflationsrate überproportional steigt, da sich der Wunsch zur Haltung von Sachvermögen auf eine begrenzte Anzahl von Gütern konzentriert, z. B. auf Immobilien oder Edelmetalle. Im Deflationsprozess gibt es ebenfalls die Tendenz zur überproportionalen Senkung der Preise von Sachvermögen. Allerdings wirkt die hohe Unsicherheit während einer Deflation erhöhend auf den Wunsch zur Haltung von Sachvermögen, so dass die überproportionale Schwankung des Preises von Sachvermögen bei einer Deflation abgebremst wird. Solche überproportionalen Schwankungen verstärken noch unsere Argumentation. Es gibt eine zweite Vermögensart, die grundsätzlich in ihrer Verwertung mit dem Preisniveau schwankt, nämlich Aktienvermögen. Da Aktien Anteile an Produktivvermögen darstellen und letzteres in seinem Wert mit dem Preisniveau schwankt, ist Aktienvermögen inflationsgeschützt. Deshalb kann die Gesamtverwertung von Aktienvermögen durch iAh + lAh + P& e ausgedrückt werden.180 Bei sehr hohen Inflationsraten muss jedoch angenommen werden, dass die Gesamtverwertung von Aktien durch den Anstieg der ökonomischen Unsicherheit bei hohen Inflationsraten stark belastet wird. Bei Deflationen muss von einem Zusammenbruch der Verwertung von Aktien ausgegangen werden, da Unternehmen dann mit hohen Schulden zu kämpfen haben und potentiell zusammenbrechen können. Geldhaltung erbringt ausschließlich eine subjektiv kalkulierte Liquiditätsprämie, die die Sicherheit und Bequemlichkeit des Haltens von Geld ausdrückt. Im Unterschied zum Sachvermögen ist Geldhaltung nicht inflationsgeschützt. Vielmehr verliert es entsprechend der Inflationsrate an Wert, so dass sich die erwartete Verwertung der Geldhaltung durch lGh – P& e errechnen lässt. Eine Sicherheitsfunktion kann Geldhaltung bei Inflation nur noch rudimentär wahrnehmen. Bei hohen Inflationsraten verliert Geld seine Sicherheitsfunktion gänzlich und hört auf, ein relevantes Vermögensobjekt zu sein. Das Niveau der Liquiditätsprämie sinkt während eines Inflationsprozesses drastisch. Die Bequemlichkeit der Geldhaltung bzw. die Ersparnis von Transaktionskosten kann allerdings selbst bei hohen Inflationsraten eine minimale nichtpekuniäre Verwertungsrate der Geldhaltung aufrechterhalten und damit eine gewisse Geldhaltung begründen. Bei hohen Inflationsraten kann die nominale Geldhaltung (M) aufgrund ⎛ M⎞ dieses Faktors zunehmen, obwohl die reale Geldhaltung ⎜ ⎟ drastisch abnimmt. Dieser Umstand er⎝P⎠ klärt, dass selbst in Ländern mit hoher Inflationsrate noch Geld nachgefragt wird, allerdings im Wesentlichen nur noch als Transaktionsmittel in der Kleinzirkulation. Es sollte jedoch beachtet werden, dass ein Halter von Geld bei hohen und steigenden Inflationsraten immer damit rechnen muss, dass sein Geld zum Kauf von Gütern von den Verkäufern nicht mehr akzeptiert wird, so dass Geld seine Güteraneignungsfunktion gänzlich verliert. In diesem Extremfall sinkt die nichtpekuniäre Verwertungsrate von Geld selbstverständlich auf Null, und das Geldsystem bricht endgültig zusammen. Bei einer erwarteten Deflationsrate schnellt die Verwertung von Geld nach oben, da nun neben der Liquiditätsprämie die Erhöhung der Kaufkraft des Geldes seine Verwertungsrate bestimmt. Forderungstitel erzielen neben einer nichtpekuniären Rate einen Zinssatz, büßen jedoch bei Inflationen einen Teil oder die gesamte Verwertung ein und erhöhen die Verwertung bei Deflationen. Der Zinssatz kann potentiell Inflationsverluste ausgleichen. Die erwartete Verwertung von Haushaltskrediten an Unternehmen entspricht somit i + lKh - P& e , die von Depositen id + lDh - P& e . Allerdings kann ein deflationäres Umfeld dazu führen, dass der Rückfluss vergebener Kredite als sehr unsicher eingeschätzt wird, 180
Wir können auch annehmen, dass sich die pekuniäre Verwertung von Aktienvermögen (iAh) automatisch Änderungen des Preisniveaus anpasst. Wir wollen jedoch aus Darstellungsgründen den Einfluss von Veränderungen des Preisniveaus explizit ausweisen.
Keynesianische Makroökonomie
449
so dass lKh stark negativ wird und jede Kreditvergabe an Unternehmen unterbleibt. Wird das Bankensystem z.B. während einer Deflation als unsicher eingestuft, dann wird lDh negativ, was zu einem massiven Abzug von Einlagen und zur Geldhortung führen kann. Fassen wir die obigen Ausführungen zusammen, dann ergibt sich das Portfoliogleichgewicht eines Haushalts bei der Berücksichtigung von Preisniveauänderungserwartungen durch: (4.5.17)
i + lKh - P e
i Ah l Ah + P e
id + lDh - P e = lGh - P e
= lSh + P e
Werden bei den Haushalten die Verwertungsraten der verschiedenen Vermögensarten während eines Inflationsprozesses im Zusammenhang betrachtet, dann ergibt sich, dass bei erwarteter steigender Inflationsrate die Verwertungsrate der Geldhaltung drastisch sinkt und die von Sachvermögen rasant ansteigt. Folglich wird es zu massiven Portfolioumstrukturierungen auf Kosten der Geldhaltung und zugunsten von Sachvermögen kommen. Aktienvermögen wird bei hohen Inflationsraten ebenfalls attraktiv. Aber die Attraktivität von Aktienvermögen wird typischerweise aufgrund der erhöhten Unsicherheiten der zukünftigen Entwicklung der Ökonomie und damit auch der Unternehmen geringer sein als die von Sachvermögen wie Häuser oder Gold. Komplizierter sind die Auswirkungen von Inflationserwartungen auf die Kreditvergabe der Haushalte an Unternehmen und Banken zu analysieren. Zwar kann grundsätzlich ein ausreichend hoher Zinssatz einen vollständigen Inflationsschutz herstellen, ist er indes nicht hoch genug, so kommt es zu negativen Realzinssätzen und Vermögensverlusten. Es kommt somit auf die Erwartungen der Haushalte an. Erwarten sie, dass der Zinssatz ihr verzinsliches Geldvermögen vor Inflation schützt, dann gibt es für sie auch bei hohen Inflationsraten keinen Grund aus verzinslichem Geldvermögen auszusteigen. Länder können in der beschriebenen Konstellation mit hohen Inflationsraten lange Perioden ohne einen Zusammenbruch des Geldsystems leben. Die Zinsentwicklung ist dann faktisch an die Inflationsentwicklung angekoppelt bzw. indexiert; und die Haushalte vertrauen dieser Indexierung181. Haushalte können aber niemals ausschließen, dass es im Verlaufe der Inflation zu einem gänzlichen Zusammenbruch des Geldsystems kommt und ihr Geldvermögen entwertet wird. Zudem sind Ökonomien mit hohen Inflationsraten mit einem geringeren Vertrauen in staatliche Institutionen verbunden als Ökonomien mit niedrigen Inflationsraten oder Preisniveaustabilität. Dies gilt insbesondere für die Zentralbank. Warum sollten Haushalte auch einer Zentralbank, die eine hohe Inflationsrate zulässt, eine Zinspolitik zutrauen, die nicht zum Zusammenbruch bzw. zu schweren Beschädigungen des Geldsystems führt? Mit steigender Inflationsrate werden Forderungstitel für Haushalte selbst bei einer ausreichenden Erhöhung der Zinssätze immer unsicherer und die ökonomische Gesamtsituation wird immer fragiler. Zufällige Ereignisse können dann zu einem allgemeinen Stimmungsumschwung führen. Geht das Vertrauen in eine Zinsentwicklung, die vor Inflation schützt, verloren, dann brechen alle Dämme, da Haushalte in diesem Fall massiv aus Geldvermögen aussteigen und eine riesige Überschussnachfrage nach Sachvermögen entfalten. Die Zinspolitik der Zentralbank wird nach dem Zusammenbruch des Vertrauens zu einem stumpfen Instrument, da der Inflationsprozess dann einen extrem kumulativen Charakter erhält und in Richtung einer Hyperinflation verläuft (vgl. unten). Die Reaktionen der Haushalte bei Deflationserwartungen ergeben sich weitgehend im Umkehrschluss, so dass hier nur einige Anmerkungen notwendig sind. Das Portfolioverhalten der Haushalte führt aus verschiedenen Gründen zur Verschärfung des Deflationsprozesses. Die wachsende Präferenz für Geldvermögen führt zu einem steigenden Angebot an Sachvermögen wie Immobilien, so dass dessen Preis weiter fällt, wobei gleichzeitig Nachfrageentscheidungen in die Zukunft verschoben werden. Weiter führt der Anstieg der Unsicherheit zur verstärkten Haltung von sicherem Geldvermögen – vor allem von Geld selbst und bei einem stabilen Bankensystem von relativ sicheren Depositen, während das Kreditangebot an Unternehmen, die in einer Deflation Probleme haben (siehe unten), reduziert wird.
181
Eine solche Indexierung kann formal eingeführt werden, z. B. wenn in Kreditverträgen der Zinssatz sich automatisch mit Veränderungen der Inflationsrate ändert.
450
Keynesianische Makroökonomie
Die Modifikation der Handlungskalküle der Banken Kommen wir nun zu einem weiteren Akteur, den Banken. Die Banken sind Gläubiger und Schuldner, da sie sich in erster Linie mit dem Zweck verschulden, Kredite zu vergeben. Was sie auf der einen Seite ihrer Bilanz aufgrund von Preisniveauänderungen gewinnen, verlieren sie auf der anderen Seite. Bei gegebenem Refinanzierungszinssatz ergibt sich der Verleihzinssatz durch die Refinanzierungskosten der Bank plus der Zinsspanne. Inflationen und Deflationen werden aufgrund geldpolitischer Reaktionen zu veränderten Refinanzierungszinssätzen der Banken führen. Die zentrale Frage ist, wie sich Inflationen und Deflationen auf die Zinsspanne und die Kreditrationierung der Banken auswirken. Bei inflationären Entwicklungen werden die Banken typischerweise ihren Zinsaufschlag erhöhen, um ihre reale Verwertung zu verteidigen. In der Tendenz werden sie bei hohen Inflationen reichlich Kredite vergeben, denn sie können etwaige geringe Realzinssätze an die Einleger weiterreichen. Nur wenn sie eine harte Stabilisierungspolitik erwarten und die Zahlungsfähigkeit der Schuldner dadurch in Gefahr sehen, werden sie mit der Kreditvergabe vorsichtiger sein. Bei deflationären Prozessen spricht alles dafür, dass die Banken ihre Kreditvergabe drastisch einschränken. Denn eine deflationäre Entwicklung ist ein Garant, dass Schuldner in Liquiditäts- und Solvenzprobleme kommen. Dieses Risiko werden Banken beachten und die allgemeine Unsicherheit, die mit einer Deflation verbunden ist, wird das Kreditangebot weiter einschränken. Hyperinflation Hyperinflation und Deflation stellen zwei Extremvarianten von Preisniveauinstabilität dar. Beide Varianten sind für die Ökonomie äußerst zerstörerisch, da sie die Kohärenz einer Geldwirtschaft untergraben. In der Wirtschaftsgeschichte sind Hyperinflationen häufiger anzutreffen als Deflationen. Die letzte große Deflation gab es in den 1930er Jahren. Aber auch ab den 1990er Jahren kam die Deflation in einigen Ländern zurück. Hyperinflationen hingegen gibt es bis zur Gegenwart in einer Reihe von Ländern.182 Wir beginnen mit der Hyperinflation. Hyperinflationen beinhalten starke kumulative Elemente, die zur beschleunigten Zerstörung der Geldfunktionen führen.183 Ab welcher Inflationsrate der Prozess einer Hyperinflation einsetzt, lässt sich nicht allgemein sagen. So gibt es Länder, die über Jahre mit hohen Inflationsraten und erheblich gestörten Geldsystemen leben, ohne dass die Ökonomie in eine Hyperinflation abgleitet. Allerdings gibt es auch historische Beispiele, die durch eine schlagartige Eskalation gekennzeichnet sind. Der Weg in eine Hyperinflation ist geebnet, wenn im Verlaufe eines sich entwickelnden Inflationsprozesses das Vertrauen der Haushalte in die zukünftige Stabilität des Geldes zusammenbricht und es zur allgemeinen Flucht aus inländischem Geldvermögen (Geld und Forderungstitel) kommt. Wird dieser Punkt erreicht, eskaliert die Überschussnachfrage auf dem Gütermarkt. Der entscheidende Punkt ist nun, dass sich, wie bei jedem Inflationsprozess, die Nachfrageinflation mit einer Kosteninflation verbindet, da starke nachfragebedingte Preisniveauerhöhungen die Reallöhne drastisch senken und die Geldlöhne nicht unberührt lassen können. Geldlöhne können während einer Hyperinflation nicht moderat ansteigen, da dies mit einer extremen Reduktion der Konsummöglichkeiten der abhängig Beschäftigten (bis unter das Existenzminimum) verbunden wäre. Eine Hyperinflation ist durch die Interaktion einer eskalierenden Nachfrage- und Kosteninflation gekennzeichnet, wobei sich beide Komponenten des Inflationsprozesses gegenseitig anspornen.184 182
Vgl. zur Deflation auch Herr/Kazandziska (2011). Für eine instruktive Beschreibung kumulativer Inflationsprozesse vgl. Dornbusch/Sturzenegger/Wolf (1990) oder Fischer/Sahay/Vegh (2002). 184 Bei Berücksichtigung außenwirtschaftlicher Aspekte erhält der Inflationsprozess ein zusätzliches kumulatives Element. Als Fluchtmedium aus inländischem Geldvermögen steht den Haushalten nicht nur Sachvermögen zur Verfügung, sondern dann auch ausländisches Vermögen, insbesondere ausländische Devisen. Eine Flucht in Auslandsvermögen führt zur Abwertung der inländischen Währung und zu einem Preisniveauschub aufgrund steigender Importpreise. Es kommt dann zu einer Abwertungs-Inflations-Spirale, die sich mit einer Lohn-Preis-Spirale verbindet. (vgl. Kapitel 8.6.3). 183
Keynesianische Makroökonomie
451
Zwar hat jeder Inflationsprozess seine eigene Geschichte, jedoch besteht ein typisches Inflationsszenario darin, dass mit steigender Inflationsrate nicht nur der Anteil der Geldhaltung am Portfolio der Haushalte abgebaut wird, sondern der Anteil des Geldvermögens generell. Schon bei relativ geringen Inflationsraten ist mit einer Flucht in Sachvermögen zu rechnen, da sehr „ängstliche“ Haushalte sehr früh ihr Portfolio umstrukturieren. Der Prozess einer „schleichenden“ Inflation führt erst ab einer gewissen Inflationsrate zu einer radikalen Umstrukturierung der Portfolios. Der generelle Ausstieg aus Geldvermögen erfolgt, wenn das Vertrauen in den Werterhalt von verzinslichem Geldvermögen zusammengebrochen ist. Typisch sind nichtlineare Entwicklungen, die ab einer nicht bestimmbaren Inflationsrate zur allgemeinen Flucht aus Geldvermögen führen. Die Möglichkeit der Haushalte aus Geldvermögen auszusteigen, stellt für Zentralbanken und Regierungen eine bedeutende Restriktion dar. Gelingt es der Zentralbank nämlich nicht, das Vertrauen der Haushalte in die zukünftige Werterhaltung von Geldvermögen aufrechtzuerhalten, wird sie durch die Flucht in Sachwerte bzw., wie wir später sehen werden, in wertstabiles ausländisches Geld und dem dadurch ausgelösten kumulativen Instabilitätsprozess sanktioniert. Das Portfolioverhalten der Haushalte setzt somit Zentralbanken unter einen hohen Druck, Inflationsprozesse früher oder später zu stoppen. Ist eine Zentralbank aus politischen Gründen dazu nicht in der Lage185, oder wird die Inflation billigend hingenommen186, wird das Geldsystem durch das Portfolioverhalten der Haushalte zerstört. Da Vermögenshaushalte wissen, dass sie im Zweifelsfall einem Inflationsprozess hilflos ausgeliefert sind, werden sie aus Gründen der Vermögenssicherung lieber früher als später aus Geldvermögen aussteigen. Vor allem werden sie ihr Geldvermögen selbst bei Zinssätzen, die einen Inflationsschutz ermöglichen, nur noch kurzfristig anlegen, um gegebenenfalls schnell handlungsfähig zu sein. Ein Inflationsprozess verkürzt somit den Planungshorizont von Wirtschaftssubjekten, die sich in einer Situation hoher Unsicherheit immer „auf dem Sprung“ befinden. Hat der generelle Ausstieg aus dem inländischen Geldvermögen eingesetzt und sich mit einer LohnPreis-Spirale verbunden, sind Zinssatzerhöhungen der Zentralbank ein stumpfes Instrument zur Rückführung der Inflationsrate: Erstens ist es fraglich, ob hohe Zinssätze den Ausstieg aus dem Geldvermögen stoppen und die Nachfrageinflation kappen können, da der Vertrauensverlust nur schwer und vor allem nicht schnell behoben werden kann. Zweitens erzeugt eine sich rasant drehende Lohn-Preis-Spirale einen hohen Kreditbedarf der Unternehmen, der auch bei drastisch steigenden Zinssätzen nicht reduziert werden kann. Der außer Kontrolle geratene Inflationsprozess bedarf somit auch einer starken Expansion der nominellen Geldmenge. Würde die Zentralbank den Bedarf an zusätzlichem Geld nicht bereitstellen, würde sie den Unternehmenssektor in eine Liquiditätsklemme stoßen, und Unternehmen könnten ihren Verpflichtungen gegenüber Gläubigern, Lieferanten und Arbeitnehmern nicht mehr nachkommen. Zwar könnte dann die Hyperinflation gestoppt werden, jedoch wäre der Preis der massenhafte Zusammenbruch von Unternehmen. Die Funktion der Zentralbank als Lender of Last Resort erzwingt paradoxerweise die Weiterfinanzierung des Inflationsprozesses während einer Hyperinflation. Theoretisch ist eine so genannte “Cold-Turkey-Strategie” denkbar. Bei dieser „springt“ die Ökonomie durch eine starke wirtschaftspolitische Intervention in einen stabilen Zustand. Die Voraussetzung dafür ist, dass die In185
Hyperinflationen kommen in der Regel zustande, wenn sich Zentralbanken wirtschaftspolitisch unterordnen müssen und keine Geldpolitik betreiben, die ihrer Funktion entspricht. Typischerweise kommen Hyperinflationen aufgrund eskalierender Budgetdefizite öffentlicher Haushalte, die durch die Notenpresse finanziert wurden, zustande. Dieser Fall ist typisch für eine Reihe wirtschaftlich unterentwickelte Länder. Eine Hyperinflation kann auch entstehen, wenn eine starke Gewerkschaftsbewegung das Stoppen einer Lohn-Preis-Spirale aus Gründen der Beschäftigungssicherung politisch verhindern kann. Tendenziell war diese Situation in den 1970er Jahren beispielsweise in Italien gegeben (vgl. Herr/Spahn 1989). 186 Für diesen Fall liefert die deutsche Hyperinflation 1923 ein gutes Beispiel. Sie wurde zumindest billigend hingenommen, um die öffentlichen Kriegsschulden des Ersten Weltkriegs zu eliminieren. Diese Methode der Entschuldung wurde nach dem Ersten Weltkrieg von etlichen Ländern in Europa praktiziert.
452
Keynesianische Makroökonomie
flationsquelle geschlossen wird und alle gesellschaftlichen Gruppen, die Preise setzen, also insbesondere Unternehmen und Gewerkschaften, ihre Preissetzung der angestrebten stabilen Situation anpassen. Drittens reduziert sich während einer Hyperinflation die Nachfrage nach realer Kassenhaltung. Phillip Cagan (1956) hat gezeigt, dass ein Inflationsprozess ohne Geldmengenerhöhung der Zentralbank stattfinden kann, wenn die Reduzierung der realen Kassenhaltung des Publikums schneller stattfindet als das Preisniveau steigt. Formal drückt sich der von Cagan betonte Effekt durch einen rasanten Anstieg der Umlaufgeschwindigkeit des Geldes aus, die durch v
Yr P M
definiert ist. Steigt v an, dann
kann P bei gegebenem realen Einkommen (Yr) offensichtlich ohne eine Erhöhung von M steigen. Die sprunghafte Erhöhung der Umlaufgeschwindigkeit des Geldes drückt nichts anderes als den statistischen Effekt einer zunehmenden Reduzierung der Kassenhaltung des Publikums und eine Flucht aus Geldvermögen aus. Die neoklassische Analyse einer Hyperinflation rückt den von Cagan betonten Effekt der Reduzierung der realen Geldnachfrage ins Zentrum. Die Hyperinflation ist somit das Ergebnis des Zusammenbruchs der im quantitätstheoretischen Kontext üblicherweise unterstellten Stabilität der Geldnachfrage. Im Gegensatz zur neoklassischen Variante der Analyse der Hyperinflation wird im Keynesianismus die Erosion der Geldfunktionen betont.187 Hohe Inflationsraten führen zur schrittweisen Erosion der Geldfunktionen (vgl. zu den Geldfunktionen Kapitel 4.2.3) und letztlich des gesamten Geldsystems. Die Hyperinflation drückt dabei das Endstadium dieses Prozesses aus. Schon bei geringen Inflationsraten wird Geld in seiner Funktion als Hortungsmittel gestört. Dies mag nicht besonders relevant erscheinen, da Geldhortung aufgrund nahezu sicherer verzinslicher Bankeinlagen in modernen Geldwirtschaften keine große Rolle spielt. Es sollte jedoch bedacht werden, dass Geldvermögen insgesamt bei hohen Inflationsraten in seiner Funktion als Wertspeicher von Reichtum eingeschränkt wird. Die Folge ist, wie gezeigt, die zunächst schleichende und bei zunehmender Inflation sich verstärkende und ab einer gewissen Inflationsrate eskalierende Flucht aus inländischem Geldvermögen. Offen tritt die Erosion des Geldsystems zutage, wenn Geldfunktionen auf andere Medien übergehen. Nach der Erosion des Geldes als Hortungsmittel wird im Erosionsprozess der Wertstandard bei Kreditverträgen auf ein stabileres Medium übertragen, da sich die Gläubiger bei zunehmender Inflationsrate früher oder später weigern, das inländische Geld als Wertstandard zu akzeptieren. Zwar kann beim Wechsel des Wertstandards bei Kreditverträgen das inflationäre Geld theoretisch noch seine Funktion als Mittel der Kreditauszahlung und -rückzahlung behalten und ein ausländisches Geld oder ein anderer Wertstandard als Indexierung benutzt werden, jedoch werden in der Regel und auf alle Fälle ab einer gewissen Inflationsrate Kreditverträge ein neues Medium übertragen, wobei vor allem stabile ausländische Währungen diese Funktion übernehmen. Wechselt das Kreditmedium, dann ist es ein kleiner Schritt zur partiellen Erosion der Wertstandardfunktion und der Kaufmittelfunktion für Waren. Auf dieser Stufe der Zerrüttung kann ein Geldsystem dann selbst langfristig weiterexistieren. Alle wesentlichen Kreditbeziehungen sowie Käufe bzw. Verkäufe wertvoller Waren werden mit einer Parallelwährung abgewickelt. Besonders geeignet zur Ersetzung des inflationären Geldes sind stabile ausländische Gelder. In der Vergangenheit haben insbesondere der US-Dollar und der Euro diese Funktion übernommen. Deshalb spricht man in diesen Fällen auch von Dollarisierung. Das offizielle Geld wird dann auf ein Kaufmittel für alltägliche Waren reduziert; für diesen Zweck wird dann eine geringe Transaktionskasse vom Publikum gehalten. Stabilisierend auf die Geldhaltung in inländischem Geld wirkt in einer solchen Situation, dass Steuern und Abgaben in inländischer Währung bezahlt werden. Der Zusammenbruch des inländischen Geldsystems kann allerdings auch total sein. Dies ist der Fall, wenn Arbeitnehmer und Warenverkäufer das inländische Geld nicht mehr als Kaufmittel akzeptieren und das nationale Geld dann den letzten Rest seiner Akzeptanz eingebüßt hat. Wirtschaftspolitisch verbleibt dann nur die komplette Übernahme einer ausländischen Währung oder die Einführung einer neuen Wäh-
187
Vgl. dazu Robinson (1938), die die deutsche Hyperinflation 1923 untersucht hat, und Riese (1986).
Keynesianische Makroökonomie
453
rung, die die Inflationserwartungen bricht und die Steuerungsmacht der Zentralbank über das Geldsystem neu zu etablieren sucht. Hyperinflationen sind mit einer Zerrüttung der gesamten Ökonomie verbunden. Hohe Inflationsraten führen zu steigenden Transaktionskosten, indem z. B. Kreditgeschäfte in fremden Währungen oder, falls diese nicht verfügbar sind, in Weizen, Gold, Zucker oder Zigaretten abgewickelt werden und zu sinkender Effizienz aufgrund von inflationsvermeidenden Strategien der Wirtschaftssubjekte führen. Die erwartete Verzinsungsrate von Produktivkapital bricht in der unsicheren Situation einer Hyperinflation zusammen. Damit kollabiert auch die Investitionstätigkeit bei eskalierenden Inflationsraten, da keine verlässliche Erwartungsbildung mehr möglich ist. Zwar steigt im Inflationsprozess die Nachfrage nach Sachvermögen wie Gold oder „Betongold“, jedoch nicht nach Produktivvermögen. Ein Resultat des hohen Unsicherheitsniveaus bei hoher Inflationsrate ist die Verkürzung des Zeithorizonts bei ökonomischem Handeln. Wirtschaftssubjekte schließen z. B. Kreditverträge nur noch mit äußerst kurzen Laufzeiten ab. Kurzfristige ökonomische Aktivitäten werden generell bevorzugt. Beispielsweise wird bei hohen Inflationsraten Handel aufgrund des relativ schnellen Rückflusses von vorgeschossenem Geld einer industriellen Produktion vorgezogen. Eine stabile ökonomische Entwicklung ist bei hohen Inflationsraten nicht möglich. Deflation Typisch für den Deflationsprozess ist die Verbindung einer Nachfrage- mit einer Kostendeflation. Auch der Abschwung während „normaler“ konjunktureller Schwankungen ist durch eine Nachfragedeflation gekennzeichnet, so dass die Kostendeflation der entscheidende Punkt bei einer Deflation ist. Ein Deflationsprozess entsteht somit, wenn die Geldlöhne ihre Starrheit verlieren und nominell zu sinken beginnen. Man sieht: Die Starrheit der Geldlöhne bzw. eine Lohnentwicklung entsprechend der trendmäßigen Produktivitätsentwicklung plus der Zielinflationsrate der Zentralbank wird zum entscheidenden Element zur Verhinderung deflationärer Entwicklungen. Nun sind (zum Glück) traditionell die Arbeitsmärkte in nahezu allen Geldwirtschaften so organisiert, dass Geldlohnsenkungen durch Tarifverträge, Mindestlöhne oder anderen Institutionalisierungen ein hoher Widerstand entgegengebracht wird. Da die Geldlohnentwicklung jedoch nicht unabhängig von den Kräfteverhältnissen auf dem Arbeitsmarkt ist, können ab einer gewissen Arbeitslosenquote die Marktkräfte auf dem Arbeitsmarkt zu Lohnsenkungen führen. In diesem Fall bricht der Damm gegen Deflation. Ab den 1970er Jahren sind unter dem starken Einfluss neoklassischer Politikberatung in vielen Länder Arbeitsmarktreformen durchgeführt worden, die Gewerkschaften und Arbeitsmarktinstitutionen geschwächt haben. Dadurch ist der Damm gegen Deflation deutlich schwächer geworden. Ist eine Deflation erst einmal angestoßen, dann gibt es Faktoren, die den Deflationsprozess verschärfen. Während eines Deflationsprozesses kommt es, wie oben ausgeführt wurde, zur Einschränkung der Investitions- und Konsumnachfrage und damit zu einer anhaltenden Nachfragedeflation, welche bei den Unternehmen Verluste erzeugt und die Güternachfrage noch weiter bremst. Auch schrumpft während eines Deflationsprozesses die Produktion mit dem Effekt fallender Beschäftigung. Dadurch sinkt die Marktmacht der Arbeitnehmer weiter und eine Lohndeflation wird weiter vorangetrieben. Die größte Gefahr von Deflationen liegt – wie sich während der Weltwirtschaftskrise in den 1930er Jahren beispielhaft gezeigt hat – darin, dass Unternehmen nicht nur in eine Verlustsituation, sondern zudem in extreme Liquiditäts- und Solvenzprobleme kommen. Bei Liquiditätsproblemen können Unternehmen (und andere Schuldner) ihren Zahlungen nicht mehr nachkommen, obwohl ihr Nettovermögen noch positiv ist. So mögen Schuldner ein Grundstück nicht schnell genug zur Bezahlung von Schulden verkaufen können. Bei Solvenzproblemen ist das Nettovermögen von Schuldnern negativ. In diesem Fall muss ein Unternehmen den Weg eines Konkurses beschreiten. Eine Deflation führt aufgrund von Liquiditäts- und Solvenzproblemen zu massenhaften Zusammenbrüchen von Unternehmen (und auch überschuldeter Haushalte, die wir hier nicht explizit berücksichtigen, die jedoch immer mitgedacht werden können). Eine große Zahl von Zusammenbrüchen von Schuldnern gefährdet das Bankensystem. Liquiditäts- und Solvenzprobleme während einer Deflation ergeben sich durch die Erhö-
454
Keynesianische Makroökonomie
hung der realen Schuldenlast. Die nominalen Verbindlichkeiten von Schuldnern wie Unternehmen können kurzfristig nicht gesenkt werden, da die Schuldenbestände über viele Jahrzehnte aufgebaut wurden und Kreditverträge eine mehr oder minder lange Laufzeit haben. Eine Senkung des Preisniveaus führt dann unweigerlich zur Erhöhung der realen Schuldenlast
VBU P
mit VBU als nominale Ver-
bindlichkeiten des Unternehmenssektors und P als Preisindex. Machen wir uns an einem Beispiel die Liquidität- und Solvenzprobleme von Unternehmen bei Deflation klar. Gehen wir in einem einfachen Modell ohne Staat und Ausland davon aus, dass das nominale Bruttoinlandsprodukt (BIPr · P) mit BIPr als realem Bruttoinlandsprodukt und P als Preisindex die Umsatzerlöse des Unternehmenssektors ausdrückt. Den Umsatzerlösen stehen die laufenden Zahlungsverpflichtungen in der Form von Vorleistungen Vr ·P (mit Vr als realen Vorleistungen), Löhnen w·H (mit w als Geldlöhnen und H als Stunden), Zinsen i· VBU (mit i als Zinssatz und VBU als Unternehmensverschuldung) sowie der Schuldentilgung a· VBU (mit a als Anteil der Schuldentilgung an den Gesamtkosten) gegenüber. Wir unterstellen als Cash Flow-Saldo (CFS): CFS = BIPr P - Vr P - w H - i VBU - a VBU
Gehen wir von einer Situation aus, die numerisch durch BIPr = 36 000 €, Vr =1000€, P = 1, w = 2 € je Arbeitsstunde, H = 5000 Stunden, i = 0,05%, VBU = 100 000 € und a = 0,2 ausgedrückt sei, dann ergibt sich:
CFS = 36 000 € · 1 – 1000 €·1 - 2 €
1 · 5000 H – 0,05 · 100 000 € – 0,2 · 100 000 € = 0 H
Der Cash-Flow-Saldo ist folglich im obigen Zahlenbeispiel ausgeglichen. Nehmen wir nun eine Reduzierung der Löhne und des Preisniveaus auf 0,5 an, also eine Deflationsrate von 50% (in den 1930er Jahren wurde in vielen Ländern fast dieser Wert erreicht), und unterstellen, dass die Produktion mengenmäßig unverändert bleibt, dann ergibt sich: CFS = 36 000 € · 0,5 - 1000 €·0,5 - 1 €
1 · 5000 Stunden - 0,05 · 100 000 € – 0,2·100 000 € H
CFS = -12 500 € Die Deflation hat für den Unternehmenssektor ein beachtliches Cash-Flow-Defizit von 12250 € erzeugt. Selbst wenn der Zinssatz unrealistischerweise den Extremwert von Null annehmen und alle Kreditverträge sofort unverzinst blieben, würde sich noch ein Cash-Flow-Defizit von 7250 € ergeben. Das durch eine Deflation erzeugte Cash-Flow-Problem wird noch dadurch verstärkt, dass Deflationen durch ein fallendes Produktionsvolumen gekennzeichnet sind und die Beschäftigung in der Regel langsamer sinkt als die Produktion. Zudem ist zu erwarten, dass aufgrund der Nachfragedeflation das Preisniveau noch stärker sinkt als das Niveau der Geldlöhne. Unterstellen wir vor dem Deflationsprozess einen Bestand an Produktivvermögen von 120000€, eine Fremdfinanzierung von 100000€ und einem Eigenkapital von 20000€. Durch den Deflationsprozess von 50% sinkt der Wert des Produktivvermögens auf die Hälfte, also auf 60000€. Dies ergibt sich, da sowohl nach dem buchhalterischen Vorsichtsprinzip als auch dem Prinzip der Bewertung nach dem Wiederbeschaffungswert der Wert des Produktivvermögens dem Marktpreis der Kapitalgüter angepasst werden muss. Es ist leicht zu erkennen, dass der Unternehmenssektor in dem Beispiel nicht nur ein Liquiditätsproblem hat, sondern ein Solvenzproblem, da die Schulden durch die Deflation höher geworden sind als der Wert des Produktivvermögens. Wenn zwei Faktoren zusammentreffen, ist gegen eine umfassende Liquiditäts- und Solvenzkrise in der Ökonomie „kein Kraut gewachsen“: ein scharfer Deflationsprozess und eine hohe Verschuldung von ökonomischen Einheiten. Der wichtigste zerstörerische Effekt eines Deflationsprozesses liegt, wie aus-
Keynesianische Makroökonomie
455
geführt, in der Erzeugung einer massenhaften Zahlungsunfähigkeit von Unternehmen und anderen Schuldnern. Kreditketten reißen und führen zur Gefahr eines kumulativen Zusammenbruchs von Unternehmen und Banken. Die Deflation zerstört somit die Kohärenz des Vermögensmarktes und führt damit zu einer tiefen Krise der Ökonomie insgesamt. Nachfrage, Produktion und Beschäftigung kollabieren während eines Deflationsprozesses, das Niveau der Unsicherheit in der Ökonomie erhöht sich ins Unermessliche, jeder will Geld und Liquidität, keiner wünscht Waren oder langfristige Forderungstitel zu halten. Die Zentralbank kann durch niedrige Refinanzierungszinssätze den Deflationsprozess zu stoppen versuchen. Hat der Deflationsprozess jedoch eine gewisse Dynamik entwickelt, dann wird dies schwierig. Denn die Macht der Zentralbank ist asymmetrisch, sie kann die Realzinssätze immer nach oben treiben, jedoch bei einem Deflationsprozess nicht nach unten. Kernpunkte Änderungsraten des Preisniveaus verändern die Verwertungsraten von verschiedenen Vermögensarten unterschiedlich. Aktienvermögen, Produktivvermögen und Sachvermögen verändern sich grundsätzlich gleichgerichtet mit der Preisniveauänderungsrate. Bei Inflationen wird die Verwertung der Geldhaltung zerstört und bei Deflationen erhöht. Verzinsliches Geldvermögen kann bei einer Inflation durch die Anpassung des nominalen Zinssatzes seine Verwertung theoretisch unverändert lassen. Bei Deflationen kommt es zu einer potentiell sehr hohen Verwertung von verzinslichem Geldvermögen, da der nominale Zinssatz nicht negativ werden kann. Der Realzinssatz ist der um die Preisniveauänderungsrate korrigierte Nominalzinssatz und ergibt sich vereinfacht bei niedrigen Preisänderungsraten durch den Nominalzinssatz minus der Preisänderungsrate. Bei sehr hohen Inflationsraten (Hyperinflationen) ist es der Ausstieg der Vermögenshaushalte aus Geldvermögen generell, der den Inflationsprozess vorantreibt und die Geldfunktionen schrittweise erodieren lässt. Bei Deflationen sind die Erhöhung der Realschulden mit den damit verbundenen Liquiditäts- und Solvenzproblemen sowie die Schrumpfung der Güternachfrage die Faktoren, die zu einem kumulativen Zusammenbruch der Ökonomie führen. 4.5.4 Finanzmarktkrisen Fragestellung Wie entstehen Finanzmarktkrisen? Warum haben Finanzmarktkrisen systemischen Charakter und warum sind sie so kostspielig? Wie können Finanzmarktkrisen verhindert werden? Bei Finanzmarktkrisen sprechen wir an dieser Stelle nur über inländische Krisen des Finanzsystems, nicht über Währungskrisen, die in Kapitel 8.6.5 diskutiert werden.188 Jede Finanzmarktkrise hat ihren spezifischen historischen Verlauf und ihre spezifische Begründung. Folgend kann deshalb nur ein dürres Gerüst eines typischen Ablaufs einer Finanzmarktkrise beschrieben werden. Die Erklärung folgt in einer keynesianischen Tradition, die Erwartungen eine große Bedeutung beimisst. Die Neoklassik kann Finanzmarktkrisen nur als bedauerliche „Unfälle“ charakterisieren. An sich müssten deregulierte Finanzmärkte nach neoklassischer Sicht effizient sein und dürften nicht zu Krisen führen. Die Liste der Finanzmarktkrisen seit dem Bestehen des Kapitalismus ist zu lang, um über Unfälle reden zu können. Sie entstehen vielmehr in deregulierten Finanzsystemen endogen und können enorme ökonomische und soziale Kosten erzeugen.
188
Vgl. zu Finanzmarktkrisen auch Herr/Stachuletz (2008) und (2010). Klare Darstellungen der Entstehung und über den Verlauf von Finanzmarktkrisen finden sich in Minsky (1975), Shiller (2000), Goodhart (2005), Kindleberger (1996) oder Akerlof/Shiller (2008). Die Subprime-Krise ist in Stiglitz (2010) und Dullien/Herr/Kellermann (2011) beschrieben.
456
Keynesianische Makroökonomie
Der Aufbau einer Blase Der typische Prozess einer Finanzmarktkrise beginnt mit überschäumend optimistischen Erwartungen. Oft fällt dies zusammen mit spektakulären technologischen Veränderungen, so etwa der Ausbau der Eisenbahnen in den Jahren 1845/46 und 1873, die Entstehung der Massenproduktion in den 1920er Jahren oder die Internet-Blase in den 1990er Jahren. Auch das Ende eines Krieges, Eroberungen von Ländern oder eine Phase außerordentlich niedriger Zinssätze können zur Verbesserung des Zustandes des Vertrauens und zu Finanzmarktkrisen führen. Möglich ist auch, dass kein offensichtlicher Grund für eine Veränderung der Erwartungen zu finden ist. Die optimistischen Erwartungen führen zu verschiedenen gleichzeitig ablaufenden Prozessen. Es entwickelt sich erstens ein in der Regel starker realökonomischer Aufschwung mit hohen Investitionen, hoher Einkommensschöpfung und steigernder Konsumnachfrage. Die Banken und Vermögenshaushalte werden zweitens die realökonomische Investitionstätigkeit durch eine Kreditexpansion unterstützen, denn auch die Banken und Vermögenshaushalte werden von einem besseren Zustand des Vertrauens mitgerissen werden. Schließlich beginnen die Vermögenspreise zu steigen. Auf alle Fälle werden die Aktienpreise nach oben schießen, aber unter Umständen auch die Immobilienpreise, denn der Anstieg der Wachstumsrate des realen Sozialproduktes und der Beschäftigung sowie die guten Refinanzierungsbedingungen werden auch die Nachfrage nach privaten und gewerblichen Immobilien ansteigen lassen. Der Prozess kann sich natürlich nur entwickeln, wenn die Zentralbank von drastischen Zinserhöhungen absieht. Aber warum sollte sie dies in einer so positiven Entwicklungsphase tun? In einer solchen Phase gibt es eine Reihe von Rückkopplungsprozessen. Die im Rahmen einer Debatte von Finanzmarktkrisen relevanten sind die auf Vermögensmärkten. So verbessern sich bei steigenden Vermögenspreisen und einer Phase steigenden Sozialproduktes normalerweise die langfristigen Erwartungen weiter und treiben die Vermögenspreise ebenfalls weiter in die Höhe. Es kann zu „Informationskaskaden“ (Bikhchandani/Hirshleifer/Welch 1992) kommen: Ein Investor mit positiven Erwartungen kauft ein Vermögensobjekt und treibt dadurch den Vermögenspreis hoch. Andere Investoren, die zunächst keine positiven Erwartungen haben, sind aufgrund der Erhöhung des Vermögenspreises verunsichert. Sie wissen, dass sie sich täuschen können. Einige von ihnen verändern ihre Erwartungen und steigen nun in den Vermögensmarkt als Nachfrager mit ein. Der Vermögenspreis steigt weiter und immer mehr Anleger ändern ihre langfristigen Erwartungen und springen bei bereits steigenden Preisen auf den Zug auf. Man verdeutliche sich, wie schmerzhaft es sein muss, wenn andere über einen längeren Zeitraum (vielleicht Jahre) gutes Geld verdienen und selbst hat man diese Chancen zum Geldverdienen nicht genutzt. Shleifer (2000) fand heraus, dass insbesondere Manager von Investmentfunds und anderen Gesellschaften dem Trend folgen – selbst dann, wenn sie nicht von der Entwicklung der Vermögenspreise überzeugt sind. Denn wenn sie das Geldverdienen in einer Phase steigender Vermögen verpassen, werden sie als erfolglos gefeuert, während beim Zusammenbruch der Vermögenspreise alle betroffen werden und kein einzelner Manager verantwortlich gemacht werden kann. Diese Prozesse sind unabhängig von Spekulation. Die Kreditwürdigkeit des privaten Haushaltssektors verbessert sich aufgrund steigender Einkommen und zunehmender Beschäftigung. Die Kreditnachfrage nimmt in allen Bereichen der privaten Ökonomie deutlich zu und wird von Banken und anderen Gläubigern gerne bedient. Das Kreditsystem bläht sich in einer solchen Phase wie eine Ziehharmonika auf. Verstärkt wird dieser Prozess der Kreditexpansion durch steigende Vermögenspreise die einen doppelten Effekt haben. Einerseits steigt der Wert der Sicherheiten von Unternehmen und Haushalten an und damit die Kreditvergabebereitschaft der Kreditgeber, andererseits führt der positive Vermögenseffekt zu steigender Kreditnachfrage und im Zusammenwirken beider Effekte zu steigender Nachfrage auf den Güter- und Vermögensmärkten. Spekulation setzt in einer Phase steigender Vermögenspreise nahezu unweigerlich ein. Spekulanten haben einen kurzfristigen Zeithorizont. Sie kaufen Vermögensobjekte nicht aufgrund der langfristig zu erwartenden Rendite, sondern ausschließlich aufgrund der Erwartung eines Spekulationsgewinns bei kurzfristiger Wiederveräußerung nach weiter steigenden Vermögenspreisen. Durch Spekulation kön-
Keynesianische Makroökonomie
457
nen schnell große Vermögen akkumuliert werden, was die Spekulation vor allem mit Kredit anreizt. Spekulanten versuchen zu erraten, was die Masse der anderen Marktteilnehmer erwartet. Wenn Spekulanten erwarten, dass andere Wirtschaftssubjekte steigende Vermögenswerte erwarten, dann werden sie solche kaufen und die Vermögenspreise weiter nach oben treiben und dies selbst dann tun, wenn sie von mittel- und langfristig fallenden Kursen ausgehen. Dieses „Erwartungsspiel“ kann selbst innerhalb der Gruppe professioneller Spekulanten in höchst komplizierter Form gespielt werden. Keynes (1936, Kapitel 12) verglich die Spekulation mit einem Spiel, bei dem der gewinnt, der das Gesicht errät, das den meisten anderen Spielern am besten gefällt. Der Spieler bzw. Spekulant wird somit nicht das auswählen, was er als das beste Ergebnis erachtet, sondern wird sein Verhalten danach ausrichten, wie nach seiner Meinung die Mehrheit handelt. Nicht selten orientieren Spekulanten ihr Handeln an technischen Analyseverfahren, etwa Charttechniken, die implizit auf einer adaptiven Erwartungstheorie fußen.189 In diesem Fall werden vergangene Entwicklungen blind in die Zukunft fortgeschrieben, ein Verhalten, das als äußerst irrational angesehen werden muss. Schließlich gibt es computergestützte und damit automatisierte Formen des Handels.190 Wo schnell und ohne viel Arbeit viel Geld verdient werden kann, tummeln sich Schwindler unterschiedlicher Couleur, die Anlegern hohe Renditen versprechen. Charles Kindleberger (1996, Kapitel 5) beschreibt nicht ganz ohne Häme, wie in der Wirtschaftsgeschichte insbesondere in der Endphase von Vermögensmarktinflationen sich Gier und Betrügerei vermählen und die Preise von Vermögensobjekten in irreale Höhen treiben können.191 Nehmen wir alle Elemente einer Vermögensmarktinflation zusammen, dann ergibt sich, dass Preise auf Vermögensmärkten keinen stabilen Anker haben. Selbst die langfristigen Erwartungen werden nicht durch Fundamentaldaten bestimmt, sondern von vielfältigen auch außerökonomischen Faktoren und können großen Schwankungen unterliegen. Nimmt man die Spekulation dazu, die auf kurzfristigen Erwartungen basiert, dann darf man getrost annehmen, dass Vermögensmärkte durch Herdenverhalten gekennzeichnet sind, das auf der Grundlage sich verallgemeinerndern optimistischern und pessimistischern langfristigern Erwartungen und Spekulation beruht und zu kumulativen Preisblasen mit entsprechenden Kreditexpansionen tendiert.192 Man kann das Herdenverhalten mit dem Rattenfänger von Hameln vergleichen. Die Menschen laufen wie Lemminge hinter ihm her, selbst in den Abgrund. Da eine Vermögensmarktinflation immer mit einer Kreditexpansion einhergeht, gerät die Ökonomie während des Aufbaus der Vermögensmarktblase aufgrund der zunehmenden Fremdkapitalquoten in eine immer fragilere Konstellation. Erstens steigen die Vermögenspreise in Höhen, die zumindest im Nachhinein als irrational gelten müssen. Zweitens erhöhen sich Fremdkapitalquoten bei einer Vielzahl von ökonomischen Einheiten. Unternehmen, spekulative Fonds, private Haushalte etc. werden mit steigenden Verschuldungsgraden naturgemäß anfälliger für alle Arten von Schocks. Dies gilt bezüglich steigender Zinssätze, einbrechender Umsatzerlöse bis zum Risiko der Arbeitslosigkeit eines verschuldeten Privathaushaltes. Es steigen sowohl das Gläubigerrisiko als auch das Schuldnerrisiko an. Das Gläubigerrisiko drückt aus, dass den Gläubigern im Vergleich zu ihren Forderungen im Falle eines Zahlungsausfalls immer weniger Sicherheiten der Schuldner zur Verfügung stehen. Das Schuldnerrisiko erhöht sich, da die Schuldner einen immer höheren ex-ante fixierten Abfluss in ihrem Cash-Flow haben und immer kleinere Störungen zu Problemen beim Schuldendienst führen können.
189
Bei Charttechniken werden beginnend bei unterschiedlichen historischen Zeitpunkten gleitende Durchschnitte gebildet, die dann für die Anlageentscheidung herangezogen werden. 190 In diesem Fall wird auf Basis bestimmter Preissignale automatisch gehandelt. Beispielsweise wird automatisch verkauft, wenn der Preis stärker als 0,2 Prozent sinkt, und gekauft, wenn der Preis stärker als 0,4 Prozent steigt. 191 „In a boom, fortunes are made, individuals wax greedy, and swindlers come forward to exploit that greed” (Kindleberger 1996, S. 69). Kindleberger (1996, S. 68) zitiert W.C. Fields: „You can’ t cheat an honest man.“ 192 Die Unterstellung effizienter Finanzmärkte ist somit irreführend (vgl. Kapitel 4.2). Die so genannte verhaltensorientierte Finanzmarkttheorie zeigt dann auch, dass Finanzmärkte nicht effizient sind. Einen Überblick dazu gibt Shleifer (2000), siehe auch den klassischen Beitrag von Kahneman/Tversky (1979).
458
Keynesianische Makroökonomie
Deflation und Finanzmarktkrise In einer Phase zunehmender Fragilität der Ökonomie können vielfältige Faktoren schließlich zu einem Ende der Vermögensmarktinflation führen. Oftmals bewirkt eine Erhöhung der Zinssätze durch die Zentralbank ein Ende der Expansion. Denn Vermögensmarktinflationen können einhergehen mit Gütermarktinflationen, so dass die zinspolitisch durch die Zentralbank bekämpfte Gütermarktinflation auch die Vermögensmarktinflation zum Implodieren bringt. Denn ein steigender Zinssatz erhöht die Abzinsungsrate zukünftiger Cash-Flows und senkt damit den Wert von Vermögensobjekten (vgl. Kapitel 4.3.4). In vielen Fällen sind es exogene Faktoren, die einen Stimmungswandel auslösen. Oftmals lässt sich kein überzeugender Grund finden. Wie dem auch sei, jede Vermögensblase kommt zu ihrem Ende, auch wenn nicht theoretisch abgeleitet werden kann, wann dies der Fall ist. Wenn eine zunehmende Anzahl von Anlegern zu der Überzeugung gekommen ist, dass ein weiterer Anstieg der Vermögenspreise nicht zu erwarten ist, erreicht eine Vermögenspreise ihren Höhepunkt. Einsetzende Verkäufe von Vermögen führen dann zu einem Fallen der Vermögenspreise. Es kommt dann typischerweise zu einem generellen Erwartungsumschwung aller auf dem Vermögensmarkt Agierenden. Es entwickelt sich eine Vermögensmarktdeflation häufig verbunden mit Panik auf den Vermögensmärkten. Denn die Logik von Vermögensmärkten impliziert, dass nur die Anleger (relativ) ungeschoren aus einer Vermögensblase herauskommen, die ihre Vermögenswerte schnell verkaufen. Bleiben sie auf den Vermögenswerten sitzen, dann erleiden sie Verluste. Aber die Vermögensbestände verschwinden zumindest in dieser Phase nicht, sondern jemand muss sie halten. Es ist nach Keynes (1936, Kapitel 12) wie beim Spiel „Reise nach Jerusalem“. Wenn die Musik zu spielen aufhört, stehen welche ohne Stuhl da. Diese Logik von Vermögensmärkten führt dazu, dass alle verkaufen wollen und die Preise von Vermögensmärkten dann in einem kumulativen Prozess fallen. Fallende Vermögenspreise bringen Schuldner – Unternehmen, Haushalte, Finanzinstitutionen und Spekulanten – in Liquiditäts- oder gar Solvenzprobleme, während gleichzeitig das Finanzsystem seine Kreditvergabe aufgrund plötzlicher und eklatanter Vertrauensprobleme, abschreibungsbedingter Verluste aufgrund fallender Vermögenspreise und der Angst vor neuen offenen Risikopositionen bei Ausreichung neuer Kredite reduziert. Wie beim Aufbau der Vermögensmarktblase gibt es auch beim Zusammenbruch starke Rückkopplungseffekte: Vermögensobjekte sinken rasch in ihrem Wert, da langfristige und kurzfristige Erwartungen im Verlaufe der Senkung der Preise immer pessimistischer werden können. Typischerweise kommen Schuldner aufgrund mangelnder Refinanzierungsmöglichkeiten ihrer häufig absurd überzogenen Verbindlichkeitspositionen in immer größere Probleme und bringen durch Notverkäufe von Vermögen die Preise weiter in Trudeln. Gleichzeitig schrumpft das Eigenkapital von Finanzinstitutionen aufgrund zunehmender Abschreibung fauler Kredite. Weiter fallende Vermögenspreise erschweren zunehmend die Refinanzierung der Schuldner, die Kreditvergabe droht zu kollabieren. In dieser Phase zieht sich das Kreditsystem wie eine Ziehharmonika wieder zusammen. Diese Phase ist gewöhnlich mit dem Zusammenbruch von Unternehmen, Spekulanten und von Finanzinstitutionen verbunden, zumindest kommen diese Sektoren unter Druck. Je stärker die Vermögensmarktinflation und Kreditexpansion beim Aufbau der Blase, desto stärker wird die Vermögensmarktdeflation sein und mit ihr der Stress im Finanzsystem. Die Investitionsnachfrage bricht zusammen und damit auch die Einkommensschöpfung und Konsumnachfrage. Es entwickelt sich ein Abschwung mit sinkender Beschäftigung. Dies bewirkt zunehmende Probleme für überschuldete Unternehmen, Haushalte und Finanzinstitutionen. Nicht jede Vermögensmarktdeflation muss zu einer systemisch relevanten Kreditkrise führen. Oftmals kommt es nur zu einem Anstieg von Insolvenzen und fauler Kredite, die nicht zu einer Finanzmarktkrise führen. Aber es ist nicht auszuschließen, dass die Finanzprobleme so groß werden, dass der Zusammenbruch von Schuldnern zu einer systemischen Krise im Finanzsystem führt. Eine Finanzmarktkrise wird so definiert, dass es innerhalb des Finanzsystems zu Ansteckungseffekten kommt: Kreditketten reißen, die Kreditvergabe wird radikal eingeschränkt. Selbst die Kreditvergabe zwischen Finanzinstituten kann zum Erliegen kommen. In einer Finanzmarktkrise sind hohe realökonomische Kosten schwer-
Keynesianische Makroökonomie
459
lich auszuschließen. Denn eine Finanzmarktkrise führt zur Reduzierung oder gar zum Zusammenbruch der Finanzierung von Unternehmen und privaten Haushalten. Eine Katastrophe ist es, wenn die Vermögensmarktdeflation zu einer Gütermarktdeflation führt. Denn eine Gütermarktdeflation führt zu einer Erhöhung der realen Schuldenlast aufgrund des sinkenden Preisniveaus und treibt auch Schuldner, die bei der Abwesenheit einer Gütermarktdeflation keine Finanzprobleme haben, in den Ruin (vgl. Kapitel 4.5.3). Hohe Schuldenbestände und eine Gütermarktdeflation verschärfen eine Finanzmarktkrise entscheidend und führen unweigerlich zu einer systemischen Finanzmarktkrise. Jener Irving Fisher, der als Quantitätstheoretiker die langfristige Neutralität des Geldes betonte, vergleicht den Deflationsprozess mit einem Boot, das sich in rauem Wasser immer stärker aufschaukelt – bis es unweigerlich kippt. Denn selbst wenn Schuldner unter dem Druck ihrer Gläubiger ihre nominalen Schulden durch Notverkäufe und Reduzierung ihrer Ausgaben zurückzahlen, so können doch gleichzeitig die realen Schuldenbestände ansteigen. Dies war der Fall in der Großen Depression der 1930er Jahre.193 Gütermarktdeflationen entstehen, wenn sich eine Nachfrageschwäche auf den Gütermärkten mit sinkenden Lohnstückkosten verbindet. Denn reißt der nominelle Lohnanker, dann ist der Weg in eine Deflation geebnet. Aus diesem Grunde sind Gewerkschaften, die sich gegen nominelle Lohnsenkungen stellen, und Arbeitsmarktinstitutionen wie gesetzliche Mindestlöhne von zentraler Bedeutung für die Verhinderung einer Deflation und damit auch systemischen Finanzmarktkrise. Denn die Macht der Zentralbank ist asymmetrisch. Sie kann inflationären Entwicklungen mit ihrer Geldpolitik begegnen, sie ist bei der Deflationsbekämpfung jedoch schwach, da sie den nominellen Zinssatz nicht negativ werden lassen kann. Das Finanzsystem kann sich alleine nicht aus einer sich laufend verschärfenden Finanzmarktkrise befreien. Staatliche Politiken sind notwendig. Die Zentralbank muss ihre Funktion als Lender of Last Resort erfüllen. Es war Walter Bagehot (1920), der klar herausarbeitete, dass in einer Finanzmarktkrise die Zentralbank den Banken unbegrenzt Kredite zur Verfügung stellen muss. Wenn Private das Kreditvergeben in einer Finanzmarktkrise einstellen, muss die Zentralbank entgegengesetzt zu dieser Logik agieren, ansonsten führt eine Finanzmarktkrise in eine ökonomische Katastrophe. Möglicherweise muss der Staat Banken rekapitalisieren (eine Bailout-Politik verfolgen), wenn ihr Eigenkapital negativ oder zu gering geworden ist.194 Das Problem der Finanzmärkte und die Notwendigkeit der Regulierung Bei Finanzmarktkrisen, die selbstredend immer mit Vermögensmärkten verbunden sind, spielen vier Faktoren zusammen. Erstens haben Vermögensmärkte keinen stabilen Anker für ihre Preisentwicklung. Der Bestand an Vermögen ist zumindest kurzfristig gegeben, während sich die Nachfrage nach Vermögen schnell erwartungsbedingt verändern kann. Die Folge ist, dass es bei Veränderungen der Erwartungen zu heftigen Preisreaktionen auf Vermögensmärkten kommt. Steigt beispielsweise die Nachfrage nach Aktien, dann steigt der Aktienpreis, da die Emission neuer Aktien nur eine sehr geringe Rolle spielt. Steigen Immobilienpreise, so wird zwar mittelfristig ein Bauboom ausgelöst, jedoch kurzfristig ist das Angebot an Immobilien relativ fix. 193
Vgl. Fisher (1933, S. 344), der den Prozess der Deflation so beschrieb: „The very effort of individuals to lessen their burden of debt increases it, because of the mass effect of the stampede to liquidate in swelling each dollar owed. Then we have the great paradox which I submit, is the chief secret of most, if not all, great depressions: The more the debtor pay, the more they owe. The more the economic boat tips, the more it tends to tip. It is not tending to right itself, but is capsizing.” 194 Es ist hier nicht der Platz im Detail zu diskutieren, wie eine Bailout-Politik aussehen soll. Jedoch sollten allein schon aus Gründen, richtige Anreize zu setzten, die Aktionäre und das Top-Management nicht ungeschoren aus der Krise herauskommen. Wenn der Staat helfen muss, dann sollte er entsprechende Anteile am Eigentum erhalten. Dies ist der günstigste Weg, da später die Anteile wieder verkauft werden können. Auch kann der Staat Einfluss auf die Geschäftspolitik des Instituts nehmen, die offensichtlich versagt hat.
460
Keynesianische Makroökonomie
Zweitens kann die Nachfrage nach Vermögenswerten explosionsartig steigen. Dies ist der Fall, da große Vermögensbestände umgeschichtet werden können, etwa von Bankeinlagen in Aktien. Noch wichtiger ist, dass durch die Kreditexpansion des Bankensystems, das wiederum von der Zentralbank refinanziert wird, die Nachfrage nach Vermögensbeständen schnell und enorm ansteigen kann. Da Kreditund Geldschöpfung „aus dem Nichts“ erfolgen, hat das volkswirtschaftliche Kreditvolumen ebenfalls keinen stabilen Anker. Drittens ist das Finanzsystem durch ein Agency-Problem gekennzeichnet, hinter dem das Problem asymmetrischer Informationen steckt.195 Asymmetrische Informationen bedeuten, dass Gläubiger und Schuldner unterschiedliche Informationen haben. Vermögenshaushalte überlassen ihr Vermögen Banken, die dieses dann anlegen. Neben Banken gibt es eine große Zahl von Nichtbankfinanzintermediären, die weitaus weniger reguliert sind als Banken und eine hohe Risikoorientierung aufweisen. Haushalte oder auch andere ökonomische Einheiten überlassen auch diesen Intermediären ihre Vermögen. Die Bankmanager, Fondsmanager etc. handeln dann als Vertreter (als Agents), die das Geld anderer anlegen. Oftmals wird eingelegtes Geld mehrfach weitergereicht, so dass sich das Agency-Problem potenziert. Beispielsweise kauften europäischen Investoren vor dem Platzen der Subprime-Krise in den USA im Jahre 2007 Immobilienkredite an US-amerikanische Haushalte. Über die Qualität dieser Kredite hatten sie kaum Informationen. Um zu garantieren, dass die Manager bzw. Agents nach den Interessen der Einleger handeln, wird die Entlohnung der Manager in aller Regel von der Rendite abhängig gemacht, die sie erzielen. Aber solche Vergütungsregeln sind ein zweischneidiges Schwert. Denn Finanzmanager handeln zunächst einmal nach ihrem Interesse. Sie können dabei nicht nur ihr Einkommen maximieren196, sondern es liegt nahe, dass sie mit fremdem Geld äußerst risikoreich agieren. Denn wenn die risikoreiche Anlage erfolgreich ist, wird dies für den Manager reichlich belohnt, wenn die Anlage misslingt, dann verliert der Manager nichts. Auch kann ein Manager eine Strategie verfolgen, die kurzfristig hohe Renditen erbringt, aber langfristig wenig vorteilhaft ist. Mit eigenem Geld würde ein Finanzmanager solche Strategien nicht verfolgen. Viertens ist das Finanzsystem durch negative externe Effekte gekennzeichnet (vgl. zu externen Effekten Kapitel 2.11). Negative externe Effekte implizieren, dass das Handeln einer Wirtschaftseinheit andere Wirtschaftseinheiten ohne deren Einwilligung schädigt. Bei systemischen Finanzmarktkrisen sind negative externe Effekte das Grundproblem. Denn das risikoreiche Verhalten eines einzelnen Akteurs wirkt dann, wenn die Anlage misslungen ist, nicht nur auf den Investor zurück, sondern auf das gesamte Finanzsystem. Dies führt unter anderem dazu, dass ein Investor davon ausgehen kann, dass staatliche Interventionen das Finanzinstitut bei Problemen retten, um das Finanzsystem insgesamt zu retten. Die Erwartung eines solchen Bailouts führt dazu, dass die Gewinne privatisiert und die Verluste sozialisiert werden und die Risikobereitschaft von Finanzinstituten weiter angeregt wird.197 Als Konsequenz aus der obigen Analyse ergibt sich, dass Finanzmärkte strikt reguliert werden müssen – anderenfalls führen sie zu großem Schaden für die Gesamtökonomie und kommen nicht ihrem Auftrag nach, die realökonomische Entwicklung zu unterstützen. Finanzmarktregulierung hat viele Facetten, die hier nicht aufgeführt werden können.198 Deshalb sollen hier nur einige Prinzipien genannt werden. Vermögensmarktinflationen werden in kapitalistischen Ökonomien niemals gänzlich zu verhindern sein. Solange die Vermögensmarktinflation nicht exzessiv ist und vor allem solange sie nicht mit einer Kreditexpansion einhergeht, ist sie wenig gefährlich. Wichtig für die Stabilität von Finanzmärkten ist, 195
Diesen und den nächsten Punkt betont Stiglitz (2010). Die Einkommen der Manager insbesondere im Finanzsystem haben sich die letzten Jahrzehnte auf obszöne Weise erhöht, auch auf Kosten der Aktionäre und Vermögenshaushalte generell (Piketty/Saez 2006). 197 Aus diesem Grunde ist es im Falle staatlicher Hilfen für Finanzinstitute von elementarer Bedeutung, dass die Aktionäre die Verluste ihres Unternehmens tragen müssen und das verantwortliche Management ohne „goldenen Handschlag“ ausgewechselt wird. Nach dem Desaster der Subprime-Krise und dem massiven Bailout von Finanzinstituten ist dies allerdings entgegen marktwirtschaftlicher Regeln nicht geschehen (vgl. Stiglitz 2010). 198 Vgl. zur Finanzmarktregulierung Stiglitz/Greenwald (2003), Dullien/Herr/Kellermann (2011) und Herr (2011). 196
Keynesianische Makroökonomie
461
dass das Geschäftsbankensystem selbst nur begrenzt oder auch gar nicht auf Aktienmärkten und anderen spekulativ orientierten Märkten aktiv sein kann, also keinen Eigenhandel betreiben darf. Auch muss es dem Geschäftsbankensystem untersagt werden, Kredite an ökonomischen Einheiten zu geben, die auf Aktienmärkten und anderen Vermögensmärkten mit hohen Risiken agieren. Es kann nicht sein, dass beispielsweise das Geschäftsbankensystem sich bei der Zentralbank refinanziert und Kredite an risikoorientierte und spekulative Nichtbankfinanzintermediäre weiterreicht, die dann mit Kredit Vermögensmarktblasen vorantreiben oder initiieren. Nichtbankfinanzintermediäre dürfen sich nur beim Publikum finanzieren. Dies garantiert, dass dieser Sektor des Finanzsystems relativ klein bleibt und keine systemische Relevanz erhält. Für die Finanzierung risikoreicher Aktivitäten im produktiven Bereich, beispielsweise neuer Innovationen mit unsicherem Erfolg, reicht ein kleiner Sektor von Nichtbankfinanzintermediären aus.199 Für Immobilienmärkte bieten sich aufgrund ihrer gesamtökonomischen und sozialen Relevanz spezifische Regulierungen an, welche die Immobilienfinanzierung vom Rest der Finanzmärkte abschotten. In den Jahrzehnten nach dem Zweiten Weltkrieg war dies in allen westlichen Industrieländern der Fall, wobei die Institutionalisierungen durchaus unterschiedlich waren. Alle Finanzinstitutionen müssen überwacht werden und Regulierungen unterliegen. Dies schließt eine Offenlegung des Geschäftsmodells, der Geschäfte und eine Mindestsumme an Eigenkapital im Verhältnis zum Geschäftsvolumen ein. Gleiche Funktionen im Finanzsystem müssen unabhängig von der Rechtsform gleich überwacht werden. Wenn ein Nichtfinanzintermediär die Funktion einer Geschäftsbank übernimmt, muss er wie eine Geschäftsbank überwacht werden. Ansonsten sind Umgehungsstrategien zu erwarten. Finanzinnovationen können von Vorteil sein, sie können jedoch auch das systemische Risiko von Finanzsystemen erhöhen. Sie sollten nur Verwendung finden, wenn sie, analog zur Genehmigung von Arzneimitteln, von einer Aufsichtsbehörde zugelassen sind.200 Kernpunkte Vermögensmarktinflationen sind durch optimistische Erwartungen und Spekulation getrieben. Sie gehen typischerweise einher mit einer Kreditexpansion, die nicht nachhaltig ist. Eine starke kreditgetriebene Vermögensmarktinflation führt zur Finanzmarktkrise, wenn sie einer Vermögensmarktdeflation weicht. Denn fallende Vermögenspreise führen zur Zerstörung von Eigenkapital und zu Liquiditäts- und Solvenzproblemen. Schuldner brauchen in der Phase fallender Vermögenspreise neue Kredite, aber das Finanzsystem schränkt seine Kreditvergabe in dieser Phase ein. Kommt zur Vermögensmarktdeflation eine Gütermarktdeflation hinzu, dann ist eine sehr tiefe Finanzmarktkrise aufgrund der Erhöhung der realen Schulden kaum zu vermeiden. Finanzmarktkrisen haben systemischen Charakter. Aufgrund von Kreditverflechtungen führt der Fall eines Finanzinstituts zum Fall anderer. In der Panik einer Finanzmarktkrise werden selbst davor alltägliche Kreditgeschäfte, etwa die zwischen Banken, eingestellt. Finanzmärkte sind durch einen fehlenden Anker beim Preis von Vermögen und bei der Kreditvergabe sowie durch Agency-Probleme (Finanzmanager investieren fremdes Geld) und negative externe Effekte (beispielsweise Ansteckungseffekte) gekennzeichnet. Angesichts dieses Sachverhalts kann nur ein strikt reguliertes Finanzsystem Stabilität garantieren. 199
Der im Rahmen des New Deals in den USA in den 1930er Jahren eingeführte Glass-Steagall Act hatte als Kernpunkt eine Mauer zwischen dem Geschäftsbankensystem und dem Rest des Finanzsystems. Dieses Gesetz garantierte für ein halbes Jahrhundert Finanzmarktstabilität in den USA. Ab den 1980er Jahren wurde das Gesetz im Rahmen der Finanzmarktderegulierungen schrittweise abgeschafft. 200 Es gibt weitere Punkte: Derivate sollten nur auf organisierten Märkten gehandelt werden; Ratingagenturen sind zu überwachen; der Weiterverkauf von Bankkrediten seitens der Geschäftsbanken ist zu begrenzen; Buchführungsregeln sollten dem Vorsichtsprinzip folgen; Finanzgeschäfte mit Offshore-Zentren mit ungenügender Finanzmarktregulierung sind zu verbieten; Finanzinstitute, die Kreditausfallrisiken versichern, sind strikt zu überwachen, etc.
462
Keynesianische Makroökonomie
4.6 Die funktionale Einkommensverteilung Fragestellung Wie erklärt das keynesianische Paradigma die Verteilung des Einkommens bzw. die Lohn- und die Profitquote? Wie wird das Niveau der Reallöhne im keynesianischen Paradigma erklärt? Spielt die Nachfrage-Angebots-Konstellation auf dem Gütermarkt für die Verteilung eine Rolle? Im klassischen Paradigma einschließlich Karl Marx wird die funktionale Einkommensverteilung durch das Setzen des Reallohnes bzw. der Summe der Reallöhne gelöst, wobei der Profit sich dann als Restgröße (als Überschuss über die Löhne) der Einkommensschöpfung ergibt. Ein Element der Einkommensverteilung sind im klassischen Paradigma Verteilungskämpfe zwischen Arbeit und Kapital, wobei nach der Klassik die Kapitalseite letztlich am längeren Hebel sitzt, da steigende Löhne die Profite und damit die Investitionstätigkeit und das Wachstum senken. Dadurch entsteht Arbeitslosigkeit, welche die Marktmacht der Arbeitnehmer senkt. Das neoklassische Paradigma sieht die Einkommensverteilung als durch die marginalen Grenzproduktivitäten der verschiedenen Inputs im Produktionsprozess geregelt. Jeder physische Produktionsfaktor bekommt seinen gerechten Teil entsprechend seiner Grenzproduktivität. Im keynesianischen Paradigma wird die Verteilungsfrage auf eine dritte Art gelöst. Wie in der Klassik wird ein so genannter Freiheitsgrad der Verteilung angenommen. Dies bedeutet, dass die Verteilung nicht durch (marginale) Produktivitäten gegeben wird, sondern relativ offen ist. Allerdings wird nicht der Reallohn vorgegeben und es resultiert dann ein Profit als Überschuss. Die Profitrate wird vorgegeben und die Reallöhne ergeben sich dann als daraus resultierende Größe. Die Profitrate wird auf dem Vermögensmarkt bestimmt und wird von den Unternehmen als zu erwirtschaftende Rate angesehen, die sie realisieren müssen. Wir werden folgend zunächst die Einkommensverteilung im keynesianischen Ansatz innerhalb einer statischen Gleichgewichtsanalyse untersuchen und dabei auch auf spezifische Veränderungen auf den Vermögensmärkten eingehen. Danach wird die Einkommensverteilung im dynamischen Kontext untersuchen. Wir beschränken uns hier auf die funktionale Einkommensverteilung, die von der personellen zu trennen ist, da Haushalte Einkommen aus verschiedenen Quellen bekommen können. Auch sehen wir von staatlichen Umverteilungsmaßnahmen ab. Die funktionale Einkommensverteilung im Gleichgewicht Die Analyse der Lohninflation zeigte, dass Veränderungen des Lohnniveaus nicht die Verteilung tangieren, sondern auf das Preisniveau wirken. Die Konsequenz ist, dass über die Verteilung des Volkseinkommens nicht auf dem Arbeitsmarkt entschieden wird. Zwischen der Entwicklung der Geldlöhne und der Entwicklung der Reallöhne gibt es auf makroökonomischer Ebene ebensowenig eine Beziehung wie zwischen der Geldlohnentwicklung und der Einkommensverteilung. Dieser Tatbestand ist mit der Beobachtung vereinbar, dass die Lohnquote als wichtiger Maßstab der Primärverteilung trotz heftiger Schwankungen bei der Entwicklung der Geldlöhne über die Jahrzehnte längerfristig in allen Geldwirtschaften erstaunlich stabil ist. Dies soll nicht heißen, dass die Lohnquote sich nicht ändern kann, nur hängt dies nicht an der Lohnentwicklung. Welche Faktoren bestimmen dann aber die Verteilung des Einkommens? Dies lässt sich leicht zeigen. Das Volkseinkommen (Y) entspricht Löhnen (W) plus Profite (Q). Die Profite sind wiederum durch die Profitrate (q) multipliziert mit dem Bestand an Produktivvermögen (PV) definiert. Es gilt somit: Y=W+Q
bzw.
Y = W + q · PV
Keynesianische Makroökonomie
463
⎛ PV ⎞ Dividieren wir die Gleichung durch Y, definieren ⎜ ⎟ = k als Kapitalkoeffizient201 und stellen nach ⎝ Y⎠ ⎛W ⎞ der Lohnquote ⎜ ⎟ um, dann ergibt sich: ⎝ Y⎠ ⎛W ⎞ ⎜ ⎟ =1-q·k ⎝ Y⎠
(4.18)
Diese Gleichung ist eine Tautologie, die jedoch einer theoretischen Interpretation im Rahmen des keynesianischen Paradigmas dienlich ist. Geht man von einer Hierarchie der Märkte aus, wird die Profitrate auf dem Vermögensmarkt bestimmt. Die Profitrate hat für den Güter- und Arbeitsmarkt einen exogenen, von außen vorgegebenen Charakter.202 Damit wird die Profitrate in Gleichung (4.18) zur unabhängigen Variablen der Einkommensverteilung. Sie bestimmt zusammen mit dem Kapitalkoeffizienten die Lohnquote. Der Kapitalkoeffizient ist technologisch bestimmt und entzieht sich einer Steuerung. Anders sieht es mit der Profitrate aus, die verändert werden kann und im historischen Kontext bestimmt wird. Aus diesem Grunde konzentrieren wir uns folgend auf die Bestimmung der Profitrate. Hören wir die verteilungstheoretischen Vorstellungen von Keynes: „Ich neige daher zu der vorklassischen Lehre, dass alles durch Arbeit erzeugt wird; unterstützt durch das, was man früher Kunst zu nennen pflegte, und jetzt Technik genannt wird.“ (Keynes 1936, S. 179) Jedoch erhält die Arbeit nicht die gesamte Neuwertschöpfung. Denn wenn „der Zinsfuß Null übersteigt, wird ein neues Kostenelement eingeführt“ (Keynes 1936, S. 181). Der Zinssatz kann als eine Art „Vermögenssteuer“ auf Produktivkapital aufgefasst werden, die auf die Preise überwälzt wird. Die Höhe des Zinssatzes bestimmt dann nach Keynes, wie viel Einkommen für den Produktionsfaktor Arbeit übrig bleibt. Die Höhe des Zinssatzes wird nicht durch eine objektive Größe wie etwa die physische Grenzproduktivität von Kapitalgütern gesteuert. Das Zinsniveau ist somit auf einer fundamentalen theoretischen Ebene nicht bestimmbar und kann in verschiedenen historischen Epochen unterschiedliche Niveaus annehmen. Keynes (1936, Kapitel 17) unterstellt eine Ökonomie mit einer exogen gegebenen Geldmenge, wobei die Geldmenge von den Vermögenshaushalten gehalten wird. Unternehmen sind gezwungen, bei einer Kreditaufnahme bei den Vermögenshaushalten Kredite aufzunehmen. Die Geldhaltung bringt den Vermögenshaushalten in einer unsicheren Welt eine Liquiditätsprämie (vgl. dazu Kapitel 4.2.3 und 4.3.3). Die marginale Liquiditätsprämie fällt nur sehr langsam und kann theoretisch auf einem gewissen Niveau verharren. Die Vermögenshaushalte werden nur Kredite vergeben, wenn der Zinssatz höher ist als die marginale Liquiditätsprämie. Letztlich wird der Zinssatz durch die marginale Liquiditätsprämie auf Geld bestimmt. Unternehmen, die Kredite nehmen, investieren in Produktivkapital. Keynes nimmt nun an, dass die Verwertung von Produktivvermögen auf den Zinssatz absinkt, wenn der Bestand an Produktivvermögen steigt. Damit gibt es eine klare Kette von der marginalen Liquiditätsprämie auf Geld (lG) über den Zinssatz (i) zur Profitrate (q), wobei die marginale Liquiditätsprämie auf Geld den Zinssatz und die Profitrate bestimmt. Es gilt somit: (4.19)
lG = i = q
Wenn staatliches Geld nicht ausreichend wertstabil ist, dann können andere knappe Vermögensobjekte bis hin zu Grundstücken eine Liquiditätsprämie haben und an diesem Punkt Geld ersetzen.
201
Es ist darauf zu achten, dass hier für unsere Zwecke k =
PV
ist. Im Kapitel 4.5 hatten wir den Kapitalkoeffizienten
Y
κ definiert. Somit ist k = . Yr P 202 Dies deckt sich mit der Argumentation von Sraffa (1976) in seinem Produktionspreismodell (vgl. Kapitel 3.3.2). Dort argumentiert er, dass die Verteilungsfrage durch die Vorgabe des Reallohns (in der Klassik) oder der Profitrate (Keynesianismus) geschlossen werden kann. als κ =
PV
464
Keynesianische Makroökonomie
Die Argumentation von Keynes muss an verschiedenen Punkten präzisiert bzw. erweitert werden. Erstens, die Annahme einer exogenen Geldmenge und die Funktion der Vermögenshaushalte als wichtige oder gar alleinige Gläubiger der Unternehmen können nicht überzeugen. Der Zinssatz wird, bei einem Ansatz mit endogener Geldmenge, durch den Refinanzierungszinssatz der Zentralbank und die Zinsspanne der Banken maßgeblich bestimmt. Damit muss man zur Zinsbestimmung nicht auf eine Liquiditätsprämie auf Geld zurückgreifen, die zwar eine Rolle spielt, aber nicht die so hervorgehobenen wie bei Keynes. Zweitens ist die Annahme nicht plausibel und auch nicht notwendig, dass die Profitrate mit steigendem Bestand an Produktivvermögen sinkt. Es ist ausreichend, um in der Logik von Keynes zu bleiben, zu unterstellen, dass die Unternehmen einen Profitaufschlag durchsetzen, der dem Zinssatz entspricht und zwar unabhängig vom Bestand an Produktivvermögen. Zinsen sind echte Kosten für die Unternehmen. Bei der Verwertung von Eigenkapital kann das Argument der Opportunitätskosten angewandt werden, da kein Unternehmen langfristig eine Profitrate unter der Zinsrate akzeptieren wird. Die Zinsrate ist somit zweifellos die Mindestprofitrate. Dies führt uns zum nächsten Punkt. Die Profitrate kann drittens höher sein als die Zinsrate. Dies hat nicht nur damit zu tun, dass es monopolistische und oligopolistische Strukturen gibt, die zu höheren Profitraten führen können, sondern auch die allgemeine Gleichgewichtsprofitrate kann über der Zinsrate liegen. Wenn das Finanzsystem an Macht gewinnt und die Unternehmen gedrängt werden, ihre Profitrate zu erhöhen, so wird dies auch geschehen. Da die Profitrate nicht von objektiven Faktoren wie der Produktivität des Kapitals abhängt, kann sich die Konvention, wie hoch die Profitrate ist, ändern. Das Argument ist mit dem von Keynes vereinbar. Wenn wir den Renditeanspruch des Finanzsystems (lfin) für die Liquiditätsprämie setzten, dann kann dieser Anspruch direkt zur höheren Profitrate führen, denn es gilt dann lfin = q. Veränderungen im Finanzsystem und erhöhter Renditeanspruch Während der letzten Jahrzehnte hat sich das Finanzsystem grundlegend gewandelt. Das marktfundamentale Deregulierungsprojekt, das in den 1970er Jahren begann und in den 1980er Jahren an Fahrt aufnahm, hat die Rolle und Macht der Finanzmärkte stark ansteigen lassen. Die funktionale Einkommensverteilung hat sich in fast allen westlichen Ländern zum Nachteil der Lohnabhängigen verändert. Die wichtigsten Dimensionen der Veränderungen sollen kurz angesprochen werden (Hellwig 2008, Dullien/Herr/Kellermann 2011). a) Abbau von Segmentierungen im Finanzsystem. Die Trennung der Geschäftsbeziehungen zwischen Geschäftsbanken und Nichtbankfinanzintermediären war einer der zentralen Regulierungen des Finanzsystems in angelsächsischen Ländern, die nach der Weltwirtschaftskrise in den 1930er Jahren im Rahmen des New Deals etabliert wurde. In Kontinentaleuropa gab es diese Trennung nicht, jedoch war in diesen Ländern das Finanzsystem geschäftsbankenzentriert. Nichtbankfinanzintermediäre sowie Aktienmärkte spielten faktisch keine Rolle. Die Mauer zwischen Geschäftsbanken und Nichtbankfinanzintermediären wurde aufgehoben. Durch steigende Kreditbeziehungen zwischen den Geschäftsbanken und den Nichtbankfinanzintermediären wurde ein Schattenfinanzsystem genährt, das beständig an Bedeutung gewann. In Kontinentaleuropa entwickelte sich nach Deregulierungen ebenfalls ein solcher Sektor. Zudem wurde der Markt für Immobilienkredite, der in allen westlichen Finanzsystemen nach dem Zweiten Weltkrieg ein spezifischer und abgeschotteter war, mit dem Rest des Kreditmarktes verbunden. b) Steigende Bedeutung von Nichtbankfinanzintermediären. Verschiedene Punkte sind hier von Relevanz. Erstens gewannen Investmentbanken203, Hedge-Fonds204, Private-Equity-Fonds205 etc. an Rele203
Investmentbanken organisieren die Finanzierung von Unternehmen und anderen ökonomischen Einheiten über die Ausgabe von verzinslichen Wertpapieren und neuer Aktien. Sie entwickeln Finanzprodukte (mischen beispielsweise verschiedene Forderungsarten in einem Werpapier), organisieren und finanzieren Verschmelzungen von Unternehmen, feindliche und freundliche Übernahmen von Unternehmen und ähnliche Aktivitäten.
Keynesianische Makroökonomie
465
vanz oder sind überhaupt erst entstanden. Diese Finanzinstitutionen sind risikofreudiger als traditionelle Banken; sie haben oftmals nur den Zweck, möglichst schnell mit Finanzmarktaktivitäten viel Geld zu verdienen. Diese Finanzinstitutionen agieren zweitens mit in der Regel sehr hohen Kredithebeln. Drittens – und dies verstärkt die ersten zwei Tendenzen – sind Institute im Schattenfinanzsystem weniger reguliert als Geschäftsbanken. Nimmt man die Finanzgeschäfte hinzu, die über Offshore-Zentren oder nicht offiziell organisierte Börsen abgewickelt werden, dann hat sich ein gigantisches Schattenfinanzsystem ohne adäquate Regulierung entwickelt, dass sich durch Kredite von Geschäftsbanken an das Schattenfinanzsystem gigantisch aufgebläht hat (Krugmann 2009, S. 161). Viertens, die Funktionsweise des Schattenfinanzsystems hat das Verhalten der Geschäftsbanken verändert, die nun ebenfalls risikoreicher agieren. So haben Geschäftsbanken außerhalb ihrer offiziellen Bilanzen Zweckgesellschaften gegründet, die ähnliche Geschäfte durchführen wie Investmentbanken. Geschäftsbanken wollten auch am großen Renditekuchen der Nichtfinanzintermediäre teilhaben. Fünftens sind mächtige institutionelle Investoren in der Form von Pensionsfonds und Versicherungen entstanden. Zwar sind diese Institutionen stärker reguliert als andere Nichtbankfinanzintermediäre, aber auch diese Institutionen tummeln sich auf allen Vermögensmärkten und wollen möglichst hohe Renditen erwirtschaften. c) Verbriefung von Krediten. Verbriefung an sich ist ein altes Finanzinstrument und erleichtert die Übertragung von Forderungen. Da verbriefte Kredite auf Sekundärmärkten gehandelt werden, erhöht sich durch Verbriefung die individuelle Liquidität. Allerdings nimmt die Liquidität im Finanzsystem insgesamt nicht zu, da nicht alle gleichzeitig ihre Kreditforderungen verkaufen können. Verbriefung verschärft das Agency-Problem (vgl. Kapitel 4.5.4), da der erste Kreditgeber einen Anreiz hat, nicht auf die Qualität des Kredits zu achten, wenn er den Kredit an andere verkaufen kann. Wird ein Kredit mehrmals weitergereicht und möglicherweise tranchiert und mit anderen Krediten gemischt, dann kann der letzte Halter der Forderung die Qualität des Kredits nicht mehr einschätzten. Ratingagenturen, ein Oligopol privater Unternehmen, sind nicht in der Lage, Wertpapiere adäquat einzuschätzen, zumindest war dies in der Vergangenheit der Fall. d) Dazu kommen die Deregulierung des internationalen Kapitalverkehrs und die Vernetzung der Finanzmärkte weltweit. Neben diesen ordnungspolitischen Veränderungen haben sich im Finanzsystem Praktiken etabliert, die das System zusätzlich instabiler gemacht haben. Zuerst ist die zunehmende Bedeutung quantitativer Risikomodelle zu nennen, die in allen Bereichen des Finanzsystems auf dem Vormarsch waren. Diese Modelle, die theoretisch auf dem Ansatz rationaler Erwartungen beruhen (vgl. Kapitel 4.2.3)206, sind auf Daten der Vergangenheit aufgebaut und unterstellen alle in der einen oder anderen Variante, dass sich vergangene Entwicklungen in der Zukunft fortsetzen. Mit Hilfe vergangener Kreditausfallraten, Korrelationen zwischen der Preisentwicklung von Vermögenswerten etc. werden „optimale“ Wertpapiere gebastelt. Später zeigt sich dann, wenig überraschend, dass vergangene Entwicklungen kein guter Ratgeber für zukünftige Entwicklungen sind. Quantitative Risikomodelle haben zudem den Nachteil, dass sie prozyklisch wirken, da in Expansionsphasen Risiken systematisch unterschätzt und in Krisenphasen überschätzt werden. Auch Institutionen, die für die Überwachung von Finanzinstituten zuständig sind, und Ratingagenturen basieren ihre Ansätze zur Überwachung auf quantitativen Risikomodel-
204
Hedge-Fonds sind Vereinigungen von Großinvestoren (einschließlich Finanzinstitutionen), die dem ausschließlichen Zweck dienen, mit einem gewaltigen Kredithebel über kurzfristige Spekulation Gewinne zu machen. 205 Private-Equity-Fonds kaufen in der Regel existierende Unternehmen auf, restrukturieren diese Unternehmen, um sie dann nach der Restrukturierungsphase wieder zu verkaufen. Restrukturierung bedeutet oftmals nur die Zerschlagung der Unternehmen und den Verkauf von Teilen des Unternehmens mit Gewinn. Auch Private-Equity-Fonds arbeiten mit riesigen Kreditsummen, die sie aufnehmen, um beispielsweise Unternehmen feindlich zu übernehmen. Nach dem Verkauf von Unternehmensteilen werden die Kredite zurückbezahlt und die erwarteten Gewinne eingestrichen. Wenn übernommene Unternehmen nicht zerschlagen werden, so werden oftmals Sonderausschüttungen veranlasst, die die gesunde Eigenkapitaldecke des übernommenen Unternehmens nach unten fahren. 206 Die mikroökonomische Variante rationaler Erwartungen ist der Ansatz effizienter Finanzmärkte. Der Glaube an effiziente Finanzmärkte hat Generationen von Finanzmanagern geprägt und dominiert bis heute das Studium der Finanzmärkte (Herr 2011a).
466
Keynesianische Makroökonomie
len. All diese Entwicklungen haben die Eigenkapitalhaltung selbst im regulierten Teil des Finanzsystems reduziert und prozyklische Effekte verstärkt. Dazu kam die Veränderung der Buchführungsnormen, die so verändert wurden, dass Vermögenswerte immer nach aktuellen Marktpreisen bewertet werden müssen. Dies erzeugt zwar in Phasen steigender Vermögenspreise steigende Gewinne, wirkt jedoch prozyklisch und macht das Finanzsystem instabiler.207 All diese Entwicklungen haben zu einer Veränderung der Kultur im Finanzsystem und zu einem anderen Verhalten der Akteure auf Finanzmärkten geführt. Die stärkere Risikoorientierung einer steigenden Anzahl Agierender im Finanzsystem schlug sich in steigenden Renditeansprüchen, einer spekulativen Orientierung und einer Verkürzung des Zeithorizonts der Wirtschaftssubjekte nieder. Symptomatisch ist die Ankündigung des Chefs der Deutschen Bank Josef Ackermann im Jahre 2003, der eine Eigenkapitalrendite von 25% als Zielgröße für die Deutsche Bank ausgab: „Wir haben ehrgeizige aber gleichwohl realistische Ziele für (...) unsere Management Agenda gesetzt. Eine starke Wettbewerbsposition kombiniert mit einem guten 'Ertragsmomentum' stimmt uns zuversichtlich, dass wir unser Ziel einer Eigenkapitalrendite von 25 Prozent vor Steuern erreichen können.“ 208 Exemplarisch für den sich erhöhten Renditeanspruch ist der Wechsel zum Shareholder-Value-Modell in der Managementstrategie, die sich ab den 1980er Jahren durchsetzte (Herr 2010). In den Jahrzehnten davor dominierte in allen westlichen Ländern das so genannte Stakeholder-Modell. Dieses Modell sah einen Kompromiss zwischen den verschiedenen Interessengruppen im Betrieb (Management, Eigentümer, Arbeitnehmer bzw. Gewerkschaften, Gläubiger, Ort der Ansiedlung des Unternehmens) vor und bewirkte eine gegenseitige Kontrolle der verschiedenen Interessengruppen.209 Die sich ab den 1980er Jahren entwickelnden obszön hohen Managementgehälter waren unter dem Stakeholder-Modell nicht möglich (cp. Krugman 2002). Einer der Wegbereiter der Shareholder-Value-Bewegung in den 1980er Jahren war Jack Welch, Vorstandsvorsitzender von General Electric. Auf einer theoretischen Ebene entwickelte Alfred Rappaport (1986) das Shareholder-Value-Modell. Es besagt, dass in der Zielfunktion der Unternehmenssteuerung ausschließlich die Interessen der Aktionäre enthalten sein sollten. Selbstverständlich erhofften sich die Eigentümer (oftmals institutionelle Anleger oder andere Institute der Finanzsphäre) durch die Veränderung der Unternehmensführung höhere Renditen. Nach der Shareholder-Value-Sicht lässt sich der Erfolg eines Unternehmens objektiv an der Entwicklung des Aktienkurses messen. Um die Interessen der Manager mit denen der Eigentümer deckungsgleich zu machen, wurden Manager mit Aktienoptionen entlohnt. Das Ziel des Shareholder-Value-Ansatzes hat in der Hinsicht geklappt, dass viele Unternehmen nun in brutaler Weise den Verwertungsinteressen der Eigentümer unterliegen. Entgegen den eigentlichen Zielen des Shareholder-Value-Ansatzes hat sich jedoch eine extreme Kurzfristorientierung bei der Unternehmensführung durchgesetzt. Selbst Rappaport (2005) geißelt diese Entwicklung. Zusammenfassend können wir festhalten: Die Veränderungen im Finanzsystem haben zu einer Machtzunahme des Finanzsystems gegenüber dem Unternehmenssektor und einem Renditehunger geführt, der die Unternehmen zu einem höheren Profitaufschlag zwang und eine neue Konvention etablierte,
207
Notwendig ist eine drastische Reduzierung der Rolle dieser unglaublich dummen Risikomodelle, die unterstellen, dass Bäume, wenn sie wachsen, immer weiter wachsen. Bilanzierungsregeln sollten dem Vorsichtsmotiv folgen. Preise von Vermögensobjekten sollten also zu historischen Werten bilanzieren werden und, wenn die Preise von Vermögenswerten unter die historischen Preise fallen, zu Marktpreisen. Dies würde auch die Eigenkapitalbasis der Unternehmen stärken. 208 http://www.bankfachklasse.de/Aktuell/Nachrichten/200/1847/Deutsche-Bank-strebt-eine-Eigenkapitalrendite-vorSteuern-von-25-Prozent-an.html. Dieses Ziel hat in Deutschland zu einer nachhaltigen Debatte geführt. 209 Kenneth Galbraith (2007, S. 146) konnte in den 1960er Jahren für die USA schreiben: „Management does not go out ruthlessly to reward itself – a sound management is expected to exercise restrain. (…). With the power of decision goes opportunity for making money. (…)Where everyone to seek to do so (…) the corporation would be a chaos of competitive avarice. But these are not the sort of things a good company man does; a remarkably effective code bans such behaviour. Group decision-making insures, moreover, that almost everyone’s action and even thoughts are known to others. This acts to enforce the code, and, more than incidentally, a high standard of personal honesty as well.” (Zitiert nach Krugmann 2002)
Keynesianische Makroökonomie
467
was die Profitrate zu sein hat.210 Der Renditeanspruch lfin wurde nach oben gedrückt und damit (lfin = q) die Profitrate. Die Bestimmungsfaktoren des Reallohns Im keynesianischen Paradigma werden auf dem Arbeitsmarkt Geldlöhne ausgehandelt. Der Reallohnsatz hängt nicht von den Nominallöhnen ab, sondern unter anderem von der Profitrate. Natürlich gilt dies nicht für den einzelnen Arbeiter, das einzelne Unternehmen oder sogar eine einzelne Industrie. Wir sprechen hier vom volkswirtschaftlichen Geldlohn- und Reallohnniveau. Dividiert man die linke Seite der Gleichung (4.18) im Zähler und im Nenner durch H und berücksichtigt, dass Y = Yr P ist, folgt: W H Yr P H
1 k q
bzw.
w 1 k q . SP
Daraus ergibt sich: w P
(4.19) Der Reallohnsatz
w P
S(1 k q)
hängt von der Verteilung des Einkommens (1 - k · q) und der Produktivität S ab.
Erhöht sich die Produktivität, dann erhöht sich der Reallohnsatz. Erhöht sich die durch den Vermögensmarkt vorgegebene Profitrate, dann sinkt der Reallohnsatz. Steigt der Kapitalkoeffizient, dann sinkt ceteris paribus der Reallohnsatz ebenfalls. Es sei darin erinnert, dass eine Veränderung der Profitrate den Kapitalkoeffizienten beeinflussen kann (vgl. Kapitel 3.3). Das gilt auch für Veränderungen der Produktivität. Die obigen Ausführungen fördern wichtige Erkenntnisse zu Tage. Die Quelle langfristig steigender Reallöhne kann nur die Entwicklung der Produktivität sein, also insbesondere die Entwicklung der Technologie. Abhängig Beschäftigte haben längerfristig keine Macht, durch Lohnverhandlungen Reallohn- und Verteilungsänderungen zu bewirken, da Lohnerhöhungen, die über den Produktivitätsfortschritt hinausgehen, zu einem steigenden Preisniveau führen. Bei steigenden Nominallöhnen über der Lohnnorm (Erhöhung der Löhne entsprechend der mittelfristigen Produktivitätsentwicklung plus der Zielinflationsrate) ergeben sich unerwünschte inflationäre Prozesse und es besteht die Gefahr, dass die Arbeitnehmer mit den nachteiligen Effekten einer Antiinflationspolitik der Zentralbank konfrontiert werden. Bei Nominallohnsenkungen ergeben sich deflationäre Effekte. An diesem Punkt zeigt sich ein fundamentaler Unterschied zum neoklassischen Modell des Arbeitsmarktes. In der Neoklassik bewirken Lohnveränderungen in voller Höhe Veränderungen der Reallohnsätze. Es wird somit implizit unterstellt, dass bei Lohnverhandlungen ein Warenkorb als Lohn ausgehandelt wird. Dies entspricht der Logik einer Tauschökonomie ohne Geld. Veränderungen von Reallohnsätzen beeinflussen im neoklassischen Modell dann unmittelbar die Nachfrage nach Arbeit. Der Arbeitsmarkt steuert dagegen im keynesianischen Paradigma nicht die Beschäftigung, bestimmt nicht die Reallöhne und wirkt nicht auf die Einkommensverteilung ein. Dennoch ist er für die Stabilität einer Ökonomie von großer Bedeutung. Denn die Geldlöhne legen aufgrund ihrer Bedeutung den nominalen Standard für das Preisniveau fest. Das Geldlohnniveau wird somit zum Anker für das Preisniveau. Dynamische Verteilungseffekte Dynamische Verteilungseffekte basieren auf volkswirtschaftlichen Kreislaufzusammenhängen und
210
Zu den Entwicklungen und den Veränderungen im Finanzsystem vgl. auch Hein (2011) und Stockhammer (2010).
468
Keynesianische Makroökonomie
leiten daraus die Höhe der Profite ab. In dieser Tradition argumentierten Michal Kalecki (1971), John Maynard Keynes (1930), Nicholas Kaldor (1976) und auch Joseph Schumpeter (1926). Am berühmtesten in diesem Zusammenhang ist die Profitgleichung von Kalecki, die besagt, dass der Profit den Investitionen und dem Konsum der Kapitalisten entspricht. Wie haben solche Prozesse schon im Rahmen der Nachfrageinflation in Kapitel 4.5.1 angesprochen, wollen jedoch hier näher auf die Verteilungswirkungen der Nachfrage-Angebots-Konstellation auf dem Gütermarkt eingehen. Wir folgen in der Analyse dieses Ansatzes Kaldor. Er unterteilte die Wirtschaftssubjekte in Lohn- und in Profitempfänger. Das Volkseinkommen entspricht dann bekanntlich P ⋅ Yr = W + Q, also der Lohnund Profitsumme. Die volkswirtschaftlichen Ersparnisse S werden dann in Ersparnisse der Lohnempfänger SW und in die der Profitempfänger SQ differenziert. Damit lässt sich I = S zu I = SW + SQ umschreiben. Werden für Lohn- und Profitempfänger jeweils spezielle Sparneigungen ( sw bzw. sq) unterstellt, die zur Vereinfachung von der Einkommenshöhe unabhängig sein sollen, ergeben sich die Ersparnisse der Lohnempfänger durch SW = sw ⋅ W und die der Profitempfänger durch SQ = sq ⋅ Q . Aus I = SW + SQ folgt dann: I = sq ⋅ Q + sw ⋅ W = sq ⋅ Q + sw (P ⋅ Yr - Q) I = (sq - sw)Q + sw ⋅ P ⋅ Yr
Wird durch P ⋅ Yr dividiert, ergibt sich: Q I = (sq − sw) + sw P ⋅ Yr P ⋅ Yr
Wird schließlich die Profitquote (4.20)
Q isoliert, erhält man als dynamische Verteilungsgleichung: P ⋅ Yr
Q 1 I sw . = − P ⋅ Yr (sq − sw) P ⋅ Yr (sq − sw)
Es ist davon auszugehen, dass die Sparneigung der Profitempfänger größer ist als die der Lohnempfänger ( sq > sw ). Diese Annahme wird im Folgenden unterstellt. Die Sparneigungen stellen in diesem Modell Parameter dar. Diese Annahmen unterstellt, steuert die I Q Investitionsquote die Profitquote und damit auch die Lohnquote. Erhöhen die UnternehP ⋅ Yr P ⋅ Yr men ihre Investitionsnachfrage, dann wird sich bei unausgelasteten Kapazitäten das Produktionsvolumen Yr erhöhen, bei ausgelasteten Kapazitäten das Preisniveau (P). Nimmt sq den Wert von 0,5 und sw von 0,1 an, dann ergibt sich bei einer Investitionsquote von 0,2 eine Profitquote von 0,25. Steigt die Investitionsquote im obigen Beispiel auf 0,3, erhält man eine Profitquote von 0,5. Als Reflex dieser Entwicklung sinkt die Lohnquote. Je geringer die Sparneigung der Profitempfänger ist, desto stärker wirkt sich eine Erhöhung der Investitionsquote auf die Profitquote aus. Sinkt sq in unserem Beispiel auf 0,4, dann ergibt sich bei einer Investitionsquote von 0,2 eine Profitquote von rund 0,33. Steigt nun die Investitionsquote auf 0,3, dann erhöht sich die Profitquote auf rund 0,66. Der kreislauftheoretische Charakter der hier vorgestellten Verteilungstheorie kommt besonders deutlich zum Ausdruck, wenn davon ausgegangen wird, dass die Lohnempfänger nicht sparen ( sw = 0). In diesem Falle wird Gleichung (4.20) zu: (4.21)
Q 1 I = ⋅ P ⋅ Yr sq P ⋅ Yr
Keynesianische Makroökonomie
469
Die Profitquote ergibt sich nach dieser Gleichung aus der Investitionsquote und der Sparquote der Profitempfänger, während sich die Profite aus der Investitionssumme dividiert durch die Sparneigung der Profitempfänger ergeben. Je mehr die Unternehmen investieren und je geringer ihre Sparquote ist, desto höher sind die Profite und desto stärker wendet sich die Verteilung zu ihren Gunsten. Wenn die Profitempfänger ihr gesamtes Einkommen Sparen (sq = 1), dann entspricht die Investitionsquote der Profitquote und die Profite den Investitionen. Eine Konsequenz aus dieser Analyse ist, dass Profitempfänger in ihrer Gesamtheit reich werden, wenn sie viel für Investitionen und Konsum ausgeben, während die Arbeiter nur reich werden, wenn sie sparen. Bei einer Sparquote der Arbeiter von Null gilt: „Kapitalisten verdienen, was sie ausgeben, Arbeiter geben aus, was sie verdienen.“ Kaldor (1976, S. 122) Wir stoßen hier erneut auf den schon von Keynes thematisierten Krug der Witwe, der sich niemals leert, wenn die Kapitalisten ein aus ihren Profiten finanziertes luxuriöses Leben leben. Umgekehrt gilt, dass sich bei einer dynamischen Betrachtung die Verteilungsposition der Profitempfänger verschlechtert, wenn sie weniger investieren und ihre Sparquote erhöhen (vgl. Kapitel 4.51). Die Bestimmung der Einkommensverteilung im Gleichgewicht und die dynamische Verteilungstheorie stellen keine Gegensätze dar, sondern untersuchen verschiedene Aspekte. So kann mit der dynamischen Verteilungstheorie die im konjunkturellen Verlauf schwankende Profitquote bzw. Lohnquote erklärt werden. Empirisch ist festzustellen, dass im konjunkturellen Abschwung die Lohnquote steigt, während sie im Aufschwung sinkt. Dieses Phänomen stellt nun kein Rätsel mehr dar, die geringe Investitionstätigkeit im Abschwung und die hohe Investitionstätigkeit im Aufschwung zu der entsprechenden Verteilung führen (dies wurde bei der Analyse des Konjunkturzyklus in Kapitel 4.5.2 schon verdeutlicht). Das überzyklische Niveau der Lohn- bzw. Profitquote kann mit der dynamischen Verteilungstheorie nicht befriedigend erklärt werden. Zur Beantwortung dieser Frage sind die Bestimmungsfaktoren der Verteilung im Gleichgewicht hilfreicher. Der beste Beweis für die Schwäche der dynamischen Verteilungstheorie ergibt sich, wenn wir einen stationären Zustand mit Nettoinvestitionen von Null und Ersparnissen von Null annehmen. Nach der dynamischen Verteilungstheorie müssen in diesem Fall die Profite Null sein, was gänzlich unplausibel ist und auch nicht mit der Realität einhergeht. In einer stationären Ökonomie können mit der keynesianischen gleichgewichtigen Verteilungstheorie ohne Probleme gleichgewichtige Profite abgeleitet werden. Wird die Profitrate vom Vermögensmarkt vorgegeben, dann resultiert auch in einem stationären Zustand eine bestimmte Lohnquote und eine bestimmte Profitquote (vgl. Gleichung 4.18) bzw. eine bestimmte Profitsumme und eine bestimmte Lohnsumme. Die Lohnempfänger und die Profitempfänger konsumieren in einer stationären Ökonomie ihr gesamtes Einkommen. Probleme bei der Ableitung eines Profits gibt es nicht, während die dynamische Verteilungstheorie an diesem Punkt versagt. Kernpunkte In der gleichgewichtigen keynesianischen Verteilungstheorie wird die Profitrate vom Finanzsystem vorgegeben. Die funktionale Einkommensverteilung (Verteilung des Einkommens in Löhne und Profite) kann dann bestimmt werden. Die Lohn- bzw. Profitquote hängen von der Profitrate und dem Kapitalkoeffizienten als unabhängiger Variablen ab. Die Profitrate und damit auch die Lohn- bzw. Profitquote sind durch Konvention bestimmt, sprich dem „Renditeanspruch“ des Finanzsystems. Die Veränderungen im Finanzsystem ab den 1970er/1980er Jahren im Rahmen der Deregulierungswelle der Ökonomie haben die Macht und Renditeansprüche des Finanzsystems ansteigen lassen. Der Reallohn hängt von der Produktivität, der Profitrate und dem Kapitalkoeffizienten ab.
470
Keynesianische Makroökonomie
Die dynamische Verteilungstheorie besagt im Kern, dass die Investitionen (und der Konsum aus Profiten) die Profite bestimmen. Im Rahmen zyklischer Schwankungen kann dieser Ansatz Veränderungen der funktionalen Einkommensverteilung erklären. Eine Erklärung der Verteilung im Gleichgewicht kann der Ansatz nicht liefern.
Keynesianische Makroökonomie
471
4.7 Das keynesianische Gesamtmodell In diesem Kapitel soll die Interaktion zwischen Produktion, Beschäftigung, Preisniveauentwicklung und geldpolitischer Reaktion analysiert werden. Denn bisher wurden im Rahmen der Mengentheorie (Kapitel 4.4) das Produktionsvolumen und im Rahmen der Preisniveautheorie (Kapitel 4.5) Inflation und Deflation untersucht. Diese Teile sollen nun kombiniert werden, um die Gesamtsicht des keynesianischen Modells zu präsentieren. Es handelt sich dabei um eine Analyse auf hoher abstrakter Ebene. Wir unterstellen, dass die Kapazitäten immer unausgelastet sind und sich dadurch keine Nachfrageinflation ergibt. Die Struktur der aggregierten Nachfrage ist somit immer so, dass sich die Kapazitäten der aggregierten Nachfrage anpassen. Preisniveauänderungen seien nur über Kostenänderungen und hier wiederum Lohnkostenänderungen bedingt. Trotz dieser Annahmen lassen sich zentrale Aussagen eines keynesianischen Modells verdeutlichen. Bevor wir dies in Kapitel 4.7.3 tun, müssen zwei Vorarbeiten erledigt werden. Die erste ist die Ableitung der Beziehung zwischen dem Zinssatz und dem Produktionsvolumen, die zweite die Diskussion der Beziehung zwischen Preisniveauänderungen und der Arbeitslosenquote. Wir beginnen mit der Beziehung zwischen Zinssatz und Produktionsvolumen. 4.7.1 Zinssatz und Produktionsvolumen: die IS-Kurve Fragestellung Wie sieht der Zusammenhang zwischen Zinssatz und gleichgewichtigem Produktionsvolumen bzw. realem Einkommen im keynesianischen Paradigma aus? Wie drückt die IS-Kurve diesen Zusammenhang aus? Was bestimmt die Lage und die Steigung der IS-Kurve? Im Kapitel 4.4 wurde abgeleitet, dass das Gleichgewicht auf dem Gütermarkt sowohl durch die Gleichheit von aggregiertem Angebot und aggregierter Nachfrage als auch durch die Gleichheit von Ersparnissen und Nettoinvestitionen ausgedrückt werden kann. Die IS-Kurve, die folgend abgeleitet werden soll und die in der Volkswirtschaftslehre eine lange Tradition hat, ist eigentlich eine I=SKurve und drückt Gleichgewichte auf dem Gütermarkt aus. Sie wurde zuerst von John Hicks (1937) bei seiner stark vereinfachenden Zusammenfassung der Allgemeinen Theorie von Keynes (1936) entwickelt. Die IS-Kurve stellt alle Gleichgewichtskombinationen zwischen dem Zinssatz und dem gleichgewichtigen Produktionsvolumen bzw. dem gleichgewichtigen Einkommen auf dem Gütermarkt her. Denn es gilt bekanntlich die Beziehung: Fallender Zinssatz steigende Investitionen steigende Güternachfrage steigende Produktion bzw. steigendes reales Einkommen. Wird dieser Zusammenhang für alle möglichen Zinssätze durchgespielt, erhält man die IS-Kurve. Die IS-Kurve unterstellt, dass es keine Kreditrationierung gibt, also alle Unternehmen, die einen Kredit zum Marktzinssatz bekommen wollen, auch einen bekommen. Die Effekte der Kreditrationierung ließen sich relativ einfach in das Modell einbauen, würde die Analyse jedoch komplizierter machen (vgl. auch Kapitel 5.2). Die Funktion der Nettoinvestitionen (I) wurde im Kapitel 4.3.4 durch (4.3.6)
I = I (i, PValt, U )
dargestellt. Sie hängen vom Zinssatz (i), dem Bestand an altem Produktivkapital (PValt) und von den Erwartungen der Unternehmen (U) ab. Nettoinvestitionen steigen mit sinkendem Zinssatz. Den Bestand an altem Produktivkapital und die Erwartungen der Unternehmen halten wir zunächst konstant. Es ergibt sich dann eine mit sinkendem Zinssatz steigende Nettoinvestitionsnachfrage (vgl. Abbildung 4.3.16 in Kapital 4.3.4). Diese Funktion ist in der Abbildung 4.7.1 im linken oberen Quadrant eingezeichnet. Sie kann formal durch die Investitionsfunktion
472 (4.7.1)
Keynesianische Makroökonomie I = Z - d·i
dargestellt werden. Der Wert d gibt die (negative) Steigung der Funktion an und drückt damit aus, wie stark die Investitionen auf Zinssatzänderungen reagieren. Die Variable Z gibt die Lage der Funktion an. Eine Verbesserung der Erwartungen der Unternehmen und ein geringerer Bestand an altem Produktivvermögen verschiebt die Investitionsfunktion ceteris paribus nach rechts und signalisiert bei jedem Zinssatz ein höheres Investitionsvolumen. Das gleichgewichtige Produktionsvolumen bzw. reale Einkommen (Yr*) wurde im Kapitel 4.4.1 durch die Formel (4.4.6)
Yr* = X N
1 (Iaut Caut) 1- c
bestimmt. Dahinter steckt die Vorstellung, dass das Produktionsvolumen Yr* von der aggregierten Güternachfrage XN abhängt und die aggregierte Güternachfrage von den Variablen auf der rechten Seite der Gleichung (4.4.6). Die aggregierte Nachfrage hängt ab vom Multiplikator m = 1/(1-c) mit c als marginaler Konsumneigung, dem autonomer Konsum (Caut) und den autonomen Investitionen (Iaut). Der Multiplikator wird als gegeben unterstellt ebenso wie die autonome Konsumnachfrage, es wird somit von einer Stabilität der Konsumfunktion ausgegangen. Wir können die Gleichung 4.4.6 auch so darstellen (wobei zur Vereinfachung Yr für Yr * und I für Iaut steht): (4.7.2)
Yr = mCaut + m·I
Die Gleichung drückt aus, dass mit steigenden Investitionen unter den genannten Bedingungen das Produktionsvolumen steigt, wobei die Stärke der Outputreaktion bei Investitionsänderungen vom Multiplikator abhängt. In Abbildung 4.7.1 ist im unteren linken Quadranten die Beziehung zwischen steigenden Investitionen und steigendem Produktionsvolumen eingezeichnet. Abbildung 4.7.1: Ableitung der IS-Kurve i
i
IS-Kurve
Investitionsfunktion i2
i1
0
Yr
I
Yr1
Yr
Yr2
Yr
Keynesianische Makroökonomie
473
Der rechte untere Quadrant in der Abbildung 4.7.1 spiegelt ausschließlich die Werte von Yr vom linken unteren Quadranten auf die Abszisse des rechten oberen Quadranten. Beim rechten oberen Quadrant müssen dann nur noch die Punkte gefunden werden, die den jeweiligen Zinssatz mit dem jeweiligen gleichgewichtigen Produktionsvolumen verbinden, um die IS-Kurve zu erhalten. Für zwei Zinssätze ist dies eingezeichnet. Beim Zinssatz i2 ergibt sich Yr1; beim niedrigen Zinssatz i1 ergibt sich das höhere gleichgewichtige reale Einkommen Yr2. Die IS-Kurve drückt somit alle Gleichgewichtskombinationen einer Ökonomie zwischen dem Zinssatz und dem gleichgewichtigen Produktionsvolumen aus. Wir können die IS-Kurve auch formal darstellen. Wenn die Investitionsfunktion (4.7.1) in die Bestimmungsgleichung des gleichgewichtigen Outputs (4.7.2) eingesetzt wird, erhalten wir: Yr = mCaut + m(Z - d·i)
bzw.
Yr = m(Caut + Z) - md·i Wir kommen zu: (4.7.3)
Yr = A - md·i
mit
A = m (Caut + Z)
Es hat sich in der Volkswirtschaftslehre eingebürgert, den Zinssatz an der Ordinate abzutragen und das reale Einkommen an der Abszisse. Dieser Gewohnheit wurde in der Abbildung 4.7.1 gefolgt. Wenn diese Darstellungsform gewählt wird, ergibt sich:
§Caut · §Z · § 1 · i = ¨ ¸ ¨ ¸ ¨ ¸Yr © d ¹ ©d ¹ ©md ¹
(4.7.4)
Bei
§Caut · §Z · ¸+ ¨ ¸folgt © d ¹ ©d ¹
N= ¨
§ 1 · ¸Yr ©md ¹
i = N – ¨
Die IS-Kurve in der Abbildung 4.7.1 verschiebt sich, wenn sich die autonome Konsumnachfrage (Caut) und das Vertrauen der Investoren erhöht (Z). Die IS-Kurve wird flacher, wenn sich der Multiplikator (m) oder die Reaktion der Investitionen auf Zinssatzänderungen (d) erhöht. Es gibt einen Spezialfall der IS-Kurve, die so genannte Investitionsfalle. Bei diesem Extremfall sind die Erwartungen der Unternehmen so schlecht, dass Zinssatzsenkungen nicht auf die Investitionstätigkeit wirken. Eine solche Situation ist möglich bei allgemein unausgelasteten Kapazitäten in einer tiefen Krise. Bei der Investitionsfunktion (4.7.1) nimmt d den Wert d = 0 an. Nehmen wir an, dass bestimmte notwendige Investitionen unabhängig vom Zinssatz durchgeführt werden, dann ist die Investitionsfunktion im linken oberen Quadrant der Abbildung 4.7.1 eine Parallele zur Ordinate. Daraus ergibt sich, dass die IS-Kurve im rechten oberen Quadrant ebenfalls eine Vertikale parallel zur Ordinate wird. Davon sehen wir hier ab. Machen wir zur Verdeutlichung ein Rechenbeispiel von der IS-Kurve. Als Investitionsfunktion nehmen wir I = Z - d·i
bzw.
I = 200€ - 1000€·i
an. Beim Zinssatz von 10 % (i = 0,1) liegt die Investitionsnachfrage beispielsweise bei 100€. Beim Zinssatz von 20 % würde die Investitionsnachfrage auf Null fallen. Wir unterstellen eine marginale Konsumneigung von 0,8, so dass sich ein Multiplikator von m =
1
1 c
=
1
1 0,8
= 5 ergibt.
Nehmen wir zudem eine autonome Konsumnachfrage von Caut = 100€ an und setzen die Investitionsfunktion ein, ergibt sich aus Yr = mCaut + mZ - md·i
474
Keynesianische Makroökonomie Yr = 5·100€ + 5·200€ - 5·1000€·i) bzw. Yr = 1500€ - 5000€·i
Bei einem Zinssatz von 10 % ergibt sich ein gleichgewichtiges reales Einkommen von 1000€. Kernpunkte Ein bestimmter Zinssatz führt zu einem bestimmten Investitionsvolumen, letzteres führt zu einem spezifischen gleichgewichtigen realen Einkommen. Ein sinkender Zinssatz führt über diesen Mechanismus zu einem höheren realen Einkommen. Die IS-Kurve drückt alle gleichgewichtigen Kombinationen zwischen Zinssatz und realem Einkommen aus. In einem i-Yr-Diagramm verschiebt sich die IS-Kurve nach rechts, wenn sich die Erwartungen der Unternehmen verbessern oder die autonome Konsumnachfrage steigt. Die Kurve wird flacher, wenn der Gütermarktmultiplikator steigt oder die Investitionen stärker auf Zinssenkungen reagieren. 4.7.2 Beschäftigung und Preisniveau: die NAIRU Fragestellung Welchen Zusammenhang gibt es zwischen dem Beschäftigungsvolumen bzw. der Arbeitslosenquote und dem Preisniveau bzw. der Veränderung des Preisniveaus? Warum kann es im keynesianischen Paradigma einen Konflikt zwischen Preisniveaustabilität und niedriger oder hoher Arbeitslosigkeit geben? Was drückt die NAIRU (Non-Accelerating Inflation Rate of Unemployment) aus? Welche Faktoren bestimmen die NAIRU? Was unterscheidet die NAIRU von der natürlichen Arbeitslosenquote? In diesem Abschnitt diskutieren wir den Zusammenhang zwischen dem Beschäftigungsvolumen bzw. der Arbeitslosenquote und Preisniveauänderungen. Die Grundidee ist auf Basis der keynesianischen Theorie zur Bestimmung des Preisniveaus und dessen Veränderung einfach zu begreifen: Erhöhen sich die Geldlöhne stärker als die Produktivität, dann steigen die Stückkosten und damit das Preisniveau. Lohnerhöhungen über der Lohnnorm, also eine Erhöhung der Geldlöhne entsprechend der mittelfristigen Produktivitätsentwicklung plus der Zielinflationsrate der Zentralbank (vgl. Kapitel 4.5.1), führen zu unerwünschter Inflation. Lohnerhöhungen, die geringer als die Lohnnorm ausfallen, führen zu fallenden Lohnstückkosten und zur Deflation. Wir erinnern daran, dass Zentralbanken aufgrund der äußerst negativen Effekte einer Deflation immer eine geringe Inflationsrate anstreben, denn auch eine Inflationsrate von Null wird als zu nah an der als gefährlich erachteten Deflation angesehen. Entscheidend für den hier diskutierten Punkt ist, dass eine Beziehung zwischen der Arbeitslosenquote und der Lohnentwicklung angenommen wird. Je geringer die Arbeitslosenquote, desto stärker die Lohnsteigerungen und damit die Inflationsrate. Bei hohen Arbeitslosenraten kommt es zu Lohn- und Preisniveausenkungen. Der Zusammenhang zwischen der Arbeitslosenquote, Geldlohnerhöhungen und Preisniveauänderungen basiert somit auf Marktmechanismen auf dem Arbeitmarkt. Allerdings führen nominelle Lohnänderungen nicht zu Reallohnänderungen und direkten Beschäftigungseffekten, wie im neoklassischen Paradigma, sondern zu Preisniveauänderungen. Die Argumentation führt zudem zu dem Ergebnis, dass eine bestimmte Arbeitslosenquote notwendig sein kann, um Nominallohnerhöhungen, welche eine Inflationsrate über der Zielinflationsrate der Zentralbank erzeugen, verhindert. Die Arbeitslosenquote ist in dieser Logik notwendig, um die Marktmacht der Arbeitnehmer so zu schwächen, dass Lohnerhöhungen über der Lohnnorm verhindert werden.
Keynesianische Makroökonomie
475
In der volkswirtschaftlichen Literatur ist der oben entwickelte Gedanke in der Form einer Arbeitslosenrate-Inflationsraten-Kurve zum Ausdruck gebracht worden. Diese Kurve hat unter dem Namen NAIRU in die volkswirtschaftliche Debatte Einzug gehalten. Die NAIRU ist eine Abkürzung für die Non-Accelerating Inflation Rate of Unemployment. Sie ist die Arbeitslosenrate, welche keine Veränderung der Inflationsrate herbeiführt, insbesondere keine Veränderung der von einer Zentralbank angestrebten Zielinflationsrate. Die NAIRU ist ein keynesianisches Konzept, denn es wird eine Beziehung zwischen Arbeitslosenquote, der Entwicklung der Geldlöhne und dem Preisniveau abgeleitet. Der Keynesianismus, der sich auf das Originalwerk von Keynes bezieht, als auch der Neu-Keynesianismus nutzen den NAIRU-Ansatz, obwohl er bei den beiden Ansätzen in verschiedene Gesamttheorien eingebaut wird.211 Keynes selbst hat keine NAIRU entwickelt, jedoch ist der Ansatz implizit bei ihm angelegt. x
Steht P für die Preisniveauänderungsrate und u für die Arbeitslosenrate, dann gibt die folgende Gleichung die NAIRU-Kurve an: x
x
P = P (u)
Wir wollen folgend verschiedene Formen der NAIRU-Kurve diskutieren, denn es wäre verfehlt, nur von einer möglichen NAIRU-Variante auszugehen. Wir beginnen mit der Form der NAIRU-Kurve, die gewöhnlich als die typische dargestellt wird und in neu-keynesianischen Modellen beliebt ist. Eine solche NAIRU-Kurve ist in der Abbildung 4.7.2 wiedergegeben. Auf der Ordinate ist die x Preisniveauänderungsrate P und auf der Abszisse die Arbeitslosenquote u angegeben. Hinter der Kurve steckt ein Arbeitsmarkt, der durch ein sehr geringes Niveau der Regulierung gekennzeichnet ist und der weitgehend von Marktmechanismen dominiert wird. In einem solchen Arbeitsmarkt führt eine sinkende Arbeitslosenquote schnell zu steigenden Nominallöhnen, denn eine sinkende Arbeitslosenquote stärkt die Marktmacht der Arbeitnehmer, die dann ihrem mikroökonomischem Kalkül folgend höhere Löhne durchsetzen können. Bei steigender Arbeitslosenquote beginnen in einem deregulierten Arbeitsmarkt die Löhne schnell zu sinken, da die Unterbietungskonkurrenz Arbeitloser das Lohnniveau drückt. Wäre das Ziel vollständige Preisniveaustabilität, dann müsste die x x gleichgewichtige NAIRU durch den Schnittpunkt der Funktion P = P (u) mit der Abszisse gegeben sein. Aber keine Zentralbank wird ein Inflationsziel von Null anstreben. Hat eine Zentralbank ein positives Inflationsziel, dann ist die gleichgewichtige NAIRU durch die Arbeitslosenquote gegeben, x die dieses Inflationsziel realisiert. In der Abbildung 4.7.2 sind ein Inflationsziel PZiel der Zentralbank und die korrespondierende gleichgewichtige NAIRU* eingezeichnet.
211
Vgl. beispielsweise für den Neu-Keynesianismus Layard/Nickell/Jackman (1994), Gorden (1993), Franz (1986) und (1996), für den Post-Keynesianismus Hein (2002) und (2004).
476
Keynesianische Makroökonomie
Abbildung 4.7.2 : Die NAIRU-Kurve bei rein marktbestimmten Geldlöhnen •
P •
•
P = P (u)
•
PZiel u NAIRU*
In einem numerischen Beispiel könnte die NAIRU folgendermaßen aussehen: •
P = 0,4 – (3,8)u Die maximale Inflationsrate ist 40 % (0,4) und gibt den Schnittpunkt mit der Ordinate in der • Abbildung 4.7.2 an. Bei einer Arbeitslosenquote von 5% ergibt sich eine Inflationsrate von 21% ( P = 0,4 – 3,8·0,05), bei einer Arbeitslosenquote von 20 Prozent resultiert eine Deflationsrate von 36 Prozent. Die Zielinflationsrate der Zentralbank von 2% ist bei einer Arbeitslosenrate von 10 Prozent realisiert. Die in der Abbildung 4.7.2 dargestellte NAIRU-Kurve stellt einen Extremfall dar. Würde sie in einem Land existieren, wäre sie für dieses Land eine Katastrophe. Denn jede Abweichung der aktuellen Arbeitslosenquote von der gleichgewichtigen NAIRU würde bei der angegebenen NAIRUKurve zu starken Schwankungen der Preisniveauänderungsrate führen. Und wer sollte garantieren, dass die aktuelle Arbeitslosenquote immer sehr nah an der gleichgewichtigen NAIRU liegt? Die Zentralbank könnte zwar bei einer geringeren Arbeitslosenquote als der gleichgewichtigen NAIRU die Inflation bekämpfen. Aber es ist allein schon eine extreme Annahme nötig, dass eine Zentralbank immer eine „weiche Landung“ zustande bringt und bei der Abwürgung eines Prozesses einer Lohninflation nicht übersteuert oder der Abschwung eine Eigendynamik erhält, die der Zentralbank aus der Hand gleitet. Denn jede Übersteuerung und ein Anstieg der Arbeitslosenquote über die gleichgewichtige NAIRU würde sofort einen Deflationsprozess anstoßen, den eine Zentralbank schwer bekämpfen kann. Jede ökonomische Störung, endogen oder exogen, welche die Arbeitslosigkeit erhöht oder senkt, würde sofort zu katastrophalen inflationären oder deflationären Entwicklungen führen. Es ist an dieser Stelle sinnvoll John Maynard Keynes zu hören: „Die Annahme, dass eine nachgiebige Lohnpolitik ein richtiges und angemessenes Zubehör eines im Großen und Ganzen auf laissez-faire beruhenden Systems ist, ist das Gegenteil der Wahrheit.“ (Keynes 1936, S. 227) Denn: „Das Hauptergebnis dieser Politik wäre eine große Unbeständigkeit der Preise, die so heftig sein könnte, dass sie die Geschäftsberechnungen in einer Wirtschaftsgesellschaft vereiteln könnte, die nach der Art derer funktioniert, in der wir leben.“ (Keynes 1936, S. 227) Die Abbildung 4.7.2 führt zu einer Konsequenz, die in ihrem Kern nichts mit keynesianischem Denken zu tun hat. Denn das theoretische Denken hinter der NAIRU in der Abbildung 4.7.2 impliziert, dass es nur eine Arbeitslosenquote gibt, welche die Vorstellungen der Wirtschaftspolitik
Keynesianische Makroökonomie
477
in der Form einer Zielinflationsrate befriedigen kann. Die Wirtschaftspolitik hat dann genau diese Arbeitslosenquote anzustreben. Da mit der gleichgewichtigen NAIRU ein bestimmtes reales Produktionsvolumen verbunden ist, gibt es nach diesem Ansatz nur ein gleichgewichtiges Produktionsvolumen, das dann über die gleichgewichtige NAIRU gesteuert wird. Der Arbeitsmarkt wird somit, falls eine Beziehung zwischen Arbeitslosenquote und Preisänderungsrate wie in der Abbildung 4.7.2 unterstellt, wird hinterrücks zum bestimmenden Faktor des realen Produktionsvolumen bzw. realen Einkommens. Wie im neoklassischen Arbeitsmarktmodell wird das Produktionsvolumen dann über den Arbeitsmarkt bestimmt (vgl. Kapitel 2.7 und 3.2.1), wenngleich die Begründung eine andere ist. Geben wir für diese Vorstellung ein Beispiel. In den 1990er Jahren glaubten die Anhänger der NAIRU-Theorie, dass in den USA eine Arbeitslosenquote von unter 6% zu einer Inflationsrate führen würde, die für die US-amerikanische Zentralbank nicht mehr akzeptabel ist. Als die Arbeitslosenquote in der zweiten Hälfte der 1990er Jahre auf 6% sank, wurde der damalige Präsident der US-Zentralbank Alan Greenspan gedrängt, die Zinsen zu erhöhen, das Wachstum zu drosseln und eine weitere Absenkung der Arbeitslosenquote zu verhindern. Greenspan widersetzte sich diesen Forderungen und die Arbeitslosigkeit sank bis fast auf 3% ohne relevante inflationäre Entwicklungen anzustoßen. Das Ende des langen Aufschwungs kam dann mit dem Ende der Internetblase. Eine Lohninflation, welche den Abschwung 2000/2001 erklären könnte, gab es nicht. Die gleichgewichtige NAIRU hatte sich als falsch herausgestellt. Das ist schon dadurch wenig verwunderlich, da zur Berechnung der gleichgewichtigen NAIRU die Situation in den 1980er Jahren herangezogen wurde, die dann offensichtlich in den 1990er Jahren keine Rolle mehr spielte (vgl. zur Entwicklung in den USA (Blinder/Yellen 2001; Herr/Kazandziska 2011). Nun ist die NAIRU-Kurve, die in der Abbildung 4.7.2 eingezeichnet ist, sicherlich ein unrealistischer Extremfall, jedoch führt kein Weg an der Erkenntnis vorbei, dass es einen Konflikt zwischen einer geringen Arbeitslosenquote und der Zielinflationsrate (oder ganz allgemein einer akzeptablen Inflationsrate) geben kann. NAIRU-Kurven können mehr oder weniger funktional für eine Ökonomie sein. Deren Lage und Form ist länderspezifisch und hängt von einer Reihe von Faktoren ab. Von besonderer Bedeutung ist der Lohnbildungsmechanismus in einem Land, also die Frage, ob es starke oder schwache Gewerkschaften und Arbeitgeberverbände gibt und ob es in Tarifverhandlungen gelingt, eine koordinierte Lohnentwicklung in einem Land zu implementieren und die Lohnkoordinierung zu einer Lohnentwicklung entsprechend der Lohnnorm führt. Wichtig ist auch, ob der Staat eine koordinierte Lohnpolitik entsprechend der Lohnnorm durch Allgemeinverbindlichkeitserklärungen unterstützt. Daneben können für die NAIRU-Kurve noch eine ganze Reihe anderer Faktoren eine Rolle spielen. Zu nennen sind hier die Existenz von gesetzlichen Mindestlöhnen, aber auch strukturelle Probleme auf dem Arbeitsmarkt wie ein regionaler und qualifikationsbedingter Mismatch von Arbeitsangebot und Arbeitsnachfrage oder demographische Entwicklungen. Gibt es beispielsweise einen erheblichen regionalen Missmatch, dann kann die Knappheit in einer Region eines Landes zu inflationären Entwicklungen führen, obwohl im Land insgesamt betrachtet die Arbeitslosigkeit noch hoch ist. In der Abbildung 4.7.3 ist eine NAIRU-Kurve eingezeichnet, die für die makroökonomische Konstellation eines Landes funktional und damit wünschenswert ist. Die Löhne erhöhen sich in der Abbildung entsprechend der Zielinflationsrate der Zentralbank und zwar unabhängig von der Höhe der Arbeitslosigkeit. Also auch sehr geringe und sehr hohe Arbeitslosenquoten führen nicht zu einer Verletzung der Lohnnorm. Die hier skizzierte Lohnnorm ist für die Ökonomie funktional, weil die Zentralbank in ihrer Geldpolitik völlig frei ist – zumindest was die Lohnentwicklung und die daraus resultierende Preisniveauentwicklung betrifft. Das reale Produktionsund auch Beschäftigungsvolumen ist in diesem Fall vollständig unabhängig vom Arbeitsmarkt. Implizit ging Keynes (1936) in weiten Teilen der „Allgemeinen Theorie“ von einer solchen Konstellation auf dem Arbeitsmarkt aus.
478
Keynesianische Makroökonomie
Abbildung 4.7.3 : Die NAIRU-Kurve bei Lohnerhöhungen entsprechend der Lohnnorm •
P
•
PZiel
•
•
P = P (u)
u
Die in der Abbildung 4.7.3 eingezeichnete NAIRU-Kurve stellt hohe Ansprüche an Arbeitsmarktinstitutionen. Denn unterstellt ist ein Arbeitsmarkt, der sich vollständig von Marktprozessen abkoppeln kann. Idealtypisch sehen die Institutionen auf so einem Arbeitsmarkt so aus, dass es starke Gewerkschaften und starke Arbeitgeberverbände gibt, welche eine Lohnkoordination entsprechend der Lohnnorm anstreben und umsetzten. Unterstellt werden muss, dass die Entscheidungsträger bei den Lohnverhandlungen ein makroökonomisches Verständnis haben und die Funktionalität der Lohnnorm verstehen. Gleichzeitig müssen sie die Zielinflationsrate der Zentralbank akzeptieren. Hilfreich ist bei einem solchen Lohnbildungsmodell eine Diskussion und Abstimmung der Lohnentwicklung in einem makroökonomischen Gremium, dass neben Gewerkschaften und Arbeitgebern auch Regierungsvertreter und die Zentralbank mit einschließt. Tarifverhandlungen können dabei auf zentraler nationaler Ebene geführt werden oder die zentrale Ebene kann für Verhandlungen auf Industrieebene Richtlinien vorgeben, die dann mehr oder weniger befolgt werden. Das hier skizzierte Modell schließt bei geringer Arbeitslosigkeit ein, dass die Arbeitgeberverbände übertarifliche Bezahlung und gegenseitige Abwerbung von Arbeitnehmern von Firmen eindämmen. Der Gewerkschaftsdachverband muss verhindern, dass einzelnen Industriegewerkschaften, Gewerkschaften von spezifischen Berufsgruppen oder Arbeitnehmervertreter auf Betriebsebene aus den Rahmenvereinbarungen ausbrechen. Das Fallen von Löhnen bei hoher Arbeitslosigkeit kann durch gesetzliche Mindestlöhne und Allgemeinverbindlichkeitserklärungen von Tarifvereinbarungen unterstützt werden. Die hier skizzierten idealtypischen Institutionalisierungen der Arbeitsmärkte scheinen für den unbedarften Betrachter utopisch. Jedoch zumindest in einigen westlichen Industrieländern war und ist der Lohnbildungsmechanismus ziemlich nah an dem hier vorgestellten Modell. Insbesondere in skandinavischen Länden aber auch beispielsweise in Österreich konnten oder können Lohnbildungsmechanismen in der beschriebenen Art gefunden werden. Und für alle diese Länder hat sich dies in der Form vergleichsweise geringer Arbeitslosenquoten ausbezahlt. Vor der Deregulierungswelle der Arbeitsmärkte, die wie bei den Finanzmärkten in den 1970er/1980er Jahren begann, waren viele Länder zumindest teilweise durch den oben beschriebenen Lohnbildungsmechanismus geprägt. Häufig funktionierte die Koordinierung auch so, dass Tarifverhandlungen in einer zentralen Branche implizit auf alle anderen Industrien übertragen wurden und in der Branche, welche mit der Tarifrunde begann, makroökonomische Überlegungen eine Rolle spielten. Deutschland und die USA passten zu einem solchen Modell. In anderen Ländern
Keynesianische Makroökonomie
479
übernahmen die Arbeitgeberverbände die Koordination der makroökonomischen Kriterien, etwa in der Schweiz oder in Japan.212
Lohnentwicklung
nach
Wir wollen schließlich noch eine dritte NAIRU-Variante darstellen, die für viele Länder die realistischste ist. In Abbildung 4.7.4 verläuft die NAIRU-Kurve zwischen der Arbeitslosenquote u1 und u2 parallel zur Abszisse und liegt auf der Höhe der Zielinflationsrate der Zentralbank. Bei sehr geringen Arbeitslosenquoten reißt jedoch der Lohnanker und die Löhne steigen stärker als die Lohnnorm. Auch bei sehr hohen Arbeitslosenquoten reißt der Lohnanker und führt die Ökonomie in eine Deflation. Die Konsequenz aus einer solchen NAIRU-Kurve ist, dass sehr niedrige Arbeitslosenquoten sehr schwierig mit Preisniveaustabilität zu verbinden ist, da dann Arbeitskräfte knapp sind und der Marktprozess zu einem Anstieg der Löhne führt. Oftmals ist dies gegen den Willen der Tarifparteien der Fall, die steigende Löhne aufgrund übertariflicher Bezahlung nicht verhindern können. Die Zentralbank wird in dem angenommenen Fall eine Arbeitslosenquote, die in der Abbildung 4.7.4 unter der von u1 liegt geldpolitisch verhindern, da sie ansonsten ihr Inflationsziel nicht erreichen kann. Aber es ist natürlich nicht gewährleistet, dass die Arbeitslosigkeit bei u1 liegt, sie kann auch beliebig höher sein. Übersteigt die Arbeitslosenquote in unserem Beispiel u2, dann gerät die Ökonomie in eine gefährliche Konstellation. Der Lohnanker ist gerissen und die Geldpolitik ist zu schwach, um eine deflationäre Entwicklung zu bekämpfen. Es ist somit für die Stabilität einer Ökonomie enorm wichtig, alles zu tun, damit die Arbeitslosigkeit nicht u2 erreicht. Abbildung 4.7.4: Die NAIRU-Kurve bei Lohnerhöhungen entsprechend der Lohnnorm im Normalbereich213 P
x
x
P = P (u) f1
P Ziel f2 0
u1
u2
u
Fassen wir zusammen: Die Lage und Form der NAIRU-Kurve hängen von der spezifischen Situation des entsprechenden Landes ab. Auch kann die NAIRU-Kurve sich im Zeitablauf verschieben und ihre Form verändern. Solche Entwicklungen können sich aufgrund wirtschaftspolitischer und ordnungspolitischer Veränderungen ergeben. So ist zu vermuten, dass Deregulierungen von Arbeitsmärkten und Schwächung von Tarifverhandlungssystemen, welche eine Koordination der Lohnentwicklung bewirken, die NAIRU-Kurve steiler machen und nach rechts verschieben, also
212
Vgl. für eine Übersicht zu Lohnbildungsmechanismen vgl. Soskice (1990), Brown/Eichengreen/Reich (2010), Du Caju et al. (2008). 213 Formal besteht die Abbildung 4.7.4 aus drei Teilen: x
x
P = P (u)
f1, u u1 x
x
P = PZiel , u1