295 65 8MB
German Pages XVII, 324 [331] Year 2020
Luca Rebeggiani Christina Benita Wilke Monika Wohlmann Hrsg.
Megatrends aus Sicht der Volkswirtschaftslehre Demografischer Wandel – Globalisierung & Umwelt – Digitalisierung
FOM-Edition FOM Hochschule für Oekonomie & Management Reihe herausgegeben von FOM Hochschule für Oekonomie & Management, Essen, Deutschland
Bücher, die relevante Themen aus wissenschaftlicher Perspektive beleuchten, sowie Lehrbücher schärfen das Profil einer Hochschule. Im Zuge des Aufbaus der FOM gründete die Hochschule mit der FOM-Edition eine wissenschaftliche Schriftenreihe, die allen Hochschullehrenden der FOM offensteht. Sie gliedert sich in die Bereiche Lehrbuch, Fachbuch, Sachbuch, International Series sowie Dissertationen. Die Besonderheit der Titel in der Rubrik Lehrbuch liegt darin, dass den Studierenden die Lehrinhalte in Form von Modulen in einer speziell für das berufsbegleitende Studium aufbereiteten Didaktik angeboten werden. Die FOM ergreift mit der Herausgabe eigener Lehrbücher die Initiative, der Zielgruppe der studierenden Berufstätigen sowie den Dozierenden bislang in dieser Ausprägung nicht erhältliche, passgenaue Lehr- und Lernmittel zur Verfügung zu stellen, die eine ideale und didaktisch abgestimmte Ergänzung des Präsenzunterrichtes der Hochschule darstellen. Die Sachbücher hingegen fokussieren in Abgrenzung zu den wissenschaftlich-theoretischen Fachbüchern den Praxistransfer der FOM und transportieren konkrete Handlungsimplikationen. Fallstudienbücher, die zielgerichtet für Bachelor- und Master-Studierende eine Bereicherung bieten, sowie die englischsprachige International Series, mit der die Internationalisierungsstrategie der Hochschule flankiert wird, ergänzen das Portfolio. Darüber hinaus wurden in der FOM-Edition jüngst die Voraussetzungen zur Veröffentlichung von Dissertationen aus kooperativen Promotionsprogrammen der FOM geschaffen.
Weitere Bände in der Reihe http://www.springer.com/series/12753
Luca Rebeggiani · Christina Benita Wilke · Monika Wohlmann (Hrsg.)
Megatrends aus Sicht der Volkswirtschaftslehre Demografischer Wandel – Globalisierung & Umwelt – Digitalisierung
Hrsg. Luca Rebeggiani FOM Hochschule für Oekonomie & Management Bonn, Deutschland
Christina Benita Wilke FOM Hochschule für Oekonomie & Management Bremen, Deutschland
Monika Wohlmann FOM Hochschule für Oekonomie & Management Düsseldorf, Deutschland
ISSN 2625-7114 ISSN 2625-7122 (electronic) FOM-Edition ISBN 978-3-658-30128-6 ISBN 978-3-658-30129-3 (eBook) https://doi.org/10.1007/978-3-658-30129-3 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Angela Meffert Springer Gabler ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
Geleitwort
Unsere Gesellschaft steht in den nächsten Jahren und Jahrzehnten vor mehreren grundsätzlichen Herausforderungen: Die alternde Generation der geburtenstarken Jahrgänge, mehrere Jahrzehnte mit niedrigen Geburtenraten und steigende Migration sind wichtige Quellen eines demografischen Wandels, der vor allem den Arbeitsmarkt und damit eng verbunden das Wirtschaftswachstum stark beeinflussen und die Stabilität der sozialen Sicherungssysteme herausfordern wird. Gleichzeitig drohen weltweit aufkeimende protektionistische Tendenzen, eine lange Phase der Globalisierung zu begrenzen, die die exportorientierte © RWI/Sven Lorenz deutsche Wirtschaft wie kaum eine andere Volkswirtschaft beflügelt hat. Zudem erfordern globale Herausforderungen wie der Klimawandel eine enge internationale Zusammenarbeit, wenn wirksame volkswirtschaftlich effiziente Lösungen gefunden werden sollen. Die rasant fortschreitende technologische Entwicklung bringt darüber hinaus Möglichkeiten zur Digitalisierung und Automatisierung mit sich. Sie können einerseits dazu beitragen, die beschriebenen Herausforderungen zu meistern. So werden künftig Arbeitsleistung und Wertschöpfung vielfach nicht mehr an Ort und Zeit gebunden sein. Assistenzsysteme werden dabei helfen, dass Menschen nicht mehr durch körperliche Beeinträchtigungen und fortschreitendes Alter von der Teilhabe am Arbeitsleben ausgeschlossen sind. Andererseits wandeln sich mit diesen Möglichkeiten auch die Anforderungen an die Arbeitnehmer, und es wird wichtiger denn je, individuelle Fähigkeiten durch lebenslanges Lernen zu stärken. Auch die Energiewende wird von diesem Wandel begünstigt, denn die Digitalisierung wird Chancen zur intelligenten Steuerung der Nachfrage nach Energie und Mobilität eröffnen und so die Entscheidungen und Aktivitäten einer Vielzahl dezentral handelnder Akteure möglichst ressourcenschonend koordinieren. Umso wichtiger wird es allerdings
V
VI
Geleitwort
sein, den Umstieg vom fossilen in das post-fossile Zeitalter mit einem geeigneten Handlungsrahmen zu versehen, der die dafür notwendigen Investitionen anregt. Um all diese Entwicklungen einordnen, deren Chancen nutzen und deren Risiken begegnen zu können, ist das Verständnis ökonomischer Prozesse unerlässlich. Denn es geht dabei unweigerlich darum, Zielkonflikte zu lösen und knappe Mittel bestmöglich auf konkurrierende Ziele aufzuteilen. Dies verdeutlichen die nachfolgenden aktuellen Fragestellungen, die die Lebenswirklichkeit aller Menschen berühren und auch für Nicht-Ökonomen gleichermaßen relevant und greifbar sind: • Führt der demografische Wandel zu geringeren Renten bei höheren Beiträgen und mehr Arbeitsjahren? • Steht eine wirksame Klimapolitik der Bewahrung und dem Ausbau des materiellen Wohlstands entgegen? • Wird menschliche Arbeitskraft trotz Digitalisierung noch benötigt oder steuern wir in eine polarisierte Gesellschaft? Die Beantwortung solcher Fragen ist die zentrale Aufgabe der angewandten Wirtschaftsforschung, etwa der Wirtschaftsforschungsinstitute der Leibniz-Gemeinschaft oder des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung. Besonders spannend an unserer Aufgabe ist es, dass die ökonomische Forschung diese Themen zwar seit jeher intensiv untersucht, dass aber neue Rahmenbedingungen und Konstellationen die fortwährende Suche nach neuen passenden Antworten erforderlich machen. Im vorliegenden Sammelband diskutieren die Autorinnen und Autoren der FOM in ihren Beiträgen zentrale Aspekte dieses Themenkreises und regen gleichzeitig dazu an, sich auch darüber hinaus aktiv mit diesen entscheidenden Bereichen der Ökonomik zu beschäftigen. Ich wünsche Ihnen eine anregende Lektüre mit vielen interessanten Anund Einsichten zu den drängenden Fragen unserer Zeit.
Essen, Deutschland im Februar 2020
Christoph M. Schmidt Vorsitzender des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung Präsident des RWI – Leibniz-Institut für Wirtschaftsforschung Professor für Wirtschaftspolitik und angewandte Ökonometrie an der Ruhr-Universität Bochum
Vorwort der Herausgeber
Die Volkswirtschaftslehre stand in den Jahren nach der Finanz- und Wirtschaftskrise 2008 vermehrt in der Kritik: Ihr wurde nicht nur vorgeworfen, die Krise nicht vorhergesagt zu haben, sondern auch, allgemein zu realitätsfern zu sein, auf veralteten Modellen zu basieren und zu stark auf formale Methoden zu setzen. Zugleich stehen volkswirtschaftliche Themen aber nach wie vor im Fokus der öffentlichen Debatte – und zwar nicht nur in den Wirtschaftsteilen der großen Tageszeitungen. Die Folgen des demografischen Wandels, die Migrationswellen nach Europa, die Zukunft der Europäischen Union, die Globalisierung und Vernetzung der Welt, die Entwicklung der Digitalisierung, der Klimawandel und der damit einhergehende notwendige Umbau bestimmter Industriesektoren: All diese sowie weitere Herausforderungen, die tagtäglich in der Politik, der Gesellschaft und der Wirtschaft diskutiert werden, lassen sich kaum ohne fundiertes ökonomisches Wissen zufriedenstellend in ihrem Gesamtkontext beleuchten, analysieren und verstehen. Dies zeigt, dass die Volkswirtschaftslehre als wissenschaftliche Disziplin alles andere als in der Krise steckt, sondern im Gegenteil immer mehr Raum in der öffentlichen Debatte einnimmt. Dass mittlerweile verstärkt von ihr gefordert wird, auf konkrete Probleme auch konkrete Lösungsentwürfe zu liefern und sich weniger in akademischen Spitzfindigkeiten zu verlieren, tut ihrem wissenschaftstheoretischen Anspruch nur gut – denn als Sozialwissenschaft sollte sich die Volkswirtschaftslehre letztlich an ihrer Problemlösungsfähigkeit messen lassen. Genau hier setzt das vorliegende, vom KCV KompetenzCentrum für angewandte Volkswirtschaftslehre der FOM Hochschule initiierte, Werk an: Es stellt eine Reihe aktueller gesellschaftlicher Herausforderungen vor, die sich grob in die drei Kategorien demografischer Wandel, Globalisierung & Umwelt und Digitalisierung unterteilen lassen, und präsentiert einen Überblick über ausgewählte volkswirtschaftliche Ansätze zu diesen Themen. Die Beiträge richten sich dabei explizit an Studierende, Absolventinnen und Absolventen sowie erfahrene Praktikerinnen und Praktiker im Bereich der Wirtschaft, aber auch an wirtschaftsaffine Akteure in Politik und Gesellschaft. Ziel ist es, die Relevanz volkswirtschaftlicher Analysen und Lösungsansätze für die Praxis aufzuzeigen VII
VIII
Vorwort der Herausgeber
und dabei zugleich anhand von Hintergrundinformationen einen Exkurs in die entsprechend zugrunde liegenden ökonomischen Theorien zu ermöglichen. So stellt dieses Buch zugleich ein ökonomisches Nachschlagewerk dar, das den Leserinnen und Lesern aktuelle Anwendungsbeispiele für bekannte ökonomische Theorien liefert. Im Folgenden werden die Beiträge in den genannten Kategorien des Sammelbands kurz vorgestellt. Demografischer Wandel Der demografische Wandel wird Deutschland in den kommenden Jahrzehnten vor neue Herausforderungen stellen: Deutschland wird weiter altern, insgesamt mittelfristig an Bevölkerung verlieren und einen wachsenden Anteil an Bürgern mit Migrationshintergrund verzeichnen. Diese Entwicklung wirkt sich bereits heute auf unsere Gesellschaft aus und wird sich künftig noch verstärken. Christina Wilke gibt in ihrem Beitrag einen Überblick über die aktuelle demografische Entwicklung in Deutschland und ordnet diese in die langfristig zu beobachtenden und zu erwartenden Trends ein. Im Anschluss werden in einem zweiten Schritt die damit einhergehenden Auswirkungen auf dem Arbeitsmarkt näher beleuchtet und mögliche Potenziale aufgezeigt. Eng mit der demografischen Entwicklung und dem Arbeitsmarkt verknüpft ist die Frage der Demografiefestigkeit unseres umlagefinanzierten Rentensystems. Cirsten Roppel beschäftigt sich in ihrem Beitrag mit dem sich diesbezüglich abzeichnenden Generationenkonflikt. Zur Lösung respektive Abschwächung dieses Konflikts werden drei Vorschläge diskutiert: ein Wechsel in der Finanzierung der gesetzlichen Rentenversicherung vom Umlage- zum Kapitaldeckungsverfahren, die Erhöhung des Bundeszuschusses sowie eine weitere Anhebung des Renteneintrittsalters. Neben den Auswirkungen auf die Sozialversicherungssysteme wirkt sich der demografische Wandel auch langfristig auf unser Wirtschaftswachstum aus. Thomas Christiaans und Karsten Lübke untersuchen in ihrem Beitrag, welche Voraussagen die moderne Wachstumstheorie für die wirtschaftliche Entwicklung in einem Land mit schrumpfender Bevölkerung impliziert. Dabei wird auch auf Ansätze der Theorie des semi-endogenen Wachstums Bezug genommen. Abschließend werden mögliche Auswirkungen der Automatisierung von Produktionsprozessen betrachtet. Die Autoren weisen darauf hin, dass bei passender wirtschaftspolitischer Flankierung die Automatisierung einen Ausweg darstellen könnte. Aber nicht nur in Bezug auf unser Wirtschaftswachstum insgesamt, auch auf die Nachfrageentscheidungen der Haushalte wirkt sich der demografische Wandel aus. Luca Rebeggiani beleuchtet in seinem Beitrag die zu erwartenden Veränderungen in der Struktur der privaten Nachfrage. Mithilfe eines mikroökonomischen Modells werden hierzu die Verschiebungen der Konsumstruktur bis ins Jahr 2060 geschätzt. Deutlich wird dabei, dass sich der Anteil von Basisgütern wie Nahrungsmitteln am Gesamtkonsum verringern wird, während der Anteil der Gesundheitsausgaben stark
Vorwort der Herausgeber
IX
steigen wird. Diese Verschiebungen der Nachfragestruktur haben auch eine gesamtwirtschaftliche Relevanz, da sie zum einen auf Güter- und Faktormärkten (z. B. für Gesundheitsdienstleistungen) für Veränderungen sorgen werden, zum anderen die Umsatzsteuereinnahmen des Staates spürbar verringern könnten. Globalisierung & Umwelt Die Erkenntnis, dass viele gesellschaftspolitische Herausforderungen die nationalen Grenzen übertreten, prägt unter dem Schlagwort „Globalisierung“ schon seit Jahrzehnten den politischen und wirtschaftlichen Diskurs. In diesem Sammelband wird zunächst im Beitrag von Guido Pöllmann ein allgemeiner Überblick über Globalisierungs- und Deglobalisierungsprozesse gegeben: Nach Jahrzehnten des Zusammenwachsens von Nationen und geografischen Regionen ist in den letzten Jahren wieder ein verstärkter Prozess des Auseinanderdriftens zu beobachten. Die jeweils treibenden Kräfte in die eine oder in die andere Richtung werden im Rahmen des Beitrages detailliert unter die Lupe genommen. Unter allen internationalen Allianzen spielt für Deutschland naturgemäß die Europäische Union eine herausragende Rolle. Der Beitrag von Michael Clauss zeigt die jüngsten Entwicklungen aus einer ordnungspolitischen Perspektive und geht vor allem der Frage der Legitimation europäischer Institutionen nach, die in den letzten Jahren bisweilen scharfen Angriffen ausgesetzt war. Ein nicht minder kontrovers diskutiertes Thema stellt die Auseinandersetzung mit dem Klimawandel dar, die in den nächsten Jahren unbestritten die Wirtschaftspolitik prägen wird. Im Beitrag von Franz Benker wird der Klimawandel als globale Herausforderung für die Wirtschaftspolitik betrachtet – sowohl als Folge eines bestimmten Wirtschaftsmodells in der Vergangenheit als auch als aktuelle Triebfeder für eine stärkere Koordination nationaler Wirtschaftspolitiken. In diesem Zusammenhang werden die verschiedenen Optionen analysiert, die sich den politischen Trägern bieten, um auf diese Herausforderung zu reagieren. Die Umweltpolitik ist auch das zentrale Thema des Beitrags von Michael Drewes, wobei hier eine stärkere Fokussierung auf Deutschland erfolgt, wo das Projekt der sogenannten „Energiewende“ ebenfalls zu wissenschaftlichen und politischen Kontroversen geführt hat. Der Aufsatz zieht ein Fazit aus ordnungspolitischer Sicht und beleuchtet dabei insbesondere das Erneuerbare-Energien-Gesetz: Was beabsichtigte das Gesetz, welche Folgen sind eingetreten? Das Ergebnis der Analyse offenbart tatsächlich ein ambivalentes Bild, sodass abschließend alternative Lösungsansätze diskutiert werden. Eine stärker entwicklungsökonomische Perspektive nimmt der Beitrag von Philipp an de Meulen ein: Warum ist Rohstoffreichtum für einige Länder ein Entwicklungsbeschleuniger, für andere dagegen eine Entwicklungsbremse? Welche politökonomischen Prozesse führen gerade in Entwicklungsländern zu einer eher negativen Rolle von Rohstoffreichtum? Der Beitrag präsentiert eine Fülle empirischer Belege und führt anschließend eine detaillierte theoretische Analyse durch, mit der einige dieser Faktoren identifiziert werden.
X
Vorwort der Herausgeber
Ein eher neues und gesellschaftlich zunehmend diskutiertes globales Problem steht im Fokus der Analyse von Ann-Kathrin Voit: Der weltweit zunehmende Touristenstrom, gerade in Orten, die in das UNESCO-Weltkulturerbe aufgenommen wurden, mutiert in manchen dieser Sehenswürdigkeiten eher zur Belastung, ganz nach dem Muster der klassischen Allmende-Problematik. Der Beitrag erläutert diese Prozesse anhand einer bisher noch eher wenig bekannten Case-Study und diskutiert mögliche wirtschaftspolitische Lösungsmöglichkeiten. Digitalisierung Eine weitere Herausforderung unserer Zeit, die zu Veränderungen in Wirtschaft und Gesellschaft führt, ist die Digitalisierung. Die Informationstechnik gilt als fünfter Kondratiew-Zyklus, der seinen Anfang in den 1990er-Jahren nahm. Technische Neuerungen wie Personal-Computer, Smartphones oder Industrie 4.0 haben die wirtschaftliche und gesellschaftliche Entwicklung geprägt. Neben Chancen bringt diese Entwicklung auch Risiken mit sich. Eine besondere Sorge gilt hierbei der Entwicklung des Arbeitsmarktes und der Frage, ob die menschliche Arbeitskraft nicht mehr gebraucht und künftig zunehmend durch Maschinen ersetzt werden wird. Dieser Frage widmet sich der Beitrag von Alexander Spermann: Er erklärt die Entwicklung wirtschaftshistorisch und wertet aktuelle empirische Studien zur Wirkung der Digitalisierung auf den Arbeitsmarkt aus. Abschließend zieht der Autor hieraus Lehren für die Wachstums-, Bildungs- und Arbeitsmarktpolitik, die den zunehmenden Anpassungsdruck auf die Arbeitnehmer in positive Bahnen lenken müssen, um das deutsche Jobwunder nicht zu gefährden. Zu starken Veränderungen führt die Digitalisierung auch im Bereich der Finanzindustrie, da die neuen technischen Möglichkeiten zur Entwicklung neuer Dienstleistungen und neuer Anbieter in Form sogenannter FinTechs beitragen. Thomas Holtfort beschreibt die Entwicklung von der klassischen Finanztheorie über den Behavioral-Finance-Ansatz hin zum Evolutionary-Finance-Ansatz. Der Evolutionary-Finance-Ansatz, der als Synthese der beiden vorgenannten Erklärungsansätze gilt, basiert auf der biologischen Evolutionstheorie. Der Beitrag erläutert, wie das Verhalten von Anlegerinnen und Anlegern an den Finanzmärkten dynamisch in Abhängigkeit von den Marktbedingungen und u. a. der Lernfähigkeit der anlegenden Person erklärt werden kann. Durch die Digitalisierung sind neue Produkte wie das Musik-Streaming, diverse Apps oder soziale Netzwerke entstanden. Sascha Frohwerk erörtert auf Grundlage der mikroökonomischen Theorie, inwiefern sich diese Güter von herkömmlichen Gütern und Dienstleistungen unterscheiden: Digitale Produkte weisen eine andere Kostenstruktur auf, da eine Vervielfältigung zu sehr geringen Kosten möglich ist. Bei Betriebssystemen und sozialen Netzwerken spielen dagegen die Anzahl der Nutzerinnen und Nutzer und die Wechselkosten eine entscheidende Rolle. Der Autor erläutert, inwiefern sich diese Eigenschaften auf die Preis- und Produktgestaltung der Unternehmen auswirken. Zu den Finanzinnovationen im Zuge der Digitalisierung zählen auch Crowdfunding, Blockchain-Anwendungen und Kryptowährungen. Thomas Ostendorf untersucht das
Vorwort der Herausgeber
XI
Crowdfunding als Alternative zur herkömmlichen Bankfinanzierung und bewertet die Chancen und Risiken des Crowdfundings. Hierbei lässt er insbesondere die Erkenntnisse der Prinzipal-Agent-Theorie zu Informationsasymmetrien und der Transaktionskostentheorie einfließen. Er kommt zu dem Schluss, dass die institutionellen Arrangements der Crowdfunding-Plattformen einen geringeren Schutz für Kapitalanleger und -nehmer bieten und damit keine gleichwertige Alternative zu herkömmlichen Finanzierungsformen darstellen. Charmaine Fritsche gibt einen Überblick über die Funktionsweise der Blockchain und ihre Anwendungsmöglichkeiten, insbesondere in der Finanzindustrie. Zunächst wird die Funktionsweise der Blockchain detailliert erläutert. Mithilfe spieltheoretischer Modelle wird außerdem erklärt, wie das allgemein zugängliche System trotzdem sicher funktionieren kann. Abschließend benennt der Beitrag einige Blockchain-Anwendungen wie Identifizierungsverfahren, grenzüberschreitenden Transaktionen oder Smart Contracts, die zu Effizienzsteigerungen im Bankensektor beitragen können. Abschließend beschäftigt sich der Beitrag von Monika Wohlmann mit Kryptowährungen als Blockchain-Anwendung im Speziellen und erörtert ihren Platz in der Finanzwelt. Hierzu wird die Funktionsweise von Kryptowährungen im Vergleich zum herkömmlichen Geld erläutert und die besonderen Eigenschaften von Kryptowährungen werden diskutiert. Dabei wird auch auf verschiedene Ausgestaltungen, wie den Stablecoin oder digitales Zentralbankgeld, eingegangen. Die Autorin kommt zu dem Schluss, dass Kryptowährungen mittelfristig ihren Platz in Netzwerken finden dürften, der Schritt zu digitalem Bargeld in Form von Kryptowährungen aber noch weiteren technischen Fortschritt erfordert. Insgesamt bietet dieser Band somit einen Einblick in ganz unterschiedliche Herausforderungen unserer Zeit und die damit einhergehenden relevanten volkswirtschaftlichen, theoretischen Grundlagen. Wir danken allen Autorinnen und Autoren, die diesen Sammelband mit ihren Beiträgen so aktuell und abwechslungsreich gestaltet haben. Ebenso danken wir der FOM und dem Springer Verlag für die Aufnahme dieses Werkes in die FOM-Edition. Unser Dank gilt insbesondere auch Herrn Dipl.-jur. Kai Enno Stumpp (FOM Abteilung Publikationen) sowie Frau Angela Meffert (Lektorat bei Springer Gabler) für die ausgezeichnete Betreuung und Unterstützung bei der Vorbereitung dieser Publikation. Wir wünschen Ihnen eine spannende Lektüre und hoffen, dass es uns ein Stück weit gelingt, Ihnen die ökonomische Denkweise mit diesem Werk etwas näher zu bringen.
Bonn, Deutschland Bremen, Deutschland Düsseldorf, Deutschland im Februar 2020
Luca Rebeggiani Christina Benita Wilke Monika Wohlmann
Inhaltsverzeichnis
Teil I Demografischer Wandel 1
Demografischer Wandel in Deutschland – Hintergründe, Zukunftsszenarien und Arbeitsmarktpotenziale. . . . . . . . . . . . . . . . . . . . . . 3 Christina Benita Wilke
2
Der demografische Wandel und die gesetzliche Rentenversicherung in Deutschland – Kapitaldeckungsverfahren, Erhöhung des Bundeszuschusses oder die Anhebung des Renteneintrittsalters als Lösung?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 Cirsten Roppel
3
Demografischer Wandel und Wirtschaftswachstum. . . . . . . . . . . . . . . . . . . 45 Thomas Christiaans und Karsten Lübke
4
Was kauft Opa? – Die Auswirkungen des demografischen Wandels auf den privaten Konsum in Deutschland. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Luca Rebeggiani
Teil II Globalisierung & Umwelt 5
Globalisierung und Deglobalisierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 Guido Pöllmann
6
Legitimierung der europäischen Integration als Bedingung für politische Nachhaltigkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Michael Clauss
7
Internationale Wirtschaftspolitik und Klimawandel. . . . . . . . . . . . . . . . . . . 127 Franz Benker
8
Die Förderung erneuerbarer Energieträger aus ordnungspolitischer Sicht. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 Michael Drewes XIII
XIV
9
Inhaltsverzeichnis
Rohstoffreichtum – Des einen Segen ist des anderen Fluch. . . . . . . . . . . . . 165 Philipp an de Meulen
10 Tourismus contra Übernutzung – Das UNESCO-Welterbe Kotor in Montenegro. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 Ann-Katrin Voit Teil III Digitalisierung 11 Beendet die Digitalisierung das deutsche Jobwunder?. . . . . . . . . . . . . . . . . 215 Alexander Spermann 12 Verhaltens- und evolutionsökonomische Betrachtung von Finanzmarktprozessen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 Thomas Holtfort 13 Internet-Ökonomik – Musik-Streaming, Apps und soziale Netzwerke aus mikroökonomischer Sicht. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 Sascha Frohwerk 14 Crowdfunding – Eine institutionenökonomische Betrachtung. . . . . . . . . . . 263 Thomas Ostendorf 15 Die Blockchain-Technologie und ihre Anwendungspotenziale. . . . . . . . . . . 283 Charmaine Fritsche 16 Kryptowährungen – Top oder Flop?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303 Monika Wohlmann
Über die Herausgeber
Prof. Dr. Luca Rebeggiani ist seit 2015 Professor für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management in Bonn und kooptierter Wissenschaftler des KCV KompetenzCentrum für angewandte Volkswirtschaftslehre. Seine Forschungsschwerpunkte liegen in den Bereichen öffentliche Finanzen, Wirtschaftspolitik, Sportund Glücksspielökonomie.
Prof. Dr. Christina Benita Wilke ist seit 2016 Professorin für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management, wissenschaftliche Gesamtstudienleiterin am Hochschulzentrum Bremen sowie wissenschaftliche Leiterin des KCV KompetenzCentrum für angewandte Volkswirtschaftslehre. Ihre Forschungsschwerpunkte liegen im Bereich Demografischer Wandel, der Sozial- und Arbeitsmarktpolitik sowie der Gesundheitsökonomie.
Prof. Dr. Monika Wohlmann ist Professorin für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management in Düsseldorf und wissenschaftliche Leiterin des KCV KompetenzCentrum für angewandte Volkswirtschaftslehre. Ihre Forschungsschwerpunkte liegen in den Bereichen Geldpolitik und Finanzmärkte.
XV
Verzeichnis der Beitragsautoren
Philipp an de Meulen FOM Hochschule, Dortmund, Deutschland Franz Benker FOM Hochschule, Nürnberg, Deutschland Thomas Christiaans FOM Hochschule, Siegen, Deutschland Michael Clauss FOM Hochschule Nürnberg, Deutschland Michael Drewes FOM Hochschule, Mannheim, Deutschland Charmaine Fritsche FOM Hochschule, Essen, Deutschland Sascha Frohwerk FOM Hochschule, Berlin, Deutschland Thomas Holtfort FOM Hochschule, Bonn, Deutschland Karsten Lübke FOM Hochschule, Dortmund, Deutschland Thomas Ostendorf FOM Hochschule, Bremen, Deutschland Guido Pöllmann FOM Hochschule, München, Deutschland Luca Rebeggiani FOM Hochschule, Bonn, Deutschland Cirsten Roppel FOM Hochschule, Bonn, Deutschland Alexander Spermann FOM Hochschule, Köln, Deutschland Ann-Katrin Voit FOM Hochschule, Bochum, Deutschland Christina Benita Wilke FOM Hochschule, Bremen, Deutschland Monika Wohlmann FOM Hochschule, Düsseldorf, Deutschland
XVII
Teil I Demografischer Wandel
1
Demografischer Wandel in Deutschland – Hintergründe, Zukunftsszenarien und Arbeitsmarktpotenziale Christina Benita Wilke
Inhaltsverzeichnis 1.1 Demografische Trends und Szenarien für Deutschland. . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.1.1 Kontinuierlicher Anstieg der Lebenserwartung. . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.1.2 Historischer Pillenknick und Geburtenraten unter dem bestandserhaltenden Niveau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.1.3 Negativer natürlicher Saldo und positiver Wanderungssaldo. . . . . . . . . . . . . . . . . . 10 1.1.4 Langfristige Szenarien zur Entwicklung der Bevölkerungszahl. . . . . . . . . . . . . . . 11 1.1.5 Veränderungen in der Altersstruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2 Auswirkungen des Wandels auf den Arbeitsmarkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.1 Rückläufiges und alterndes Erwerbspersonenpotenzial. . . . . . . . . . . . . . . . . . . . . . 15 1.2.2 Steigerung der Erwerbstätigenquoten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.2.3 Erhöhung des Arbeitsvolumens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.3 Fazit und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Zusammenfassung
Der demografische Wandel, also die Veränderung im Umfang und der Altersstruktur der Bevölkerung, wird Deutschland in den kommenden Jahrzehnten vor neue Dieser Beitrag basiert auf Wilke (2019). Neben einer generellen Aktualisierung wurden in Abschn. 1.1 die neuen Ergebnisse der 14. Koordinierten Bevölkerungsvorausberechnung (KBV) (Statistisches Bundesamt 2019a) herangezogen sowie zu ausgewählten Aspekten Theorien zur Methodik oder wissenschaftlichen Begriffen ergänzt. C. B. Wilke (*) FOM Hochschule, Bremen, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_1
3
4
C. B. Wilke
Herausforderungen stellen: Deutschland wird altern, voraussichtlich insgesamt an Bevölkerung verlieren und einen wachsenden Anteil an Bürgern mit Migrationshintergrund verzeichnen. Diese Veränderungen werden auch unsere Arbeitswelt maßgeblich beeinflussen. Der Beitrag gibt einen Überblick über die aktuelle demografische Entwicklung in Deutschland und ordnet diese in die langfristig zu beobachtenden und erwarteten Trends ein. Im Anschluss werden die damit einhergehenden Auswirkungen auf den Arbeitsmarkt betrachtet. Der Beitrag schließt mit einem kurzen Fazit und Ausblick.
1.1 Demografische Trends und Szenarien für Deutschland Die demografische Entwicklung eines Landes wird bestimmt durch das Zusammenspiel dreier Parameter: 1. der Entwicklung der Lebenserwartung und damit der Anzahl der Sterbefälle, 2. dem Geburtenverhalten der Müttergeneration und damit der Anzahl der Geburten sowie 3. der Entwicklung des Wanderungssaldos, also der Differenz zwischen den Zuzügen nach und den Fortzügen aus Deutschland. Im Folgenden werden die bisherige sowie künftig zu erwartende Entwicklung dieser Parameter für Deutschland skizziert und die entsprechenden Auswirkungen auf den Bevölkerungsumfang und die Bevölkerungsstruktur aufgezeigt. Grundlage hierfür sind die Daten des Statistischen Bundesamtes und insbesondere die Annahmen und Ergebnisse der aktuellen 14. Koordinierten Bevölkerungsvorausberechnung (KBV), die sich bis zum Jahr 2060 erstreckt (Statistisches Bundesamt 2019a). Hierbei sei darauf hingewiesen, dass solche Bevölkerungsberechnungen keine Prognose im Sinne einer wahrscheinlichsten Entwicklung darstellen, sondern zum Ziel haben, die mögliche Spannbreite künftiger Entwicklungen zu verdeutlichen.
1.1.1 Kontinuierlicher Anstieg der Lebenserwartung Im vergangenen Jahrhundert ist die Lebenserwartung in Deutschland kontinuierlich gestiegen. Seit Beginn der 1970er-Jahre lässt sich für die durchschnittliche Lebenserwartung bei Geburt ein relativ linearer Anstieg um etwa 2,5 Jahre pro Dekade beobachten. Derzeit liegt die Lebenserwartung bei Geburt für Mädchen bei etwa 83 und für Jungen bei etwa 78 Jahren (Statistisches Bundesamt 2018a, S. 6 und S. 4). Mädchen haben demnach eine um etwa fünf Jahre höhere durchschnittliche Lebenserwartung als Jungen.
1 Demografischer Wandel in Deutschland …
5
Während der Anstieg der Lebenserwartung im letzten Jahrhundert zunächst größtenteils auf eine Verringerung der Säuglingssterblichkeit, weniger tödliche Betriebsunfälle sowie insgesamt verbesserte Hygiene- und Ernährungsgewohnheiten zurückzuführen war, basiert der Anstieg seit Beginn der 1970er-Jahre größtenteils auf einer Erhöhung der Restlebenserwartung ab einem Alter von 65. Diese sogenannte fernere Lebenserwartung ist in den vergangenen 50 Jahren um etwa 1,5 Jahre pro Dekade gestiegen. Sie liegt heute bei etwa 21 Jahren für Frauen und etwa 18 Jahren für Männer (Statistisches Bundesamt 2018a, S. 7 und S. 5). Frauen, die heute 65 Jahre alt sind, können demnach erwarten, dass sie im Durchschnitt ein Lebensalter von 86 Jahren erreichen, Männer eines von knapp 83 Jahren. Die Differenz in der Lebenserwartung von Männern und Frauen fällt im fortgeschrittenen Alter mit nur noch drei Jahren somit deutlich geringer aus als bei Geburt. Wie wird die Lebenserwartung eigentlich berechnet und was sagt sie aus?
Die Lebenserwartung errechnet sich aus der Sterbetafel. Eine Sterbetafel ist eine Tabelle, die für jedes Einzelalter und getrennt nach Geschlecht die in der Bevölkerung zu beobachtenden Sterbe- (und somit auch Ü berlebens-)Wahrscheinlichkeiten von einem Lebensjahr zum nächsten anzeigt (siehe Statistisches Bundesamt 2018a, b). Aus diesen bedingten Wahrscheinlichkeiten (die Bedingung lautet, dass Alter a erreicht wurde) lassen sich dann in einem ersten Schritt unbedingte Überlebenswahrscheinlichkeiten und daraus schließlich die geschlechtsspezifische durchschnittliche Lebenserwartung in einzelnen Altersjahren (also bspw. bei Geburt, d. h. a = 0) wie folgt berechnen:
LEa=0 =
CSRa−1 × USRa−1
mit CSRa = 1−MRa, UCSRa = 0 = 1 und USRa = USRa − 1 × CSRa − 1 • • • •
LE: Life Expectancy (Lebenserwartung) CSR: Conditional Survival Rate (bedingte Überlebenswahrscheinlichkeit) MR: Mortality Rate (Sterbewahrscheinlichkeit) UCSR: Unconditional Survival Rate (unbedingte Überlebenswahrscheinlichkeit)
Sterbetafeln können sowohl für eine bestimmte Periode (Periodensterbetafel) als auch für einen bestimmten Geburtsjahrgang (Kohortensterbetafel) aufgestellt werden. Periodensterbetafeln enthalten die in einem Zeitraum (meist zwei bis drei Jahre) im Mittel zu beobachtenden Sterbe- und Überlebenswahrscheinlichkeiten im Querschnitt für jeweils alle Altersgruppen (bzw. Einzelalter). Die Lebenserwartung bspw. bei Geburt wird dann unter der Annahme berechnet, dass die altersspezifischen Sterblichkeitsraten künftig unverändert, also konstant, bleiben werden. Dies ist in der Realität aber nicht der Fall, denn die Sterblichkeit hat in
6
C. B. Wilke
den letzten Dekaden gerade im Alter kontinuierlich weiter abgenommen und sich in immer spätere Lebensjahre verlagert. Kohortensterbetafeln bilden hingegen die im Mittel zu beobachtenden Sterbe- und Überlebenswahrscheinlichkeiten für jeweils alle Altersjahre einer Kohorte, also im Längsschnitt, ab. Hier gehen Veränderungen in der Sterblichkeit über die Zeit also mit ein. In der Regel beziehen sich Angaben zur Lebenserwartung dennoch zumeist auf die Ergebnisse von Periodensterbetafeln, da die Ergebnisse zur tatsächlichen Lebenserwartung einzelner Kohorten natürlich immer erst dann vorliegen, wenn alle Angehörigen dieser Kohorte auch verstorben sind. In jedem Fall geben Sterbetafeln nur Durchschnittswerte an, von denen die individuelle Lebenserwartung mitunter stark abweichen kann – sei es aufgrund individueller Risiken und Verhaltensweisen (z. B. Veranlagungen oder Ernährungsgewohnheiten) oder aufgrund gesellschaftlicher Ereignisse (z. B. Katastrophen oder Umwelteinflüsse wie starke Hitze).
Für die Zukunft rechnet das Statistische Bundesamt in seiner 14. KBV damit, dass die Lebenserwartung bei Geburt bis zum Jahr 2060 für Mädchen um weitere drei bis sieben Jahre auf mehr als 86 bis fast 90 Jahre und für Jungen um weitere vier bis acht Jahre auf über 82 bis ca. 86 Jahre steigen wird (vgl. Annahmen L1 bis L3 in Abb. 1.1; L1, L2, L3 bezeichnen die drei Grundannahmen zur Entwicklung der Lebenserwartung im Rahmen 90 88 86 84 82 80 78 76
2005
2010
2015
M-L1
2020
2025
M-L2
2030 M-L3
2035
2040 F-L1
2045
2050
F-L2
2055
2060
F-L3
Abb. 1.1 Entwicklung der Lebenserwartung bei der Geburt. (Datenquellen: Statistisches Bundesamt 2019a, b)
1 Demografischer Wandel in Deutschland …
7
der 14. KBV; M = Männer, F = Frauen). Ein Großteil dieses Anstiegs wird dabei aufgrund der höheren Überlebenswahrscheinlichkeiten im fortgeschrittenen Alter erwartet. So geht das Statistische Bundesamt bei der ferneren Lebenserwartung im Alter von 65 bis zum Jahr 2060 von einer Zunahme um zwei bis fünf Jahre auf 20 bis 23 Jahre für Männer und 23 bis 26 Jahre für Frauen aus (Statistisches Bundesamt 2019a, S. 15).
1.1.2 Historischer Pillenknick und Geburtenraten unter dem bestandserhaltenden Niveau Die Geburtenrate (hier: zusammengefasste Geburtenziffer, zum Konzept der Geburtenrate vgl. Einschub „Zur Geburtenrate gibt es verschiedene Konzepte“) beschreibt die durchschnittliche Anzahl an Kindern, die eine Frau bekommen würde, wenn die Verhältnisse des untersuchten Jahres von ihrem 15. bis 49. Lebensjahr gelten würden (Statistisches Bundesamt o. J). Nach hohen Werten in den 1950er- und 1960er-Jahren (Babyboom) ist die Geburtenrate in Deutschland in den späten 1960er-Jahren stark zurückgegangen (Pillenknick) und blieb seitdem relativ konstant auf einem Niveau von etwa 1,4 Kindern pro Frau (vgl. Abb. 1.2). Dieser Wert liegt deutlich unter dem bestandserhaltenden Niveau von 2,1 Kindern pro Frau – jede Elterngeneration wird also nur noch zu knapp zwei Dritteln von ihren Kindern ersetzt.
Abb. 1.2 Entwicklung der zusammengefassten Geburtenziffer. (Quelle: Statistisches Bundesamt 2019c)
8
C. B. Wilke
Diese niedrige Geburtenrate erklärt sich im Wesentlichen anhand dreier zunächst einmal separat voneinander zu beobachtender Entwicklungen (Statistisches Bundesamt 2019d): 1. Dem Anstieg des durchschnittlichen Alters der Mütter bei Erstgeburt Während Mütter bei Erstgeburt heute durchschnittlich etwa 30 Jahre alt sind, lag das Alter bei Erstgeburt zu Beginn der 1970er-Jahre in Westdeutschland noch bei 24 und in der ehemaligen DDR sogar bei 22 Jahren. 2. Dem Rückgang in der Zahl der Kinder pro Frau Während die Mütter der sogenannten Babyboom-Generation durchschnittlich noch weit mehr als zwei Kinder zur Welt brachten, ist die durchschnittliche Kinderzahl seitdem auf etwa zwei Kinder pro Frau gesunken. 3. Der Zunahme des Anteils der Kinderlosen an allen Frauen einer Kohorte Während vor dem Zweiten Weltkrieg nur etwa 10 % der Frauen kinderlos blieben, stieg dieser Anteil bis Ende der 1960er-Jahre bereits auf über 20 %. Obwohl Mütter durchschnittlich weiter etwa 2 Kinder bekamen, ging aufgrund der insgesamt kleineren Mütterkohorten die endgültige Kinderzahl je Frau zurück, wenn die Frauen das gebärfähige Alter hinter sich lassen. In den letzten Jahren ist erstmals wieder ein leichter Anstieg der Geburtenrate auf nahezu 1,6 in den Jahren 2016, 2017 und 2018 zu verzeichnen (Statistisches Bundesamt 2019e). Für die Zukunft geht das Statistische Bundesamt in seinen Vorausberechnungen im Rahmen der 14. KBV in seinen drei gewählten Szenarien neben einem leichten Rückgang auf langfristig 1,4 Kinder pro Frau (Annahme G1) auch von einem weiteren moderaten Anstieg auf 1,6 (Annahme G2) bzw. sogar einem deutlicheren Anstieg auf 1,7 Kinder pro Frau (Annahme G3) aus (Statistisches Bundesamt 2019a, S. 15). Aber selbst bei einer künftig leicht höheren Geburtenrate würde die Anzahl der Lebendgeborenen zunächst weiter abnehmen – denn die aktuellen sowie nachfolgenden Müttergenerationen setzen sich aus den geburtenschwachen Jahrgängen nach dem Pillenknick zusammen. Zur Geburtenrate gibt es verschiedene Konzepte
Der Begriff „Geburtenrate“ wird im deutschen Sprachgebrauch häufig synonym mit den Begriffen Fertilitätsrate, Geburtenziffer und Fruchtbarkeitsziffer verwendet. Das Konzept der Geburtenrate bzw. Geburtenziffer umfasst dabei zwei verschiedene Ansätze (BiB 2019). In den Medien werden meist periodenbezogene Ziffern wie die zusammengefasste Geburtenziffer für das aktuelle Jahr, also im Querschnitt, genannt. Daneben lässt sich auch eine Längsschnittbetrachtung vornehmen, die die endgültigen Kinderzahlen einer Kohorte ermittelt. Dies ist allerdings erst dann möglich, wenn die Frauen dieser Kohorte älter als 49 Jahre und somit nicht mehr im gebärfähigen Alter sind.
1 Demografischer Wandel in Deutschland …
Querschnittindikatoren
• Die (Brutto-)Geburtenziffer (engl. crude birth rate, fertility rate) gibt die Lebendgeborenen eines Landes pro 1000 Einwohner in einem Jahr an. • Als allgemeine Geburtenziffer (engl. general fertility rate (GFR)) wird die Zahl der Lebendgeborenen eines Landes in einem Jahr pro 1000 Frauen im gebärfähigen Alter (in der Regel zwischen 15 und 49 Jahren) bezeichnet. • Die altersspezifische Geburtenziffer (engl. age specific fertility rate (AFR)) zeigt die Geburtenhäufigkeit, also wie viele Kinder durchschnittlich von Frauen eines bestimmten Alters geboren werden. Sie lässt sich für jedes Alter der Frauen zwischen 15 und 49 Jahren ermitteln, indem die im jeweiligen Jahr von Müttern eines bestimmten Alters geborenen Kinder auf 1000 Frauen dieses Alters bezogen werden. • Die zusammengefasste Geburtenziffer (engl. total fertility rate (TFR)) entspricht der Summe der altersspezifischen Geburtenziffern, dividiert durch 1000. Sie gibt die durchschnittliche Kinderzahl pro Frau in gebärfähigem Alter in einem Jahr an und ist somit ein hypothetisches Maß – denn die betrachteten Frauen gehören ja ganz unterschiedlichen Kohorten an. Es handelt sich also lediglich um eine Momentaufnahme im Querschnitt und nicht um ein tatsächliches Maß für die durchschnittliche Kinderzahl pro Frau. Längsschnittindikatoren
Ein tatsächliches Maß liefert die kohortenspezifische Geburtenziffer (engl: cohort fertility rate (CFR)). Ähnlich wie bei der zusammengefassten Geburtenziffer handelt es sich um eine durch 1000 dividierte Summe altersspezifischer Geburtenziffern – allerdings werden die Werte nun über verschiedene Jahre hinweg summiert, sodass sie die Geburtenhäufigkeit einer bestimmten Mütterkohorte abbilden. Sie wird auch als mittlere endgültige Kinderzahl bezeichnet und kann erst berechnet werden, wenn die Frauen der entsprechenden Kohorte das 50. Lebensjahr erreicht haben. Kurzfristige Entwicklungen versus langfristige Trends
Um kurzfristige Entwicklungen von langfristigen Trends unterscheiden zu können, ist es sinnvoll, Querschnittindikatoren wie die zusammengefasste Geburtenziffer immer vor dem Hintergrund der Entwicklung von Längsschnittindikatoren wie der kohortenspezifischen Geburtenziffer zu interpretieren. So bedeutet bspw. die in Deutschland lange zu beobachtende quasi konstante zusammengefasste Geburtenziffer von etwa 1,4 nicht, dass das Geburtenverhalten in dieser Zeit unverändert blieb. Tatsächlich führte hier ein Rückgang der altersspezifischen Geburtenziffern der Unter-30-Jährigen bei gleichzeitiger Zunahme bei den Über-30-Jährigen zu einem Ausgleich (BiB 2019).
9
10
C. B. Wilke
1.1.3 Negativer natürlicher Saldo und positiver Wanderungssaldo Schon seit Beginn der 1970er-Jahre, kurz nach dem Pillenknick, können die jährlichen Geburten in Deutschland die jährlichen Sterbefälle nicht mehr ausgleichen – der natürliche Bevölkerungssaldo ist seitdem negativ. Selbst im Jahr 2016 blieb bei einem neuen Rekordwert von 792.000 Geburten bei 911.000 Sterbefällen eine negative Differenz von fast 120.000 (Statistisches Bundesamt 2019f). Bislang konnte diese Lücke meist durch Wanderungsgewinne aus dem Ausland geschlossen werden, sodass es zu keinem maßgeblichen Bevölkerungsrückgang kam. Der Wanderungssaldo der Zu- und Fortzüge schwankt allerdings stark. Mit (über) 500.000 in den Jahren 2014 und 2016 und sogar über einer Million im Jahr 2015 und immer noch rund 400.000 in den Jahren 2017 und 2018 war dieser Saldo in den letzten fünf Jahren so hoch wie zuletzt zu Beginn der 1990er-Jahre (Statistisches Bundesamt 2019g, vgl. auch Abb. 1.3). Als Folge der Migration hatten 2018 in Deutschland fast 21 Mio. Menschen, d. h. jede vierte Person, einen Migrationshintergrund (Statistisches Bundesamt 2019h). In seiner 14. KBV rechnet das Statistische Bundesamt weiterhin mit jährlichen Zuwanderungsgewinnen (also einem positiven Wanderungssaldo) von mindestens rund 150.000 Personen jährlich (Annahme W1) und maximal rund 310.000 Personen jährlich (Annahme W2) bis zum Jahr 2060. In einer mittleren Variante wird von rund 220.000 Personen jährlich (Annahme W3) ausgegangen (Statistisches Bundesamt 2019a, S. 15).
Abb. 1.3 Saldo der Wanderungen über die Grenze Deutschlands. (Quelle: Statistisches Bundesamt 2019a, S. 43)
1 Demografischer Wandel in Deutschland …
11
1.1.4 Langfristige Szenarien zur Entwicklung der Bevölkerungszahl
86 84 82 80 78 76 74 72 70 68
1990 1993 1996 1999 2002 2005 2008 2011 2014 2017 2020 2023 2026 2029 2032 2035 2038 2041 2044 2047 2050 2053 2056 2059
Millions
Für die Bevölkerungszahl insgesamt projiziert das Statistische Bundesamt, dass diese von 83 Mio. im Jahr 2018 voraussichtlich bis mindestens zum Jahr 2024 noch weiter zunehmen und erst danach, spätestens ab 2040, entweder auf das heutige Niveau von 83 Mio. (Variante L2-G2-W3) oder deutlich stärker bis auf 74 Mio. (Variante L2-G2-W1) zurückgehen wird. In dieser Spannbreite von 9 Mio. am Ende des Berechnungszeitraums im Jahr 2060 zeigt sich die starke Hebelwirkung der zugrunde liegenden Wanderungsannahmen. Diese Hebelwirkung fällt im Hinblick auf die Annahmen zur Geburtenentwicklung mit 5 Mio. Differenz deutlich geringer aus und ist im Hinblick auf die Annahmen zur Lebenserwartung mit 3 Mio. Differenz am geringsten (Statistisches Bundesamt 2019a, S. 17 ff.). Wird im extremsten Fall von einer künftig sehr jungen (L1-G3-W3) oder einer künftig sehr alten (L3-G1-W1) Bevölkerung ausgegangen, ergibt sich die in Abb. 1.4 dargestellte Bandbreite möglicher künftiger Entwicklungen. Es zeigt sich, dass bei kontinuierlich starker Zuwanderung (W3) ein Bevölkerungsrückgang vermeidbar sein kann, wenn zugleich die Geburtenrate (G3) weiter zunimmt. Andersherum geht eine starke Alterung der Bevölkerung aufgrund schwacher Zuwanderung (W1) und langfristig niedrig bleibender Geburtenrate (G1) auch mit einem starken Bevölkerungsrückgang einher.
Relav alte Bevölkerung (G1L3W1) Relav junge Bevölkerung (G3L1W3) Milere Variante (G2L2W2) Bisherige Bevölkerungsentwicklung Abb. 1.4 Bandbreite möglicher Szenarien zur künftigen Entwicklung der Bevölkerungszahl. (Datenquelle: Statistisches Bundesamt 2019i, j)
12
C. B. Wilke
Diese skizzierte Entwicklung auf Bundesebene sagt allerdings noch nichts über mögliche regionale Disparitäten aus. So lassen sich Schrumpfungsprozesse bereits heute häufiger in den ostdeutschen Flächenländern als in Westdeutschland beobachten, während die Stadtstaaten weiterhin Bevölkerungszuwächse verzeichnen.
1.1.5 Veränderungen in der Altersstruktur Die zeitlich sehr knappe Abfolge von Babyboom und Pillenknick ist in Deutschland wesentlich stärker ausgeprägt als in den meisten anderen europäischen Ländern. Dies führt dazu, dass in Deutschland nicht nur das Individuum (vgl. Abschn. 1.1.1), sondern auch die Gesellschaft als Ganzes immer älter wird – denn den zahlenmäßig starken Jahrgängen der nun alternden Babyboom-Generation folgen die zahlenmäßig deutlich schwächeren Jahrgänge nach dem Pillenknick. Dadurch entsteht eine „demografische Welle“, die die künftige Altersstruktur Deutschlands maßgeblich bestimmt. Auch die Zuwanderung wirkt sich auf die Zusammensetzung der Bevölkerung und die Altersstruktur aus. Die Bevölkerung mit Migrationshintergrund ist durchschnittlich um etwa 11 Jahre jünger als die Bevölkerung ohne Migrationshintergrund (Durchschnittsalter von 36 versus 47 Jahren) (Statistisches Bundesamt 2019k). Die Zuwanderung wirkt grundsätzlich somit nicht nur einem Bevölkerungsrückgang entgegen, sondern trägt auch zu einer Verjüngung der Bevölkerung bei. Als Konsequenz dieser Verschiebungen in der Altersstruktur wird das Verhältnis der Älteren (im Ruhestandsalter) zu den Jüngeren (im Erwerbsalter), der sogenannte Altenquotient, in Deutschland in den nächsten Jahrzehnten deutlich zunehmen. Auf 100 „junge“ Personen im Alter zwischen 20 und 66 Jahren kommen derzeit 31 „ältere“ Personen im Alter 67+. In seiner 14. KBV geht das Statistische Bundesamt davon aus, dass dieser Anteil bis zum Jahr 2060 auf Werte zwischen 44 (im Falle einer relativ jungen Bevölkerung) bis 49 (im Falle einer relativ alten Bevölkerung) steigt (Statistisches Bundesamt 2019a, S. 27, vgl. auch Abb. 1.4). Damit zählt Deutschland neben Japan und Italien schon heute zu den ältesten Volkswirtschaften weltweit (vgl. Abb. 1.5; Hinweis: Um den internationalen Vergleich zu ermöglichen, wird der Altenquotient hier mit anderen Altersgrenzen (20 und 65 anstatt 20 und 67 in der 14. KBV) berechnet). Während andere Länder in Europa wie Frankreich und Großbritannien ebenfalls stark altern, weisen die USA und Australien mit Altenquotienten von unter 25 noch eine deutlich jüngere Bevölkerung auf. Noch jünger sind die Bevölkerungen der BRICS-Staaten (Brasilien, Russland, Indien, China und Südafrika). Ähnlich wie der Bevölkerungsumfang kann auch die Altersstruktur auf regionaler Ebene stark divergieren. So altert die Bevölkerung in vielen ostdeutschen Regionen aufgrund vermehrter Abwanderungen deutlich schneller als in den meisten westdeutschen Regionen. Ebenso profitieren viele Städte in Deutschland von weiteren Zuwanderungen, die einer Alterung der Bevölkerung in diesen Gebieten ein Stück weit entgegenwirken.
1 Demografischer Wandel in Deutschland …
13
Saudi-Arabien Indonesien Südafrika Indien Mexico Brasilien Türkei China Argennien Korea, Republik Russische Föderaon Vereinigte Staaten Australien Kanada Vereinigtes Königreich Frankreich Deutschland Italien Japan 0
10
20
30 2050
40
50
60
70
80
90
2015
Abb. 1.5 Entwicklung der Altenquotienten der G20-Staaten. (Quelle: Statistisches Bundesamt (o. J.). G20 in Zahlen, https://service.destatis.de/G20/. Zugegriffen: 30. August 2019)
1.2 Auswirkungen des Wandels auf den Arbeitsmarkt Wie wirkt sich dieser demografische Wandel nun auf den Arbeitsmarkt aus? Mit der Alterung und dem zu erwartenden Rückgang der Bevölkerung insgesamt wird auch die Bevölkerung im Erwerbsalter, die potenziell dem Arbeitsmarkt zur Verfügung steht, zurückgehen und altern. Sofern wir das Erwerbspersonenpotenzial künftig nicht besser ausschöpfen, wird auch der Umfang unserer Erwerbstätigkeit proportional zurückgehen. Deutschland könnte in der Folge als Wirtschaftsmacht schrumpfen und seinen derzeit hohen Lebensstandard möglicherweise nicht aufrechterhalten können – insbesondere im Vergleich zu Ländern wie den USA oder den BRICS-Staaten, die nicht so schnell altern wie Deutschland. Denn die rückläufige Zahl an Personen im Erwerbsalter muss ein volkswirtschaftliches Einkommen erzielen, das auch der wachsenden Gruppe der nicht am Arbeitsmarkt aktiven Generationen (Kindern und Älteren) ausreichend Transfereinkommen ermöglicht.
14
C. B. Wilke
Dieser Entwicklung kann jedoch ein Stück weit entgegengewirkt werden, wenn es uns gelingt, das noch vorhandene Erwerbspersonenpotenzial künftig besser auszuschöpfen, also eine aktivere Arbeitsmarktpartizipation jener Gruppen zu erreichen, die dem Arbeitsmarkt heute noch nicht in vollem Umfang zur Verfügung stehen, wie bspw. Jüngere, Ältere sowie Frauen. Prinzipiell gibt es hierzu zwei Ansatzmöglichkeiten: 1. die Anzahl der tatsächlich Erwerbstätigen aus diesem Pool potenziell erwerbsfähiger Personen kann durch zunehmende Erwerbstätigenquoten gesteigert werden, und/oder 2. das Arbeitsvolumen der tatsächlich Erwerbstätigen kann in Form vermehrter Arbeitsstunden pro Woche erhöht werden. Nachfolgend werden zunächst die Auswirkungen des Wandels auf den Arbeitsmarkt skizziert und im Anschluss mögliche Ansätze einer aktiveren Arbeitsmarktpartizipation im Überblick dargestellt. Arbeitsangebot und Arbeitsnachfrage – Wichtige Begrifflichkeiten und Zusammenhänge auf dem Arbeitsmarkt
Auf dem Arbeitsmarkt trifft das Arbeitsangebot der Haushalte auf die Arbeitsnachfrage der Unternehmen, die ihre Arbeitsstellen jeweils bestmöglich besetzen möchten. Das Arbeitskräfteangebot speist sich dabei aus der vorhandenen Bevölkerung im Erwerbsalter. Es lässt sich weiter unterteilen in Erwerbspersonen und Nichterwerbspersonen – denn nicht jede Person im Erwerbsalter bietet ihre Arbeitskraft auch an. Zu den Erwerbspersonen zählen wiederum alle Personen, die entweder erwerbstätig sind (d. h. einer bezahlten Beschäftigung nachgehen) oder (unfreiwillig) erwerbslos sind. Anhand der Erwerbstätigenquote lässt sich der Anteil der Erwerbstätigen an der Gesamtbevölkerung im Erwerbsalter messen. Liegt eine Erwerbstätigkeit vor, so kann zudem auch der Umfang der Erwerbstätigkeit (Teilzeit/Vollzeit) in Form des volkswirtschaftlich resultierenden Arbeitsvolumens abgebildet werden. Die Erwerbslosenquote bildet hingegen den Anteil der Erwerbslosen an den Erwerbspersonen. Der Begriff der Erwerbslosigkeit wird in Deutschland oft synonym zum Begriff der Arbeitslosigkeit verwendet. Tatsächlich verbergen sich hinter diesen beiden Begriffen unterschiedliche Konzepte. Die Erwerbslosigkeit wird jährlich vom Statistischen Bundesamt basierend auf einer Befragung einer Stichprobe der deutschen Bevölkerung (dem sogenannten Mikrozensus) erhoben und entspricht der internationalen Definition von Erwerbslosigkeit gemäß der International
1 Demografischer Wandel in Deutschland …
15
Labour Organisation (ILO). Die Arbeitslosigkeit hingegen wird jährlich von der Bundesagentur für Arbeit aus den vorliegenden amtlichen Daten ermittelt, die die Arbeitssuchenden in Deutschland erfassen. Die beiden Definitionen sind nicht deckungsgleich. So kann es Personen geben, die nicht arbeitslos gemeldet sind, jedoch in der Befragung angeben, gerne arbeiten zu wollen. Andersherum können Personen, die eine geringfügige Tätigkeit ausüben, in Deutschland nach wie vor arbeitslos gemeldet sein, während sie gemäß dem ILO-Konzept aufgrund ihrer Tätigkeit nicht mehr als erwerbslos gelten. Die Arbeitslosenquote der Bundesagentur ist zumeist höher als die Erwerbslosenquote des Statistischen Bundesamtes (2019l). Zu den Nichterwerbspersonen zählen Personen, die nicht erwerbstätig sind, derzeit aber auch keine Arbeit suchen. Ein Teil davon steht dem Arbeitsmarkt grundsätzlich nicht zur Verfügung (bspw. aufgrund von Krankheit), ein Teil wäre prinzipiell aber durchaus erwerbsbereit. So könnten Studenten bei einer verkürzten Studienzeit bspw. früher in den Arbeitsmarkt eintreten, Eltern bei vorhandenen Kinderbetreuungsmöglichkeiten auch neben der Kindererziehung erwerbstätig sein oder ältere Beschäftigte weiterarbeiten, anstatt in den (Vor-)Ruhestand zu gehen. Diese Personen bilden die sogenannte Stille Reserve. Als Erwerbspersonenpotenzial/Arbeitskräftepotenzial wird nach Definition des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) die Summe aus Erwerbstätigen, Erwerbslosen und Stiller Reserve bezeichnet (Statistisches Bundesamt 2019m).
1.2.1 Rückläufiges und alterndes Erwerbspersonenpotenzial Derzeit befinden sich knapp 52 Mio. Menschen in Deutschland im Erwerbsalter zwischen 20 und 66 Jahren und bilden somit das maximal verfügbare potenzielle Arbeitskräfteangebot. Bis zum Jahr 2035 rechnet das Statistische Bundesamt hier mit einem Rückgang um 4 bis 6 Mio. auf etwa 46 bis 48 Mio., bis zum Jahr 2060 um möglicherweise weitere 6 Mio. auf 40 Mio. für das Extremszenario einer stark alternden Bevölkerung (L3-G1-W1) oder mit einem nur noch sehr moderaten Rückgang von 0,5 Mio. für das Szenario einer sehr jungen Bevölkerung (L1-G3-W3) (Statistisches Bundesamt 2019a, S. 24). Zudem verändert sich auch die Altersstruktur der Erwerbsbevölkerung. Künftig wird es immer weniger jüngere und zugleich immer mehr ältere Erwerbspersonen kurz vor dem Ruhestand geben. Dieser Alterungsprozess wird insbesondere bis zum Jahr 2035/2040 stattfinden. Er ist geprägt durch die Alterung der geburtenstarken Jahrgänge der 1950er- und 1960er-Jahre, die aufgrund ihrer großen Zahl zu insgesamt alternden
Millions
16
C. B. Wilke
1.5 1.4 1.3 1.2 1.1 1 0.9 0.8 0.7 0.6 0.5
20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 52 54 56 58 60 62 64 66 2019
2025
2030
2050
2060
Abb. 1.6 Altersprofile der Erwerbsbevölkerung für ausgewählte Jahre. (Datenquelle: Statistisches Bundesamt 2019a, Variante L2-G2-W2)
Belegschaften in den Betrieben führen (vgl. die „Welle“ in Abb. 1.6). Nach 2035/2040, wenn auch die letzten sogenannten Babyboomer den Arbeitsmarkt verlassen haben, wird sich die Altersstruktur in den Betrieben wieder etwas verjüngen (flachere Altersprofile ohne „Welle“). Aus diesen Zahlen lassen sich drei wesentliche Erkenntnisse ableiten: 1. Das maximal verfügbare potenzielle Arbeitskräfteangebot wird voraussichtlich stärker schrumpfen als die Bevölkerung insgesamt, 2. die Dynamik dieses Rückgangs wird zeitnah bis zum Jahr 2035 am größten sein und danach abnehmen, und 3. ist auch der Alterungsprozess kurz- bis mittelfristig am stärksten ausgeprägt und somit vor allem ein Übergangsphänomen.
1.2.2 Steigerung der Erwerbstätigenquoten Die Erwerbstätigenquote, also der Anteil der 20- bis 64-jährigen erwerbstätigen Bevölkerung an der Gesamtbevölkerung (vgl. die Hintergrundinformationen zu Arbeitsangebot und Arbeitsnachfrage), liegt in Deutschland derzeit bei 80 %. EUweit ist dies nach Schweden mit fast 83 % bereits der zweithöchste Wert, während der EU-Durchschnitt mit 73 % weit darunter liegt. Einige Länder, wie bspw. Italien mit
1 Demografischer Wandel in Deutschland …
17
90% 80% 70% 60% 50% 40% 30% 20% 10% 0%
Italien 2005
EU (28 Länder) 2018
2005
2018
Deutschland 2005
2018
Schweden 2005
2018
Abb. 1.7 Erwerbstätigenquote für ausgewählte EU-Länder 2005 und 2018 im Vergleich – 20 bis 64 Jahre. (Datenquelle: Eurostat 2019)
63 %, weisen nochmal deutlich geringere Quoten auf. Noch 2005 entsprach die Erwerbstätigenquote in Deutschland etwa dem EU-Durchschnitt von damals 68 %. Danach hat Deutschland in diesem Bereich eine sehr dynamische Entwicklung vollzogen und seine Erwerbstätigenquote um mehr als zehn Prozentpunkte steigern können (vgl. Abb. 1.7). Trotz dieser positiven Entwicklung bleibt Raum für weitere Steigerungen. So nennen Boll et al. (2013) sieben Personengruppen, bei denen in Deutschland noch ungenutzte Arbeitskräftepotenziale bestehen: junge Menschen und Akademiker/innen, Mütter und verheiratete Frauen, Personen mit Migrationshintergrund, Langzeiterwerbslose und ältere Menschen. Zusammengefasst lassen sich auf der Arbeitsangebotsseite somit drei große Gruppen identifizieren, die dem mit dem demografischen Wandel einhergehenden rückläufigen Erwerbspersonenpotenzial durch eine aktivere Arbeitsmarktpartizipation entscheidend entgegenwirken könnten (vgl. hierzu auch Börsch-Supan und Wilke 2009): 1. Jüngere Im Vergleich zum EU-Durchschnitt von 53 % sind auch jüngere Menschen im Alter von 20 bis 24 Jahren mit einer Erwerbstätigenquote von 66 % in Deutschland häufiger erwerbstätig. Auch hier konnte Deutschland seit 2005 die Erwerbstätigenquote um immerhin sieben Prozentpunkte steigern (vgl. Abb. 1.8). Ein Teil dieses Erfolges geht auf die europaweite Einführung der Bachelor-Abschlüsse im Zuge der Bologna-Reform zurück, die zu einem früheren Eintritt von Akademikern in den Arbeitsmarkt geführt hat. Sofern sich dieser akademische Abschluss bei Studierenden und Unternehmen weiter etabliert und zunehmend auch ohne einen darauffolgenden Master-Abschluss als Berufsbefähigung anerkannt wird, könnte dies im Durchschnitt zu einem noch früheren Eintritt von Akademikern in die Erwerbstätigkeit führen.
18
C. B. Wilke
70% 60% 50% 40% 30% 20% 10% 0%
Italien
EU (28 Länder) 2005
Deutschland
Schweden
2018
Abb. 1.8 Erwerbstätigenquote für ausgewählte EU-Länder 2005 und 2018 im Vergleich – 20 bis 24 Jahre. (Datenquelle: Eurostat 2019)
2. Frauen Die Erwerbsbeteiligung von Frauen ist in den vergangenen Jahren deutlich gestiegen. Den Spitzenplatz in der EU gleich nach Schweden hat Deutschland insbesondere aufgrund der positiven Entwicklung seiner Frauenerwerbstätigkeit erlangt, die heute mit 76 % deutlich über dem EU-Durchschnitt von 67 % liegt. Bereits im Jahr 2005 verzeichnete Deutschland hier einen überdurchschnittlichen Wert (Deutschland 63 % gegenüber 60 % im EU-Durchschnitt). Seitdem konnte die Quote um mehr als zehn Prozentpunkte gesteigert werden, was maßgeblich zum Gesamtanstieg beigetragen hat (vgl. Abb. 1.9). Nach wie vor wird das Erwerbsverhalten von Frauen in Deutschland allerdings maßgeblich durch die Existenz von eigenen Kindern geprägt. Werden anstatt der Frauen insgesamt nur Mütter mit Kindern betrachtet, so fällt Deutschland im EU-Ranking zurück. Die erwerbstätigen Frauen arbeiten in Deutschland zudem häufig in Teilzeit. Insbesondere das Betreuungsangebot ist für eine aktive Partizipation von Frauen am Arbeitsmarkt ausschlaggebend. So wurde für Deutschland gezeigt, dass dort, wo das Angebot an Kita-Plätzen rationiert ist, eine Ausweitung des Angebots einen größeren positiven Effekt auf die Müttererwerbstätigkeit hat als eine Senkung der Kosten für die Kita-Plätze (Wrohlich 2011). Dieser Befund zeigt sich auch in internationalen Studien (Gong et al. 2010). Ebenso erfordert eine umfangreiche Erwerbstätigkeit von Müttern eine dauerhafte und zugleich verlässliche Betreuung von Schulkindern in zufriedenstellender pädagogischer Qualität.
1 Demografischer Wandel in Deutschland …
19
90% 80% 70% 60% 50% 40% 30% 20% 10% 0%
Italien
EU (28 Länder) 2005
Deutschland
Schweden
2018
Abb. 1.9 Erwerbstätigenquote für ausgewählte EU-Länder 2005 und 2018 im Vergleich – Frauen. (Datenquelle: Eurostat 2019)
3. Ältere Vor dem Hintergrund der steigenden Lebenserwartung ist es nur folgerichtig, wenn sich auch die aktive Phase des Erwerbslebens entsprechend verlängert und ältere Menschen dem Arbeitsmarkt länger erhalten bleiben. Aber auch zur Aufrechterhaltung des Lebensstandards bis ins hohe Alter gewinnt eine möglichst lückenlose und lange Erwerbstätigkeit zunehmend an Bedeutung. Auch die Beschäftigungssituation für ältere Erwerbstätige hat sich in den vergangenen Jahren in Deutschland deutlich verändert. Die Erwerbstätigenquote der 55- bis 64-Jährigen stieg zwischen 2005 und 2018 um 25 (!) Prozentpunkte von 46 % auf 71 % (vgl. Abb. 1.10. Dieses Erwerbsverhalten ist insbesondere geprägt durch die Rentenpolitik, im Rahmen derer bspw. die Abschaffung zahlreicher Frühverrentungsoptionen umgesetzt sowie das Regelrenteneintrittsalter von 65 auf 67 Jahre angehoben wurde. Aber auch das steigende Bildungsniveau älterer Beschäftigter führt zu einer längeren Teilnahme am Erwerbsleben. Noch höher als in Deutschland ist die Erwerbstätigenquote der 55bis 64-Jährigen nur in Schweden mit 78 %, im EU-Durchschnitt liegt sie bei knapp 59 %. Das von der EU gesetzte Lissabon-Ziel einer Erwerbstätigenquote der 55- bis 64-Jährigen von 50 % bis zum Jahr 2010 hatte Deutschland bereits im Jahr 2007 erreicht. Dieser Alterungsprozess muss in den Betrieben aktiv anhand einer altersund alternsgerechten Arbeitsgestaltung begleitet werden. Mögliche Instrumente können bspw. eine entsprechende Unternehmenskultur, Arbeitszeitgestaltung oder auch Formen der altersübergreifenden Zusammenarbeit sein.
20
C. B. Wilke
90% 80% 70% 60% 50% 40% 30% 20% 10% 0%
Italien
EU (28 Länder) 2005
Deutschland
Schweden
2018
Abb. 1.10 Erwerbstätigenquote für ausgewählte EU-Länder 2005 und 2018 im Vergleich – 55 bis 64 Jahre. (Datenquelle: Eurostat 2019)
1.2.3 Erhöhung des Arbeitsvolumens Neben der Steigerung der Erwerbstätigenzahl kann eine Erhöhung des gesamtwirtschaftlichen Arbeitsvolumens eine bessere Ausschöpfung des verfügbaren Erwerbspersonenpotenzials ermöglichen. Das gesamtwirtschaftliche Arbeitsvolumen entspricht dabei dem Produkt aus der Anzahl der Erwerbstätigen und der durchschnittlichen Arbeitszeit. Eine Teilzeitbeschäftigung ist in Deutschland bei Frauen immer noch deutlich weiter verbreitet als bei Männern. Gemäß einer Analyse des Sozio-Oekonomischen Panels (SOEP) (einer Haushaltsbefragung des Deutschen Instituts für Wirtschaftsforschung (DIW) in Berlin) arbeitet mehr als die Hälfte der erwerbstätigen Frauen in Teilzeit, während es bei den Männern nur knapp 10 % sind (Harnisch et al. 2018, S. 12). Unter diesen Teilzeitbeschäftigten lässt sich allerdings nur dann zusätzliches Arbeitskräftepotenzial durch eine Steigerung des Arbeitsvolumens aktivieren, wenn diese auch bereit sind, ihre Teilzeitstelle entsprechend aufzustocken – denn insbesondere vor dem Hintergrund der Vereinbarkeit von Familie und Beruf mag eine Teilzeitbeschäftigung explizit in dieser Form gewünscht sein. Die bereits genannte Analyse des SOEP zeigt, dass Frauen noch immer öfter als Männer angeben, mehr arbeiten zu wollen. Dabei ist eine solche Unterbeschäftigung bei Frauen mit niedrigerem Bildungsniveau mit 34 % deutlich höher als bei gebildeteren Frauen (15 %). Bei den Männern ist die Differenz mit 12 % versus 9 % wesentlich geringer.
1 Demografischer Wandel in Deutschland …
21
Es gibt also auch in Deutschland prinzipiell durchaus noch ungenutztes Arbeitskräftepotenzial, welches künftig noch besser ausschöpfen werden kann. Allerdings ist zugleich auch eine Überbeschäftigung bei Teilen der Erwerbstätigen zu beobachten. Eine reine Maximierung des volkswirtschaftlichen Arbeitsvolumens kann aus gesellschaftlicher Sicht demnach nicht das Ziel sein. Wesentlich ist hingegen die Verteilung der Arbeitsstunden, inwieweit individuelle Arbeitswünsche also im Einzelnen respektiert und ermöglicht werden.
1.3 Fazit und Ausblick Der zu beobachtende demografische Wandel beruht auf verschiedenen, im Prinzip völlig voneinander losgelösten demografischen Trends, nämlich 1. der Zunahme der Lebenserwartung, 2. den konstant niedrigen Geburtenraten und 3. der in Deutschland besonders ausgeprägten historischen Abfolge von geburtenstarken und geburtenschwachen Jahrgängen in den 1950er- und 1960er-Jahren. Die erste Entwicklung führt insgesamt zu einer Alterung unserer Gesellschaft. Dieser Alterungsprozess wird durch die zweite Entwicklung noch verstärkt, da der Anteil der Jüngeren in der Gesellschaft immer weiter abnimmt. Darüber hinaus führen die niedrigen Geburtenraten langfristig zu einem Rückgang der Bevölkerung, sofern der negative natürliche Saldo nicht weiterhin durch einen positiven Wanderungssaldo ausgeglichen wird. Bei beiden Veränderungsprozessen handelt es sich um langfristige Trends. Die dritte Entwicklung hingegen beschreibt ein Übergangsphänomen, das auf beide Veränderungsprozesse verstärkend wirkt: Mit der Alterung der geburtenstarken Babyboom-Jahrgänge wird zugleich ein wesentlicher Teil unserer Gesellschaft immer älter. Diese Entwicklung ist nicht mehr aufzuhalten: Selbst eine permanent viel höhere Zuwanderung als im Durchschnitt der vergangenen Jahrzehnte oder auch eine langfristig höhere Geburtenrate wird an den auf uns zukommenden Herausforderungen einer alternden Gesellschaft mit regional ganz unterschiedlichen Bevölkerungsentwicklungen nur wenig ändern. Für den Arbeitsmarkt bedeutet dies, dass die Anzahl der Personen im Erwerbsalter zwischen 20 und 66 Jahren, und damit das maximal verfügbare Arbeitskräftepotenzial in unserer Volkswirtschaft, künftig erstmal zurückgehen wird. Ginge proportional dazu auch der Umfang unserer Erwerbstätigkeit entsprechend zurück, so würde Deutschland bei gleichbleibender Produktivität im Vergleich zu anderen Ländern wie bspw. den USA oder auch den BRICS-Staaten als Wirtschaftsmacht schrumpfen. Der Lebensstandard in Deutschland würde sich künftig relativ zu diesen Ländern verschlechtern. Noch markanter als dieser Schrumpfungsprozess ist allerdings die damit verbundene
22
C. B. Wilke
Alterung unserer Gesellschaft. Denn die Erwerbsbevölkerung nimmt nicht nur ab, sie muss zugleich den Wohlstand für alle nicht am Arbeitsmarkt aktiven Generationen erwirtschaften – und diese Gruppe wird aufgrund der Bevölkerungsalterung in den kommenden Jahren stetig wachsen. Diese Alterung und Schrumpfung unserer Bevölkerung macht es künftig daher unerlässlich, bis dato ungenutzte Erwerbspersonenpotenziale erfolgreicher für den Arbeitsmarkt zu erschließen. Dies kann zum einen über eine noch aktivere Erwerbsbeteiligung von Jüngeren, Frauen und Älteren geschehen, zum anderen über eine Ausweitung des Arbeitsvolumens. Wichtige Maßnahmen in diesen Bereichen sind bspw. die weiterhin positive Annahme der Bachelor-Abschlüsse in der Wirtschaft, eine Fortsetzung des Ausbaus von Kinderbetreuungsangeboten im Krippen-, Kita- und Hortbereich sowie alters- und alternsgerechte Weiterbildungsinstrumente, die einen Verbleib oder eine Reintegration Älterer in den Arbeitsmarkt erlauben. Zudem müssen die Arbeitsbedingungen in den Unternehmen weiter an die Bedürfnisse von Älteren sowie im Hinblick auf die Vereinbarkeit von Familie und Beruf angepasst werden. Entscheidend ist neben einem höheren Arbeitsangebot allerdings auch die Arbeitsnachfrageseite. Hier kommt insbesondere den älteren Beschäftigten eine besondere Bedeutung zu, denn in den letzten Jahren vor dem Erwerbsaustritt und Rentenbeginn erweist es sich häufig immer noch als schwierig, aus einer Arbeitslosigkeit heraus eine neue Beschäftigung zu finden. Ebenso gilt es, die wachsende Gruppe von Personen mit Migrationshintergrund noch besser in den Arbeitsmarkt zu integrieren. Neben einer Steigerung der Erwerbstätigenquoten oder einer Ausweitung des Arbeitsvolumens sind weitere Anpassungsstrategien denkbar. Zu einem gewissen Grad ließe sich ein Rückgang in der Erwerbstätigkeit bspw. auch durch eine höhere Produktivität ausgleichen (bspw. aufgrund zunehmender Digitalisierung, siehe hierzu Kap. 11 von Spermann). Eine essenzielle Frage in einer alternden Gesellschaft ist hierbei, ob und inwieweit Produktivität vom Alter abhängt. Die Antwort auf diese Frage ist in der Wissenschaft umstritten. Unumstritten ist hingegen, dass eine vermehrte Investition in Bildungsanstrengungen potenziell auch die gesamtwirtschaftliche Produktivität verbessert (vgl. bspw. Fehr 2011 sowie Kap. 3 von Christiaans und Lübke in diesem Band). Damit rückt das Humanvermögen als Basis für Wachstum und Wohlstand unserer Gesellschaft immer mehr in den Fokus. Es gilt, die derzeitige wirtschaftliche Stabilität Deutschlands zu nutzen, um diesen Wandel weiter aktiv zu gestalten.
Literatur Börsch-Supan, A., & Wilke, C. B. (2009). Zur mittel- und langfristigen Entwicklung der Erwerbstätigkeit in Deutschland, Zeitschrift für ArbeitsmarktForschung (ZAF), 42(1), 29–48. Boll, C., Kloss, A., Puckelwald, J., Schneider, J., Wilke, C. B., & Will, A. (2013). Ungenutzte Arbeitskräftepotenziale in Deutschland: Maßnahmen und Effekte. Studie im Auftrag
1 Demografischer Wandel in Deutschland …
23
der Initiative Neue Soziale Marktwirtschaft GmbH (INSM). Hamburg: Hamburgisches WeltWirtschaftsInstitut (HWWI). Bundesinstitut für Bevölkerungsforschung (BiB) (2019). Fakten zu Geburtenziffern. https://www. bib.bund.de/DE/Fakten/Fertilitaet/Geburtenziffern.html. Zugegriffen: 22. Sept. 2019. Eurostat (2019). Erwerbstätigenquoten. Eurostat Datenbank. https://ec.europa.eu/eurostat/de/web/ lfs/data/database. Zugegriffen: 12. Sept. 2019. Fehr, H. (2011). Berechnungen des langfristigen Produktionspotenzials unter Berücksichtigung verschiedener altersbedingter und bildungsspezifischer Produktivitätsprofile. Studie im Auftrag des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung. Universität Würzburg. Gong, X., Breunig, R., & King, A. (2010). New estimates of the relationship between female labour supply and the cost, availability, and quality of child care, Economic Roundup 1. http:// archive.treasury.gov.au/documents/1783/HTML/docshell.asp?URL=04_New_Estimates_of_ Child_Care.htm. Zugegriffen: 15. Apr. 2019. Harnisch, M., Müller, K.-U., & Neumann, M. (2018). Teilzeitbeschäftigte würden gerne mehr Stunden arbeiten, Vollzeitbeschäftigte lieber reduzieren. DIW Wochenbericht (Bd. 38, S. 838–846). Berlin: Deutsches Institut für Wirtschaftsforschung (DIW). DOI: https://doi. org/10.18723/diw_wb:2018-38-3. Statistisches Bundesamt (o. J.). Zusammengefasste Geburtenziffer. https://www.destatis.de/ DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/Bevoelkerungsvorausberechnung/Glossar/ zusammengefasste-geburtenziffer.html. Zugegriffen: 10. Febr. 2020. Statistisches Bundesamt (2018a). Sterbetafeln – Ergebnisse aus der laufenden Berechnung von Periodensterbetafeln für Deutschland und die Bundesländer 2015/2017. Wiesbaden: Statistisches Bundesamt (Destatis). Statistisches Bundesamt (2018b). Sterbetafel 2015/2017 – Methoden- und Ergebnisbericht zur laufenden Berechnung von Periodensterbetafeln für Deutschland und die Bundesländer. Wiesbaden: Statistisches Bundesamt (Destatis). Statistisches Bundesamt (2019a). Bevölkerung im Wandel – Annahmen und Ergebnisse der 14. Koordinierten Bevölkerungsvorausberechnung. Wiesbaden: Statistisches Bundesamt (Destatis). Statistisches Bundesamt (2019b). Sterbetafeln Deutschland – Durchschnittliche Lebenserwartung. Tabelle 12621-0002. https://www-genesis.destatis.de/genesis/online. Zugegriffen: 20. Aug. 2019. Statistisches Bundesamt (2019c). Zusammengefasste Geburtenziffer – Kinder je Frau nach Kalenderjahren. https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/ Geburten/_inhalt.html#sprg229088. Zugegriffen: 20. Aug. 2019. Statistisches Bundesamt (2019d). Geburtenverhalten im Wandel. https://www.destatis.de/DE/ Themen/Querschnitt/Demografischer-Wandel/_inhalt.html. Zugegriffen: 20. Aug. 2019. Statistisches Bundesamt (2019e). Zusammengefasste Geburtenziffern Deutschland. Tabelle 12612-0009. https://www-genesis.destatis.de/genesis/online. Zugegriffen: 20. Aug. 2019. Statistisches Bundesamt (2019f). Lebendgeborene und Gestorbene. https://www.destatis.de/DE/ Themen/Gesellschaft-Umwelt/Bevoelkerung/Geburten/Tabellen/lebendgeborene-gestorbene. html. Zugegriffen: 20. Aug. 2019. Statistisches Bundesamt (2019g). Wanderungen zwischen Deutschland und dem Ausland 1991 bis 2018. https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/Wanderungen/ Tabellen/wanderungen-alle.html. Zugegriffen: 20. Aug. 2019. Statistisches Bundesamt (2019h). Pressemitteilung Nr. 314 vom 21. August 2019. Wiesbaden: Statistisches Bundesamt (Destatis). Statistisches Bundesamt (2019i). Bevölkerung: Deutschland, Stichtag. Tabelle 12411-0001. https:// www-genesis.destatis.de/genesis/online. Zugegriffen: 20. Aug. 2019.
24
C. B. Wilke
Statistisches Bundesamt (2019j). Vorausberechneter Bevölkerungsstand: Deutschland, Stichtag, Varianten der Bevölkerungsvorausberechnung. Tabelle 12421-0001. https://www-genesis. destatis.de/genesis/online. Zugegriffen: 20. Aug. 2019. Statistisches Bundesamt (2019k). Bevölkerung in Privathaushalten 2018 nach Migrationshintergrund. https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/MigrationIntegration/Tabellen/migrationshintergrund-alter.html. Zugegriffen: 20. Aug. 2019. Statistisches Bundesamt (2019l). Erwerbslosigkeit. https://www.destatis.de/DE/Themen/Arbeit/ Arbeitsmarkt/Erwerbslosigkeit/Methoden/Erwerbslosigkeit.html. Zugegriffen: 15. Febr. 2019. Statistisches Bundesamt (2019m). Arbeitskräfte- bzw. Erwerbspersonenpotenzial (Arbeitskräfteangebot). https://www.destatis.de/DE/Themen/Arbeit/Arbeitsmarkt/Glossar/arbeitskraefteerwerbspotenzial.html. Zugegriffen: 15. Febr. 2019. Wilke, C. B. (2019). Auswirkungen des demografischen Wandels auf den Arbeitsmarkt. In B. Hermeier, T. Heupel, & S. Fichtner-Rosada (Hrsg.), Arbeitswelten der Zukunft – Wie die Digitalisierung unsere Arbeitsplätze und Arbeitsweisen verändert (S. 37–48). Wiesbaden: Springer Gabler. Wrohlich, K. (2011). Labor Supply and Child Care Choices in a Rationed Child Care Market. DIW Discussion Papers Nr. 1169. Berlin: Deutsches Institut für Wirtschaftsforschung (DIW).
Prof. Dr. Christina Benita Wilke ist seit 2016 Professorin für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management, wissenschaftliche Gesamtstudienleiterin am Hochschulzentrum Bremen sowie wissenschaftliche Leiterin des KCV KompetenzCentrum für angewandte Volkswirtschaftslehre. Zuvor war sie als Forscherin und Geschäftsführerin am Mannheimer Forschungsinstitut Ökonomie und Demographischer Wandel (MEA) sowie als Leiterin der bremischen Niederlassung des Hamburgischen WeltWirtschaftsInstituts (HWWI) tätig. Sie ist Mitglied im Verein für Socialpolitik (VfS) sowie der Deutschen Gesellschaft für Demographie (DGD), Leiterin des Arbeitskreises „Gesellschaftliche und demographische Entwicklungen“ der DGD und Gutachterin für diverse wissenschaftliche Zeitschriften. Ihre Forschungsschwerpunkte liegen im Bereich demografischer Wandel, der Sozial- und Arbeitsmarktpolitik sowie der Gesundheitsökonomie.
2
Der demografische Wandel und die gesetzliche Rentenversicherung in Deutschland – Kapitaldeckungsverfahren, Erhöhung des Bundeszuschusses oder die Anhebung des Renteneintrittsalters als Lösung? Cirsten Roppel Inhaltsverzeichnis 2.1 Entwicklung der Bevölkerungsstruktur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 2.1.1 Stromgröße Geburtenrate. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.1.2 Stromgröße Mortalität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.1.3 Stromgröße Migration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.1.4 Zwischenfazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2.2 Generationenkonflikt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.2.1 Generationenvertrag. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.2.2 Altenquotient und Generationenkonflikt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.3 Mögliche Konfliktlösungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.3.1 Wechsel zum Kapitaldeckungsverfahren. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.3.2 Erhöhung des Bundeszuschusses. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.3.3 Anhebung des Renteneintrittsalters. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.4 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Zusammenfassung
Die demografische Entwicklung in Deutschland wird dazu führen, dass sich der sogenannte Altenquotient, der als Maß für die Bevölkerungsstruktur herangezogen werden kann, deutlich erhöhen wird; dies hat maßgebliche Auswirkungen auf den sogenannten Generationenvertrag. Hierbei handelt es sich um einen (fiktiven) C. Roppel (*) FOM Hochschule, Bonn, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_2
25
26
C. Roppel
Solidar-Vertrag, der die Grundlage der umlagefinanzierten gesetzlichen Rentenversicherung darstellt. Erhöht sich der Altenquotient, hat dies zwei Folgen: Erstens steigt der Anteil der Personen in der Ruhestandsphase, und zweitens sinkt der Anteil der Personen in der Erwerbsphase. Der daraus resultierende Verteilungskonflikt wird als Generationenkonflikt bezeichnet. Dieser beschreibt, dass sich zukünftig entweder die Situation der Bevölkerung in der Erwerbsphase aufgrund steigender Beitragssätze verschlechtern wird oder die Situation der Bevölkerung in der Nacherwerbsphase, weil die Rentenhöhe sinken wird. Zur Lösung resp. Abschwächung dieses Konflikts werden hauptsächlich drei Vorschläge diskutiert: der Wechsel der Finanzierung der gesetzlichen Rentenversicherung vom Umlage- zum Kapitaldeckungsverfahren, die Erhöhung des Bundeszuschusses sowie die Anhebung des Renteneintrittsalters. Dabei kann gezeigt werden, dass keiner der drei Vorschläge in der Lage ist, den Konflikt zu lösen.
2.1 Entwicklung der Bevölkerungsstruktur Im Mittelpunkt der wissenschaftlichen Auseinandersetzung über die Folgen der demografischen Entwicklung steht nicht nur das Bevölkerungsniveau, sondern vor allem die Bevölkerungsstruktur. Sie kann durch drei Phasen beschrieben werden: durch die Vorerwerbsphase (Kindheit, Jugend, Ausbildung etc.), die Erwerbsphase und die Nacherwerbsphase (Ruhestand). Nach Einschätzung der Bundesregierung wird sich die Bevölkerungsstruktur in Deutschland deutlich ändern. Basierend auf den Annahmen des Szenarios T- des vierten Tragfähigkeitsberichts der Bundesregierung wird prognostiziert, dass in den Jahren zwischen 2015 und 2045 die Zahl der 15 bis 64 Jahre alten Bürgerinnen und Bürger („Erwerbsbevölkerung“) um etwa 20 % schrumpfen, wohingegen die Zahl der Bürgerinnen und Bürger, die 65 Jahre und älter sind („Ruhestandsbevölkerung“), um etwa 40 % zunehmen wird (Bundesministerium der Finanzen 2016; Werding 2016). Darstellung der Bevölkerungsstruktur: Altenquotient
Die Bevölkerungsstruktur und ihre Änderung kann mithilfe verschiedener Indikatoren gemessen und dargestellt werden. Dazu gehören das Medianalter der Bevölkerung, die Bevölkerungspyramide sowie der Jugend- und Altenquotient. Beim Altenquotienten wird die Bevölkerung der Nacherwerbsphase auf die Bevölkerung in der Erwerbsphase bezogen, beim Jugendquotienten ist es die Relation zwischen der Vorerwerbsphase und der Erwerbsphase. Zwar gibt es für die notwendigen Abgrenzungen keine vorgeschriebenen Altersgrenzen (zu den unterschiedlichen Abgrenzungen siehe Kap. 1 von Wilke), häufig wird jedoch das Alter 15 für die Abgrenzung nach unten und das Alter 65 für die Abgrenzung nach oben genutzt. Der Altenquotient (AQ) ist definiert als:
2 Der demografische Wandel und die gesetzliche …
AQ =
27
Bev¨olkerung ab 65 Jahre Bev¨olkerung 15 bis 64 Jahre
Da es sich um einen Relativwert handelt, bleibt er konstant, wenn sich Zähler und Nenner in prozentual gleichem Umfang ändern. Steigt hingegen der Zähler (Bevölkerung ab 65 Jahre) stärker als der Nenner (Bevölkerung zwischen 15 und 64 Jahren), nimmt der Wert zu; im umgekehrten Fall geht er zurück.
Der Altenquotient liegt derzeit bei 31. Das heißt, auf 100 Personen im Erwerbsalter kommen aktuell 31 Personen in der Nacherwerbsphase. Die prognostizierte Entwicklung des Altenquotienten hängt von der unterstellten Entwicklung der demografischen Komponenten Geburtenhäufigkeit, Lebenserwartung und Wanderungssaldo ab. Hier werden vom Statistischen Bundesamt maßgeblich drei Szenarien unterschieden. Eine zukünftig relativ junge Altersstruktur entsteht dann, wenn die Zahl der Kinder je Frau bis 2060 auf 1,7 ansteigt, die Lebenserwartung bei Geburt auf 82,5 (Jungen) bzw. 86,4 (Mädchen) Jahre steigt und bis 2060 im Durchschnitt ein Wanderungssaldo von jährlich 311.000 Personen vorliegt. Eine moderate Entwicklung liegt hingegen dann vor, wenn die Zahl der Kinder je Frau auf lediglich 1,6 ansteigt, die Lebenserwartung bei Geburt auf 84,4 (Jungen) bzw. 88,1 (Mädchen) Jahre steigt und ein Wanderungssaldo von 221.000 Personen durchschnittlich pro Jahr entsteht. Zu einer relativ alten Altersstruktur wird es dann kommen, wenn die Zahl der Kinder je Frau bis 2060 auf das langfristige Niveau von 1,4 Kindern sinken wird, die Lebenserwartung bei Geburt auf 86,2 (Jungen) bzw. 89,6 (Mädchen) Jahre steigt und ein durchschnittlich jährliches Wanderungssaldo von 147.000 Personen entsteht (Statistisches Bundesamt 2019). Unabhängig davon, welche Variante unterstellt wird, wird der Altenquotient bis 2038 stark ansteigen: auf 44 bei einer relativ jungen Altersstruktur, auf 47 bei einer moderaten Entwicklung und auf 49 bei einer relativ alten Altersstruktur. In den Jahren 2039 bis 2060 wird prognostiziert, dass er auf 43 sinken (relativ junge Altersstruktur) bzw. auf 57 ansteigen (relativ alte Altersstruktur) wird. Wird in diesem Zeitraum die moderate Entwicklung unterstellt, so wird der Altenquotient zwischen 2039 und 2045 bei 47 stagnieren und dann kontinuierlich auf 50 im Jahr 2060 steigen (Statistisches Bundesamt 2019). Wird von der Migration abstrahiert, hängt die Besetzung der Erwerbs- und der Nacherwerbsphase von zwei gegensätzlich wirkenden Faktoren ab: von der Fertilitätsrate und von der Lebenserwartung. Bei einer Fertilitätsrate (diese liegt in Deutschland bei 2,1 Kindern je Frau) unterhalb des Bestandserhaltungsniveaus wird jede Alterskohorte schrumpfen. Liegt bspw. die Fertilitätsrate 30 % unter dem bestandserhaltenden Niveau, hat eine Kohorte von 100 Personen im nächsten Jahr den zahlenmäßigen Wert von 70 Personen, im übernächsten Jahr den Wert von 49 Personen usw. Zugleich wird jede Alterskohorte bei einer zunehmenden Lebenserwartung größer werden. Steigt bspw. die Lebenserwartung um 10 %, hat eine Kohorte von 100 Personen im nächsten Jahr
28
C. Roppel
den zahlenmäßigen Wert von 110 Personen, im übernächsten Jahr den Wert von 121 Personen usw. Für die Entwicklung des Altenquotienten ist somit entscheidend, welcher der beiden Effekte überwiegt: derjenige, der die Kohorten kleiner, oder derjenige, der sie größer werden lässt. Es wird vielfach diskutiert, ob die Entwicklung einer Bevölkerung über einen Zeitraum von mehreren Jahrzehnten einigermaßen zuverlässig abgeschätzt werden kann. Das ist möglich, weil bei jeder Prognose eine Bestandsgröße mithilfe der sie verändernden Stromgrößen fortgeschrieben wird. Daher sind zwei Dinge zu beachten: erstens die quantitative Relation zwischen der Bestandsgröße und den Stromgrößen und zweitens die Geschwindigkeit, mit der die Stromgrößen auf die Bestandsgröße einwirken. Bei Bevölkerungsprognosen geht es um die Stromgrößen Fertilität und Mortalität sowie um Ein- und Auswanderungen. Im Jahr 2017 gab es in Deutschland 0,79 Mio. Geburten, 0,95 Mio. Sterbefälle, 1,6 Mio. Einwanderer und 1,1 Mio. Auswanderer (Bundesministerium des Inneren 2019). Werden diese Zahlen in das Verhältnis zur Bestandsgröße von 82,79 Mio. (Gesamtbevölkerung) gesetzt, wird deutlich, dass die Stromgrößen den Bestand lediglich im unteren einstelligen Prozentbereich beeinflussen. Folglich kann davon ausgegangen werden, dass sich die Bestandsgröße nur langsam ändern wird und die Prognosen somit auch über einen langen Zeitraum valide sind.
2.1.1 Stromgröße Geburtenrate Die Geburtenentwicklung hängt von der Höhe der Fertilitätsrate ab, die an der zusammengefassten Geburtenziffer gemessen werden kann. Diese informiert über die Zahl der Kinder, die eine Frau im Laufe ihres Lebens bekäme, wenn ihr Geburtenverhalten mit demjenigen der Frauen zwischen 15 und 49 Jahren in dem jeweils betrachteten Jahr übereinstimmen würde (siehe hierzu auch den Einschub „Zur Geburtenrate gibt es verschiedene Konzepte“ im Kap. 1 von Wilke). In Deutschland liegt die zusammengefasste Geburtenziffer mit einem Wert von 1,4 bis 1,6 Kindern je Frau bereits seit etwa fünf Jahrzenten um etwa ein Drittel unterhalb des bestandserhaltenden Wertes von 2,1 Kindern je Frau (Bundeszentrale für politische Bildung 2018). Nach Auffassung der Bundesregierung wird es künftig nicht zu einer Rückkehr der Fertilitätsrate auf das bestandserhaltende Niveau kommen; davon geht auch die ökonomische Theorie der Fertilität aus. Die ökonomische Theorie der Fertilität konstatiert, dass die Bildung von Familien Ressourcen in Form von Zeit und Geld bindet. Weiterhin wird davon ausgegangen, dass die Familiengröße das Ergebnis eines Entscheidungsprozesses ist, in dem Nutzen und Kosten des Aufziehens von Kindern gegenübergestellt werden. Hier wird davon ausgegangen, dass die Entscheidung über die Familiengröße ebenso wie ökonomische Transaktionsentscheidungen rational ist und somit auf einer Kosten-Nutzen-Abwägung basiert (Becker et al. 2016). In den letzten Jahrzehnten sind die Möglichkeiten der Familienbildung aufgrund der gestiegenen Einkommen sowie des medizinischtechnischen Fortschritts (Entwicklung der Fertilitätsmedizin) angestiegen. Gleichzeit
2 Der demografische Wandel und die gesetzliche …
29
kann aber ein Anstieg des Anteils von Familien mit einem bzw. zwei Kindern beobachtet werden. Diese Entwicklung kann auf drei Faktoren zurückgeführt werden. Erstens auf die Entstehung der Sozialversicherung, zweitens auf den Zielkonflikt zwischen den Ausgaben pro Kind („Qualität“) und der Zahl der Kinder („Quantität“) und drittens auf die Zeitkosten des Aufziehens von Kindern. In Volkswirtschaften ohne eine soziale Absicherung ist ein Motiv, Kinder aufzuziehen, um sich gegen die wirtschaftlichen Folgen von Krankheit, Pflegebedürftigkeit und (Alters-)Erwerbsunfähigkeit abzusichern. In vielen nicht industrialisierten Gesellschaften sind Kinder auch heute noch für ihre alt gewordenen Eltern verantwortlich, dies gilt sogar noch in Schwellenländern wie in Indien oder China. Dieses Motiv verliert an Bedeutung, wenn eine kollektive Sozialversicherung besteht. Im Zusammenhang mit dem Zielkonflikt zwischen Qualität und Quantität wird davon ausgegangen, dass die Eltern nicht nur aus dem Vorhandensein von Kindern (der Kinderzahl), sondern auch aus der steigenden „Kinderqualität“ Nutzen ziehen, die durch erhöhte Ausgaben pro Kind entsteht. Dabei ist mit der Bezeichnung „Kinderqualität“ keine moralische Wertung verbunden. Gemeint ist die im wissenschaftstheoretischen Sinne positive Feststellung, dass Ausgaben vor allem im Bereich der musischen, sportlichen und schulischen Ausbildung der Kinder die Kinderqualität erhöhen und so für die Eltern nutzenstiftend sind (Becker et al. 2016). Bei den Kosten des Aufziehens von Kindern müssen zwei verschiedene Facetten der Kosten berücksichtigt werden. Auf der einen Seite entstehen direkte monetäre Kosten (Geldkosten) durch Ausgaben für Nahrungsmittel, Unterkunft, Mobiliar usw. Auf der anderen Seite entstehen Zeitkosten, die an dem Verzicht auf eine weitergehende Ausbildung und berufliche Karriere gemessen werden können. Diese Zeitkosten werden auch heute noch typischerweise von den Frauen getragen (siehe hierzu auch den Abschnitt zur Erwerbstätigkeit von Frauen und Müttern in Kap. 1 von Wilke). Auf der Annahme, dass der Anstieg der Zeitkosten maßgeblich zur geringen Geburtenrate beigetragen hat, basiert auch das von der Bundesregierung beschlossene Elterngeld. Damit soll dem Einkommensverlust, der mit einer Aufgabe der Erwerbstätigkeit zugunsten der Kindererziehung einhergeht, entgegengewirkt werden; das Elterngeld ist keine Mehrbedarfs-, sondern eine Lohnersatzleistung. Flankiert wird es von dem sogenannten Betreuungsanspruch; damit soll sichergestellt werden, dass die Frauen die Möglichkeiten haben, ihrer beruflichen Tätigkeit nachzugehen. In Deutschland haben die Zielkonflikt- und Zeitkostenhypothese – im Vergleich zum Motiv der sozialen Absicherung – das größere Gewicht. Vertreten wird die Konfliktthese vor allem von Becker (1993). Seines Erachtens wird in modernen Gesellschaften nicht mehr zwischen dem Geschlecht (männlich, weiblich) und der Geburtenfolge (Erstgeborene, Zweitgeborene usw.) unterschieden. Vielmehr geht Becker davon aus, dass die Entscheidung für Kinder von den Kosten für ihre Erziehung ebenso wie von ihrem erwarteten materiellen Nutzen für die Eltern abhängt. Dabei kann beobachtet werden, dass Eltern in Industrienationen heute meist mehr Geld dafür ausgeben, Kinder aufzuziehen, als sie durch sie einnehmen. Gary S. Becker (1993) spricht davon, dass durch die höheren Ausgaben für Erziehung und Bildung Kinder „höherer Qualität“ entstehen.
30
C. Roppel
Die Beschreibung „Kinder höherer Qualität“ sagt dabei lediglich aus, dass Eltern aus den höheren Ausgaben einen zusätzlichen Nutzen ziehen, der als „höhere Qualität“ bezeichnet wird. Die Qualität der Kinder und der für die Eltern daraus resultierenden Nutzen hängen unmittelbar zusammen. Nutzen aus den Kindern entsteht für die Eltern – nach Becker – aus unterschiedlichen Gründen. Erstens äußert sich eine höhere Qualität der Kinder durch mehr Lebensfreude und ein größeres Aktivitätsspektrum, was den Eltern direkt Freude bereitet. Zweitens führt eine höhere Qualität später zu einer höheren Einkommenserzielungskapazität, sodass Kinder höherer Qualität später stärker zum Familieneinkommen beitragen können. Das dritte Argument, dass Kinder höherer Qualität eine bessere Absicherung bei Alter und Krankheit darstellen, spielt in Deutschland aufgrund der Kollektivierung der Sozialversicherung eine untergeordnete Rolle. Was das für die Zahl der Kinder bedeutet, lässt sich an einem einfachen Beispiel veranschaulichen: Wenn angenommen wird, dass das Haushaltseinkommen der Eltern bei 12.000 € liegt und die Eltern 10 % ihres Einkommens für die Ausbildung ihrer Kinder verwenden möchten, dann steigen die Möglichkeiten zu monetären Ausgaben je Kind mit sinkender Kinderzahl. Versuchen die Eltern, ihren Nutzen durch möglichst hohe Ausgaben pro Kind zu maximieren, liegt die „nutzenmaximierende“ Kinderzahl folglich bei eins. Durch die steigenden Ausgaben steigt also zwar die Kinderqualität und somit der Nutzen der Eltern aus ihren Kindern, dies führt aber auch dazu, dass die Zahl der Kinder abnimmt. Die fertilitätsökonomischen Modelle stimmen in der Beurteilung der Kollektivierung der Alterssicherung, des Zielkonfliktes zwischen Qualität und Quantität sowie der Zunahme der Zeitkosten weitgehend überein. Die verbleibenden Unterschiede lassen sich auf die Frage zurückführen, ob das Einkommensniveau oder die Einkommensverteilung entscheidungsrelevant ist. Während in den Modellen vom Typ Becker argumentiert wird, dass der Kinderwunsch in erster Linie von der absoluten Einkommenshöhe abhängt, wird in den Modellen vom Typ Easterlin angenommen, dass die relative Einkommenshöhe maßgebend ist (Easterlin 1987).
2.1.2 Stromgröße Mortalität Die Mortalität einer Gesellschaft wird mithilfe von sogenannten Sterbetafeln dargestellt. Diese Tafeln zeigen auf, wie sich die Zahl der Neugeborenen (in der Regel auf 100.000 normiert) aufgrund der Sterblichkeit sukzessive reduziert. Bei den Berechnungen von Sterbetafeln kann zwischen Perioden- und Generationen- bzw. Kohortensterbetafeln unterschieden werden (Helberger und Rathjen 1998). Siehe hierzu auch „Wie wird die Lebenserwartung eigentlich berechnet und was sagt sie aus?“ aus Kap. 1 von Wilke. Die Lebenserwartung bei Geburt hat sich seit 1960 kontinuierlich erhöht und liegt aktuell bei Geburt bei 79 Jahren (Jungen) bzw. bei 83 Jahren (Mädchen) (Statistisches Bundesamt 2018). Bis Ende des 19. und Anfang des 20. Jahrhunderts war die Zunahme vor allem auf den Rückgang der Säuglings- und Kindersterblichkeit zurückzuführen; anschließend ging auch die Sterblichkeit im höheren Alter zurück (Weiland et al. 2006). Wie bereits geschildert, wird ein Anstieg der Lebenserwartung bei Geburt bis
2 Der demografische Wandel und die gesetzliche …
31
zum Jahr 2060 auf 82 bis 86 Jahre (Männer) bzw. 86 bis 89 Jahre (Frauen) erwartet. Der geschlechtsspezifische Unterschied in der Lebenserwartung kann zum Teil auf biologische Unterschiede, vor allem aber auf Verhaltensunterschiede – bspw. eine gesundheitsbewusstere Lebensweise – zurückgeführt werden (Weiland et al. 2006).
2.1.3 Stromgröße Migration Bei der Migrationen sind zwei Formen von Wanderungsbewegungen zu unterscheiden: die Binnen- und die Außenwanderung. Bei der Binnenwanderung handelt es sich um einen Wohnsitzwechsel innerhalb von Deutschland; bei der Außenwanderung geht es über die Staatsgrenze hinaus. In Deutschland sind seit Mitte des 20. Jahrhunderts drei Einwanderungswellen zu verzeichnen. Die erste Welle entstand in den 1950er- und 1960er-Jahren durch das gezielte Anwerben von Arbeitskräften aus Südeuropa. In den 1970er- und 1980er-Jahren konnte eine zweite Welle aufgrund des Zuzugs von Familienangehörigen der zuvor angeworbenen Arbeitnehmer beobachtet werden. Zur dritten Welle kam es nach der Wiedervereinigung, als vor allem deutschstämmige (Spät-)Aussiedler nach Deutschland einwanderten. Seitdem ist die Migration zwischen Deutschland und dem Ausland eher durch temporäre Wanderungen spezieller Migrantengruppen wie Werkvertragsnehmer, Saisonarbeiter oder hochqualifizierte Arbeitskräfte sowie durch Asylsuchende gekennzeichnet. Prognostiziert wird, dass der Wanderungssaldo in den Jahren 2019 bis 2060 im Durchschnitt pro Jahr zwischen 147.000 und 311.000 Personen liegen wird (siehe Anfang von Abschn. 2.1).
2.1.4 Zwischenfazit Aus der geführten Diskussion wird deutlich, dass die Stromgrößen Mortalität und Fertilität dazu führen werden, dass der Altenquotient zukünftig steigen wird. Dieser Anstieg wird von der Stromgröße Migration zwar abgemildert, keinesfalls jedoch aufgehalten oder gar umgekehrt. Politisch kommuniziert wird, für den Anstieg des Altenquotienten sei vor allem die ständig gestiegene Lebenserwartung verantwortlich; hingegen zeigt die Empirie, dass der Fertilitätseffekt das bei weitem größte Gewicht hat (Birg 2018). Neben der gesetzlichen Rentenversicherung (GRV) sind auch die weiteren Sozialversicherungssysteme in Deutschland – die gesetzliche Krankenversicherung, Unfallversicherung, Arbeitslosenversicherung und Pflegeversicherung – vom demografischen Wandel betroffen, allerdings unterschiedlich stark. Die Sozialversicherung in Deutschland
Das deutsche Sozialversicherungssystem besteht aus fünf Säulen – Krankenversicherung, Rentenversicherung, Unfallversicherung, Arbeitslosenversicherung und Pflegeversicherung – die in unterschiedlichen Jahren gegründet wurden und auf unterschiedlichen Sozialgesetzbüchern (SGB) basieren. Aufgrund ihrer ver-
32
C. Roppel
schiedenen Aufgaben und Ausgestaltungen sind die einzelnen Säulen unterschiedlich stark von der demografischen Entwicklung betroffen. Die Auswirkungen der demografischen Entwicklung auf die gesetzliche Krankenversicherung und die gesetzliche Pflegeversicherung sind umstritten. Die gesetzliche Krankenversicherung wurde als ältester Zweig 1883 gegründet, ihre gesetzliche Grundlage ist das fünfte Sozialgesetzbuch (SGB V), finanziert wird sie paritätisch durch Arbeitgeber- und Arbeitnehmerbeiträge, wobei die Arbeitnehmer mit Zusatzbeiträgen belastet werden. Die gesetzliche Pflegeversicherung wurde als jüngster Zweig 1995 gegründet. Ihre rechtliche Grundlage ist das elfte Sozialgesetzbuch (SGB XI), finanziert wird sie grundsätzlich paritätisch durch Arbeitgeber- und Arbeitnehmerbeiträge, wobei kinderlose Versicherte einen Zusatzbeitrag zu entrichten haben. Welche Auswirkungen der demografische Wandel auf diese Versicherungszweige haben wird, ist nicht eindeutig. Vertreter der Medikalisierungsthese (Gruenberg 1977) erwarten, dass eine zunehmende Lebenserwartung zu einer Erhöhung der Ausgaben für Pflege und Gesundheit führt wird. Sie gehen davon aus, dass die zusätzlichen Lebensjahre in Krankheit und Pflegebedürftigkeit verbracht werden. Das bedeutet, dass das durchschnittliche Morbiditätsniveau aufgrund des demografischen Wandels ansteigen wird und somit die Kosten für die gesetzliche Kranken- und Pflegeversicherung ansteigen werden. Demgegenüber gehen die Vertreter der Kompressionsthese (Fries 1980) davon aus, dass die zusätzlichen Lebensjahre, die in Gesundheit verbracht werden, stärker zunehmen werden als der Anstieg der Lebensdauer. Das bedeutet, dass die durchschnittlichen Gesundheits- und Pflegeausgaben trotz einer im Durchschnitt alternden Gesellschaft nicht zunehmen werden, da der Anstieg der gesunden Lebensjahre größer ist als der Anstieg der Lebensjahre die in Krankheit und Pflegebedürftigkeit verbracht werden. Zu beachten ist, dass keine der beiden Theorien bisher empirisch abschließend bewiesen werden konnte. Die gesetzliche Unfallversicherung und die gesetzliche Arbeitslosenversicherung sind im Vergleich zur gesetzlichen Kranken-, Pflege- und Rentenversicherung weniger stark demografieanfällig. Die gesetzliche Unfallversicherung existiert seit 1884 und wird durch die Arbeitgeber finanziert. Die rechtliche Grundlage ist das siebte Sozialgesetzbuch (SGB VII). Die Herausforderungen des demografischen Wandels für die gesetzliche Unfallversicherung werden darin liegen, dass sich der Anteil der älteren Arbeitnehmer in den Unternehmen erhöhen wird. Umfangreiche Konsequenzen für die Finanzierung dieses Versicherungszweiges aufgrund der demografischen Entwicklung sind momentan jedoch nicht zu erwarten. Die gesetzliche Arbeitslosenversicherung wurde 1927 implementiert. Ihre gesetzliche Grundlage ist das dritte Sozialgesetzbuch (SGB III) und sie wird paritätisch von Arbeitnehmern und Arbeitgebern finanziert. Ihre Finanzierung ist primär von der Entwicklung der sogenannten sozialversicherungspflichtigen Beschäftigung und von der konjunkturellen Entwicklung abhängig. Die Antwort auf die Frage, ob der demografische Wandel zu einer finanziellen Belastung der
2 Der demografische Wandel und die gesetzliche …
33
Arbeitslosenversicherung führen wird, hängt somit von der Einschätzung ab, ob sich das Verhältnis von Beitragszahlern zu Leistungsbeziehern aufgrund der demografischen Entwicklung verändert wird. Nur wenn der demografische Wandel dazu führen wird, dass die Zahl der sozialversicherungspflichtigen Beschäftigten bei konstanter oder steigender Zahl von Leistungsbeziehern sinken wird, kommt es zu demografiebedingten Schwierigkeiten bei der Finanzierung.
2.2 Generationenkonflikt 2.2.1 Generationenvertrag Die Auswirkungen, die der Anstieg des Altenquotienten auf die gesetzliche Rentenversicherung hat resp. haben kann, kann mithilfe des sogenannten Generationenvertrages und eines eventuell entstehenden Generationenkonfliktes aufgezeigt werden. Bei dem Generationenvertrag handelt es sich um einen (fiktiven) Solidar-Vertrag zwischen zwei bzw. drei gesellschaftlichen Generationen mit dem Ziel, die Arbeitseinkommen der Erwerbstätigen auf die bereits genannten drei Lebensphasen (Vorerwerbsphase, Erwerbsphase, Nacherwerbsphase) aufzuteilen. Dieser Vertrag stellt die theoretische Grundlage einer Rentenversicherung dar, die im Umlagesystem finanziert wird. Die Hauptaufgabe der Alterssicherung ist der (intertemporale) Transfer der Einkommen von der Erwerbs- in die Nacherwerbsphase. Da die Bürger in beiden Lebensphasen (Erwerbsund Nacherwerbsphase) Güter für ihren Lebensunterhalt benötigen, sie jedoch nur in der Erwerbsphase in der Lage sind, diese zu produzieren, muss in der Erwerbsphase für die Rentenphase nicht nur monetär, sondern auch generativ vorgesorgt werden. Die gesetzliche Rentenversicherung versucht zwar, dem generativen Bestandteil durch die Anerkennung von Kindererziehungszeiten gerecht zu werden; das Grundproblem – die Notwendigkeit nicht nur monetärer, sondern auch generativer Beiträge – bleibt jedoch bestehen, da die GRV allein Geldzahlungen fordert und nicht verlangt, dass den generativen Pflichten nachgekommen wird (Pimpertz 2005). Alterssicherung in Deutschland: ein Mischsystem aus Kapitaldeckung und Umlageverfahren
Das Alterssicherungssystem in Deutschland basiert auf drei Säulen: der gesetzlichen Rentenversicherung, der betrieblichen Altersvorsorge sowie der privaten Altersvorsorge. Die gesetzliche Rentenversicherung in Deutschland wird im Umlageverfahren organisiert. Dieses Verfahren hat einen kollektivistischen Charakter, da die Beitragseinnahmen einer Periode verwendet werden, um die Ausgaben derselben Periode zu leisten. Das bedeutet, dass – abgesehen von einer Schwankungs-
34
C. Roppel
reserve – kein nennenswerter Kapitalstock aufgebaut wird. Finanziert wird diese Säule grundsätzlich durch paritätisch geleistete Pflichtbeiträge (aktuell 18,6 % des sozialversicherungspflichtigen Bruttoeinkommens) von Arbeitgebern und Arbeitnehmern. Dabei sind die Beiträge durch eine Beitragsbemessungsgrenze nach oben begrenzt (Gieg 2008). Die betriebliche und die private Altersvorsorge als zweite und dritte Säule werden in Deutschland im Kapitaldeckungsverfahren organisiert. Dieses Verfahren ist durch einen individualistischen Charakter gekennzeichnet, da jeder Beitragszahler im Laufe seiner Erwerbsphase einen Kapitalbestand akkumuliert, der dann bei Einritt in den Ruhestand durch laufende Rentenzahlungen abgebaut wird (Raffelhüschen 1989). Die heutige Ausgestaltung der betrieblichen Altersvorsorge wurde maßgeblich durch das 2001 verabschiedete Altersvermögensgesetz (AVmG, auch bekannt als Riester-Reform oder Rentenreform 2001) geprägt. Mit dieser Reformmaßnahme werden alternative, nicht-staatliche Versorgungswege gestärkt, um die Versorgungslücke aus einer reduzierten gesetzlichen Rente zu schließen. Seit dieser Reform haben die Arbeitnehmer unter bestimmten Bedingungen einen Rechtsanspruch auf Entgeltumwandlung. Durch das Betriebsrentenstärkungsgesetz (BRSG) von 2017 muss der Arbeitgeber seit Januar 2019 15 % des umgewandelten Entgelts zusätzlich als Arbeitgeberzuschuss an den Pensionsfonds, die Pensionskasse oder die Direktversicherung weiterleiten, wenn er durch die Entgeltumwandlung Sozialversicherungsbeiträge einspart (§ 1a BetrAVG i. d. F. des BRSG). Zur privaten Altersvorsorge werden alle Anlageformen gezählt, die mit dem individuellen Ziel der Alterssicherung privat abgeschlossen werden. Das bedeutet, dass die private Alterssicherung unzählige Varianten der Geldanlage umfasst (Gieg 2008).
2.2.2 Altenquotient und Generationenkonflikt Befürchtet wird, dass der Anstieg des Altenquotienten zu einem Generationenkonflikt führen wird (Burns und Kotlikoff 2004). Der Grund dafür ist, dass es zu einer Verschlechterung der intergenerativen Einkommensverteilung kommen kann; diese ist das Ergebnis eines Vergleichs der (Alters-)Renteneinkommen der Rentner mit den Erwerbseinkommen der Arbeitnehmer. Dabei entspricht die Höhe des Renteneinkommens dem Produkt aus der Zahl der Rentner (R) und dem Pro-Kopf-Einkommen der Rentner (r); ferner stimmt die Höhe der Erwerbseinkommen mit der Zahl der Erwerbstätigen (E) und dem Pro-Kopf-Einkommen der Erwerbstätigen (e) überein. Werden die Einkommensarten miteinander verglichen, wird deutlich, dass die Einkommensverteilung von dem Rentnerquotienten (R/E) und dem Rentenniveau (r/e) abhängt:
2 Der demografische Wandel und die gesetzliche …
(Alters-)Renteneinkommen der Rentner Erwerbseinkommen der Arbeitnehmer
=
Zahl der Rentner (R) Zahl der Erwerbst¨atigen (E)
35
·
Pro-Kopf-Einkommen Rentner (r) Pro-Kopf-Einkommen Arbeitnehmer (e)
Auch dieser Zusammenhang kann anhand eines einfachen Beispiels verdeutlicht werden: Bekäme jeder Rentner im Durchschnitt eine Rente von 100 € und gäbe es 10 Rentner, läge der den Rentnern insgesamt gezahlte Betrag bei 1000 €. Wären die Werte für die Erwerbstätigen doppelt so hoch, läge deren Einkommen bei 4000 €. Dann hätte die intergenerative Verteilung den Wert 0,25, der Rentnerquotient und das Rentenniveau hätten jeweils den Wert 0,5. Steigt der Rentnerquotient um 50 %, würde sich die intergenerative Verteilung von.
10 100 1000 = · 4000 20 200
auf
1500 15 100 = · 4000 20 200
zu Lasten der Erwerbsbevölkerung verschieben. Soll hingegen die Verteilung bei 0,25 verbleiben, muss – bei einem Anstieg des Rentnerquotienten um 50 % – das Pro-KopfEinkommen der Rentner um ein Drittel sinken: 15 66,6 1000 = · 4000 20 200 Unter Umständen kann die Verteilung direkt an der Änderung des GRV-Beitragssatzes abgelesen werden. Wird nämlich vereinfachend angenommen, dass die GRV nur durch Versicherte finanziert wird und nur Renten zahlt,1 stimmen ihre Einnahmen mit dem Produkt aus der Zahl der Personen im Erwerbsalter (E), dem Beitragssatz (b) und dem Pro-Kopf-Einkommen der Erwerbstätigen (e) und ihre Ausgaben mit dem Produkt aus der Zahl der Personen im Rentenalten (R) und der Pro-Kopf-Rente (r) überein. Da sich im finanziellen Gleichgewicht die Einnahmen und Ausgaben entsprechen müssen, gilt:
E·b·e=R·r Wird diese Gleichung nach dem Beitragssatz aufgelöst, wird sichtbar, dass der Beitragssatz mit dem Produkt aus dem Rentnerquotienten (R/E) und dem Rentenniveau (r/e) übereinstimmt:
b= 1Gegenwärtig
R r · E e
beteiligt sich der Staat an der Finanzierung der GRV in der Größenordnung von gut einem Fünftel an den jährlichen Ausgaben: 2017 lagen diese bei 300 Mrd. € und der Bundeszuschuss bei 70 Mrd. €. Ferner werden nicht nur Renten, sondern auch Rehabilitationsleistungen und Verwaltungsausgaben finanziert. Die staatlichen Zuwendungen werden zukünftig steigen müssen, wenn das Rentenniveau nicht sinken und gleichzeitig die Beiträge zur GRV nicht über 20 % steigen sollen (Börsch-Supan und Rausch 2018).
36
C. Roppel
Zudem zeigt die Gleichung das Potenzial zum Generationenkonflikt auf, da deutlich wird, dass der Beitragssatz und das Rentenniveau nicht unabhängig voneinander sind: Bleibt der Beitragssatz konstant, muss das Rentenniveau sinken; soll das Rentenniveau konstant bleiben, muss der Beitragssatz erhöht werden. Das heißt, dass eine Verschlechterung des Altenquotienten sich entweder auf die Situation der aktuellen Beitragszahler oder auf die Situation der aktuellen Rentenbezieher auswirkt. In der politischen Diskussion wird vielfach behauptet, dass das Rentenniveau sogar angehoben werden könnte, da die Erwerbstätigen nur temporär belastet würden, weil ihnen höhere Rentenleistungen in der Rentenphase selbst zugutekämen. Das ist zwar richtig, ändert aber nichts daran, dass sich die intergenerative Einkommensverteilung bei einer Stabilisierung des Rentenniveaus dauerhaft – und nicht nur vorübergehend – zu Lasten der Erwerbstätigen verschlechtert. Unterschied zwischen Alten- und Rentnerquotient
Wie bereits aufgezeigt, wird der Altenquotienten zur Darstellung und Entwicklung der Bevölkerungsstruktur einer Gesellschaft verwendet. Hierbei wird die Bevölkerung der Nacherwerbsphase auf die Bevölkerung in der Erwerbsphase bezogen. Für eine Rentenversicherung, die im Umlageverfahren finanziert wird, steht jedoch nicht der Altenquotient, sondern primär der Rentnerquotient im Fokus. Der Rentnerquotient (RQ) setzt dabei die Zahl der sogenannten Äquivalenzrentner ins Verhältnis zu der Zahl der sogenannten Äquivalenzbeitragszahler (§ 68 Abs. 4 SGB VI):
RQ =
¨ Aquivalenzrentner ¨ Aquivalenzbeitragszahler
Die Zahl der Äquivalenzrentner erfasst die Anzahl der sogenannten Eckrentner im Rentenbestand. Ein Eckrentner ist dabei als ein Rentner definiert, der 45 Jahre lang ein durchschnittliches Einkommen bezogen hat, somit im Laufe seiner Erwerbstätigkeit genau 45 Entgeltpunkte verdient hat und somit eine Standardrente bezieht (§ 154 Abs. 3 SGB VI). Die Zahl der erarbeiteten Entgeltpunkt ist ausschlaggebend für die Höhe des Rentenbezugs. Die Anzahl der Äquivalenzbeitragszahler entspricht der Anzahl der sozialversicherungspflichtigen Durchschnittsverdiener.
2.3 Mögliche Konfliktlösungen 2.3.1 Wechsel zum Kapitaldeckungsverfahren Denkbar ist, dass ein Umstieg vom Finanzierungsverfahren der Umlage auf dasjenige der Kapitaldeckung das Potenzial eines Generationenkonflikts verringern würde. Hier könnte argumentiert werden, dass es dann zu einem, dem Einkommenswachstum dien-
2 Der demografische Wandel und die gesetzliche …
37
lichen, vermehrten Sparen kommen würde. Dies ist jedoch fraglich, da es in jeder Periode stets Beitragszahler und Rentenbezieher gibt. Somit muss in einem Kapitaldeckungsverfahren das Sparen der Beitragszahler mit dem Entsparen der Rentenbezieher verglichen werden. Da diese Differenz nicht zwangsläufig positiv ist, kann dem Kapitaldeckungsverfahren auch nicht per se eine ersparnissteigernde Wirkung zugeschrieben werden. Weiterhin muss berücksichtigt werden, dass es nicht um die Neukonzeption des Finanzierungsverfahrens geht, sondern dass ein Verfahrenswechsel ansteht. Es geht nicht um die Frage, wie die Rendite kapitalgedeckter Beiträge in einer neu zu konzipierenden Alterssicherung ausfallen würde, sondern um die Frage, welche Renditewirkungen der Umstieg von einer umlagefinanzierten auf eine kapitalgedeckte Alterssicherung hätte. Da die Beiträge im Umlageverfahren unmittelbar zur Finanzierung der Leistungen benötigt werden, fehlen Gelder, wenn ein Teil der Einnahmen genutzt werden soll, um Kapitalrenten zu finanzieren. Das ist gemeint, wenn davon gesprochen wird, dass es bei einem Wechsel des Finanzierungsverfahrens zu sogenannten Umstiegskosten („transition costs“) kommt (Roppel 2013). Das kann an einem einfachen Beispiel veranschaulicht werden: Die Renten der Generation A werden mithilfe des Umlageverfahrens finanziert. Kommt es bei der Generation B zu einem Finanzierungswechsel auf die Kapitaldeckung, bedeutet dies, dass die Generation B ihre Renten anspart, die Renten der Generation A jedoch auf andere Weise finanziert werden müssen. Dies müsste über eine Erhöhung der Staatsverschuldung erfolgen. Folglich würde die Generation B für ihre Renten eine Rendite von x % erhalten, müsste jedoch einen vergleichbaren Zinssatz für die Staatsverschuldung bezahlen. Die Nettorendite aufgrund des Umstiegs ist folglich deutlich geringer als die Renditen aus dem Umlagesystem, bei einem identischen Zinssatz beträgt die Rendite sogar 0 %.
2.3.2 Erhöhung des Bundeszuschusses Fraglich ist auch, ob das Potenzial des Generationenkonfliktes durch eine höhere Beteiligung der Steuerzahler an der Finanzierung der GRV überwunden werden kann. Auf der Beitragsseite sollen Entlastungen ab 2030 durch einen steuerfinanzierten Demografie-Zuschuss in Höhe von 1,5 % der Rentenausgaben – ab 2040 2,5 % – erreicht werden (Bundesministerium für Arbeit und Soziales 2016). Steuern haben zwar andere Verteilungswirkungen als Sozialabgaben; für das Belastungsniveau ist es jedoch weitgehend irrelevant, ob die Erwerbstätigen als Beitrags- oder als Steuerzahler zur Finanzierung der GRV herangezogen werden. Das an dieser Stelle zentrale Problem ist, dass bereits gegenwärtig diejenigen Arbeitnehmer, deren Jahreseinkommen zwischen 40.000 und 50.000 € liegt, fast die Hälfte ihres Einkommens an den Staat abgeben müssen (Breidenbach et al. 2017). Höhere Einkommen – auch diejenigen von Spitzenverdienern – werden nicht stärker belastet; es ändert sich lediglich die Belastungsstruktur. Sie variiert, weil das Wachstum der Sozialabgaben – aufgrund der jeweiligen Beitragsbemessungsgrenzen – geringer ist als das-
38
C. Roppel
jenige der Einkommensteuer. Nur Haushalte mit sehr geringem Einkommen werden deutlich weniger belastet, da sie nicht einkommensteuerpflichtig sind. Reagieren jedoch die Haushalte auf einen Anstieg der Belastung mit einem Rückgang ihres Arbeitsangebotes, werden die aus der demografischen Alterung resultierenden Probleme größer; darauf macht der sogenannte Kobra-Effekt aufmerksam (Siebert 2001). An dieser Stelle soll daran erinnert werden, dass sich die Einkommensentwicklung rechnerisch auf drei Faktoren zurückführen lässt: auf die Zahl der Erwerbspersonen, auf die Zahl der Erwerbstätigen und auf das Pro-Kopf-Einkommen der Erwerbstätigen. Folglich muss, soll über die Folgen der demografischen Alterung geurteilt werden, auch nach den Bestimmungsgründen der Erwerbsbeteiligung gefragt werden. Wird dies nicht berücksichtigt, kann sich der Generationenkonflikt sogar noch verstärken. Der Kobra-Effekt
Angeblich wurde in Indien versucht, der Kobra-Plage mittels Fangprämien zu begegnen. Die Erwartung war, dass die Zahl der Kobras daraufhin zurückgehen würde. Passiert ist aber wohl genau das Gegenteil: Kobras wurden gezüchtet, um die Fangprämie zu kassieren. Daher sei ihre Zahl nicht zurückgegangen, sondern gestiegen. Unabhängig davon, ob es tatsächlich zu Fangprämien kam, wird in der Wirtschaftspolitik mit dem Kobra-Effekt vor dem Einsatz kontraproduktiver Instrumente gewarnt (Siebert 2001).
Weiterhin ist eine Erhöhung des Bundeszuschusses problematisch, da sie – bei ansonsten konstanten Ausgaben – zu einer Erhöhung der Staatsverschuldung führt. Eine Erhöhung der Staatsausgaben ist zumindest formal aus zwei Gründen eingeschränkt: erstens durch die Existenz des Vertrags von Maastricht und zweitens durch die sogenannte Schuldenbremse. Der Vertrag von Maastricht wird auch als Vertrag über die Europäische Union (EUV) bezeichnet und wurde Anfang 1992 vom Europäischen Rat in Maastricht unterzeichnet. Neben vielen Vereinbarungen wurde hier auch das Kriterium der dauerhaften Haushaltsstabilität festlegt. Im sogenannten Stabilitäts- und Wachstumspakt wurde festgeschrieben, dass die dauerhafte Haushaltsstabilität dann erreicht wird, wenn der Schuldenstand nicht größer als 60 % und die Neuverschuldung nicht höher als 3 % des Bruttoinlandprodukts (BIP) ist. Der öffentliche Gesamthaushalt in Deutschland hatte zum 31.12.2018 Schulden in Höhe von 2.063 Billionen € angesammelt. Das entspricht einem Schuldenstand von 60,9 % gemessen am BIP. Hingegen wird im Bereich der Neuverschuldung seit 2014 ein Überschuss erwirtschaftet, sodass der Schuldenstand seitdem sukzessive abgebaut wird (Deutsche Bundesbank 2019). Neben diesem europäischen Vertrag gibt es in Deutschland noch eine nationale Schuldenregel resp. Schuldenbremse. Die „alte“ Schuldenregel sah eine Verknüpfung der Neuverschuldung an die Höhe der Investitionsausgaben des Bundes vor, wobei
2 Der demografische Wandel und die gesetzliche …
39
Abweichungen von dieser Regel bei einer „Störung des gesamtwirtschaftlichen Gleichgewichts“ ermöglicht wurden. Diese Regel erwies sich im Zeitablauf als „weich“, was dazu führte, dass der Schuldenstand kontinuierlich angestiegen ist. Maßgeblich drei Gründe haben dazu geführt, dass die „alte“ Schuldenregel nicht in der Lage war, den stetig ansteigenden Schuldenstand in Deutschland zu verhindern: Erstens war der Begriff der Investitionen zu weit gefasst worden und ließ zu viel Interpretationsspielraum zu. Zweitens wurden keine Schwellenwerte festgelegt, wenn es um die Identifikation der „Störung des gesamtwirtschaftlichen Gleichgewichts“ ging. Drittens wurde diese Regel durch zahlreiche Regierungen gebrochen, ohne dass die Verfassungsgerichtsbarkeit dieses Vorgehen als verfassungswidrig eingestuft hätte (Pünder 2010). Im Jahr 2009 hat der Gesetzgeber beschlossen, die sogenannte „Schuldenbremse“ zu implementieren, die seit dem Haushaltsjahr 2016 gilt. Die neue Schuldenbremse sieht ein grundsätzliches Verbot der Schuldenaufnahme durch Bund und Länder vor. Hierbei muss allerdings berücksichtigt werden, dass der Bundeshaushalt dieses Neuverschuldungsverbot bereits dann erfüllt, wenn die Neuverschuldung einen Grenzwert von 0,35 % des BIP nicht überschreitet. Das bedeutet, dass sich der Bund bei einem BIP von 3344 Mrd. € (2018) mit rund 117 Mrd. € verschulden darf. Dieser Spielraum wird als Strukturkomponente bezeichnet, wobei der Grenzwert von 0,35 % des BIP ökonomisch nicht begründet werden kann (Feld 2010). Darüber hinaus lässt die Schuldenbremse weitere Ausnahmen von einem totalen Neuverschuldungsverbot zu, was dazu führt, dass die Schuldenbremse politisch (leicht) umgangen werden kann. Bei Nicht-Einhaltung der Schuldenbremse kann das Bundesverfassungsgericht einen Haushalt zwar für verfassungswidrig erklären, konkrete Sanktionen kann es allerdings nicht verhängen. Obwohl die Neuverschuldung in Deutschland somit formal zwar begrenzt ist, besteht politisch die Möglichkeit diese zu umgehen. Diese Tatsache kann dazu führen, dass der Bundeszuschuss zur Rentenversicherung erhöht wird, ohne dass an anderer Stelle die Staatsausgaben reduziert werden. Dies würde jedoch dazu führen, dass die Belastung der Erwerbseinkommen immer weiter ansteigt, und somit der Generationenkonflikt – wie bereits diskutiert – noch verstärkt wird.
2.3.3 Anhebung des Renteneintrittsalters Als dritte Möglichkeit, den Generationenkonflikt zu entschärfen, wird vielfach eine weitere Erhöhung des Renteneintrittsalters diskutiert (bspw. Holtemöller et al. 2016). Eine solche Erhöhung würde dazu führen, dass die Zahl der Rentenbezieher sowie die Dauer des Rentenbezugs zurückgehen, wohingegen die Zahl der Beitragszahler sowie die Dauer der Beitragszahlungen ansteigen. Durch eine Erhöhung des Rentenalters kann zwar der Anstieg der Rentenbezugsdauer reduziert werden, die Tragfähigkeit der staatlichen Alterssicherungssysteme kann dadurch jedoch nicht erreicht werden. Wie einleitend diskutiert, steigt der Altenquotient nicht nur durch einen Anstieg der Lebenserwartung, sondern auch aufgrund der geringen Geburtenraten.
40
C. Roppel
Weiterhin werden in diesem Zusammenhang häufig zwei Argumente angeführt, die gegen eine Erhöhung des Renteneintrittsalters sprechen: erstens, dass ältere Arbeitnehmer auf dem Arbeitsmarkt nicht nachgefragt werden würden und sie folglich nicht länger arbeiten könnten und dass zweitens Angehörige von Berufsgruppen mit hohen physischen und psychischen Belastungen nicht in der Lagen wären, länger berufstätig zu sein (Promberger und Wübbeke 2006). Beide Argumente können jedoch entkräftet werden (Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung 2010). Bezogen auf das erste Argument muss berücksichtigt werden, dass eine Erhöhung des Rentenalters – wie derzeit durchgeführt – stufenweise erfolgen kann. Die sogenannte „Rente mit 67“ ist ein zentraler rentenpolitischer Baustein, um den Folgen des demografischen Wandels zu begegnen. Sie sieht vor, dass das Renteneintrittsalter zwischen den Jahren 2012 und 2031 von 65 auf 67 Jahre ansteigt (Buslei et al. 2019). Das bedeutet, dass nicht die heutige, sondern die zukünftige Situation am Arbeitsmarkt auschlaggebend ist. Aufgrund des demografischen Wandels und des damit verbundenen Rückgangs der Anzahl an Erwerbspersonen wird sich die Situation somit für ältere Arbeitnehmer vermutlich verbessern (siehe zum stetigen Anstieg der Erwerbstätigenquote im Alter von 55 bis 64 Jahren Abschn. 1.2.2 im Kap. 1 von Wilke). Eine ähnliche Argumentation gilt für das zweite Argument. Hier muss berücksichtigt werden, dass sich die Gesundheit der Bevölkerung zumindest im Durchschnitt weiter verbessern und – wie bereits beschrieben – auch die Lebenserwartung weiter ansteigen wird. Somit kann davon ausgegangen werden, dass ein Teil dieser zusätzlichen Lebensjahre bei guter Gesundheit verbracht wird. Unstrittig ist jedoch, dass es gleichwohl Arbeitnehmer geben wird, für die es schwierig wird, in ihrem Beruf bis zum Erreichen der Altersrente berufstätig zu sein. Für diese Berufsgruppen müssen dann Alternativen gefunden werden. Nach Meinung des Sachverständigenrates werden für diese Berufsgruppen Anpassungsprozesse bei Arbeitnehmern und Arbeitgebern notwendig. Dazu gehören bspw. die Bereitschaft zum lebenslangen Lernen, Neuorganisation der betrieblichen Abläufe etc. (Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung 2010).
2.4 Fazit Die Auswirkungen der Alterung der Bevölkerung auf die Gesellschaft sind immens. Vor allem wenn die Generation der Baby-Boomer (geb. zwischen 1956 und 1965) aus dem Erwerbsleben aus- und in die Ruhestandsbevölkerung eintreten wird, was – ohne Berücksichtigung der Frühverrentung – in den Jahren 2018 bis 2031 der Fall sein wird. Durch ihr Ausscheiden aus der Erwerbstätigkeit wird das gesamte Sozialversicherungssystem in Deutschland vor Herausforderungen gestellt werden. Die Auswirkungen auf die gesetzliche Arbeitslosen- und Unfallversicherung werden eher von geringfügiger Natur sein. Die Auswirkungen auf die Kranken- und Pflegeversicherung sind nicht ein-
2 Der demografische Wandel und die gesetzliche …
41
deutig abschätzbar: Wird die Bevölkerung im Durschnitt aufgrund der Alterung eine erhöhte Morbidität aufweisen, werden die Kosten für die Kranken- und die Pflegeversicherung ansteigen. Wird hingegen die Bevölkerung zwar im Durchschnitt älter, aber nicht morbider (weil der Anteil der Lebensjahre in Gesundheit stärker ansteigt als der Anteil der Lebensjahre in Krankheit), so werden auch die finanziellen Herausforderungen für die Kranken- und die Pflegeversicherung gering sein. Die Auswirkungen auf das System der gesetzlichen Rentenversicherung sind hingegen unstrittig: Bei einer im Umlageverfahren finanzierten gesetzlichen Rentenversicherung führt ein größerer Anteil der Bevölkerung in der Nacherwerbsphase c. p. zu einer steigenden Belastung der Bevölkerung in der Erwerbsphase. Diese Entwicklung kann zu einem sogenannten Generationenkonflikt führen. Die Aufgabe der Politik wird es sein, diesen Konflikt zu lösen, mindestens aber zu reduzieren. Dabei konnte gezeigt werden, dass die in der Öffentlichkeit diskutierten Instrumente – Wechsel zum Kapitaldeckungsverfahren, Erhöhung des Bundeszuschusses, Erhöhung des Rentenalters – alleine nicht in der Lage sind, den Generationenkonflikt zu reduzieren. Der Wechsel zum Kapitaldeckungsverfahren gestaltet sich aufgrund der sogenannten Umstiegskosten schwierig. Hier muss beachtet werden, dass bei einem Wechsel des Finanzierungsverfahrens eine Generation doppelt belastet wird: Für die eigene Rente muss im Kapitaldeckungsverfahren angespart werden und gleichzeitig muss die Rente der aktuellen Rentnergeneration im Umlageverfahren finanziert werden. Dies ist nur durch eine höhere Staatsverschuldung realisierbar, die wiederum zu einer stärkeren Belastung für künftige Generationen führen wird. Die Erhöhung des Bundeszuschusses ist aus zwei Gründen kritisch zu betrachten: Das erste Problem ergibt sich aufgrund der Belastung der Arbeitnehmer durch Steuern bzw. Abgaben zur Sozialversicherung. Steigen diese Belastungen weiter an (eine Erhöhung des Bundeszuschusses muss c. p. zu einer höheren Steuerbelastung führen) kann dies zu einem Rückgang des Arbeitsangebotes führen. Dies hätte wiederum weitreichende volkswirtschaftliche Verzerrungen zur Folge. Das zweite Problem liegt darin, dass sich die Bundesrepublik Deutschland dem Vertrag von Maastricht angeschlossen und sich darüber hinaus noch die nationale Schuldenbremse auferlegt hat. Beides schränkt die Finanzierungsspielräume des Staates ein. Die Erhöhung des Rentenalters würde zwar den Anstieg der Rentenbezugsdauer reduzieren, nicht jedoch die geringe Geburtenrate erhöhen. Beide Faktoren führen jedoch dazu, dass der Altenquotient ansteigt. Weiterhin wird dieser Vorschlag kritisch diskutiert, da ältere Arbeitnehmer auf dem Arbeitsmarkt im Vergleich zu jüngeren Arbeitnehmern weniger stark nachgefragt werden und somit nicht zwangsläufig länger arbeiten können. Weiterhin ist dieser Vorschlag für Arbeitnehmer mit hohen physischen und psychischen Belastungen bei den aktuellen Rahmenbedingungen kaum umsetzbar. Da gezeigt werden konnte, dass die Instrumente alleine nicht in der Lage sind, den Generationenkonflikt zu entschärfen, muss über eine Reduzierung der Ausgaben der Sicherungssysteme diskutiert werden. In Zukunft könnte es daher zu einem Hybridsystem kommen, das aus einer kollektiven Mindestsicherung und einer darauf auf-
42
C. Roppel
bauenden privaten Zusatzsicherung besteht. Dabei ist es die Aufgabe des Staates sicherzustellen, dass auch Arbeitnehmer mit einem geringen Erwerbseinkommen ein existenzsicherndes Rentenniveau erreichen können.
Literatur Becker, G. S. (1993). A treatise on the family (2. Aufl.). Cambridge: Harvard University Press. Becker, G. S., Murphy, K. M., & Spenkuch, J. L. (2016). The manipulation of children’s preferences, old-age support, and investment in children’s human capital. Journal of Labor Economics, 34(S2), 3–30. Birg, H. (2018). Die demographische Alterung in Deutschland. Die neue Ordnung, 72(4), 244– 254. Börsch-Supan, A., & Rausch, J. (2018). Die Kosten der doppelten Haltelinie (The Costs of the Double Threshold). MEA Discussion Paper (Bd. 3). München: Center for the Economics of Aging. Breidenbach, P., Döhrn, R., & Schmidt, C. M. (2017). Zeit für Reformen – nicht nur der Steuern. Wirtschaftsdienst, 97(6), 395–399. Bundesministerium der Finanzen. (2016). Vierter Bericht zur Tragfähigkeit der öffentlichen Finanzen. Berlin: Bundesministerium der Finanzen. Bundesministerium des Inneren. (2019). Migrationsbericht der Bundesregierung – Migrationsbericht 2016/2017. Berlin: Bundesministerium des Inneren. Bundesministerium für Arbeit und Soziales. (2016). Gesamtkonzept zur Alterssicherung. Berlin: Bundesministerium für Arbeit und Soziales. Bundeszentrale für politische Bildung. (2018). Datenreport 2018 – Ein Sozialbericht für die Bundesrepublik Deutschland. Bonn: Bundeszentrale für politische Bildung. Burns, S., & Kotlikoff, L. J. (2004). The coming generational storm – What you need to know about America’s economic future. Cambridge: The MIT Press. Buslei, H., Gallego-Granados, P., Geyer, J., & Haan, P. (2019). Rente mit 67: Der Arbeitsmarkt für Ältere wird entscheidend sein. DIW-Wochenbericht, 86, 275–283. Deutsche Bundesbank. (2019). Monatsbericht August 2019 (Bd. 71). Jahrgang Nr. 8. Frankfurt a. M.: Deutsche Bundesbank. Easterlin, R. A. (1987). Birth and fortune: The impact of numbers on personal welfare (2. Aufl.). Chicago: University of Chicago Press. Feld, L. (2010). Sinnhaftigkeit und Effektivität der deutschen Schuldenbremse. Perspektiven der Wirtschaftspolitik, 11(3), 226–245. Fries, J. F. (1980). Ageing, natural death, and the compression of morbidity. New England Journal of Medicine, 303(3), 130–135. Gieg, M. (2008). Betriebliche Altersversorgung in Deutschland und Großbritannien. München: Rainer Hampp. Gruenberg, E. M. (1977). The failures of success. The Milbank Memorial Fund Quarterly. Health and Society 55(1), S. 3–24. Helberger, C., & Rathjen, D. (1998). Fehlerhafte Erwartungen zur Lebenserwartung in kapitalgedeckten und umlagefinanzierten Altersversicherungen. In H. P. Galler, & G. Wagner (Hrsg.), Empirische Forschung und wirtschaftspolitische Beratung (S. 398–419). Festschrift für HansJürgen Krupp zum 65. Geburtstag. Frankfurt a. M.: Campus.
2 Der demografische Wandel und die gesetzliche …
43
Holtemöller, O., Pohle, F., & Zeddies, G. (2016). Stabilisierung der gesetzlichen Rentenversicherung durch Erhöhung des Renteneintrittsalters. IWH Online, No. 3/2016. Halle (Saale): Leibniz-Institut für Wirtschaftsforschung Halle (IWH). Pimpertz, J. (2005). Alterssicherung im Drei-Generationenvertrag – Zur Berücksichtigung der Kindererziehung in der umlagefinanzierten Sozialversicherung. IW-Positionen Beiträge zur Ordnungspolitik (Bd. 14). Köln: Dt. Inst.-Verl. Promberger, M., & Wübbeke, C. (2006). Anhebung der Rentenaltersgrenze – Pro und Contra Rente mit (Bd. 67). IAB Kurzbericht Nr. 8. Nürnberg: IAB. Pünder, H. (2010). Staatsschuldenrecht – Kommentierung von Art. 115 GG (Kreditbeschaffung). In K. H. Friauf, & W. Höfling Stiftung (Hrsg.), Berliner Kommentar zum Grundgesetz (Bd. 30, Erg.Lfg. VII/10). Berlin: Erich Schmidt. Raffelhüschen, B. (1989). Anreizwirkungen des Systems der sozialen Alterssicherung. Eine dynamische Simulationsanalyse. Frankfurt a. M.: Peter Lang. Roppel, U. (2013). Generationenpolitik: Der drohende Generationenkonflikt. RWI Materialien (Bd. 74). Essen: Rheinisch-Westfälisches Institut für Wirtschaftsforschung (RWI). Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. (2010). Chancen für einen stabilen Aufschwung – Jahresgutachten 2010/11. Wiesbaden: Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. Siebert, H. (2001). Der Kobra-Effekt – Wie man Irrwege der Wirtschaftspolitik vermeidet. Stuttgart: Piper Taschenbuch. Statistisches Bundesamt. (2018). Sterbetafel – Ergebnisse aus der laufenden Berechnung von Periodensterbetafeln für Deutschland und die Bundesländer. Wiesbaden: Statistisches Bundesamt. Statistisches Bundesamt. (2019). Bevölkerung im Wandel – Annahmen und Ergebnisse der 14. koordinierten Bevölkerungsvorausberechnung. Wiesbaden: Statistisches Bundesamt. Weiland, S. K., Rapp, K., Klenk, J., & Keil, U. (2006). Zunahme der Lebenserwartung – Größenordnung. Determinanten und Perspektiven. Deutsches Ärzteblatt, 103(16), 1072–1077. Werding, M. (2016). Modellrechnungen für den vierten Tragfähigkeitsbericht des Bundesministeriums der Finanzen. FiFo-Bericht (Bd. 20). Köln: FiFo.
Prof. Dr. Cirsten Roppel ist seit 2014 hauptberufliche Dozentin für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management in Essen. Seit 2018 ist sie zudem wissenschaftliche Gesamtstudienleiterin am Hochschulzentrum Bonn. Ihre Forschungsschwerpunkte liegen in den Feldern Soziale Sicherung, Versicherungstheorie und Gesundheitsökonomik.
3
Demografischer Wandel und Wirtschaftswachstum Thomas Christiaans und Karsten Lübke
Inhaltsverzeichnis 3.1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.2 Wirtschaftswachstum und Bevölkerungswachstum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.2.1 Wachstum ohne technischen Fortschritt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.2.2 Wachstum mit technischem Fortschritt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3.2.3 Negatives Bevölkerungswachstum ohne Steady State. . . . . . . . . . . . . . . . . . . . . . . 58 3.3 Wirtschaftswachstum und Automatisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 3.4 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Zusammenfassung
Der demografische Wandel hat bedeutende Implikationen für das langfristige Wirtschaftswachstum. In diesem Kapitel wird untersucht, welche Voraussagen die moderne Wachstumstheorie für die wirtschaftliche Entwicklung in einem Land mit schrumpfender und alternder Bevölkerung impliziert. Dabei wird auf Ansätze der Theorie des semi-endogenen Wachstums Bezug genommen. Die theoretische Voraussage in Bezug auf das Wirtschaftswachstum ist dabei pessimistisch. Abschließend werden
T. Christiaans (*) FOM Hochschule, Siegen, Deutschland E-Mail: [email protected] K. Lübke FOM Hochschule, Dortmund, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOM-Edition, https://doi.org/10.1007/978-3-658-30129-3_3
45
46
T. Christiaans und K. Lübke
mögliche Auswirkungen der Automatisierung von Produktionsprozessen betrachtet. Bei passender wirtschaftspolitischer Flankierung kann die Automatisierung einen Ausweg weisen.
3.1 Einleitung Die Entwicklung von Reichtum oder Armut eines Landes hängt vom Wachstum seines realen Bruttoinlandsproduktes (BIP) im Verhältnis zum Wachstum seiner Bevölkerung ab (im Folgenden ist stets das reale BIP gemeint). Denn dividiert man das gesamte BIP durch die Größe der Bevölkerung, so erhält man das BIP pro Kopf, das ein Maß für den durchschnittlichen Wohlstand der Bevölkerung ist. Der individuelle Wohlstand hängt auch von der Verteilung des BIP auf die Personen der Volkswirtschaft ab, wobei das Thema der Verteilung hier zunächst aber nicht betrachtet wird. Ein einfaches Beispiel kann die Bedeutung des Pro-Kopf-Wachstums schon verdeutlichen. Angenommen, die Wachstumsrate des Pro-Kopf-BIP beträgt 25 Jahre lang im Durchschnitt 1 %, dann erhöht es sich in diesem Zeitraum nur um den Faktor 1,28. Beträgt das Wachstum dagegen durchschnittlich 3 %, so wird sich das Pro-Kopf-BIP im selben Zeitraum mehr als verdoppeln.1 Wenn das Wirtschaftswachstum dagegen negativ ist, z. B. −1 %, dann sinkt das Pro-Kopf-BIP um den Faktor 0,78. Das Bruttoinlandsprodukt
Das Bruttoinlandsprodukt (BIP) ist ein Maß für die wirtschaftliche Leistung einer Volkswirtschaft in einem bestimmten Zeitraum, z. B. in einem Jahr. Es misst den Wert aller im Inland hergestellten Güter (Waren und Dienstleistungen), soweit diese nicht als Vorleistungen für die Produktion anderer Güter verwendet werden, um Doppelzählungen zu vermeiden. Wird es in aktuellen (laufenden) Preisen errechnet, so handelt es sich um das nominale BIP. In der sogenannten Entstehungsrechnung wird das BIP ermittelt, indem die Bruttowertschöpfung aller Produzenten als Differenz zwischen dem Wert der produzierten Güter zu Herstellungspreisen und dem Vorleistungsverbrauch berechnet wird. Die Summe der Bruttowertschöpfungen aller Wirtschaftsbereiche ergibt das BIP, nachdem die Gütersteuern (vor allem die Umsatzsteuer) hinzugefügt und die Gütersubventionen abgezogen worden sind, um zu Marktpreisen zu gelangen. Das preisbereinigte oder reale BIP wird in jeweiligen Vorjahrespreisen berechnet, um die reale Wirtschaftsentwicklung im Zeitablauf frei von Preisein-
1Das
kann man so berechnen: Steigt das BIP pro Kopf um 1 %, so erhöht es sich in einem Jahr um den Faktor 1 + 1 % = 1 + 0,01 = 1,01, in zwei Jahren um 1,01 · 1,01 = 1,012 und nach 25 Jahren um 1,0125 = 1,28. Entsprechend steigt es bei 3 % um den Faktor 1,0325 = 2,09 und sinkt bei − 1 % um den Faktor 0,9925 = 0,78.
3 Demografischer Wandel und Wirtschaftswachstum
47
flüssen darzustellen. Das reale BIP kann auch als Quotient von nominalem BIP und einem passenden Preisindex berechnet werden. Die Wachstumsrate des preisbereinigten BIP dient als Messgröße für das Wirtschaftswachstum von Volkswirtschaften. Entscheidend für den Wohlstand ist allerdings nicht das gesamte BIP einer Volkswirtschaft, sondern der Wert, der sich durchschnittlich pro Kopf der Bevölkerung ergibt (Pro-Kopf-BIP). In der Wachstumstheorie interessiert man sich daher vorrangig für das Wachstum des Pro-Kopf-BIP. Die Verwendung des BIP als alleiniger Wohlstandsindikator wird jedoch auch kritisiert, da es z. B. die durch den Produktionsprozess erzeugten Umweltschäden nicht hinreichend berücksichtigt und die ungleiche Verteilung auf die Bevölkerung vernachlässigt oder die nichtmaterielle Lebensqualität (z. B. Gesundheit und Bildung) außer Acht lässt.
Die Wachstumstheorie beschäftigt sich traditionell mit den Bedingungen, unter denen ein langfristig positives Pro-Kopf-Wachstum möglich ist. Obwohl es verschiedene wachstumstheoretische Konzeptionen gibt, wird zumeist im Rahmen der neoklassischen Wachstumstheorie argumentiert, die die herrschende Lehre darstellt. Die Neoklassik zeichnet sich dadurch aus, dass grundsätzlich ein funktionierender Preismechanismus auf allen Märkten unterstellt wird, der das kurzfristige Gleichgewicht auf den Güter- und Faktormärkten garantiert. In der Wachstumstheorie ist zudem von zentraler Bedeutung, dass eine substitutionale Produktionstechnik verwendet wird, die es erlaubt, zumindest teilweise Kapital durch Arbeit oder umgekehrt zu ersetzen. Zahlreiche Autoren zählen auch die Verwendung dynamischer Optimierungsansätze zu einem wichtigen Bestandteil der Neoklassik, worauf in diesem Beitrag aber nicht eingegangen wird. Als einführendes Lehrbuch zur Wachstumstheorie ist Jones und Vollrath (2013) zu empfehlen. Während früher in der Wachstumstheorie durchgehend von einer stetig zunehmenden Bevölkerung ausgegangen worden ist, finden sich nun auch einige Ansätze, eine fallende Bevölkerung zu berücksichtigen. Die Abb. 3.1 zeigt ausgewählte Beispiele der Bevölkerungsentwicklung. Obwohl die Weltbevölkerung weiterhin zunimmt, gilt das nicht mehr für alle industrialisierten Staaten. So ist z. B. die Bevölkerung in Japan in den letzten Jahren gesunken, und auch in Deutschland ist die Bevölkerung tendenziell rückläufig, obwohl Wanderungsbewegungen diesen Rückgang zum Teil aufheben. Obendrein ändert sich durch den medizinischen Fortschritt die Bevölkerungsstruktur. Der Anteil der Älteren an der Bevölkerung nimmt zu (vgl. auch das Kap. 1 von Wilke in diesem Band). Das bedeutet unter anderem, dass sich das Verhältnis von denjenigen, die einen Teil des BIP konsumieren wollen, zu denjenigen, die das BIP produzieren, verschlechtert. Die Abb. 3.2 zeigt, dass sich das Bevölkerungswachstum erheblich zwischen industrialisierten und sich entwickelnden Ländern unterscheidet. In den industrialisierten G7-Ländern liegen die Wachstumsraten der Bevölkerung z. B. deutlich unter denjenigen in Afrika südlich der Sahara.
T. Christiaans und K. Lübke
2020
Wachstumsrate in %
2020
Wachstumsrate in %
B evölkerungsentwicklung Deutschland
2020
Wachstumsrate in %
B evölkerung in Mio.
B evölkerung in Mio.
B evölkerung in Mio.
48
82 80 78 76 1980
1990
2000
Jahr
2010
B evölkerungsentwicklung Japan 126 123 120 117 1980
1990
2000
Jahr
2010
B evölkerungsentwicklung Welt 7000 6000 5000 4000 1980
1990
2000
Jahr
2010
B evölkerungsw achstum Deutschland 2.0 1.5 1.0 0.5 0.0 -0.5
1980
1990
2000
Jahr
2010
2020
B evölkerungsw achstum Japan 0.8 0.6 0.4 0.2 0.0 -0.2 1980
1990
2000
Jahr
2010
2020
2010
2020
B evölkerungsw achstum Welt 5 4 3 2 1 0 1980
1990
2000
Jahr
Abb. 3.1 Ausgewählte Beispiele zur Bevölkerungsentwicklung. (Quelle: Eigene Berechnungen anhand von IWF-Daten, International Monetary Fund 2019a)
Abb. 3.2 Vergleich Bevölkerungswachstum G7 und Sub-Sahara-Afrika. (Quelle: Eigene Berechnungen anhand von IWF-Daten, International Monetary Fund 2019a)
Die Abb. 3.3 veranschaulicht die Entwicklung des realen Bruttoinlandsproduktes (BIP) in denselben Ländergruppen wie zuvor. Man erkennt z. B., dass die Wachstumsraten in sich entwickelnden Ländern wie in Afrika südlich der Sahara zwar zwischen-
3 Demografischer Wandel und Wirtschaftswachstum
49
Abb. 3.3 Entwicklung des Bruttoinlandsproduktes (BIP) in ausgewählten Ländergruppen. (Quelle: Eigene Berechnungen anhand von IWF-Daten, International Monetary Fund 2019b)
zeitlich tendenziell höher waren als in den industrialisierten Ländern, mittlerweile aber wieder gesunken sind (die Daten vor 1990 waren hier nicht verfügbar). Da diese Länder ein viel niedrigeres Niveau des Pro-Kopf-BIP aufweisen als etwa alle G7-Länder und zudem eine höheres Bevölkerungswachstum haben, bräuchten sie tatsächlich über längere Zeit deutlich höhere Wachstumsraten des BIP, um tendenziell aufzuschließen. Dieser Beitrag versucht, Antworten auf folgende Fragen zu geben: • Welchen Einfluss hat eine sinkende und potenziell negative Wachstumsrate der Bevölkerung auf das langfristige Wirtschaftswachstum? • Wie wirkt sich eine alternde Bevölkerung auf das langfristige Pro-Kopf-Einkommen aus? • Welchen Einfluss hat die zunehmende Automatisierung der Produktionsprozesse in diesem Zusammenhang? Rechnen mit Wachstumsraten Für ein grundlegendes Verständnis wachstumstheoretischer Zusammenhänge ist das Rechnen mit Wachstumsraten unerlässlich. Eine Wachstumsrate ist die anteilige oder prozentuale Veränderung einer Variablen. Ist z. B. Y = 1.000.000 € das reale Bruttoinlandsprodukt einer Volkswirtschaft und Y = 30.000 € die Änderung vom einen zum nächsten Jahr, so gibt die Wachstumsrate gY die relative Steigerung in einem Jahr an:
50
T. Christiaans und K. Lübke
gY =
30.000 Y = = 0,03 = 3% Y 1.000.000
In der volkswirtschaftlichen Wachstumstheorie rechnet man in der Regel mit Variablen, die als stetig differenzierbare Funktionen der Zeit t definiert sind. Eine Wachstumsrate wird dann als Verhältnis der Ableitung Y˙ (t) der Variablen nach der Zeit (als Näherung für �Y (t)) zu Y (t) definiert. Dadurch kann man eine Wachstumsrate als Ableitung der logarithmierten Variablen nach der Zeit berechnen:
1 ˙ d ln Y (t) Y (t) = gY = dt Y (t) Dabei ist zu beachten, dass die Ableitung von ln Y gleich 1/Y ist und dass die Kettenregel (äußere Ableitung mal innere Ableitung) verwendet worden ist. Die Ableitung von Variablen nach der Zeit t wird hier wie allgemein üblich mit einem Punkt statt mit einem Strich gekennzeichnet. Obwohl viele Variablen von der Zeit t abhängen, wird zur Vereinfachung der Notation im Folgenden statt Y (t) einfach Y verwendet. Eine weitere wichtige Eigenschaft der Wachstumsraten folgt aus den allgemeinen Rechenregeln für Logarithmen: ln (x · y) = ln x + ln y, ln (x/y) = ln x − ln y und ln (x y ) = y ln x. Logarithmiert man z. B. die Funktion Y = K α L 1−α , so folgt:
ln Y = α ln K + (1 − α) ln L Aus der angegebenen Regel für die Zeitableitung der logarithmierten Variablen folgt daraus unmittelbar: gY = αgK + (1 − α)gL . Analog erhält man, wenn Y das BIP und B die Bevölkerung darstellt, für die Wachstumsrate des Pro-Kopf-BIP Y /B :
gY /B = gY − gB Man kann also die Wachstumsrate eines Quotienten zweier Variablen als Differenz ihrer Wachstumsraten berechnen. Konkreter hier: Die Wachstumsrate des Pro-Kopf-BIP ist gleich der Differenz der Wachstumsraten des BIP und der Bevölkerung.
3.2 Wirtschaftswachstum und Bevölkerungswachstum 3.2.1 Wachstum ohne technischen Fortschritt Wirtschaftswachstum bedeutet, dass Y , also das Bruttoinlandsprodukt (BIP), steigt. Das BIP wird mithilfe der Produktionsfaktoren Arbeit L und Kapital K produziert. Das BIP wächst also, wenn entweder der Kapitalstock oder der Arbeitseinsatz oder beide wachsen. Außerdem ist es möglich, dass mit konstanten Mengen der Produktionsfaktoren mehr produziert wird, weil die Produktionstechnik verbessert wird, wenn also technischer Fortschritt vorliegt. Viel wichtiger als das Wachstum des BIP ist allerdings das Pro-Kopf-Wachstum, das vorliegt, wenn das BIP pro Kopf Y /B zunimmt, denn dann steigt der durchschnittliche Wohlstand der Bevölkerung B pro Kopf.
3 Demografischer Wandel und Wirtschaftswachstum
51
Vereinfachend kann man annehmen, dass das Verhältnis von Arbeitskräften L zur Bevölkerung B konstant gleich l ist: L/B = l (konstante Bruttoerwerbstätigenquote). Das bedeutet dann, dass das BIP pro Kopf wächst, wenn die Arbeitsproduktivität Y /L wächst, denn die Wachstumsraten von Y /B und Y /L stimmen so überein. Zunächst wird diese Annahme getroffen und erst später wird kurz diskutiert, wie sich eine Änderung der Bruttoerwerbstätigenquote auswirkt. Daraus ergibt sich eine erste Schlussfolgerung: Wenn die Bevölkerung und damit auch der Arbeitseinsatz zunehmen, dann wächst auch das BIP. Allerdings wächst das BIP pro Kopf nur dann ebenfalls, wenn Y schneller wächst als L. Streng genommen hängt die Produktion nicht von der Menge der Arbeitskräfte (einer Bestandsgröße), sondern von der Menge der eingesetzten Arbeitsstunden ab (einer Stromgröße). Wenn man unterstellt, dass die Arbeitsstunden proportional zur Menge der Arbeitskräfte sind, kann man vereinfachend beides gleichsetzen. Analoge Anmerkungen gelten zum Kapitalstock. Die neoklassische Wachstumstheorie geht auf Solow (1956) und Swan (1956) zurück. Zentrales Element ist die gesamtwirtschaftliche Produktionsfunktion, die angibt, wie das Bruttoinlandsprodukt Y vom gesamten Einsatz der Produktionsfaktoren Kapital K und Arbeit L abhängt. Eine häufig verwendete und relativ einfach zu handhabende funktionale Darstellung ist die Cobb-Douglas-Produktionsfunktion:
Y = C · K α L 1−α
(3.1)
Dabei ist C ein Parameter, der im Folgenden der Einfachheit halber auf eins normiert wird (C = 1). Für den Parameter α gilt 0 < α < 1. Das Solow-Swan-Modell wird in der Regel anhand der dynamischen Entwicklung der Kapitalintensität K/L betrachtet. Dividiert man die Produktionsfunktion für C = 1 durch L, so folgt:2
y = k α , mit y = Y /L und k = K/L Das Pro-Kopf-BIP y = Y /L ist die zentrale Variable, deren langfristige Entwicklung es zu erklären gilt. Man kann nun zeigen, dass die Änderung der Kapitalintensität durch folgende Differenzialgleichung beschrieben wird (siehe im Folgenden „Herleitung der fundamentalen Wachstumsgleichung“):
k˙ = sk α − (δ + n)k
(3.2)
Das ist die sogenannte fundamentale Gleichung der Wachstumstheorie für den Cobb-Douglas-Fall. Dabei ist δ die Abschreibungsrate des Kapitalstocks und n die Wachstumsrate der Bevölkerung. Der Punkt über einer Variablen steht für die Ableitung nach der Zeit, also hier die Steigung der Funktion k(t). Ist k˙ > 0, so wächst also die Kapitalintensität, ist k˙ < 0, so fällt sie.
2Das Y L
folgende Ergebnis kann man so beweisen: 1−α α = K α · L L = KLα = k α .
52
T. Christiaans und K. Lübke Herleitung der fundamentalen Wachstumsgleichung
Die hier dargestellte Theorie ist Teil der neoklassischen Lehrmeinung. Dazu gehört die Auffassung, dass sich eine Volkswirtschaft in der Regel im kurzfristigen Gleichgewicht von Angebot und Nachfrage befindet. Die Gleichgewichtsbedingung auf dem Gütermarkt ist hier durch die Übereinstimmung von Bruttoinvestitionen I und Bruttoersparnis sY gegeben: I = sY , wobei s die marginale und durchschnittliche Bruttosparquote ist, also der Anteil des BIP, der gespart wird. Die Bruttoinvestitionen setzen sich aus den Ersatzinvestitionen für den Verschleiß der Kapitalgüter und den Nettoinvestitionen zusammen, die den Kapitalstock erhöhen. Bezeichnet man die Abschreibungsrate mit δ und misst die Ersatzinvestitionen durch δK, so können die Nettoinvestitionen als I − δK formuliert werden. Da die Nettoinvestitionen der Zunahme des Kapitalstocks K˙ entsprechen, gilt also:
K˙ = I − δK Mit I = sY folgt daher K˙ = sY − δK und daraus für die Wachstums˙ rate gK des Kapitalstocks: gK = K/K = sY /K − δ. Mit der konstanten Wachstumsrate der Bevölkerung n ergibt sich die Wachstumsrate der Kapitalintensität k durch logarithmische Ableitung von k = K/L nach der Zeit: ˙ = gK − gL = sY /K − δ − n. Multipliziert man diese Gleichung mit gk = k/k k = K/L, so ergibt sich schließlich
YK K Y k˙ = s − (δ + n) = s − (δ + n)k, K L L L oder, wegen Y/L = k α , die Gl. 3.2. Anhand der Gl. 3.2 kann das dynamische Verhalten der Volkswirtschaft grafisch analysiert werden. Der Term sk α stellt die Ersparnis und damit die Erhöhung des Kapitalstocks pro Kopf und (δ + n)k die Verringerung des Kapitalstocks pro Kopf durch Abschreibungen und Bevölkerungswachstum dar. Die Differenz der beiden Größen ˙ Diese Verbeschreibt also die Veränderung des Kapitalstocks pro Kopf in der Zeit, k. änderung kann anhand der Abb. 3.4 dargestellt werden. Die gestrichelte, ansteigende Gerade spielt zunächst keine Rolle. Solange die Kurve α sk über (unter) der Geraden (δ + n)k liegt, ist k˙ > 0 (k˙ < 0), der Kapitalstock pro Kopf nimmt also zu (ab). Diese Entwicklung wird durch die eingezeichneten Pfeile verk, anschaulicht. Die Volkswirtschaft nähert sich ihrem langfristigen Gleichgewicht bei wo k˙ = 0 ist. Daher bezeichnet man ein solches Gleichgewicht als global stabil. Da alle Wachstumsraten hier konstant sind, wird es auch als Steady State bezeichnet.3
3Aus
der Konstanz von k folgt gk = gK − n = 0 und damit gK = n. Wegen gK = sY /K − δ muss auch Y /K konstant sein, also auch gY = gK = n. Also wachsen BIP, Kapital und Bevölkerung alle mit der konstanten Rate n.
3 Demografischer Wandel und Wirtschaftswachstum
53
Abb. 3.4 Das neoklassische Wachstumsmodell ohne technischen Fortschritt
Im Solow-Swan-Modell ohne technischen Fortschritt konvergieren also die Kapitalintensität k und damit auch das Pro-Kopf-Einkommen y = k α gegen einen festen Wert. Anhand der Abb. 3.4 lassen sich erste Schlussfolgerungen hinsichtlich der Bedeutung der Bevölkerungsentwicklung für das Wirtschaftswachstum ziehen: • Je höher die Wachstumsrate n der Bevölkerung ist, desto steiler ist die Gerade (δ + n)k, vgl. die gestrichelte, ansteigende Gerade in der Abb. 3.4. Dadurch sinkt die Kapitalintensität k im langfristigen Gleichgewicht, womit auch das Pro-Kopf-BIP kleiner wird. Dieses Modell liefert also eine Erklärung dafür, dass Länder mit hohem Bevölkerungswachstum häufig geringe Pro-Kopf-Einkommen haben. • Je näher eine Volkswirtschaft am langfristigen Gleichgewicht ist, desto weniger schnell wächst sie (k˙ = sk α − (δ + n)k ist dann klein). Weit ab vom langfristigen Gleichgewicht ist das Wachstum dagegen höher. Damit lässt sich z. B. das deutsche Wirtschaftswunder nach dem Zweiten Weltkrieg erklären. • Ist das langfristige Gleichgewicht (nahezu) erreicht, so gibt es kein Wachstum mehr, denn wenn die Kapitalintensität konstant ist, gilt das auch für das Pro-Kopf-BIP. Hier muss das Modell erweitert werden, z. B. um die Berücksichtigung des technischen Fortschritts.
3.2.2 Wachstum mit technischem Fortschritt In der älteren Wachstumstheorie wurde exogener technischer Fortschritt verwendet, um die Voraussage eines langfristig konstanten Pro-Kopf-BIP zu ändern. Exogen heißt dabei letztlich nicht erklärt. Die Renaissance der Wachstumstheorie seit den 1990er-Jahren basiert daher auf neueren Ansätzen z. B. von Lucas (1988) und Romer (1990), in denen der technische Fortschritt endogen erklärt wird (Theorie des endogenen Wachstums). Ein Problem dieser Ansätze war, dass das Wachstum nur dann langfristig endogen erklärt
54
T. Christiaans und K. Lübke
werden kann, wenn für die Modelle sehr unwahrscheinliche Parameterwerte gelten (vgl. Christiaans 2004 und Growiec 2007). Obendrein treten teilweise Skaleneffekte der Bevölkerungsgröße auf. Diese Skaleneffekte bedeuten, dass die Wachstumsrate des Pro-Kopf-Einkommens steigt, wenn die Bevölkerung zunimmt; wenn die Bevölkerung selbst wächst, wächst dann auch die Wachstumsrate des Pro-Kopf-Einkommens immer weiter, eine Voraussage, die empirisch nicht haltbar ist. Die Grundidee zur Abänderung der Theorie des endogenen Wachstums in eine Theorie des semi-endogenen Wachstums stammt von Jones (1995), der wie Romer (1990) explizit die Forschung und Entwicklung modelliert. Hier wird eine stark vereinfachte Version verwendet, mit der in Christiaans (2011) das negative Bevölkerungswachstums analysiert worden ist (vgl. Sasaki 2017 zur Berücksichtigung von Forschung und Entwicklung in einem solchen Modell). Die Cobb-Douglas-Produktionsfunktion lautet nun:
Y = K α+β L 1−α Der zusätzliche Parameter β kann verwendet werden, um unterschiedliche Wachstumsmodelle zu erzeugen. Für β = 0 erhält man das zuvor behandelte Modell mit konstanten Skalenerträgen (was in etwa bedeutet, dass eine Verdoppelung aller Inputs auch den Output verdoppelt), für β > 0 liegen steigende Skalenerträge vor (eine Verdoppelung der Inputs führt dann zu mehr als einer Verdoppelung des Outputs).4 Ist 0 < α + β < 1, so handelt es sich um ein Modell des semi-endogenen Wachstums, für α + β = 1 liegt der unplausible Fall des endogenen Wachstums vor, auf den hier nicht weiter eingegangen wird. Die Bezeichnungen rühren daher, dass im Fall des endogenen Wachstums die langfristige Wachstumsrate des P ro-Kopf-BIP direkt beeinflusst werden kann, z. B. durch eine Änderung der Sparquote. Im Fall des semi-endogenen Wachstums ist das Wachstum zwar endogen in dem Sinne, dass der technische Fortschritt im Modell erklärt wird, die langfristige Wachstumsrate aber trotzdem durch exogene, wirtschaftspolitisch nur sehr eingeschränkt beeinflussbare Parameter bestimmt wird. Das erkennt man anhand der später folgenden Gl. 3.4. Die steigenden Skalenerträge kann man als Ergebnis des technischen Fortschritts interpretieren. Obwohl die Darstellung hier so einfach wie möglich gewählt worden ist, kann man zeigen, dass verschiedene Arten des technischen Fortschritts zu sehr ähnlichen Modellen des semi-endogenen Wachstums führen. Die hier formulierte Produktionsfunktion kann z. B. so interpretiert werden, dass durch die Kapitalakkumulation Lerneffekte entstehen, die die Produktivität durch die Berücksichtigung des Parameters β > 0
4Steigende
Skalenerträge sind nicht mit der Marktform der vollständigen Konkurrenz vereinbar. In der modernen Wachstumstheorie wird daher z. B. unterstellt, dass die Skalenerträge auf externen Effekten aufgrund von Learning by Doing basieren. Jedes einzelne Unternehmen hat dann konstante Skalenerträge, aber die gesamte Industrie weist steigende Skalenerträge auf. Bei Romer (1990) und Jones (1995) wird mit Forschungsaktivitäten und heterogenen Kapitalgütern unter den Bedingungen der monopolistischen Konkurrenz argumentiert.
3 Demografischer Wandel und Wirtschaftswachstum
55
erhöhen. Jones (1995) hat im Anschluss an Romer (1990) explizit die Forschung und Entwicklung neuer Kapitalgütervarianten betrachtet. Auch das Modell des endogenen Wachstums von Lucas (1988) kann in ein Modell des semi-endogenen Wachstums mit sehr ähnlichen Eigenschaften überführt werden. Man kann nun zeigen, dass die dynamische Entwicklung statt durch die Gl. 3.2 durch die folgende Differentialgleichung beschrieben wird (vgl. im Folgenden „Semi-endogene Wachstumsgleichung“):
k˙ = sk α+β − (δ + γ n)k,
0 < α + β < 1,
β>0
(3.3)
Dabei ist k nun nicht mehr die Kapitalintensität, sondern die sogenannte niveauangepasste Kapitalintensität k = K/L γ mit
γ =
1−α . 1−α−β
Entsprechend ist y = Y /L γ das niveauangepasste Pro-Kopf-BIP. Semi-endogene Wachstumsgleichung Dividiert man die Produktionsfunktion Y = K α+β L 1−αdurch L γ , so folgt:
L 1−α Y = K α+β · γ = γ L L
K Lγ
α+β
·
L (α+β)γ L 1−α = k α+β · L (α+β−1)γ +1−α , Lγ
mit (α + β − 1)γ + 1 − α = 0 aufgrund der Definition von γ =
1−α 1−α−β
also
y = k α+β , mit k = K/L γ . Die Wachstumsrate der niveauangepassten Kapitalintensität k folgt durch die logarithmische ˙ = gK − γ n = sY /K − δ − γ n. MultiAbleitung von k = K/L γ nach der Zeit: gk = k/k pliziert man diese Gleichung mit k = K/L γ , so ergibt sich schließlich Y K K Y k˙ = s − (δ + γ n) γ = s γ − (δ + γ n)k, γ KL L L oder, mit Y /L γ = k α+β , die Gl. 3.3: k˙ = sk α+β − (δ + γ n)k Die Abb. 3.4 gilt analog für diesen Fall, wobei lediglich sk α durch sk α+β und (δ + n)k durch (δ + γ n)k zu ersetzen sind, vgl. die Abb. 3.5 (zunächst ohne die gestrichelte Linie). Die Konvergenz zum langfristigen Gleichgewicht gilt daher ebenfalls wie zuvor. Das Pro-Kopf-BIP wächst jetzt allerdings im Steady State, denn wenn y = Y /L γ konstant ist, folgt daraus, dass gy = gY − γ n = 0, also gY = γ n. Für das Wachstum des Pro-Kopf-BIP gilt damit wegen γ > 1 :
gY /L = gY − n = γ n − n = (γ − 1)n > 0
(3.4)
56
T. Christiaans und K. Lübke
Abb. 3.5 Das semi-endogene Wachstumsmodell
Der Parameter γ setzt sich aus vorgegebenen Parametern der Produktionstechnik zusammen, die wirtschaftspolitisch kaum beeinflussbar sind. Ähnlich kann man für die Wachstumsrate n der Bevölkerung argumentieren. Daher handelt es sich um semi-endogenes Wachstum. Zum Beispiel ist es nicht möglich, die langfristige Wachstumsrate einfach dadurch zu erhöhen, dass die Sparquote erhöht oder die Forschung und Entwicklung subventioniert wird. Für den Fall des semi-endogenen Wachstums mit γ > 1 ist das Bevölkerungswachstum also entscheidend, denn das Pro-Kopf-Wachstum ist langfristig positiv und die Wachstumsrate ist umso größer, je schneller die Bevölkerung wächst. Ein solch positiver Zusammenhang zwischen Bevölkerungswachstum und Wachstum des Pro-Kopf-Einkommens wird manchmal als Bevölkerungspuzzle bezeichnet (Goodfriend und McDermott 1995), denn empirisch besteht zwischen diesen beiden Größen nur ein schwacher oder häufig auch schwach negativer Zusammenhang. Die Abb. 3.6 zeigt beispielhaft ein Streudiagramm der Wachstumsraten der Bevölkerung und des Pro-Kopf-BIP in Afrika südlich der Sahara. Eine höhere Wachstumsrate der Bevölkerung geht hier tendenziell mit einer sinkenden Wachstumsrate des Pro-Kopf-BIP einher. Zur Lösung dieses Puzzles gibt es verschiedene Argumente. Jones (1995) selbst hat argumentiert, seine Theorie betreffe nur industrialisierte Länder oder Teile der gesamten industrialisierten Welt. Außerdem zählt in ausgefeilten Modellen nicht das Wachstum der Bevölkerung, sondern z. B. das Wachstum der Anzahl der Forscher, die den technischen Fortschritt erzeugen. Allerdings kann man davon ausgehen, dass in industrialisierten Ländern die Anzahl der Forscher ansteigt, wenn die Bevölkerung zunimmt, womit letztlich wieder das Bevölkerungspuzzle entsteht. Goodfriend und McDermott (1995) argumentieren ähnlich mit dem Humankapital pro Kopf der Bevölkerung. In Christiaans (2003) wird gezeigt, dass in offenen Volkswirtschaften insbesondere bei niedrigem Entwicklungsstand eine unelastische Exportnachfrage zu einem
3 Demografischer Wandel und Wirtschaftswachstum
57
Abb. 3.6 Zusammenhang zwischen den Wachstumsraten der Bevölkerung und des Pro-Kopf-BIP in Afrika südlich der Sahara. (Quelle: Eigene Berechnungen anhand von IWF-Daten, International Monetary Fund 2019a, b)
negativen Einfluss des Bevölkerungswachstums in einem Modell des semi-endogenen Wachstums führen kann. Deutschland ist ein industrialisiertes Land und der Zusammenhang zwischen Bevölkerungswachstum und Wachstum des Pro-Kopf-BIP passt zur Vorhersage des vorliegenden Modells. Die Abb. 3.7 zeigt, dass für Deutschland die Wachstumsrate des Pro-Kopf-BIP tendenziell mit der Wachstumsrate der Bevölkerung steigt. Noch deutlicher ist die Situation in Japan, vgl. die Abb. 3.8. Daraus ergeben sich folgende Schlussfolgerungen: • Wenn die Wachstumsrate der Bevölkerung in Deutschland weiter absinkt, besteht die Gefahr einer Verlangsamung des Wirtschaftswachstums. • Dieser Effekt wird unter Umständen nur mit einer relativ hohen Zeitverzögerung spürbar. In der Abb. 3.5 entspricht ein Rückgang der Bevölkerungswachstumsrate dem Übergang von der durchgezogenen ansteigenden Geraden zur gestrichelten Geraden. Das neue langfristige Gleichgewicht liegt also bei k1 , sodass die niveauangepasste Kapitalintensität ansteigt. Während des Übergangs von k1 wächst der k0 zu γ Kapitalstock K schneller als L , sodass der negative Effekt auf das Pro-Kopf-BIP verringert wird.
58
T. Christiaans und K. Lübke
Abb. 3.7 Zusammenhang zwischen den Wachstumsraten der Bevölkerung und des Pro-Kopf-BIP in Deutschland. (Quelle: Eigene Berechnungen anhand von IWF-Daten, International Monetary Fund 2019a, b)
• Im neuen langfristigen Gleichgewicht ist die Wachstumsrate des Pro-Kopf-BIP eindeutig geringer. Sie kann sogar negativ werden, wenn die Bevölkerung zurückgeht (n < 0), denn dann ist gY /L = (γ − 1)n < 0. Voraussetzung für diese Analyse ist allerdings, dass δ + γ n > 0 ist, weil das langfristige Gleichgewicht k1 sonst gar nicht mehr existiert. Der Fall δ + γ n 0 wird im nächsten Abschnitt analysiert.
3.2.3 Negatives Bevölkerungswachstum ohne Steady State Wenn die Bevölkerung zurückgeht (n < 0) und dadurch δ + γ n 0 wird, hat die Gleichung k˙ = sk α+β − (δ + γ n)k = 0 für eine positive Sparquote s keine positive Lösung mehr. Die Abb. 3.9 zeigt das dynamische Verhalten des Modells für δ + γ n < 0 und s > 0 (vgl. zum Folgenden Christiaans 2011). Da kein Schnittpunkt der beiden Kurven vorliegt, existiert kein langfristiges Gleichgewicht. Daher ist k˙ > 0 für alle k > 0 und die niveauangepasste Kapitalintensität steigt immer weiter an.
3 Demografischer Wandel und Wirtschaftswachstum
59
Abb. 3.8 Zusammenhang zwischen den Wachstumsraten der Bevölkerung und des Pro-Kopf-BIP in Japan. (Quelle: Eigene Berechnungen anhand von IWF-Daten, International Monetary Fund 2019a, b)
Abb. 3.9 Das neoklassische Wachstumsmodell für 0 < α + β < 1, s > 0 und δ + γ n < 0
60
T. Christiaans und K. Lübke
Die Wachstumsrate des Pro-Kopf-BIP y = Y /L erhält man durch logarithmische Ableitung von Y /L = K α+β L −α unter Verwendung von α+β α+β−1 sY /K = sy/k = sk /k = sk . als
gY −gL = (α + β)gK −αn = (α + β)(sY /K − δ)−αn = (α + β)sk α+β−1 −(α + β)δ−αn Für k → ∞ also:
gY /L = −(α + β)δ − αn Zu beachten ist, dass diese Wachstumsrate positiv ist, wenn
n 0 existiert ein langfristiges Gleichgewicht mit konstantem k = K/L γ . Hier fällt K schneller als L. um k konstant zu halten, sodass das Pro-Kopf-BIP zurückgeht. Für γ n −δ existiert kein Steady State mehr und die langfristige Pro-Kopf-Wachstumsrate und sowohl K als auch L gehen zurück. Der Rückgang des Kapitalstocks bewirkt ein geringeres Pro-Kopf-BIP, die sinkende Bevölkerung ein höheres Pro-Kopf-BIP. Je nachdem, ob αn > −(α + β)δ oder αn < −(α + β)δ ist, überwiegt der nachteilige Effekt
Abb. 3.10 Abhängigkeit der langfristigen Pro-Kopf-Wachstumsrate vom Bevölkerungswachstum
3 Demografischer Wandel und Wirtschaftswachstum
61
des fallenden Kapitalstocks den vorteilhaften Effekt des Bevölkerungsrückgangs oder umgekehrt. Für einen positiven Gesamteffekt müsste die Wachstumsrate der Bevölkerung allerdings extrem negativ sein, da die negative Auswirkung des Kapitalverzehrs überkompensiert werden muss, wobei dieser Kapitalverzehr sogar eine durch β gemessene Externalität beinhaltet. Zum Beispiel schätzen Nadiri und Prucha (1996) eine Abschreibungsrate des Kapitals von 6 bis 10 %. Die Bevölkerung müsste also um deutlich mehr als 6 % pro Jahr zurückgehen, um daraus ein positives Pro-Kopf-Wachstum zu generieren. Damit bleibt es bei der pessimistischen Voraussage des letzten Abschnitts: Ein geringeres oder sogar negatives Bevölkerungswachstum führt zu sinkendem Wachstum des Pro-Kopf-BIP. Bisher ist vereinfachend eine konstante Bruttoerwerbstätigenquote unterstellt worden, also ein fester Anteil l der Arbeitskräfte L an der Bevölkerung B : L/B = l. Der demografische Wandel in Deutschland geht allerdings nicht nur mit einer sinkenden Bevölkerungswachstumsrate n, sondern auch mit einer Erhöhung der Anzahl der Rentner im Vergleich zu den Jüngeren und damit auch einer sinkenden Bruttoerwerbstätigenquote einher. Was bedeutet nun eine sinkende Bruttoerwerbstätigenquote für die hergeleiteten Ergebnisse? Die sinkende Quote l bekräftigt das zentrale Ergebnis, dass eine negative Wachstumsrate der Bevölkerung auch zu einem negativen Pro-Kopf-Wachstum führen wird, denn die Anzahl der Arbeitskräfte reduziert sich dann noch schneller als die Bevölkerung. Das, was der kleiner werdende Anteil der Erwerbstätigen erwirtschaftet, muss auf relativ mehr Personen verteilt werden. Dieses Ergebnis wirft die Frage auf, ob die weitere Automatisierung von Produktionsprozessen und damit die weitgehende Substitution von Arbeit durch Kapital einen Lösungsansatz bieten kann.
3.3 Wirtschaftswachstum und Automatisierung Wenn die Bevölkerung geringer und älter wird, welche Chancen und Risiken bietet die Automatisierung im Hinblick auf das Wirtschaftswachstum? In Anlehnung an Steigum (2011), Prettner (2019) und Geiger et al. (2018) wird das Modell nun um Automatisierungs kapital erweitert. Diese Theorie ist noch relativ neu, und die dynamische Entwicklung ist bisher nur unter vereinfachenden Annahmen analysiert worden (z. B. haben beide Kapitalarten denselben Einkaufspreis und werden gleich produziert). Daher erfolgt hier eine Beschränkung auf die Analyse des langfristigen Gleichgewichts, wobei der technische Fortschritt vernachlässigt wird (β = 0). Die Produktionsfunktion lautet nun
Y = K α (L + A)1−α , wobei A das Automatisierungskapital (Roboter, 3D-Drucker etc.) ist. Der Unterschied zum normalen Kapital K (Fließbänder, Maschinen etc.) besteht darin, dass A ein perfektes
62
T. Christiaans und K. Lübke
Substitut für Arbeit ist; man kann also die Arbeit komplett durch das Automatisierungskapital ersetzen. Die Grenzproduktivitätstheorie der Entlohnung
Unterstellt man, dass die Unternehmen bei gegebenen Preisen für Güter und Produktionsfaktoren ihren Gewinn maximieren, so werden sie von jedem Faktor gerade so viel einsetzen, dass der reale, zusätzliche Erlös durch die letzte eingesetzte Einheit (die Grenzproduktivität) gerade so groß ist wie die dadurch entstehenden zusätzlichen Kosten. Die zusätzlichen Kosten von z. B. einer zusätz lichen Arbeitsstunde sind aber gerade gleich dem realen Lohnsatz pro Stunde. Anders ausgedrückt: Im Gewinnmaximum eines Unternehmens, das von gegebenen Preisen ausgeht, muss die Grenzproduktivität der Arbeit gleich dem Reallohnsatz sein. Die Grenzproduktivitätstheorie der Entlohnung besagt dementsprechend, dass die Unternehmen gerade so viel Arbeit nachfragen, bis diese Gleichheit erfüllt ist. Angebot und Nachfrage auf den Märkten sorgen daher dafür, dass der Lohnsatz gleich der Grenzproduktivität der Arbeit ist, und analoge Überlegungen gelten für den Produktionsfaktor Kapital. Die Grenzproduktivität eines Produktionsfaktors erhält man rechnerisch als erste partielle Ableitung der Produktionsfunktion nach diesem Faktor. Im Gleichgewicht kann man also die realen Faktorpreise durch die partiellen Ableitungen der Produktionsfunktion berechnen.
Für die folgenden Überlegungen ist es wichtig, den Reallohnsatz w und den Realzinssatz r zu kennen. In der neoklassischen Theorie bestimmen sich diese Werte durch die Grenzproduktivitäten der Produktionsfaktoren, die man als partielle Ableitungen der Produktionsfunktion nach den jeweiligen Produktionsfaktoren erhält (vgl. im Vorangegangenen „Die Grenzproduktivitätstheorie der Entlohnung“). Beim Kapital ist die Ableitung noch durch die Abschreibungsrate zu korrigieren. Für die Ableitungen nach L und K (hier abzüglich der Abschreibungsrate) gilt: α K w = (1 − α) L+A
r=α
K L+A
α−1
−δ
Die Entlohnung des Automatisierungskapitals muss gleich dem Reallohnsatz w sein, weil es ein perfektes Substitut der Arbeit darstellt. Da auch hier die Abschreibungsrate δ ist, gilt netto für die Realverzinsung des Automatisierungskapitals der Satz w − δ. Im langfristigen Wachstumsgleichgewicht werden rationale Investoren nur dann in beide Kapitalarten investieren, wenn die Realverzinsungen übereinstimmen. Also muss im Gleichgewicht w − δ = r sein, woraus folgt:
3 Demografischer Wandel und Wirtschaftswachstum
L+A=
63
1−α K α
Setzt man dieses Ergebnis in die Produktionsfunktion ein, so erhält man schließlich: 1 − α 1−α K Y= (3.5) α Da α konstant ist, gilt gY = gK . Anstelle von gK = sY /K − δ in den vorangehenden Modellen muss nun gK = sK sY /K − δ verwendet werden, weil nur ein Anteil sK der gesamten Ersparnis und Investition auf das Kapital K entfällt (der Anteil 1 − sK entfällt auf das Automatisierungskapital A). Mit Y /K aus Gl. 3.5 folgt also 1 − α 1−α −δ gY = gK = sK s (3.6) α und damit für die Wachstumsrate des Pro-Kopf-Einkommens: 1 − α 1−α −δ−n gy = gY − gL = sK s α
(3.7)
• Nochmals sei darauf hingewiesen, dass die Herleitung der langfristigen Wachstumsrate auf vereinfachenden Annahmen beruht, z. B. einer von Beginn an gleichen Verzinsung beider Kapitalarten, die zur Gl. 3.5 führt. Auch erscheint die Stabilität des gesamten Anpassungsmechanismus an das langfristige Gleichgewicht noch ungeklärt, wobei auch die Aufteilung der Investititonen auf beide Kapitalarten endogen zu erklären wäre. Trotzdem zeigt die Analyse prinzipielle Möglichkeiten auf, die sich durch die Berücksichtigung des Automatisierungskapitals ergeben. • Anhand der Gl. 3.7 ist zu erkennen, dass das Pro-Kopf-BIP auch ohne technischen Fortschritt wachsen kann, wenn sK s[(1 − α)/α]1−α > δ + n. Im Gegensatz zur vorangehenden Analyse steigt das Pro-Kopf-Wachstum sogar, wenn die Wachstumsrate der Bevölkerung kleiner wird. • Eine Kombination beider Ansätze kann daher neben den anderen bereits erwähnten Erklärungsansätzen auch eine zusätzliche Begründung für den empirisch wenig eindeutigen Zusammenhang zwischen Bevölkerungswachstum und Pro-Kopf-Wachstum des BIP liefern. • Diese potenzielle Möglichkeit eines positiven Pro-Kopf-Wachstums stellt den möglichen Segen der Automatisierung dar. Dem steht jedoch der Fluch einer weiteren Divergenz von Vermögen und Einkommen gegenüber (Geiger et al. 2018, S. 74), die im Folgenden noch illustriert wird.
64
T. Christiaans und K. Lübke
Die Lohnquote
Eine Möglichkeit, die Einkommensverteilung zu beschreiben, ist die sogenannte Lohnquote, die den Anteil der Arbeitnehmerentgelte am Volkseinkommen angibt. Das Volkseinkommen kann aus dem BIP hergeleitet werden: Bruttoinlandsprodukt −
Abschreibungen
+
Saldo der Primäreinkommen übrige Welt
−
Produktions- und Importabgaben abzgl. Subventionen
=
Volkseinkommen
Abschreibungen sind früher schon behandelt worden. Da sie einen Werteverzehr darstellen, müssen sie vom BIP abgezogen werden (das Ergebnis ist das Nettoinlandsprodukt). Der Saldo der Primäreinkommen wird hinzugezählt, weil die inländischen Wirtschaftseinheiten auch Einkommen aus dem Ausland beziehen können, ebenso wie ein Teil des BIP an das Ausland fließen kann (das Ergebnis ist das Nettonationaleinkommen). Der letzte Korrekturposten ergibt den Übergang von der Bewertung zu Marktpreisen zur Bewertung mit Faktorkosten (daher heißt das Volkseinkommen auch Nettonationaleinkommen zu Faktorkosten). Das Volkseinkommen ist gleich der Summe aller Erwerbs- und Vermögenseinkommen der inländischen Wirtschaftseinheiten in einer Periode. Es setzt sich aus dem Arbeitnehmerentgelt und den Unternehmens- und Vermögenseinkommen zusammen, wobei das Arbeitnehmerentgelt neben den Bruttolöhnen und -gehältern auch die Beiträge der Arbeitgeber und Arbeitnehmer zur Sozialversicherung und die Lohnsteuer enthält. Bezeichnet man die Lohnquote mit LQ und die Gewinnquote mit GQ, so gilt: LQ =
Unternehmens − und Vermo¨ genseinkommen Arbeitnehmerentgelte , GQ = , LQ + GQ = 1 Volkseinkommen Volkseinkommen
In der Realität ist die Lohnquote in vielen industrialisierten Ländern lange Zeit relativ konstant geblieben, sinkt aber seit einigen Jahrzehnten (vgl. Geiger et al. 2018 0, S. 64). Die Verwendung der Lohnquote zur Beschreibung der Einkommensverteilung ist allerdings nicht unumstritten, denn sie gibt nicht unbedingt das wieder, was intendiert ist. Zum Beispiel sind die Bezüge der Vorstandsmitglieder großer Aktiengesellschaften Teil der Arbeitnehmerentgelte, während die Gewinne eines Bahnhofskiosks Teil der Unternehmens- und Vermögenseinkommen sind.
Vereinfachend wird hier zur Berechnung der Lohnquote der Anteil der Arbeitnehmerentgelte am BIP betrachtet, das sich in dieser vereinfachten Modellwelt nur durch die Abschreibungen vom Volkseinkommen unterscheidet. Die Lohnquote ergibt sich damit als Produkt des Reallohnsatzes w mit der Arbeit L, dividiert durch das BIP Y : α K L L wL = (1 − α) = (1 − α) Y L + A K α (L + A)1−α L+A
3 Demografischer Wandel und Wirtschaftswachstum
65
Anhand dieser Gleichung ist zu erkennen, dass die Lohnquote mit zunehmender Akkumulation des Automatisierungskapitals A fällt. Wichtig ist, dass die Wachstumsrate des Automatisierungskapitals im langfristigen Wachstumsgleichgewicht gleich der in Gl. 3.6 angegebenen Wachstumsrate des normalen Kapitals ist. In einem Modell ohne Automatisierungskapital wäre die Lohnquote dagegen konstant gleich 1 − α. In einer Erweiterung des Modells mit zwei Arten von Arbeitskräften, gut und weniger gut ausgebildete, lässt sich zeigen, dass die Lohnquote nicht nur fällt, sondern dass sich die Einkommensverteilung obendrein zuungunsten der schlechter ausgebildeten Arbeitskräfte entwickelt (Lankisch et al. 2017). Was bedeutet diese Entwicklung der Einkommensverteilung als Folge der Automatisierung? • Obwohl die Automatisierung potenziell das Sinken des Pro-Kopf-Wachstums zumindest bremsen kann, werden einige Bevölkerungsschichten eher gewinnen, andere aber verlieren. • Die Automatisierung muss daher durch geeignete wirtschaftspolitische Maßnahmen begleitet werden, damit eine weitere Steigerung der Ungleichheit nicht für sozialen und politischen Sprengstoff sorgt. Naheliegend ist eine höhere Beteiligung breiterer Bevölkerungsschichten am Kapitaleinkommen. • Eine gestaltende Wirtschaftspolitik ist auch deshalb erforderlich, weil der demografische Wandel weitere potenzielle Risiken birgt, die im Rahmen der hier dargestellten Theorien nicht berücksichtigt worden sind. Zu nennen ist beispielsweise die Wanderung von den ländlichen Gebieten in die Großstädte (Göddecke-Stellmann 2011), die im schlimmsten Fall zu einem Verfall ganzer Regionen und zum Zusammenbruch gesellschaftlicher Institutionen führen kann (Brinkmann 2009; Christiaans 2017).
3.4 Fazit In diesem Beitrag sind einige neuere Entwicklungen der Wachstumstheorie dargestellt worden, wobei sich die Darstellung einerseits auf den Fall einer fixen Sparquote und andererseits auf eine relativ einfache Produktionsfunktion mit nur einem Kapitalgut beschränkt hat. Zahlreiche Veröffentlichungen folgen Romer (1990), indem heterogene Kapitalgüter und Forschung und Entwicklung einerseits sowie optimale Konsum- und Sparentscheidungen in der Zeit modelliert werden. Der vereinfachte Ansatz hier wird dadurch gerechtfertigt, dass einerseits in Modellen des semi-endogenen Wachstums hinsichtlich der langfristigen Entwicklung einer Volkswirtschaft qualitativ kaum ein Unterschied zwischen den ausgefeilten und den einfacheren Modellen besteht und andererseits ohnehin fragwürdig ist, ob die Sparentscheidungen in der Realität auf der Basis von Optimierungsmodellen gefällt werden.
66
T. Christiaans und K. Lübke
Die Einschätzung der Wachstumstheorie hinsichtlich der langfristigen Entwicklung von Volkswirtschaften mit schrumpfender Bevölkerung ist pessimistisch. Die Theorie sagt voraus, dass das Pro-Kopf-BIP sinken wird, und der einzige Ausweg scheint zu sein, auf eine verstärkte Automatisierung zu setzen. Das bedeutet für eine Volkswirtschaft wie Deutschland auch hinsichtlich der internationalen Konkurrenzfähigkeit, dass mehr Investitionen in die Forschung und Entwicklung erforderlich sein werden, um diese Automatisierung zu ermöglichen. Gleichzeitig bedarf es einer Anpassung der Institutionen der sozialen Marktwirtschaft an die geänderten Rahmenbedingungen, damit nicht etwaige Verteilungskämpfe die Stabilität der Volkswirtschaft bedrohen.
Literatur Brinkmann, G. (2009). Die Zukunft der deutschen Sozialversicherung. Universität Siegen Volkswirtschaftliche Diskussionspapiere, No. 139. Siegen: Universität Siegen. Christiaans, T. (2003). Balance of payments constrained non-scale growth and the population puzzle. Topics in Macroeconomics, 3, 1–20. Christiaans, T. (2004). Types of balanced growth. Economics Letters, 82, 253–258. Christiaans, T. (2011). Semi-endogenous growth when population is decreasing. Economics Bulletin, 31, 2667–2673. Christiaans, T. (2017). On the implications of declining population growth for regional migration. Journal of Economics, 122, 155–171. Geiger, N., Prettner, K., & Schwarzer, J. A. (2018). Die Auswirkungen der Automatisierung auf Wachstum, Beschäftigung und Ungleichheit. Perspektiven der Wirtschaftspolitik, 19, 59–77. Göddecke-Stellmann, J. (2011). Renaissance der Großstädte – eine Zwischenbilanz. BBSR-Berichte KOMPAKT 9/2011. Bonn: Bundesinstitut für Bau-, Stadt- und Raum forschung. Goodfriend, M., & McDermott, J. (1995). Early development. American Economic Review, 85, 116–133. Growiec, J. (2007). Beyond the linearity critique: The knife-edge assumption of steady-state growth. Economic Theory, 31, 489–499. International Monetary Fund (2019a). World economic outlook April 2019, IMF DataMapper, Population. https://www.imf.org/external/datamapper/LP@WEO/OEMDC/ADVEC/ WEOWORLD/SSA. Zugegriffen: 24. Apr. 2019. International Monetary Fund (2019b). World economic outlook April 2019, IMF DataMapper, Real GDP growth. https://www.imf.org/external/datamapper/NGDP_RPCH@WEO/OEMDC/ ADVEC/WEOWORLD/SSA. Zugegriffen: 24. Apr. 2019. Jones, C. I. (1995). R&D-based models of economic growth. Journal of Political Economy, 103, 759–784. Jones, C. I., & Vollrath, D. (2013). Introduction to economic growth (3. Aufl.). New York: Norton. Lankisch, C., Prettner, K., & Prskawetz, A. (2017). Robots and the skill premium: An automation-based explanation of wage inequality. Hohenheim Discussion Papers in Business, Economics and Social Sciences, No. 29. Hohenheim: Kommunikations-, Informations- und Medienzentrum der Universität Hohenheim. Lucas, R. E., Jr. (1988). On the mechanics of economic development. Journal of Monetary Economics, 22, 3–42.
3 Demografischer Wandel und Wirtschaftswachstum
67
Nadiri, M. I., & Prucha, I. R. (1996). Estimation of the Depreciation rate of physical and R&D capital in the US total manufacturing sector. Economic Inquiry, 34, 43–56. Prettner, K. (2019). A note on the implications of automation for economic growth and the labor share. Macroeconomic Dynamics, 23, 1294–1301. Romer, P. M. (1990). Endogenous technological change. Journal of Political Economy, 98, S71– S102. Sasaki, H. (2017). The effects of negative population growth: An analysis using a semi-endogenous R&D growth model. Macroeconomic Dynamics, 21, 1545–1560. Steigum, E. (2011). Robotics and Growth. In O. de La Grandville (Hrsg.), Frontiers of economics and globalization: Economic growth and development (S. 543–557). West Yorkshire: Emerald Group. Solow, R. M. (1956). A Contribution to the theory of economic growth. Quarterly Journal of Economics, 70, 65–94. Swan, T. W. (1956). Economic growth and capital accumulation. Economic Record, 32, 334–361.
Prof. Dr. Thomas Christiaans lehrt seit 2008 Volkswirtschaftslehre und quantitative Methoden an der FOM Hochschule für Oekonomie & Management in Siegen. Er studierte Wirtschaftswissenschaften an der Universität Siegen, anschließend promovierte er dort über dynamische Außenhandelstheorie und habilitierte sich im Fach Volkswirtschaftslehre mit einer Arbeit über die Wachstumstheorie. Zu seinen wissenschaftlichen Interessengebieten zählen neben den internationalen Wirtschaftsbeziehungen und dem Wirtschaftswachstum die Regionalökonomik und die Verwendung quantitativer Methoden.
Prof. Dr. Karsten Lübke ist seit 2009 hauptberuflicher Dozent für Statistik und Wirtschaftsmathematik an der FOM Hochschule für Oekonomie & Management in Dortmund. Seine Forschungsschwerpunkte liegen in der statistischen Ausbildung und der Data Literacy. Er ist Autor zahlreicher Publikationen zu angewandter Statistik.
4
Was kauft Opa? – Die Auswirkungen des demografischen Wandels auf den privaten Konsum in Deutschland Luca Rebeggiani
Inhaltsverzeichnis 4.1 Einleitung und Stand der Forschung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 4.2 Datenbasis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.1 Demografische Szenarien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 4.2.2 Die Einkommens- und Verbrauchsstichprobe. . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 4.2.3 Wachstumsraten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.3 Eine erste deskriptive Annäherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.4 Schätzung eines Nachfragemodells. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 4.5 Empirische Ergebnisse für die langfristige Projektion . . . . . . . . . . . . . . . . . . . . . . . . . . . 84 4.6 Fazit und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Zusammenfassung
Deutschland wird, wie viele andere westliche Länder, von spürbaren Auswirkungen des demografischen Wandels betroffen sein, da langfristig immer mehr ältere, ökonomisch inaktive Menschen von einer schrumpfenden arbeitenden Bevölkerung getragen werden müssen. Während einige ausgewählte Aspekte dieser Entwicklung (insbesondere die Tragfähigkeit der deutschen Sozialversicherung) breiten Raum in der politischen und wissenschaftlichen Debatte einnehmen, beleuchtet dieser Beitrag eine bislang eher vernachlässigte Folge des demografischen Wandels: die
L. Rebeggiani (*) FOM Hochschule, Bonn, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_4
69
70
L. Rebeggiani
Veränderung in der Struktur der privaten Nachfrage. Mithilfe eines aufwendigen mikroökonomischen Modells werden die Verschiebungen der Konsumstruktur bis ins Jahr 2060 geschätzt.
4.1 Einleitung und Stand der Forschung Wie viele andere westliche Länder steht Deutschland vor großen Herausforderungen, die der demografische Wandel in den nächsten Jahrzehnten mit sich bringen wird. Seit Jahrzehnten niedrige Geburtenraten und eine steigende durchschnittliche Lebenserwartung werden zu einem starken Ansteigen des alten, in der Regel nicht mehr berufstätigen Teils der Bevölkerung führen, bei gleichzeitigem deutlichem Abnehmen des Anteils junger Menschen. Während viele dieser politischen und ökonomischen Herausforderungen in der Tagespresse und der wirtschaftswissenschaftlichen Literatur bereits ausführlich diskutiert worden sind (Kap. 1 von Wilke; Kap. 2 von Roppel) – man denke nur an die vielen Studien über die Zukunftsfähigkeit der deutschen Sozialversicherung (bspw. Werding 2016) – soll der vorliegende Beitrag eine Seite stärker unter die Lupe nehmen, die in der Ökonomie fast schon traditionell stiefmütterlich behandelt wird: die private Nachfrage. Wie im Verlauf dieses Beitrages deutlich werden wird, besitzt auch die private Nachfrage Aspekte, die stark von der demografischen Entwicklung einer Gesellschaft abhängig sind. Alte Menschen kaufen anders ein, zum einen, weil ihre Präferenzen sich verschieben, zum anderen, weil ihre wirtschaftliche Leistungsfähigkeit Veränderungen erfährt. Diese Verschiebung der Höhe und Zusammensetzung der privaten Nachfrage bei älteren Haushalten hat auch nicht zu unterschätzende makroökonomische Auswirkungen, wenn der Anteil dieser Haushalte mit älterer Zusammensetzung überproportional zunimmt. Zum einen ergeben sich daraus Verschiebungen der aggregierten Nachfrage, die wiederum Effekte auf die Produktionsseite und somit auf die Faktornachfrage haben könnten. Zum anderen wird davon eine der aufkommensstärksten deutschen Steuern, die Umsatzsteuer, direkt betroffen, sodass eine Schätzung dieser Auswirkungen des demografischen Wandels auf den privaten Konsum auch aus finanzpolitischer Sicht unbedingt angebracht erscheint. In diesem Beitrag wird ein Modell vorgestellt, das es ermöglicht, die demografiebedingten Veränderungen der privaten Nachfrage auf Haushaltsebene detailliert nachzuvollziehen und für einen langen Zeitraum (bis 2060) zu prognostizieren. Dafür wird die 13. Koordinierte Bevölkerungsvorausberechnung als Prognose für die demografische Entwicklung Deutschlands verwendet. Das Nachfragemodell wird anhand von Mikrodaten aus der Einkommens- und Verbrauchsstichprobe (EVS) geschätzt. Es handelt sich also um ein mikrofundiertes Modell, dessen Ergebnisse in einem zweiten Schritt aggregiert werden. Die demografische Komponente wird schließlich mit einem Static-Aging-Ansatz eingebracht, wobei auch Annahmen über die Entwicklung des BIPWachstums getroffen werden müssen.
4 Was kauft Opa? – Die Auswirkungen …
71
Der Forschungsstand zu diesen Fragen ist vergleichsweise bescheiden: Der vorliegende Beitrag stützt sich vorrangig auf Berechnungen von Effelsberg und Rebeggiani (2019), die wiederum einen Ansatz fortführen und vertiefen, der für ein Gutachten für das Bundesministerium der Finanzen (Calahorrano et al. 2016a, b) entwickelt wurde. In diesem Gutachten lag der Fokus allerdings auf der langfristigen Schätzung der Steuereinnahmen (Einkommen- und Umsatzsteuer), und das für die Umsatzsteuerschätzung verwendete Nachfragemodell war weniger aufwendig und basierte noch auf der EVSWelle von 2008. Wenige Beispiele aus der Literatur widmen sich dem langfristigen Zusammenspiel von Demografie und Konsum: Ähnliche Analysen wurden für Deutschland von Lührmann (2005) und Stöver (2012) durchgeführt. Börsch-Supan (2003) untersucht speziell die Effekte des demografischen Wandels auf den Arbeitsmarkt. In Rebeggiani (2007) wird ausführlich das Thema der Auswirkung der Struktur privater Nachfrage auf makroökonomische Aggregate untersucht, ohne explizit eine langfristige Perspektive mit demografischem Wandel einzubeziehen. Mikroökonomisch fundierte Nachfrageschätzungen kommen schließlich auch bei Prognosen des Umsatzsteueraufkommens zum Zuge (z. B. Bach 2011; RWI et al. 2013). Der vorliegende Beitrag ist wie folgt aufgebaut: Zunächst werden die Datengrundlagen der vorliegenden Analyse vorgestellt (Abschn. 4.2), also die zugrunde gelegten demografischen Szenarien der amtlichen Statistik sowie die Einkommens- und Verbrauchsstichprobe als Basis für die Schätzung des Nachfragemodells. In Abschn. 4.3 wird dann eine erste deskriptive Annäherung an den Zusammenhang zwischen Alter und Konsumstruktur gegeben. Der anschließende Abschn. 4.4 liefert eine knappe Vorstellung des (formal relativ aufwendigen) Nachfragemodells, mit dem die sich wandelnde Konsumstruktur geschätzt wird. Die Ergebnisse des Modells werden schließlich in Abschn. 4.5 zusammengefasst, an das sich ein Fazit und Ausblick (Abschn. 4.6) anschließt.
4.2 Datenbasis 4.2.1 Demografische Szenarien Die politische und wissenschaftliche Diskussion um den demografischen Wandel dreht sich um die Implikationen der Prognose, dass die schon seit Jahrzehnten niedrigen Geburtenraten und eine weiterhin steigende Lebenserwartung den Altenquotienten, d. h. das Verhältnis zwischen im Allgemeinen ökonomisch nicht mehr aktiven Menschen (ab 65 Jahren) und solchen im Erwerbsalter (also zwischen 20 und 64 Jahren), weiter massiv verschieben werden (siehe auch Kap. 2 von Roppel sowie Kap. 1 von Wilke). Je nach Szenario wird der Quotient von derzeit etwa 35 % auf über 60 % oder sogar 70 % steigen. Dies bedeutet: Während im Jahre 2019 etwa drei arbeitende Menschen einen Älteren unterstützen (1960 waren es sogar etwa fünf), werden um das Jahr 2060 herum drei Personen im erwerbstätigen Alter für zwei Ältere wirtschaftlich sorgen müssen, also für doppelt so viele Personen (Abb. 4.1).
72
L. Rebeggiani 75
69.4 65 A l t 55 e n q u 45 o t i 35 e n t 25
61.1 58.5
Szenario 2 Szenario 3 Szenario 6
34.1
16.7 15 1950
1970
1990
2010
2030
2050
Abb. 4.1 Abhängigkeitsquotient in Deutschland 1960–2060. (Datenquelle: Statistisches Bundesamt 2015)
Zudem wird mittel- bis langfristig eine Abnahme der Gesamtbevölkerung in Deutschland prognostiziert, weil der Sterbeüberschuss einer gealterten Bevölkerung selbst in Deutschland, wo ein stattlicher, über die Zeit stabiler positiver Migrationssaldo angenommen wird, nicht durch Zuwanderung kompensiert werden kann (Kap. 1 von Wilke). Die Basis für die folgenden langfristigen Analysen stellen Szenarien der amtlichen Statistik für die demografische Entwicklung bis zum Jahr 2060 dar. Diese Szenarien aus der im April 2015 veröffentlichten 13. Koordinierten Bevölkerungsvorausberechnung (Statistisches Bundesamt 2015) treffen jeweils Annahmen über die künftige Fertilität, die künftige Lebenserwartung von Männern und Frauen und über den Wanderungssaldo.1 Im Folgenden wird als Arbeitsgrundlage Szenario 2 dieser Vorausberechnung herangezogen, das auch heute noch als wahrscheinlichstes angesehen werden kann und weder eine
1Zum
Zeitpunkt der Modellentwicklung (2016–2017) war dies die aktuellste amtliche Bevölkerungsvorausberechnung. Mittlerweile liegt die 14. Koordinierte Bevölkerungsvorausberechnung vor, auf die bspw. im Kap. 1 von Wilke dieses Sammelbandes Bezug genommen wird.
4 Was kauft Opa? – Die Auswirkungen … Tab. 4.1 Annahmen der Demografieszenarien. (Datenquelle: Statistisches Bundesamt 2015)
73
Szenario
2
Fertilität (Kinder je Frau)
1,4
Lebenserwartung bei Geburt Jungen (Jahre)
84,8
Lebenserwartung bei Geburt Mädchen (Jahre)
88,8
Langfristiger Wanderungssaldo (Personen pro Jahr)
200.000
Gesamtbevölkerung 2013 in Mio
80,8
Erwerbspersonenpotenzial 2013 in Mio
49
Gesamtbevölkerung 2060 in Mio
73,1
Erwerbspersonenpotenzial 2060 in Mio
37,9
besonders optimistische (z. B. Szenario 6) noch eine sehr pessimistische (z. B. Szenario 3) Prognose entwickelt (Calahorrano et al. 2016a, Abschn. 2.2). Es wird unterstellt, dass die Geburtenrate 1,4 Kinder je Frau beträgt, die Lebenserwartung weiter zunimmt und im Jahr 2060 für Jungen bei 84,8 Jahren und für Mädchen bei 88,8 Jahren liegt. Hinsichtlich des Wanderungssaldos wird zwischen dem Jahr 2015 und 2021 eine kontinuierliche Abnahme von dem aktuell hohen Niveau auf dann langfristig 200.000 Personen pro Jahr unterstellt (Tab. 4.1).2 Hinsichtlich der Bevölkerungsgröße prognostiziert Szenario 2 eine Abnahme derselbigen um knapp 10 % auf etwas mehr als 73 Mio. Einwohner im Jahr 2060. Das Erwerbspersonenpotenzial, also der Teil der Bevölkerung zwischen 20 und 64 Jahren, wird um etwa 11 Mio. bzw. knapp 23 % auf dann etwa 38 Mio im Jahr 2060 sinken. Die Berechnungen auf Grundlage von Szenario 2 werden schließlich mit einem Referenzszenario verglichen, das demografische Veränderungen ausblendet und somit die Bevölkerungsgröße und -struktur des Jahres 2013 (also des Jahres der verwendeten EVS-Erhebung) unverändert lässt. Der Vergleich dieser beiden Szenarien dient im Folgenden als Basis für die Schätzung der Auswirkungen des demografischen Wandels auf den privaten Konsum.
4.2.2 Die Einkommens- und Verbrauchsstichprobe Grundlage für die Analyse der privaten Nachfrage ist die Einkommens- und Verbrauchsstichprobe. Diese freiwillige Haushaltserhebung, die vom Statistischen Bundesamt als Quotenstichprobe alle fünf Jahre schriftlich erhoben wird, gehört zu den größten europäischen Stichproben, die detaillierte Nachfragedaten enthalten. Die jüngste, für wissenschaftliche Analysen nutzbare Welle ist die EVS 2013, bei der 0,2 % aller in
2Dieses Szenario ist in etwa vergleichbar mit der Variante 2 der 14. KBV (Abschn. 1.1 im Beitrag Wilke), wobei dort von einer etwas höheren Geburtenrate und einem leicht höheren Wanderungssaldo ausgegangen wird.
74
L. Rebeggiani
Deutschland lebenden Haushalte, also knapp 80.000 Haushalte, befragt wurden.3 Die tatsächlich realisierte Stichprobe war allerdings geringer, sodass die EVS (2013) einen verwertbaren Stichprobenumfang von bis zu 60.000 besitzt. Die Einkommens- und Verbrauchsstichprobe (EVS)
Die Einkommens- und Verbrauchsstichprobe wird vom Statistischen Bundesamt seit 1962/1963 erhoben (in den neuen Bundesländern seit 1993). Sie ist eine freiwillige Quotenstichprobe, d. h., Haushalte werden nach einem festgelegten Quotenstichplan angeworben und mit einer Prämie für die Teilnahme entschädigt. Die Ergebnisse werden am Mikrozensus hochgerechnet und gelten aufgrund der Stichprobengröße und der vielen Plausibilitätskontrollen als repräsentativ und qualitativ hochwertig. Mit ihren vier Bestandteilen (Allgemeine Angaben, Geld- und Sachvermögen, Haushaltsbuch sowie das Feinaufzeichnungsheft für Nahrungsmittel, Getränke und Tabakwaren) gehört die EVS zu den größten verfügbaren Stichproben mit detaillierten Angaben zu Einkommen, Konsum, Lebensbedingungen und Finanzsituation der privaten Haushalte in Deutschland sowie in Europa. Sie hat daher ein breites Anwendungsspektrum in der amtlichen Statistik und der Politikberatung: Neben der Verwendung für die Armuts- und Reichtumsberichterstattung der Bundesregierung dient sie der Bemessung des regelsatzrelevanten Verbrauches im Rahmen der Grundsicherung, also für die Festsetzung der Hartz-IV-Regelsätze. Darüber hinaus werden die Ergebnisse für die Neufestsetzung des Wägungsschemas der Verbraucherpreisstatistik verwendet, also für die Aktualisierung des typischen Warenkorbes bei der Inflationsmessung, sowie als Datenbasis für die Verwendungsrechnung der Volkswirtschaftlichen Gesamtrechnungen. In den Jahren, in denen keine EVS erhoben wird, liefert die „kleine Schwester“ der EVS, die Laufenden Wirtschaftsrechnungen (LWR), die notwendigen Informationen insbesondere für die Verbraucherpreisstatistik. Die LWR werden als Unterstichprobe der letzten EVS seit dem Jahr 2005 erhoben und haben einen Stichprobenumfang von ca. 8000 Haushalten. Zur Repräsentativität der EVS ist zu beachten, dass Personen, die dauerhaft in Gemeinschaftsunterkünften und Anstalten (also Alters- und Pflegeheimen sowie Kasernen) leben, generell nicht erfasst werden und ebenso wenig Haushalte mit einem monatlichen Nettoeinkommen von über 18.000 €, da diese in zu geringer Zahl an der Erhebung teilnehmen, um über sie statistisch gesicherte Erkenntnisse gewinnen zu können.
3Zum
Erhebungsdesign und -umfang der EVS 2008 siehe Statistisches Bundesamt (2017, Kap. 3). Eine einführende Darstellung der EVS als Analyseinstrument für Einkommensverteilungs- und Konsumanalysen findet sich in Rebeggiani (2007).
4 Was kauft Opa? – Die Auswirkungen …
75
Für die Datenanalyse wurde ein Scientific-Use-File verwendet, das sogenannte Grundfile 3, also eine faktisch anonymisierte 80 %-Unterstichprobe der drei Erhebungsbestandteile „allgemeine Angaben“, „Geld- und Sachvermögen“ und „Haushaltsbuch“.4 Die analysierte Stichprobe umfasst knapp 43.000 Haushalte und etwa 90.000 Personen. Bei der späteren Schätzung des Nachfragemodells wurden zudem, um Zeit- und Kohorteneffekte kontrollieren zu können und einen größeren Datensatz zu generieren, vier weitere Wellen der EVS verwendet (1993, 1998, 2003 und 2008) und alle fünf Stichproben gepoolt (Effelsberg und Rebeggiani 2019, Kap. 2). Die gesamte Datenbasis umfasst somit etwa 220.000 Haushalte.
4.2.3 Wachstumsraten Für die Erstellung der langfristigen Projektion bis 2060 sind makroökonomische Rahmendaten erforderlich, um insbesondere das Wachstum des realen Einkommens in den Modellen berücksichtigen zu können. Amtliche Daten gibt es für so lange Zeiträume allerdings nicht, sodass in diesem Beitrag Projektionen für die Entwicklung makroökonomischer Aggregate (insbesondere des Bruttoinlandsprodukts) verwendet werden, die mithilfe zweier umfassender makroökonomischer Modelle (VIEW und OCCUR) des Schweizer Beratungsunternehmens Prognos AG gewonnen wurden. Diese wurden bereits im Rahmen des erwähnten großen Simulationsmodells für das Bundesministerium der Finanzen (Calahorrano et al. 2016a, Abschn. 2.4) verwendet, welches die langfristige Entwicklung der Einkommen- und Umsatzsteuereinnahmen modelliert. Sie haben den Vorteil, dass sie nach den Szenarien der amtlichen Bevölkerungsvorausberechnung unterscheiden, sodass hier gezielt die Wachstumsraten für Szenario 2 verwendet werden können.
4.3 Eine erste deskriptive Annäherung Die Analyse der EVS-Daten erfolgt auf Haushaltsebene, da Konsumausgaben auf dieser Ebene erfasst werden. Demgegenüber steht das für den Konsum verfügbare Einkommen, das ebenso als Haushaltsgröße betrachtet wird, also als Summe aller im Haushalt erzielten Einkommen. Die soziostrukturellen Merkmale, z. B. Alter oder Beschäftigungsstatus, werden am sogenannten Haupteinkommensbezieher (HEB) festgemacht. Wenn also im Folgenden nach soziodemografischen Gruppen unterschieden wird, werden diese nach dem Alter des HEB oder nach den Haushaltseinkommen gebildet werden. Eine erste Untersuchung bestätigt die Vermutung, dass das Alter einen entscheidenden Einfluss auf viele zentrale Haushaltscharakteristika ausübt. Wie Abb. 4.2 zeigt, nimmt
4Zur
Generierung der Mikrodatenfiles siehe Statistisches Bundesamt (2017, Abschn. 6.4).
1.5
4000
2
6000
8000
2.5
Average Household Size
3
10000 12000
L. Rebeggiani
Mean in Euro per Quarter
76
18-24 25-29 30-34 35-39 40-44 45-49 50-54 55-59 60-65 65-69 70-74
Age of Head
75+
Expenditure
Expenditure per HH-Member
Dis. Income
Dis. Income per HH-Member
Average Household Size (right axis)
Abb. 4.2 Konsum, Einkommen und Haushaltsgröße nach Alter in der EVS (2013). (Datenquelle: EVS 2013)
die Haushaltsgröße erst mit steigendem Alter des Haushaltsvorstands stark zu, dann rapide ab. Eine ähnliche, wenngleich etwas flachere Kurve, weisen die zentralen Variablen Einkommen und Konsum auf. Es wird aber auch deutlich, dass auf das einzelne Haushaltsmitglied gerechnet Einkommen und Konsum mit steigendem Alter des Haushaltsvorstands sogar leicht zunehmen bzw. ihre höchsten Werte in der Altersspanne zwischen 55 und 65 annehmen. Der vorliegende Beitrag untersucht als Hypothese, ob sich die Struktur der aggregierten Nachfrage mit dem demografischen Wandel verändern wird. Zwei Effekte könnten dabei eine Rolle spielen: die Veränderung der Präferenzen mit fortschreitendem Alter der Konsumenten und die Veränderung der Nachfragestruktur je nach ausgabefähigem Einkommen der Haushalte. Bei der Veränderung der Präferenzen können sowohl Alters- als auch Kohorteneffekte eine Rolle spielen: Zum einen werden im Alter andere Güter benötigt als in der Jugend, zum anderen zeichnet sich jede Kohorte durch spezielle Präferenzen aus, z. B. dürfte die Nachfragestruktur der „Baby Boomer“ auch bei gleichem Alter und gleichem Einkommen anders sein als die der „Millennials“. Erste deskriptive Analysen, die im Folgenden präsentiert werden, liefern bereits Hinweise darauf, dass diese Hypothese ziemlich relevant sein könnte. Dabei betrachten wir die Konsumstruktur, also die Aufteilung der privaten Nachfrage auf verschiedene Güter und Dienstleistungen, wobei die Güter in zwölf Kategorien ein-
4 Was kauft Opa? – Die Auswirkungen … 100.0 90.0
Anteil am Gesamtkonsum in Prozent (%)
80.0 70.0 60.0 50.0
77
4.0 5.7 2.1
4.2 5.3 1.4
3.8 5.4 0.7
3.9 5.2 0.2
5.1 4.7 0.1
9.6
10.5
10.8
11.2
10.9
4.0
2.9
2.7
2.3
2.1
andere Waren und Dienstleistungen
15.4
Beherbergungen, Gaststäen
16.6
14.7
8.4 8.4
Bildungswesen
2.9 5.3
3.5 5.3
4.7
4.9
Freizeit, Unterhaltung, Kultur
5.6
6.3
7.3
7.7
2.0 4.6 5.2
12.3 5.9
20.0 10.0 0.0
Verkehr Gesundheit
40.0 30.0
Nachrichtenübermilung
27.2
27.1
27.3
29.6
31.5
Haushaltsgeräte, Innenausst. Energie Wohnen
5.8
5.6
5.2
3.8
3.2
13.2
13.7
14.2
13.5
13.1
18-30
31-45
46-60
61-75
75+
Bekleidung, Schuhe Nahrungsmiel, Getränke, Tabakwaren
Alter des HEB
Abb. 4.3 Konsumstruktur nach Alter der HEB. (Datenquelle: EVS 2013)
gruppiert werden.5 Abb. 4.3 zeigt die unterschiedlichen Konsumkörbe der verschiedenen Haushalte je nach Alter des Haushaltsvorstands (Haupteinkommensbezieher). Die Unterschiede in der Konsumstruktur sind deutlich, wobei an dieser Stelle noch nicht zwischen Einkommens- und Präferenzeffekten unterschieden werden kann. Haushalte mit älterem Vorstand geben verhältnismäßig mehr fürs Wohnen aus, weniger für Kleidung. Auch ihre Energieausgaben sind anteilsmäßig höher, die Ausgaben für Gesundheitsgüter und -dienstleistungen sind mehr als viermal so hoch wie bei jungen Haushalten. Auffällig ist auf der anderen Seite der deutlich geringere Anteil von Ausgaben für Verkehr und Nachrichtenübermittlung. Auch die Ausgaben für Bildung nehmen, wenig überraschend, stark ab. Bei Letzteren sowie bei den Gesundheitsausgaben muss beachtet werden, dass in Deutschland ein Großteil der konsumierten Güter vom Staat über Steuern bzw. Beiträge finanziert und dann ohne direkte Kosten bereitgestellt wird. Die hier auftauchenden Ausgaben sind diejenigen, die die Haushalte über die staatliche Versorgung hinaus tätigen. Abb. 4.4 verdeutlicht die maßgebliche Rolle des Einkommens für die Konsumentscheidung anhand einer Betrachtung der Ausgabenstruktur nach Einkommensklassen.
5Seit
der 2003er-Welle entsprechen die Gütergruppen der EVS den internationalen COICOPKategorien, sind also mit den anderen Erhebungen vergleichbar, die von Eurostat unter dem Label Household Budget Surveys klassifiziert werden.
78
L. Rebeggiani 100.0 90.0
Anteil am Gesamtkonsum in Prozent (%)
80.0
3.9 3.7 0.7 8.8 3.9 8.3
70.0 60.0
2.6 3.5 8.1
4.0 5.2 0.9
4.5
10.5
4.0 5.9 1.0
10.6
11.3
3.1
2.7
12.0
2.3
11.7
13.5
3.2 4.4 7.3
50.0 40.0
4.2 4.6 0.7
35.4
10.0 0.0
4.0 17.1 0-25%
1.9 18.8
3.8 5.1
4.8
6.6
5.4
6.6
5.6
6.6
30.8
28.5
25.6
andere Waren und Dienstleistungen Beherbergungen, Gaststäen
Bildungswesen Freizeit, Unterhaltung, Kultur
4.4
30.0
20.0
16.1
6.6 1.1
21.8
4.5
4.8
5.3
15.0
14.2
12.7
10.2
25%-50%
50%-75%
75%-95%
Top 5%
5.5
Nachrichtenübermilung Verkehr Gesundheit Haushaltsgeräte, Innenausst. Energie
Wohnen Bekleidung, Schuhe Nahrungsmiel, Getränke, Tabakwaren
Perzenle der Einkommensverteilung
Abb. 4.4 Konsumstruktur nach Einkommensgruppen. (Datenquelle: EVS 2013)
Die Haushalte werden anhand ihres Haushaltseinkommens (Summe aller Einkommensquellen im Haushalt) sortiert und in Gruppen relativ zum Medianeinkommen unterteilt. Es wird deutlich, dass bestimmte Gütertypen den Charakter von Basisgütern besitzen, so z. B. Nahrungsmittel, Wohnen und Energie, und bei Haushalten mit höherem Einkommen einen geringeren Teil der Nachfrage ausmachen. Andere Gütertypen haben hingegen den Charakter von Luxusgütern und werden von wohlhabenderen Haushalten anteilsmäßig stärker nachgefragt, so z. B. Ausgaben für Verkehr, Freizeit oder Beherbergung. Die Einkommenshöhe beeinflusst also nicht nur die Konsumhöhe, sondern auch dessen Struktur. Beachtenswert ist die Tatsache, dass Gesundheits- und Bildungsausgaben Luxusgutcharakter besitzen, während Nachrichtenübermittlung mittlerweile ein Basisgut geworden ist. Dies spiegelt die Tatsache wider, dass für Erstere die bereits erwähnte Grundversorgung von steuer- und abgabenfinanzierten staatlichen Systemen übernommen wird, während zusätzliche Ausgaben nur von Haushalten mit bestimmten Präferenzen (und entsprechenden finanziellen Möglichkeiten) getätigt werden. Nachrichtenübermittlung hat sich dagegen im Zeitalter der allgegenwärtigen Kommunikation und Digitalisierung zu einem unverzichtbaren Element des Alltags entwickelt. Eine letzte Betrachtung (Abb. 4.5) vergleicht die Konsumstrukturen der fünf betrachteten EVS-Wellen, um einen ersten Eindruck der langfristigen Entwicklung zu gewinnen, wobei auch hier gilt, dass die einzelnen Treiber (Einkommen, Preise, Präferenzen) noch nicht separiert werden können. Erkennbar ist zum einen der abnehmende Anteil am Gesamtbudget von Gütergruppen wie Nahrungsmitteln oder
4 Was kauft Opa? – Die Auswirkungen … 100.0 90.0
Anteil am Gesamtkonsum in Prozent (%)
80.0 70.0 60.0 50.0
79
6.2 0.6
4.3 4.9 0.5
4.3 4.6 0.9
3.9 5.0 0.9
4.1 5.3 0.9
9.9
12.0
12.0
11.4
10.7
3.2
2.5
3.1
2.9
2.7
15.1
13.4
14.5
15.0
14.0
2.7 7.1
3.6 7.1
4.0 5.8
4.2 5.1
4.2 5.0
5.8
4.7
5.5
6.2
4.3
6.4
20.4
27.2
26.4
26.4
5.7
5.2
4.7
4.9
16.9
14.0
13.9
14.3
13.8
1993
1998
2003
2008
2013
30.0
10.0 0.0
Beherbergungen, Gaststäen Bildungswesen Freizeit, Unterhaltung, Kultur Nachrichtenübermilung Verkehr Gesundheit
40.0
20.0
andere Waren und Dienstleistungen
7.8
28.1
Haushaltsgeräte, Innenausst. Energie Wohnen Bekleidung, Schuhe Nahrungsmiel, Getränke, Tabakwaren
Jahr
Abb. 4.5 Veränderung der aggregierten Konsumstruktur 1993–2013. (Datenquelle: EVS, verschiedene Wellen)
Kleidung. Diese könnten als inferiore Güter bei steigendem Einkommen interpretiert werden, aber auch Präferenzverschiebungen z. B. infolge von veränderten Gewohnheiten (z. B. mehr außer Haus essen) könnten eine Rolle spielen. Die Ausgabenanteile für Gastronomie und Freizeitgestaltung haben aber nicht zugenommen. Zum anderen sind die Anteile der Gesundheits- und der Energieausgaben gestiegen. Während für Erstere die steigenden Einkommen und die veränderten Präferenzen aufgrund des demografischen Wandels eine Rolle spielen könnten, spiegeln Letztere die steigenden Energiekosten in den letzten Jahrzehnten wider (Kap. 8 von Drewes). Auch die Ausgaben für Wohnen haben, wie in der Tagespresse vielfach diskutiert, anteilsmäßig deutlich zugenommen. Für eine genauere Erklärung dieser Entwicklungen mit einer Separierung der möglichen Triebfedern soll im Folgenden ein detailliertes Modell vorgestellt werden, das für eine Prognose bis zum Jahr 2060 genutzt wird.
4.4 Schätzung eines Nachfragemodells Ohne an dieser Stelle die mikroökonomischen und ökonometrischen Details in aller Ausführlichkeit zu besprechen (siehe dazu Effelsberg und Rebeggiani 2019, Kap. 3), sollen im Folgenden Ergebnisse eines mikroökonomischen Nachfragemodells vorgestellt werden, welches die Projektion der Konsumstruktur Deutschlands bis ins Jahr 2060 erlaubt.
80
L. Rebeggiani Gut 2
D Opmale Menge von Gut 2
B
A C U3
U4
U2 U1
Budgetrestrikon
Opmale Menge von Gut 1
Gut 1
Abb. 4.6 Grafische Darstellung des Haushaltsoptimums
Mikroökonomische Analyse der Nachfrage privater Haushalte
Die Mikroökonomik analysiert das Verhalten einzelner Wirtschaftssubjekte, typischerweise der privaten Haushalte, der Unternehmen und des Staates. Die Wirtschaftssubjekte, so die gängige Annahme der neoklassischen Theorie, gehen dabei rational vor: Sie sind über ihre Bedürfnisse und ihre Möglichkeiten informiert und wählen von allen die beste Alternative aus. Die Nachfrage privater Haushalte wird hierbei mit zwei Hauptkomponenten modelliert:6 einer Nutzenfunktion, die die Präferenzen der Haushalte abbildet, und einer Budgetrestriktion, die ihre Ressourcenausstattung darstellt. Im Modell wird die optimale Konsumentscheidung dort realisiert, wo die Haushalte mit einer Güterkombination das höchstmögliche Nutzenniveau erreichen und dabei trotzdem nicht mehr Ressourcen verbrauchen, als ihre Budgetrestriktion erlaubt. Im einfachsten Fall, dem einer Entscheidung zwischen zwei Gütern (Abb. 4.6), entspricht das Optimum Punkt A: In diesem wird das höchstmögliche Nutzenniveau U2 im Tangentialpunkt mit der Budgetrestriktion erreicht, die dort gewählte Güterkombination ist für den Haushalt optimal. In den Punkten B und D wird ein geringeres Nutzenniveau U1 erreicht (in Punkt B wird zudem das Budget nicht ausgeschöpft), Punkt C würde ein höheres Nutzenniveau ermöglichen, übersteigt 6Die
Haushaltstheorie gehört zum Standardrepertoire aller Mikroökonomik-Lehrbücher (siehe z. B. Pindyck und Rubinfeld 2019, Kap. 3), aber auch der meisten einführenden Werke zur Volkswirtschaftslehre (z. B. Hübl et al. 2003, Abschn. 2.1). Für eine anspruchsvollere Darstellung siehe Mas Colell et al. (1995, Kap. 2 und 3). Eine klassische Einführung in die empirische Schätzung der Haushaltsnachfrage findet sich in Deaton und Muellbauer (1980).
4 Was kauft Opa? – Die Auswirkungen …
81
aber die Möglichkeiten des Haushaltes, also seine Budgetrestriktion. Mathematisch entspricht die Herleitung eines Haushaltsoptimums einem Maximierungsproblem unter Nebenbedingungen, welches sich mit einem Lagrange-Ansatz lösen lässt. Sowohl (1) eine Verschiebung der Präferenzen (z.B. infolge von gesellschaftlichen Trends), als auch (2) eine Änderung der relativen Preise der Güter, ebenso wie (3) eine Änderung der Ressourcenausstattung verschieben das Haushaltsoptimum. Im Folgenden (Einschub zur Engelkurve) wird Möglichkeit (3) im Fokus stehen: Ändern sich die Konsummöglichkeiten des Haushaltes, z. B. infolge einer Einkommenserhöhung, so ändert sich die Zusammensetzung des nachgefragten Warenkorbs. Die in diesem Beitrag schwerpunktmäßig analysierte demografische Komponente geht hingegen über die Präferenzen (1) in das Optimierungsproblem ein: Die Bedürfnisse älterer Menschen sind naturgemäß anders als die der jüngeren, weil z. B. mehr Kultur- oder Gesundheitsdienstleistungen benötigt werden, sodass sich auch ihre realisierten Warenkörbe (bei gleichem Einkommen) verändern werden. Für diese typische „Lehrbuchweisheit“ möchte der vorliegende Beitrag empirische Belege liefern. Der Zusammenhang zwischen Preisverschiebungen und der veränderten Nachfragestruktur (2) hat ebenfalls eine starke empirische Relevanz, da sich insbesondere durch technologischen Fortschritt die relativen Preise stark ändern können (z. B. der Preisverfall bei Computern oder Unterhaltungselektronik), sodass sich in der Folge auch die realisierten Warenkörbe (auch bei gleichem Einkommen) deutlich unterscheiden können. Allerdings sind diese Verschiebungen für längere Zeiträume kaum zuverlässig abschätzbar, sodass in vielen Modellen eine Konstanz der relativen Preise angenommen werden muss. Die nachgefragten Warenkörbe der einzelnen Haushalte werden in der Mikroökonomik in einem letzten Schritt schließlich zu einer gesamtwirtschaftlichen Nachfrage der privaten Haushalte aggregiert. Dies geschieht empirisch in der Regel durch die Verwendung geeigneter Gewichtungsfaktoren, mit denen man die verwendete Stichprobe hochrechnet.
Das Modell ermöglicht es so, die Effekte des demografischen Wandels auf das Nachfrageverhalten der einzelnen Haushalte abzuschätzen. Nötig ist dabei eine Modellierung der sich ändernden Bevölkerungsstruktur in Deutschland, aber auch eine Berücksichtigung des stetigen Wachstums des Realeinkommens, da das Einkommen ökonomisch betrachtet die Hauptdeterminante des privaten Konsums darstellt. Den Zusammenhang zwischen Einkommensentwicklung und Konsumstruktur untersucht man in der Mikroökonomie für gewöhnlich im Rahmen von Engelkurven-Untersuchungen (Lewbel 2008). Die Schätzung von Engelkurven-Koeffizienten bildet eine der grundlegenden Komponenten auch komplexer Nachfragemodelle (Chai und Moneta 2010).
82
L. Rebeggiani
Engelkurven
Eine Engelkurve beschreibt, wie sich die Nachfrage nach einem Gut entwickelt, wenn sich das verfügbare Einkommen bzw. das für Konsum zur Verfügung stehende Budget verändert. Mit der Engelkurve lassen sich somit normale (positive Einkommenselastizität) von inferioren (negative Einkommenselastizität) Gütern unterscheiden. Bei Ersteren steigt die nachgefragte Menge, wenn das Einkommen steigt, bei Letzteren sinkt sie, weil sie z. B. durch höherwertige Güter ersetzt werden (Deaton und Muellbauer 1980, S. 19). Empirisch werden häufig Engelkurven für Konsumanteile am Gesamtkonsum geschätzt. Wie entwickelt sich der Anteil einer bestimmten Güterkategorie am gesamten Konsumbündel, wenn das zur Verfügung stehende Budget steigt? Die Bezeichnung geht auf den deutschen Statistiker Ernst Engel zurück, der im 19. Jahrhundert als erster systematisch zeigen konnte, dass mit steigenden Einkommen der Anteil von Basisgütern wie Nahrungsmitteln am Gesamtkonsum zurückging (Engel 1857). Möglich sind sowohl empirische Querschnittanalysen (unterschiedliche Konsumstrukturen für unterschiedliche Einkommensklassen) als auch Längsschnittanalysen (Änderung der Konsumstruktur im Zeitablauf, wenn das Einkommen zunimmt). Die modellierten Engelkurven können anschließend in theoretischen Arbeiten in komplexere makroökonomische Modelle eingebaut werden (z. B. Bertola et al. 2006, Kap. 12), wenn z. B. die makroökonomischen Auswirkungen hierarchischer Präferenzen analysiert werden sollen. Sie werden aber auch in empirischen Modellen verwendet, wenn die Engelkurvenkoeffizienten im Rahmen eines allgemeinen Nachfragesystems geschätzt werden.
Das hier geschätzte Gesamtmodell besteht hauptsächlich aus drei Komponenten: 1. Ein neoklassisches Nachfragemodell, welches die Veränderungen der Nachfrage in Abhängigkeit der Präferenzstruktur und des Einkommens modelliert. Das Modell sieht insbesondere die Schätzung von Engelkurvenkoeffizienten im Rahmen eines quadratischen, fast idealen Nachfragesystems (QUAIDS – Quadratic Almost Ideal Demand System) nach dem klassischen Ansatz von Banks et al. (1997) vor. Die Güterpreise werden als konstant angenommen, da sie nicht für derartig lange Zeiträume modelliert werden können. Die ökonometrische Schätzung der Koeffizienten erfolgt mit der Adisills-Routine für das Softwarepaket Stata (Lecocq und Robin 2015). 2. Eine Aggregation der einzelnen Nachfragestrukturen zu einem makroökonomischen Aggregat mithilfe von Gewichtungsfaktoren. Dabei werden auch die Konsumanteile auf Haushaltsebene mit denjenigen Hochrechnungsfaktoren extrapoliert, mit denen später die langfristige Projektion durchgeführt wird (Effelsberg und Rebeggiani 2019, Abschn. 3.5).
4 Was kauft Opa? – Die Auswirkungen …
83
Tab. 4.2 Ergebnisse für die Langfristprojektion der Konsumstruktur Güterkategorie
Anteile in Prozent EVS (2013)
Simulation 2030
2045
2060
In Prozentpunkten
In Prozent
Nahrungsmittel
13,8
11,9
10,3
8,6
Bekleidung
4,9
5,0
5,1
5,2
−5,2
−37,7
Wohnen
28,1
25,2
22,7
20,2
Energie
6,4
5,5
4,7
3,9
−7,9
−28,2
Haushaltsführung
5
5,9
6,9
8,0
3,0
59,1
Gesundheit
4,2
6,1
7,9
9,9
5,7
135,2
Verkehr
14
14,3
14,5
14,8
0,8
6,0
Nachrichtenübermittlung
2,7
2,4
2,1
1,9
−0,8
−29,3
Freizeit
10,7
11,9
12,6
13,4
2,7
25,0
Bildung
0,9
0,9
0,9
1,0
0,1
5,7
Beherbergung
5,3
6,5
7,4
8,2
2,9
54,8
Andere
4,1
4,5
4,8
5,1
1,0
23,3
Veränderung 2013–2060
0,3
−2,5
5,4
−39,4
Ergebnisse des Nachfragemodells mit demografischer Komponente (Szenario 2) und Einkommensanpassung. Datenbasis der betrachteten Population: EVS
3. Die Berücksichtigung der demografischen Komponente durch die Methode des Static Aging. Diese Methode wurde u. a. von Merz (1994) entwickelt und schon vielfach in Wissenschaft und Politikberatung eingesetzt (siehe u. a. Flory und Stöwhase 2012). Sie stellt eine elegante Methode dafür dar, auch große Veränderungen der Bevölkerungsstruktur zu modellieren, ohne sehr komplexe, rechenintensive Simulationen durchführen zu müssen. Beim Static Aging wird durch eine Anpassung der Gewichte mit dem Näherungsverfahren des Minimum Loss Information Principles die aktuelle Stichprobe an die Rahmendaten einer Zielpopulation angepasst und somit „gealtert“. In einem ersten Schritt ändern die Haushalte ihre Präferenzen also nicht – es gibt in der Zielpopulation einfach mehr „alte“ Haushalte mit entsprechender Nachfragestruktur. Mit der Einbeziehung der Einkommenskomponente (Engelkurvenkoeffizienten) ändert sich dann auch die individuelle Nachfragestruktur der einzelnen Haushalte. Das Nachfragemodell beruht auf verschiedenen vereinfachenden Annahmen: So wird z. B. die Konsum-Spar-Entscheidung, die der Konsumentscheidung logisch vorausgeht, hier nicht explizit modelliert, sondern als bereits erfolgt betrachtet. Anders als in anderen Nachfragestudien werden hier zudem die Käufe aller Arten von Gütern betrachtet, also auch die von dauerhaften Gütern wie Möbeln oder Autos. Der Tatsache,
84
L. Rebeggiani
dass diese nur unregelmäßig anfallen, wird in der EVS u. a. damit Rechnung getragen, dass sich die Datenerhebung auf drei Monate erstreckt und dass die Gesamtstichprobe in vier Quartalsstichproben unterteilt wird, die das gesamte Jahr der Erhebung abdecken. Die EVS approximiert zudem die Wohnkosten für Immobilieneigentümer durch die Berechnung einer imputierten Miete. Weitere Annahmen betreffen schließlich die Nichtberücksichtigung von Haushaltsproduktion (wie in den meisten Konsumerhebungen) sowie die Approximierung des Alters des Haushaltes durch das Alter des Haupteinkommensbeziehers. Dies ist natürlich eine starke Vereinfachung, in der EVS (2013) zeigt sich allerdings, dass die Altersunterschiede bei Mehrpersonenhaushalten relativ gering sind: Mehrgenerationenhaushalte gibt es sehr wenige (4,3 %), drei Viertel der Paare haben einen Altersunterschied von weniger als fünf Jahren, wobei der Median-Altersunterschied drei Jahre beträgt.
4.5 Empirische Ergebnisse für die langfristige Projektion Die Schätzung der Langfristprojektion ist in Tab. 4.2 abgetragen. Die Werte geben die prognostizierte Struktur des Konsums in Deutschland für die Zeitpunkte 2030, 2045 und 2060 wieder, während in den letzten beiden Spalten die Veränderungen zur jüngsten verfügbaren Welle, der EVS (2013), enthalten sind. Die Aufteilung der Konsumstruktur orientiert sich weiterhin an den zwölf standardisierten Güterkategorien. Die Werte in Tab. 4.2 stellen die Ergebnisse der gleichzeitigen Berücksichtigung der demografischen Veränderungen und der prognostizierten Einkommensentwicklung dar. Es zeigt sich, dass das Modell langfristig eine deutliche Veränderung der Konsumstruktur in Deutschland voraussagt, wobei sich die zwölf Güterkategorien unterschiedlich entwickeln werden. Auffällig ist, dass für die Anteile der meisten Basisgüter – Nahrungsmittel, Wohnen, Energie und Nachrichtenübermittlung – langfristig eine Abnahme vorhergesagt wird (im Falle von Nahrungsmitteln und Energie um über ein Drittel). Hierbei spielt zum einen die zugrunde gelegte Einkommensdynamik eine Rolle: Bei über Jahrzehnten steigenden Realeinkommen ist es nicht verwunderlich, dass der Anteil von Basisgütern am Gesamtkonsum sinkt.7 Allerdings zeigt eine separate Schätzung, dass ein gewisser negativer Effekt bzgl. der Ausgaben für Nahrungsmittel und Nachrichtenübermittlung auch bei Ausblendung der Einkommensdynamik und reiner Betrachtung der demografischen Veränderungen bestehen bleibt (Effelsberg und Rebeggiani 2019, Tab. 3).
7Dies
ist auch historisch zu betrachten: Der Anteil der Nahrungsmittelausgaben am Gesamtkonsum beispielsweise lag in den ersten EVS-Wellen in den sechziger Jahren des 20. Jahrhunderts bei etwa einem Drittel, also fast doppelt so hoch wie heute, und nahm mit den Einkommenserhöhungen der folgenden Jahrzehnten sukzessive ab (Rebeggiani 2007, S. 154).
4 Was kauft Opa? – Die Auswirkungen …
85
Ebenso wird in Tab. 4.2 deutlich, dass der Anteil vieler Luxusgüter – Gesundheit, Freizeit, Beherbergung – am Gesamtkonsum langfristig steigen wird. Dies war ebenfalls unter dem Aspekt steigender Realeinkommen zu erwarten. Auch hier gibt es aber einen eigenständigen demografischen Einfluss (Effelsberg und Rebeggiani 2019, Abschn. 6.1), der sich insbesondere am Anteil der Gesundheitsausgaben ablesen lässt: Ihr Anteil wird sich laut Modell mehr als verdoppeln, von zuletzt 4,2 auf fast 10 %. Hier schlägt sich die hohe Präferenz älterer Menschen für den Konsum von (über die Leistungen der Krankenversicherung hinaus gehenden) Gesundheitsgütern und -dienstleistungen besonders deutlich nieder.
4.6 Fazit und Ausblick Der demografische Wandel der nächsten Jahrzehnte wird auch für die private Nachfrage in Deutschland tief greifende Konsequenzen haben. Ältere Menschen fragen andere Güter und Dienstleistungen nach: Wie dieser Beitrag gezeigt hat, wird der Anteil vieler Basisgüter (Nahrungsmittel, Nachrichtenübermittlung) am Konsum sinken, der Anteil vieler Luxusgüter (Freizeit, Beherbergung) dagegen steigen. Insbesondere die Nachfrage nach Gesundheitsgütern und -dienstleistungen wird stark zunehmen. Diese Befunde haben direkte wirtschaftspolitische Konsequenzen: Zum einen bestätigen sie die Ergebnisse von Calahorrano et al. (2016a), wonach der demografische Wandel mit erheblichen Mindereinnahmen bei der Umsatzsteuer verbunden sein wird. Da im deutschen Recht Konsumgüter mit unterschiedlichen Umsatzsteuersätzen belegt sind, wirkt sich die veränderte Konsumstruktur auf die Umsatzsteuereinnahmen aus, wenn z. B. verstärkt Gesundheitsdienstleistungen nachgefragt werden, die von der Umsatzsteuer befreit sind. Diese Verluste werden in Calahorrano et al. (2016a, Abschn. 4.4) auf −18 % für das Jahr 2060 taxiert, wenn man das demografische Szenario 2 zugrunde legt. Dieser Prognose nach würde der Staat in dem Jahr etwa 43 Mrd. € weniger Umsatzsteuer einnehmen als ohne demografischen Wandel. Eine andere Folge ist, dass die stark steigende Nachfrage nach Gesundheitsgütern und -dienstleistungen auf Güter- und Faktormärkten für Ungleichgewichte sorgen könnte. Weil im Gesundheitssektor überwiegend personalintensive Dienstleistungen gehandelt werden, gehen diese Nachfragesteigerungen mit einer erheblichen Erhöhung der Arbeitskräftenachfrage im Gesundheitssektor einher. Da diese aber bereits heute, im Jahre 2020, nur schwerlich bedient werden kann, häufig nur durch ausländische Fachkräfte, würde das Eintreten dieser Prognose die Notwendigkeit einer gezielteren Anwerbepolitik für ausländische Fachkräfte bedeuten. Andernfalls könnte als Folge eintreten, dass entweder die Preise im Gesundheitssektor stark steigen oder dass verstärkt auf Haushaltsproduktion, also bspw. auf Pflege durch Angehörige, gesetzt werden muss (Rebeggiani und Stöwhase 2018). Wirtschaftspolitische Implikationen betreffen in einer anderen Form die Grenzen des hier vorgestellten Modells: In der langfristigen Analyse wurde die Preisstruktur
86
L. Rebeggiani
des Jahres 2013 konstant gehalten, da natürlich keine Preisbewegungen für unterschiedlichste Güter für einen so langen Zeitraum prognostiziert werden können. Dass damit z. B. technischer Fortschritt und somit relative Preisschwankungen nicht erfasst werden können, ist eine typische Schwäche solcher Nachfragemodelle. Schwerer wiegt allerdings die Tatsache, dass auch wirtschaftspolitische Eingriffe jeglicher Art außen vor bleiben. So wird im Modell z. B. eine Abnahme des Anteils der Wohn- und Energiekosten prognostiziert – eine Vorhersage, die im Gegensatz zur empirischen Beobachtung der 10er-Jahre des 21. Jahrhunderts steht. In diesem Zeitraum wurden allerdings die Miet- und Immobilienpreise sowie die Energiekosten insbesondere durch wirtschaftspolitische Maßnahmen angefacht: durch die extrem lockere Geldpolitik der Europäischen Zentralbank auf der einen, die Regelungen des EEG-Gesetzes auf der anderen Seite (Kap. 8 von Drewes). Derartige diskretionäre Maßnahmen sind schwerlich langfristig zu modellieren, können aber natürlich die Vorhersagen des Modells, das auf stabilen Präferenzen und einer stabilen Preisstruktur aufbaut, konterkarieren. Dies könnte in Zukunft z. B. auch bei verkehrspolitischen Maßnahmen der Fall sein, die aus Klimaschutzgründen stark in die Preisstruktur eingreifen. Weitere methodische Grenzen betreffen die Verwendung differenzierter Wachstumsraten für unterschiedliche Bevölkerungsgruppen (Effelsberg und Rebeggiani 2019, Abschn. 6.4) sowie generell die Problematik, dass in Deutschland kein echtes Haushaltspanel mit detaillierten Konsumdaten existiert. Zwar wurde mit dem Poolen verschiedener EVS-Wellen bereits eine umfangreiche und zeitlich differenzierte Stichprobe generiert, jedoch würde es erst ein echtes Panel erlauben, langfristige Entwicklungen im Nachfrageverhalten genau zu studieren und dabei bspw. Zeit-, Alters-, Kohorten- und Preiseffekte auseinanderzuhalten. Trotz all dieser Limitierungen stellt der vorliegende Beitrag einen ersten Ansatz dar, um das bislang eher vernachlässigte Feld der demografisch bedingten Verschiebungen der Nachfragestruktur zu beleuchten. Er hat gezeigt, dass diese Wirkrichtung von hoher wirtschaftspolitischer Relevanz sein wird.
Literatur Bach, S. (2011). Volle Mehrwertsteuer auf Nahrungsmittel belastet vor allem Geringverdiener. DIW Wochenbericht, 16, 3–8. Banks, J., Blundell, R., & Lewbel, A. (1997). Quadratic engel curves and consumer demand. Review of Economics and Statistics, 79(4), 527–539. Bertola, G., Foellmi, R., & Zweimüller, J. (2006). Income distribution in macroeconomic models. Princeton: Princeton University Press. Börsch-Supan, A. (2003). Labor market effects of population aging. Labour, 17(s1), 5–44. Calahorrano, L., Ehrentraut, O., Limbers, J., Rebeggiani, L., Stöwhase, S., & Teuber, M. (2016a). Herausforderungen für das Steuerrecht durch die demografische Entwicklung in Deutschland – Analyse einer Problemstellung. Sankt Augustin: Gutachten für das Bundesministerium der Finanzen.
4 Was kauft Opa? – Die Auswirkungen …
87
Calahorrano, L., Ehrentraut, O., Limbers, J., Rebeggiani, L., Stöwhase, S., & Teuber, M. (2016b). Herausforderungen für das Steuerrecht durch die demografische Entwicklung in Deutschland – Analyse einer Problemstellung. Methodischer Anhang zum Endbericht. Sankt Augustin: Gutachten für das Bundesministerium der Finanzen. Chai, A., & Moneta, A. (2010). Retrospectives: Engel Curves. Journal of Economic Perspectives, 24(1), 225–240. Deaton, A., & Muellbauer, J. (1980). Economics and Consumer Behavior. Cambridge: Cambridge University Press. Effelsberg, T., & Rebeggiani, L. (2019). Demographic Change and Private Consumption Expenditure in Germany: A Long-Term Projection. Discussion Paper, Sankt Augustin. Engel, E. (1857). Die Productions- und Consumtionsverhältnisse des Königreichs Sachsens. Zeitschrift des statistischen Bureaus des Königlich Sächsischen Ministeriums des Inneren, 8 und 9. Dresden. EVS (2013). Einkommens- und Verbrauchsstichprobe. https://www.forschungsdatenzentrum.de/de/ haushalte/evs. Zugegriffen: 2. Apr. 2020. Flory, J., & Stöwhase, S. (2012). A static microsimulation model of personal income taxation in Germany. International Journal of Microsimulation, 5(2), 66–73. Hübl., L., Meyer, W., & Rebeggiani, L. (2003). Grundkurs in Volkswirtschaftslehre (5. Aufl.). Berlin: Duncker & Humblot. Lecocq, S., & Robin, J.-M. (2015). Estimating almost-ideal demand systems with endogenous regressors. Stata Journal, 15(2), 554–573. Lewbel, A. (2008). Engel Curves. In S. Durlauf & L. E. Blume (Hrsg.), The new palgrave dictionary of economics (2. Aufl., S. 1744–1746). Basingstoke: Palgrave Macmillan. Lührmann, M. (2005). Population aging and the demand for goods & services. MEA Discussion Paper 95-2005. Mannheim: MEA. Mas Colell, A., Whinston, M. D., & Green, J. R. (1995). Microeconomic theory. New York: Oxford University Press. Merz, J. (1994). Microdata Adjustment by the Minimum Information Loss Principle. FFB Discussion Paper No. 10, Lüneburg: FFB. Pindyck, R. S., & Rubinfeld, D. L. (2019). Mikroökonomie (9. Aufl.). München: Pearson. Rebeggiani, L. (2007). Personelle Einkommensverteilung, privater Konsum und Wachstum. Marburg: Metropolis. Rebeggiani, L., & Stöwhase, S. (2018). Effekte informeller Pflege auf die Sozialversicherung. Eine Gegenüberstellung gesparter Aufwendungen und potentiell entgangener Einnahmen in der gesetzlichen Krankenversicherung und der Pflegeversicherung. Sozialer Fortschritt, 67(2), 79–98. RWI (Rheinisch-Westfälisches Institut für Wirtschaftsforschung), Böhringer, C., & Wiegard, W. (2013). Analyse der fiskalischen Auswirkungen des ermäßigten Umsatzsteuersatzes in Deutschland unter Verwendung eines Simulationsmodells sowie der Wachstumseffekte von Straffungskonzepten. Forschungsvorhaben 9/11 im Auftrag des Bundesministeriums der Finanzen. Endbericht. RWI Projektberichte. Essen: RWI. Statistisches Bundesamt. (2015). Bevölkerung Deutschlands bis 2060. Ergebnisse der 13. Koordinierten Bevölkerungsvorausberechnung. Wiesbaden: Statistisches Bundesamt. Statistisches Bundesamt (2017). Einkommens- und Verbrauchsstichprobe – Aufgabe, Methode und Durchführung (Fachserie 15, Heft 7). Wiesbaden: Statistisches Bundesamt. Stöver, B. (2012). The influence of age on consumption. gws Discussion Paper 2012. Werding, M. (2016). Langfristige Tragfähigkeit der öffentlichen Finanzen: Modellrechnungen bis 2060. München: Ifo.
88
L. Rebeggiani Prof. Dr. Luca Rebeggiani ist seit 2015 Professor für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management in Bonn und ist kooptierter Wissenschaftler des KCV KompetenzCentrum für angewandte Volkswirtschaftslehre. Seine Forschungsschwerpunkte liegen in den Bereichen öffentliche Finanzen, Wirtschaftspolitik, Sport- und Glücksspielökonomie.
Teil II Globalisierung & Umwelt
5
Globalisierung und Deglobalisierung Guido Pöllmann
Inhaltsverzeichnis 5.1 Problemstellung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.2 Globalisierung als ökonomisches Phänomen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.3 Wirtschaftliche Integration und Globalisierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.3.1 Globale Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.3.2 Regionale wirtschaftliche Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 5.3.3 Folgewirkungen von Globalisierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.4 Deglobalisierung als Folge von Desintegration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.4.1 Desintegration als Folge sozialen Protests. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.4.2 Desintegration als Folge institutioneller Dysfunktionalität. . . . . . . . . . . . . . . . . . 99 5.4.3 Desintegration als Folge von geoökonomischer Politik. . . . . . . . . . . . . . . . . . . . . 99 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Zusammenfassung
Der Prozess der Globalisierung kann als Folge politischer Grundsatzentscheidungen für ökonomische Integration betrachtet werden. Idealtypisch findet dabei ökonomische Integration sowohl im globalen wie auch im regionalen Rahmen statt und basiert auf völkerrechtlichen Verträgen und auf Institutionen, die Faktormobilität und Investitionen ermöglichen. Dies lässt sich theoriefundiert erklären und belegen. Globalisierung ist jedoch keine wirtschaftspolitische „Einbahnstraße“: Genauso wie Globalisierung auf ökonomischer Integration beruht, beruht Deglobalisierung auf ökonomischer Desintegration. Desintegration ist als wirtschaftspolitisches Phänomen G. Pöllmann (*) FOM Hochschule, München, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_5
91
92
G. Pöllmann
erkennbar und erklärbar. Erklärbar in dem Sinne, dass Desintegration vorliegt, wenn Länder aus Integrationsverbünden wie gemeinsamen Märkten oder Freihandelszonen austreten oder dass entsprechenden Integrationsprojekte aufgrund außerökonomischer Faktoren dysfunktional werden. Jüngere deglobalisierende Entwicklungen lassen sich zudem geoökonomisch erklären.
5.1 Problemstellung Globalisierung wird zumeist als ein Prozess der zunehmenden Verflechtung von Volkswirtschaften betrachtet. Analysiert man jedoch wirtschaftspolitische Entwicklungen in jüngster Zeit, erkennt man Anzeichen für eine gegenläufige Entwicklung, die man antithetisch zum Globalisierungsbegriff als „Deglobalisierung“ bezeichnen kann. Um diese Entwicklung zu erfassen, ist zunächst zu klären, was unter Globalisierung zu verstehen ist. Ausgehend davon ist dann der Globalisierungsprozess ursächlich theoretisch zu erklären, um abschließend vor dem Hintergrund aktueller ökonomischer Entwicklungen theoriebasiert eine „Deglobalisierungsthese“ zu entwickeln.
5.2 Globalisierung als ökonomisches Phänomen Aus ökonomischer Perspektive bezeichnet Globalisierung1 den Prozess der zunehmenden Verflechtung von Volkswirtschaften (Nohlen 2004, S. 301). Diese Verflechtung lässt sich anhand von vier Kennzahlen deutlich machen: • der Entwicklung des weltweiten Handels und der grenzüberschreitenden Dienstleistungen, • der Zunahme der Kapitalströme, • des Anstieges von Direktinvestitionen im Ausland sowie • der Entwicklung der internationalen Arbeitsmigration. Kaum etwas veranschaulicht dabei den so verstandenen Globalisierungsprozess deutlicher als die Zunahme des Außenhandels. Laut der Welthandelsorganisation WTO nahmen im Zeitraum von 2006 bis 2016 die Exporte von Fertigerzeugnissen um 3
1Im
vorliegenden Beitrag wird „Globalisierung“ als ein ökonomisches Phänomen der immer stärkeren Verflechtungen von Volkswirtschaften betrachtet. Im politikwissenschaftlichen wie auch im soziologischen Diskurs werden bzgl. des Globalisierungsbegriffes darüber hinausgehende Positionen eingenommen: So analysieren bspw. Elmar Altvater und Birgit Mahnkopf aus einer politikwissenschaftlichen Perspektive die „Grenzen der Globalisierung“ (Altvater und Mahnkopf 1997, S. 578). Aus einer eher soziologischen Perspektive wies Ulrich Beck (2007, S. 48–113) auf die sozialen und ökologischen Interdependenzen des Globalisierungsprozesses hin.
5 Globalisierung und Deglobalisierung
93
Billionen US-$ zu. Im gleichen Zeitraum stiegen die weltweiten Agrarexporte um 5 % sowie die Rohstoffexporte um 10 % an (World Trade Organization 2017, S. 10). Ein weiterer Indikator für den Globalisierungsprozess ist die Zunahme grenzüberschreitender Finanztransaktionen. So werden gegenwärtig an einem einzigen Handelstag weltweit Finanztransaktionen in Höhe von über 13 Billionen US$ getätigt. Nur ein kleiner Teil dieser Finanzströme dient dabei dazu, realwirtschaftliche Geschäfte wie Dienstleistungen und Handelsgüter zu finanzieren. Den überwiegenden Teil stellen sogenannte autonome Finanzströme dar, die auf reine Finanztransaktionen entfallen (Bundesministerium für wirtschaftliche Zusammenarbeit 2018). Weiter kennzeichnend für den Globalisierungsprozess ist die Zunahme von Direktinvestitionen im Ausland. Direktinvestitionen sind Investitionen in Anlagen und Maschinen und dienen zur Errichtung von Betriebsstätten bzw. von Niederlassungen im Ausland. Lagen bspw. die Direktinvestitionen deutscher Unternehmen im Ausland im Jahr 1990 bei umgerechnet etwa 190 Mrd. EUR, so haben sich diese bis 2015 auf 1,1 Billionen EUR versechsfacht (Bundesverband der Deutschen Industrie 2018). Eine Kennzahl, die zunehmend an Bedeutung gewinnt, ist die internationale Arbeitsmigration. Um diese Dimension zu verdeutlichen, sei auf Zahlen aus dem Jahr 2015 verwiesen, wonach Schätzungen zufolge die Zahl von Arbeitsmigranten weltweit 150 Mio. Personen betrug (Internationales Arbeitsamt Genf 2017 S. 7).
5.3 Wirtschaftliche Integration und Globalisierung Wenn man die genannten Kennzahlen betrachtet, die den Globalisierungsprozess beschreiben, stellt sich die Frage nach den Ursachen. Es kann gefolgert werden, dass es sich bei der Globalisierung um ein politisches Projekt handelt, das auf Grundsatzentscheidungen zu wirtschaftlicher Integration beruht, die als globale und regionale Integration in Erscheinung tritt (Gruber und Kleber 1994, S. 290).
5.3.1 Globale Integration Die Zunahme weltweiter Exporte als Kennzeichen des Globalisierungsprozesses setzt die Grundsatzentscheidung für den freien Handel voraus. Dieser wurde vor allem durch den schrittweisen Abbau von Zöllen und nicht tarifären Handelshemmnissen seit dem Ende des Zweiten Weltkrieges im Zuge der sogenannten Containment-Politik2 umgesetzt
2Die
Containment-Politik bezeichnet ein auf zunächst Europa begrenztes Konzept, welches auf einer wirtschaftspolitischen (Gründung von GATT und IWF im Rahmen des Marshall Planes 1947) und einer sicherheitspolitischen Komponente (Vandenberg Resolution 1948, NATO – Gründung) zur Eindämmung des Kommunismus beruhte (Seller 2001, S. 102).
94
G. Pöllmann
und im Rahmen internationaler Abkommen wie dem GATT, das 1995 zur WTO weiterentwickelt wurde, institutionalisiert (Gruber und Kleber 1994, S. 290). Nach dem Zusammenbruch der Zentralverwaltungswirtschaften in den MittelOst-Europäischen Ländern zu Beginn der 1990er-Jahre sind zudem neue Märkte für den freien Handel zugänglich geworden. Ein weiterer Entwicklungsschub für den Außenhandel war schließlich die Öffnung der Volkswirtschaften in Indien und China durch den Beitritt zur WTO in den Jahren 1995 und 2001. Theoretisch fußt diese Grundsatzentscheidung auf Überlegungen zur Vorteilhaftigkeit des freien Handels. Diese Überlegungen gehen schon auf die Frühphase der Etablierung der Volkswirtschaftslehre als wissenschaftliche Disziplin zurück. Theorie des Außenhandels
Im Rahmen der Außenhandelstheorie werden Ursachen und Auswirkungen internationaler Handbeziehungen insbesondere unter den Rahmenbedingungen von Freihandel und Protektionismus analysiert. Ziel der Außenhandelstheorie ist die Beantwortung der Frage nach den Ursachen und der Vorteilhaftigkeit des freien internationalen Handels. Dabei lassen sich eine reale, eine positive und eine normative Außenhandelstheorie voneinander unterscheiden. Die reale Außenhandelstheorie untersucht den internationalen Austausch von Produktionsfaktoren und realen Gütern unter Ausklammerung des Zahlungsverkehrs. Die positive Außenhandelstheorie legt die unterschiedlichen Gestaltungsmöglichkeiten der Außenhandelspolitik dar. Die normative Außenhandelstheorie analysiert die Wohlfahrtswirkungen bestimmter Außenhandelsregime und formuliert Empfehlungen für die Gestaltungen der Außenwirtschaftspolitik.
So formulierte schon Adam Smith in seinem ökonomischen Hauptwerk „An Inquiry into the Nature and Causes of the Wealth of Nations“ aus dem Jahr 1776 eine Theorie des absoluten Kostenvorteils. Demnach sollten sich Länder auf die Produktion von Gütern spezialisieren, die sie am kostengünstigsten produzieren können. Der freie Handel wiederum erlaube dann im Sinne einer internationalen Arbeitsteilung den Güteraustausch, der sich in Hinblick auf die Produktionskosten für alle Beteiligten als vorteilhaft erweise (Smith 1776/1999, S. 373 ff.). Diese Begründung des freien Handels erfuhr ihre Erweiterung 1817 durch die „Theorie des komparativen Kostenvorteils“, die David Ricardo in seiner Untersuchung „On the principles of political economy and taxation“ formulierte (Ricardo 1817). Demnach sei freier Außenhandel auch dann vorteilhaft für ein Land, wenn es alle Güter billiger als das Ausland produziere. Es sei dann sinnvoll, die relativ billigsten Güter zu exportieren und die relativ teuersten zu importieren. In jüngster Zeit formulierte Paul Krugman in Anschluss an die Argumentation von David Ricardo seine „Neue Außenhandelstheorie“ (Roos 2008, S. 757). Er griff in seinem 1979 erschienenen Aufsatz „Increasing Returns. Monopolistic Competitions
5 Globalisierung und Deglobalisierung
95
and International Trade“ (Krugman 1979, S. 469–479) die Idee interner Skalenvorteile auf. Von internen Skalenvorteilen spricht man, wenn die Kosten pro Einheit von der Größe des einzelnen Unternehmens und nicht zwangsläufig von der Branche abhängen (Krugman und Obstfeld 2006, S. 162). Es lassen sich bspw. bei zunehmender Produktion technische und organisatorische Effizienzsteigerungen sowie höhere personelle Qualifikationen erzielen (Dieckheuer 2001, S. 118 f.) die schon Adam Smith und David Ricardo vertreten hatten, und kombinierte diese mit dem Modell der „monopolitischen Konkurrenz“ von Avinash Dixit und Joseph Stiglitz (Dixit und Stiglitz 1977, S. 297–308).
5.3.2 Regionale wirtschaftliche Integration Nicht nur auf internationaler Ebene haben politische Grundsatzentscheidungen den Globalisierungsprozess initiiert, sondern auch im regionalen Bereich. So wurden im Rahmen regionaler Zusammenschlüsse ebenfalls Handelsschranken abgebaut und darüber hinaus institutionelle Rahmenbedingungen für ökonomische Zusammenarbeit und Integration geschaffen, die auch weitere Integrationsschritte wie bspw. die Schaffung einer gemeinsamen Währung umfassten (Gruber und Kleber 1994, S. 290). Interpretativ lassen sich diese Prozesse regionaler Integration anhand der „Theorie ökonomischer Integration“ nach Bela Balassa verstehen. Balassa (1962) erstellt im Rahmen seiner Theorie induktiv ein idealtypisches3 Modell regionaler Integration, welches über die Liberalisierung des Handels hinausgeht und die Verwirklichung einer gemeinsamen Währung sowie gemeinsamer politischer Institutionen vorsieht. Stufenmodell regionaler Integration
Idealtypisches Modell in Anschluss an Bela Balassa, welches den Prozess einer auf Dauer angelegten, freiwilligen Kooperation von zwei oder mehreren Volkswirtschaften in einem begrenzten geografischen Raum darlegt.
Laut Balassa (1962, S. 2–3) bilden regional nahe beieinander liegende Volkswirtschaften zunächst Präferenzzonen für bestimmte Warengruppen und bauen in einem weiteren Schritt im Rahmen von Freihandelszonen die Binnenzölle ab. So ist es nach Balassa Kennzeichen einer Freihandelszone, dass die beteiligten Staaten noch individuell ihre Außenzölle festlegt. Im Rahmen einer Zollunion als folgender Integrationsstufe würden
3Idealtypisch
ist ein auf den Soziologen Max Weber zurückgehender Begriff, mit dem die „reine“, „ideale“ gedankliche Konstruktion eines theoretisch relevanten Zusammenhanges – meist eines komplexen kulturellen oder sozialen Gebildes – bezeichnet wird. Der Idealtypus stellt ein heuristisches Instrument dar, welches dazu dient, sich eine komplexe Realität zu erschließen (Weber 1922/1999, S. 16–17).
96
G. Pöllmann
die Außenzölle vereinheitlich werden. Fokussiert die Zollunion den freien Waren- und Güterhandel, wird in der folgenden Integrationsstufe, dem gemeinsamen Markt für Produktionsfaktoren, auch die Arbeitskräftemobilität miteinbezogen. Eine weitere Entwicklungsstufe stelle dann die Wirtschaftsunion dar, in welcher die Harmonisierung weiterer wirtschaftspolitischer Politikfelder stattfinden solle. Als Endstufe wirtschaftlicher Integration sieht Balassa die komplette Vereinheitlichung von Fiskal-, Geld und Konjunkturpolitik, die dann auch von gemeinsamen Institutionen um- und durchgesetzt werden müsse. Theorie optimaler Währungsräume
Von Robert A. Mundell formulierte Theorie, die auf die Frage nach der Vorteilhaftigkeit flexibler oder fester Wechselkurse zwischen Ländern mit eigenständigen Notenbanken abzielt. Die Theorie optimaler Währungsräume von Robert A. Mundell (1961, S. 567) fokussiert die Vereinheitlichung der Währung in der Endstufe regionaler Integration, sei es als ein System auf Dauer angelegter fester Wechselkurse oder durch die Einführung einer gemeinsamen Währung. Mundells Theorie4 liegt dabei die Frage zugrunde, wodurch optimale Währungsräume gekennzeichnet seien. Kernargument im Rahmen seiner Theorie ist die Notwendigkeit ausreichender Faktormobilität (Mundell 1961, S. 661). Wenn der Produktionsfaktor Arbeit, sprich die Arbeitskräfte, hinreichend mobil sind, wandern Arbeitslose nach dieser Theorie aus den schwächeren in die wirtschaftlich stärkeren Regionen eines Währungsgebietes und erleichtern so die wirtschaftliche Anpassung an einen ökonomischen Schock. Die Arbeitskräftemobilität ersetzt dann den fehlenden Wechselkursmechanismus, welcher ansonsten über eine Abwertung der eigenen Währung und der damit zu erwartenden Zunahme der Exporte für den wirtschaftlichen Ausgleich sorgt (Mundell 1961, S. 663).
In diesem theoretischem Kontext ist die Herausbildung der Europäischen Union das Ergebnis einer wirtschaftlichen und politischen Entwicklung, die nach dem Zweiten Weltkrieg begonnen hat und die sich mit dem Stufenmodell von Balassa erklären lässt: Um den wirtschaftlichen Wiederaufbau zu beschleunigen, schlossen sich 1951 sechs Staaten (Belgien, Bundesrepublik Deutschland, Frankreich, Italien, Luxemburg und Niederlande) zur Europäischen Gemeinschaft für Kohle und Stahl (EGKS, „Montanunion“) zusammen. Da sowohl Frankreich als auch Deutschland Interesse an einer weiteren wirtschaftlichen Integration hatten, wurden am 25. März 1957 die Europäische
4Die
Theorie optimaler Währungsräume erfuhr in dem 1969 vorgelegten Sammelband von R. A. Mundell und A. Swoboda „Monetary Problems of the International Economy“ noch ihre Erweiterung durch Beiträge von Peter McKinnon und Peter Kenen.
5 Globalisierung und Deglobalisierung
97
Wirtschaftsgemeinschaft (EWG) und die Europäische Atomgemeinschaft (EAG) ins Leben gerufen (Kap. 6 von Clauss). Neben den bereits genannten sechs Staaten traten in den folgenden Jahren Dänemark, Großbritannien, Irland, Griechenland und Portugal bei. Die Entwicklung dieser Europäischen Gemeinschaften (später „EG“ genannt) stagnierte in den 1970er-Jahren. Deshalb versuchte man am 28. Februar 1986 mit der Unterzeichnung der Einheitlichen Europäischen Akte (EEA), den Integrationsprozess zu beschleunigen, mit dem Ziel, einen einheitlichen Binnenmarkt zu schaffen, der bis zum 31. Dezember 1992 verwirklicht werden sollte. Dieser Binnenmarkt erfuhr dann seine Erweiterung hin zu einer Währungsunion im Rahmen des Vertrages von Maastricht (Mann 2007, S. 117–120), der sich allerdings nicht alle EU-Mitgliedsstaaten anschlossen. Auch in anderen Weltregionen wurden Projekte regionaler Integration umgesetzt, die den Globalisierungsprozess förderten, wie das nordamerikanische Freihandelsabkommen NAFTA oder der gemeinsame Markt in Südamerika, der Mercorsur, dem Argentinien, Brasilien, Paraguay und Uruguay angehören (Mann 2007, S. 156–168). Selbst auf dem afrikanischen Kontinent wurden bereits 1975 mit dem Vertrag von Lagos zur Gründung der „Westafrikanischen Wirtschaftsgemeinschaft“ (UEMOA) Anstrengungen zur regionalen Integration unternommen (Kohnert 2005, S. 115–120). Ebenso wurden im asiatischen Raum mit der Gründung der ASEAN – Freihandelszone „AFTA“ (ASEAN Free Trade Area) im Jahr 2003 Maßnahmen zur regionalen Integration getroffen.
5.3.3 Folgewirkungen von Globalisierung Verbunden mit der wirtschaftlichen Liberalisierung im Zuge des Globalisierungsprozesses ergeben sich bestimmte Folgewirkungen. So resultieren bspw. auf der einen Seite aus Direktinvestitionen im Zielland wirtschaftliche Entwicklungspotenziale. Auf der anderen Seite bilden diese aber auch die Möglichkeiten für Arbeitsplatzverlagerungen, die mit Arbeitsplatzabbau im Inland verbunden sind. Durch die Zunahme der Arbeitsmigration steigt zudem auf dem Arbeitsmarkt in den betroffenen Regionen der Wettbewerb um offene Stellen (Schirm 2002, S. 5). Ein weitere Folgewirkung ergibt sich im Zusammenhang mit der Zunahme der Finanzströme: In dem Maße, wie die grenzüberschreitenden Finanzströme durch den Abbau von Kapitalverkehrsschranken einfacher werden, werden auch Handel, Dienstleistungen und Direktinvestitionen erleichtert. Diese Überlegungen führten zur Liberalisierung des Kapitalverkehrs in den USA und in Europa seit den 1970erJahren. Diese machen es aber auch für institutionelle Kapitalanleger einfacher, Finanzkapital in Abhängigkeit von Gewinn- und Verlusterwartungen von einem Land in ein anderes zu transferieren (Schirm 2002, S. 2). Dies ist Kapital, welches dann in dem Land, in dem es abgezogen wurde, für Investitionen nicht mehr zur Verfügung steht. Verbunden damit können auch starke Wechselkursänderungen entstehen, die dann
98
G. Pöllmann
wiederum Kalkulationen von Unternehmen erschweren und Kosten zur Absicherung von Währungsrisiken entstehen lassen.
5.4 Deglobalisierung als Folge von Desintegration Wenn die Voraussetzung von Globalisierung, wie dargelegt, ökonomische Integration ist, lässt sich im Umkehrschluss eine „Deglobalisierungsthese“ formulieren, in dem Sinne, dass „Deglobalisierung“ eine Folge von ökonomischer „Desintegration“ ist. Ökonomische Desintegration wiederum kann als Reaktion auf Globalisierungsrisiken und auf negative Folgewirkungen von Globalisierung verstanden werden. Letztere bestehen, wie dargelegt, im Arbeitsplatzabbau durch Arbeitsplatzverlagerungen an ausländische Standorte mit günstigeren Lohn- und Kostenstrukturen oder in Verwerfungen an den Kapitalmärkten. Phänomene ökonomischer Desintegration lassen sich dabei auf regionaler wie auch auf globaler Ebene ausmachen, die ihrerseits durch einen Rückgang an Exporten, Direktinvestitionen und geringeres Wirtschaftswachstum deglobalisierend wirken.
5.4.1 Desintegration als Folge sozialen Protests Auf regionaler Ebene im europäischen Rahmen ist der sogenannte Brexit ein Phänomen, welches die Desintegrationsthese stützt. In der EU ging man davon aus, dass die europäische Integration ein irreversibler Prozess sei, der über die ökonomische Integration hinausgeht und politisch etwa in einen Bundesstaat münden würde. Dies impliziert der „Vertrag über die Europäische Union“ von 1992, welcher mehrere Modifikationen durch die Verträge von Amsterdam 1997, von Nizza 2001 und von Lissabon 2007 erfuhr. Der Austritt Großbritanniens aus der EU, der am 31. Januar 2020 offiziell vollzogen wurde, steht dieser Integrationslogik entgegen. Laut einer Einschätzung der Bertelsmann Stiftung werden sich im Zuge des Brexits die Exporte Großbritanniens reduzieren und Importe verteuern. Je nach Ausmaß der handelspolitischen Abschottung wird das reale Bruttoinlandsprodukt (BIP) je Einwohner in Großbritannien im Jahr 2030 zwischen 0,6 und 3,0 % geringer ausfallen als bei einem Verbleib in der EU. Zudem ergeben sich umgekehrt unterschiedliche Auswirkungen auf die einzelnen Mitgliedsstaaten der EU (Aichele et al. 2015, S. 1). „In Deutschland beispielsweise wäre das reale BIP je Einwohner wegen der nachlassenden Handelsaktivitäten im Jahr 2030 schätzungsweise zwischen 0,1 und 0,3 Prozent geringer als ohne einen Brexit. Zusätzlich zu diesen statischen Wohlfahrtseffekten kommen noch dynamische Effekte hinzu, die in Deutschland zu BIP-Einbußen von bis zu zwei Prozent führen können“ (Bertelsmann Stiftung 2015, S. 1; Aichele et al. 2015, S. 1).
Wie es die Zahlen implizieren, wird der desintegrative Schritt Großbritanniens dazu führen, dass entgegen dem Globalisierungstrend, bedingt durch den erschwerten Markt-
5 Globalisierung und Deglobalisierung
99
zugang zu den EU-Güter-, EU-Dienstleistungs- und EU-Finanzmärkten, das BIP – sowohl in Großbritannien wie auch in den Mitgliedsstaaten der EU – abnimmt. Daher stellt sich in diesem Zusammenhang die Frage, inwieweit sich trotz der wahrscheinlichen Wohlfahrtseinbußen der Austritt aus der EU erklären lässt. Philipp Manow legt mit seiner „ökomischen Theorie des Populismus“ einen entsprechenden Erklärungsansatz vor. Populismus wird im Kontext der Theorie von Manow (2018, S. 11) als eine Mobilisierung gegen die grenzüberschreitende Bewegung von Geld und Gütern gesehen. Der Austritt Großbritanniens im Zuge des BrexitReferendums ist demnach auf die Aversion britischer „Arbeitsmarkt-Outsider“ gegen die EU-Binnenmigration zurückzuführen, die ursächlich auf der von Tony Blair lancierten Öffnung des britischen Arbeitsmarktes für Arbeitskräfte aus den ost- und südosteuropäischen EU Mitgliedsstaaten beruht. Die EU-kritische UKIP-Partei als Trägerin und Artikulatorin der populistischen Brexit-Bewegung thematisierte daher auch vor allem Polen und Rumänen als problematische Migrantengruppen, die in Konkurrenz zu britischen Arbeitnehmern stünden (Sukert 2019, S. 30 ff.).
5.4.2 Desintegration als Folge institutioneller Dysfunktionalität Dass regionale Integration zwar auf der Ebene zwischenstaatlicher Verträge bestehen mag, ist das eine. Inwieweit die damit intendierte Wirkung eintritt und damit globalisierungswirksam wird, ist das andere. Paradigmatisch mag dafür die Entwicklung der bereits genannten UEMOA stehen. Deren wirtschaftliches Wachstum war bis 2002 positiver als jenes in den meisten Staaten Westafrikas (Kohnert 2005, S. 6). Aus institutionenökonomischer Sicht kann regionale Integration jedoch nur globalisierungswirksam werden, wenn entsprechende Regelungen zum Binnenmarkt und zu einer Währungsunion auch umgesetzt werden. Ansonsten wirken diese Abkommen dysfunktional. Ökonomisch manifestiert sich dies im Fall der UEMOA dadurch, dass der Binnenmarkt nur einen Anteil von rund 12 % am gesamten Außenhandel ausmacht. Innerhalb der UEMOA gibt es zudem große Differenzen hinsichtlich der wirtschaftlichen Strukturen und der Einkommensniveaus besonders zwischen den vergleichsweise wohlhabenden Ländern an der Küste und denen in der Sahelzone. Zudem konterkarieren außerökonomische Krisen, wie Bürgerkriege in Liberia, der bewaffnete Konflikt in Mali oder die ständige Bedrohung durch Terror in Nigeria, die bisherigen Integrationserfolge (vgl. Van Cauwenbergh 2019).
5.4.3 Desintegration als Folge von geoökonomischer Politik Nach einer längeren Phase des Abbaus tarifärer und nicht tarifärer Handelshemmnisse haben in jüngster Zeit vor allem die USA gegen die VR China, die Türkei und auch gegen die EU protektionistische Maßnahmen ergriffen, auf welche von diesen mit ent-
100
G. Pöllmann
sprechenden Gegenmaßnahmen reagiert wurde, sodass man von einem Zollstreit bzw. von einem Handelskrieg sprechen kann. So haben die USA am 1. Juni 2018 neue Strafzölle in Höhe von 25 % auf Stahl und 10 % auf Aluminiumimporte aus der EU erhoben, worauf die EU ihrerseits mit Gegenzöllen auf US–amerikanische Produkte reagierte (IHK Region Stuttgart 2019). Die USA haben aber nicht nur mit dem Hinweis auf eine unausgeglichene Handelsbilanz Zölle gegen Produkte aus der EU erhoben. Auch gegen die VR China hat die Trump-Administration 2018 Antidumpingzölle, etwa auf Waschmaschinen und Solarpanels, erhoben. Zudem wurden zusätzlich Importzölle in Höhe von 25 % für verschiedene chinesische Produkte als Ausgleich für Verstöße gegen geistige Eigentumsrechte erhoben. Darauf wiederum reagierte die VR China ihrerseits mit „Vergeltungszöllen“ auf US-Importe in Höhe von 42,7 Mrd. EUR. Ein weiterer Schauplatz dieses Handelskrieges ist die Erhöhung von Zusatzzöllen der USA gegenüber der Türkei auf 50 % bei Stahlimporten (2018). Die Türkei ihrerseits hat daraufhin mit Zusatzzöllen auf Warenimporte aus den USA reagiert. Anlass für diese Auseinandersetzung seien zu hohe türkische Stahlexporte in die USA (IHK Region Stuttgart 2019). In diesem Zollstreit bzw. Handelskrieg erweist sich die US-Administration als treibender Akteur. Anlassbezogen werden von den USA das eigene Handelsdefizit sowie Verstöße gegen geistiges Eigentum ins Feld geführt. Analytisch tiefer lässt sich die aktuelle Entwicklung als geoökonomischer Konflikt deuten. Geoökonomik
Inhaltich umfasst der Begriff „Geoökonomik“ zwei Aspekte: zum einen den Einsatz wirtschaftspolitscher Mittel, um wirtschaftliche Ziele (bspw. Handels- und Investitionsabkommen, staatliche Außenwirtschaftsförderung usw.) zu erreichen. Zum anderen auch den Einsatz wirtschaftlicher Mittel, um politische Ziele zu verwirklichen: Kontrolle von Märkten, Handelsüberschüssen und Währungsreserven, strategische Investitionen, Wirtschaftssanktionen (Blackwell und Harris 2017)
Der Einsatz von Handel, Zöllen, Energie, Rohstoffen, Zinsen, Krediten, Investitionen, Hilfsprogrammen und Sanktionen als politische Instrumente zur Verfolgung nationaler Interessen dient damit vor allem der Gewinnung geopolitischer Vorteile (Tofall 2018). Dieses Politikmuster lässt sich seit einigen Jahren bei mehreren Staaten beobachten. „Nach dem Zusammenbruch der Sowjetunion 1991 und der folgenden Präsidenten-Ära von Boris Jelzin hat Russland seit dem Jahr 2000 unter der Führung von Wladimir Putin den Export von Gas und Öl zu einer geopolitischen Waffe geformt. So ist die geplante Gaspipeline durch die Ostsee „Nordstream 2“ ein geoökonomisches Mittel zur Erreichung geopolitischer Ziele. China strebt unter Xi Jingping mit seiner One-Belt-One-Road-Strategie außenpolitische Hegemonie durch Erzeugung ökonomischer Abhängigkeiten an. Und
5 Globalisierung und Deglobalisierung
101
Donald Trump will durch Schutzzölle die heimische Industrie schützen und verachtet die Regeln der WTO.“ (Tofall 2018)
Die Wirkung geoökonomischer Politik kann sich dabei aus der Globalisierungsperspektive ambivalent erweisen: Im Falle der USA und deren Zollpolitik wirkt sie deglobalisierend. In Bezug auf die Politik der VR China würde diese Politik durch die Bindung von Staaten den Güteraustausch wie auch die Direktinvestitionen erhöhen; jedoch nur unter Akzeptanz eines regionalen Hegemons. Jedenfalls würde sich die liberale weltweite Wirtschaftsordnung, wie sie sich schrittweise nach dem Zweiten Weltkrieg herausgebildet hat, wesentlich verändern.
Literatur Aichele, R., Felbermayr, G., Petersen, T., & Schoof, U. (2015). Brexit – Mögliche wirtschaftliche Folgen eines britischen EU-Austritts. Zukunft Soziale Marktwirtschaft Policy Brief, 2015(05), 01–08. Altvater, E., & Mahnkopf, B. (1997). Grenzen der Globalisierung. Ökonomie, Ökologie und Politik in der Weltgesellschaft, (3. Aufl.). Marburg: Westfälisches Dampfboot. Balassa, B. (1962). The theory of economic integration. London: George Allen & Unwill. Beck, U. (2007). Was ist Globalisierung. Irrtümer des Globalismus – Antworten auf Globalisierung. Frankfurt a. M.: Suhrkamp. Blackwell, R. D., & Harris, J. (2017). War by other Means. Geoeconomics and Statecraft. Cambridge: Harvard University Press. Bundesministerium für wirtschaftliche Zusammenarbeit (Hrsg.). (2018). Innovative Finanzierungsinstrumente. Besteuerung von internationalen Finanztransaktionen. Berlin. https://www.bmz.de/de/themen/entwicklungsfinanzierung/innovativefinanzierung/devisentransaktion/. Zugegriffen: 10.Mai 2018. Bundesverband der Deutschen Industrie (Hrsg.). (2018). Ausländische Direktinvestitionen. Treibstoff für Arbeitsplätze und Wohlstand. Berlin, https://bdi.eu/themenfelder/aussenwirtschaftspolitik/auslaendische-direktinvestitionen/#/artikel/news/treibstoff-fuer-arbeitsplaetzeund-wohlstand/. Zugegriffen: 10. Mai 2018. Dieckheuer, G. (2001). Internationale Wirtschaftsbeziehungen (5. Aufl.). München: Oldenbourg. Dixit, A., & Stiglitz, J. (1979). Monopolistic competition and optimum product diversity. American Economic Review, 67, 297–308. Gruber, U., & Kleber, M. (1994). Grundlagen der Volkswirtschaftslehre (2. Aufl.). München: Vahlen. IHK Region Stuttgart (Hrsg.). (2019). Zollstreit mit den USA. Stuttgart. https://www.stuttgart. ihk24.de/Fuer-Unternehmen/international/Aktuelles/eu-gegenzoelle-greifen-ab-22– juni/4109720. Zugegriffen: 14. Sept. 2019. Internationales Arbeitsamt Genf (Hrsg.). (2017). Arbeitsmigration im Wandel. Die damit verbundenen ordnungspolitischen Herausforderungen angehen. Internationale Arbeitskonferenz. 106. Tagung, 2017. Genf: Internationales Arbeitsamt Genf. Kohnert, D. (2005). Die UEMOA und die CFA-Zone. Eine neue Kooperations-Kultur im frankophonen Afrika? Schriften des Deutschen Übersee-Instituts, 65, 115–136. Krugman, P. (1979). Increasing returns, monopolistic competition and international trade. Journal of International Economics, 9, 469–479. Krugman, P., & Obstfeld, M. (2006). Internationale Wirtschaft (7. Aufl.). München: Vahlen.
102
G. Pöllmann
Mann, G. H. (2007). Transatlantische Freihandelszone. Politische und ökonomische Perspektiven einer transatlantischen Freihandelszone aus EU, Mercosur und NAFTA. Frankfurt a. M.: Lang. Manow, P. (2018). Die ökonomische Theorie des Populismus. Berlin: Suhrkamp. Mundell, R. A. (1961). A theory of optimum currency areas. The American Economic Review, 51(4), 657–665. Nohlen, D. (2004). Globalisierung. In D. Nohlen & R.-O. Schutze (Hrsg.), Lexikon der Politikwissenschaft Band 1 A – M (S. 301–303). München: Beck. Ricardo, D. (1817). Vollständige deutsche Fassung der englischen Standardausgabe einschließlich der Einführung und editorischen Anmerkungen Piero Sraffas. In H. von Kurz & C. Gehrke (Hrsg.), Über die Grundsätze der Politischen Ökonomie und der Besteuerung, (2. Aufl.). Marburg: Metropolis. Roos, M. W. M. (2008). Neue Außenhandelstheorie und Neue Ökonomische Geographie. Wirtschaftsdienst, 11, 756–759. Schirm, S. A. (2002). Handel und Politik. Der Einfluss globaler Märkte auf nationale Interessen. Internationale Politik, 6, 1–10. Seller, H.-F. (2001). Der Weg der USA in die Weltpolitik. Die amerikanische Außen- und Sicherheitspolitik in ihren Grundlinien. München: tuduv. Sukert, L. (2019). Der Brexit und die ökonomische Identität Großbritanniens: Zwischen globalem Freihandel und ökonomischem Nationalismus. MPIfG Discussion Paper, No. 19/4. Köln: Max Planck Institute for the Study of Societies. Smith, A. (1999). In H. C. von Recktenwald (Hrsg.), Der Wohlstand der Nationen: Eine Untersuchung seiner Natur und seiner Ursachen, (8. Aufl.). München: Deutscher Taschenbuchverlag. (Erstveröffentlichung 1776) Tofall, Norbert F. (2018). Geoökonomische Politik und Welthandel. Zerstört der zunehmende geoökonomische Wettbewerb der Staaten die Weltwirtschaftsordnung? Kommentar zu Wirtschaft und Politik des Flossbach von Storch Researche Institute vom 12. September 2018, Franfurt a. M. https://flossbachvonstorch-resarchinstitute.com/de/kommentare/geooekonomische-politikund-welthandel-1/. Van Cauwenbergh, L. (2019). Westafrikanische Wirtschafts- und Währungsunion: Starkem Wirtschaftswachstum zum Trotz wird die UEMOA mit zahlreichen Risiken konfrontiert. Brüssel. https://www.credendo.com/de/country-news/westafrikanische-wirtschafts-und-waehrungsunionstarkem-wirtschaftswachstum-zum-trotz. Zugegriffen: 14. Sept. 2019. Weber, M. (1999). Wirtschaft und Gesellschaft. Nach der ersten vollst. Ausgabe v. 1922 K. von Worm (Hrsg.). Berlin: CD-ROM Verlag InfoSofware. (Erstveröffentlichung 1922) World Trade Organization (Hrsg.). (2007). World Trade Statistical Review 2017. Genf: WTO.
Prof. Dr. Guido Pöllmann ist seit 2012 hauptberuflich Lehrender an der FOM Hochschule für Oekonomie & Management in München. 2013 wurde er zum Professor berufen. Er studierte Politikwissenschaft, Volkswirtschaftslehre und Soziologie an der Ludwig-Maximilians-Universität München und promovierte an der Universität der Bundeswehr München. Nach seiner Promotion war er u. a. regionaler Studienleiter in China am IIS-Standort der FOM Hochschule in Tai’ an (Provinz Shandong) und hauptberufliche Lehrkraft am Studienzentrum München der Hessischen Berufsakademie (BA). Parallel zu seiner Tätigkeit als Professor ist er wissenschaftlicher Studienleiter für den Bereich Qualitätsmanagement am FOM Hochschulzentrum München.
6
Legitimierung der europäischen Integration als Bedingung für politische Nachhaltigkeit Michael Clauss
Inhaltsverzeichnis 6.1 Einführung – die Beziehung von Nachhaltigkeit und europäischer Integration . . . . . . . . . 104 6.2 Der Ordnungsrahmen der Europäischen Union. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.2.1 Die EU aus verfassungsrechtlicher Sicht – Übertragung von politischen Kompetenzen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 6.2.2 Die EU als gesetzgebende Institution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 6.3 Der aktuelle Besitzstand und die Debatte über institutionelle Reformen . . . . . . . . . . . . . . 110 6.3.1 Institutionelle Reformen seit den Lissabon-Verträgen. . . . . . . . . . . . . . . . . . . . . . . 110 6.3.2 Die aktuelle Debatte über Reformen wirtschaftspolitischer Institutionen. . . . . . . . 112 6.4 Bewertung der aktuellen Kompetenzteilung aus ökonomischer und politischer Sicht. . . . 113 6.5 Politische Legitimierung von Politikfeldern – Formen und Stufen der Legitimierung. . . . 116 6.5.1 Legitimierung durch gewählte nationale Entscheidungsträger . . . . . . . . . . . . . . . . 117 6.5.2 Legitimierung durch öffentlichen Diskurs auf nationaler und europäischer Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 6.5.3 Legitimation durch die Arbeit des gewählten Europäischen Parlaments – die zunehmende Wahrnehmung der Europapolitik in den Bevölkerungen. . . . . . . . . . 119 6.6 Fazit – Legitimierung europäischer Institutionen als bleibende Herausforderung . . . . . . . 123 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Zusammenfassung
Entgegen dem von verschiedenen Medien unterstützten Eindruck – verstärkt durch die Eurokrise 2011 und das Brexit-Votum 2016 –, dass sich die Europäische Union in einer Dauerkrise befindet, hat die Union im letzten Jahrzehnt bemerkenswerte M. Clauss (*) FOM Hochschule, Nürnberg, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_6
103
104
M. Clauss
institutionelle Fortschritte erzielt. Dies betrifft sowohl die wirtschaftspolitische Koordination als auch weitere staatstragende Funktionen wie Außenpolitik, Migration und Umweltpolitik, die Errichtung neuer Institutionen wie des Europäischen Stabilitätsmechanismus ESM und die Ausweitung der Kompetenzen von EU-Kommission und Europäischem Parlament. Gerade im Europäischen Parlament zeigt sich eine Verbreiterung und Verlagerung des politischen Diskurses von den Mitgliedstaaten hin zu staatsübergreifenden Parteiengruppierungen. Die Herausforderung für die neuen politischen Entscheidungsträger der Europäischen Union wird es sein, diesen Diskurs verstärkt in den Bevölkerungen zu führen, um den Kompetenzzuwachs der Union durch einen entsprechenden Legitimitätszuwachs zu untermauern.
6.1 Einführung – die Beziehung von Nachhaltigkeit und europäischer Integration Seit ihrer Gründung im Jahre 1957 haben die Europäische Gemeinschaft und ihre Nachfolgerin, die Europäische Union, von ihren Mitgliedstaaten einen stetigen Zuwachs an ökonomischen und politischen Kompetenzen erfahren. Gleichzeitig wurde ihre Legitimationsbasis durch mehrere Änderungen völkerrechtlicher Verträge und die dadurch ausgelöste Intensivierung des politischen Diskurses erweitert. Wurde der Diskurs anfangs nur von nationalen politischen Entscheidungsträgern geführt, so kamen Debatten innerhalb der Bevölkerungen der Mitgliedstaaten und im europäischen Parlament hinzu. Im Folgenden geht es darum, zu untersuchen, inwieweit beide Entwicklungen – Kompetenzzuwachs für die Union und Verbreiterung ihrer Legitimationsbasis – einander wechselseitig bedingen, um als nachhaltig zu gelten. Mit anderen Worten stellt sich die Frage, welche Legitimationsschritte notwendig erscheinen, um den Kompetenzzuwachs auch ökonomisch effizient und damit nachhaltig zu machen und welchen Einfluss eine effiziente Integration – durch erfahrene und kommunizierte Wohlfahrtsgewinne – auf die Legitimität bei den Bevölkerungen hat. In der aktuellen öffentlichen Diskussion hat das ökologisch geprägte Verständnis von Nachhaltigkeit im Sinne einer Bewahrung der natürlichen Regenerationsfähigkeit eine überragende Rolle als Gütekriterium in der Politikgestaltung erhalten. Dabei wurde das Konzept der ökologischen Nachhaltigkeit von der UN bereits in den 1980er-Jahren im sogenannten Brundtland-Bericht im Rahmen einer globalen Entwicklungspolitik neu definiert. Danach wird das bisherige Nachhaltigkeitsverständnis zu einem Drei-Säulen-Modell der ökologischen, der ökonomischen und der sozialen Nachhaltigkeit erweitert (Deutscher Bundestag 1994). Die ökonomische Dimension lässt sich als Postulat an eine Volkswirtschaft verstehen, Konsum und Einkommen im Gleichgewicht zu halten. Dies gilt im Übrigen auch im Intergenerationenverhältnis, mit anderen Worten: Jede Generation soll bei der Inanspruchnahme natürlicher Ressourcen sowie produzierten Kapitals die Handlungsmöglichkeiten nachfolgender Generationen in ihr Handeln einbeziehen. In diesem Sinne scheint eine Komplementarität von ökonomischer
6 Legitimierung der europäischen Integration …
105
Nachhaltigkeit, basierend auf Effizienz, und ökologischer Nachhaltigkeit, basierend auf sparsamem Umgang mit natürlichen Ressourcen, gegeben. Dieser Überschneidungsbereich wird mit dem Begriff „Suffizienz“ belegt (Schmidt 2008; Döring 2004). Die soziale Dimension von Nachhaltigkeit wird eher vage definiert bspw. im Sinne von 1) gesellschaftliche Leistungen (z. B. die demokratischen Strukturen und eine gerechte Einkommensverteilung) oder 2) Vermeidung „übermäßiger“ Spannungen in einer Gesellschaft bzw. zwischen ihren Teilen wie Altersgruppen, Geschlechtern, Berufsund Einkommensgruppen. Hierzu gehört auch das Vorhandensein von Konfliktlösungsmechanismen (Bundesvereinigung Nachhaltigkeit 2019). Diese Merkmale lassen sich als wechselseitige Akzeptanz von Individuen und Gesellschaft verdichten (Acemoglu und Robinson 2012). Mit der Einbeziehung von Konfliktlösungsmechanismen wird Nachhaltigkeit auch auf die Gestaltung von politischen Institutionen übertragen (Acemoglu und Robinson 2012). Gerade im Bereich politischer Institutionen erfährt der Nachhaltigkeitsbegriff eine inhaltliche Auffüllung durch die Ökonomen Acemoglu und Robinson in der Unterscheidung von inklusiven Institutionen und extraktiven Institutionen. Das Prädikat „inklusiv“ bezeichnet Institutionen, die „es der breiten Masse [einer Bevölkerung] erlauben und sie ermutigen, an ökonomischer Aktivität teilzunehmen und so ihre Talente und Kompetenzen in optimaler Weise zu nutzen und damit die Individuen befähigen, ihre Entscheidungen nach ihren [persönlichen] Wünschen auszurichten“ (Acemoglu und Robinson 2012). Dazu gehören Privateigentum, Rechtsstaatlichkeit sowie die Bereitstellung einer materiellen und rechtlichen Infrastruktur. Insofern bedeuten politische Systeme mit inklusiven Institutionen, wie sie in westlichen Demokratien und Marktwirtschaften die Regel darstellen, letztlich die Voraussetzung und Verkörperung von ökonomischer wie sozialer Nachhaltigkeit im bereits genannten Sinne (Acemoglu und Robinson 2019). Auch die überwiegende Zahl der EU-Staaten verfügt (mittlerweile) über inklusive Institutionen. Das Gegenstück dazu sind Regime mit extraktiven Institutionen. In diesen Regimen dienen Institutionen wie Militär und regierungsabhängige Gerichte einer Elite dazu, die Ressourcen eines Landes einschließlich der Bevölkerung in ihrem Interesse zu nutzen. Paradebeispiele hierfür waren die europäischen Kolonien vor allem in Afrika und die frühere Sowjetunion (Acemoglu und Robinson 2012). Wie Acemoglu und Robinson gezeigt haben, können auch Regime mit extraktiven Institutionen eine innere Logik aufweisen und damit Bestand haben (Acemoglu und Robinson 2012), es ist jedoch kein Bestand im Sinne von Nachhaltigkeit. Wenn wir nun die Frage der Nachhaltigkeit von der Ebene einzelner Staaten auf die der aus ihnen zusammengesetzten Staatenverbünde, wie es die Europäische Union ist (Definition von Kirchhof 1993), übertragen wollen, geht es nicht mehr (nur) um den inneren Aufbau der Staaten selbst sondern auch um die institutionelle Gestaltung ihrer Beziehung zueinander. In Verbindung mit dem „Thema“ Nachhaltigkeit werfen die Gestaltung der Institution „Europäische Union“ sowie die durch sie verfolgte Politik gleich mehrere Fragen auf. Hierzu gehören u. a.:
106
M. Clauss
• Inwiefern kann die Europäische Union in ihrer aktuellen Form als nachhaltig im sozialen und ökonomischen Sinne gelten? • Inwiefern kann die historische und die aktuelle Entwicklung der Union als Institution und die sie repräsentierenden Institutionen als nachhaltig und inklusiv definiert werden? • Wie vergleicht sich die Union in Bezug auf Nachhaltigkeit und Inklusivität mit ihren Mitgliedstaaten? • Würde eine weitere staatliche Konsolidierung der Union die nachhaltige Verfolgung politischer Ziele für die Bevölkerungen der Mitgliedstaaten erleichtern oder erschweren? • Von welchen Faktoren hängt die Bewertung dieser Fragen ab und welche Herausforderungen impliziert dies für die künftige Entwicklung der Union? Zusammenfassend beinhaltet dieser Beitrag die statische und die dynamische Betrachtung der europäischen Integration mit Blick auf ökonomische und soziale Nachhaltigkeit. In der Essenz geht es darum festzustellen, ob der ökonomisch motivierte Zuwachs an Kompetenzen, den die Europäische Union in den letzten Jahrzehnten erfahren hat, hinreichend legitimiert wurde, um die integrationsbedingten Effizienzgewinne durch die Akzeptanz in den Bevölkerungen abzusichern. Die folgende Untersuchung hat zwar eine grundsätzlich ökonomisch bestimmte Stoßrichtung, gleichwohl nimmt sie Anleihen in politologischen und verfassungsrechtlichen Argumentationsmustern vor.
6.2 Der Ordnungsrahmen der Europäischen Union 6.2.1 Die EU aus verfassungsrechtlicher Sicht – Übertragung von politischen Kompetenzen Trotz Zuweisung eigener Rechtspersönlichkeit (EUV, Art. 47) ist die Rechtsordnung der Europäischen Union wesentlich durch die Mitgliedstaaten bestimmt (Art. 1 EUV). Die Mitgliedstaaten werden als Gründer, „hohe Vertragsparteien“ und Träger der Europäischen Union definiert. Insofern spiegelt die Rechtsordnung der Union die grundlegenden Werte der Mitgliedstaaten wie Menschenwürde, Rechtsstaatlichkeit u. a. (Art. 2, Art. 9 EUV) und gleichzeitig die Beziehungen zwischen Union und Mitgliedstaaten wider (Art. 4, Art. 9 Satz 3). Die Rechtsordnung wiederum setzt den Rahmen für Teilordnungen wie Wirtschaftsordnung (Art. 119–126 AEUV) und Wettbewerbsordnung (Art. 101–109 AEUV) bzw. den Binnenmarkt. Gemäß dem Vertrag über die Europäische Union (EUV) ist die Aufteilung politischer Kompetenzen gegenüber den Mitgliedstaaten durch das Prinzip der Subsidiarität (Art. 5 EUV) und Bürgernähe (Art 3. Abs. 2 EUV) bestimmt. Die Kompetenzaufteilung erfährt ihre Konkretisierung im Vertrag über die Arbeitsweise der Europäischen Union (AEUV, Art. 3. Abs. 1 und Art. 4. Abs. 2).
6 Legitimierung der europäischen Integration …
107
Und zwar ist die EU ausschließlich zuständig u. a. für die Bereiche 1. Zollunion und gemeinsame Handelspolitik, 2. Wettbewerbsregeln für den Binnenmarkt und 3. Währungspolitik (der Euroraum-Länder). Eine geteilte Zuständigkeit besteht 1. im wirtschaftlichen Bereich für den Binnenmarkt, einschließlich der damit verbundenen Sozialpolitik und des Verbraucherschutzes, sowie für wirtschaftlichen Zusammenhalt; 2. für Umwelt; 3. für Landwirtschaft und Fischerei; 4. für Verkehr einschließlich transeuropäischer Netze; 5. für Energie und 6. für innere Sicherheit und Justiz („Raum der Freiheit, der Sicherheit und des Rechts“). Diese Politikfelder verstehen sich zunächst als potenzielle Zuständigkeiten der EU; sie werden von der EU nur insoweit tatsächlich wahrgenommen, wie die Mitgliedstaaten Zuständigkeiten übertragen. Dies ist allerdings im Bereich Binnenmarkt (EU-Kommission 2012), in der Landwirtschaft (Gemeinsame Agrarpolitik, EWG-Vertrag, 1957, später AEUV) und bei der Energie („Energieunion“) bereits weitgehend erfolgt. Die Aufteilung der Zuständigkeiten in diesen Feldern ist aber naturgemäß Gegenstand politischer Prozesse zwischen den EU-Institutionen (siehe Abschn. 6.2.2; Russack 2019a). Bei aller Dynamik, die in die Diskussion über die Weiterentwicklung der Europäischen Union (und des Euroraums) gekommen ist, sind auf historisch absehbare Zeit zwei grundlegende Unterschiede zwischen der Union und ihren Mitgliedstaaten festzustellen: Der eine betrifft die Natur der beiden staatlichen Gebilde: Während die Mitgliedstaaten in unterschiedlich langen Zeiträumen zu ihrem aktuellen Wesen gewachsen sind, vor allem geprägt durch das Verhältnis von Bürgern und Staat sowie der Gesellschaftsgruppen untereinander, hat die EU ihren Ursprung in den Entscheidungen der von ihren Völkern gewählten Eliten (Haller 2009). Dies wirkt sich auch auf die aktuelle Legitimation ihres Handelns aus, das immer noch vorwiegend auf den Entscheidungen der Vertreter der Mitgliedstaaten beruht. Dies gilt auch nach den Lissabon Verträgen (EUV, AEUV), in denen zum einen die Entscheidungsmacht des gewählten Europäischen Parlaments ausgeweitet wurde und zum anderen die außenpolitische Kompetenz der Union gestärkt wurde. Ein führender deutscher Verfassungsrechtler stellt hierzu fest, dass die Union hinsichtlich „der politischen Kompetenzausstattung schon sehr nahe an die Wirklichkeit des Bundesstaates heranrückt“ (Di Fabio 2011, S. XIII).
108
M. Clauss
Der andere Unterschied betrifft die Entwicklungsdynamik bzw. Finalität. Während die staatliche Natur der Mitgliedstaaten hinsichtlich ihres Aufbaus und der Beziehung zu ihren Bürgern weithin als gegeben angesehen wird, gilt für die Europäische Union das eingangs festgestellte Prinzip der Entwicklungsoffenheit, mithin der „immer engeren Integration.“ Dies spiegelt sich auch in der Tatsache wider, dass selbst in EUV und AEUV für die Europäische Union eine grundlegende Weiterentwicklung in der vertraglichen Gestaltung angelegt ist. Dies wird sowohl in zwei alternativen Möglichkeiten der Vertragsänderung (Art. 48 EUV) als auch in den verschiedenen Gesetzgebungsverfahren (Art. 289 AEUV und Art. 294 AEUV) deutlich. Interessanterweise wird vom „ordentlichen Änderungsverfahren“ (Art. 48, Absätze 2–5) und vom „vereinfachten Änderungsverfahren“ (Art. 48 Abs. 6 und 7) gesprochen. • Das vereinfachte Änderungsverfahren bezieht sich auf interne Politik und Maßnahmen der Union, vor allem Zollunion, Binnenmarkt, Währungsunion, Sicherheit und Rechtspflege. Hier kann der Europäische Rat einstimmig unter Anhörung von Kommission und Europäischem Parlament beschließen. • Das ordentliche Änderungsverfahren gilt für alle übrigen Gebiete wie Unionsbürgerschaft, auswärtiges Handeln und Institutionen. Hier ist das im Folgenden aufgeführte Prozedere erforderlich. Allein das vereinfachte Änderungsverfahren (Art. 46, Abs. 6 und 7 EUV) deutet auf einen „Acquis Communautaire“, also implizit eine Bestandsgarantie europäischer Kernkompetenzen hin: So kann der Europäische Rat in seiner Eigenschaft als EU-Verfassungsorgan auf Initiative von Regierungen der Mitgliedstaaten, der Kommission oder des Europäischen Rats Entscheidungen „über die internen Politikbereiche der Union“ treffen. Dieses Vorgehen könnte als – möglicherweise nicht einseitig widerrufliche – Anerkennung der Übertragung staatlicher Souveränitätsrechte interpretiert werden (Haller 2009, in Anlehnung an BVG Urteil von September 2009). Das Verfahren könnte in Analogie zu den Verfahren von Verfassungsänderungen in einzelnen Mitgliedstaaten (z. B. Art. 79 GG; Art. 89 CF) gesehen werden. Dabei scheint die dynamische Wirkung des vereinfachten Verfahrens auf die Ausweitung der Kompetenzen anerkannt zu sein (hierzu Urteil des deutschen BVG vom 30.07.2019 zur Errichtung des SSM). Herausragende Beispiele waren in den letzten Jahren die Errichtung des europäischen Stabilitätsmechanismus ESM und die Einführung einer einheitlichen Bankenaufsicht (SSM) unter der Europäischen Zentralbank (Beschlüsse 10. Mai 2010, 29. Juni 2012). Weitergehend ist das ordentliche Änderungsverfahren, das eine Änderung der Aufteilung staatlicher Kompetenzen zwischen Union und Mitgliedstaaten betrifft (Art. 48, Abs. 2, Satz 2). Nach diesem Verfahren können die Regierungen einzelner Mitgliedstaaten, das Parlament oder die Kommission dem Europäischen Rat „Entwürfe zur Änderung der Verträge“ zwecks Veranlassung einer Prüfung zuleiten (Satz 3). Beschließt der Rat die Prüfung, beruft sein Präsident einen Konvent aus Vertretern der Parlamente
6 Legitimierung der europäischen Integration …
109
von EU und Mitgliedstaaten sowie der Staats- und Regierungschefs der Mitgliedstaaten und Vertretern der Kommission ein (Abs. 3 Satz 1). Zwar war das in dem Vertrag benannte Verfahren, das im Jahr 2003 versucht wurde, letztlich im Ratifizierungsprozess selbst zunächst gescheitert. Jedoch drückt sich allein in der Festschreibung des Verfahrens im EUV das Bewusstsein der führenden nationalen Entscheidungsträger aus, dass eine weitere Verlagerung von Kompetenzen auf die Unionsebene einer breiteren Legitimationsbasis bedarf.
6.2.2 Die EU als gesetzgebende Institution Zu unterscheiden von Verfassungsänderungen sind die Gesetzgebungsverfahren sowohl auf nationalstaatlicher Ebene als auch in der EU. Denn auch einzelne Gesetze können weitreichende Konsequenzen für die Wirtschaftsordnung haben, indem sie die Kompetenzen staatlicher „Institutionen“ und damit das Verhältnis von Gruppen von Wirtschaftssubjekten verändern (Klumpp 2013). Auf EU-Ebene sind die Änderung des Überwachungsverfahrens wie Six Pack, Two Pack oder Fiskalpakt zu nennen (Klose 2018). Jedoch haben Gesetzesänderungen, anders als Verfassungsänderungen, keine Auswirkungen auf das ordnungsgebende Rechtssystem, wie dies bspw. bei der Etablierung von Institutionen, die als Träger der Wirtschaftspolitik dienen, der Fall ist. Bei gesetzgebenden Akten, die vor allem Verordnungen beinhalten, unterscheidet der AEUV zwischen dem ordentlichem Verfahren (Mitentscheidungsverfahren) und dem besonderen Verfahren. Im ordentlichen Verfahren werden sämtliche Organe, d. h. Kommission, Parlament und Ministerrat, einbezogen (Art. 289, Abs. 1). Im besonderen Verfahren hingegen werden Verordnungen nur durch das Parlament oder nur durch den Ministerrat verabschiedet (Art. 289, Abs. 2). Im ordentlichen Verfahren erfährt die Gesetzgebung mithin eine doppelte Legitimierung, und zwar sowohl durch direkt gewählte parlamentarische Vertreter als auch durch nationale Entscheidungsträger. Die Lissabon-Verträge haben dem Parlament einen zeitlichen Vorlauf gegeben und implizieren damit gleichzeitig eine Verlagerung der Legitimationsquellen. Ordnungspolitik kann aber auch Ordnungen niederer Stufe wie den Erlass und die Durchführung von Marktregulierungen betreffen. Beispiele sind die landwirtschaftliche Marktregulierung oder im Rahmen der Umweltpolitik die Regulierung des Handels mit Emissionszertifikaten ECTS (EU-Kommission 2005). Schließlich haben die Organe selbst das Recht, ihre Arbeitsweisen zu gestalten. Beispiel hierfür ist die hierarchische Aufstellung der EU-Kommission unter dem bisherigen Präsidenten Juncker (Russack 2019a) oder die Satzung zur Einrichtung der Einheitlichen Bankenaufsicht (SSM), die im Rahmen einer Verordnung von der Europäischen Zentralbank erlassen wurde (Europäische Zentralbank 2014). Mit dem sogenannten Besitzstand gesetzlicher Regelungen, „Acquis communautaire“, wird gleichzeitig die Grenze zwischen Gesetzgebung und Verfassung auf Unionsebene fließender als in den Nationalstaaten (Zandonella 2009).
110
M. Clauss
6.3 Der aktuelle Besitzstand und die Debatte über institutionelle Reformen 6.3.1 Institutionelle Reformen seit den Lissabon-Verträgen Mit dem Ausbruch der Eurokrise im Jahr 2009 im Gefolge der globalen Finanz- und Wirtschaftskrise erwies sich der bisherige institutionelle Rahmen einer Trennung von einheitlicher Geldpolitik und regelgebundener Finanzpolitik als unzureichend (Sinn und Carstensen 2010). Deshalb sind im Bereich der Wirtschaftsordnung die Kompetenzen der EU in Bezug auf den Binnenmarkt (AEUV, Titel VII) und auf die Wirtschafts- und Währungspolitik (AEUV, Titel VIII) signifikant gestärkt worden. Für die EU-Länder, in denen der Euro gesetzliches Zahlungsmittel ist, wurde das in den Maastricht-Verträgen festgeschriebene Prinzip des Haftungsausschlusses zwischen Union und Mitgliedstaaten aufgeweicht. Im Gegenzug mussten bestimmte Mitgliedstaaten den neu geschaffenen europäischen Institutionen direkte Eingriffsrechte in ihre Haushaltspolitik gewähren (Klose 2018). Hierzu wurden im Verlauf folgende Institutionen auf Unionsebene geschaffen, die hier nach zunehmender Eingriffsintensität geordnet sind. • Europäische Aufsichtsbehörden für das Finanzwesen (tätig seit Beginn 2011): Hierzu zählen die European Banking Authority (EBA), die European Insurance and Occupational Pensions Authority (EIOPA) und die European Security Markets Authority (ESMA). Diese Behörden dienen der Aufsicht in den entsprechenden Marktsegmenten, wobei diese Aufsicht in Zusammenarbeit mit nationalen Behörden ausgeübt wird (Verordnung [EU] Nr. 1093/2010). • CAC (collective action) Klauseln, mit denen sämtliche Anleihen von EU-Staaten seit Anfang 2013 zu versehen sind. Diese dienen dazu, der Gläubigerhaftung Geltung zu verschaffen und Blockaden durch Einzelinvestoren zu verhindern (Art. 12, Abs. 3 ESM-Vertrag). Das Prinzip der Gläubigerhaftung hat sich jedoch in Ländern wie Italien, in denen sich Banken über Anleihen bei privaten Sparern refinanzieren, als politisch schwer durchsetzbar erwiesen (Neue Züricher Zeitung 2015). Deshalb wird inzwischen eine kontrollierte, aber graduelle Einführung in Phasen positiver Märkte empfohlen (Bénassy-Quéré et al. 2018). Daneben bleiben die Einführung einer Risikoberücksichtigung von Staatsanleihen sowie die Einführung einer staatlichen Insolvenzordnung auf der Tagesordnung der Reformdebatte (Bénassy-Quéré et al. 2018; SVR Sondergutachten 2015). • Die Errichtung eines sogenannten „Rettungsschirms“ EFSF (European Finance Stabilisation Facility) im Jahr 2010, um Liquiditätsprobleme einzelner Euroraum-Staaten zu überbrücken und die strukturelle Solvabilität wiederherzu stellen. Dessen Nachfolgeorganisation, der ESM (European Stability Mechanism) lässt sich wie folgt darstellen:
6 Legitimierung der europäischen Integration …
111
Europäischer Stabilitätsmechanismus ESM
Der ESM ist mit eigener Rechtspersönlichkeit als intergouvernementale Einrichtung ausgestattet und verfügt über ein Volumen von 700 Mrd. €, von dem 80 Mrd. € aus eingezahltem Kapital, der Rest aus Garantien der Mitgliedstaaten besteht. Er arbeitet mit bedingten Zusagen auf Basis von makroökonomischen Anpassungsprogrammen (Konditionalität), denen sich die Staaten, die „Rettungsgelder“ in Anspruch nehmen, zu unterwerfen haben (Klose 2018). Der Prozess der Aktivierung verläuft wie folgt:
Prozess zur Akvierung des ESM
Akvierung ESM (Inanspruchnahme der Miel)
Ersuchen um Akvierung (Mitgliedstaat)
Unterzeichnung der Vereinbarung (alle Mitgliedstaaten)
Mieilung Des Ersuchens
Prüfung
Beschluss
Schuldentragfähigkeit
Über die Gewährung
Bewertung Finanzierungsbedarf
Vorschlag
Aushandlung Anpassungsprogramm
zur Billigung des Anpassungsprogramms
(Quelle: In Anlehnung an Bundesfinanzministerium 2012) Anders formuliert, ermöglicht der ESM die Wiederherstellung der Trennung von Fiskal- und Geldpolitik, nachdem die EZB durch Anleihekäufe im Jahr 2010 zeitweise die Stabilisierung von Griechenland übernommen hatte. Anfang 2019 wurde eine Einigung über eine stärkere Beteiligung des ESM bei der Einräumung
112
M. Clauss
von Kreditlinien sowie bei der Ausgestaltung von Anpassungsprogrammen erzielt. Ein Umbau zu einer EU-Finanzierungsagentur (analog dem IWF) scheint dagegen eher langfristig auf der politischen Agenda zu bleiben (Strauch 2019). Die Arbeitsweise des ESM, vor allem die Konditionalität der Anpassungsprogramme, hat als Eingriff in die Souveränität der betroffenen Länder vielfach Kritik erfahren, was den Legitimierungsbedarf unterstreicht. • die Einrichtung einer gemeinsamen Bankenaufsicht für den Euroraum (SSM) im Jahre 2012, die im November 2014 in Kraft trat. • Mit dem Beschluss des europäischen Rates vom 29.06.2012, eine gemeinsame Aufsicht für die Banken im Euroraum zu etablieren, soll eine adäquate Kapitalausstattung sämtlicher Banken nach einheitlichen Regeln sichergestellt und damit eine größere Unabhängigkeit der Banken von ihren Sitzländern erreicht werden (EU-Rat 2013; Clauss 2014). Darüber hinaus wurde ab 2016 eine Bankenabwicklungsbehörde (Single Resolution Mechanism SRM), refinanziert durch einen Abwicklungsfonds (Single Resolution Fund SRF), errichtet. Ziel dieser Regelungen ist es, durch eine erhöhte Kapitalausstattung die Fähigkeit der Banken zur Finanzierung der Volkswirtschaften des Euroraums und damit die Bedingungen für stetiges Wirtschaftswachstum zu verbessern (Clauss 2014).
6.3.2 Die aktuelle Debatte über Reformen wirtschaftspolitischer Institutionen Die aktuelle politische und ökonomische Debatte konzentriert sich 1) auf Einzelmaßnahmen mit Blick auf die makroökonomische Stabilisierung und 2) auf grundlegende institutionelle Reformen, mit denen die Effizienz der Fiskalpolitik verbessert werden soll. • Zu 1) zählen die Einführung eines Stabilisierungsfonds, um außerordentliche konjunkturelle Schocks, die einzelne Staaten betreffen, auffangen zu können, sowie die Einrichtung eines gemeinsamen Systems zur Arbeitslosenversicherung. Die Stabilisierungsfazilität war zwar grundsätzlich bereits im Juni 2018 beschlussreif, ist jedoch aufgrund des Widerstands der „Geberländer“ Ende 2018 bis auf Weiteres verschoben worden. Das System der Arbeitslosenversicherung hat im Rahmen der ökonomischen und politischen Debatte ein „Reifestadium“ erreicht (Bénassy-Quéré et al. 2018; Fuest 2019). • 2) Zu den derzeit im Gesetzgebungsprozess befindlichen institutionellen Reformen zählen vor allem die Rollenverteilung zwischen Kommission und Finanzministerrat (Ecofin) sowie die Erweiterung der ESM-Kompetenzen. Dies umfasst vor allem die Regelungen zur Überwachung nationaler Haushalte (Clauss und Remhof 2018).
6 Legitimierung der europäischen Integration …
113
Daneben werden seit dem Beginn von Macrons Präsidentschaft zunehmend Bestrebungen zur Entwicklung der Staatsordnung im Bereich Außen- und Verteidigungspolitik (EUV Art. 21, 24, 27 f., 31, 34, 40, 42 ff.) sowie der Staatsordnung im Bereich der Migrationspolitik (AEUV Art. 77 ff.) verfolgt. War mit dem EUV das auswärtige Handeln der EU in seinen Grundsätzen, Zuständigkeiten, personeller Vertretung definiert worden (EUV Art. 21 ff.), so wurde mit der Gründung der sogenannten „ständigen strukturieren Zusammenarbeit“ (englisch PESCO) Ende 2017 auch für den militärischen Bereich ein Meilenstein der Kooperation erreicht. Hauptinhalte der Vereinbarung sind der Aufbau von Verteidigungskapazitäten und die militärische Einsatzplanung (BmVg; Göler und Zech 2017, S. 355 f.). Ab 2021 soll ein EU-Verteidigungsfonds in Höhe von 13 Mrd. € zur Finanzierung von verteidigungsbezogener Forschung wie Bekämpfung von Cyberkriminalität und bei der Kofinanzierung nationaler Projekte bereitstehen (EU-Kommission 2019). Gleichzeitig ist der Aufbau gemeinsamer militärischer Einheiten auf zwischenstaatlicher Ebene im Gange. Das Gleiche gilt für den Bereich der Migrations- und Asylpolitik (AEUV, Art. 77 ff.), in dem die Beschlüsse des Europäischen Rates vom 29. Juni 2018 grundlegende Gemeinschaftspolitiken festlegten. Hierzu sei beispielhaft die Verstärkung der europäischen Grenz- und Küstenwache (Frontex) von derzeit 1500 auf 10.000 Beamte im Jahr 2027 genannt. Mit der Übernahme von Ausgaben aus dem Aufbau der Grenzsicherung würde sich der Anteil dieser Politik an den Gesamtausgaben – derzeit 2,5 % – vervielfachen.
6.4 Bewertung der aktuellen Kompetenzteilung aus ökonomischer und politischer Sicht Alles in allem zeigt sich in der Entwicklung des rechtlichen und wirtschaftlichen Ordnungsrahmens, dass die Europäische Union im letzten Jahrzehnt, also seit Inkrafttreten der Verträge von Lissabon (EUV, AEUV), ihre Kompetenzen nicht nur in der Wirtschaftsordnung, sondern auch in der Staatsordnung erheblich ausgeweitet hat. Wie jedoch eine optimale Aufteilung von Kompetenzen zwischen nationaler und europäischer Ebene aussehen könnte, darüber ist der Diskurs erst in den Anfängen. Als Leitprinzipien gelten dabei Subsidiarität und Bürgernähe in der Versorgung mit öffentlichen Gütern (Art. 5 EUV; Art. 3 Abs. 2 EUV; Herzog 2016; Matthes et al. 2016; Weiss 2017). Die Vorteilhaftigkeit einer bestimmten staatlichen Ebene, europäisch oder national, wird anhand einzelner Indikatoren für verschiedene Gruppen von staatstragenden öffentlichen „Gütern“ untersucht, und zwar (Weiss 2017, S. 12). 1. Agrarpolitik (Nahrungsmittelproduktion und Landschaftskonservierung), 2. Kulturvermittlung in Form von sekundärer Erziehung, 3. transnationaler Schienenverkehr, 4. Unternehmensbesteuerung,
114
M. Clauss
5. Arbeitslosenversicherung in ihrer konjunkturellen Stabilisierungsfunktion, 6. Migration und Asylpolitik und 7. äußere Sicherheit.
Nationale oder europäische Politikverantwortung – Vorteilhaftigkeit der Staatsebenen in verschiedenen Politikfeldern entsprechend Scoring
Das Vorgehen, nach denen einzelne Politikbereiche bzw. bestimmte staatlich bereitgestellte öffentliche Güter danach bewertet werden, ob sie besser auf nationaler oder auf europäischer Ebene bereitzustellen sind, lässt sich wie folgt darstellen: 1. Zunächst sind relevante Bewertungskriterien zu identifizieren. 2. Danach sind diese Kriterien für jeden Politikbereich nach einem einheitlichen Maßstab zu bewerten. 3. Anschließend sind die Kriterien gegeneinander abzuwägen. 4. Daraus wird schließlich ein Gesamt „score“ für jeden Politikbereich ermittelt. Zu 1) Folgende Kriterien lassen sich identifizieren: • Nebenwirkungen Nebenwirkungen stehen im Zusammenhang mit der Eigenschaft „fehlende Ausschlussmöglichkeit“ bei öffentlichen Gütern (Samuelson 1954). Daraus ergeben sich externe Effekte, die zu Trittbrettfahrertum führen. Um das Kriterium „Nebenwirkungen“ zu operationalisieren, müsste das Gut zunächst als öffentliches Gut klassifiziert werden, z. B. bei Verteidigung, Umweltschutz. Ist dies der Fall, müssten der Anteil jedes Landes an den Gesamtausgaben, die von den EU-Ländern für dieses Gut getätigt werden, sowie der potenzielle Anteil des Landes am Gesamtnutzen evaluiert werden. Sollte eine Versorgung mit dem jeweiligen öffentlichen Gut auf europäischer Ebene zu einer engeren Korrelation von Kosten und Nutzen für die Bevölkerungen der Mitgliedstaaten führen und damit das Trittbrettfahrerproblem reduzieren, wäre eine Wahrnehmung des Politikfeldes auf europäischer Ebene vorzuziehen (und umgekehrt). • Skaleneffekte Skaleneffekte (Losgrößeneffekte) bezeichnen die Tatsache, dass mit steigender Menge eines Gutes die Bereitstellungskosten pro Einheit bzw. pro Kopf der Bevölkerung abnehmen, ein Effekt der sogenannten Fixkostendegression, der besonders auch öffentliche Güter kennzeichnet. Mit dem zu erwartenden Ausmaß von Skaleneffekten steigt letztlich der Politikvorteil der europäischen Ebene. • Verschiedenartigkeit der Präferenzen Die Unterschiede zwischen den Bürgern verschiedener Mitgliedstaaten in Bezug auf die erstrebenswerten Eigenschaften sowie die Intensität einer
6 Legitimierung der europäischen Integration …
•
•
115
Politik (z. B. das Ausmaß von Absicherung und Umverteilung in der Sozialpolitik) sind ausschlaggebend für die Vorteilhaftigkeit einer Ebene. Im Falle eines fehlenden Konsenses zwischen den Bürgern verschiedener Mitgliedstaaten sollte das Politikfeld auf nationaler Ebene betreut werden, da nur so eine genaue Abdeckung der jeweiligen Präferenzen erreicht wird. Umgekehrt wäre bei ähnlichen Präferenzen eine Politikwahrnehmung auf europäischer Ebene ohne Wohlfahrtseinbußen erreichbar. Binnenmarkt-Kompatibilität Dieses Kriterium impliziert, dass der Binnenmarkt für sich einen unverzichtbaren Bestandteil europäischer Integration darstellt. Demgemäß sollte die Kompetenzzuweisung zur europäischen bzw. zur nationalen Ebene den Prinzipien des Binnenmarktes, also der Garantie gleicher Regeln und grundlegender Freiheiten, entsprechen. Soweit die Ausübung von Kompetenzen auf nationaler Ebene diese Prinzipien beeinträchtigt, wäre dies ein Argument für die Ausübung auf europäischer Ebene. Politikwettbewerb Gemäß Vertretern des Fiskalföderalismus wie Oates und Weingast kann eine Politikausübung auf dezentraler Ebene die Chance zur Politikinnovation bieten. Denn sie eröffnet für unterschiedliche Rechtsräume die Möglichkeit des Wettbewerbs um „Best Practice“-Lösungen. Auf der anderen Seite besteht die Gefahr, dass es zu einem Überbietungswettbewerb kommt, der letztlich zu suboptimalen Lösungen führt. Beispiel ist der internationale Steuerwettbewerb, der aufgrund der Migration mobiler Produktionsfaktoren zu einer Erosion des Steueraufkommens in einzelnen Staaten geführt hat, sodass dort keine befriedigende Versorgung mit öffentlichen Gütern erreicht werden kann. Je stärker also die positiven Wettbewerbseffekte in einem Politikfeld überwiegen, umso vorteilhafter ist eine Wahrnehmung auf nationaler Ebene; je größer die Gefahr des Überbietungswettbewerbs (z. B. Kapitalsteuern) desto vorteilhafter ist eine europäische Politikausübung (Weiss 2017).
Zu 2) Für jedes Kriterium und jeden Politikbereich werden Scores auf einer Skala von 1 bis 5 vergeben. Ein Score von 1 bedeutet Vorteil für Politik auf nationaler Ebene, von 3 eine Neutralität und von 5 einen Vorteil für Politik auf europäischer Ebene (Weiss 2017). Zu 3) Die Kriterien sind für die einzelnen Politikbereiche ggf. unterschiedlich zu gewichten, ggf. ist für jedes Kriterium ein Teilscore für einzelne Aspekte zu bilden (Weiss 2017). Zu 4) Der Gesamtscore eines Politikbereichs wird durch Bildung eines Durchschnitts aus den jeweiligen Einzelscores für die fünf genannten Kriterien erreicht (Weiss 2017).
116
M. Clauss
Die Indikatoren können an sich für oder gegen die Erstellung auf einer Ebene sprechen. Sie können sich gegenseitig verstärken oder aufheben. Beispielsweise können hohe Skaleneffekte bei der Erstellung durch Unterschiede in nationalen Präferenzen ausgeglichen werden. Insofern sind die genannten fünf Kriterien für jede der aufgeführten Gütergruppen zu einer Gesamtwertung (Score) zusammenzufassen. Somit ergibt sich eine Gesamtwertung für jede einzelne Gütergruppe, je nachdem, ob sie auf jeden Fall bzw. eher auf der nationalen oder der europäischen Ebene zu erstellen ist – oder die Erstellung ebenenneutral ist (Weiss 2017, S. 21). Im Ergebnis lassen sich daraus folgende Schlüsse ziehen: • Die Gütergruppen „äußere Sicherheit, Migration, Arbeitslosenversicherung und Unternehmensbesteuerung“ (Gruppen 4 bis 7) werden der europäischen Ebene zugeordnet, • die Gütergruppen „Agrar- und Kulturpolitik“ (Gruppen 1 und 2) werden der nationalen Ebene und • die Gütergruppe „Schienentransport“ wird als indifferent betrachtet (Weiss 2017, S. 12). Das würde bedeuten, dass nach dem Prinzip der Subsidiarität im Vergleich zum Status quo ein Kompetenztausch stattfinden müsste: Die EU müsste die Kompetenz für Agrarpolitik abgeben. Das Subsidiaritätsprinzip würde sich hier in der Heterogenität von Präferenzen manifestieren. Umgekehrt würde die EU die äußere Sicherheit, die Migrationspolitik, die Unternehmensbesteuerung und eine stabilisierende Arbeitslosenversicherung effizienter wahrnehmen als Nationalstaaten (Weiss 2017, S. 58, 83, 101, 187). Die Unionszuständigkeit ließe sich aus Skaleneffekten, Nebenwirkungen und Binnenmarktkompatibilität ableiten.
6.5 Politische Legitimierung von Politikfeldern – Formen und Stufen der Legitimierung „[…] eine vitale transnationale Demokratie setzt voraus, dass sich die EU-Bürger mit dem politischen System identifizieren und europäische Politik demokratisch legitimieren – etwa durch den Wahlakt zum Europäischen Parlament, vor allem aber in politischen Debatten zu europäischer Politik“ (Weidenfeld 2013). Die Legitimationsbasis der Europäischen Union hat sich im Verlauf ihrer Entwicklung geändert, wobei sich drei Phasen unterscheiden lassen: Waren es in einer ersten Phase gewählte nationale Entscheidungsträger, vor allem Regierungschefs und Außenminister, die die europäische Integration trugen (Haller 2009; Weidenfeld 2013), begann in einer zweiten Phase der Diskurs unter der Öffentlichkeit nationaler Bevölkerungen (Clauss und Remhof 2018; Weidenfeld 2013), um in der dritten Phase vom Diskurs gewählter Vertreter auf europäischer und nationaler Ebene überlagert zu werden (King 2019). Diese Phasen werden im Folgenden näher beleuchtet.
6 Legitimierung der europäischen Integration …
117
6.5.1 Legitimierung durch gewählte nationale Entscheidungsträger In der ersten Phase, etwa von der Gründung der Montanunion bis zur Vollendung des europäischen Binnenmarkts (1952 bis 1986), war der Prozess europäischer Integration, d. h. die Machtübertragung auf europäische Entscheidungsträger, geprägt von den politischen Entscheidungen nationaler, demokratisch gewählter Entscheidungsträger. Hierzu gehörten zunächst vor allem die Fachminister, besonders die Außenminister, die ihren Regierungschefs und nationalen Parlamenten verantwortlich blieben (Weidenfeld 2013; Haller 2009). Die Machtausübung erfolgte im Wesentlichen durch eine technokratisch orientierte Kommission (Russack 2019a). Parlamentarische Mitwirkung (nationale Parlamente) und Volksentscheidungen spielten nur im Zusammenhang mit Beitrittsentscheidungen (Dänemark, Irland, Großbritannien ex post) eine Rolle (Weidenfeld 2013, S. 174). Einzig in der Judikative gibt es mit dem Europäischen Gerichtshof von Beginn an einen genuin europäischen Legitimationsgeber. Dessen Besetzung wiederum obliegt aber nationalen Regierungen (Weidenfeld 2013, S. 143).
6.5.2 Legitimierung durch öffentlichen Diskurs auf nationaler und europäischer Ebene Ein öffentlicher Diskurs über europäische Fragen hat sich erst mit dem sichtbaren Übergang politischer Kompetenzen auf die europäische Ebene im Rahmen der Währungsunion entwickelt. Begonnen hatte die Debatte in Großbritannien und Dänemark im Zusammenhang mit dem Verzicht auf Teilnahme an der Währungsunion („Opt-out“) Anfang der 1990er-Jahre (Protokoll zum Vertrag über die EU 1992). Im Euroraum selbst begann die politische Debatte Anfang der 1990er-Jahre im Zusammenhang mit der Einführung des Euro in den sogenannten Gläubigerländern (ein Vorläufer hierzu war der eurokritische Brief von 150 deutschen Ökonomen im Jahr 1992). Mit den sogenannten Eurokrisen und der im Gefolge vorgenommenen Austeritätspolitik gewann die Debatte um die europäische Wirtschaftspolitik aber auch in den Schuldnerländern an Intensität (Weidenfeld 2013, S. 43). Eine positive öffentliche Debatte über eine Aufteilung politischer Kompetenzen zwischen nationaler und europäischer Ebene ist dagegen erst in Ansätzen zu beobachten. In diesem Zusammenhang ist die Sprachbarriere als Hemmnis einer solchen Debatte über europäische Fragen zu sehen, sowohl was die Verbreitung als auch was die Deutung von Informationen betrifft (Clauss und Remhof 2018). In Verbindung mit den Sprachgrenzen sind auch kulturelle und historische Unterschiede zu nennen, die sich gerade in der Deutung von Politiken wie der Geldpolitik niederschlagen (Macron 2017). Zusätzlich wird ein länderübergreifender (transnationaler) Diskurs durch die Tatsache erschwert, dass europäisch ausgerichtete Medien, seien es Printmedien, seien es Funk und Fernsehen, seien es internetbasierte Beiträge, kaum verbreitet sind. Ausnahmen sind
118
M. Clauss
der Internetauftritt der US-Wochenzeitschrift Politico, die britische Financial Times oder die Öffentlichkeitsarbeit der EU-Kommission. Auf der anderen Seite zeugt die geringe Einschaltquote des öffentlich geförderten deutsch-französischen Kulturkanals „Arte“ (von unter 1 % in Deutschland, 2,2 % in Frankreich) von der Schwierigkeit, einen für unterschiedliche Bevölkerungen attraktiven Programmzuschnitt zu erreichen. Dies erschwert die Legitimierung von politischen Entscheidungen auf gesamteuropäischer Ebene, seien sie auf die Gestaltung der Wirtschaftsordnung gerichtet oder auf die Durchführung von Politiken. Ersatzweise wird deshalb nach wie vor die öffentliche Debatte (auch) über europäische Fragen vorwiegend national geführt, was die Legitimierungsfrage eher akzentuieren als behandeln dürfte. Der (noch) vorwiegend nationale Charakter politischer Debatten zeigt sich im Prinzip auch in der relativen Bekanntheit von nationalen und europäischen Politikern. So bleiben europäische Entscheidungsträger wie EU-Kommissionspräsident Juncker oder EZB-Präsident Draghi in der Befragung von Bevölkerungen verschiedener EUStaaten weit hinter der Bekanntheit nationaler Politiker zurück (De Vries und Hoffmann 2016). Gleichzeitig werden sie jedoch in ihrer Kapazität als europäisch wahrgenommen. Diese Tendenz könnte sich mit den Ernennungen für die künftige EU-Kommissions- und EZB-Präsidentschaft verstärken (Birnbaum 2019). Eine ähnliche Tendenz hin zu einer transnationalen Debatte dürfte sich im Hinblick auf europäische Themen abzeichnen. Zwar ist die Debatte über europäische Themen in den Nationalstaaten immer noch vorwiegend von nationalen Einstellungen und Interessen geprägt; jedoch wird eine europäische Interessenlage allmählich deutlich. Beispiele für Letztgenannte finden sich in der Handelspolitik, in der Wettbewerbspolitik im Fahrzeugsektor und im Bankensektor (Die Grünen 2017). Besonders brisant zeigte sich das Vordringen der europäischen Debatte in der Migrationsfrage, in der es auf der Tagung des Europäischen Rates von Juni 2018 zu einer Kehrtwende der bisher eher migrationsfreundlichen EU-Politik kam. Gleichzeitig wurden mit der Verstärkung der Grenzschutz-Truppen und der Einrichtung von Asyllagern wichtige Kompetenzen auf die EU übertragen (Becker 2018). Somit ist davon auszugehen, dass die Definition europäischer Fragen zwar auch künftig eher den Entscheidungen nationaler Politiker (und Bevölkerungen) als dem Druck von Seite der Medien folgen dürfte. Ein wichtiger Schritt hin zu einer Europäisierung wäre jedoch der wechselseitige Bezug von nationaler und europäischer Ebene, wie es gerade in der Migrationsfrage zu beobachten war, in der sich transnationale Parteienkonstellationen bildeten (Wesel 2018). Eine von nationalen Politikern initiierte öffentliche Diskussion, wie sie vor allem in Frankreich mit den Bürgerdialogen im Vorfeld der Europawahl angestoßen wurde, könnte den Beginn einer verstärkt europäisch geführten Debatte darstellen (die bisherigen Bemühungen von Präsident Macron zeigten aber bisher keine politische Resonanz). So dürften auch die Personalentscheidungen des Europäischen Rates vom 02.07.2019 als Versuch zu interpretieren sein, die Prominenz europäischer Themen mit (auf nationaler und internationaler Ebene) prominenten Personen zu „unterfüttern“ (Birn-
6 Legitimierung der europäischen Integration …
119
baum 2019). Anders formuliert scheint es aktuell eher darum zu gehen, Europa stärker in die Schlagzeilen zu bringen, als auf die Herausbildung einer europäischen Medienlandschaft zu setzen. Aber auch hier zeichnen sich Fortschritte ab, wie sich in der Verbreitung englischsprachiger Medien im Printbereich und im Internet zeigt (King 2019). Insofern scheint zumindest unter Betroffenen eine Debatte mit transnationalem Publikum nicht mehr unerreichbar. Besonders die elektronischen und die sozialen Medien deuten auf eine wachsende Prominenz europäischer Politik, wie bspw. die Verdreifachung der Follower der EU-Kommission binnen Jahresfrist zeigt. Mit über 300.000 Followern auf Instagram hat die Kommission etwa ein Drittel der Leserschaft der deutschen Bundesregierung.
6.5.3 Legitimation durch die Arbeit des gewählten Europäischen Parlaments – die zunehmende Wahrnehmung der Europapolitik in den Bevölkerungen Selbst europapolitische Beobachter zeigten sich von der deutlich gestiegenen Wahlbeteiligung bei den jüngsten Europawahlen überrascht (Russack 2019b). Einige Beobachter sehen darin einen Ausdruck des Wunschs der Bürger, dass durch die EU politische Prioritäten für Friedenserhaltung und Arbeitsplatzschaffung sowie gegen Klimawandel umgesetzt werden (Demertzis et al. 2019). Insgesamt werden die Wahlbeteiligung wie auch die Wahlergebnisse als deutliches Signal für die gestiegene Bedeutung des Europäischen Parlaments für die praktische Politik interpretiert. Politische Signalwirkungen der Europawahl vom 26.05.2019
1. Herausragendste Beobachtung war ein deutlicher Anstieg der Wahlbeteiligung in fast allen Ländern der EU. Ebenso bezeichnend ist die Tatsache, dass der Anstieg unter den Mitgliedstaaten weitgehend synchron erfolgte – mit Italien als bedeutender Ausnahme. 2. Gleichzeitig erhielten die euroskeptischen Parteien zwar einen deutlichen Zulauf und werden im neuen Parlament mit etwa 170 Abgeordneten vertreten sein – nach Stimmanteil wären es sogar 200 (Youngs 2019). Dennoch blieb dieser unter den Erwartungen. Umgekehrt verfügen die integrationsfreundlichen Parteien (erweitertes Zentrum) über mehr als 60 % der Sitze (Youngs 2019). 3. Innerhalb des Zentrums kam es zu einer Verschiebung von der bisher tonangebenden Zweierkoalition aus Konservativen und Sozialdemokraten zu Liberalen und vor allem Grünen. 4. Diese Entwicklungen entsprechen weitgehend den Trends auf nationaler Ebene, zumindest in den größeren EU-Ländern. Ausnahmen sind vor allem Polen und Italien, wo europakritische Parteien nun in der Mehrheit sind (Europäisches Parlament 2019).
120
M. Clauss
100
90
80
in Prozent der Wahlberechtigten
70
60
50
40
30
20
10
0
1949
1953
1957
1961
1965
1969
1972
1976
1980
1983
Europawahl in DE
1987
1990
1994
1998
2002
2005
2009
2013
2017
Bundestag DE
Abb. 6.1 Wahlbeteiligung. (Datenquelle: Statistisches Bundesamt, Bundeswahlleiter 2019)
Diese Beobachtungen deuten darauf hin, dass die Europawahlen gegenüber bisherigen Wahlen an Bedeutung gewonnen haben. Politische Beobachter sprachen von einer Aufwertung der Europawahl von zweitrangigen Wahlen zu „1,5-rangigen Wahlen“ (Gros 2019).
Dies zeigte sich in der folgenden Diskussion um die Besetzung der europäischen Kommission, die sowohl unter den Parteien als auch zwischen den Regierungen im Europäischen Rat teils kontrovers geführt worden war (z. B. Birnbaum 2019). Allerdings kann das Wahlverhalten bei der Europawahl auch als Symptom längerfristiger Entwicklungen gesehen werden, wie in Abb. 6.1 zur Entwicklung der Wahlbeteiligung zum Ausdruck kommt. Danach war bereits 2014 der vorhergehende langdauernde Rückgang der Wahlbeteiligung (seit 1989) zum Stillstand gekommen. Mit den jüngsten Wahlen zeigte sich erstmals seit 30 Jahren ein weitgehend synchroner Anstieg der Wahlbeteiligung (siehe Abb. 6.1). Diese Entwicklung bestätigen sowohl die politischen Entwicklungen seit dem Brexit-Votum als auch die Umfragetrends, die insgesamt auf eine positivere Bewertung der EU schließen lassen. Sie zeigt sich bei politischen Entscheidungsträgern, in der Bewertung der Arbeit des Europäischen Parlaments und bei den Bevölkerungen der EU Länder gleichermaßen:
6 Legitimierung der europäischen Integration …
121
• Bereits mit den Lissabon-Verträgen (EUV, AEUV) wird dem Parlament bei der Gesetzgebung ein zeitlicher Vorlauf vor dem Ministerrat eingeräumt. Dies hat zu einer Intensivierung der politischen Debatte im Parlament geführt. Damit erfolgt ein weiterer Schritt in Richtung Gewaltenteilung zwischen Exekutive (Kommission und Europäischer Rat) und Legislative im Sinne Montesquieus, dargelegt 1748 im „esprit des lois“. Dies hat sich auch in der öffentlichen Berichterstattung über öffentlich diskutierte Gesetze, wie bei der Urheberrechtsreform oder bei Pflanzenschutzmitteln, niedergeschlagen. • Das offene Bekenntnis von Präsident Macron zu Europa im Präsidentschaftswahlkampf 2017, seine Rede vor der Sorbonne am 26. September 2017, zwei Tage nach der Bundestagswahl, und sein Brief an die Bevölkerungen der EU im März 2019 (Macron 2019) haben auf die regierenden nationalen Eliten durchgeschlagen. Dies wurde bei dem „Flüchtlingsgipfel“ der EU Ende Juni 2018 deutlich, als Bundeskanzlerin Merkel eine verstärkte europäische Kompetenz für Migration unterstützte (Macron 2017; Europäischer Rat 2018). • Die Unterstützung der Bevölkerungen für die EU hat in den meisten Ländern seit 2016 deutlich zugenommen. Gemäß Eurobarometer, der halbjährlich erhobenen Meinungsumfrage der EU-Kommission in Eurobarometer (Eurobarometer 2018), zeigten sich Mitte 2018 etwa 56 % der EU-Bürger der EU sehr verbunden im Vergleich zu 46 % fünf Jahre vorher. 68 % der Bevölkerungen glauben, dass ihr Land von der EU-Mitgliedschaft profitiert hat, was dem höchsten Wert seit 1984 entspricht. Besonders hoch ist die Unterstützung der EU mit 73 % bei unter 30-Jährigen. • Die Vergemeinschaftung von Politikbereichen wie Außen- und Verteidigungspolitik, Migrationspolitik und Energiepolitik erfährt wachsenden Zuspruch unter den Bevölkerungen (auf 65 % bis 76 %, je nach Bereich). Die in der Wahlbeteiligung erkennbare verstärkte Wahrnehmung der EU in der Öffentlichkeit lässt sich besonders auch in der Verbindung zwischen Bevölkerungen, Europäischem Parlament und politischen Entscheidungsträgern erkennen. Die aktuellen Debatten können als Anzeichen erhöhten Legitimationsbedarfs gewertet werden. • Die zunehmende Wahlabsicht sowie die hohe Unterstützung für das EU-Parlament wurden in der April-Umfrage 2019 von Eurobarometer deutlich. Demnach übertrifft das Vertrauen in das EU-Parlament sogar dasjenige in nationale Parlamente (Eurobarometer 2019). • Über eine engere Verbindung zwischen Parlament und Kommission wird nicht erst seit Macrons Wahl intensiv debattiert. Eine solche Verbindung betrifft letztlich den Kern der Legitimierung europäischer Politik. Als mögliche Wege dazu sind informelle Lösungen wie das „Spitzenkandidaten“-System oder formelle Lösungen wie die Änderung des Wahlrechts in der Diskussion (Stierle 2018; Kelemen 2019). In diesem Zusammenhang scheint die Ablehnung transnationaler Listen, ein Vorschlag Macrons, durch die Europäische Volkspartei EVP nur temporärer Natur zu sein (Arte 2019),
122
M. Clauss 80
in Prozent der Wahlberechtigten
70
60
50
40
30
20
10
0
EU
DE
FR
NL
IT
SP
1994 1999 2004 2009 2014 2019
Abb. 6.2 Wahlbeteiligung EP Wahlen. (Datenquelle: Europäisches Parlament)
zumal sie sich im Rahmen des vereinfachten Gesetzgebungsverfahrens gemäß AEUV, Art. 289 verwirklichen ließe. • Die Besetzung der Spitzen von EU-Kommission und Europäischem Rat mit politischen Schwergewichten wird zwar von Vertretern des Europaparlaments als Verstoß gegen das Spitzenkandidaten-Prinzip gewertet (Blume 2019). Es zeigt aber die prominente Bedeutung, die der Europafrage von Protagonisten der Integration beigemessen wird. • Ein zunehmender Austausch zwischen den EU-Bevölkerungen in Urlaub und Arbeitsalltag hat sowohl in der öffentlichen Debatte als auch in der Arbeit der Kommission an Wichtigkeit gewonnen. Hierzu haben zum einen die Vorstöße von Macron zum Austausch von Jugendlichen und Arbeitsaufenthalten von EU-Bürgern in anderen EU-Ländern beigetragen, zum anderen konkrete Schritte der EU-Kommission wie erhöhte Ausgaben, um Jugendlichen Reisen innerhalb Europas zu finanzieren (Macron 2017; Juncker 2017). • Die Öffentlichkeitsarbeit der EU-Kommission wurde deutlich verstärkt. Sowohl in nationalen und europäischen Printmedien als auch in elektronischen Medien und sozialen Netzwerken wie Twitter, Instagram und Facebook hat die Präsenz der Kommission in den letzten drei Jahren, wie bereits im vorhergehenden Abschnitt erwähnt, deutlich zugenommen (Abb. 6.2).
6 Legitimierung der europäischen Integration …
123
Wahlbeteiligung und Wahlergebnisse deuten auf eine zunehmende Wahrnehmung des Parlaments durch die Bevölkerungen. Damit lässt sich auch das Potenzial für einen europäischen Diskurs und eine Stärkung europäischer Identität erkennen. Beides ist als Voraussetzung für eine Legitimierung weiterer Integration und damit die Verfolgung einer nachhaltigen, d. h. einer gleichermaßen unter verschiedenen Bevölkerungen akzeptierten und ökonomisch effizienten, Politik zu sehen, mit der Europas Stellung zum Tragen kommt (King 2019).
6.6 Fazit – Legitimierung europäischer Institutionen als bleibende Herausforderung Die zunehmende Europäisierung wichtiger Politikbereiche hat inzwischen auch in der öffentlichen Debatte ihren Niederschlag gefunden. Die wieder zunehmende Popularität europäischer Institutionen und vor allem die steigende Wahlbeteiligung zu den Europawahlen deuten auf das wachsende Interesse der Bevölkerungen an Europa. Die Förderung transnationaler Debatten, z. B. durch eine Intensivierung des Kulturund Arbeitsaustauschs und Verwendung von gemeinsamer Sprache bleibt vorerst jedoch eine Herausforderung, der sich nationale wie europäische Politiker in zunehmendem Maße stellen.
Literatur Acemoglu, D., & Robinson, J. (2012). Why nations fail – The origins of power, prosperity and poverty. London: Profile Books. Acemoglu, D., & Robinson, J. (2019). The narrow corridor – States, societies and the fate of liberty. New York: Penguin Press. Arte. (2019). Beitrag zu transnationale Listen. D. Platsch. 13.02.2019. https://www.arte.tv/de/ videos/087181-208-A/europawahl-braucht-man-transnationale-listen/. Zugegriffen: 1. Aug. 2019. Becker, M. (2018). EU setzt bei Migration und Asyl auf Abschottung. Spiegel vom 30.06.2018. https://www.spiegel.de/politik/ausland/fluechtlinge-eu-setzt-bei-migration-und-asyl-auf-abschottung-a-1215874.html. Zugegriffen: 1. Aug. 2019. Bénassy-Quéré, A., Brunnermeier, M., Enderlein, H., Farhi, E., Fratzscher, M., Fuest, C., Gourinchas, P.-O., Martin, P., Pisani-Ferry, J., Rey, H., Schnabel, I., Verón, N., Weder di Mauro, B., & Zettelmeyer, J. (2018). Reconciling risk sharing with market discipline: A constructive approach to euro area reform. CEPR Policy Insight No. 91. London: CEPR. Birnbaum, R. (2019). Merkels Spitzenkandidatin – Der überraschende Aufstieg von Ursula von der Leyen. Tagesspiegel vom 02.07.2019. https://www.tagesspiegel.de/politik/merkelsspitzenkandidatin-der-ueberraschende-aufstieg-von-ursula-von-der-leyen/24517570.html. Zugegriffen: 1. Aug. 2019. Blume, G. (2019). Macron – vom Reformer zum Zerstörer. Spiegel vom23.06.2019. https://www. spiegel.de/politik/ausland/emmanuel-macron-vom-reformer-zum-zerstoerer-a-1273881.html. Zugegriffen: 1. Aug. 2019.
124
M. Clauss
Bundesfinanzministerium. (2012). Europäischer Stabilitätsmechanismus https:// www.bundesfinanzministerium.de/Content/DE/Standardartikel/Themen/Europa/ Stabilisierung_des_Euro/Finanzhilfemechanismen/EU_Stabilitaetsmechanismus_ESM/201205-21-europaeischer-stabilitaetsmechanismus-esm.html. Zugegriffen 1. Aug. 2019. Bundesvereinigung Nachhaltigkeit. (2019). Die globalen Ziele für nachhaltige Entwicklung, insbes. Ziel 16. https://nachhaltigkeit.bvng.org/die-globalen-ziele-fuer-nachhaltigeentwicklung/sdg-ziel-16-frieden-gerechtigkeit-und-starke-institutionen/. Zugegriffen: 4. Dez. 2019. Bundeswahlleiter. (2019). https://www.bundeswahlleiter.de/dam/jcr/0872e1f8-935a-45d6-a0f1a3352fb4bc69/ew_ergebnisse_gesamt.pdf. Clauss, M. (2014). The dynamics of European banking union: The process of its making and its role in future financial and economic integration. CesIfo Forum, 4, 68–76. Clauss, M., & Remhof, S. (2018). A euro area finance ministry – Recipe for improved governance? CesIfo Forum, 3, 36–43. De Vries, C., Hoffmann, I. (2016). Ein europäischer Finanzminister mit eigenem Budget. Gütersloh: Bertelsmann Demertzis, M., Sapir, A., & Wolff, G. (2019). A strategic agenda for the new EU leadership. Bruegel, memos, 13(06), 2019. Deutscher Bundestag. (1994). Enquetekommission, „Schutz des Menschen und der Umwelt – Bewertungskriterien und Perspektiven für umweltverträgliche Stoffkreisläufe in der Industriegesellschaft“. http://dip21.bundestag.de/dip21/btd/12/082/1208260.pdf. Die Grünen. (2017). https://gruene-kv-borken.de/event/abendmarkt/. Di Fabio, U. (2011). Grundgesetz, Einführung (S. XIII). Beck Texte. München: Beck. Döhring, K. (2004). Allgemeine Staatslehre: eine systematische Darstellung (3. Aufl.). Karlsruhe: Verlag C.F. Müller. EU-Kommission. (2005). Emissionshandelssystem (EU-EHS). https://ec.europa.eu/clima/policies/ ets_de. EU-Kommission. (2012). Binnenmarktakte II: Zwölf vorrangige Maßnahmen zur Förderung neuen Wachstums. https://ec.europa.eu/commission/presscorner/detail/de/IP_12_1054. Zugegriffen: 12. März. 2020 EU-Kommission. (2019). Factsheet: Der Europäische Verteidigungsfonds, Factsheet: Der Europäische Verteidigungsfonds, März 2019. https://ec.europa.eu/commission/news/europeandefence-fund-2019-mar-19_de. Zugegriffen: 12. März 2020. EU-Rat. (2013). VERORDNUNG (EU) Nr. 1024/2013 DES RATES vom 15. Oktober 2013zur Übertragung besonderer Aufgaben im Zusammenhang mit der Aufsicht über Kreditinstitute auf die Europäische Zentralban. Eurobarometer. (2018). Democracy on the move, Eurobarometer Survey 89.2 of the European Parliament, 11.–22.04.2018. https://www.europarl.europa.eu/at-your-service/files/be-heard/ eurobarometer/2018/eurobarometer-2018-democracy-on-the-move/report/de-one-year-before2019-eurobarometer-report.pdf. Eurobarometer. (2019). Wahlabsicht zum Europäischen Parlament. Eurobarometer Survey 89.4 of the European Parliament, 10.04.2018; veröffentlicht in Tagesspiegel, 12.05.2019. Europäische Zentralbank. (2014). DECISION OF THE EUROPEAN CENTRAL BANK of 14 April 2014 concerning the establishment of the Administrative Board of Review and its Operating Rules (ECB/2014/16). Europäischer Rat. (2018). https://www.consilium.europa.eu/de/meetings/europeancouncil/2018/06/. Europäisches Parlament. (2019). https://europarl.europa.eu/election-results-2019/de/wahlbeteiligung/.
6 Legitimierung der europäischen Integration …
125
EU-Kommission. (2005). Emissionshandelssystem (EU-EHS). https://ec.europa.eu/clima/policies/ ets_de. Fuest, C. (2019). Die Reform der Europäischen Währungsunion muss weitergehen. Ifo Schnelldienst, 10, 3–7. Göler, D., & Zech, L. (2017). Gemeinsame Sicherheits- und Verteidigungspolitik. In W. Weidenfeld & W. Wessels (Hrsg.), Jahrbuch der europäischen Integration (S. 353–358). Baden-Baden: Nomos. Gros, D. (2019). A parliament is born. CEPS policy contribution, 05(06), 2019. Haller, M. (2009). Die Europäische Union als Elitenprojekt. Berlin: Bundeszentrale für Politische Bildung BpB. Herzog, B. (2016). Eine Neujustierung der Governance der Europäischen Währungsunion. Berlin: Konrad Adenauer Stiftung Juncker, J.-C. (2017). State of the European Union. Address to the European Parliament, 13.09.2017. https://ec.europa.eu/commission/priorities/state-union-speeches_de. Zugegriffen: 01. Juli 2018. Kelemen, R. (2019). The European conservatives’ Spitzenkandidat dilemma. Politico vom 07.06.2019. https://www.politico.eu/article/manfred-weber-commission-president-europeanconservatives-spitzenkandidat-dilemma/. Zugegriffen: 15. Juli 2019. King, T. (2019). How the European parliament found its voice. CEPS policy insights vom 23.09.2019. https://www.politico.eu/article/how-the-european-parliament-found-its-voice/. Zugegriffen: 1. Okt. 2019. Kirchhof, P. (1993). BVerfG. Urteil vom 12. Oktober 1993, Az. 2 BvR 2134, 2159/92, BVerfGE 89, 155. Klose, J. (2018). Europäische Wirtschaftspolitik. Stuttgart: Schäffer Poeschel. Klumpp, W. (2013). Wirtschaftspolitik (3. Aufl.). München: Pearson. Macron, E. (2017). Initiative für Europa – Rede von Staatspräsident Macron an der Sorbonne. 26.09.2017. Deutsche Fassung: https://de.ambafrance.org/Initiative-fur-Europa-Die-Rede-vonStaatsprasident-Macron-im-Wortlaut. Zugegriffen: 1. Juli 2018. Macron, E. (2019). Der Moment des Neubeginns in Europa, Brief an die Bürgerinnen und Bürger Europas, veröffentlicht u. a. in Der Spiegel, 05.03.2019. https://www.spiegel.de/politik/ausland/ emmanuel-macron-brief-an-die-eu-buerger-im-wortlaut-a-1256271.html. Zugegriffen: 01. Juli 2019. Matthes, J., Iara, A., & Busch, B. (2016). Die Zukunft der Europäischen Währungsunion. IW Analysen 110. Köln: Cologne Institute for Economic Research. Neue Züricher Zeitung. (2015). Proteste von Kleinanlegern. NZZ vom 13.12.2015. http://www. nzz.ch/wirtschaft/wirtschaftspolitik/proteste-von-kleinanlegern-1.18662492. Zugegriffen: 1. Aug. 2019. Protokoll zum Vertrag über die EU (1992). Russack, S. (2019a). Institutional Rebalancing – the political commission in CEPS policy contributions in CEPS policy contribution, 05.03.2019. Zugegriffen: 1. Aug. 2019. Russack, S. (2019b). EU parliamentary democracy – How representative. CEPS policy contribution vom, 17(05), 2019. Samuelson. (1954). The economics of public goods. The Review of Economics and Statistics, 36(4), 387 f. Schmidt, M. (2008). Die Bedeutung der Effizienz für Nachhaltigkeit – Chancen und Grenzen. In S. Hartard, A. Schaffer, & J. Giegrich (Hrsg.), Ressourceneffizienz im Kontext der Nachhaltigkeitsdebatte (S. 31–46). Baden-Baden: Nomos. Sinn, H.-W., & Carstensen, K. (2010). Ein Krisenmechanismus für die Eurozone. Ifo Schnelldienst, 23.10.2010. München: Ifo-Institut für Wirtschaftsforschung.
126
M. Clauss
Stierle, S. (2018). Doch keine transnationalen Listen, in Euroactiv 07.02.2018. https://www.euractiv.de/section/eu-innenpolitik/news/doch-keine-transnationalen-wahllisten/. Strauch, R. (2019). „Die Neuausrichtung des Europäischen Stabilitätsmechanismus als Herzstück der Eurozonenreform“. Rede 25. Würzburger Europarechtstage, Würzburg, 20. Juli 2019. Sondergutachten, S. V. R. (2015). Konsequenzen aus der Griechenland-Krise für einen stabileren Euroraum (S. 2015). Wiesbaden: Sondergutachten. Weidenfeld, W. (2013). Die Europäische Union. München: UTB. Weiss, S. (2017). How Europe can deliver. Kompetenzstudie der Bertelsmann-Stiftung. Gütersloh: Bertelsmann-Stiftung. Wesel, B. (2018). EU-Migrationsgipfel: Chaostage in Brüssel. 23.06.2018. https://www.dw.com/ de/eu-migrationsgipfel-chaostage-in-br%C3%BCssel/a-44351000. Zugegriffen: 1. Aug. 2019. Youngs, R. (2019). Democracy after the European parliament elections. CEPS policy insights, Juni 2019. Zandonella, B. (2009). Glossar: Besitzstand. Bonn: Bundeszentrale für politische Bildung BPB.
Prof. Dr. Michael Clauss ist seit 2019 hauptberuflicher Dozent für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management in Nürnberg. Nach seinem Studium und anschließender Dissertation in Freiburg war er als Volkswirt in verschiedenen Research Teams der Credit Suisse, zunächst in Frankfurt a. M., später in London tätig. Hierbei entwickelte er die volkswirtschaftliche Meinung des Hauses zu Deutschland und „Kerneuropa“ und vertrat diese gegenüber dem Wertpapierhandel und gegenüber institutionellen Kunden. Anschließend wechselte er zu einer Kapitalanlagegesellschaft in München, bevor er als selbstständiger volkswirtschaftlicher Berater verschiedene Vermögensverwalter betreute. Von 2012 bis 2017 war er als Geschäftsführer für einen privaten Vermögensverwalter tätig. Seine Forschungsschwerpunkte sind die europäische Bankenaufsicht sowie die Gestaltung finanzpolitischer Institutionen der Europäischen Union.
7
Internationale Wirtschaftspolitik und Klimawandel Franz Benker
Inhaltsverzeichnis 7.1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 7.2 Die Wirtschaftspolitik global agierender Staaten als Impuls und Triebfeder des Klimawandels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 7.2.1 Das Anthropozän – der Mensch als geologische Kraft. . . . . . . . . . . . . . . . . . . . . 129 7.2.2 Die Wirtschaftspolitik global agierender Staaten und die Umwandlung natürlicher Energieträger in klimaschädliche Abgase. . . . . . . . . . . . . . . . . . . . . . 130 7.3 Der Klimawandel als Treiber der Synchronisation der internationalen Wirtschaftspolitik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 7.3.1 Wahrnehmung und Identifikation des Klimawandels als globales Problem. . . . . 132 7.3.2 Die zeitliche Abfolge wirtschaftspolitischer Reaktionen internationaler Organisationen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 7.3.3 Time-Lags . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 7.3.4 Wirtschaftspolitische Optionen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 7.3.5 Global Governance als Hoffnungsträger. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 7.4 Schlussbetrachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
Zusammenfassung
Die Möglichkeiten der Menschheit, in die Geosphäre einzugreifen und diese umzugestalten, haben im Verlauf der letzten etwa 200 Jahre massiv zugenommen. Die Intensität der Eingriffe zeigt bezogen auf den genannten Zeitraum ein exponentielles Wachstum. Vor diesem Hintergrund existiert seit einigen Jahren ein interdisziplinärer F. Benker (*) FOM Hochschule, Nürnberg, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_7
127
128
F. Benker
wissenschaftlicher Diskurs über die Frage, ob die Menschheit in ihrer Gesamtheit als „geologische“ oder (besser) „geosphärische Kraft“ einzustufen ist. Damit verknüpft ist auch die Frage, ob man bereits von einem „Anthropozän“ sprechen kann. Wenn man sich auf den Standpunkt stellt, dass der im globalen Maßstab wirtschaftende Mensch tatsächlich über die postulierten geosphärischen Gestaltungskräfte verfügt, drängen sich zwei gleichrangige ökonomische Fragestellungen auf: 1) Inwieweit haben historische wirtschaftspolitische Anstrengungen den Klimawandel beeinflusst? 2) Inwieweit hat der Klimawandel die internationale Wirtschaftspolitik bisher zum Gegensteurern motiviert? Von Interesse sind die längerfristigen Wechselwirkungen zwischen Wirtschaftspolitik und Klimawandel. Im ersten Schritt wird untersucht, inwieweit global agierende Staaten über ihre wirtschaftspolitischen Entscheidungen Einfluss auf den Klimawandel hatten. Im zweiten Schritt werden die Auswirkungen des Klimawandels auf den wirtschaftspolitischen Erkenntnis- und Umsetzungsprozess untersucht. Hier werden schlaglichtartig Reaktionen von globalen Großorganisationen wie z. B. UNO, WTO, OECD oder G20 beleuchtet. Die im vorliegenden Beitrag aufgeworfenen Fragen können nicht erschöpfend beantwortet werden. Es werden jedoch im möglichen Rahmen Denkanstöße gegeben, die als Anregung für weitere Forschungsaktivitäten dienen sollen.
7.1 Einleitung Aus der Perspektive zahlreicher Wissenschaftler unterschiedlicher Disziplinen (Gebhard 2016, S. 31–36) haben die die ökonomischen Aktivitäten global agierender Staaten schon seit ca. 250 Jahren zum heute greifbaren Klimawandel beigetragen. Es stellen sich aus diesem Blickwinkel zwei grundlegende Fragen. Erstens: Inwieweit haben wirtschaftspolitische Anstrengungen ökonomisch einflussreicher Staaten seit Beginn der industriellen Revolution bis heute den Klimawandel beeinflusst? Zweitens: Seit wann beeinflusst der Klimawandel „erkennbar“ die internationale Wirtschaftspolitik? Diese Fragen eröffnen im Zusammenhang mit neuen naturwissenschaftlichen Erkenntnissen – insbesondere in der geologischen Stratigrafie – völlig neue Perspektiven. Der Mensch tritt gemäß diesen Beobachtungen, insbesondere aufgrund seiner globalen ökonomischen Aktivitäten, selbst als bestimmende Kraft planetarer Systemprozesse auf. Klimawandel
Unter dem Begriff Klimawandel wird in allgemeiner Verwendung die anthropogen verursachte Veränderung des Klimas auf der Erde verstanden. Dieser Überlegung liegt die Annahme zugrunde, dass der Ausstoß von Treibhausgasen zu einer Erhöhung der Jahresdurchschnittstemperaturen führt. Neben Veränderungen der Vegetation und der Niederschlagshäufigkeiten, Anstieg des Meeresspiegels usw. ist auch mit einer Zunahme von Extremwetterereignissen zu rechnen. Die Veränderungen führen daher auch für Unternehmen zu potenziellen Risiken und Chancen (Günther 2019).
7 Internationale Wirtschaftspolitik und Klimawandel
129
7.2 Die Wirtschaftspolitik global agierender Staaten als Impuls und Triebfeder des Klimawandels 7.2.1 Das Anthropozän – der Mensch als geologische Kraft Wissenschaftlich von grundlegender Bedeutung für die Ökonomie ist der „geosphärische Ansatz“. Der Geosphäre1 kommt dabei ein ganzheitlicher Aspekt zu (Benker 2004, S. 75–85; Ritter 1993, S. 7–17). Die Wirtschaft wird in diesem Ansatz „als Teilinhalt“ der Geosphäre betrachtet (Benker 2004, S. 40; Ritter 1993, S. 9–19) Die Geosphäre, als das den ökonomischen Systemen übergeordnete System, limitiert ökonomische Systeme (Benker 2004, S. 41). Seit 2015 gibt es Ansätze, die Geowissenschaften, Biowissenschaften und den „industriellen Metabolismus“ der Menschheit zu einer ganzheitlichen Betrachtungsweise des planetaren Systems integrieren (Egner und Zeil 2019, S. 20; Zalasiewicz et al. 2019). Das Anthropozän ist ein Begriff, der seit seiner Prägung durch Paul Crutzen und Eugene Stoermer im Jahr 2000 weit verbreitet ist. Dieser Begriff bezeichnet das aktuelle geologische Zeitintervall, in dem viele Bedingungen und Prozesse auf der Erde durch den wirtschaftenden Menschen grundlegend verändert werden. Diese Auswirkungen haben sich seit Beginn der Industrialisierung deutlich verschärft und die Erde aus dem für die holozäne Epoche typischen Erdsystemzustand herausgeführt, der auf die letzte Vergletscherung folgte (Subcommission on Quaternary Stratigraphy 2019). Konsequenz dieser Denkweise ist, dass ökonomische Prozesse als integrale Bestandteile des „globalen Systems Erde“ mit all seinen nichtlinearen Dynamiken der einzelnen Wechselwirkungen verstanden werden (Egner und Zeil 2019, S. 20–21). Aus dieser Perspektive heraus werden die Wechselwirkungen der wirtschaftenden Menschheit (derzeit ca. 7,7 Mrd. Menschen) mit der Geosphäre auch als „geotechnischer Metabolismus“ bezeichnet (Benker 2004, S. 40). Manche Autoren vertreten, abweichend von der naturalistischen Auffassung des Anthropozäns, die Sichtweise eines „Kapitalozäns“, welches seinen Beginn im anfänglich undifferenzierten menschlichen Einfluss hat, der sich zusammen mit der asymmetrischen und machtvollen Expansion des Kapitalismus seit dem 16. Jahrhundert potenzierte. In diesem Diskurs wird auch der Begriff „Technozän“ vorgeschlagen, welcher die globale Technisierung aller Lebensbereiche unterstreichen will (Egner und Zeil 2019, S. 23). Die Zeit seit 1950 wird in der Wissenschaft auch häufig als „Great Acceleration“, also als die Zeitspanne der großen Beschleunigung von sozioökonomischen und geosphärischen Trends, bezeichnet. Ökonomische Aktivitäten wirken sich also in verschiedensten Bereichen extrem auf das System Erde aus (Steffen et al. 2015, S. 1–4).
1Gemeint
ist hier die geografische Geosphäre gemäß Carol 1956.
130
F. Benker
Das Anthropozän
Der Begriff „Anthropozän“ wurde 2002 von dem Nobelpreisträger für Chemie Paul Crutzen geprägt. Crutzen stellte in seinem Nature-Artikel „Geology of mankind“ (Gebhard 2016, S. 29) dar, dass seit 200 bis 300 Jahren der Mensch ganz entscheidend die natürliche Umwelt verändere, zunehmend nicht mehr nur lokal, sondern auch global. Als wichtigste Veränderung sieht Crutzen den Klimawandel durch die Erhöhung der atmosphärischen Konzentration von Treibhausgasen. Daneben erwähnt er das antarktische Ozonloch, die Nutzung von 30 bis 50 % der globalen Landoberfläche durch den Menschen, die Ausbeutung der Meere durch die Fischerei, Landschaftsveränderungen durch Deichbauten, Flussumlenkungen u. a. Phänomene. Crutzen schlägt vor, das Anthropozän mit dem Beginn des Industriezeitalters am Ende des 18. Jahrhunderts anfangen zu lassen (Definition gemäß Climate Service Center Germany o. J.).
7.2.2 Die Wirtschaftspolitik global agierender Staaten und die Umwandlung natürlicher Energieträger in klimaschädliche Abgase Unter Wirtschaftspolitik versteht man im Allgemeinen die Einflussnahme des Staates auf spezielle Wirtschaftsprozesse. Unterschieden wird in diesem Sinne Geld-, Finanz-, Einkommens-, Verteilungs-, Konjunktur-, Wachstums-, und Beschäftigungspolitik. Der Autor ordnet in diesem Beitrag ganz bewusst die Klimapolitik der Wirtschaftspolitik unter, da jene in den meisten Fällen ohnehin von wirtschaftspolitischen Maßnahmen flankiert werden muss (Edenhofer 2017; Faz.net 2010). Zudem wird mit dieser Vorgehensweise der Tatsache Rechnung getragen, dass die Grenzen zwischen ökonomischen Systemen und dem geosphärischen System fließend sind. Geht man in der Zeitskala in die Phase vor der Industriellen Revolution zurück, war die Wirtschaftspolitik der damals ökonomisch am weitesten entwickelten Nationen noch nicht so stark ausdifferenziert. In dieser Zeit war jedoch der Kolonialismus, welcher um 1500 begann, schon weit fortgeschritten. Das gemeinsame Merkmal der bis dahin vorherrschenden merkantilistischen kolonialen Wirtschaftspolitik war das Streben nach größtmöglicher Förderung der produktiven Kräfte im Inland und der Erwirtschaftung von Überschüssen im Außenhandel. Treibende Kraft der Wirtschaftspolitik im Merkantilismus war der steigende Geldbedarf des absolutistischen Staates. Die Ausweitung und Entfaltung der Produktivkräfte der Volkswirtschaft dienten in erster Line der Erhöhung der Steuereinnahmen des Mutterlandes. Im Merkantilismus spielte die Nutzenmaximierung der Untertanen in den Kolonien eine geringe Rolle. Vielmehr ging es um die Stärkung der wirtschaftlichen und finanziellen Basis des Staates. Zu diesem Zweck wurden auch machtpolitische Instrumente, bis hin zu Anwendung von (militärischer) Gewalt, eingesetzt. Der Merkantilismus endete ca. um 1750 mit Einsetzen der industriellen Revolution.
7 Internationale Wirtschaftspolitik und Klimawandel
131
Die strukturierende Kraft in der internationalen Wirtschaftspolitik ging seit dem späten 18. Jahrhundert weiter vom europäischen Kolonialismus aus. Die Staaten richteten ihre internationale Wirtschaftspolitik am Profit, am technischen Fortschritt und an der Wirtschaftsentwicklung aus (Sieder und Langthaler 2019, S. 215–216). Seit dem Wiener Kongress 1815 wurden auch die Interessen kleiner Staaten anerkannt, internationale Konsultationen wurden zur Regel, in Ansätzen entstand bereits transnationales Lobbying, auch die Anwesenheit von Journalisten setzte sich durch (Sieder und Langthaler 2019, S. 218). Durch den Aufstieg Großbritanniens zur politischen und ökonomischen Weltmacht entstand eine stabile Weltwirtschaftsordnung als Basis für die internationale Wirtschaftspolitik der einzelnen Staaten. Internationale Austauschnormen konnten sich etablieren. Der Nationalstaat als Basis internationaler Wirtschaftspolitik bildete sich erst im späten 18. Jahrhundert aus. Die globale Wirtschaftspolitik wurde dann im 19. Jahrhundert durch die vier Großmächte Großbritannien, Frankreich, Deutschland und Russland bestimmt. Im Verlauf des 20. Jahrhunderts beeinflussten zunehmend die USA die Leitlinien des internationalen wirtschaftspolitischen Handelns (Sieder und Langthaler 2019, S. 215–219). Die Bodenschätze der Kolonien der Europäer wurden im Sinne einer damaligen Konjunktur,- und Wachstumspolitik schon frühzeitig systematisch ausgebeutet. Der Treiber für den sich intensivierenden Abbau der Energieträger in der Frühphase der Industrialisierung war die „Wirtschaftspolitik einzelner Staaten“, da im frühen 19. Jahrhundert, insbesondere in der Zeit vor dem Wiener Kongress, keine international koordinierte Wirtschaftspolitik stattfand. Die Möglichkeiten der Energienutzung haben einen gewaltigen technologischen und wirtschaftlichen Fortschritt ermöglicht, der weltweit den Wohlstand vergrößert und Bevölkerungswachstum begünstigt hat. Die historische Wirtschaftspolitik einzelner Länder, insbesondere in der frühen Phase der Industrialisierung, war sich nicht über umwelt- und klimaschädliche Prozesse bewusst. Nur punktuell, also in den größeren Industriezentren, war die Luftverschmutzung unübersehbar, ebenso deren Auswirkungen. Man nahm das aber im Sinne des Fortschrittsglaubens in Kauf. Umweltverschmutzung und Energieverbrauch erfuhren im frühen 19. Jahrhundert eine zunehmende Intensivierung. Es gab schon in der vorindustriellen Zeit Luftverschmutzung. Seit Erfindung der Landwirtschaft fand eine durch Brandrodung betriebene Vernichtung der Wälder, eine sehr alte Quelle der Luftverschmutzung, statt. Auch beim Bergbau – dort speziell bei der Metallgewinnung – kam es zu Luftverschmutzung durch bleihaltige Luft. Zu Beginn der Industrialisierung ca. ab 1750 beginnt die Ausbeutung fossiler Energieträger in großem Maßstab mit der Kohle. Erdöl wird erst seit ca. 1860 gefördert, Erdgas seit ca. 1900. Die Kohleverbrennung setzte in größerem Umfang erst mit der Industriellen Revolution ein. Kohle wurde zum wichtigsten Brennstoff. Um 1870 besaß Großbritannien ca. 100.000 kohlebetriebene Dampfmaschinen. „Mit sinkenden Transportkosten konnte Kohle auch in die Städte transportiert werden und dort sowohl für Öfen und Herde als auch für Industrieanlagen genutzt werden“ (Paeger 2016b). Die Zahl
132
F. Benker
der verschmutzten Kohlestädte wie London nahm zu; 1880 gab es in London 3,5 Mio. Feuerstellen. „Am schlimmsten aber war die Luftverschmutzung in den Industriegebieten, die gleichzeitig über Kohle- und Erzvorkommen verfügten, wie im Ruhrgebiet, im ‚Schwarzen Land‘ (Black Country) in Mittelengland oder in der Region der Großen Seen in Nordamerika.“ (Paeger 2016b) Auch in Japan entstanden Industriegebiete mit sehr hohem Schadstoffausstoß, etwa die Hanshin-Region um Osaka und Kobe sowie die Region um Kyoto und Ube. Starke Luftverschmutzung ging auch schon frühzeitig von Norilsk in Sibirien aus. Die Industrialisierung ging mit einer außerordentlichen Steigerung des Energieverbrauchs einher, der vor allem durch Stein- und Braunkohle gedeckt wurde. „Der Kohleverbrauch stieg schnell: Von 10 Mio. t im Jahr 1800 über 76 Mio. t im Jahr 1850 auf 760 Mio. t im Jahr 1900; nunmehr deckte Kohle 90 % des weltweiten Brennstoffbedarfs“ (Paeger 2016a). In England sowie West- und Mitteleuropa wurde dieser Wert schon vor 1900 erreicht. Allein zwischen 1870 bis 1913 stieg die weltweite jährliche Steinkohleförderung von 26,5 auf über 190 Mio. t. In den jungen Nordstaaten der USA verfeinerte man im Verlauf des 19 Jahrhunderts die schon seit 1730 im Bundesstaat Virginia erprobten Methoden der Kohlegewinnung. Die Basis hierfür bildeten zunächst die Kohlevorkommen in den Appalachen. „Erst ab den 1890er Jahren wurde Kohle aber auch zum wichtigsten Brennstoff der USA; hier hatten zuvor die Wälder noch genug Holz und Holzkohle geliefert“ (Paeger 2016a). Um 1900 lag der Energieverbrauch weltweit bei 11,4 kWh/Tag pro Einwohner, betrug also mehr als das Sechsfache des menschlichen Grundumsatzes. „Heute nutzt jeder Mensch auf der Erde im Durchschnitt ständig 43,2 kWh/Tag an technisch erzeugter Energie – also etwa soviel, wie 25 schwer körperlich arbeitende Menschen an Leistung dauerhaft erbringen können“ (Paeger 2016a). Die Große Beschleunigung
Man kann heute gemäß Steffen et al. (2015, S. 7) nachweisen, dass es spätestens ab dem Beginn der 50er-Jahre des 20. Jahrhundert ein paralleles exponentielles Wachstum folgender beispielhaft ausgewählter klimarelevanter geosphärischer Einflussgrößen gibt: Kohlendioxid, Stickoxide, Methan, stratosphärisches Ozon, Oberflächentemperatur, Versauerung der Ozeane (Abb. 7.1).
7.3 Der Klimawandel als Treiber der Synchronisation der internationalen Wirtschaftspolitik 7.3.1 Wahrnehmung und Identifikation des Klimawandels als globales Problem Erste offizielle Warnungen, dass die globale Erwärmung eine ernsthafte Bedrohung darstellen könnte, gab es im Jahr 1965 seitens des wissenschaftlichen Beirats des
7 Internationale Wirtschaftspolitik und Klimawandel
133
Abb. 7.1 Das exponentielle Wachstum klimarelevanter Einflussgrößen. (Quelle: Steffen et al. 2015, S. 7)
Präsidenten der Vereinigten Staaten von Amerika (The White House 1965, S. 111–131). Michail Iwanowitsch Budyko, ein russischer Pionier auf dem Gebiet von Strahlungsbilanzen, warnte ab Beginn der 1960er-Jahre in einigen wissenschaftlichen Schriften, dass eine globale Erwärmung mit den jeweiligen negativen Auswirkungen bevorstehen könnte (Budyko 1968, S. 123; Budyko 1972). Philip D. Thompson sagte 1970 voraus, dass sich mittlere Temperatur auf der Erde um etwa 1 °C erhöhen wird und dadurch – auf lange Sicht gesehen – das Grönlandeis und die ausgedehnten arktischen Eisfelder schmelzen werden. Der Meeresspiegel würde dadurch um 50 m angehoben werden (Thompson und O’Brian 1970, S. 174). Auch andere Forschergruppen warnten um 1970 bereits vor einer kommenden, signifikanten globalen Erwärmung. Hier ist vor allem der Ozeanograph Veerabhadran Ramanathan (1975) zu nennen. Die Entdeckung – und begriffliche Erfindung – des „global warming“ stammt von Wallace Broecker. Er verwendete als Erster diesen Begriff und signalisierte damit eine neue Ära im Bewusstsein der Menschheit. Im Jahr 1975 schrieb Broecker, dass der exponentielle Anstieg der atmosphärischen Kohlenstoffdioxidkonzentration ein signifikanter Faktor werden würde. Zu Beginn des 21. Jahrhunderts würden die Temperaturen des Planeten außerhalb der Bereiche liegen, wie sie die letzten 1000 Jahre zu beobachten waren. Broecker (1975, S. 460–463) hat damit den Begriff „globale Erwärmung“ geprägt. Etwa zeitgleich wurde in den ersten beiden Berichten des Club of Rome von 1972 und 1974 der anthropogene Treibhauseffekt als Ursache für eine globale Erwärmung erwähnt. Daneben wurde auch erstmals die „thermische Umweltverschmutzung“ durch Abwärme diskutiert (Meadows 1972).
134
F. Benker
Der Klimawandel wurde als ernstes Problem zum ersten Mal auf der Weltklimakonferenz von 1979 (der ersten ihrer Art) in Genf auf internationaler Ebene anerkannt. Es war zugleich der Durchbruch für die internationale Klimaforschung. Am andern Ende der Zeitskala, also in der Jetztzeit, werden die Implikationen des Klimawandels bereits sehr detailliert wahrgenommen. Zum Beispiel belegen neuere Forschungen, dass der Anstieg der globalen Durchschnittstemperatur die globale gesamtwirtschaftliche Produktivität absinken lässt. Die globale Produktivität erreicht demnach einen Höchstwert bei einer jährlichen Durchschnittstemperatur von 13 °C und nimmt bei höheren Temperaturen stark ab (vgl. hierzu ausführlich Burke et al. 2015, S. 235–239).
7.3.2 Die zeitliche Abfolge wirtschaftspolitischer Reaktionen internationaler Organisationen Es stellt sich die Frage, wann weltweit agierende Organisationen mit wirtschaftspolitischem Gewicht wie z. B. UNO, EU, WTO, OECD, G20, Weltbank und IWF zum ersten Mal auf den deutlich als globales Problem identifizierten Klimawandel reagiert haben. Die UNO trat im Jahr 1972 auf den Plan. In diesem Jahr wurde mit der UNResolution 27/2997 das „Umweltprogramm der Vereinten Nationen“ (englisch United Nations Environment Programme, UNEP) ins Leben gerufen. Das Programm soll als „Stimme der Umwelt“ zum schonenden Umgang mit der Umwelt und einer nachhaltigen wirtschaftlichen Entwicklung anhalten. Der Klimawandel stand bei dieser Versammlung noch nicht auf der Tagesordnung. Erst sieben Jahre später, im Februar 1979, fand die bereits angesprochene erste „Weltklimakonferenz“ unter dem Dach der UNO in Genf statt. Diese Konferenz trug den Namen „First World Climate Conference“ (WCC-1) und kam auf Initiative einer Expertengruppe der World Meteorological Organisation WMO unter Führung von Hermann Flohn zustande. Neben einer fundamentalen Erklärung am Ende der Konferenz initiierte die Versammlung das Weltklimaforschungsprogramm und das IPCC (Intergovernmental Panel on Climate Change), welches aber endgültig erst 1988 auf der Toronto-Klimakonferenz ins Leben gerufen wurde. Die Experten verschiedener Organisationen der Vereinten Nationen hielten einen Klimawandel für möglich, der aber zu diesem Zeitpunkt noch nicht unmittelbar greifbar war. Diskutiert wurde bereits über die Möglichkeiten der Eindämmung der durch wirtschaftliche Aktivitäten des Menschen zu erwartenden schädlichen Klimaveränderungen. Insbesondere ging es um einen befürchteten massiven Anstieg der atmosphärischen Kohlendioxidkonzentration und anderer Spurengase sowie um das damals schon beobachtete Ozonloch (WMO 2019). Im Jahr 1988 folgte die Weltklimakonferenz von Toronto, in deren Verlauf die WMO und das United Nations Environment Programme (UNEP), wie erwähnt, das Intergovernmental Panel on Climate Change (IPCC) gründeten. Dieses Gremium wird auch als „Weltklimarat“ bezeichnet. Aufgabe des IPCC-Ausschusses ist es, naturwissen-
7 Internationale Wirtschaftspolitik und Klimawandel
135
schaftliche Erkenntnisse zu den Auswirkungen des Klimawandels zu sammeln und zu bewerten. Ziel ist bis heute insbesondere, objektiv über die Ursachen von Klimaänderung, über ihre potenziellen Folgen für Umwelt, Gesellschaft und Wirtschaft zu informieren sowie Optionen zur Anpassung an den Klimawandel und Möglichkeiten der Abmilderung des Klimawandels zu analysieren. Die UN-Generalversammlung erkannte aufgrund der Ergebnisse der Konferenz von Toronto die Realität des Klimawandels erstmalig an (IPCC 2019). Im Jahr 1989 verabschiedet die UNO Generalversammlung die Resolution 44/228. Anlass waren die nicht nachhaltige Nutzung der natürlichen Ressourcen der Welt und die Umweltzerstörung. In dieser Entschließung wurde ein globales Treffen gefordert, um integrierte Strategien zu erarbeiten, mit denen die negativen Auswirkungen menschlichen Verhaltens auf die physische Umwelt gestoppt und umgekehrt werden könnten. In allen Ländern sollte eine umweltfreundliche, langfristige und nachhaltige wirtschaftliche Entwicklung gefördert werden (IPCC 2019). Im Mai des Jahres 1992 verabschiedete die UNO die „Klimarahmenkonvention der Vereinten Nationen“, ein internationales Umweltabkommen, welches das Ziel hat, die anthropogene Störung des Klimasystems zu verhindern und die globale Erwärmung zu verlangsamen sowie ihre Folgen abzumildern. Alle Vertragspartner sind verpflichtet, regelmäßig Berichte mit Fakten zur aktuellen Treibhausgasemission und Trends dieser Emission zu veröffentlichen (Matthes 2008). Der in der UN-Resolution von 1989 geforderte Umweltgipfel „Konferenz für Umwelt und Entwicklung der Vereinten Nationen“ (UNCED) fand im Juni 1992 in Rio de Janeiro statt. An der Konferenz nahmen mehr als 178 Regierungschefs, stellvertretende Regierungschefs oder ranghohe Minister der Regierungen teil. Auf dieser Konferenz wurde auch die bereits erwähnte „Klimarahmenkonvention der Vereinten Nationen“ von 154 Staaten unterschrieben. Sie trat 1994 in Kraft. Ebenfalls entstand dort der Text der Agenda 21 (Aktionsprogramm für nachhaltige Entwicklung). Die Erklärung von Rio wurde von der Generalversammlung der Vereinten Nationen in der Resolution 47/190 gebilligt. Die erste globale Klimarahmenkonvention setzte Leitlinien für das 21. Jahrhundert, vor allem zur nachhaltigen Entwicklung (Matthes 2008). Die UNO beschloss im Jahr 1997 auf der Weltklimakonferenz von Kyoto ein Zusatzprotokoll zur Ausgestaltung der Klimarahmenkonvention der Vereinten Nationen, welches erst 2005 in Kraft trat. Das Abkommen legte erstmals völkerrechtlich verbindliche Zielwerte für den Ausstoß von Treibhausgasen in den Industrieländern fest. Eines der wesentlichen im Kyoto-Protokoll verankerten Instrumente ist der Handel mit Emissionsrechten. Grundgedanke ist die Einsparung von Emissionen. Diese sollen dort eingespart werden, wo dies am kostengünstigsten möglich ist. Zu unterscheiden sind der Emissionshandel zwischen Staaten, welcher im Kyoto-Protokoll festgelegt wurde, und der EU-interne Emissionshandel zwischen Unternehmen (Europäische Kommission 2009). Die World Trade Organisation (WTO) reagierte seit ihrer Gründung im Jahr 1995 zum ersten Mal im Jahr 2009 auf den Klimawandel. In diesem Jahr erschien der WTO-
136
F. Benker
UNEP-Bericht „Trade and Climate Change“. In diesem Bericht werden die Schnittstellen zwischen Handel und Klimawandel aus den vier Perspektiven Wissenschaft, Klimawandel, Wirtschaft und multilaterale Anstrengungen zur Bekämpfung des Klimawandels untersucht. Außerdem wurden nationale Klimapolitiken und ihre Auswirkungen auf den Handel analysiert. Die WTO und die UNEP sind Partner bei der Verfolgung einer nachhaltigen Entwicklung. Der Bericht von 2009 war das Ergebnis gemeinsamer Forschungsanstrengungen zwischen der WTO und der UNEP (WTO 2009). Die Vertreter der G20 kamen im Dezember 1999 zum ersten Mal in Berlin zusammen. Seit 2009 ist die G20 das zentrale informelle Forum für die internationale wirtschaftliche Zusammenarbeit (Die Bundesregierung 2019). Die G20-Agenda wird seit 2009 zunehmend erweitert. Die Staats- und Regierungschefs tauschen sich inzwischen auch verstärkt über globale Themen jenseits des Finanzsektors aus. Neben der wirtschaftsund finanzpolitischen Kernagenda werden inzwischen auch Themen wie Entwicklung, Internet Governance, Energie, Klima, Gesundheit und Migration diskutiert (BDI 2019). Die Gesetzgebungsverfahren der EU zur Eindämmung des CO2-Ausstoßes begannen schon in den 1990er-Jahren. Speziell für die Schadstoffemissionen von Pkw hat das EUParlament 2009 die Rahmenbedingungen per CO2-Gesetzgebung geregelt. Ein wichtiger weiterer Schritt, die Einführung des europäischen Emissionshandels (EU-ETS), erfolgte bereits im Jahr 2005. Dier Emissionshandel wurde im Rahmen der Umsetzung des Kyoto-Protokolls eingeführt und ist bis heute das zentrale europäische Klimaschutzinstrument. Das europäische ETS übernahm dabei zugleich eine Vorreiterfunktion für ein mögliches globales Emissionshandelssystem. Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung OECD meldete sich erstmals im Jahr 2012 zum Klimawandel mit dem „OECD-Umweltausblick bis 2050“. Analysiert wurden wirtschaftliche und soziale Entwicklungen, welche die Umwelt bis 2050 beeinflussen. Es wurden Maßnahmen zum Umgang mit den wichtigsten ökologischen Herausforderungen diskutiert. Außerdem ging es um die Frage, mit welchen Konsequenzen die Welt im Falle von politischer Untätigkeit rechnen muss. Der Umweltausblick lieferte dazu Analysen ökonomischer und ökologischer Trends (OECD 2012). Die Weltbank publizierte erstmals im November 2012 ein Statement zum Klimawandel. Sie veröffentlichte einen über das Potsdam-Institut für Klimafolgenforschung (PIK) angeforderten Klimabericht. Die Weltbank rief darin die Regierungen weltweit dazu auf, die rund 775 Mrd. € umfassenden Subventionen für Kohle und andere fossile Brennstoffe in alternative Energien umzulenken. Die durch Untätigkeit auf wirtschaftspolitischer Ebene verursachten Risiken und die dadurch zu erwartenden Folgen liegen nach Angaben des PIK außerhalb der Erfahrung unserer Zivilisation. Weitere Klimaberichte der Weltbank folgen in den Jahren darauf (PIK 2012). Es sei an dieser Stelle darauf hingewiesen, dass die Forschungen des PIK von einem erheblichen Interessenkonflikt begleitet werden. Denn das PIK lebt davon, dass Politik und Gesellschaft dem Institut mediale Präsenz und Fördermittel gewähren. Dennoch stehen die Forschungsergebnisse des PIK im Einklang mit den von vielen Natur-
7 Internationale Wirtschaftspolitik und Klimawandel
137
Tab. 7.1 Zeitliche Abfolge wirtschaftspolitischer Reaktionen internationaler Organisationen Jahr
Organisation
Reaktion
1972
UNO
Umweltprogramm der Vereinten Nationen
1979
WMO
Erste Weltklimakonferenz Genf (WCC-1)
1988
WMO/UNEP
Weltklimakonferenz Toronto
1989
UNO
Resolution zur nachhaltigen wirtschaftlichen Entwicklung
1992
UNO
Klimarahmenkonvention der Vereinten Nationen
1992
UNCED
Weltklimakonferenz Rio de Janeiro: Agenda 21
1997
UNO
Weltklimakonferenz Kyoto: Zusatzprotokoll zur Klimarahmenkonvention
2005
EU
Einführung des europäischen Emissionshandels
2009
G20
G20 Agenda
2009
WTO-UNEP
Bericht: Trade and Climate Change
2009
IWF
Gemeinsame Erklärung mit den multilateralen Entwicklungsbanken
2012
OECD
OECD-Umweltausblick bis 2050
2012
Weltbank
Weltbank Klimabericht
wissenschaftlern gewonnenen Erkenntnissen. Stellvertretend seien hier noch einmal die Ergebnisse von Steffen et al. (2015, S. 6–7) genannt. Sofern sich die dort sichtbaren exponentiellen Veränderungen fortsetzen, wird die wirtschaftende Menschheit bald bisher „unbekannte“ Umweltbedingungen vorfinden. Diesen muss auf ökonomischer Ebene mit Erfindungsreichtum und Anpassungsfähigkeit begegnet werden. Die erstmaligen Kommentare des IWF zum Klimawandel lassen sich zeitlich nicht eindeutig bestimmen. Diese beginnen aber, ähnlich wie die der G20, ca. um das Jahr 2009 (Europäische Investitionsbank 2009). Die zeitliche Abfolge der wirtschaftspolitischen Reaktionen internationaler Organisationen ist in Tab. 7.1 zusammengefasst.
7.3.3 Time-Lags Neuere Forschungen belegen, dass der Klimawandel bereits um das Jahr 1830 erste Wirkungen entfaltet (Abram et al. 2016). Wann hat die globale Wirtschaftspolitik, verteilt auf die maßgeblichen Länder, zum ersten Mal (Gegen-)Maßnahmen ergriffen? Ökonomische Prozesse sind in der Regel mit Verzögerungseffekten behaftet. Auf Ebene der Wirtschaftspolitik spricht man in diesem Zusammenhang von „Time-Lags“. Man betrachtet die zeitlichen Verzögerungen zwischen der Notwendigkeit einer Handlung, der daraufhin ergriffenen Maßnahme und der Wirkung der Maßnahme (s. Abb. 7.2). Im Fokus steht demnach der Zeitraum zwischen der Auftreten der Störung eines Wirtschaftsprozesses und seiner Korrektur.
138
F. Benker
Abb. 7.2 Time-Lags in ihrer chronologischen Abfolge. (Quelle: Gabler Banklexikon 2018)
Time-Lags
Man unterscheidet „Inside-Lags“ und „Outside-Lags“. Mit den Inside-Lags sind Verzögerungen gemeint, die den innerhalb des ökonomischen Raums22Gemeint ist hier der ökonomische Raum gemäß Benker (2004, S. 142 f.). handelnden wirtschaftspolitischen Akteuren zuzuordnen sind, also die Zeit, die vergeht, bis gehandelt wird. Mit „Outside-Lags“ sind die Verzögerungen außerhalb dieser Handlungssphäre gemeint, also die Zeit, die vergeht, bis die Handlungen der wirtschaftspolitischen Akteure Wirkung zeigen. Time-Lags lassen sich außerdem nach ihrer Ursache unterscheiden. Die Verzögerung durch Informationsbeschaffung wird als „Information-Lag“, die Erkenntnisverzögerung als „Recognition-Lag“, die Entscheidungsverzögerung als „Decision-Lag“, die Durchführungsverzögerung als „Instrumental-Lag“ und die Wirkungsverzögerung als „Operational-Lag“ bezeichnet (Horn 2019).
Der erste klimawirksame wirtschaftspolitische Handlungsstrang, dessen spätere Auswirkungen man zu der damaligen Zeit so gut wie nicht erahnen konnte, beginnt zwischen 1750 und 1780. Der Abbau der Energielagerstätten und die Verfeuerung der Energieträger kommen in Gang. Das Wachstum der ökonomischen Systeme beschleunigt sich aufgrund der steigenden Energiezufuhr weltweit. Hier liegt ein Outside-Lag von ca. 200 Jahren vor, der vom Handlungsbeginn – Luftverschmutzung durch verstärkte Emission von Treibhausgasen – ab ca. 1780 bis Mitte der 1980er-Jahre andauert. Denn vor ca. 40 Jahren, spätestens jedoch vor 20 Jahren wurde der Klimawandel durch Häufung von extremen Wettersituationen erstmalig deutlich spürbar (LUBW 2018).
2Gemeint
ist hier der ökonomische Raum gemäß Benker (2004, S. 142 f.).
7 Internationale Wirtschaftspolitik und Klimawandel
139
Der zweite wirtschaftspolitische Handlungsstrang beginnt im Jahr 1824 mit der Entdeckung des Treibhauseffekts durch Joseph Fourier (Broecker 1975). Die Notwendigkeit einer wirtschaftspolitischen Handlung besteht somit im Prinzip seit 1824, spätestens jedoch mit der Proklamation der globalen Erwärmung durch Wallace Smith Broecker im Jahr 1975. Der Klimawandel war um 1820 noch nicht spürbar, obwohl er als „Ereignis“ schon eingetreten war. Jedoch lagen zu diesem Ereignis noch keine Informationen vor. Hier handelt es sich somit um einen Information-Lag von 151 Jahren. Zwischen der Proklamation der globalen Erwärmung 1975 der und der erstmaligen weltweiten Anerkennung des Klimawandels durch die UNO auf der Toronto-Klimakonferenz von 1988 liegt also ein Recognition-Lag von 13 Jahren. Zwischen der Toronto-Klimakonferenz 1988 und dem Umweltgipfel von 1992 in Rio de Janeiro, wo die globale Klimarahmenkonvention – bekannt als „Agenda 21“ – beschlossen wurde, liegt dagegen ein Decision-Lag von nur vier Jahren. Das Zusatzprotokoll zur Klimarahmenkonvention von Kyoto folgte im Jahr 1997. Hier liegt demnach ein Decision-Lag von neun Jahren vor. Der Instrumental-Lag lässt sich nicht eindeutig bestimmen, da manche im KyotoProtokoll verbindlich gefassten Beschlüsse – je nach Teilnehmerstaat – entweder relativ zeitnah per Gesetz auf den Weg gebracht wurden oder bisher erst gar nicht umgesetzt wurden. Nimmt man die Einführung des Emissionshandels in der EU (EU-ETS) als Beispiel, dann kommt man im günstigsten Fall auf einen Instrumental-Lag von sieben Jahren. Die Durchführungsverzögerung hat ihre Ursache in erster Linie in den höchst unterschiedlichen wirtschaftspolitischen Haltungen der Nationalstaaten. Daneben spielen auch geopolitische Gründe eine Rolle, welche vor allem für die Großmächte von Bedeutung sind. Ein weiterer wichtiger Grund ist in der Handlungsschwäche der Vereinten Nationen und der anderen bereits genannten internationalen Organisationen (siehe Abschn. 7.3.2) zu suchen. Ein Operational-Lag liegt bei Fehlen der Vorbedingung – also Umsetzung von Klimazielen – nicht vor oder ist – selbst bei erfolgter Umsetzung von Klimazielen – recht groß. Zum Beispiel werden vier der fünf weltgrößten Treibhausgasemittenten ihr Ziel verfehlen. China und Indien werden bis 2030 sogar erhöhte Emissionswerte haben. Die USA haben sehr geringe Zielwerte angesetzt und Russland hat gar keinen Zielwert festgelegt (IPCC 2019). Im Gegensatz dazu findet man bei der Umsetzung der EU-Ziele zur Treibhausgasreduktion keinen Operational-Lag. Die EU verpflichtete sich dazu, ihre Treibhausgasemissionen bis 2020 um mindestens 20 % gegenüber dem Stand von 1990 zu senken. Im Jahr 2015 sank die Menge der Treibhausgasemissionen in der EU bereits um 22 % gegenüber dem Stand von 1990. Es bleibt abzuwarten, ob die Mitgliedstaaten auf Grundlage der laufenden Maßnahmen, auf dem Weg bleiben und ihr Ziel einer Reduktion um 40 % bis 2030 erreichen (Europäisches Parlament 2018). In Europa und speziell in Deutschland wurden einige wirtschaftspolitisch wirksame Gesetzgebungsverfahren schon weit vor der Verabschiedung der Agenda 21 umgesetzt. Das Bundes-Immissionsschutzgesetz und Technische Anleitung (TA) zur Reinhaltung der Luft stammt aus dem Jahr 1974. Die Einführung des geregelten Abgaskatalysators bei Benzin-Pkw erfolgte ab 1985. Die Neufassung der TA Luft und Verpflichtung zur Altanlagensanierung wurde 1986 auf den Weg gebracht. Die Europäische Abgas- und CO2-Gesetzgebung, ins-
140
F. Benker
besondere zu Seeschiffen, Flugzeugen und Pkw, stammt aus den 1990er-Jahren. Weitere Luftqualitätsrichtlinien der Europäischen Union folgten ab dem Jahr 1996. Bemerkenswert ist die schrittweise Verkürzung der einzelnen Time-Lags bis zum Decision-Lag von nur vier Jahren zwischen 1988 und 1992. Die wichtigste globale klima- und wirtschaftspolitische Grundsatzentscheidung ist verhältnismäßig schnell getroffen worden. Abgesehen von einzelnen Umsetzungserfolgen lässt die globale Umsetzung aber bisher auf sich warten. Vor dem Hintergrund der Notwendigkeit globaler wirtschaftspolitischer Maßnahmen stellt sich die Frage, warum nicht schon früher gehandelt wurde. Bereits vor 40 Jahren wusste die Weltöffentlichkeit im Wesentlichen, was heute bekannt ist. Bis ins Detail finden sich Diskussionen aktueller Fragen im Konferenzbericht der Genfer Weltklimakonferenz von 1979 (Matthes 2008). Dieses Nicht-Handeln lässt sich mit dem mikroökonomischen Konzept der Zeitpräferenz (auch Gegenwartspräferenz) erklären. Die Zeitpräferenz bestimmt, welchen Zeitpunkt des Konsums eines bestimmten Gutes ein Individuum vorzieht, wenn es die Wahl zwischen mehreren möglichen Zeitpunkten hat. In der Regel nimmt man an, dass ein Konsument ein Gut lieber in der Gegenwart als in der Zukunft genießen möchte (Wohltmann 2019). Beispielhaft sei hier die Güterkategorie „natürliche Umwelt“ als „Quelle“ (z. B. in Form von fossilen Energieträgern) und gleichzeitig als „Senke“ (z. B. die Atmosphäre) genannt (hierzu ausführlicher bei Ebersoll 2006, S. 121 f., 208–212 und 253–258). Die Güterkategorie, welche mit „natürliche Umwelt“ beschrieben werden kann, vergrößert durch ihren Konsum den Wohlstand. Sie wird somit in nahezu allen Volkswirtschaften bevorzugt in der Gegenwart konsumiert und nicht im Sinne einer Nachhaltigkeit für künftige Generationen aufgespart.
7.3.4 Wirtschaftspolitische Optionen Es ist nicht ganz unwahrscheinlich, dass durch ökonomische Aktivitäten der Menschheit ein Prozess angestoßen wurde, der durch sie nicht mehr kontrollierbar ist. Manche Forscher halten den Prozess der beobachtbaren Erwärmung schon jetzt für nicht mehr beherrschbar (LUBW 2018; OECD 2012). Dem stehen jedoch – als ausgleichender Faktor – die Innovationskraft und die Anpassungsfähigkeit der wirtschaftenden Menschen entgegen. Dennoch besteht eine nicht geringe Wahrscheinlichkeit, dass sich die wirtschaftlichen Grundlagen in dem Maß ändern, wie die Erde einen anderen (der Menschheit noch unbekannten) Systemzustand annimmt. Viele Ökonomen entgegnen an dieser Stelle, dass die Menschheit schon ganz andere Herausforderungen gemeistert habe. Dabei wird die „Neuartigkeit“ der wirtschaftspolitischen Herausforderungen womöglich unterschätzt. Im Sinne einer interdisziplinären Betrachtungsweise (das ist auch eine Intention dieses Beitrags) scheint es gerade für Ökonomen angebracht, neuere naturwissenschaftliche Erkenntnisse bei der Modellierung der ökonomischen Wirklichkeit mit einzubeziehen. Komplexe dynamische Systeme (und dazu gehören ökonomische Systeme
7 Internationale Wirtschaftspolitik und Klimawandel
141
ebenso wie Klimasysteme) zeichnen sich durch die Irreversibilität laufender Prozesse aus. Einmal erreichte Systemzustände können nie wieder erreicht werden. In den ökonomischen Wissenschaften hingegen dominieren (immer noch) mechanistische Modelle die Analyse dynamischer Systeme. Aus dieser (mechanistischen) Perspektive ist die Reversibilität von ökonomischen Prozessen recht unproblematisch (vgl. ausführlich bei Ebersoll 2006, S. 10–22). Gerade in den ökonomischen Wissenschaften werden komplizierte Systeme oft vereinfacht, indem in einem bestimmten Gültigkeitsbereich ein konstanter Zusammenhang zwischen Ursache und Wirkung angenommen wird. Weil Klimasysteme (ebenso wie ökonomische Systeme) aber nichtlinear sind und es zahlreiche Prozesse gibt, die sich selbst verstärken (positive Rückkopplungen), sind diese vereinfachenden Annahmen oft problematisch. In Klimasystemen gibt es „Kipppunkte“, die das System dramatisch verändern können. Somit könnte es zu plötzlichen und drastischen Klimaänderungen kommen. Auch eine kleine Beeinflussung durch den wirtschaftenden Menschen, die zusätzlich zu den bisher scheinbar folgenlos gebliebenen Eingriffen auftritt, könnte zum Überschreiten des Kipppunkts führen (HBS 2019). „Auch wenn die Ursache danach zurückgenommen werden sollte, wird das Klima nicht unbedingt wieder in den alten Zustand zurückkehren, die Änderung ist also irreversibel“ (HBS 2019). Die internationale Klimapolitik hat zwar in den vergangenen 20 Jahren erheblich an Bedeutung gewonnen, denn die jährlich stattfindenden Klimakonferenzen ziehen immer mehr Teilnehmer und Beobachter an. Auch die Aufmerksamkeit der Medien steigt. Aber was aus politischen Kontroversen auf nationalstaatlicher Ebene bekannt ist, setzt sich auf internationalem Parkett fort. Oftmals ist ein zähes Ringen um die Ausgestaltung der internationalen Klimaarchitektur zu beobachten, welches stets mit wirtschaftspolitischen Fragen und Bedenken verbunden ist. „Die internationale Klimapolitik wird dabei geprägt von einer überschaubaren Anzahl von langfristigen Grundpositionen und Ländergruppen, die sie vertreten. Ähnlich wie bei UN-Debatten zu Themen wie Nahost-Konflikt oder Migration, werden die Grundpositionen ergänzt und überlagert von Positionen zu Detailfragen. Je konkreter die zu verhandelnden Fragen werden, umso mehr divergierende Meinungen, Positionen, Vorschläge innerhalb und zwischen den Gruppen sind zu verhandeln“ (Kiyar 2013). Die große Schwierigkeit liegt in den grundsätzlichen außenpolitischen Leitlinien, den wirtschaftlichen Interessen und den daraus resultierenden Verhandlungspositionen der einzelnen Staaten. Die Interessenslage ist häufig beeinflusst von der Abhängigkeit von fossilen Brennstoffen und der finanziellen Situation des jeweiligen Landes (Kiyar 2013). Die Grundproblematik ist hier das öffentliche Gut „saubere Luft“ (im Sinne von treibhausgasfrei). Im ökonomischen Zusammenhang ist das Umweltgut „saubere Luft“ ein Allmendegut, also ein Gut, bei dem das Ausschlussprinzip nicht greift, aber Rivalität im Konsum besteht. Der Nutzen eines „Atmosphäre-Konsumenten“ wird durch einen weiteren Nutzer, der die Atmosphäre als „Senke“ nutzt, eingeschränkt. Allmendegüter zählen zu den „unreinen“ öffentlichen Gütern, da ihnen durch Trittbrettfahrerverhalten eine Übernutzung droht (Minter 2019). „Man spricht hier auch von einem Aneignungsproblem. Aufgrund des freien Zugangs können Trittbrettfahrer von einer
142
F. Benker
Selbstbeschränkung durch andere individuelle Nutzer profitieren, indem sie ihre Nutzung entsprechend intensivieren“ (Minter 2019). Um diesem Effekt entgegenzuwirken, gibt es seit dem Weltklimagipfel von Kyoto 1997, wie erwähnt, den Emissionszertifikatehandel. Der EU-Emissionshandel ist der weltweit erste bedeutende und bislang größte Kohlenstoffmarkt. Er reguliert rund 45 % des gesamten Treibhausgasausstoßes der EU und deckt rund 11.000 Kraftwerke und industrielle Fertigungsanlagen in der EU ab. Im Jahr 2008 wurden die Die EU-Ziele für 2020 im Klima- und Energiepaket verabschiedet. Eines der Ziele war die Verringerung der Treibhausgasemissionen um 20 % gegenüber dem Stand von 1990 (Europäische Kommission 2019). Das EU-Emissionshandelssystem (EU-EHS)
Das EU-EHS ist ein Handelssystem mit festen Obergrenzen (cap and trade). Das Gesamtvolumen der Emissionen bestimmter Treibhausgase, die unter das EUEHS fallende Anlagen ausstoßen dürfen, wird durch eine Obergrenze („Cap“) beschränkt. Die Obergrenze wird im Laufe der Zeit verringert, sodass die Gesamtemissionen zurückgehen. Innerhalb dieser Obergrenzen erhalten oder erwerben Unternehmen Emissionszertifikate, mit denen sie nach Bedarf handeln können. Sie können auch in begrenzten Mengen internationale Gutschriften aus emissionsmindernden Projekten in der ganzen Welt erwerben. Durch die Begrenzung der Gesamtzahl der verfügbaren Zertifikate wird sichergestellt, dass diese auch einen Wert haben. Jedes Unternehmen ist verpflichtet, am Jahresende genügend Zertifikate für seine gesamten Emissionen vorzulegen. Anderenfalls drohen hohe Strafgebühren. Hat ein Unternehmen seine Emissionen reduziert, so kann es die überzähligen Zertifikate entweder für künftige Zwecke behalten oder sie an ein anderes Unternehmen verkaufen, das Zertifikate benötigt (Europäische Kommission 2019).
Außerdem wird seit einiger Zeit auf internationaler Ebene eine CO2-Abgabe im Sinne einer Pigou-Steuer diskutiert. Die G20-Staaten empfehlen spätestens seit 2017 eine CO2Steuer. Diese sei sinnvoll für Klimaschutz, Staat und Bürger. Die Erhebung von Steuern auf die Verschmutzung durch CO2 und der Abbau von direkten Subventionen biete eine Chance für die Staaten. Denn es ließen sich erhebliche öffentliche Einnahmen erzielen, mit denen nachhaltige Infrastrukturen finanziert werden könnten (Rueter 2017). Die Verteilungseffekte einer CO2-Steuer sind jedoch in der Regel regressiv. Haushalte mit niedrigen Einkommen benötigen tendenziell einen größeren Teil ihres Einkommens, um die anfallende Steuer zu bezahlen, als Haushalte mit hohen Einkommen. Um dies auszugleichen, müsste dann versucht werden, Bevölkerungsgruppen zu entlasten, die durch eine CO2-Steuer tendenziell stärker belastet werden. Ein weiteres Problem ergibt sich aus Wirtschaftssubjekten, die kaum Möglichkeiten haben, auf andere, nicht von der Steuer betroffene Produkte auszuweichen. Rückverteilungsmaßnahmen müssten dann so ausgestaltet werden, dass die gewünschten Lenkungseffekte erhalten bleiben.
7 Internationale Wirtschaftspolitik und Klimawandel
143
Die Pigou-Steuer
Nach Pigou (1920) sollen die einzelwirtschaftlichen Kosten mit den volkswirtschaftlichen Kosten dadurch zur Deckung gebracht werden, dass die Verursacher negativer externer Effekte besteuert werden. Der Pigou-Steuersatz liegt bei den im Pareto-optimalen Zustand veranschlagten marginalen externen Kosten und somit im Schnittpunkt von Grenzkosten und Grenznutzen. Eine vollkommene Umsetzung der Pigou-Steuer ist besonders wegen der bei der ökonomischen Bewertung der externen Effekte auftretenden Informationsprobleme kaum möglich. Die Idee der Pigou-Steuer bildet jedoch die Grundlage bei der Entwicklung praxisnäherer Besteuerungsvarianten, besonders der Emissionssteuer (Feess 2019).
Abb. 7.3 zeigt die gesamten sozialen Grenzkosten (SGK) als Summe von privaten Grenzkosten PGK und Emissionsgrenzkosten EGK. Die EGK, verursacht durch externe Effekte, gehen nicht in die Kalkulation der Anbieter ein und werden daher von der Gesellschaft getragen. Ein Optimum ergibt sich im Schnittpunkt von SGKAngebotskurve und Nachfragekurve (Grenznutzen). Daraus resultiert t als die zu erhebende Pigou-Steuer. Die Wahl der wirtschaftspolitischen Instrumente zur Durchsetzung von Klimapolitik ist umstritten. Hauptsächlich geht es um die Entscheidung zwischen Emissionsabgaben und Emissionszertifikaten. Emissionsabgaben sind Instrumente der direkten Preissteuerung. Emissionszertifikate sind Instrumente der Mengensteuerung. Je nach Entscheidung können erhebliche Wohlfahrtunterschiede damit verbunden sein. Ergänzende
Abb. 7.3 Pigou-Steuer. (Quelle: In Anlehnung an Torben 2013, S. 26)
144
F. Benker
Maßnahmen, wie Emissionsstandards oder Subventionen für Entwicklung und Einsatz klimafreundlicher Technologien, müssen auch diskutiert werden, stoßen aber wegen ausgeprägter Verteilungseffekte oft auf das Problem der mangelnden politischen Durchsetzbarkeit (Buchholz und Heindl 2015, S. 332). Nicht nur die Verteilungseffekte einer CO2-Steuer sind umstritten. Auch die umweltpolitische Wirksamkeit und ökonomische Effizienz des Emissionshandels sind fraglich. In der realpolitischen Praxis wird der Emissionszertifikatehandel nicht als effizienteste Form der Emissionsvermeidung angesehen. Der sehr niedrige Preis für Emissionszertifikate von durchschnittlich 5 € je Tonne CO2 im Jahr 2017 ist zwar auf 15 € im Jahr 2018 angestiegen. Zu Jahresbeginn 2019 lag er bei 20 € je Tonne CO2. Aufgrund der höheren CO2-Preise sind momentan moderne und emissionsarme Gas- und Dampfkraftwerke in vielen Fällen wieder wettbewerbsfähiger als alte Steinkohlekraftwerke. Dennoch wird die Wirksamkeit des Emissionshandels im Hinblick auf das Ziel, langfristige Investitionen in klimafreundliche Technologien zu stimulieren, angezweifelt. Grund ist das nach Meinung vieler Experten noch zu hohe Angebot an umlaufenden Zertifikaten (Jenkins 2014).
7.3.5 Global Governance als Hoffnungsträger Es besteht die Hoffnung, dass der Klimawandel als Treiber der Synchronisation der internationalen Wirtschaftspolitik die zukünftige „Global Governance“ verbessert. Der Begriff „Governance“ ist als ein „system of rule“ bei Abwesenheit von zentraler Durchsetzungsgewalt zu verstehen. Wichtige Ziele der Global Governance sind mehr Kooperation und Koordination staatlicher und nicht-staatlicher Akteure auf allen Politikebenen, eine Aufwertung der Bürgergesellschaft, mehr Partizipation und Vorrang der Menschenrechte vor den Souveränitätsrechten von Staaten. Zweck und Ziel von Global Governance können somit definiert werden als „Entwicklung eines Institutionen- und Regelsystems und neuer Mechanismen internationaler Kooperation, die die kontinuierliche Problembearbeitung globaler Herausforderungen und grenzüberschreitender Phänomene erlauben“ (Messner und Nuscheler 2003, S. III). Global Governance heißt nicht Global Government, also Weltregierung oder Weltstaat. Die Herausforderung besteht darin, „die Welt ohne Weltstaat zu regieren“. Denn: Weltweit steht „Dezentralisierung“ auf der politischen Reformagenda (Messner und Nuscheler 2003, S. 15). Gerade vor dem Hintergrund des zum Teil lange andauernden Instrumental-Lags, also des Fehlens der Umsetzung der globalen wirtschaftspolitischen und klimapolitischen Ziele, wäre es angebracht, die Kooperation der geopolitisch führenden Staaten zu verstärken. Die bisher genannten Organisationen, wie UN und G20, sind noch nicht schlagkräftig genug. Die Gründe dafür sind vielfältig: fehlende demokratische Legitimation der internationalen Organisationen, Reformblockaden, Eigeninteressen, Ad-hoc-Allianzen, mangelnde Abstimmung in einzelnen Politikbereichen (WTO, IWF). Auch die bereits erwähnte Trittbrettfahrerproblematik und die Gegenwartspräferenz schwächen die Schlagkraft der zahlreichen Organisationen.
7 Internationale Wirtschaftspolitik und Klimawandel
145
„Der Zwang zur Kooperation verlangt Souveränitätsverzichte, die Globalisierungseffekte und Interdependenzstrukturen schon längst erzwungen haben. Auch die Großmächte müssen sich, um sich als kooperationsfähig zu erweisen, mit ‚geteilten Souveränitäten‘ abfinden.“ (Messner und Nuscheler 2003, S. 15). Die dadurch erhoffte Handlungs- und Problemlösungsfähigkeit der EU ist gegenwärtig höchst umstritten. Die dort vorgefundenen Probleme ähneln den Problemen der bereits erwähnten internationalen Organisationen. Dennoch kann die EU auf dem Gebiet der Klimapolitik und der damit verbundenen wirtschaftspolitischen Anstrengungen im weltweiten Vergleich beachtliche Erfolge verbuchen. Die mangelnde Schlagkräftigkeit der internationalen Institutionen liegt nicht zuletzt an der derzeit gültigen Weltordnung. Bisher dominiert das „Westfälische System“3 als Konzept der internationalen Ordnung. Die Genialität des Systems beruhte bisher darauf, dass seine Bestimmungen auf Verfahrensweisen und nicht auf inhaltliche Fragen gerichtet waren. Dies ist auch der Grund für seine weltweite Verbreitung (Kissinger 2014, S. 39). Aber gerade der Fokus auf Verfahrensweisen und weniger auf Inhalte ist angesichts der Bedrohungen durch den Klimawandel fatal. Die „Entgrenzung der Staatenwelt“, insbesondere durch die grenzüberschreitenden Auswirkungen des Klimawandels, führt dazu, dass das mit dem Begriff „Westfälisches System“ bezeichnete staatszentrierte Modell des Regierens heute an seine Grenzen stößt. Globale Herausforderungen zwingen aber zunehmend dazu, wirtschaftspolitisch „inhaltlich“ zusammenzuarbeiten.
7.4 Schlussbetrachtung Viele Klimaexperten halten den Begriff „Klimaschutz“ für falsch, denn es geht – und das ist auch die ökonomische Perspektive – um die Aufrechterhaltung der Funktionsfähigkeit ökonomischer Systeme und damit letztlich um den Schutz der (Über-)Lebensgrundlagen der Menschen. Damit ist gleichzeitig auch der „Urgrund“ menschlichen ökonomischen Handelns angesprochen, nämlich der möglichst effiziente Einsatz knapper Ressourcen. Aus dieser Perspektive heraus ist der Begriff „Menschenschutz“ treffender. Das Wort „Klimaschutz“ zeugt zudem von erheblicher Hybris. Der Mensch kann das Klima nicht „schützen“, aber er kann es beeinflussen, zu seinen Gunsten oder zu seinen Ungunsten. Die internationale Wirtschaftspolitik sollte im Sinne des „Menschenschutzes“ handeln. Voraussetzung für ein effektives Wirken ist die Koordination und Synchronisation wirtschaftspolitischer Maßnahmen. Außerdem sollten sich die wirtschaftspolitischen Akteure der globalen gestalterischen Kraft der wirtschaftenden Menschheit – die ja Verursacher des Anthropozäns ist – bewusst werden und diese im Sinne einer Globalverantwortung einsetzen und nutzen. 3In
den Politikwissenschaften bezieht man sich auf das empirische Faktum, dass zwischenstaatliche Beziehungen seit 1648 nach dieser Handlungslogik funktionieren. Siehe ausführlich bei Kissinger (2014, S. 15–18 und 35–54).
146
F. Benker
Literatur Abram, N. J., McGregor, H. V., Tierney, J. E., Evans, M. N., McKay, N. P., Kaufman. D. S., & the PAGES 2k Consortium. (2016). Early onset of industrial-era warming across the oceans and continents. Nature, 536, 411–418. BDI. (2019). Die G20. Zentrales Forum für internationale wirtschaftliche Zusammenarbeit. https://bdi.eu/artikel/news/die-g20-zentrales-forum-fuer-internationale-wirtschaftlichezusammenarbeit/. Zugegriffen: 30. Sept. 2019. Benker, F. (2004). Der ökonomische Raum auf der Basis geographischer Modellvorstellungen. Frankfurt a. M.: Peter Lang. Broecker, W. S. (1975). Climatic change: Are we on the brink of a pronounced global warming? Science, 189(4201), 460–463. Buchholz, W., & Heindl, P. (2015). Ökonomische Herausforderungen des Klimawandels. Perspektiven der Wirtschaftspolitik, 16(4), 324–350. Budyko, M. I. (1968). The effect of solar radiation variations on the climate of the earth. In D. Archer, & R. Pierrehumbert (Hrsg.), The warming papers. The scientific foundation for the climate change forecast (S. 116–124). Oxford: Wiley-Blackwell. Budyko, M. I. (1972). Man’s influence on climate. Leningrad: Gidrometeoizdat. Burke, M., Hsiang, S. M., & Miguel, E. (2015). Global non-linear effect of temperature on economic production. Nature, 527, 235–239. Climate Service Center Germany. (o. J.). Anthropozän. https://wiki.bildungsserver.de/klimawandel/index.php/Anthropoz%C3%A4n. Zugegriffen: 30. Sep. 2019. Die Bundesregierung. (2019). Die G20. https://www.bundesregierung.de/breg-de/themen/g7-g20/ die-g20-387324. Zugegriffen: 1. Dez. 2019. Ebersoll, M. (2006). Die Alternative Wirtschaftstheorie. Beitrag zu den Grundlagen einer quantitativen Theorie dynamischer ökonomischer Systeme. Tönning: Der Andere Verlag. Edenhofer, O. (2017). Klimapolitik ist Wirtschaftspolitik. Potsdam Institute for Climate Impact Research. Hauptstadtbüro WILO Eröffnungsfeier. https://www.pik-potsdam.de/members/ edenh/talks/20170427_Edenhofer_WILO.pdf. Zugegriffen: 30. Sept. 2019. Egner, H., & Zeil, M. (2019), Das Anthropozän – ein begriffliches Erdbeben (nicht nur für die Geographie). In H. Egner, & H. P. Groß Peter (Hrsg.), Das Anthropozän: interdisziplinäre Perspektiven auf eine Krisendiagnostik (S. 15–32). München: Profil. Europäische Investitionsbank. (2009). Gemeinsame Pressemitteilung. BEI/09/241, 02.12.2009. https://ec.europa.eu/commission/presscorner/detail/de/BEI_09_241. Zugegriffen: 1. Dez. 2019. Europäische Kommission. (2009). EU-Maßnahmen gegen den Klimawandel. Das EU-Emissionshandelssystem. Luxemburg: Amt für amtliche Veröffentlichungen der Europäischen Gemeinschaften. Europäische Kommission. (2019). EU-Emissionshandelssystem (EU-EHS). https://ec.europa.eu/ clima/policies/ets_de. Zugegriffen: 1. Dez. 2019. Europäisches Parlament. (2018). Klimaziele: Fortschritte der EU. https://www.europarl.europa. eu/news/de/headlines/society/20180706STO07407/klimaziele-fortschritte-der-eu-infografik. Zugegriffen: 1. Dez. 2019. Faz.net. (2010). Wir müssen über CO2-Zölle reden. https://www.faz.net/aktuell/wissen/klima/imgespraech-ottmar-edenhofer-wir-muessen-ueber-co2-zoelle-reden-1572844.html. Zugegriffen: 30. Sept. 2019. Feess, E. (2019). Pigou-Steuer. https://wirtschaftslexikon.gabler.de/definition/pigou-steuer-42894. Zugegriffen: 30. Sept. 2019. Gabler Banklexikon. (2018). Time Lag. Revision vom 12.11.2018. https://www.gabler-banklexikon.de/definition/time-lag-61880/version-345128. Zugegriffen: 30. Sept. 2019.
7 Internationale Wirtschaftspolitik und Klimawandel
147
Gebhard, H. (2016). Das „Anthropozän“ – zur Konjunktur eines Begriffs (Bd. 1, S. 28–42). Heidelberger Jahrbücher Online. https://doi.org/10.17885/heiup.hdjbo.23557. Günther, E. (2019). Klimawandel. https://wirtschaftslexikon.gabler.de/definition/klimawandel-52424. Zugegriffen: 1. Dez. 2019. HBS Hamburger Bildungsserver. (2019). Kipppunkte im Klimasystem. https://wiki.bildungsserver. de/klimawandel/index.php/Kipppunkte_im_Klimasystem. Zugegriffen: 1. Dez. 2019. Horn, G. A.. (2019). Lags. https://wirtschaftslexikon.gabler.de/definition/lag-41774#head2. Zugegriffen: 1. Dez. 2019. IPCC. (2019). Aktuelle IPCC-Berichte bis 2022. https://www.de-ipcc.de/266.php. Zugegriffen: 21. Okt. 2019. Jenkins, J. D. (2014). Political economy constraints on carbon pricing policies: What are the implications for economic efficiency, environmental efficacy, and climate policy design? Energy Policy, 69, 467–477. Kissinger, H. A. (2014). Weltordnung. München: Pantheon. Kiyar, D. (2013). Internationale Klimapolitik. bpb Dossier Klimawandel. https://www.bpb.de/ gesellschaft/umwelt/klimawandel/38535/akteure?p=all. Zugegriffen: 15. Sept. 2019. LUBW Landesanstalt für Umwelt Baden-Württemberg u. a. (Hrsg.). (2018). 6. KLIWASymposium. Fachvorträge. Risiko Klima – Herausforderungen managen. KLIWA-Berichte Heft 22. Karlsruhe: Schmid-Druck. Matthes, F. C. (2008). Klimawandel und Klimaschutz. Informationen zur politischen Bildung, Heft 298. Umweltpolitik. https://www.bpb.de/izpb/8988/klimawandel-und-klimaschutz?p=all. Zugegriffen: 21. Okt. 2019. Meadows, D. (1972). Die Grenzen des Wachstums. Bericht des Club of Rome zur Lage der Menschheit. München: Deutsche Verlagsanstalt. Messner, D., & Nuscheler, F. (2003). Das Konzept Global Governance. Stand und Perspektiven. INEF Report. Duisburg: Institut für Entwicklung und Frieden. Minter, S. (2019). Free-Rider-Verhalten. https://wirtschaftslexikon.gabler.de/definition/free-riderverhalten-33255. Zugegriffen: 1. Dez. 2019. OECD. (2012). OECD-Umweltausblick bis 2050. Die Konsequenzen des Nichthandels. Zusammenfassung. https://www.oecd.org/env/indicators-modelling-outlooks/49889636.pdf. Zugegriffen: 21. Okt. 2019. Paeger, J. (2016a). Eine kleine Geschichte des menschlichen Energieverbrauchs. http://www. oekosystem-erde.de/html/energiegeschichte.html. Zugegriffen: 15. Sept. 2019. Paeger, J. (2016b). Dunkle Wolken im „großen Luftozean“. Eine kleine Geschichte der Luftverschmutzung. http://www.oekosystem-erde.de/html/luftverschmutzung.html. Zugegriffen: 15. Sept. 2019. Pigou, A. (1920). The economics of welfare. London: Macmillan. PIK Potsdam Institute for Climate Impact Research. (2012). Vier-Grad-Dossier für die Weltbank. Risiken einer Zukunft ohne Klimaschutz. https://www.pik-potsdam.de/aktuelles/ pressemitteilungen/archiv/2012/4-degrees-briefing-for-the-world-bank-the-risks-of-a-futurewithout-climate-policy. Zugegriffen: 21. Okt. 2019. Ramanathan, V. (1975). Greenhouse effect due to chlorofluorocarbons. Climatic Implications. Science, 190(4209), 50–52. Ritter, W. (1993). Allgemeine Wirtschaftsgeographie. Eine systemtheoretisch orientierte Einführung (2. Aufl.). München: Oldenbourg. Rueter, G. (2017). G20: Klimaschutz braucht Kurswechsel in der Wirtschaftspolitik. https://www. dw.com/de/g20-klimaschutz-braucht-kurswechsel-in-der-wirtschaftspolitik/a-37998631-0. Zugegriffen: 15. Sept. 2019.
148
F. Benker
Sieder, R., & Langthaler, E. (2019). Globalgeschichte 1800-2010. Wien: Böhlau. Steffen, W., Broadgate, W., Deutsch, L., Gaffney, O., & Ludwig, C. (2015). The trajectory of the Antropocene: The great accaleration. The Anthopocene Review, 16(1), 18. Subcommission on Quaternary Stratigraphy. (2019). Working Group on the ‚Anthropocene‘. http:// quaternary.stratigraphy.org/working-groups/anthropocene/. Zugegriffen: 21. Okt. 2019. The White House Washington. (1965). Restoring the quality of our environment. Report of the Environmental Pollution Panel. Washington 1965. http://hdl.handle.net/2027/uc1.b4116127. Zugegriffen: 1. Dez. 2019. Thompson, P. D., & O’Brian, R. (1970). Das Wetter. Reinbek bei Hamburg: Rowohlt Taschenbuch. Torben, K. (2013). Einführung in die Finanzwissenschaft. Externe Effekte. https://www.uni-ulm. de/fileadmin/website_uni_ulm/mawi.inst.150/lehre/ss13/EinFinWiss/Externe_Effekte.pdf. Zugegriffen: 1. Dez. 2019. WMO World Meteorological Organisation. (2019). World Climate Programme (WCP). WMO extranet. http://www.wmo.int/pages/prog/wcp/wcp.html. Zugegriffen: 15. Sept. 2019. Wohltmann, H.-W. (2019). Zeitpräferenz. https://wirtschaftslexikon.gabler.de/definition/ zeitpraeferenz-47057. Zugegriffen: 1. Dez. 2019. WTO World Trade Organisation. (2009). Trade and climate change. A report by the united nations environment programme and the world trade organization. Genf: WTO Secretariat. Zalasiewicz, J., Waters, C. N., Williams, M., Summerhayes, C. P., & Polar, S. (Hrsg.). (2019). The anthropocene as a geological time unit. A guide to the scientific evidence and current debate. Cambridge: Cambridge University Press.
Prof. Dr. Franz Benker ist seit 2010 hauptberuflicher Dozent für Betriebswirtschaftslehre, insbesondere Finanzwirtschaft, an der FOM Hochschule für Oekonomie & Management in Nürnberg. Seine Forschungsschwerpunkte liegen in den Feldern internationale Wirtschaftspolitik, Theorie des Geldes, Raumwirtschaftstheorie und Wirtschaftsgeographie. Franz Benker ist FOM-intern Mitglied des KCV KompetenzCentrum für angewandte Volkswirtschaftslehre. Zudem ist er forschendes Mitglied des AWT Instituts für ökonomische Systemtheorie, München.
8
Die Förderung erneuerbarer Energieträger aus ordnungspolitischer Sicht Michael Drewes
Inhaltsverzeichnis 8.1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 8.2 Ordnungspolitik und ordnungspolitische Grundsätze. . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 8.3 Das EEG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 8.3.1 Entwicklung und Ausgestaltung des EEG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 8.3.2 Folgen der Förderung der Erzeugung erneuerbarer Energie. . . . . . . . . . . . . . . . . 153 8.4 Ordnungspolitische Einordnung des EEG. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 8.4.1 EEG-Förderung und direkte Kosten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 8.4.2 EEG-Förderung und indirekte Kosten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 8.4.3 Nutzen durch die EEG-Förderung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 8.5 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
Zusammenfassung
Das Gesetz für den Vorrang erneuerbarer Energien (EEG) ist der zentrale Fördermechanismus für die Erzeugung von Strom aus erneuerbaren Energieträgern und somit wesentlicher Bestandteil der Energiewende. Die verbreitete Kritik, dass dieses Instrument klimapolitisch wirkungslos ist, wird in diesem Beitrag durch das Argument ergänzt, dass aufgrund der Verletzung ordnungspolitischer Grundsätze mit dem EEG eine teure wirtschaftspolitische Interventionsspirale ausgelöst wurde, die mit erheblichen volkswirtschaftlichen Kosten verbunden ist. Für eine volkswirtschaftliche
M. Drewes (*) FOM Hochschule, Mannheim, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_8
149
150
M. Drewes
Kosten-Nutzen-Analyse bedeutet dies, dass effektivere, effizientere und ordnungskonformere Mittel für die Erreichung klima- und umweltpolitischer Ziele anzustreben sind.
8.1 Einleitung Das Gesetz für den Vorrang erneuerbarer Energien (EEG) ist der zentrale Fördermechanismus für die Erzeugung von Strom aus erneuerbaren Energieträgern und somit wesentlicher Bestandteil der sogenannten Energiewende. Die bisherige ökonomische Diskussion über das EEG bezieht sich im Wesentlichen auf die Frage, ob dieses Förderinstrument die erhoffte klimapolitische Wirkung überhaupt erzielt. Ausbau und Förderung erneuerbarer Energien sollen hinsichtlich der anhaltenden Klimadiskussion „zu einer emissionsverringernden Dekarbonisierung der Stromerzeugung beitragen“ (Marquardt 2016, S. 515). Während die Befürworter des EEG anführen, dass beispielsweise ein alleiniger Emissionshandel „nicht ausreichend ist, die Marktdiffusion kurzfristig noch relativ teurer regenerativer Stromerzeugungstechnologien voranzutreiben“ (Weber und Hey 2012, S. 51) und das EEG Lerneffekte auslöse, weisen die Kritiker des EEG darauf hin, dass es im Zusammenhang mit dem C O2-Emissionshandelssystem durch die Förderung erneuerbarer Energien nicht unbedingt zu geringeren CO2Emissionen kommt (Marquardt 2016; Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung 2019). Stattdessen komme es lediglich zu einer Emissionsverlagerung (Frondel et al. 2010, S. 120). Dieser Argumentation folgend kann unter bestimmten Voraussetzungen (d. h. bei gleichzeitiger Vernichtung von CO2-Senken) die Förderung erneuerbarer Energieträger sogar klimaschädlich sein. Das Argument von Sinn (2015), wonach eine geringere Nachfrage nach fossilen Energieträgern in Europa global zu geringeren Preisen und so außerhalb Europas zu (kompensierender) höherer und schnellerer Nachfrage führt, ist sogar noch weitreichender. In diesem Beitrag soll dargelegt werden, dass unabhängig von der Effektivität der Förderung erneuerbarer Energieträger im Hinblick auf das Klimaschutzziel mit dieser erhebliche volkswirtschaftliche Kosten verbunden sind, sodass vor allem die Effizienz der derzeitigen EEG-Förderung fraglich ist. Diese mangelnde Effizienz aufgrund hoher volkswirtschaftlicher Kosten kann als Folge der Nichtbeachtung ordnungspolitischer Grundsätze interpretiert werden, welche eine kostenträchtige Interventionsspirale nach sich zieht. Daraus wird die Forderung abgeleitet, nach effektiveren, effizienteren und ordnungskonformeren Wegen der Emissionsvermeidung (und gegebenenfalls der Industriepolitik) zu suchen.
8 Die Förderung erneuerbarer Energieträger …
151
8.2 Ordnungspolitik und ordnungspolitische Grundsätze Die Wirtschaftsordnung, für die sich die Bundesrepublik Deutschland entschieden hat, ist die soziale Marktwirtschaft. Die soziale Marktwirtschaft basiert auf der Konzeption des Ordoliberalismus, der über die Schaffung einer Wettbewerbsordnung ein funktionsfähiges Preissystem sicherstellen möchte. Wettbewerb und funktionierendes Preissystem sind also zwei wesentliche Eckfeiler der bundesdeutschen Wirtschaftsordnung und haben ordnungspolitische Priorität. Eucken (2004, S. 254 ff.) als Vordenker des Ordoliberalismus und damit der sozialen Marktwirtschaft benannte sieben „konstituierende Prinzipien“ einer ordoliberalen Wettbewerbsordnung, welche durch vier regulierende Prinzipien ergänzt werden. Soziale Marktwirtschaft
Die soziale Marktwirtschaft in Deutschland basiert auf Euckens Gedanke einer marktwirtschaftlichen, ordoliberalen Wettbewerbsordnung. Zu einer solchen gehören konstituierende Prinzipien, das sind nach Eucken: 1. Privateigentum, da Kollektiveigentum zwangsläufig mit zentraler Lenkung des Wirtschaftsprozesses verbunden ist. 2. Herstellung eines Preissystems, welches seine Lenkungsfunktion erfüllen kann. 3. Offene Märkte, welche zur Konstitution einer Wettbewerbsordnung notwendig sind. Nur mit offenen Märkten, welche sowohl Marktzutritt als auch -austritt erlauben, kann der auf einem funktionsfähigen Preissystem basierende Ausleseprozess funktionieren. 4. Vertragsfreiheit „als Voraussetzung für das Zustandekommen der Konkurrenz. Wenn die einzelnen Haushalte und Betriebe nicht selbst wählen, nicht die Möglichkeiten prüfen und danach Verträge abschließen können, wenn sie Befehle durchführen oder Zuteilungen in Empfang nehmen, kann Konkurrenz nicht entstehen“ (Eucken 2004, S. 275). 5. Haftung, sodass derjenige, der „den Nutzen hat, (…) auch den Schaden trägt“ (Eucken 2004, S. 279). 6. Ein Primat der Währungspolitik, da eine gewisse Stabilität des Geldwertes Voraussetzung für die Verwirklichung einer funktionierenden Wettbewerbsordnung ist. 7. Konstanz der Wirtschaftspolitik, die sich längerfristig an diese ordnungspolitischen Grundsätze hält. Als „regulierende Prinzipien“, welche „systemfremde Ordnungsformen“ (Eucken 2004, S. 291) verhindern und „Schwächen und Mängel“ korrigieren sollen, sieht Eucken die Verhinderung von monopolistischen Unternehmen, eine korrigierende Verteilungspolitik und unter bestimmten Voraussetzungen
152
M. Drewes
(d. h. anormalem Angebotsverhalten) die Festlegung von Minimallöhnen. Von besonderer Bedeutung ist hier jedoch die „Wirtschaftsrechnung“. Eucken nimmt hier die Diskussionen aus der sogenannten Sozialismusdebatte auf, aufgrund derer die Notwendigkeit einer einzelwirtschaftlichen Wirtschaftsrechnung (Mises 1920) dargelegt wurde. Eucken weist dabei darauf hin, dass bestimmte Kosten nicht im Planungsbereich einzelner Unternehmen liegen, folglich externe Effekte oder Externalitäten (Definition siehe weiter unten) vorliegen. In solchen Fällen sei die „Freiheit der Planung an gewissen Stellen einzuengen“ (Eucken 2004, S. 303). Als besondere Gefahr bei Eingriffen in die marktwirtschaftliche Ordnung wurde nicht nur von Eucken gesehen, dass es zu Interventionsspiralen aufgrund nicht beabsichtigter Folge- und Nebenwirkungen wirtschaftspolitischer Eingriffe kommt. Auf die Probleme des „Interventionismus“ hatte schon Mises (1976) hingewiesen. Zu Interventionsspiralen kommt es, wenn zunächst kleine wirtschaftspolitische Eingriffe immer weitere Korrekturen, Verbesserungen und Weiterentwicklungen notwendig machen und es so zu mehr Interventionen in die marktwirtschaftliche Ordnung kommt, als zunächst beabsichtigt (häufig auch als Ölflecktheorie bezeichnet). Hier soll dargelegt werden, dass mit der Förderung erneuerbarer Energieträger die wesentlichen ordnungspolitischen Prinzipien nach Eucken verletzt werden und dadurch eine teure Interventionsspirale in Gang gekommen ist, welche kaum durch die regulierenden Prinzipien gedeckt und weder effektiv noch effizient ist.
8.3 Das EEG 8.3.1 Entwicklung und Ausgestaltung des EEG Das Gesetz für den Vorrang erneuerbarer Energien oder auch E rneuerbareEnergien-Gesetz (EEG) ist nach Angaben des Bundesministeriums für Wirtschaft und Energie eine zentrale Säule der Energiewende. Auf der Homepage des Ministeriums wird ausgeführt: „Das EEG ist und bleibt das zentrale Steuerungsinstrument für den Ausbau der erneuerbaren Energien. Ziel des EEG ist es die Energieversorgung umzubauen und den Anteil der erneuerbaren Energien an der Stromversorgung bis 2050 auf mindestens 80 Prozent zu steigern. Der Ausbau der erneuerbaren Energien erfolgt insbesondere im Interesse des Klima- und Umweltschutzes zur Entwicklung einer nachhaltigen Energieversorgung. Daneben sollen die volkswirtschaftlichen Kosten der Energieversorgung verringert, die fossilen Energieressourcen geschont und die Technologieentwicklung im Bereich der erneuerbaren Energien vorangetrieben werden“ (Bundesministerium für Wirtschaft und Energie 2019). Vorläufer des EEG war das Stromeinspeisungsgesetz (StrEG) von 1991. Im Jahre 2000 wurde dann das EEG 2000 verabschiedet, mit dem die Förderung erneuerbarer Energien forciert wurde. Danach waren die Netzbetreiber, also die Betreiber von Über-
8 Die Förderung erneuerbarer Energieträger …
153
tragungsnetzen sowie von Elektrizitätsversorgungs- und -verteilnetzen, verpflichtet, Strom, der aus erneuerbaren Energieträgern erzeugt wurde, vorrangig von den Anlagenbetreibern abzunehmen. Zudem mussten an die Anlagenbetreiber im EEG festgelegte Vergütungssätze gezahlt werden, die deutlich über den Herstellungskosten herkömmlich hergestellten Stroms liegen (Frondel et al. 2010, S. 110). Praktisch bedeutet das, dass die Netzbetreiber Anlagen zur Erzeugung von Strom aus erneuerbaren Energien anschließen und den so erzeugten Strom abnehmen und zu festgelegten Preisen vergüten müssen. Die Vergütungssätze sind für die Investoren garantiert (s. auch Mennel 2012, S. 19 f.). Zu tragen haben die Kosten dieser Subventionierung die Stromendverbraucher in Form hoher Strompreise (s. auch Frondel et al. 2010, S. 111). Inzwischen hat es mit dem EEG 2004, dem EEG 2009, dem EEG 2012, dem EEG 2014 und dem EEG 2017 sowie der Photovoltaik-Novelle von 2012 mehrere „Weiterentwicklungen“ des Gesetzes gegeben. Ergänzt werden die Gesetze durch verschiedene Verordnungen, z. B. die Ausgleichsmechanismus-Ausführungsverordnung oder auch die EU-Verordnung zur Entwicklung transeuropäischer Netze. Seit dem EEG 2017 erfolgt die Vergütung erneuerbarer Energieerzeugung grundsätzlich über Ausschreibungen und nicht mehr über festgelegte Vergütungssätze.
8.3.2 Folgen der Förderung der Erzeugung erneuerbarer Energie Der Strompreis setzt sich aus verschiedenen Bestandteilen zusammen. Abb. 8.1 zeigt diese Struktur.
Abb. 8.1 Zusammensetzung des Strompreise für Haushaltskunden (in Prozent; Stand 2018). (Quelle: Bundesnetzagentur und Bundeskartellamt 2019)
154
M. Drewes
Tab. 8.1 Aggregierte Zusammensetzung des Strompreises Steuern und Abgaben
28,3 %
Entgelt für Netznutzung und Messung
24,1 %
Umlagen zur Finanzierung erneuerbarer Energieerzeugung
24,0 %
Strombeschaffung zuzüglich Vertrieb und Marge
22,4 %
Umlagen zur Finanzierung von Kraft-Wärme-Kopplungsanlagen
1,2 % 100,0 %
Aggregiert man die Bestandteile, ergibt sich das in Tab. 8.1 dargestellte Bild. Deutlich wird, dass Haushalte erheblich mehr für den Strom bezahlen, als die Energieversorger für den Strom und dessen Transport in Rechnung stellen. Den weitaus größten Teil der Stromrechnung machen Steuern und Abgaben aus. Die Umlagen zur Finanzierung der Erzeugung erneuerbarer Energie machen rund 24 % des Strompreises aus, also mehr, als für den eigentlichen Strom bezahlt wird. Der Ausbau der Erzeugung erneuerbarer Energie wird mit der sogenannten EEGUmlage finanziert. Hintergrund dieses Ausgleichsmechanismus war, dass die festgelegten Vergütungssätze für die verpflichtende Einspeisung von Strom aus Erneuerbare-EnergieErzeugung diejenigen Netzbetreiber überproportional belastet hätte, welche sich in Regionen mit starker Stromerzeugung aus erneuerbaren Energien befinden, beispielsweise an der deutschen Nordseeküste mit hohem Windaufkommen. Die EEG-Umlage stellt sicher, dass der Verbrauch von Strom gleichmäßig in Deutschland mit den Finanzierungskosten für Erneuerbare-Energie-Träger belastet wird. Aus politökonomischer Sicht hat diese Form der Subventionierung zudem den Vorteil, dass sie am Bundeshaushalt vorbeiläuft. Schon im EEG von 2004 wurde der besondere Belastungsausgleich eingeführt. Für energieintensive Unternehmen des produzierenden Gewerbes werden im Rahmen des sogenannten besonderen Belastungsausgleichs Erleichterungen gewährt, welche die internationale Wettbewerbsfähigkeit der energieintensiven Unternehmen verbessern bzw. erhalten sollen. Für alle Stromabnehmer, die nicht von diesem besonderen Belastungsausgleich profitieren, bedeutet die Privilegierung energieintensiver produzierender Unternehmen, dass die EEG-Umlage für sie steigt. Einen vergleichbaren Anteil wie die Umlagen haben die Netznutzungsentgelte. Die Netznutzungsentgelte sind die Preise, welche die Netzbetreiber dafür verlangen, dass sie ihre Netze für die Durchleitung von Strom zur Verfügung stellen. Da der Ausbau der Erzeugung erneuerbarer Energie für die Zuverlässigkeit der Stromnetze eine Herausforderung ist, sind verschiedene durch die erneuerbaren Energien verursachte Kosten in diesen regulierten Entgelten enthalten und erhöhen c. p. die Netznutzungsentgelte und so die Letztverbraucherpreise. Der erfolgreiche Ausbau der erneuerbaren Energien macht beispielsweise das sogenannte Einspeisemanagement notwendig. § 14 EEG erlaubt es verantwortlichen Netzbetreibern, unter bestimmten Voraussetzungen die Einspeisung aus Anlagen zur Erzeugung von Strom aus erneuerbaren Energien abzuregeln, d. h. von bestimmten
8 Die Förderung erneuerbarer Energieträger …
155
Anlagen den Strom nicht mehr ins Netz aufzunehmen. Faktisch werden die Anlagen dann abgestellt. Hintergrund dieser Regelung ist der starke Ausbau der Kraftwerke zur Erzeugung von Strom aus erneuerbaren Energien. Dies kann bei entsprechender Witterung und nicht ausreichender Abnahme von Strom aus den Netzen dazu führen, dass zu viel Strom in die Netze eingespeist wird und die Gefahr eines Netzengpasses entsteht. Für die Betreiber einer Anlage zur Erzeugung von Strom aus erneuerbaren Energien ist dies unerwünscht. Gerade in Zeiten, in denen sie sehr viel Strom erzeugen könnten, dürfen sie diesen nicht absetzen, weil Angebot und Nachfrage hier nicht zum Ausgleich kommen. Daher sieht der Gesetzgeber (§ 12 EEG) für die Betreiber abgeregelter Anlagen eine Entschädigungspflicht vor. Diese Entschädigungen werden vom Verteilnetzbetreiber gezahlt; die Kosten werden auf die Netzentgelte umgelegt, sodass dieser Teil der durch die erneuerbaren Energien verursachten Kosten in den Netznutzungsentgelten enthalten ist. Die Bundesnetzagentur gibt für 2017 die Entschädigungszahlungen in Folge des Einspeisemanagements mit 610 Mio. € an, bei steigender Tendenz (Bundesnetzagentur 2019, S. 11). Ähnlich verhält es sich mit dem sogenannten Redispatch. Darunter versteht man einen Eingriff von Übertragungsnetzbetreibern in die (konventionelle) Stromerzeugung, welche die örtliche Verteilung von der Stromeinspeisung zur Verhinderung bzw. Behebung von Netzengpässen zur Folge hat. Im Zuge des Ausbaus der erneuerbaren Energien sind derartige Eingriffe immer häufiger notwendig geworden. Zudem müssen Reservekraftwerke vorgehalten werden. Die damit verbundenen Kosten sind ebenfalls in den Netznutzungsentgelten enthalten. Nach Angaben der Bundesnetzagentur wurden die Kosten für das Redispatch im Jahr 2017 auf 392 Mio. € geschätzt. Die Kosten für den Abruf und die Vorhaltung von Reservekraftwerken betrugen 2017 rund 480 Mio. € (Bundesnetzagentur 2019, S. 10 f.). Auch für diese Kostenbereiche kann von einer steigenden Tendenz ausgegangen werden. Die unstete Produktion von Strom aus Erneuerbare-Energie-Erzeugung kann aber nicht nur dazu führen, dass zu viel, sondern auch, dass zu wenig Strom produziert wird. Um in solchen Fällen die Netzstabilität zu gewährleisten, haben Übertragungsnetzbetreiber die Möglichkeit, bei Bedarf Stromverbraucher (Lasten) anzuweisen, weniger Strom zu verbrauchen (und gegebenenfalls abzuschalten), um wiederum Netzengpässe zu vermeiden. Diese Stromverbraucher werden abschaltbare Lasten genannt. Bei den abschaltbaren Lasten handelt es sich in der Regel um Großverbraucher, deren Betrieb auf Energie angewiesen ist. Die Übertragungsnetzbetreiber zahlen an die abschaltbaren Lasten einen Ausgleich. Diese Zahlungen an die abschaltbaren Lasten werden untereinander ausgeglichen; belastet wird dann wiederum der Letztverbraucher über die entsprechende Umlage. In den Netznutzungsentgelten enthalten sind außerdem die Kosten des Ausbaus der Stromnetze, welcher aufgrund des örtlichen Auseinanderfallens von Stromerzeugung (vor allem Norddeutschland) und Stromverbrauch (vor allem Süddeutschland) notwendig ist. Zudem stellt für die Netzbetreiber die Umkehrung des Lastflusses eine Herausforderung dar, der ebenfalls durch den Ausbau der Stromnetze begegnet werden muss. Mit Umkehrung des Lastflusses ist gemeint, dass in der Vergangenheit der Strom in der Regel in Hoch- und Höchstspannungsnetze eingespeist wurde, während er jetzt zunehmend in die Mittel- und Niedrigspannungsnetze eingespeist und dann in höhere Netzebenen umgespannt wird.
156
M. Drewes
Als die deutsche Bundesregierung in Folge der Reaktor-Katastrophe von Fukushima beschloss, die deutschen Kernkraftwerke sukzessive vom Netz zu nehmen, wurde als Ersatz für die wegfallende Erzeugungskapazität die Förderung von Windenergie direkt in der Nord- und Ostsee, also offshore, festgelegt. Große Windenergieanlagen direkt auf See sollen verlässlich Strom nach Deutschland liefern. Ein Problem dieser Lösung war, dass der Strom von der Nord- und Ostsee zunächst an Land transportiert werden muss. Dafür waren Leitungen aus dem Meer zur Küste zu legen. Für die großen Übertragungsnetzbetreiber war das ein zu hohes Risiko, sodass sie von sich aus keine Bereitschaft zeigten, diese Investitionen durchzuführen. Die Lösung war die Schaffung einer Offshore-Haftungsumlage, welche ebenfalls auf die Letztverbraucher umgelegt wird.
8.4 Ordnungspolitische Einordnung des EEG Das Bundeswirtschaftsministerium hat als Ziel eine Verringerung der volkswirtschaftlichen Kosten der Energieerzeugung ausgegeben (Bundesministerium für Wirtschaft und Energie 2019). In die volkswirtschaftlichen Kosten der Energieversorgung sind, neben den direkt zurechenbaren Kosten, auch die indirekten Kosten in Form von Regulierungs-, Bürokratie- oder sonstigen Politikkosten einzuberechnen, also Kosten, die nicht unbedingt direkt erkennbar sind. Nicht direkt bezifferbar sind zudem die externen Kosten, die mit verschiedenen Energieerzeugungsarten verbunden sind. Um einordnen zu können, ob das Ziel der Kostenreduktion durch das EEG erreicht wurde, sind daher zunächst die volkswirtschaftlichen Kosten aufzunehmen und dem erreichten Nutzen gegenüberzustellen. Folglich ist eine volkswirtschaftliche Kosten-Nutzen-Analyse vorzunehmen. In diesem Zusammenhang ist auch zu untersuchen, wie die Förderung ordnungspolitisch einzuordnen ist und welche Folgewirkungen in diesem Zusammenhang entstanden sind und noch entstehen.
8.4.1 EEG-Förderung und direkte Kosten Die direkten Kosten der Förderung der Erzeugung erneuerbarer Energie zeigen sich zunächst einmal in den Umlagen, die zu deren Finanzierung auf den Strompreis aufgeschlagen werden. Als größter Posten ist hier die EEG-Umlage zu nennen, die für 2019 6,405 ct/kWh betrug und damit etwas niedriger lag als in den Vorjahren. Im Jahr 2020 beträgt die EEG-Umlage 6,756 ct/kWh; darauf wird die Umsatzsteuer zusätzlich erhoben. Erst in den Folgejahren wird aufgrund des Auslaufens erster Subventionierungen mit geringeren Beträgen für die EEG-Umlage gerechnet (Abb. 8.2). Die Stromverbraucher in Deutschland subventionieren so die Erzeugung erneuerbarer Energien direkt mit inzwischen rund 25 bis 27 Mrd. € pro Jahr (Baginski et al. 2018). Ordnungspolitisch ist dies zunächst einmal als ein Eingriff in den Preismechanismus sowie eine Marktabschottung, welche die Erzeuger erneuerbarer Energien vor
8 Die Förderung erneuerbarer Energieträger …
157
Entwicklung der EEG-Umlage in ct/kWh 6.24
6.17
6.35
2014
2015
2016
6.88
6.79
2017
2018
6.405
6.756
5.28 3.53
3.60
2011
2012
2.04
2010
2013
2019
2020
Abb. 8.2 Entwicklung der EEG-Umlage in ct/kWh. (Quelle: eigene Darstellung auf Basis Bundesnetzagentur o. J.)
Konkurrenz anderer Erzeugungsanlagen schützt, zu werten. Zudem stellt die verpflichtende Einspeisung bei garantierten Vergütungssätzen eine Einschränkung der Vertragsfreiheit sowie des Haftungsprinzips dar. Da die Vergütungssätze für mehrere Jahre garantiert sind, wird diese Kostenbelastung der Stromendverbraucher noch viele Jahre weiterwirken (s. auch Frondel et al. 2010, S. 114). Gegenläufig könnte sich auswirken, dass die EEG-Förderung einen dämpfenden Effekt auf die Stromgroßhandelspreise hat. Rechtfertigen lässt sich dieser Eingriff in die marktwirtschaftliche Ordnung – auch ordnungspolitisch aus der Sicht Euckens –, wenn man davon ausgeht, dass konventionelle Energieerzeugungsanlagen einen negativen externen Effekt (CO2-Emission) haben. Im Vergleich zu diesen Erzeugungsanlagen würde die Erzeugung erneuerbarer Energien durch eine Pigou-Subvention gefördert, sodass die negativen externen Effekte in dem Maße vermieden werden, wie atomare bzw. konventionelle Kraftwerke durch Kraftwerke ersetzt werden, die erneuerbare Energie erzeugen. Externe Effekte
Eine Externalität (oder ein externer Effekt) liegt vor, wenn die Aktivität eines Wirtschaftssubjektes die Nutzen oder die Produktionsmöglichkeiten eines anderen Wirtschaftssubjektes beeinflusst, ohne dass dafür ein Preis gezahlt wird. Der externe Effekt liegt also außerhalb des Marktprozesses, woher seine Bezeichnung rührt. Es gibt sowohl positive als auch negative externe Effekte, die ihre Ursache in einer mangelhaften Definition von Eigentumsrechten haben und mit Wohlfahrtsverlusten verbunden sind. Bei Umweltproblemen handelt es sich fast immer um (negative) externe Effekte. Wirtschaftspolitisches Ziel ist es, externe Effekte zu internalisieren, um sie in den Marktprozess und Preismechanismus einzubeziehen.
158
M. Drewes
Wenn aufgrund des Vorliegens externer Effekte private und soziale (Grenz-) Kosten auseinanderfallen, kann die Internalisierung der externen Effekte theoretisch dadurch erreicht werden, dass die Produktion eines negativen externen Effektes mit einer sogenannten Umwelt- oder Pigou-Steuer (benannt nach Arthur C. Pigou) belegt wird, sodass die Steuer die privaten auf das Niveau der sozialen Grenzkosten anhebt. Eine CO2-Steuer stellt eine derartige Pigou-Steuer dar. Umgekehrt kann bei Vorliegen eines positiven externen Effektes eine Pigou-Subvention gezahlt werden, sodass die Produktion auf das gesamtwirtschaftlich erwünschte Maß angehoben wird. Die Lenkungswirkung einer Pigou-Steuer ist allerdings nicht zielgenau und hängt u. a. von der Reaktion der Verbraucher ab. So kann die Steuerlösung z. B. bei geringer Preiselastizität der Nachfrage nahezu wirkungslos sein. Weitere Möglichkeiten, externe Effekte zu internalisieren, basieren auf Verhandlungslösungen nach Coase (1960). Das Coase-Theorem besagt, dass unter bestimmten Voraussetzungen die optimale Faktorallokation (und damit die Internalisierung externer Effekte) auf dem Verhandlungswege durch die privaten Marktakteure erreicht werden kann. Zu diesen Verhandlungslösungen gehören die handelbaren CO2-Emissionszertifikate. Auch diese sollen eine Annäherung der privaten an die sozialen Grenzkosten bewirken. Dabei wird anders als bei einer Pigou-Steuer nicht der Preis direkt beeinflusst, sondern die akzeptable Menge an Verschmutzung (z. B. durch CO2-Ausstoß) wirtschaftspolitisch festgelegt. Auf dieser Basis werden Verschmutzungsrechte verteilt und damit Eigentumsrechte geschaffen, die einen Handel ermöglichen. In der Folge entsteht ein Preis für die Verschmutzungsrechte und damit für die Verschmutzung. Eine gesonderte Subventionierung bestimmter Technologien ist dann nicht mehr notwendig. Vorteile der Emissionszertifikate sind u. a. die hohe ökologische Treffsicherheit sowie die ökonomische Effizienz. Nachteilig ist u. a., dass die Wirkung verzögert einsetzen kann. Weitere Möglichkeiten der Internalisierung externer Effekte sind beispielsweise Auflagen, Standards, Gebote und Verbote, die aufgrund ihrer mangelnden Ordnungskonformität in einer marktwirtschaftlichen Ordnung aber nachrangig zum Einsatz kommen sollten. Unabhängig davon, welche Lösung zur Internalisierung von externen Effekten angestrebt wird, ist zu berücksichtigen, dass mit jeder Internalisierung (Transaktions-)Kosten verbunden sind.
Diese Rechtfertigung setzt aber voraus, dass die Förderung von Trägern erneuerbarer Energie wirksam ist. Diese Wirksamkeit wird aber – wie bereits erwähnt – bezweifelt. Zudem wären negative externe Effekte, welche durch Anlagen zur Erzeugung erneuerbarer Energie verursacht werden (z. B. Naturschutzeffekte auf Vögel, Insekten, Fledermäuse oder Fische, Lärm sowie Flächenverbrauch, Waldrodung und die – zunehmend in den Fokus geratende – Entsorgung) konsequenterweise zu berücksichtigen. Zudem ist für die gewählten Mittel deren Ordnungskonformität zu beachten. Wenn man sich für die
8 Die Förderung erneuerbarer Energieträger …
159
Marktwirtschaft als Wirtschaftsordnung entschieden hat, heißt das, dass die Mittel zur Erreichung von (umwelt- bzw. klimapolitischen) Zielen möglichst marktkonform sein sollten. Und das bedeutet wiederum, dass möglichst wenige der die (soziale) Marktwirtschaft konstituierenden Prinzipien verletzt werden. Die gleiche Argumentation trifft auf die übrigen durch die Förderung erneuerbarer Energien verursachten Kosten und deren Umlegung auf den Strompreis zu. Auch die Beeinflussung des Preises für die Nutzung des Netzes durch die Offshore-Haftungsumlage, die für 2019 0,416 ct/kWh beträgt, sowie der Kosten des Einspeisemanagements stellen Eingriffe in den Preismechanismus sowie das Haftungsprinzip dar, die dann gerechtfertigt wären, wenn dadurch negative externe Effekte vermieden würden. Das hängt wiederum davon ab, ob die Maßnahmen die mit ihnen verfolgten übergeordneten Ziele erreichen. Besonders schwierig unter ökonomischen und ordnungspolitischen Aspekten zu rechtfertigen ist es, wenn Kraftwerksbetreiber dafür entschädigt werden, dass sie nicht produzieren (Einspeisemanagement) bzw. wenn Abnehmer dafür entschädigt werden, dass sie nicht abnehmen (abschaltbare Lasten). Für solche Maßnahmen dürften sich in einer Marktwirtschaft kaum nachvollziehbare Begründungen herstellen lassen.
8.4.2 EEG-Förderung und indirekte Kosten Neben den offen sichtbaren direkten Kosten der Subventionierung erneuerbarer Energien durch das EEG sind mit der Förderung auch zahlreiche indirekte Kosten verbunden, die häufig in Form von Opportunitätskosten auftreten. Dazu zählen u. a. die mit der Gesetzgebung und Gesetzesdurchsetzung verbundenen Bürokratiekosten. Jede Gesetzgebung sowie deren „Weiterentwicklung“ ist mit politischen und bürokratischen Kosten verbunden, die aus dem allgemeinen Steueraufkommen gedeckt werden müssen: Beamte und Politiker müssen sich ein Bild verschaffen, eine Einschätzung entwickeln und eine Entscheidung treffen. Häufig werden die Beamten und Politiker dabei von Lobbyisten unterstützt und beeinflusst. Dieser Prozess bindet außerdem im administrativen und politischen Bereich Ressourcen, die für alternative (produktive) Verwendungen nicht mehr zur Verfügung stehen. Der Bundesrechnungshof (2018, S. 34) gibt allein für den Bundeshaushalt Ausgaben von über 3 Mrd. € im Zusammenhang mit der Energiewende an. Ordnungspolitisch ist die vielfache „Weiterentwicklung“ der EEG-Förderung zudem unter dem Aspekt der Konstanz und damit Verlässlichkeit der Wirtschaftspolitik kritisch zu sehen. Zudem muss das Gesetz eingehalten und dessen Umsetzung durchgesetzt sowie kontrolliert werden. Im Falle des EEG betrifft das vor allem die Bundesnetzagentur für Elektrizität, Gas, Telekommunikation, Post und Eisenbahnen, deren ursprüngliche Aufgabe die Regulierung der natürlichen Monopole in den Netzsektoren ist. Zu der eigentlichen Aufgabe als Wettbewerbsbehörde, welche den Zugang u. a. zu Stromnetzen gewährleisten soll, ist aber die Umsetzung der Energiewende bei Erhaltung der
160
M. Drewes
Netzstabilität hinzugetreten. Mit einem Aufgaben- ist ein Budgetzuwachs verbunden, was wiederum die Kosten der Förderung erneuerbarer Energien erhöht und Ressourcen bindet. Das Handling der Einspeisung von Strom aus erneuerbaren Energien nehmen die Betreiber der Stromnetze in Deutschland vor, welche zur Aufnahme von Strom aus erneuerbaren Energiequellen verpflichtet sind und den Ausgleich der Kosten untereinander vornehmen müssen. Dazu werden wiederum viele gut ausgebildete und kompetente Mitarbeiter benötigt, die für alternative Aufgaben nicht zur Verfügung stehen, sodass auch auf diese Weise Ressourcen gebunden werden und Opportunitätskosten entstehen. Da der Kostenausgleich (EEG-Umlage und besonderer Belastungsausgleich) auf einem umfangreichen Reporting beruht, für dessen Verlässlichkeit u. a. unabhängige Wirtschaftsprüfer als spezialisierte Dritte sorgen sollen, werden weitere Ressourcen benötigt und gebunden, welche für alternative Verwendungen nicht zur Verfügung stehen und Opportunitätskosten verursachen. Das Institut der Wirtschaftsprüfer in Deutschland e. V. (2016) listet in einem eigens für das EEG entwickelten Prüfungsstandard verschiedene gesetzlich vorgesehene oder aber ohne gesetzliche Verpflichtungen durchgeführte betriebswirtschaftliche Prüfungen auf, die mit dem EEG in Zusammenhang stehen. Aus volkswirtschaftlicher Sicht resultieren aus der Förderung der erneuerbaren Energien zudem Umverteilungseffekte, die politisch eher nicht gewollt sind, da tendenziell die Bezieher kleinerer Einkommen überproportional von den Kosten der EEG-Förderung betroffen sind, während kapitalkräftige Investoren (häufig große Konzerne) von der Förderung profitieren. Frondel und Sommer (2018) weisen darauf hin, dass armutsgefährdete Haushaltstypen einen größeren Anteil ihres Einkommens zur Begleichung der Stromrechnung aufbringen müssen und von Strompreissteigerungen stärker betroffen sind als wohlhabende Einkommensbezieher. Mit steigenden Strompreisen seien somit erhebliche Verteilungswirkungen verbunden, sodass sich die Frage nach einer sozialen Abfederung der regressiven Wirkung der hohen Strompreise stelle. Schon häufiger wurden daher Forderungen erhoben, die EEG-Umlage z. B. nach Einkommen zu differenzieren (z. B. Schaefer 2018).
8.4.3 Nutzen durch die EEG-Förderung Es gibt verschiedene Aspekte, mit welchen die Subventionierung erneuerbarer Energieträger begründet werden kann: klimapolitische, umweltpolitische, industriepolitische und energiepolitische. Die Erreichung klimapolitischer Ziele ist jedoch mindestens zweifelhaft. Die ökonomische Theorie legt sogar nahe, dass die klimapolitischen Ziele mit der Förderung erneuerbarer Energieträger nicht erreicht oder sogar konterkariert werden (s. Abschn. 8.1). Angesichts der vielfältigen Beeinträchtigungen von Flora und Fauna muss die Förderung der erneuerbaren Energieträger durch das EEG unter umweltpolitischen Aspekten ebenso als schädlich angesehen werden (s. Abschn. 8.4.1).
8 Die Förderung erneuerbarer Energieträger …
161
Bleiben industriepolitische sowie energiepolitische Gründe. Energiepolitisch kann die Förderung erneuerbarer Energien beispielsweise zu einer größeren Unabhängigkeit von Exporten aus politisch instabilen Regionen führen. Industriepolitisch würde die EEG-Förderung dann sinnvoll sein, wenn durch die Förderung hilfreichen neuen Techniken zum Durchbruch geholfen würde, sodass in Deutschland technologisch Wissen aufgebaut und durch Lerneffekte weiterentwickelt wird, welches dann auch mit der Schaffung qualifizierter Arbeitsplätze verbunden wäre. Diesem Argument ist zumindest mittelfristig zuzustimmen, sodass durchaus industriepolitische Effekte auf die Photovoltaik- und Windenergiebranche durch das EEG angenommen werden können. Allerdings: Angesichts der hohen Kosten, die mit der EEG-Förderung verbunden sind, ist anzunehmen, dass die industriepolitischen Ziele durch direkte Technologieförderung deutlich günstiger erreicht werden könnten. Zudem besteht die Gefahr, dass einmal aufgebautes technologisches Wissen in andere Länder abwandert. Der Einspeisevorrang erneuerbarer Energien führt außerdem dazu, dass es zu einer technologiespezifischen Förderung erneuerbarer Energien kommt. Damit wird es aber für andere Technologien, die die mit der Förderung verbundenen Ziele ebenfalls und gegebenenfalls sogar besser erreichen, schwer, sich gegen diese spezifischen Technologien zu behaupten. Die Träger erneuerbarer Energie werden damit dem Wettbewerb mit alternativen (und eventuell noch unbekannten) Lösungen entzogen (s. auch Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung 2019, S. 125). Damit wird die Funktion des „Wettbewerbs als Entdeckungsverfahren“ (Hayek 1968) eingeschränkt und das vom Bundeswirtschaftsministerium gesteckte Ziel der Technologieförderung im Bereich der Erzeugung erneuerbaren Energie teilweise aufgegeben und die technologische Anreizwirkung konterkariert. Auch in diesem Zusammenhang sind Opportunitätskosten durch den Verzicht auf gegebenenfalls bessere Lösungen möglich. Ein wirksames Emissionshandelssystem mit einer zutreffend festgelegten Emissionsobergrenze hat dagegen den Vorteil der Technologieneutralität (Haucap und Coenen 2011, S. 8).
8.5 Fazit Gut gemeintes Ziel des Gesetzes für den Vorrang erneuerbarer Energien war bei dessen Einführung im Jahre 2000, „im Interesse des Klima- und Umweltschutzes eine nachhaltige Energieversorgung zu ermöglichen“ (§ 1 EEG 2000). Im besten Falle ist strittig, ob dieses Ziel erreicht wurde, im schlechtesten Fall war das Gesetz im Sinne dieses formulierten Zieles kontraproduktiv. Da z. B. das Bundeswirtschaftsministerium zudem gleichzeitig die volkswirtschaftlichen Kosten der Energieerzeugung betont, müssen für eine volkswirtschaftliche Kosten-Nutzen-Analyse und Beurteilung des EEG und der bisherigen Maßnahmen der Energiewende die unsichereren Nutzen der Förderung der Erzeugung erneuerbarer Energie mit den gesamten in diesem Zusammenhang anfallenden Kosten verglichen werden.
162
M. Drewes
Dieser Beitrag hat aufgezeigt, dass mit dem initialen Eingriff in den Preismechanismus verschiedene ordnungspolitische Prinzipien verletzt wurden und daraus eine Interventionsspirale resultierte, welche weitere direkte und indirekte volkswirtschaftliche Kosten nach sich gezogen hat. Diese Kosten sind nur teilweise transparent, müssen bei einer Kosten-Nutzen-Analyse des EEG aber berücksichtigt werden. Beziffern lassen sich die (externen) Nutzen der EEG-Förderung sowie die indirekten Kosten, die insbesondere mit dem notwendigen Netzausbau sowie den Bürokratiekosten resultieren, kaum – auch deshalb, weil die Opportunitätskosten der Maßnahmen jeweils relevant sind. Die Bundesnetzagentur (2019, S. 10) schätzt für das Jahr 2017 allein die Kosten für sämtliche Netz- und Systemsicherheitsmaßnahmen (d. h. Einspeisemanagement, Redispatch und Reservekraftwerke) auf mehr als 1,5 Mrd. €. Diese Kosten steigen tendenziell. Die (Opportunitäts-)Kosten des Netzausbaus in Folge des Ausbaus der erneuerbaren Energien sind schwer zu beziffern, genauso wie die zusätzlichen Politikund Bürokratiekosten. Es wären aber wohl eher vorsichtige Schätzungen, wenn man davon ausginge, dass die EEG-Umlage sich noch einmal um ca. 50 % pro Jahr erhöht. Damit lägen die jährlichen Kosten, die durch die Förderung erneuerbarer Energieerzeugung entstehen, bei knapp 40 Mrd. €. So geht beispielsweise auch der Bundesrechnungshof (2018, S. 34) für 2017 von mindestens 34 Mrd. € aus, weist aber darauf hin, dass nicht alle Kosten darin berücksichtigt sind. Es spricht vieles dafür, dass die Förderung von Trägern erneuerbarer Energie durch das EEG eher industrie- als klima- oder umweltpolitisch motiviert ist (und gegebenenfalls ideologische und politökonomische Gründe dies begünstigen). Angesichts der hohen volkswirtschaftlichen Kosten, die mit der EEG-Förderung verbunden sind, muss die ökonomische Effizienz dieser Maßnahme als sehr fraglich eingeschätzt werden – und zwar bei unsicherer ökologischer Treffsicherheit. Nicht ohne Grund hat der Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2019) darauf hingewiesen, dass die deutsche Energiewende ineffizient ist, und für eine konsequente Klimapolitik eine Neuausrichtung des umweltbezogenen Steuer- und Abgabensystems gefordert. Vor einer Vermischung klima- und umweltpolitischer Ziele mit industrie- und regionalpolitischen Anliegen warnt er. Über die vergangenen 20 Jahre haben sich die erheblichen Geldsummen für die Förderung der erneuerbaren Energien kumuliert. Kostengünstigere Maßnahmen, die in einer Situation ohne EEG umgesetzt würden, werden so nicht ergriffen (s. auch Frondel et al. 2010, S. 121). Würden die mit der EEG-Förderung verursachten Kosten eingespart und auf andere Weise verwendet werden, ließen sich mit hoher Wahrscheinlichkeit die industriepolitischen Ziele kostengünstiger verfolgen. Auch ließen sich mit den eingesparten Mitteln wirksame Umwelt- und Klimaprojekte mit höheren Grenzerträgen finanzieren, z. B. Wiederaufforstungsprojekte, welche den Klimawandel verlangsamen könnten (Bastin et al. 2019). Der Sachverständigenrat präferiert den Umstieg auf ein effektiveres und effizienteres CO2-Emissionshandelssystem und in einer Übergangsphase eine (weitere) Besteuerung des CO2-Ausstoßes, um auf diese Weise zu einer CO2-Bepreisung zu gelangen. Dies
8 Die Förderung erneuerbarer Energieträger …
163
wäre nicht nur ökonomisch, sondern in einer Marktwirtschaft auch ordnungspolitisch vorzuziehen, da ein solcher Eingriff marktschaffend und -basiert wäre. Die Förderung erneuerbarer Energien wäre damit überflüssig, da die Lenkungswirkung der so geschaffenen Preise einen Umstieg auf klimafreundliche Energieerzeugung bewirken würde. Insgesamt wäre eine Orientierung an Preismechanismen, Marktsignalen und Wettbewerbswirkungen in der Energiepolitik auch unter Umwelt- und Klimaschutzgedanken sinnvoll und unter ordnungspolitischen Gesichtspunkten wünschenswert.
Literatur Baginski, P., Bellenbaum, J., Beran, P., Broll, R., Felling, T., Jahns, C., Osinski, P., & Weber, C. (2018). Mittelfristprognose zur deutschlandweiten Stromerzeugung aus EEG geförderten Kraftwerken für die Kalenderjahre 2019 bis 2023. http://dnn9.netztransparenz.de/portals/1/Content/ EEG-Umlage/EEG-Umlage%202019/20181011_Abschlussbericht%20EWL.pdf. Zugegriffen: 17. Juli 2019. Bastin, J.-F., Finegold, Y., Garcia, C. A., & Mollicone, D. (2019). The global tree restoration potential. Science, 365, 76–79. Bundesministerium für Wirtschaft und Energie. (2019). Informationsportal erneuerbare Energien. https://www.erneuerbare-energien.de/EE/Redaktion/DE/Dossier/eeg.html?cms_docId=132292. Zugegriffen: 2. Juli 2019. Bundesnetzagentur. (2019). Jahresbericht 2018. https://www.bundesnetzagentur.de/SharedDocs/ Downloads/DE/Allgemeines/Bundesnetzagentur/Publikationen/Berichte/2019/JB2018.pdf?__ blob=publicationFile&v=6. Zugegriffen: 12. Aug. 2019. Bundesnetzagentur. (o. J.). https://www.bundesnetzagentur.de/SharedDocs/Bilder/DE/Sachgebiete/ Energie/Verbraucher/Energielexikon/EEGUmlage2020.jpg?__blob=poster&v=3. Zugegriffen: 20. März 2020. Bundesnetzagentur und Bundeskartellamt. (2019). Monitoringbericht 2018. https://www.bundesnetzagentur.de/SharedDocs/Mediathek/Monitoringberichte/Monitoringbericht2018.pdf;jsession id=8A3ECB41BA225254AFDC1A1E01849117?__blob=publicationFile&v=6. Zugegriffen: 20. März 2020. Bundesrechnungshof. (2018). Bericht nach § 99 BHO über die Koordination und Steuerung zur Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft und Energie. https://www.bundesrechnungshof.de/de/veroeffentlichungen/produkte/sonderberichte/langfassungen-ab-2013/2018/2018-sonderbericht-koordination-und-steuerung-zur-umsetzung-derenergiewende-durch-das-bundesministerium-fuer-wirtschaft-und-energie-pdf. Zugegriffen: 21. Aug. 2019. Coase, R. (1960). The problem of social cost. Journal of Law and Economics, 3, 1–44. Eucken, W. (2004). Grundsätze der Wirtschaftspolitik (7. Aufl.). Tübingen: Mohr Siebeck. Frondel, M., & Sommer, S. (2018). Der Preis der Energiewende: Anstieg der Kostenbelastung einkommensschwacher Haushalte. List Forum für Wirtschafts- und Finanzpolitik, 3, 335–356. Frondel, M., Ritter, N., Schmidt, C. M., & Vance, C. (2010). Die ökonomischen Wirkungen der Förderung erneuerbarer Energien. Erfahrungen aus Deutschland. Zeitschrift für Wirtschaftspolitik, 59(2), 107–133. Haucap, J., & Coenen, M. (2011). Mehr Plan- als Marktwirtschaft in der energiepolitischen Strategie 2020 der Europäischen Kommission. DICE Ordnungspolitische Perspektiven, No. 11. Düsseldorf: Institute for Competition Economics (DICE).
164
M. Drewes
Hayek, F. A. (1968). Der Wettbewerb als Entdeckungsverfahren. In F. A. Hayek (Hrsg.), Freiburger Studien: Gesammelte Aufsätze (2. Aufl., S. 249–265). Tübingen: Mohr. Institut der Wirtschaftsprüfer e. V. (2016). Entwurf einer Neufassung des IDW Prüfungsstandards: Sonstige betriebswirtschaftliche Prüfungen und ähnliche Leistungen im Zusammenhang mit energierechtlichen Vorschriften (IDW EPS 970 n.F.). IDW Life, 3, 169 ff. Marquardt, R.-M. (2016). Hebt das Emissionshandelssystem die Einsparungen des Ökostromausbaus auf? Wirtschaftsdienst, 7, 515–523. Mennel, T. (2012). Das Erneuerbare-Energien-Gesetz – Erfolgsgeschichte oder Kostenfalle? Wirtschaftsdienst, Sonderheft 2012, 17–22. Mises, L. (1920). Die Wirtschaftsrechnung im sozialistischen Gemeinwesen. Archiv für Sozialwissenschaft und Sozialpolitik, 47, 86–121. Mises, L. (1976). Kritik des Interventionismus: Untersuchungen zur Wirtschaftspolitik und Wirtschaftsideologie der Gegenwart. Darmstadt: Wissenschaftliche Buchgesellschaft. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. (2019). Sondergutachten – Aufbruch zu einer neuen Klimapolitik. https://www.sachverstaendigenratwirtschaft.de/sondergutachten-2019.html. Zugegriffen: 19. Juli 2019. Schaefer, T. (2018). EEG-Umlage: Umverteilung von unten nach oben. IW-Kurzbericht, 67. Sinn, H. W. (2015). The green paradox. A supply-side view of the climate problem. Review of Environmental Economics and Policy, 9(2), 239–245. https://doi.org/10.1093/reep/rev011. Weber, M., & Hey, C. (2012). Effektive und effiziente Klimapolitik: Instrumentenmix, EEG und Subsidiarität. Wirtschaftsdienst, Sonderheft 2012, 43–51.
Prof. Dr. Michael Drewes ist seit 2013 Dozent und seit 2014 hauptberuflicher Professor für Ökonomie und Rechnungslegung an der FOM Hochschule für Oekonomie & Management in Mannheim. Daneben ist er als Wirtschaftsprüfer in eigener Praxis in Budenheim bei Mainz tätig. Seine Forschungsschwerpunkte liegen in den Feldern Methoden der Wirtschaftswissenschaften, Sportökonomie und externe Rechnungslegung.
9
Rohstoffreichtum – Des einen Segen ist des anderen Fluch Philipp an de Meulen
Inhaltsverzeichnis 9.1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 9.2 Ökonomische Erklärungsmuster von Rohstoffflüchen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 9.2.1 Schwankende Rohstoffpreise. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 9.2.2 „Holländische Krankheit“ – Die Verdrängung industrieller Exportsektoren. . . . . . 169 9.2.3 Produktivitätsanstieg im Handelssektor. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 9.3 Politisch-institutionelle Erklärungsmuster des Rohstofffluchs . . . . . . . . . . . . . . . . . . . . . . 181 9.3.1 „Rent seeking“. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 9.3.2 Zentralstaatliche Erklärungsansätze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 9.4 Fazit und Evidenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
Zusammenfassung
Die wirtschaftlichen Entwicklungen rohstoffreicher Länder fallen bisweilen sehr unterschiedlich aus. Folgt man der wissenschaftlichen Literatur, steht den segensreichen Rohstofferträgen eine Reihe unerwünschter Nebenwirkungen gegenüber. So kann es im Zuge von Rohstoffexporten zu einer Währungsaufwertung kommen, unter der die Wettbewerbsfähigkeit bedeutender Exportsektoren leidet. Ist überdies das institutionelle Umfeld durch schwache Gerichte, undemokratische Regierungen und ein hohes Maß an Korruption gekennzeichnet, besteht eine erhöhte Gefahr, dass es zu aufreibenden Verteilungskämpfen bis hin zu gewaltsamen Konflikten um die Rohstofferträge kommt. Von der Regierung beansprucht, werden diese Erträge zudem P. a. de Meulen (*) FOM Hochschule, Dortmund, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_9
165
166
P. a. de Meulen
nicht selten verschwendet oder für den Machterhalt missbraucht. Im vorliegenden Beitrag werden die bekanntesten Erklärungsmuster von Rohstoffflüchen gegenübergestellt und mit Beispielen aus rohstoffreichen Ländern unterfüttert.
9.1 Einleitung Der Zusammenhang zwischen Rohstoffreichtum und volkswirtschaftlicher Entwicklung wird in Wissenschaft und Politik intensiv und bisweilen kontrovers diskutiert. Ein Literaturüberblick findet sich u. a. in Frankel (2012). Abb. 9.1 stellt den Zusammenhang zwischen Rohstofferträgen in Relation zum Bruttoinlandsprodukt (Rohstoffintensität) und Wirtschaftswachstum im Durchschnitt der Jahre 2002 bis 2017 für die Länder mit einer Rohstoffintensität von mehr als 5 % im betrachteten Zeitraum dar. Obschon sich mit der Förderung von Rohstoffvorkommen Einnahmen mit vergleichsweise geringem Kostenaufwand erwirtschaften lassen, welche die Förderländer für gezielte Human- und Sachkapitalinvestitionen verwenden können, besteht allenfalls eine sehr schwache positive Korrelation zwischen der Rohstoffintensität der betrachteten 76 Länder und ihrem Wirtschaftswachstum. Es scheint also, als ob Rohstoffreichtum nicht per Definition zu höherem Wirtschaftswachstum führt. In der Tat hat die Geschichte gezeigt, dass dem direkten Einkommenseffekt bisweilen unerwünschte Nebenwirkungen des Rohstoffreichtums gegenüberstehen, die aus dem Segen sogar einen Fluch werden lassen können. Im vorliegenden Beitrag werden unterschiedliche Erklärungsmuster von Rohstoffflüchen vor- und gegenübergestellt. Dabei werden in Abschn. 9.2 zunächst die öko-
Jährliche BIP-Wachstumsrate (Durchschni der Jahre 2002-2017)
12 10 8 6 4 2 0 -2
0
10
20
30
40
50
60
-4 -6 -8
Rohstofferträge in Relaon zum BIP (Durchschni der Jahre 2002-2017)
Abb. 9.1 Der Zusammenhang zwischen Rohstoffintensität und Wirtschaftswachstum im Zeitraum 2002–2017. (Quelle: Basierend auf Daten der Weltbank 2019a, b)
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
167
160 140 120 100 80 60 40 20 0
Abb. 9.2 Entwicklung des Ölpreises der Sorte „West Texas Intermediate (WTI)“, gemessen in US-$ pro Barrel. (Quelle: Basierend auf Daten von US Energy Information Administration 2019)
nomischen Kanäle vorgestellt, über welche die Rohstoffintensität die wirtschaftliche Entwicklung beeinflusst, bevor sich Abschn. 9.3 mit den politisch-institutionellen Erklärungsmustern befasst. Ein Fazit findet sich in Abschn. 9.4.
9.2 Ökonomische Erklärungsmuster von Rohstoffflüchen 9.2.1 Schwankende Rohstoffpreise Gemäß der strukturalistischen Theorie, die sich eng verbunden mit den Arbeiten von Prebisch in den 1950er-Jahren in Lateinamerika entwickelt hat, folgen die Preise von Primärgütern langfristig einem fallenden Trend, da sie im Zuge einer steigenden volkswirtschaftlichen Entwicklung in Relation zu Industriegütern immer weniger nachgefragt werden (Prebisch 1950). Demgegenüber argumentieren u. a. Hotelling und Malthus, dass die Preise erschöpfbarer Rohstoffe über die Zeit steigen. Malthus‘ Argument ist dabei recht simpel. Mit wachsender Weltbevölkerung und wachsenden Volkswirtschaften trifft eine in der Tendenz steigende Nachfrage auf ein erschöpfbares Rohstoffangebot (Hotelling 1931; Malthus 1798). Hotelling argumentiert, dass der Inhaber des Rohstoffs über die gegenwärtige und zukünftige Fördermenge entscheidet. Dabei lohnt es sich gegenwärtig mehr zu fördern, wenn der gegenwärtige Rohstoffpreis Pt den Gegenwartswert des für die Zukunft erwarteten Preises E Pt+1 übersteigt. Da sich der Gegenwartswert von E Pt+1 durch Abzinsung ergibt, gilt dies dann, wenn
168
P. a. de Meulen
E Pt+1 E Pt+1 ⇔i> − 1, Pt > 1+i Pt d. h. wenn erwartet wird, dass die Preisinflationsrate geringer ausfällt als das Zinsniveau i . Nach dieser Logik wird die gegenwärtige Fördermenge erhöht und damit Abwärtsdruck auf den Preis Pt ausgeübt, bis der erwartete Preisanstieg dem Zinsniveau entspricht. Umgekehrt wird die gegenwärtige Fördermenge reduziert, wenn erwartet wird, dass die Inflationsrate das Zinsniveau übersteigt, und dadurch Aufwärtsdruck auf Pt ausgeübt, bis sich erwartete Inflationsrate und Zinsniveau gleichen. Durch eine entsprechende Anpassung der Fördermenge können kurzfristige Preisschwankungen demnach so ausgeglichen werden, dass der Rohstoffpreis langfristig mit der Rate i wächst (Hotelling 1931). Schaut man sich exemplarisch die Entwicklung des Ölpreises über den Zeitraum der vergangenen 30 Jahre an, lässt sich zwar in der Tat ein leicht steigender Trend ausmachen. Überlagert wird dieser Befund jedoch durch die teils enormen Preisschwankungen (vgl. Abb. 9.2). Solche Preisschwankungen können dabei durchaus die Entwicklung der rohstofffördernden Volkswirtschaften belasten. Folgen in Boomphasen in Erwartung weiter steigender Erträge Investitionen in Kapital, Infrastruktur, im Immobiliensektor und in den Aufbau eines Sozialstaates, kann es zu wohlfahrtsschädlichen Überkapazitäten kommen, wenn sich der Preisboom als nicht nachhaltig erweist (Frankel 2012). Gylfason (2006) argumentiert, dass erratische Rohstoffpreisschwankungen, begleitet von Schwankungen der Förder- und Exportmengen, Wechselkursschwankungen hervorrufen, da mit einem Rohstoffexport ein Währungstausch einhergeht, der die Nachfrage nach Devisen und überdies die flexiblen (Devisen-)Wechselkurse beeinflusst. Die Wechselkursschwankungen können zum einen den internationalen Handel, zum anderen den Zufluss ausländischer Direktinvestitionen belasten, da die Höhe der Kosten und Erträge – umgerechnet in die jeweilige Heimatwährung – schwankt und daher unsicherer erscheint. Mit einem Rückgang ausländischer Direktinvestitionen wird jedoch nicht nur weniger Kapital importiert, sondern vor allem weniger technologisches Wissen transferiert. Dass insbesondere in rohstoffreichen Ländern die Gefahr besteht, dass es nicht nur zu einer „Verdrängung“ von ausländischem Kapital und Know-how kommt (Poelhekke und van der Ploeg 2010), sondern auch zu einer Verdrängung industrieller Exportsektoren, wird durch das Phänomen der „Holländischen Krankheit“ beschrieben (u. a. Cordon und Neary 1982).
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
169
9.2.2 „Holländische Krankheit“ – Die Verdrängung industrieller Exportsektoren Im Zuge der Entdeckung, Förderung und Ausfuhr der Erdgasvorkommen in dem zu den Niederlanden gehörenden Nordseegebiet Ende der 1950er- und Anfang der 1960er-Jahre kam es zu einem merklichen Zufluss von Devisen, in dessen Konsequenz der niederländische Gulden aufwertete. Der gestiegene Außenwert des Gulden bedeutete in Fremdwährung berechnet eine Verteuerung der Erzeugnisse der industriellen Exportsektoren. In der Folge sank der Absatz, wodurch Produktionsfaktoren für die Sektoren nicht-handelbarer Güter freigesetzt wurden. Das durch Rohstoffexporte verursachte Phänomen einer merklichen Währungsaufwertung, in dessen Folge es zu einer Schrumpfung der industriellen Exportsektoren kommt, wird gemeinhin als „Holländische Krankheit“ bezeichnet (u. a. Cordon und Neary 1982; van Wijnbergen 1984; Sachs und Warner 2001; Torvik 2001). Die Reallokation von Produktionsfaktoren wird dabei noch verstärkt, wenn die Erträge aus der Rohstoffförderung die Nachfrage nach n icht-handelbaren Gütern und in der Folge die Arbeitsnachfrage in den Sektoren nicht-handelbarer Güter erhöhen (Spending effect) (Cordon und Neary 1982). In seinem Aufsatz stellt Gylfason (2006) die Entwicklung des Anteils der Industriegüterexporte an den Warenexporten insgesamt in einer Reihe arabischer Länder dar. Dabei stellt er die zur Organisation ölexportierender Länder (OPEC) gehörenden Länder denen gegenüber, die nicht dazu zählen. In Abb. 9.3 sind diese Zeitreihen bis zum aktuellen Rand dargestellt. Im Einklang mit der Theorie der Holländischen Krankheit hat sich in den ölreichen Ländern der Anteil der Industriegüterexporte seit den 100 90 80 70 60 50 40 30 20 10 0 1962
1967
1972
1977
1982
Arabische OPEC-Staaten
1987
1992
1997
2002
2007
2012
2017
Arabische Nicht-OPEC-Staaten
Abb. 9.3 Industriegüterexporte in Relation zu den Gesamtwarenexporten. (Quelle: Basierend auf Daten der Weltbank 2019c)
170
P. a. de Meulen
1 960er-Jahren in der Tendenz wenig verändert und lag 2017 bei nur 10 %, während der Anteil in der rohstoffärmeren Vergleichsgruppe im selben Zeitraum kontinuierlich von knapp 10 % auf 70 % im Jahr 2017 stieg. Nehmen die Industriegüterexporte im Vergleich zu den Rohstoffexporten ein geringes Gewicht ein, ist die gesamtwirtschaftliche Entwicklung entsprechend anfällig für Rohstoffpreisschwankungen (Gelb 2010). Werden die Industriesektoren verdrängt, kann sich zudem die Nachfrage nach hochqualifizierten Arbeitskräften verringern, wenn diese vornehmlich in den komplexeren Industriesektoren benötigt werden. Mit sinkenden Beschäftigungschancen sinkt jedoch auch der Anreiz, eine hohe Qualifikation zu erwerben, und mit sinkendem Bildungsniveau sinkt nicht nur die Produktivität der derzeitigen Generation, sondern leidet auch die Humankapitalbildung der nachfolgenden Generationen (Sachs und Warner 1997). In Saudi-Arabien sind mehr als 40 % der Bevölkerung jünger als 25 Jahre (United Nations Population Division 2019). 2018 war gut ein Viertel der Menschen zwischen 15 und 24 Jahren arbeitslos (Weltbank 2019i). Dabei ist das Bildungsniveau durchaus hoch. 2018 lag der Anteil der Hochschulstudenten an der Bevölkerung im Hochschulalter bei annähernd 70 % und damit in etwa so hoch wie im OECD-Durchschnitt und doppelt so hoch wie in der arabischen Welt insgesamt (Weltbank 2019e). Kronprinz Bin Salman plant mit der sogenannten Vision 2030 (2016), die Wirtschaft zu modernisieren und zu diversifizieren, um die Abhängigkeit von der Erdölförderung zu reduzieren und der jungen Bevölkerung Beschäftigungsperspektiven zu eröffnen. Der Rohstoffreichtum kann die Humankapitalbildung auch dadurch beeinflussen, dass bei generöser sozialstaatlicher Verteilung der Rohstofferträge Lohneinkommen weniger wichtig erscheinen und sich überdies Bildungsanreize verringern. Auf der Gegenseite eröffnen Rohstofferträge aber größere fiskalische Spielräume, um verstärkt in Bildung zu investieren (Gylfason 2006). Letztlich kann die wirtschaftliche Entwicklung eines Landes auch über den Kanal technologischer Fortschritte und positiver Übertragungseffekte auf andere Sektoren beeinflusst werden. Sind diese in der Industrieproduktion ungleich höher als bei der Rohstoffförderung, wird das Wachstum im Zuge der Verdrängung industrieller Sektoren belastet (u. a. Wood 1999; Hirschman 1958; Seers 1964; Baldwin 1966). Dass dies jedoch nicht so sein muss, zeigt Maloney (2003) in seiner empirischen Studie. In diesem Zusammenhang dürften wohl auch die Art des Rohstoffs sowie Ausmaß und Ort der Weiterverarbeitung eine Rolle spielen. Ist der Wert des Rohstoffs im Vergleich zu den Exportkosten gering, besteht ein Anreiz, in die Weiterverarbeitung am Förderort zu investieren. Beispielhaft hierfür ist die Kohleförderung, welche die Grundlage für die daraus entstandene Stahlindustrie in Großbritannien, den USA sowie im Ruhrgebiet war (Sachs und Warner 1997). In seinem Aufsatz erläutert Torvik (2001) das Zustandekommen des Phänomens der Holländischen Krankheit in einem theoretischen Modell einer Volkswirtschaft, die aus zwei Sektoren besteht. Die im industriellen Exportsektor „T“ produzierten Güter werden
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
171
auf den Weltmärkten gehandelt. Daneben gibt es einen Sektor „N“, in dem lokale, nicht-handelbare Waren und Dienstleistungen angeboten werden. Der Einfachheit halber wird Arbeit als einziger Produktionsfaktor in der Volkswirtschaft modelliert. Ferner gibt es keine Arbeitslosigkeit, sodass das gesamte Arbeitskräftepotenzial L, welches auf den Wert 1 normiert wird, beschäftigt wird. Die Beschäftigung im Sektor N sei durch ηt bezeichnet. Entsprechend ergibt sich die Beschäftigung in Sektor T als (1 − ηt ). Die Gesamtproduktionsmenge im jeweiligen Sektor i = N, T im Zeitraum t wird durch die Variable Xit angegeben. Sie ergibt sich jeweils sowohl als sektorspezifische Produktionsfunktion des Arbeitseinsatzes als auch in Abhängigkeit von der sektorspezifischen Arbeitsproduktivität Hit:
XNt = HNt · f (ηt )
(9.1)
XTt = HTt · g(1 − ηt )
(9.2)
Hintergrund 1: Von der Produktionsfunktion über die Arbeitsnachfrage zur intersektoralen Migration
Eine Produktionsfunktion stellt den Zusammenhang zwischen produzierbarer Menge und eingesetzten Produktionsfaktoren dar. Im vorliegenden Fall wird angenommen, dass die Produktionsmenge mit zunehmendem Arbeitseinsatz steigt, die Anstiege jedoch immer geringer werden, da mit zunehmendem Arbeitseinsatz unter ansonsten gleichen Bedingungen für die einzelne Arbeitskraft im Durchschnitt weniger Arbeitsplatz (und -material) verfügbar ist. Da dieses Phänomen auf eine Vielzahl unterschiedlicher Produktionsprozesse zutrifft, bezeichnet man es als Gesetz der abnehmenden Grenzproduktivität der Arbeit (Cobb und Douglas 1928). Die Grenzproduktivität gibt dabei den durch eine marginale Erhöhung des Arbeitseinsatzes verursachten Anstieg der Produktionsmenge an. Formal ergibt sie sich als partielle Ableitung der Produktionsfunktion f nach dem Arbeitseinsatz L, d. h. als ∂f /∂L. Bei einem solchen konkav steigenden Verlauf der Produktionsfunktion werden natürlich auch die mit dem Güterpreis multiplizierten Grenzproduktivitäten P · ∂f /∂L, d. h. die Erlöse, welche durch zusätzlichen Arbeitseinsatz erzielt werden können, stetig geringer, sodass sie notwendigerweise irgendwann die Lohnkosten zusätzlichen Arbeitseinsatzes nicht mehr decken. P · ∂f /∂L bezeichnet man dabei auch als Wertgrenzprodukt der Arbeit. Der Lohnsatz w∗ ergibt sich dabei aus dem Gleichgewicht von Arbeitsangebot und -nachfrage, denn bei w > w∗ gäbe es ein überschüssiges Angebot und damit Anreize zu Lohnsenkungen, zumal die Unternehmen ihre Stellen auch zu einem geringeren Lohn noch besetzen könnten. Bei w < w∗ gäbe es wiederum unbesetzte Stellen, wodurch diejenigen Unternehmen, die auch bereit wären, höhere Löhne zu zahlen, einen Anreiz hätten, den Lohn zu erhöhen, um Arbeitskräfte zu gewinnen.
172
P. a. de Meulen
Nimmt man an, dass unter den produzierenden Unternehmen vollkommener Wettbewerb um die Beschäftigung der Arbeitskräfte herrscht, werden die produzierenden Unternehmen allesamt diesen markträumenden Lohnsatz w∗ setzen. Bei w∗ können sie nämlich genau die Menge an Arbeitskräften beschäftigen, die sie auch nachfragen, und bei einem geringeren Lohnsatz liefen sie Gefahr, dass die Arbeitskräfte ihre Arbeit lieber bei der Konkurrenz anbieten. Unter der Annahme, dass das Wertgrenzprodukt der ersten eingestellten Arbeitskraft den Lohnsatz w∗ übersteigt, wird Arbeit – dem Gewinnmaximierungskalkül folgend – so lange nachgefragt, wie P · ∂f /∂L ≥ w∗. Aufgrund der abnehmenden Grenzproduktivität der Arbeit ist dies der Fall, bis die Grenzproduktivität der Arbeit ∂f /∂L dem Reallohn w∗ /P entspricht:
w∗ ∂f = ∂L P Die gewinnmaximierende Arbeitsnachfrage impliziert also eine reale Entlohnung gemäß der Grenzproduktivität der Arbeit. Aus der Summe der Arbeitsnachfragen der einzelnen Unternehmen (in einem Sektor) ergibt sich sodann die gesamte (sektorale) Arbeitsmarktnachfrage. Unterstellt man nun, dass es keinerlei Beschränkungen hinsichtlich der intersektoralen Arbeitsmigration gibt, werden die Arbeitskräfte von dem einen Sektor in den anderen Sektor migrieren, wenn im Letzteren der Lohnsatz höher ist. Durch eine solche Migration verschiebt sich allerdings das Arbeitsangebot in Richtung des Sektors mit dem höheren Lohn, wodurch die Löhne konvergieren. Der Migrationsanreiz besteht dabei so lange, bis diese Konvergenz abgeschlossen ist, und in beiden Sektoren der gleiche Lohnsatz gezahlt wird.
Für die sektorspezifischen Niveaus der Arbeitsproduktivität HNt bzw. HTt wird angenommen, dass sie entsprechend eines Learning-by-Doing(LBD)-Mechanismus wachsen. Der direkte LBD-Effekt bewirkt, dass das Produktivitätswachstum in Sektor i mit der dortigen Beschäftigung steigt. Zusätzlich finden Übertragungseffekte zwischen den Sektoren statt, wodurch die Produktivitätswachstumsraten auch positiv von der Beschäftigung des jeweils anderen Sektors abhängen. Dabei wird die Einschränkung gemacht, dass die direkten Effekte stärker ausfallen als die jeweiligen Übertragungseffekte. Dieser LBD-Mechanismus ist in Gl. 9.3 und 9.4 formalisiert, wobei 0 < δi < 1 den Übertragungseffekt in Sektor i = T , N beschreibt und H˙ it /Hit für die Produktivitätswachstumsrate in Sektor i über die stetige Zeit steht (vgl. „Hintergrund 3“):
H˙ Nt = µ · ηt + ϑ · δT · (1 − ηt ) HNt
(9.3)
H˙ Tt = ϑ · (1 − ηt ) + µ · δN · ηt . HTt
(9.4)
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
173
Die Präferenzen der Konsumenten für die jeweiligen Güter werden durch die in Gl. 9.5 dargestellte Nutzenfunktion mit konstanter Substitutionselastizität σ beschrieben:
Ut =
σ − 1/ σ − 1/ σ σ σ + σ. (CNt ) (CTt ) σ −1 σ −1
(9.5)
Hierbei steht Ut für den Nutzen aus dem Konsum der in den Sektoren N und T produzierten Güter. Cit bezeichnet die Konsummenge des Gutes aus dem Sektor i im Zeitraum t . Hintergrund 2: Der optimale Haushaltsplan und die Substitutionselastizität
In der klassischen Mikroökonomik wird angenommen, dass die Konsumenten ihren Güterkonsum so wählen, dass sie anhand ihres verfügbaren Budgets ihren Nutzen maximieren (Kap. 4 von Rebeggiani). Um die Wahl der nutzenmaximierenden Konsummengenkombination (optimaler Haushaltsplan) nachzuvollziehen, betrachten wir den Fall zweier Güter. Stellen wir uns vor, der Konsument habe eine willkürliche Mengenkombination der beiden Güter gefunden, mit der er genau sein Budget ausschöpft. Konsumiert er nun eine kleine Menge dx1 von Gut 1 weniger, spart er dx1 mal den Preis des Gutes (P1) und kann diese Ersparnis für zusätzliche Ausgaben für Gut 2 (dx2 · P2) verwenden. Der Konsument kann sich also dx2 = dx1 · P1 /P2 Einheiten von Gut 2 mehr leisten, wobei P2 für den Preis von Gut 2 steht. Wenn der Nutzen aus dem Mehrkonsum von Gut 2 nun den Nutzenverlust aus dem reduzierten Konsum von Gut 1 überwiegt, dann kann der Konsument durch diese Umwidmung des Budgets seinen Nutzen steigern, und der optimale Haushaltsplan wäre noch nicht erreicht. Da wir die beiden Güter aber beliebig als Gut 1 und Gut 2 bezeichnen können, gilt ohne Beschränkung der Allgemeinheit, dass der optimale Haushaltsplan erst dort erreicht ist, wo der Nutzenzuwachs aus dx1 · P1 /P2 zusätzlichen Einheiten von Gut 2 genau den Nutzenverlust aus dx1 eingebüßten Einheiten von Gut 1 aufwiegt. Der Nutzenverlust ergibt sich formal als dx1 mal der partiellen Ableitung von U nach C1, d. h. als dx1 · ∂U/∂C1. Approximativ entspricht der Nutzenzuwachs aus dx1 · P1 /P2 zusätzlichen Einheiten von Gut 2 somit dx1 · P1 /P2 · ∂U/∂C2. Der optimale Haushaltsplan liegt demnach bei der Gütermengenkombination, bei der der Nutzenzuwachs dx1 · P1 /P2 · ∂U/∂C2 dem Nutzenverlust dx1 · ∂U/∂C1 entspricht, d. h. dort, wo das Preisverhältnis dem Verhältnis der Grenznutzen der Güter entspricht:
∂U ∂U P1 = / . P2 ∂C1 ∂C2 Dieses Verhältnis der Grenznutzen – welches als Grenzrate der Substitution bezeichnet wird – gibt dabei die zusätzliche Menge von Gut 2 an, die man dem Konsumenten im Austausch für eine Einheit von Gut 1 geben müsste, damit sein
174
P. a. de Meulen
Nutzen gleich bleibt. In der Regel bleibt dieses Verhältnis nicht konstant, sondern verändert sich mit dem Konsum der Güter 1 und 2. Denn je mehr der Konsument von seinem Budget für Gut 1 ausgibt, desto eher ist er bereit, auf eine Einheit des reichlich konsumierten Gutes 1 zu verzichten, um dadurch mehr von dem nur spärlich konsumierten Gut 2 kaufen zu können. Je weniger er hingegen von seinem Budget für Gut 1 ausgibt, desto geringer ist seine Bereitschaft, auf eine Einheit von Gut 1 zu verzichten, um mehr von dem ohnehin schon reichlich konsumierten Gut 2 kaufen zu können. Nur in dem Fall, dass die Güter 1 und 2 beliebig austauschbar sind, d. h. sogenannte perfekte Substitute zueinander darstellen, würde die Grenzrate der Substitution für jede Konsummengenkombination gleich hoch sein. Ansonsten nimmt die Rate mit steigendem Konsum von Gut 1 ab. Je weniger sie sich dabei verändert, desto besser lassen sich die Güter substituieren. Genau hier setzt das Konzept der Substitutionselastizität an. Sie gibt Aufschluss darüber, um wie viel Prozent sich das Konsummengenverhältnis verändern muss, damit es zu einer einprozentigen Veränderung der Grenzrate der Substitution kommt. Wenn es dafür nur einer geringen Veränderung des Konsummengenverhältnisses bedarf, dann ist die Substituierbarkeit der Güter gering. Formal berechnet sich die Substitutionselastizität als ∂U ∂U ∂U ∂U ∂(C1 /C2 ) ∂ ∂C1 / ∂C2 ∂(C1 /C2 ) / ∂C1 ∂C2 C /C / ∂U / ∂U = ∂U ∂U · C /C . 1 2 1 2 ∂ / ∂C ∂C 1
2
∂C1
∂C2
Im Fall einer Nutzenfunktion der Gestalt von Gl. 9.5 ist sie konstant gleich σ . Da sich die Grenzrate der Substitution dann als (C1 /C2 )−1/σ ergibt, lässt sich das Konsummengenverhältnis im optimalen Haushaltsplan als die folgende Funktion des (umgekehrten) Preisverhältnisses darstellen: σ P2 C1 = . C2 P1
Erhöht sich nun P2 /P1 um 1 %, wird der Konsument C1 /C2 um σ % erhöhen. Die Substitutionselastizität misst also auch, um wie viel Prozent sich das Verhältnis der konsumierten Güter bei einer einprozentigen Erhöhung des (umgekehrten) Preisverhältnisses erhöht.
Wenn man die gesamtwirtschaftliche Produktion Yt in Einheiten des handelbaren Gutes misst, ergibt sich ihr Wert PTt · Yt als die Summe der Wertschöpfungen aus den einzelnen Sektoren, d. h. als PTt · Yt = PNt · XNt + PTt · XTt + PTt · HTt · Rt . Hierbei steht Pit für den Preis des Gutes aus dem Sektor i im Zeitraum t , während Rt einen Zufallsgewinn aus dem Fund und der nachfolgenden Förderung eines natürlichen Rohstoffs, wie Öl oder Gas, gemessen in Produktivitätseinheiten des handelbaren Sektors, angibt. Rt geht als
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
175
exogene Größe in das Modell ein, d. h., die Höhe des Zufallsgewinns wird nicht durch das Modell erklärt. Um Rt in Einheiten des handelbaren Gutes anzugeben, muss man Rt noch mit dem entsprechenden Produktivitätsniveau HTt multiplizieren. Geteilt durch PTt ergibt sich aus PTt · Yt = PNt · XNt + PTt · XTt + PTt · HTt · Rt Gl. 9.6. (9.6)
Yt = Pt · XNt + XTt + HTt · Rt .
Gl. 9.6 gibt die gesamtwirtschaftliche Produktion in Gütereinheiten des handelbaren Gutes an. Pt = PNt /PTt misst dabei das reale Austauschverhältnis zwischen handelbarem und nicht-handelbarem Gut (vgl. „Hintergrund 2“). Im Folgenden wird angenommen, dass die Produktionsmenge abgesetzt wird und Yt somit sowohl das Niveau der gesamtwirtschaftlichen Einkommen als auch das Niveau der gesamtwirtschaftlichen Güterausgaben misst. Da diese Annahme gleichbedeutend damit ist, dass weder überschüssige Ersparnisse gebildet werden noch überschüssige Güterausgaben getätigt werden, wird sie von Torvik als „No savings condition (NSC)“ bezeichnet.
PTt · Yt = PNt · CNt + PTt · CTt ⇔ Yt = Pt · CNt + CTt Gleichgewichtsanalyse im statischen Modell Nachfolgend soll diejenige Verteilung der Arbeitskräfte auf die Sektoren in einem Zeitraum t bestimmt werden, die sich ergibt, wenn die Güter- und Arbeitsmärkte in beiden Sektoren im Gleichgewicht sind. Gemäß den Erläuterungen in „Hintergrund 2“ resultiert der optimale Haushaltsplan −1/ aus der Bedingung (∂U/∂CNt )/(∂U/∂CTt ) = Pt. Mit ∂U/∂Cit = Cit σ ergibt sie sich als CTt = CNt · Ptσ. Setzt man diesen Zusammenhang in die „NSC“ ein, ergibt sich die Konsumnachfrage nach dem nicht-handelbaren Gut in Abhängigkeit der gesamtwirtschaftlichen Produktion und des Preisverhältnisses gemäß Gl. 9.7: 3URGXNWLRQVIXQNWLRQGHVUHSU¦VHQWDWLYHQ 8QWHUQHKPHQV
*¾WHUPDUNW , ,
, ,
,
Abb. 9.4 Einfluss eines Beschäftigungsanstiegs auf das Güterpreisniveau in Sektor N
176
P. a. de Meulen
Abb. 9.5 Der Zusammenhang zwischen Beschäftigungsanteil im Nichthandelssektor N und relativem Preis des nichthandelbaren Gutes. (Quelle: In Anlehnung an Torvik 2001, Abb. 1)
CNt =
Yt . Pt + Ptσ
(9.7)
Ein Gütermarkt ist bei dem Preis im Gleichgewicht, bei dem sich Güterangebot und -nachfrage gleichen. Bei überschüssiger Nachfrage gäbe es Anreize zu Preiserhöhungen, da das Angebot auch zu einem höheren Preis verkauft werden könnte. Bei überschüssigem Angebot hätten diejenigen Anbieter, die überschüssige Menge auch zu einem geringeren Preis bereit wären anzubieten, einen Anreiz, den Preis zu senken, um auf diesem Weg Nachfrage zu schaffen. Entsprechend ergibt sich die Gütermarktgleichgewichtsbedingung für den Sektor N als CNt = XNt = HNt · f (ηt ). Aus dieser Bedingung, den Produktionsfunktionen Gl. 9.1 und 9.2, der „NSC“ und Gl. 9.6 ergibt sich CTt = HTt · g(1 − ηt ) + HTt · Rt . Durch Einsetzen von 1 CTt = HTt · g(1 − ηt ) + HTt · Rt und CNt = XNt = HNt · f (ηt ) in die zu (CTt /CNt ) / σ = Pt umgestellte Bedingung für den optimalen Haushaltsplan, ergibt sich Gl. 9.8.
1/ 1/ σ g(1 − ηt ) + Rt σ HTt · = Pt f (ηt ) HNt
(9.8)
Gl. 9.8 stellt einen negativen Zusammenhang zwischen dem Anteil der Arbeitskräfte, die in Sektor N beschäftigt sind, und dem relativen Preis des nicht-handelbaren Gutes dar. Dieser negative Zusammenhang Pt (ηt ), der als Gütermarktgleichgewichtskurve in Abb. 9.5 dargestellt ist, lässt sich wie folgt erläutern: Kommt es zu intersektoraler Migration vom Sektor T in den Sektor N, steigt die Produktion in Sektor N, während die S Produktion in Sektor T abnimmt. Das höhere Angebot XN,t in Sektor N führt zu einem Rückgang des Preises in Sektor N, während das geringere Angebot XTS ,t in Sektor T zu einem dortigen Preisanstieg führt. Folgerichtig sinkt das reale Austauschverhältnis Pt . Die beschriebenen Wirkungszusammenhänge sind exemplarisch für den Sektor N in Abb. 9.4 dargestellt, wobei durch den Index „0“ die Ausgangswerte, durch den Index „1“ die veränderten Werte, durch den Index „i“ die Produktion bzw. Beschäftigung
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
177
Abb. 9.6 Einfluss eines Preisanstiegs auf das Lohnniveau in Sektor N
des repräsentativen Unternehmens in Sektor N und durch das hochgestellte „S“ eine Angebotsfunktion beschrieben werden. Unter der Annahme, dass es keine Beschränkungen hinsichtlich der intersektoralen Migration von Arbeitskräften gibt und Migration stattfindet, bis die Lohnniveaus ausgeglichen sind, und unter der Annahme, dass die Beschäftigten entsprechend ihrer Grenzproduktivität entlohnt werden (vgl. „Hintergrund 1“), gilt ∂XTt /∂ηt = ∂Pt · XNt /∂ηt. Dies lässt sich umformen zu HTt · ∂g(1 − ηt )/∂ηt = Pt · HNt · ∂f (ηt )/∂ηt und schließlich umformen zu Gl. 9.9.
HTt ∂g(1 − ηt ) ∂ηt · Pt = HNt ∂f (ηt ) ∂ηt
(9.9)
Gl. 9.9 stellt einen positiven Zusammenhang zwischen dem Anteil der Arbeitskräfte, die in Sektor N beschäftigt sind, und dem relativen Preis des nicht-handelbaren Gutes dar. Dieser positive Zusammenhang ηt (Pt ), der als Arbeitsmarktgleichgewichtskurve ebenso in Abb. 9.5 dargestellt ist, lässt sich wie folgt erläutern: Steigt der relative Preis nicht-handelbarer Güter, steigt (sinkt) das Wertgrenzprodukt der Arbeit in Sektor N (T) und damit die Arbeitsnachfrage ηtD (1−ηtD). In der Konsequenz steigt (sinkt) nachfragebedingt der Lohn wN,t (wT ,t) in Sektor N (T). Der so entstehende Lohnunterschied liefert Anreize zu Migration in den Sektor N. Die beschriebenen Wirkungszusammenhänge sind – erneut exemplarisch für den Sektor N – in Abb. 9.6 dargestellt. Die Indexnotation folgt derselben Logik wie in Abb. 9.4. Zusätzlich bezeichnet das hochgestellte „D“ eine Nachfragefunktion. Holländische Krankheit im statischen Modell Kommt es zu einem unerwarteten Anstieg von Rt, etwa durch einen Rohstofffund, steigt das gesamtwirtschaftliche Einkommen. Das höhere Einkommen induziert einen Anstieg der Nachfrage nach
178
P. a. de Meulen
n icht-handelbaren Gütern und überdies einen Anstieg des relativen Preises nicht-handelbarer Güter. In der Konsequenz erhöht sich das Wertgrenzprodukt der Arbeit im Sektor N und damit die Arbeitsnachfrage und der Lohn (vgl. Abb. 9.6), wodurch es zu Migration der Arbeit in diesen Sektor kommt (Spending effect). Der Sektor nicht-handelbarer Güter N wächst, während der industrielle Exportsektor T schrumpft (vgl. Abb. 9.5)
9.2.3 Produktivitätsanstieg im Handelssektor Durch einen Anstieg der Produktivität im Sektor T steigt das Angebot in diesem Sektor. In der Folge sinkt der Preis PTt, wodurch sich das Wertgrenzprodukt der Arbeit und in der Konsequenz Arbeitsnachfrage und Lohn im Sektor T verringern. Hierdurch erhöht sich der Anreiz zu Migration in den Sektor N.
Kurz gesagt: Steigt die Arbeitsproduktivität im Sektor T, wird dort weniger Arbeit benötigt (Arbeitsbedarfseffekt).
Umgekehrt erhöht ein Anstieg der Produktivität im Sektor T aber auch das Wertgrenzprodukt der Arbeit und damit Arbeitsnachfrage und Lohn im Sektor T. Hierdurch erhöht sich der Anreiz zu Migration in den Sektor T.
Kurz gesagt: Steigt die Arbeitsproduktivität im Sektor T, ist es attraktiver, dort zu arbeiten (Substitutionseffekt).
Gleichgewichtsanalyse im dynamischen Modell Im vorherigen Abschnitt haben wir die gleichgewichtige Verteilung der Arbeitskräfte zwischen den Sektoren und damit auch die relative Wirtschaftskraft der beiden Sektoren in einem abgeschlossenen Zeitraum t analysiert. Da jedoch aufgrund des modellierten LBD-Mechanismus die Produktivität und damit die Wirtschaftskraft der beiden Sektoren über die Zeit steigen, schließt sich in diesem Abschnitt eine dynamische Gleichgewichtsanalyse an. Ein dynamisches Gleichgewicht ist dort erreicht, wo die Produktivitätsniveaus in den beiden Sektoren mit einer konstanten Rate weiterwachsen. Wachsen die Produktivitätsniveaus gleich stark, wird die relative Produktivität t = HTt /HNt über die Zeit konstant verlaufen, d. h. ein Nullwachstum annehmen. Der konstante Wert, den t dann annimmt, bezeichnen wir nachfolgend mit ∗. ∗ ergibt sich also aus der Nullstelle der Wachstumsrate von t, dargestellt als Funktion von t. Hintergrund 3: Zur Wachstumsrate einer zeitabhängigen Variablen
Die Wachstumsrate x˙ (t)/x(t) einer zeitabhängigen Variablen x(t) im stetigen Fall definiert sich als absolute Veränderung von x bei infinitesimal kleinem Voranschreiten der Zeit in Relation zum Ausgangswert von x, d. h. formal als
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
179
∂x(t) 1 . · ∂t x(t) Diesen Ausdruck erhält man durch logarithmisches Differenzieren von x(t), d. h. durch die Bildung der ersten Ableitung des natürlichen Logarithmus von x(t). Entsprechend ergibt sich die Wachstumsrate ˙ t /t als ∂ln(t )/∂t. Da t sich als Quotient der Produktivitätsniveaus der Sektoren T und H im Zeitraum t darstellt, ergibt sich HTt = ln (HTt ) − ln(HNt ) ln(t ) = ln HNt und damit rückgreifend auf Gl. 9.3, 9.4 und 9.10. H˙ Tt H˙ Nt ˙ t ∂ln(HTt ) ∂ln(HNt ) ∂ln(t ) = − = = − = ϑ · (1 − δT ) · (1 − ηt ) − µ · (1 − δN ) · ηt . t ∂t ∂t ∂t HTt HNt
(9.10) Aus Gl. 9.10 ergibt sich unmittelbar, dass ˙ t /t eine Funktion von ηt ist. Aus den Erläuterungen des Arbeitsbedarfs- und Substitutionseffekts eines Produktivitätsanstiegs in Sektor T auf die Migration der Arbeit ergibt sich ηt aber gleichzeitig als Funktion von t. Zur Bestimmung der gesuchten Nullstelle * von ˙ t /t stellen wir in einem ersten Schritt fest, dass * die einzige existierende Nullstelle ist, zumal ˙ t /t eine monotone Funktion von t ist. Letzteres ergibt sich aus der in Gl. 9.11 dargestellten Steigung von ˙ t /t, die im gesamten Definitionsbereich von t positiv ist, wenn ∂ηt /∂t < 0 ist, und im gesamten Definitionsbereich negativ ist, wenn ∂ηt /∂t > 0.
∂
˙ t t
∂t
= −(µ · (1 − δN ) + ϑ · (1 − δT )) · ∂ηt ∂t .
(9.11)
Ist ˙ t /t eine fallende Funktion von t, gilt ˙ t /t > 0, wenn t < * ist – sodass t über die Zeit auf das Niveau * wächst – und gilt ˙ t /t < 0, wenn t > * ist – sodass t über die Zeit auf das Niveau * schrumpft. In diesem Fall einer in t fallenden Wachstumsrate von t bildet * also ein stabiles Gleichgewicht. Da dieser Fall, wie erwähnt, eintritt, wenn ∂ηt /∂t > 0 gilt, überwiegt hier der zuvor erläuterte Arbeitsbedarfseffekt den Substitutionseffekt. Überwiegt hingegen der Substitutions- den Arbeitsbedarfseffekt (∂ηt /∂t < 0), ist ˙ t /t eine steigende Funktion von t. Langfristig wird dann einer der Sektoren austrocknen. Sofern nämlich in einem Zeitraum t t > * gilt, wird t stetig wachsen. Steigt die relative Arbeitsproduktivität in Sektor T allerdings stetig und damit der Lohn, wird es stetig attraktiver, in den Sektor T zu migrieren (Substitutionseffekt), sodass der Sektor N austrocknet.
180
P. a. de Meulen
Sofern in einem Zeitraum t t < * gilt, wird t hingegen stetig schrumpfen. Dann wird jedoch auch der Lohn in Sektor T stetig schrumpfen, sodass es stetig attraktiver wird, in den Sektor N zu migrieren. Letztlich kommt es dann zu einer vollständigen Austrocknung des Sektors T. Der Fall, der entsprechend größere empirische Relevanz besitzt, ist derjenige, in dem das relative Produktivitätswachstum zum Steady State konvergiert und damit eine Koexistenz beider Sektoren auch in der langen Frist zulässt. Langfristig ergibt sich der Anteil der Arbeitskräfte η∗, der in Sektor N beschäftigt ist, wenn man η∗ für ηt in die Steady-State-Bedingung ˙ t /t = 0 einsetzt. Mit Rückgriff auf Gl. 9.10 ergibt sich Gl. 9.12
η∗ =
ϑ · (1 − δT ) µ · (1 − δN ) + ϑ · (1 − δT )
(9.12)
Holländische Krankheit im dynamischen Modell Welche Auswirkungen hat nun ein unerwarteter Anstieg von Rt auf die intersektorale Migration und das langfristige Beschäftigungsverhältnis zwischen den Sektoren? Wie bereits erläutert, steigen zunächst die inländische Nachfrage nach nicht-handelbaren Gütern und damit der relative Preis und das Wertgrenzprodukt der Arbeit in diesem Sektor. In der Folge steigt in Relation zum Sektor T die Arbeitsnachfrage in Sektor N, wodurch der relative Lohn in Sektor N ansteigt und Arbeitskräfte in den Sektor N migrieren (Spending effect). Hierdurch wird Sektor T verdrängt. Mit sinkendem Beschäftigungsanteil in Sektor T wird aber aufgrund des auf Learning-by-Doing basierenden Produktivitätswachstums die relative Produktivität in Sektor T, t, sinken. In der Folge stellt sich der den Substitutionseffekt dominierende Arbeitsbedarfseffekt ein. Folglich wird in Sektor T mehr Arbeit benötigt, sodass ηt wieder zu seinem Steady-State-Niveau η∗ konvergiert.
Die Beschäftigungsanteile ergeben sich langfristig unabhängig vom Rohstoffreichtum des Landes.
Welche Implikationen ergeben sich jedoch für die relative Produktivität t in Sektor T und damit für den Anteil an der gesamtwirtschaftlichen Produktion im langfristigen Gleichgewicht? Wie im vorherigen Abschnitt erläutert, kommt es durch einen Anstieg von Rt zunächst zu Migration der Arbeit in den Sektor N und in der Folge aufgrund des Learningby-Doing-Mechanismus zu einem Rückgang des relativen Produktivitätswachstums in Sektor T. Bei vormaligem Steady-State-Niveau von t ist nun also das relative Produktivitätswachstum ˙ t /t negativ und t schrumpft auf ein geringes Steady-State-Niveau **. Mit langfristig geringerer relativer Produktivität in Sektor T fällt jedoch auch die Wirtschaftskraft des Sektors T in Relation zu der in Sektor N geringer aus.
Langfristig wird die relative Wirtschaftskraft des Handelssektors T umso geringer ausfallen, je größer der Rohstoffreichtum des Landes.
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
181
9.3 Politisch-institutionelle Erklärungsmuster des Rohstofffluchs 9.3.1 „Rent seeking“
Wahrgenommene Korrupon (Durchschni der Jahre 2002-2017)
Dem Erklärungsmuster der Holländischen Krankheit folgend, können größere Rohstoffvorkommen zu einer Schrumpfung der auf Industrieproduktion basierenden Exportsektoren führen. Mehlum et al. (2006) zeigen in ihrem Modell, das am Ende dieses Abschnitts vorgestellt wird, dass mit einer Schrumpfung der Gewinne aus produktiver Tätigkeit auch die Leistungsanreize im privaten Sektor schrumpfen können. Statt die eigenen Ressourcen in der Güterproduktion einzusetzen, werden sie dann dafür eingesetzt, die politischen Entscheidungsträger bei ihrer Entscheidung über die Umverteilung der Rohstoffrente zu beeinflussen, um einen größeren Teil dieser Rente zu erhalten. Ein solches, erstmals von Tullock (1967) beschriebenes Verhalten, wird als rent seeking bezeichnet (Krueger 1974). Das rent seeking ist unproduktiv, da es Ressourcen bindet, ohne dass sich dadurch die zu verteilenden Erträge erhöhen. Sogenannte Renteneinkommen – d. h. Einkommen, die über die Kompensation der dafür erbrachten Leistungen bzw. der dafür entstandenen Kosten hinausgehen – können sich dabei aus der Rohstoffförderung ergeben, wenn die Rohstoffvorkommen überproportional hohe Einkommen im Vergleich zu den Förderkosten versprechen, und die (anhaltende) Verfügbarkeit des Rohstoffs keiner ökonomischen Gegenleistung bedarf. Das rent seeking kann dabei gewaltsam oder gewaltlos, bei Letzterem mittels Korruption oder Lobbyismus geschehen. Im Modell von Mehlum et al. (2006) steigt das Ausmaß des rent seeking mit der Höhe der Rohstoffrente, wodurch die Gefahr erwächst, dass aus Rohstoffreichtum 3
2.5 2 1.5 1 0.5 0
-0.5 -1 -1.5 -2
0
10
20
30
40
50
60
Rohstofferträge in Relaon zum BIP (Durchschni der Jahre 2002 -2017)
Abb. 9.7 Der Zusammenhang zwischen wahrgenommener Korruption und Rohstoffintensität. (Quelle: Weltbank 2019a; World Governance Indicators der Weltbank basierend auf Kaufmann et al. 2010)
182
P. a. de Meulen
Tab. 9.1 Korruptionsindizes und Rohstoffintensitäten der Länder mit der höchsten und geringsten wahrgenommenen Korruption im Durchschnitt der Jahre 2002–2017. (Quelle: Weltbank 2019a; World Governance Indicators der Weltbank basierend auf Kaufmann et al. 2010) Land Somalia
Korruptionsindex
RohstoffLand intensität in %
Korruptionsindex
Rohstoffintensität in %
14,08
Luxemburg
1,99
0,05
Äquatorial Guinea
−1,59
38,35
Niederlande
2,04
0,80
Afghanistan
−1,46
0,60
Island
2,07
26,40
Schweiz
2,08
0,01 × 10−2
−1,44
41,79
Norwegen
2,12
8,90
−1,38
25,03
Singapur
2,18
30,34
Schweden
2,21
0,05 × 10−2
−1,35
47,87
Finnland
2,30
Südsudan Turkmenistan Tschad D.R. Kongo Irak Simbabwe Sudan
−1,65
−1,45
−1,37
−1,33
−1,33
0,01
0,60
0,49
9,05
Neuseeland
2,31
1,60
11,75
Dänemark
2,36
1,29
ein Rohstofffluch wird. Diese Gefahr sinkt jedoch mit der Qualität der politischen Institutionen. In einem Umfeld geringer Bestechlichkeit und hoher Rechtssicherheit, in dem politische Entscheidungsträger durch unabhängige Gerichte kontrolliert werden, ist die Erfolgswahrscheinlichkeit relativ gering, durch Korruption oder sogar gewaltsam Einfluss auf die Umverteilung der Rohstoffrente zu nehmen. In einem solchen Umfeld ist der Rohstoffreichtum ein Segen, denn er hält die Wirtschaftssubjekte nicht davon ab, die eigenen Ressourcen produktiv einzusetzen. In einem Modell rivalisierender Gruppen um die Abschöpfung von Rohstofferträgen und einem nicht durch Eigentumsrechte geschützten Teil der Erträge aus der Güterproduktion zeigt Hodler (2006), dass der Anreiz des rent seeking umso größer ist, je größer die Rohstoffrente ausfällt, je geringer die Produktivität in der Güterherstellung ist und je größer die Zahl der rivalisierenden Gruppen ausfällt. Letzteres ergibt sich, da mit wachsender Zahl der Gruppen weniger produktive Mittel je Gruppe zur Verfügung stehen. Letztlich haben die Gruppen, die sich im Kampf um die Rohstoffrente engagieren, auch keinen Anreiz, sich für den Schutz privater Eigentumsrechte einzusetzen. Sinkt aber dieser Schutz, erhält das rent seeking zusätzlichen Anreiz. Abb. 9.7 zeigt einen positiven Zusammenhang zwischen Rohstoffreichtum und wahrgenommener Korruption im Querschnittsvergleich von 202 Ländern im Durchschnitt der Jahre 2002 bis 2017. In Tab. 9.1 sind die Korruptionsindizes und Rohstoffintensitäten der zehn Länder mit der höchsten und der zehn Länder mit der geringsten wahrgenommenen Korruption im betrachteten Zeitraum aufgelistet. Dabei liegen die Indexwerte in einem Intervall zwischen −2,5 (geringes Ausmaß) und 2,5 (hohes Ausmaß). Abgesehen von Afghanistan finden sich unter den Ländern mit sehr hoher Korruption ausschließlich
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
183
Länder mit einer Rohstoffintensität von annähernd oder mehr als 10 %. Demgegenüber sind die Länder mit der geringsten wahrgenommenen Korruption – mit Ausnahme von Norwegen – vergleichsweise rohstoffarm. Dieser Zusammenhang steht durchaus im Einklang mit den theoretischen Vorhersagen von Mehlum et al. (2006), wenn man unterstellt, dass mit steigendem rent seeking das Risiko der Bestechlichkeit unter den Politikern wächst, die für die Umverteilung der Rohstoffrente verantwortlich sind. Leite und Weidmann (1999) liefern empirische Evidenz für den Einfluss der Rohstoffintensität auf eine Reihe von Korruptionsmaßen. In ihrem Aufsatz modellieren Mehlum et al. (2006) das Ausmaß des rent seeking anhand der Entscheidung privater Akteure, ihre Ressourcen vollständig in der Güterproduktion einzusetzen oder sie vollständig für die Beeinflussung der politischen Entscheidungsträger bei der Umverteilung der Rohstofferträge R einzusetzen. Die betrachtete Volkswirtschaft setzt sich dabei aus N privaten Akteuren zusammen. Während nP die Zahl der Akteure bezeichnet, die sich für die Güterproduktion entscheiden (Produzenten), gibt nG = N − nP die Zahl der Akteure an, die sich ausschließlich dem rent seeking widmen. Mehlum et al. (2006) bezeichnen diese Gruppe als Rent Grabber. Wie erfolgsversprechend das rent seeking ist, hängt von der Qualität der politischen und rechtlichen Institutionen im Land ab, welche durch den Parameter formalisiert wird. misst die Teilmenge der Rohstofferträge, die an die Produzenten geht, in Relation zu der restlichen Menge, die durch die Rent Grabber abgeschöpft wird. liegt dabei im Intervall zwischen 0 und 1. Ist = 1, erhält jeder der N Akteure den gleichen Anteil 1/N des Rohstoffertrages R. In einem solchen leistungsfördernden institutionellen Umfeld, das sich z. B. durch hohe Rechtssicherheit und ein geringes Maß an Korruption charakterisiert, ist das rent seeking gänzlich darin erfolglos, einen überproportional hohen Teil der Rohstofferträge abzuschöpfen. Ist im anderen Extremfall = 0, wird der Rohstoffertrag hingegen vollständig von den Rent Grabbern abgeschöpft und jeder erhält den gleichen Anteil 1/nG. Der Rent-seeking-Anreiz sinkt somit mit der Qualität des institutionellen Umfelds. Nur wenn hinreichend klein wird, kann das rent seeking eine lohnende Alternative zur Produktion darstellen. Die Auszahlung πG eines Rent Grabbers lässt sich als Vielfaches s des Mindestanteils 1/N der Rohstofferträge R ausdrücken (Gl. 9.13):
πG = s · R/N.
(9.13)
s liegt den vorangegangenen Ausführungen entsprechend zwischen 1 und N/nG und stellt eine Erfolgsfunktion der Rent Grabber beim Verteilungskampf um die Rohstofferträge dar. Diese Funktion hängt negativ von der institutionellen Qualität und positiv vom Anteil der Produzenten α = nP /N ab, da dann weniger Konkurrenz unter den Rent Grabbern besteht. Aus Gl. 9.13 und der Definition des Parameters als Verhältnis der abgeschöpften Teile der Rohstofferträge von Produzenten und Rent Grabbern ergibt sich der Teil von R, der einem Produzenten zukommt, als · [s · R/N]. Entsprechend
184
P. a. de Meulen
dieser Verteilung von R auf Produzenten und Rent Grabber und mit Rückgriff auf die Definition α = nP /N ergibt sich Gl. 9.14. nG · s · R/N] + nP · · s · R/N] = R
⇔ s(α, ) =
1 · α + (1 − α)
(9.14)
Die Produzenten erzielen neben den Rohstofferträgen Gewinne aus der Produktion π. Die Auszahlung πP eines Produzenten ergibt sich entsprechend wie in Gl. 9.15 dargestellt.
πP = π + · s · R/N
(9.15)
Nun lohnt sich das rent seeking aus Sicht eines beliebigen Akteurs, wenn πG > πP, d. h. wenn π < (1 − ) · s · R/N. Um zu bestimmen, unter welchen Bedingungen die Gewinne aus der Produktion ausreichen, um sich gegen rent seeking und damit für produktiven Einsatz der eigenen Ressourcen zu entscheiden, muss der Produktionssektor der Volkswirtschaft modelliert werden. Produktionssektor Der Produktionssektor bestehe aus M unterschiedlichen Erzeugnissen, für deren Herstellung nur der Faktor Arbeit benötigt wird. Die Ökonomie verfüge diesbezüglich über L Arbeitskräfte. Bei den M Erzeugnissen handele es sich um Komplementärgüter, auf die sich die Konsumausgaben der Nachfrager gleichverteilen. Entsprechend ist die Produktionsmenge jedes der M Güter gleich groß, nachfolgend bezeichnet als y. Die Gesamtproduktionsmenge im Produktionssektor ergibt sich entsprechend als My. Bei der Produktion der M Güter besteht Wettbewerb zwischen modernen Firmen und Randanbietern. Die Produktionstechnologie am Wettbewerbsrand ermöglicht lediglich konstante Skalenerträge. Das bedeutet im vorliegenden Fall, dass zur Produktion einer jeden Gütereinheit eine zusätzliche Arbeitskraft benötigt wird. Die Beschäftigung am Rand sei durch LR bezeichnet und die Produktionsfunktion somit durch yR (LR ) = LR. Entsprechend ergibt sich die Grenzproduktivität der Arbeit konstant gleich eins und das Wertgrenzprodukt gleich dem Stückpreis PR. Unter diesen Voraussetzungen fragen die Unternehmen alle verfügbaren Arbeitskräfte nach, sofern der Lohnsatz wR nicht größer als der Stückpreis PR ist. Konkurrenz um die Arbeitskräfte am Wettbewerbsrand erhöht den Lohnsatz damit genau auf das Niveau des Wertgrenzprodukts der Arbeit (wR = PR), d. h. den Reallohnsatz auf das Niveau der Grenzproduktivität der Arbeit (w = wR /PR = 1). Da sich der Gewinn am Rand als (PR − wR ) · LR ergibt, erzielen Randanbieterunter unter diesen Voraussetzungen Nullgewinn. Moderne Firmen werden von je einem Unternehmer betrieben. Der Betrieb benötigt die Einstellung von mindestens F Arbeitskräften. Während die ersten F Arbeitskräfte keinen Output erzeugen, liegt die Grenzproduktivität jeder weiteren Arbeits-
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
185
kraft bei β > 1. Damit ergibt sich die Produktionsfunktion einer modernen Firma als yM (LM ) = β · (LM − F), wobei LM die Beschäftigung der modernen Firma angibt. Tritt nun eine moderne Firma auf einen der M Märkte in den Wettbewerb mit Randanbietern, tritt sie gleichzeitig in Konkurrenz um die Einstellung der Arbeitskräfte. Da alle M Erzeugnisse in gleichen Mengen konsumiert und damit auch produziert werden, verteilt sich die Arbeit (in Abwesenheit von modernen Firmen) gleich auf die M Märkte, sodass es auf jedem Markt L/M Arbeitskräfte gibt. Die moderne Firma wird diese komplette Zahl der Arbeitskräfte L/M gewinnen können, wenn sie einen Lohn w ≥ 1 zahlt. Dies lohnt sich, wenn ihr Gewinn dann nicht negativ ausfällt, d. h. wenn ihr Gewinn bei einem Lohn von w = 1 positiv ausfällt, d. h. wenn der Produktionsoutput β · (L/M − F) die realen Lohnkosten L/M · 1 übersteigt. Dies ist der Fall, wenn, wie angenommen, Ungleichung Gl. 9.16 gilt. Diese Annahme ist durchaus realistisch, da ansonsten mit den verfügbaren Arbeitskräften in einer modernen Firma nicht mehr als am Wettbewerbsrand produziert würde.
β>
L L−M ·F
(9.16)
Gegeben Ungleichung Gl. 9.16, wird die moderne Firma den kleinsten notwendigen Reallohnsatz zahlen und den Preis höchstmöglich setzen, ohne dass am Rand günstiger angeboten werden kann. Damit wird der Preis auf das Niveau des Nominallohnsatzes gesetzt (w = 1). Eine zweite moderne Firma würde nicht auf den Markt treten, da sie sonst in Preiskonkurrenz treten müsste mit der anderen Firma. Eine Preisunterbietungswettkampf stellte sich ein, solange mit dem Verkauf einer weiteren Einheit zusätzlicher Gewinn erzielt werden könnte, d. h. so lange, bis der Preis das Niveau der Lohnkosten für die Produktion einer zusätzlichen Gütereinheit (Grenzkosten) von 1/β erreicht hätte. Bei einem solchen Preis würden die modernen Firmen aber Verluste erwirtschaften. In Antizipation dieses ruinösen Preiswettkampfes käme es nicht zu Marktzutritt einer zweiten Firma. Unter der Annahme, dass es weniger Akteure als Güter (N < M ) gibt, werden somit nP Märkte von je einer modernen Firma bedient, wobei nP ≤ N < M , während die restlichen (M − nP ) Märkte von Randanbietern bedient werden. Der Gewinn einer modernen Firma ergibt sich in Abhängigkeit der Produktionsmenge y gemäß Gl. 9.17. 1 · yM − F π = yM − LM = 1 − (9.17) β Das gesamtwirtschaftliche Einkommen Y kann als Summe der Rohstofferträge R und der Wertschöpfung im Produktionssektor My dargestellt aber werden, gleichzeitig auch als Summe der Lohn- und Gewinneinkommen L + np · πP + nG · πG . Mit der Definition α = nP /N ergibt sich Gl. 9.18.
Y = R + My = N[α · πP + (1 − α) · πG ] + L
(9.18)
186
P. a. de Meulen
Setzt man in Gl. 9.18, Gl. 9.13–9.15 ein, ergibt sich Gl. 9.19.
Y = R + My = R + nP · π + L
(9.19)
Zusammen mit Gl. 9.17 ergibt sich aus Gl. 9.19 die Gl. 9.20.
y=
β(L − nP · F) β(M − nP ) + nP
(9.20)
Gl. 9.20 ergibt sich auch aus der Bedingung, dass – aufgrund der Annahme komplementärer Güter – die Produktionsmenge einer repräsentativen modernen Firma die Zahl der yM der Produktionsmenge eines Randanbieters yR gleichen muss. Sei L Arbeitskräfte, die am Wettbewerbsrand arbeiten, dann ergibt sich der Arbeitsein als die satz des repräsentativen Randanbieters als L/(M − nP ). Dann resultiert L − L Zahl der Arbeitskräfte, die in modernen Firmen arbeiten, und der Arbeitseinsatz in der /nP. Unter Berücksichtigung der unterrepräsentativen modernen Firma als L − L schiedlichen Produktionsfunktionen in modernen Firmen und am Wettbewerbsrand /nP − F · β und yR = L/(M ergeben sich yM = L − L − nP ). um, setzt den Ausdruck für L in die Produktions Stellt man yR = L/(M − nP ) nach L funktion yM ein und verwendet den Zusammenhang yM = yR = y, so ergibt sich Gl. 9.20. Unter der in Gl. 9.16 getroffenen Annahme gilt, dass die Gesamtproduktion My im Produktionssektor und damit auch die Produktion y in jedem einzelnen Markt mit der Zahl der Produzenten nP steigt: L ∂y > 0, wenn β > L−M·F L ∂nP < 0, wenn β < L−M·F Setzt man Gl. 9.20 in die Gewinngleichung Gl. 9.17 ein, ergibt sich wie in Gl. 9.21 dargestellt, der Gewinn einer modernen Firma als positive Funktion von der Produktionsmenge y. β(L − nP · F) 1 · −F π (nP ) = 1 − (9.21) β β(M − nP ) + nP
Abb. 9.8 Der Anteil der produktiven Akteure in Abhängigkeit der institutionellen Qualität. (Quelle: In Anlehnung an Mehlum et al. 2006, Abb. 2)
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
187
Durch Einsetzen von Funktion Gl. 9.21 in Gl. 9.15 ergibt sich sodann Gl. 9.22 β(L − nP · F) 1 · − F + · s · R/N πP = 1 − (9.22) β β(M − nP ) + nP
πP steigt mit dem Output im Produktionssektor y und damit mit dem Anteil α der Akteure, die produktiv sind. Aber auch πG = s · R/N steigt mit α, da dann weniger Konkurrenz um die Umverteilung der Rohstofferträge R unter den Rent Grabbern besteht (vgl. Abb. 9.8). Dabei besteht für sehr kleine α aus Sicht eines Akteurs zunächst der Anreiz, produktiv zu werden, wenn πP (α = 0) > πG (α = 0). Dann kann es kein langfristiges Gleichgewicht geben, bei dem sich alle Akteure dafür entscheiden, Rent Grabber zu sein. πG (α = 0) ergibt sich dabei als R/N , denn aus α = 0 ergibt sich s = 1 und damit eine Gleichverteilung der Rohstofferträge. πP (α = 0) ergibt sich als (1 − 1/β) · L/M − F + · R/N , zumal α = 0 äquivalent ist zu nP = 0. πP (α = 0) > πG (α = 0) ist damit für alle erfüllt, wenn (1 − 1/β) · L/M − F > R/N, was im Folgenden als erfüllt angenommen wird. Für kleine α wird der Anteil der Produzenten somit zunächst steigen. Aus β > 1 folgt aber, dass mit zunehmendem α die Differenz zwischen πP und πG sinkt, sodass es zunehmend unattraktiver wird, produktiv zu werden. Unter diesen Voraussetzungen konvergiert der Anteil α entweder gegen einen Wert 0 < α ∗ < 1, sodass langfristig ein Teil der Akteure produktiv, ein anderer Teil unproduktiv ist (vgl. rechtes Diagramm in Abb. 9.8), oder α wird langfristig den Wert 1 annehmen (vgl. linkes Diagramm in Abb. 9.8). Eine solche Randlösung, bei der es langfristig keine Rent Grabber gibt, wird erreicht, wenn πP (α = 1) > πG (α = 1). Mit s(α = 1, ) = 1/ gilt dies, wenn ≥ ∗ ≡ R/(π (N) · N + R). Eine hinreichend hohe institutionelle Qualität schafft also den nötigen Anreiz, produktiv zu sein. In einem solchen Umfeld ist Rohstoffreichtum ein Segen. Zum unveränderten Produktionsoutput kommen die Rohstofferträge hinzu. Die Anforderungen an die institutionelle Qualität sind jedoch umso größer, je größer der Rohstoffreichtum und je geringer die Gewinne aus der Produktion sind. Ist jedoch langfristig nur ein Teil der Akteure produktiv, so können steigende Rohstofferträge zu einer Reduktion des gesamtwirtschaftlichen Einkommens führen. Da bei einer solchen inneren Lösung von α der Parameter der institutionellen Qualität kleiner als eins ist, ergibt sich aus Gl. 9.13 und Gl. 9.22, dass πG mit zunehmendem R stärker ansteigen wird als πP. Beim vormaligen Gleichgewicht α ∗ wird durch den Anstieg der Rohstofferträge somit πG > πP gelten, wodurch es zu einer Reduktion des Anteils der produktiven Akteure kommt. Gemäß der in Gl. 9.16 getroffenen Annahme, dass das gesamtwirtschaftliche Einkommen mit dem Anteil der produktiven Akteure ansteigt, ergeben sich zwei gegenläufige Effekte einer Erhöhung des Rohstoffertrages auf das gesamtwirtschaftliche Einkommen: der direkte Einkommenseffekt der zusätzlich zu verteilenden Rohstoff-
188
P. a. de Meulen
erträge und ein indirekter Effekt der Substitution produktiver Akteure. Überwiegt der Substitutions- den Einkommenseffekt, kommt es zum Rohstofffluch.
9.3.2 Zentralstaatliche Erklärungsansätze Dass sich gerade in rohstoffreichen Ländern wachstumshemmende Institutionen herausgebildet haben, hängt nicht zuletzt mit dem geringeren Anreiz zusammen, in den Aufbau leistungsfördernder Institutionen zu investieren. Rohstofferträge sind vergleichsweise mühelos zu erwirtschaften und liefern einen besonderen Anreiz, Zugriff zu ihnen zu erhalten. Um ihren Anspruch auf die Erträge zu sichern, dürften einflussreiche Gruppen wenig Interesse daran haben, dass sich demokratische, rechtsstaatliche Systeme etablieren (Bardt 2005). Aus dem gleichen Grund dürften Machthaber ein besonderes Interesse daran haben, ihre Macht zu erhalten. Dabei wird politische Unterstützung nicht selten durch die Zuteilung von Ämtern in Politik und Verwaltung erkauft. So erhielt Lambert Mende das Amt des Ölministers in der Demokratischen Republik (D.R.) Kongo dafür, dass er sich von der Opposition abwandte und in die Regierungspartei von Joseph Kabila wechselte (vgl. Titeca und Edmond 2019 für eine Beschreibung des Systems der Patronage in der D.R. Kongo). In kleptokratischen Regimen wird zum Ziele des Machterhalts bisweilen auch auf eine sogenannte „Teile-und-herrsche-Strategie“ gesetzt (Acemoglu et al. 2004): Um einen Regimeumsturz zu erwirken, müssen die Bürger zusammen auftreten. Eine solche Kooperation wird jedoch unterbunden, indem sich die politische Führung die Loyalität der notwendigen Verbündeten sichert. Unter dem Mobutu-Regime der D.R. Kongo wurden politische Ämter vornehmlich an Personen gegeben, die aus derselben Provinz stammten wie Mobutu. Indem die Besetzung öffentlicher Stellen häufig wechselte, gab es zum einen eine stete Angst unter den öffentlichen Beschäftigten, ihre Posten zu verlieren, zum anderen eine stete Hoffnung unter den Außenstehenden, einen Posten zu ergattern. Auf diese Weise schaffte das Regime die nötige Loyalität unter den Inhabern hoher politischer Ämter (Acemoglu et al. 2004). Es ist wenig verwunderlich, dass solche kleptokratischen Regime nicht selten in rohstoffreichen Ländern mit geringer institutioneller Qualität zu beobachten sind, liefern doch die Rohstoffvorkommen eine sprudelnde Quelle für die Bestechung. Das Obiang-Regime in Äquatorialguinea liefert ein gutes Beispiel dafür, wie es Macht habern gelingt, die Bevölkerung um einen großen Teil der Rohstoffrente zu bringen. So berichtet Keenan (2014) unter Berufung auf die Financial Times (Rice 2012), dass Ölförderverträge mit ausländischen Unternehmen daran geknüpft wurden, dass die Unternehmen Joint Ventures mit inländischen Firmen eingehen, wobei die Auswahl auf solche inländischen Firmen fiel, die durch Mitglieder der Familie Obiang geführt werden. Da in rohstoffreichen Volkswirtschaften die Abhängigkeit der Regierungen von Steuereinnahmen verhältnismäßig gering ist, können sich institutionelle Fehlentwicklungen auch durch sogenannte „rentier effects“ ergeben (Ross 2001). Zum einen
Wahrgenommenes Ausmaß von Mitspracherecht, Rede-, Versammlungs- und Pressefreiheit (Durchschni der Jahre 20022017)
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
189
2 1.5 1 0.5 0 -0.5 -1 -1.5 -2 -2.5 0
10
20
30
40
50
Rohstofferträge in Rela
on zum BIP (Durchschni der Jahre 2002-2017)
Abb. 9.9 Der Zusammenhang zwischen wahrgenommenem politischem Mitspracherecht, Rede-, Versammlungs- und Pressefreiheit und der Rohstoffintensität. (Quelle: Weltbank 2019a; World Governance Indicators der Weltbank basierend auf Kaufmann et al. 2010)
ist die Notwendigkeit, in Human- und Sachkapital – und damit in das Wachstum der Volkswirtschaft – zu investieren, relativ gering, zum anderen ist die Rechenschaftspflicht über die Verwendung der öffentlichen Mittel gering, wenn sie nicht vornehmlich durch Steuern finanziert werden. Die drohenden Konsequenzen daraus fasst Bardt wie folgt zusammen: „Wenn eine angemessene Ordnungspolitik zur Schaffung von Wohlstand wegen der bedeutenden Einnahmen aus den Rohstoffverkäufen nicht mehr notwendig zu sein scheint, schwächt dies den Wettbewerb um die beste Politik. Die Folge sind übermäßige bürokratische Lasten, unattraktive Standortbedingungen für internationale Investoren und fehlende wirtschaftliche Freiheiten für Unternehmen“ (Bardt 2005). Dabei hängt der Einfluss des Rohstoffreichtums auf die Politik auch vom politischen System ab. So dürften Regierungen in demokratischen gegenüber diktatorischen Regimen einen stärkeren Anreiz haben, in das Wachstum der Volkswirtschaft und damit den gesellschaftlichen Wohlstand zu investieren, um im Wettbewerb um die Regierungsbildung zu bestehen (Bulte und Damania 2008). In der Tat findet Endrikat (2017) empirische Evidenz für die Hypothese, dass die öffentlichen Bildungsausgaben insbesondere in solchen Ländern vergleichsweise gering ausfallen, die rohstoffreich sind und diktatorisch geführt werden. Den vorangegangenen Ausführungen zu Folge verwundert es nicht, dass der in Abb. 9.9 dargestellte Zusammenhang zwischen dem wahrgenommenen Ausmaß an politischem Mitspracherecht, Rede-, Versammlungs- und Pressefreiheit (Voice-andAccountability (VaA)-Index) und der Rohstoffintensität im Querschnittsvergleich von 202 Ländern im Durchschnitt der Jahre 2002 bis 2017 negativ ausfällt. In Tab. 9.2 sind die VaA-Indizes und Rohstoffintensitäten der zehn Länder mit den geringsten und der zehn Länder mit den höchsten Indexwerten im betrachteten Zeitraum aufgelistet, wobei die Indexwerte zwischen −2,5 (geringes Ausmaß) und 2,5 (hohes Ausmaß) liegen.
190
P. a. de Meulen
Tab. 9.2 Voice-and-Accountability (VaA)-Indizes und Rohstoffintensitäten der Länder mit dem geringsten und höchsten Indexwerten im Durchschnitt der Jahre 2002–2017. (Quelle: Weltbank 2019a; World Governance Indicators der Weltbank basierend auf Kaufmann et al. 2010) Land
VaA-Index
Rohstoffintensi- Land tät in %
VaA-Index
Rohstoffintensität in %
Turkmenistan
−2,11
41,79
Island
1,45
4,87
Kanada
1,45
0,01 × 10−2
2,88
22,92
Niederlande
1,55
0,80
Eritrea Usbekistan Somalia Äquatorial Guinea Myanmar Syrien Saudi-Arabien Sudan Laos
−2,11
−1,96
−1,91
−1,85 −1,78
−1,76
−1,74
−1,72
−1,70
14,08
Neuseeland
1,55
1,60
38,35
Finnland
1,55
0,49
9,33
Schweiz
1,56
0,01
23,99
Luxemburg
1,56
0,05
40,72
Schweden
1,58
0,60
11,75
Dänemark
1,59
1,29
11,61
Norwegen
1,62
8,90
Abgesehen von Eritrea finden sich unter den Ländern mit sehr geringem Ausmaß an Mitspracherecht, Rede-, Versammlungs- und Pressefreiheit ausschließlich Länder mit einer Rohstoffintensität von annähernd oder mehr als 10 %. Hingegen sind die Länder mit hohem Indexwert – mit Ausnahme Norwegens – vergleichsweise rohstoffarm.
9.4 Fazit und Evidenz Die Geschichte hat gezeigt, dass es keinen eindeutigen Zusammenhang zwischen Rohstoffreichtum und Wirtschaftswachstum gibt. Während Alexeev und Conrad (2009) einen positiven Effekt des Reichtums an Öl und Mineralien auf das P ro-Kopf-Einkommen finden, ergibt sich aus den Untersuchungen in Ross (2001), Sala-i-Martin und Subramanian (2013) und Smith (2004) ein negativer Zusammenhang zwischen Ölreichtum und Wirtschaftsleistung. Dabei hängt es von einer Reihe unterschiedlicher Faktoren ab, ob sich der Rohstoffreichtum eines Landes als Fluch oder Segen entpuppt. Dies beginnt schon bei der Art des Rohstoffs. Da die im Vergleich zum Rohstoffwert hohen Transportkosten eine Weiterverarbeitung vor Ort nahelegten, haben sich im Ruhrgebiet und Großbritannien im Zuge der Kohle- und Erzförderung Industrien entwickelt, die vielen Menschen Beschäftigung und Wohlstand ermöglichten. In vielen ölreichen Ländern ist die Förderung meist sehr isoliert und bietet aufgrund der hohen Kapitalintensität in begrenztem Maße Beschäftigungsmöglichkeiten. Wie Bardt (2005) erläutert, haben sich in Nigeria trotz des Ölreichtums nicht die notwenigen Kapazitäten entwickelt, um das Öl weiterzuverarbeiten und das Land weitgehend unabhängig von Benzinimporten zu machen. In
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
191
diesem Zusammenhang spielt es für die wirtschaftliche Entwicklung von rohstoffreichen Ländern auch eine wichtige Rolle, wie die Einnahmen aus der Rohstoffförderung verwendet werden. Während die Liga der arabischen OPEC-Staaten im Durchschnitt der Jahre 1990 bis 2018 Militärausgaben von 7 % der Wirtschaftsleistung tätigten, betrugen die Ausgaben in der Gruppe der arabischen Nicht-OPEC-Staaten nur 3,7 % in Relation zum BIP (Weltbank 2019f). Gleichzeitig gaben die Nicht-OPEC-Staaten im selben Zeitraum einen größeren Teil ihrer Wirtschaftsleistung für Bildung und Forschung aus (Weltbank 2019g, h). Werden die Einnahmen für Investitionen in die Human- und Sachkapitalbestände verwendet, erhöht dies das Produktionspotenzial in den betreffenden Sektoren und durch Übertragungseffekte womöglich auch die Produktivität in anderen Wirtschaftsbereichen. Tragen die staatlichen Investitionen auf diesem Wege zu einer breit aufgestellten Wirtschaftsstruktur bei, verringert sich auch der Einfluss schwankender Rohstoffpreise auf die gesamtwirtschaftliche Entwicklung. In Venezuela gab es einst einen blühenden Landwirtschaftssektor. Heute ist die Wirtschaftsleistung sehr abhängig vom Ölgeschäft (vgl. Abb. 9.10). Die Entwicklung Venezuelas wird nicht selten mit dem Phänomen der Holländischen Krankheit in Verbindung gebracht (u. a. Kott 2012). Durch die massiven Ölexporte wertete die Währung auf, wodurch die Wettbewerbsfähigkeit anderer Exportsektoren litt. In den zurückliegenden 20 Jahren hat der Ölsektor die Industrie- und Landwirtschaftssektoren des Landes stark zurückgedrängt. So stieg der Warenexportanteil der Treibstoffexporte von gut 80 % zu Beginn des Jahrtausends auf zuletzt knapp 98 % (Weltbank 2019d). 120
400 350
100
300 80
250
60
200 150
40
100 20
50
0
0
Ölpreis WTI in $/Barrel (linke Achse)
BIP Venezuela in Mrd. $
Abb. 9.10 Der Zusammenhang zwischen Ölpreis (Sorte „WTI“, gemessen in $ pro Barrel) und nominalem BIP in Venezuela. (Quellen: Basierend auf Ölpreisdaten von U.S. Energy Information Administration 2012 sowie Daten zum BIP in Venezuela vom IWF 2019)
192
P. a. de Meulen
Neben den ökonomischen Faktoren spielt vor allem das politisch-institutionelle Umfeld eine Rolle dafür, ob sich Rohstoffreichtum als Fluch oder Segen herausstellt. In der Tat ergibt sich aus den empirischen Untersuchungen von Sala-i-Martin und Subramanian (2013), dass der negative Einfluss des Rohstoffreichtums auf die wirtschaftliche Entwicklung verschwindet, wenn für die Qualität der Institutionen kontrolliert wird. Die bedeutende Rolle des politisch-institutionellen Umfelds zeigt sich z. B. mit Blick auf die Geschichte Nigerias, die gezeichnet ist durch ständige Auseinandersetzungen um den Zugang zu den Ölquellen. Im Zuge des Biafra-Krieges, durch den sich die östliche Ibo-Region nicht zuletzt Zugang zum Öl verschaffen wollte, kam es im Kampf um die Kontrolle über den Ölreichtum des Landes zu wechselnden Militärdiktaturen. Die Machthaber haben es dabei versäumt, die Einnahmen in die wirtschaftliche Entwicklung des Landes zu investieren. Vielmehr flossen viele Gelder in sogenannte „white elephants“ – prestigeträchtige Großprojekte ohne nennenswerten Ertrag (Robinson und Torvik 2005). Beispielhaft hierfür stehen die vielen heruntergekommenen Sportstätten des Landes. Für eine effektive Instandhaltung scheinen ob der geringen Auslastung Anreiz und Mittel zu fehlen. Dabei ist es aber nicht zuletzt dieser mangelhafte Zustand vieler Stadien, der sie für die Ausrichtung größerer sportlicher Wettkämpfe disqualifiziert (Umukoro 2014). Ein weiteres Beispiel liefert der Stahlkomplex Ajaokuta, dessen Bau bereits in den 1970er-Jahren begonnen wurde, aber bis heute nicht in Betrieb genommen wurde (Sala-i-Martin und Subramanian 2013). Norwegen geht demgegenüber mit seinen Einnahmen aus der Ölförderung sorgsamer um. Bereits 1990 wurde ein Fonds gegründet, in den die Einnahmen fließen. Verwaltet durch die norwegische Zentralbank, nimmt der Staat für seine Ausgaben lediglich Rückgriff auf die Renditen des Fonds (Norges Bank Investment Management 2019). Der Fonds dient so als institutionelle Vorkehrung, um einem etwaigen Verteilungskampf entgegenzuwirken. Er schafft zudem Transparenz über die Verwendung der Öleinnahmen, wodurch einem verschwenderischen Umgang mit den Rohstofferträgen entgegengewirkt wird. Das Beispiel Norwegens zeigt somit, dass in einem günstigen institutionellen Umfeld, in dem die Politik verantwortungsvoll mit den Rohstofferträgen umgeht, Rohstoffreichtum kein Fluch sein muss (Zum Einfluss des Rohstoffreichtums auf die wirtschaftliche Entwicklung Norwegens siehe Larsen 2006).
Literatur Acemoglu, D., Verdier, T., & Robinson, J. A. (2004). Kleptocracy and divide-and-rule: A model of personal rule. Journal of the European Economic Association, 2(2–3), 162–192. Alexeev, M., & Conrad, R. (2009). The elusive curse of oil. The Review of Economics and Statistics, 91(3), 586–598. Baldwin, R. E. (1966). Economic development and export growth: A study of Northern Rhodesia, 1920–1960. Berkely and Los Angeles: University of California Press. Bardt, H. (2005). Rohstoffreichtum: Fluch oder Segen? IW-Trends-Vierteljahresschrift zur empirischen Wirtschaftsforschung, 32(1), 33–43.
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
193
Bulte, E., & Damania, R. (2008). Resources for sale: corruption, democracy and the natural resource curse. The B.E. Journal of Economic Analysis & Policy, 8(1), Article 5. Cobb, C. W., & Douglas, P. H. (1928). A theory of production. The American Economic Review, 18(1), (Supplement, Papers and Proceedings of the Fortieth Annual Meeting of the American Economic Association), 139–165. Cordon, W. M., & Neary, J. P. (1982). Booming sector and de-industrialization in a small open economy. Economic Journal, 92(368), 825–848. Endrikat, M. (2017). Natural resource rents, autocracy and the composition of government spending. MAGKS Joint Discussion Paper Series in Economics by the Universities of Aachen, Gießen, Göttingen, Kassel, Marburg und Siegen. Nr. 27-2017. Frankel, J. A. (2012). The Natural Resource Curse: A Survey of Diagnoses and Some Prescriptions. HKS Faculty Research Working Paper Series. Nr. 12–014, John F. Kennedy School of Government, Harvard University. Gelb, A. (2010). Economic diversification in resource rich countries. In R. Arezki (Hrsg.), Beyond the Curse (S. 1–23). Washington: International Monetary Fund. Gylfason, T. (2006). Natural resources and economic growth: From dependence to diversification. In H. G. Broadman, T. Paas, & p. J. J. Welfens (Hrsg.), Economic liberalization and integration policy (S. 201–231). Heidelberg: Springer. Hirschman, A. O. (1958). The strategy of economic development. New Haven CT: Yale University Press. Hodler, R. (2006). The curse of natural resources in fractionalized countries. European Economic Review, 50(6), 1367–1386. Hotelling, H. (1931). The economics of exhaustible resources. Journal of Political Economy, 39(2), 137–175. IWF (2019). IMF Data Mapper. https://www.imf.org/external/datamapper/NGDPD@WEO/ OEMDC/ADVEC/WEOWORLD/VEN. Zugegriffen: 29. Juli 2019. Kaufmann, D., Kraay, A., & Mastruzzi, M. (2010). The worldwide governance indicators: A summary of methodology, data and analytical issues. World Bank Policy Research Working Paper Nr. 5430. Washington: World Bank. Keenan, P. J. (2014). International institutions and the resource curse. Penn State Journal of Law & International Affairs, 3(1), 216–260. Kott, A. (2012). Assessing whether oil dependency in Venezuela contributes to national instability. Journal of Strategic Security, 5(3), 69–86. Krueger, A. O. (1974). The political economy of the rent-seeking society. The American Economic Review, 64(3), 291–303. Larsen, E. R. (2006). Escaping the resource curse and the Dutch disease? When and why Norway caught up with and forged ahead of its neighbors. American Journal of Economics and Sociology, 65(3), 605–640. Leite, M. C., & Weidmann, J. (1999). Does mother nature corrupt: Natural resources, corruption, and economic growth. Washington: International Monetary Fund. Malthus, T. (1798). An essay on the principle of population. London: Johnson. Maloney, W. F. (2003). Missed opportunities: Innovation and resource-based growth in Latin America. Economía, 3. https://doi.org/10.1353/eco.2002.0019. Mehlum, H., Moene, K., & Torvik, R. (2006). Institutions and the resource curse. The Economic Journal, 116(508), 1–20. Norges Bank Investment Management. (2019). https://www.nbim.no. Zugegriffen: 4. Aug. 2019. Poelhekke, S., & van der Ploeg, F. (2010). Do natural resources attract FDI? Evidence from non-stationary sector level data. CEPR Discussion Paper Series, Nr. 8079.
194
P. a. de Meulen
Prebisch, R. (1950). The economic development of Latin America and its principal problem. United Nations. Department of Economic Affairs, Economic Commission for Latin America. Rice, X. (19. Juni 2012). Mansions, Memorabilia and Personal Log Tax. Financial Times. http:// www.ft.com/intl/cms/s/0/ca5d3de0-b93b-11e1-b4d6-00144feabdc0.html#axzz2mQWSxpZw. Zugegriffen: 15. Okt. 2019. Robinson, J. A., & Torvik, R. (2005). White elephants. Journal of Public Economic, 89(2–3), 197– 210. Ross, M. L. (2001). Does oil hinder democracy? World Politics, 53(3), 325–361. Sachs, J. D., & Warner, A. M. (1997). Natural resource abundance and economic growth. Center for International Development and Harvard Institute for International Development. Cambridge: Harvard University. Sachs, J. D., & Warner, A. M. (2001). The curse of natural resources. European Economic Review, 45(4–6), 827–838. Sala-I-Martin, X., & Subramanian, A. (2013). Addressing the natural resource curse: An illustration from Nigeria. Journal of African Economies, 22(4), 570–615. Seers, D. (1964). The mechanism of an open petroleum economy. Social and Economic Studies, 13, 233–242. Smith, B. (2004). Oil wealth and regime survival in the developing world, 1960–1999. American Journal of Political Science, 48(2), 232–246. Titeca, K., & Edmond, P. (2019). The political economy of oil in the Democratic Republic of Congo (DRC): Corruption and regime control. The Extractive Industries and Society, 6(2), 542–551. Torvik, R. (2001). Learning by doing and the Dutch disease. European Economic Review, 45(2), 285–306. Tullock, G. (1967). The welfare costs of tariffs, monopolies, and theft. Economic Inquiry, 5(3), 224–232. Umukoro, A. (28. Dezember 2014). Monuments of waste: Nigeria’s white elephant stadiums. The Punch Newspaper, Nigeria. https://web.archive.org/web/20141230181907/, https://www. punchng.com/sports/monuments-of-waste-nigerias-white-elephant-stadiums/. Zugegriffen: 24. Okt. 2019. United Nations Population Division. (2019). World population prospects 2019. https://population. un.org/wpp/Download/Standard/Population/. Zugegriffen: 15. Okt. 2019. U.S. Energy Information Administration. (2019). Petroleum & other Liquids. https://www.eia.gov/ dnav/pet/hist/RWTCD.htm. Zugegriffen: 24. Jul. 2019. Van Wjinbergen, S. (1984). The ‘Dutch disease’: A disease at all? The Economic Journal, 94, 41–55. Vision 2030. (2016). Vision 2030: Königreich Saudi-Arabien. https://vision2030.gov.sa/en/ themes/2. Zugegriffen: 7. Sep. 2019. Wood, A. J. B. (1999). Natural resources, human resources and export composition: A cross-country perspective. In J. Mayer, B. Chambers, & A. Farooq (Hrsg.), Development policies in natural resource economies (Chapter 3). Cheltenham: Elgar. Weltbank. (2019a). Estimates based on sources and methods described in “The changing wealth of nations: Measuring sustainable development in the new millennium”. https://data.worldbank. org/indicator/NY.GDP.TOTL.RT.ZS. Zugegriffen: 6. Sept. 2019. Weltbank. (2019b). World Bank national accounts data, and OECD National Accounts data files. https://data.worldbank.org/indicator/NY.GDP.MKTP.KD.ZG. Zugegriffen: 6. Sept. 2019. Weltbank. (2019c). World Bank staff estimates through the WITS platform from the Comtrade database maintained by the United Nations Statistics Division. https://data.worldbank.org/ indicator/TX.VAL.MANF.ZS.UN. Zugegriffen: 9. Sept. 2019.
9 Rohstoffreichtum – Des einen Segen ist des anderen Fluch
195
Weltbank. (2019d). World Bank staff estimates through the WITS platform from the Comtrade database maintained by the United Nations Statistics Division. https://data.worldbank.org/ indicator/TX.VAL.FUEL.ZS.UN. Zugegriffen: 9. Sept. 2019. Weltbank. (2019e). UNESCO institute for statistics. https://data.worldbank.org/indicator/SE.TER. ENRR. Zugegriffen: 3. Aug. 2019. Weltbank. (2019f). Stockholm international peace research institute, Yearbook: Armaments, disarmament and international security. https://data.worldbank.org/indicator/MS.MIL.XPND. GD.ZS. Zugegriffen: 3. Aug. 2019. Weltbank. (2019g). UNESCO institute for statistics. https://data.worldbank.org/indicator/GB.XPD. RSDV.GD.ZS. Zugegriffen: 3. Aug. 2019. Weltbank. (2019h). UNESCO institute for statistics. https://data.worldbank.org/indicator/SE.XPD. TOTL.GD.ZS. Zugegriffen: 3. Aug. 2019. Weltbank. (2019i). International labour organization. ILOSTAT Database. https://data.worldbank. org/indicator/SL.UEM.1524.ZS. Zugegriffen: 15. Okt. 2019.
Prof. Dr. Philipp an de Meulen ist seit 2016 Professor für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management in Dortmund. Nach Abschluss der Promotion zum Thema „Demographic Structure and the Risk of Expropriation as an Impediment to International Investment – A Political Economy Approach“ war er als wissenschaftlicher Mitarbeiter am RWI – Leibniz-Institut für Wirtschaftsforschung angestellt. Neben der Analyse der deutschen und europäischen Konjunktur befasste er sich dort vor allem mit der Analyse der Preisentwicklung am deutschen Immobilienmarkt. Seine weiteren Forschungsschwerpunkte liegen in den Gebieten der internationalen Wirtschaftsbeziehungen und der politischen Ökonomik.
Tourismus contra Übernutzung – Das UNESCO-Welterbe Kotor in Montenegro
10
Eine ökonomische Analyse Ann-Katrin Voit
Inhaltsverzeichnis 10.1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 10.2 Die Institution UNESCO und das Welterbe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 10.3 Montenegro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 10.4 Tourismus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 10.4.1 Tourismus in Montenegro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 10.4.2 (Negative) externe Effekte durch Tourismus. . . . . . . . . . . . . . . . . . . . . . . . . . . 203 10.5 Welterbe und Tourismus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 10.5.1 Das Welterbe Kotor – Chancen und Risiken. . . . . . . . . . . . . . . . . . . . . . . . . . . 205 10.5.2 Lösungsvorschläge. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 10.6 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
Zusammenfassung
Tourismus ist einer der wichtigsten Wirtschaftszweige weltweit. Demgegenüber stehen globale öffentliche Güter, die durch Ernennung zum Welterbe durch die UNESCO einen besonderen Schutzstatus erhalten. Die UNESCO als Institution der Vereinten Nationen repräsentiert dabei nahezu alle Länder der Welt in der Anerkennung und Pflege ihres kulturellen und natürlichen Erbes. Auch der Tourismus rund um Kultur- und Naturgüter wie das UNESCO-Welterbe nimmt immer weiter zu. Durch das Gütesiegel UNESCO-Welterbe werden diese Stätten zur touristischen
A.-K. Voit (*) FOM Hochschule, Bochum, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_10
197
198
A.-K. Voit
Attraktion, was neben vielen (ökonomischen) Vorteilen auch Nachteile mit sich bringt. Dieser tourismusökonomische Diskurs wird am Beispiel von Kotor in Montenegro geführt und die verschiedenen Vor- und Nachteile werden diskutiert.
10.1 Einleitung Nachfolgend wird eine besondere touristische Attraktion betrachtet, die immer mehr als Ziel für Reisen oder Ausflüge dient: das UNESCO-Welterbe. Das UNESCO Welterbe ist eine Auszeichnung, die von der Institution UNESCO verliehen wird. Welche Aufgaben die UNESCO besitzt und wofür der Titel UNESCO-Welterbe verliehen wird, wird in Abschn. 10.2 erläutert. Abschn. 10.3 stellt ein Land vor, das hier als Stellvertreter für viele touristische Destinationen stehen soll, welche Welterbestätten beherbergen: Montenegro. Welchen touristischen Wandel Montenegro durchlaufen hat und warum der Sektor Tourismus eine so enorme Bedeutung er für das Land hat, wird in Abschn. 10.4 überblicksartig dargestellt. Um in die konkrete Anwendung gehen zu können, schließt Abschn. 10.5 mit einer genauen Betrachtung einer Welterbestätte in Montenegro an: Kotor an der Küste des Landes. Es wird einerseits das Welterbe des Landes beschrieben, andererseits werden die konkreten negativen externen Effekte herausgearbeitet, die durch den Tourismus ausgelöst werden. Abschn. 10.6 schließt den Beitrag mit einem Fazit ab.
10.2 Die Institution UNESCO und das Welterbe Die UNESCO (United Nations Educational, Scientific and Cultural Organization) ist die Organisation der Vereinten Nationen, die sich mit Erziehung, Kultur und Wissenschaft beschäftigt. Sie wurde 1945 in Paris gegründet und ist seither die einzige global tätige Organisation, die sich für den Schutz von globalem kulturellem und natürlichem Erbe einsetzt. Derzeit haben sich 193 Mitgliedsstaaten der UNESCO angeschlossen (United Nations 2019). Jährlich verleiht die UNESCO die Auszeichnung UNESCO-Welterbe an Stätten, die aufgrund ihrer Einzigartigkeit, Authentizität und Integrität von nationaler und internationaler Bedeutung sind und von den Staaten, in denen sie liegen, für diesen besonderen Titel vorgeschlagen wurden (PAN 2015, S. 7). Dabei gibt es drei Kategorien: Weltkulturerbe, Weltnaturerbe und sogenannte Mixed-Stätten, die zu beiden Kategorien gleichermaßen gehören. Grundlage für die Prüfung und Ernennung zum Welterbe ist die Welterbekonvention von 1972. Angefangen hat die UNESCO mit insgesamt zwölf Welterbestätten, die im Jahr 1978 ernannt wurden. Zum jetzigen Zeitpunkt (Stand: 26.02.2020) gibt es 1121 Stätten, wobei die Liste jährlich ergänzt und erweitert wird. Bisher kam es nur zweimal zu einer Streichung, sodass die Gesamtzahl stetig ansteigt (UNESCO 2020).
10 Tourismus contra Übernutzung …
199
Ziel der UNESCO ist es, den Schutz von globalem Erbe sicherzustellen, um diese globalen öffentlichen Güter (Martens und Hein 2002, S. 4) auch für zukünftige Generationen zu erhalten (Charta von Venedig 2019). Vorschläge für zukünftige Welterbestätten kommen von den Ländern selbst, auf deren Territorium sich potenzielle Welterbestätten befinden. Diese dürfen, sofern sie Mitglied der UNESCO sind, solche nominieren (UNESCO 2019a). Durch die Nominierung möglicher Stätten werden diese fortan auf einer Tentativliste geführt. Diese Liste wird von den Fachgremien IUCN (International Union for Conservation of Nature) und ICOMOS (International Council on Monuments and Sites) beurteilt und letztlich auch von ihnen entschieden. Öffentliche Güter
Öffentliche Güter sind Güter, bei denen der Preismechanismus versagt, da sich hierfür kein Preis durchsetzen lässt. Zur Klassifizierung können zwei Kriterien verwendet werden: • Nicht-Ausschließbarkeit und • Nicht-Rivalität. Der Markt nimmt eine zentrale Rolle in der Preisbildung ein. Über den Preis lässt sich der Knappheitsgrad von Gütern ablesen – je wertvoller das gehandelte Gut, umso höher ist der Preis. Voraussetzung für die Funktionsweise ist jedoch, dass die genannten Kriterien Rivalität und Ausschließbarkeit zutreffen. Besitzt ein Gut die Eigenschaft der Nicht-Ausschließbarkeit, bedeutet das für die Konsumenten, dass diese das Gut auch nutzen können, wenn sie den erforderlichen Preis nicht bezahlen. Sie können am Konsum nicht gehindert werden. Dazu zählt beispielsweise ein öffentlicher Park, Straßenbeleuchtung oder ein Deich. Besitzt ein Gut die Eigenschaft der Nicht-Rivalität, so kann dieses Gut von vielen Konsumenten gleichzeitig genutzt werden, ohne dass sich der Konsum einer Person auf den Konsum einer anderen auswirkt. Beispiele hierfür sind ein Konzert, ein Festival oder ein Kinobesuch. Wenn beide genannten Eigenschaften zusammentreffen, wird sich für das Gut kein Marktpreis abbilden lassen. Dadurch, dass niemand vom Konsum ausgeschlossen wird, gibt es auch keine Zahlungsbereitschaft dafür. Aus diesem Grund werden öffentliche Güter in der Regel vom Staat bereitgestellt. Daher sorgt der Staat beispielsweise für Landesverteidigung und Seuchenschutz (u. a. Bofinger 2007, S. 270 f.).
Dabei hat die UNESCO neben den Kriterien zur Ernennung auch hohe Ansprüche an Pflege und Erhaltung der jeweiligen Monumente und natürlichen Gebiete. Von den jeweiligen Staaten müssen diese eingehalten werden, damit keine Aberkennung droht. Der Status gilt also nicht für die Ewigkeit, sondern es müssen ein dauerhafter Schutz und eine entsprechende Pflege sichergestellt werden.
200
A.-K. Voit
Die Länder, die Welterbestätten auf ihrem Territorium vorweisen können, haben dadurch einige Vorteile. Neben Prestige und einer höheren Spendenbereitschaft können positive Aspekte auf den Tourismus erwartet werden (Herrmann 2002, S. 16 f.). Aufgrund des Bekanntheitsgrades der UNESCO wirkt der Titel UNESCO-Welterbe wie ein Tourismussiegel und wird häufig als besondere Auszeichnung bzw. Empfehlung angesehen, einen bestimmten Ort zu besuchen. Dadurch wirken viele UNESCO-Welterbestätten wie touristische Magneten, die in den jeweiligen Ländern u. U. so den Tourismus fördern können. Wie stark der Effekt ist, hängt von verschiedenen Kriterien ab, u. a. von der bisherigen Anzahl von Welterbestätten im Land, dem bisherigen Bekanntheitsgrad der Stätte, der touristischen Infrastruktur, dem Wetter und weiteren Faktoren. Die Vorteile der Welterbeernennung für ein Land kann wie folgt zusammengefasst werden: Die internationale Aufmerksamkeit, die dem Land und der Stätte zuteilwird, steigen (Quack und Wachowiak 2013, S. 286). Da die Auszeichnung der UNESCO wie ein Gütersiegel wirken kann, wirkt das Welterbe wie ein Touristenmagnet (Shackley 2006, S. 85). Zudem können daraus ökonomische Vorteile entstehen, da mehr Einnahmen in der Hotellerie, der Gastronomie und anverwandten Bereichen erzielt werden können; dadurch werden mehr Arbeitsplätze geschaffen. Es ist anzunehmen, dass die Ernennung eines Welterbes auch die Verbindung des Landes zur UN (United Nations) und den damit verbundenen Institutionen fördert. Da die UN neben der Kulturförderung internationale Zusammenarbeit, Friedensförderung und weitere Ziele verfolgt, kann dies positiv gewertet werden. Des Weiteren genießen die Länder Prestige und Ehre durch die Ernennung (Herrmann 2002, S. 16 f.), da sie einzigartige und besondere Stätten auf ihrem Territorialgebiet beherbergen (PAN 2015, S. 7). Ergänzend dazu gehen für Stätten, die den Status Welterbe genießen, mehr Spendengelder ein als für Stätten, auch vergleichbarer Art, ohne diesen Status (Frey und Steiner 2010, S. 6). Signalling
Die Wirkweise eines Gütersiegels ist in der Volkswirtschaftslehre als Signalling bekannt. Signalling bedeutet so viel wie ein vertrauenswürdiges Merkmal, eine Auszeichnung, die sicherstellt, dass das Gut bestimmte Eigenschaften besitzt. Dabei gibt es zwischen zwei Transaktionspartnern – beispielsweise Besuchern und Betreibern einer Kulturstätte – eine asymmetrisch, also ungleich, verteilte Information. Die Besucher sind in diesem Fall die schlechter informierten Transaktionspartner, die Betreiber hingegen haben mehr Informationen und sind somit besser informiert. Ob die Kulturstätte von guter, schlechter oder mittlerer Qualität ist, lässt sich für potenzielle Besucher schwer beurteilen. Ein Gütersiegel, wie das von der UNESCO, schafft dabei Vertrauen in die Qualität eines Gutes. Das Gütesiegel gibt den Besuchern das notwendige Signal, das sie vermuten lässt, dass das Gut eine besondere Qualität besitzt und daher eine mögliche Destination ist. Die Besucher werden daher eher geneigt sein, eine Kulturstätte zu besuchen, die eine solche Auszeichnung genießt, als eine andere Stätte, die ein solches Siegel nicht besitzt (Stocker 2009, S. 172 ff.).
10 Tourismus contra Übernutzung …
201
Tab. 10.1 Vor- und Nachteile einer Nominierung zum Welterbe Vorteile
Nachteile
UNESCO gilt als Qualitätssiegel
Nominierungsprozess teuer und aufwendig
Bekanntheitsgrad steigt
Keine Garantie, dass Stätte auf die Liste des UNESCO Welterbes aufgenommen wird
Kostenlose Werbung
Vergleichbare Stätten werden aufgrund der Ernennung der Welterbestätte weniger gefördert bzw. beachtet
Besucherzahlen nehmen höchstwahrscheinlich zu
Überproportionales Interesse
Generierung von Eintrittsgeldern einfacher/ Zahlungsbereitschaft steigt
Mögliche Ablehnung durch die lokale Bevölkerung möglich
Zugang zu Spendengeldern erleichtert/Spenden- Übernutzung möglich bereitschaft steigt
Die Ernennung zur Welterbestätte kann jedoch auch negative Folgen haben. So bekommen sie mehr Aufmerksamkeit als, wie gerade beschrieben, Stätten gleicher Art, die den Titel Welterbe jedoch nicht führen. So kann es zu negativen Effekten auf andere Stätten kommen, weil diese weniger Förderung durch das eigene Land und Institutionen sowie weniger Spenden erhalten. Es könnte so zu einer Zentralisierung der Ressourcen an den Welterbestätten kommen, was gesamtgesellschaftlich weder wünschenswert noch effizient sein könnte. Weiterhin negativ ist der touristische Aspekt in Form von Übernutzung durch Touristen (Frey und Steiner 2010, S. 10 f.). Viele, besonders antike, Stätten oder empfindliche Bioreservate sind nicht für die massiven Besucherströme ausgelegt, die durch den Status ausgelöst werden können. Dazu zählt z. B. der Machu Picchu in Peru (UNESCO 2010). Die UNESCO selbst hat nur ein sehr geringes Budget, was kaum zum Schutz der Stätten beiträgt. Die finanzielle Last bleibt bei den Ländern, die für die Instandhaltung sorgen müssen. Zudem erfolgt auch wenig Hilfestellung bei Pflege und Schutz durch die UNESCO, sodass eher von Werbung für besondere Orte gesprochen werden kann als von effizienten Schutzmaßnahmen. Oftmals sind, besonders am Anfang, enorme finanzielle Aufwendungen erforderlich, der Prozess der Nominierung ist ebenfalls kostenpflichtig, mögliche Einnahmen generiert das Land vermutlich nicht sofort. Somit bringt der Status kurzfristig keinen ökonomischen Vorteil. Tab. 10.1 fasst mögliche Vor- und Nachteile einer Nominierung als Welterbe zusammen. Im Folgenden soll Montenegro, welches vier Welterbestätten besitzt, als Beispiel dienen, um die (negativen) Effekte, speziell ausgelöst durch Tourismus an Welterbestätten, zu beschreiben.
202
A.-K. Voit
10.3 Montenegro Montenegro ist als parlamentarische Republik organisiert und liegt am südöstlichen Teil der Adriaküste. Die Landesfläche umfasst etwa 13.812 km2, die Einwohnerzahl beträgt ca. 650.000. Damit gehört Montenegro zu den kleineren Balkanstaaten. In der Hauptstadt Podgorica wohnen ca. 150.000 Menschen; Hauptwirtschaftssektoren sind Dienstleistungen sowie Tourismus, vor allem an der Küstenlinie des Landes. Insgesamt weist Montenegro fünf Staatsgrenzen zu anderen Ländern auf; dies sind Bosnien-Herzegowina, Albanien, Kroatien, Kosovo und Serbien. Seit dem Jahr 2010 ist Montenegro Beitrittskandidat der Europäischen Union und hat bereits 2002 den Euro als Währung eingeführt, obwohl es nicht Mitglied der Europäischen Währungsunion ist und somit auch keine eigenen Münzen und Geldnoten drucken darf (Auswärtiges Amt 2019; Sundhaussen 2008, S. 1 f.). Um die Situation Montenegros besser einordnen zu können, ist ein kurzer historischer Exkurs notwendig. So war Montenegro einmal Teil des ehemaligen Jugoslawiens. Dieses Land ist zu sieben Staaten zerfallen: Slowenien, Kroatien, Bosnien-Herzegowina, Serbien, Montenegro, Kosovo und Mazedonien (Sundhaussen 2008, S. 1). Seit 2006 ist Montenegro ein unabhängiges Land, was auch die Wirtschaftspolitik nachhaltig beeinflusst hat. Vorher war es eher ärmlich und kaum touristisch erschlossen, seit der Unabhängigkeit und der Öffnung ist eine enorme Entwicklung zu beobachten. Montenegro gilt heute als eines der Länder mit den größten touristischen Wachstumsraten (Montenegro Ministry of Tourism and Environment 2008, S. 2 ff.) und erfüllt für Tourismus viele Kriterien, die diesen begünstigen. Dazu zählen einerseits die Temperaturen, die Sprache, die Küstenlinie und die Nähe zu anderen touristischen Zielen wie beispielsweise Stränden und historischen Bauten. Im nachfolgenden Kapitel wird der Tourismus in Montenegro überblicksartig beschrieben.
10.4 Tourismus 10.4.1 Tourismus in Montenegro Tourismus ist eine der am schnellsten wachsenden Branchen weltweit (OECD 2018, S. 3 ff.). Die Gründe dafür liegen einerseits im steigenden Wohlstand vieler Länder, sodass es heute aufgrund ökonomischer und politischer Entwicklungen mehr Menschen gibt, die sich das Reisen leisten können und wollen. Zudem spielt auch die Globalisierung eine wichtige Rolle: Reisen war noch nie so einfach. Heute gibt es sehr gut ausgebaute Streckennetze, die unproblematisch die verschiedenen Teile der Welt miteinander verbinden. Zudem ist Reisen günstiger geworden, da der Wettbewerb in der Branche sowohl im Transportbereich als auch in der Hotellerie deutlich zugenommen hat. Auch die Anzahl der verfügbaren Urlaubstage ist stark gestiegen: Heute stehen
10 Tourismus contra Übernutzung …
203
Arbeitnehmern mehr Urlaubstage zur Verfügung als früher, was die Möglichkeiten einer Reise weiter begünstigt. Der Tourismus hat aus ökonomischer Sicht viele Vorteile für ein Land. So schafft er Arbeitsplätze in verschiedenen Bereichen wie Hotellerie, Transportwesen, Gastronomie, Baugewerbe etc. Es profitiert also nicht nur eine einzelne Branche, sondern die gesamte Wertschöpfungskette, die sich durch Tourismus aufbaut. Damit steigt das Bruttoinlandsprodukt einer Region oder eines Landes, was zu mehr Wohlstand und Einkommen führt. Genau wie viele andere Länder möchte auch Montenegro von diesem Trend profitieren und tut es bereits. Die letzten Jahre waren eine touristische Erfolgsgeschichte. In Montenegro können seit einigen Jahren enorme Wachstumsraten, speziell ausgelöst durch den Tourismus und die damit verbundenen Industrien, verzeichnet werden. So konnten bis zur Wirtschafts- und Finanzkrise 2009 Wachstumsraten von bis zu 25 % verzeichnet werden (Bickert et al. 2011, S. 168). Wenn der Wachstumstrend sich in den nächsten Jahren mit gleicher Rate weiter steigert, so werden in zehn Jahren bereits 30 % des Bruttoinlandsproduktes auf den Tourismus zurückgehen. Dadurch entsteht eine Abhängigkeit vom touristischen Sektor, der sich wiederum negativ auswirken kann, wenn die Besucherzahlen ausbleiben sollten. Die Anzahl der ausländischen Urlauber steigt kontinuierlich (Treibel 2016). So liegt die Wachstumsrate der Übernachtungen durch ausländische Urlauber bei über 5 % pro Jahr (Ministry Of Sustainable Development and Tourism 2016, S. 8). Diese ungewöhnlich starke Steigerung zeigt, dass Montenegro in kurzer Zeit eine enormes Wachstum im Tourismus erfahren hat (Bickert et al. 2011, S. 168). Auch die Investitionen deuten auf einen weiteren Ausbau des Tourismussektors in Montenegro. So wurden einige touristische Großbauprojekte, teils mit ausländischen Investoren, angestoßen. Dazu zählt beispielsweise das Projekt Porto Montenegro Marina and Resort in Tivat, das einen neuen Tiefwasserhafen für Yachten anstrebt. Weiterhin sind verschiedene große Hotelprojekte zu nennen, welche von ausländischen Investoren, speziell aus Dubai, initiiert wurden (MIPA 2019, S. 31 ff.).
10.4.2 (Negative) externe Effekte durch Tourismus Neben den vielen Vorteilen wie beispielsweise neuen Arbeitsplätzen und gestiegenem Bruttoinlandsprodukt, die durch Tourismus entstehen, sind aber auch die Schattenseiten zu benennen. Bei vielen touristischen Regionen sind diese bereits beobachtbar. Sie können sich im schlimmsten Fall negativ auf die gesamte Region auswirken und dazu führen, dass Touristen die Stadt bzw. das Land für eine Reise nicht mehr in Betracht ziehen. Zu diesen negativen Aspekten gehören unter anderem (Pechlaner 2003, S. 48 ff.): • Vermüllung, • Übernutzung, • Zerstörung und • Vertreibung der Einheimischen.
204
A.-K. Voit
Diese Liste ist nicht vollständig und kann sicherlich erweitert und an die jeweils betrachtete Region angepasst werden. Um hier einen Kurzüberblick zu geben, werden die einzelnen Punkte skizziert. Vermüllung bedeutet, dass eine Region durch die steigenden Tourismuszahlen mit einer immer größer werdenden Menge von Müll konfrontiert sein wird. Egal ob es sich dabei um mehr Abwässer handelt, mehr Hausmüll, verschmutzte Strände oder dreckige Straßen: Jede Form der Vermüllung kann als negativer externer Effekt (Abschn. 8.4 im Beitrag von Drewes in diesem Band) des Tourismus gesehen werden. Diese Vermüllung führt schließlich dazu, dass Touristen langfristig von einer Reise zu dieser Destination absehen. Beispiele hierfür sind zugemüllte Strände in Indonesien, überlaufende Kläranlagen auf Mallorca oder New Yorks Rattenproblem, ausgelöst durch arglos weggeworfenen Müll in den Straßen. Übernutzung beschreibt den Zustand eines Ortes, der durch die permanente Beanspruchung durch Touristen Schaden nimmt (Frey und Steiner 2010, S. 10 f.). Ein bekanntes Beispiel hierfür ist der Machu Picchu in Peru, bei dem durch seine abgeschiedene Lage und die pilgernden Touristenströme bereits Erdrutsche ausgelöst wurden (Dailymail 2015). Diese Tendenzen sind bei vielen Welterbestätten erkennbar, da nahezu alle Stätten steigende Besucherzahlen erleben und die internationale Reisebereitschaft immer weiter zunimmt (Bandarin 2005, S. 1). Allmendegüter
Allmendegüter sind wie öffentliche Güter deutlich von den privaten Gütern abzugrenzen. Folgende Eigenschaften liegen bei Allmendegütern vor: • Nicht-Ausschließbarkeit und • Rivalität. Ein typisches Beispiel für Allmendegüter sind die Fischbestände in Weltmeeren. Niemand kann auf Hoher See, also außerhalb eines Küstengewässers von Ländern, Fischer vom Fischfang abhalten. Es existiert somit eine Nicht-Ausschließbarkeit für den Fischfang. Allerdings ist die Ressource Fisch durchaus begrenzt, daher liegt die Eigenschaft der Rivalität vor. Daraus ergibt sich das in der Literatur als Tragik der Allmende bezeichnete Problem der Übernutzung solcher Güter. Es wird also mehr Fisch gefangen, als wünschenswert wäre. Oder bezogen auf das Beispiel Welterbe: Die Besucherzahl übersteigt die wünschenswerte Anzahl an Touristen, da es keine Beschränkung gibt (Bofinger 2007, S. 272 f.).
Zudem kann es, was in der Vergangenheit bereits der Fall war, zur Zerstörung von Stätten kommen (Lafrenz Samules und Rico 2015, S. 83). Dafür gibt es kleinere und größere Beispiele, die die Brisanz dieses negativen externen Effekts unterstreichen.
10 Tourismus contra Übernutzung …
205
So wurden in Afghanistan von den Taliban Buddha-Statuen gesprengt, die als UNESCO-Welterbe geführt wurden. Erst die Bekanntheit der Statuen hat sie vermutlich zum Angriffsziel gemacht. Zudem können aber auch die Kritzeleien an Kirchen wie dem Dom von Florenz genannt werden (Böhm 2016). Durch das Beschreiben oder Einritzen der Initialen entsteht hier ein immenser Schaden, der nicht immer rückgängig gemacht werden kann. Wenn zu viele Touristen eine Region besuchen, kann es dazu kommen, dass die Einheimischen die Region verlassen. Diese Abwanderung kann verschiedenste Ursachen haben. Einerseits kann es kulturelle Hintergründe haben, dass sich die Alteingesessenen dort nicht mehr heimisch fühlen. Oftmals spielen aber auch hier ökonomische Argumente eine wichtige Rolle. Wenn die (kurzfristige) Fremdvermietung an Touristen profitabler ist als die dauerhafte Vermietung, kann es zu einer deutlichen Mietpreissteigerung kommen. Zudem stehen auf dem Markt für Immobilien Ortsansässige als Nachfrager potenziell auch mit Touristen in Konkurrenz, die auf der Suche nach einem Zweitwohnsitz bzw. einem Feriendomizil sind. In einigen Regionen, wie beispielsweise Venedig, stellt sich die ganze Stadt fast ausschließlich auf Tourismus um. So gibt es dort kaum noch Bäckereien, da Souvenirshops mehr Gewinn abwerfen (Reski 2017). Diese negativen externen Effekte sind auch in Montenegro beobachtbar. Besonders aufgrund der rasanten touristischen Entwicklung des Landes ist der touristische Sektor des Landes nicht nachhaltig gewachsen. Diese Entwicklung wird nachfolgend an der Welterbestätte Kotor in Montenegro erläutert.
10.5 Welterbe und Tourismus 10.5.1 Das Welterbe Kotor – Chancen und Risiken Kotor ist eine ehemalige Hafen- und Handelsstadt, die an der Adria liegt und sich auf montenegrinischem Staatsgebiet befindet. Sie zeichnet sich aus durch eng verwinkelte Gassen und beherbergt etwa 5300 Einwohner, zur umliegenden Gemeinde zählen etwa 23.000 Menschen. Kotor ist schon seit vielen Jahren eine autofreie Stadt, deren Haupteinnahmequelle aufgrund ihrer Attraktivität schon seit längerer Zeit der Tourismus ist. Die Geschichte der Stadt kann bis ins 3. Jahrhundert v. Chr. zurückverfolgt werden, da sie aufgrund ihrer geografischen Besonderheiten schon damals als Hafenstadt genutzt wurde. Seit dem Jahr 1979, damals noch als Teil des Landes Jugoslawien, wurde Kotor in die Liste der Welterbestätten aufgenommen und erhielt den Status UNESCO Welterbe. Aufgrund von Erdbeben im selben Jahr hat die Welterbestätte direkt nach dieser Naturkatastrophe den Status des gefährdeten Welterbes erhalten, welcher eine Aufnahme auf die Rote Liste des Welterbes mit sich bringt (UNESCO 2019b). Auf dieser Liste werden Welterbestätten geführt, deren Status aufgrund verschiedenster Einflüsse als gefährdet gilt. Zehn Jahre nach dem Erdbeben war ein wesentlicher Teil der alten Stätte
206
A.-K. Voit
wieder aufgebaut, der Status als UNESCO Welterbe jedoch erneut gefährdet. Grund dafür waren nicht denkmalkonforme Baumaßnahmen, die von Seiten der UNESCO nicht akzeptiert wurden. Seit 2006 wird ein neues Konzept angewendet, das den alten Zustand des Welterbes wieder in den Fokus rücken soll. Wie bereits in vorangegangenen Kapiteln dargestellt, profitiert das Land Montenegro von den steigenden Besucherzahlen. Besonders bezogen auf das UNESCO Welterbe Kotor können jedoch nicht nur positive Auswirkungen verzeichnet werden. Eines der zentralen Probleme, die der Tourismus in Kotor auslöst, entsteht durch die Tagestouristen, die Kotor von Kreuzfahrtschiffen aus ansteuern. Diese Problematik findet sich nicht nur in Kotor selbst, sondern auch in vielen anderen Hafenstädten rund um den Globus. So legen jährlich ca. 430 Kreuzfahrtschiffe in Kotor an, was ca. 10.000 Touristen pro Tag sind (Squirs 2018). Zudem hat sich der Einzelhandel in Kotor verändert. Auf weniger als 5300 Einwohner kommen ca. 80 bis 90 Souvenirläden (Squirs 2018). Die Kreuzfahrttouristen unterscheiden sich zudem oftmals in ihrer durchschnittlichen Kaufkraft maßgeblich von Touristen, die sich über längere Zeit und mit Übernachtung vor Ort in Kotor aufhalten. Die Kreuzfahrttouristen geben häufig weniger Geld in der Stadt aus, da weniger Gastronomie vor Ort nachgefragt wird, weil diese auf dem Schiff bereitgestellt wird. Die Hotellerie kann ebenfalls nicht von Kreuzfahrttouristen profitieren, da keine Übernachtungen nachgefragt werden. In vielen Fällen werden die Ausflüge der Kreuzfahrttouristen von den Reedereien organisiert, die aufgrund ihrer Marktmacht Preise steuern können und somit den lokalen Akteuren Möglichkeiten nehmen, von dem florierenden Tourismus zu profitieren. Ein nicht kleiner Teil der sonstigen Touristen bleibt jedoch auch häufig nur eine Nacht oder pendelt als Tagestourist in die Stadt Kotor ein. Hier ergibt sich ebenfalls die Problematik, dass die Summe, die in der Stadt Kotor ausgegeben wird, recht gering bleibt. So wird Kotor beispielsweise von Booten und Schnellbooten anderer Küstenstädte angesteuert, welche die Tagestouristen in diesen Fällen beherbergen. Als Lösungsvorschlag wird – nicht nur in Kotor, sondern auch in vergleichbaren Städten – eine limitierte Anzahl von Kreuzfahrtschiffen pro Jahr diskutiert. Damit würde die Anzahl der Schiffe, die Kotor ansteuern, begrenzt und die Anzahl der Tagestouristen eingedämmt. Dadurch würde zwar weniger Kaufkraft in die Stadt kommen, vermutlich würden sich aber auch die negativen Effekte wie Vermüllung und Übernutzung reduzieren. Eine weitere Option wäre es, die Größe der Kreuzfahrtschiffe zu limitieren. Auch hier wäre zu erwarten, dass die Gesamtzahl der Tagestouristen von Kreuzfahrtschiffen so gedeckelt werden kann. Genau dieses Phänomen ist auch in Venedig und Dubrovnik beobachtbar, wo eine nachhaltige Tourismuswende von Seiten der Städte zu beobachten ist (Schlamp 2017). Die UNESCO hat die Trends in der Stadt Kotor, insbesondere die wilde Bebauung und die absolute Fokussierung im Tourismus, bereits vor einigen Jahren mit Sorge wahrgenommen (Göler und Lehmeier 2011, S. 66). So gab es, insbesondere weil sich das Stadtbild in Kotor immer weiter durch die touristischen Anforderungen verändert, bereits im Jahr 2016 eine erneute Warnung der UNESCO. Wie bereits erwähnt, steht Kotor auf der roten Liste des Welterbes. Auf dieser Liste wird Welterbe geführt, das seinen Welt-
10 Tourismus contra Übernutzung …
207
erbestatus aus verschiedenen Gründen verlieren könnte, was somit auch für Kotor möglich ist. So sieht die UNESCO insbesondere die typische Küstenlinie der Stadt, die mitunter maßgeblich für die Ernennung zum Welterbe war, als teilweise bereits zerstört an, da dort ein ständiger Bau von tourismusgerechten Attraktionen und Hotels sowie Restaurants und Cafés zu beobachten ist. Kotor und damit auch Montenegro profitieren trotz der negativen Einflüsse stark von der Ernennung zum Welterbe und dem steigenden Tourismus. Die negativen Folgen sollten hier nicht ignoriert werden, da sie langfristig dazu führen könnten, dass Kotor den Status Welterbe verliert. Da auch weitere negative Folgen für die lokale Bevölkerung wie Vermüllung, Vertreibung der Einheimischen und dauerhafte Zerstörung drohen, ist ein nachhaltiges Tourismusmanagement in Montenegro zwingend erforderlich. Nachfolgend werden daher einige Lösungsvorschläge erarbeitet, die die Situation in Kotor möglicherweise entspannen und verbessern könnten.
10.5.2 Lösungsvorschläge Die UNESCO sieht die jeweiligen Länder in der Verantwortung, die Welterbestätten zu pflegen und zu schützen – häufig ist das, wie im vorangegangenen Kapitel bereits erläutert, gar nicht so einfach. Im Nachfolgenden sollen einige Probleme betrachtet werden und Ideen zur Lösung vorgestellt werden. Zunächst soll die unkontrollierte Bautätigkeit in Kotor betrachtet werden. Hier wäre sicherlich eine Lösung, einen konsequenten Baustopp einzuführen. Weiterhin gilt natürlich auch die allgemeine Herausforderung, weitere Wirtschaftszweige in die Stadt zu integrieren, um die umfängliche Abhängigkeit vom Tourismus einzudämmen. Zudem sollte insbesondere nachhaltiger geplant und gearbeitet werden und dadurch der Fokus deutlich mehr auf die Aufrechterhaltung des Status gelegt werden, damit dieser als Welterbe bewahrt wird. Ein weiterer hier zu diskutierender Ansatz ist eine Tourismussteuer, die für Touristen pro Besuchertag erhoben wird. Dieses Konzept ist nicht neu und wird in vielen Teilen der Welt, beispielsweise in Italien, bereits angewendet (Biagi et al. 2017, S. 505 ff.). Auch in Deutschland wird eine Tourismussteuer erhoben: Hier wird in Küstenregionen eine Kurtaxe erhoben, zudem in vielen, speziell größeren Städten eine Steuer pro Übernachtung. Für Kotor könnte dieses Konzept als eine Art Eintrittsgeld erhoben werden, um auch die Tagestouristen in die zu besteuernde Gruppe zu inkludieren. Umgesetzt wird dieses Konzept in der nahen Zukunft bereits in Venedig; hier werden gestaffelt in den nächsten Jahren immer höhere Eintrittsgelder verlangt (Schlautmann 2018). Ähnlich wie in Kotor sind, ausgelöst durch den Tourismus, in Venedig viele negative (externe) Effekte durch den Tourismus zu spüren (Krieger 2017). Die Steuer für Tagestouristen wirkt wie ein Eintrittsgeld, denn damit wird eine (monetäre) Hürde geschaffen, die möglicherweise die Besucherzahl reduziert. Zudem besteht die Möglichkeit, die Steuereinnahmen zu nutzen, um die negativen Effekte und die Folgen des Massentourismus zu kompensieren. Es könnten z. B. zusätzliche Reinigungskräfte eingestellt
208
A.-K. Voit
werden, die gegen die Übermüllung vorgehen oder auch ein mögliches Bußgeld verhängen, da das Verhalten der Touristen kontrolliert und überwacht wird. Auch diese Art der Bußgeldvergabe für unangemessenes Verhalten wird bereits umgesetzt. Diese Maßnahmen treffen nicht nur die Touristen, sondern auch die lokale Bevölkerung, allerdings begründen die Städte die Maßnahmen damit, dass die Probleme durch die Vielzahl der Touristen ausgelöst werden. Rom verhängt Bußgelder für das Sitzen auf der Spanischen Treppe, andere Länder massive Strafen bei der unsachgemäßen Entsorgung von Zigarettenresten oder Kaugummi für Einheimische und Touristen, wie etwa Singapur (Weingartner 2019). Sinnvoll wäre hier eine Umverteilung der Steuer in entsprechende Schutzmaßnahmen für die jeweiligen Städte. Weiterhin ist zu überprüfen, ob die Begrenzung der Anzahl der Besucher ein Instrument sein könnte, um speziell gegen die kulturelle Entfremdung vorzugehen. Auch hier gibt es Beispiele, die vordergründig auf Naturreservate angewendet werden. So sind hier die Galapagos-Inseln zu nennen, deren Besucherlimit pro Jahr festgelegt wird (Galapagos Conservacy o. J.). Hier bleibt jedoch zu beachten, dass auch weniger Einnahmen durch die Touristen insgesamt die Folge sind, wenn die Besucherzahl limitiert wird. Die Limitierung könnte zudem gegen das Problem der Übernutzung wirken (Frey und Steiner 2010, S. 10 f.). Auch hier kann als Beispiel der Machu Picchu genannt werden, der ebenfalls aufgrund der hohen Beanspruchung die Besucherzahl pro Jahr begrenzt hat (Dailymail 2015). Gegen eine Zerstörung des Welterbes muss im großen und kleinen Umfang vorgegangen werden. So ist dies sicherlich in größeren Umfängen schwer umsetzbar, wenn ein Land von Krieg oder Terror heimgesucht wird (Lafrenz Samules und Rico 2015, S. 83). Die Zerstörung im geringen Umfang, die von den Verursachern häufig als Bagatelle wahrgenommen wird, ist hier das leicht zu vermeidende Problem, welches vermutlich lediglich durch hohe (monetäre) Strafen und die Kontrolle von Verboten umgesetzt werden kann. So ist es den Verursachern häufig nicht bewusst, dass das Beschmieren von Bauwerken eine Stätte nachhaltig beschädigt oder zerstört. Montenegro muss für die Stadt Kotor konkrete Maßnahmen einleiten, die gegen die negativen externen Effekte des Tourismus wirken. Im Vordergrund sollte ein Nachhaltigkeitsziel stehen, das Tourismus auch in Zukunft stabil hält und sowohl die historischen Bauten als auch die natürliche Umwelt sowie die Bevölkerung schützt. Zudem ist anzumerken, dass ein nicht unwesentlicher Teil der Bevölkerung vom Tourismus lebt – daher ist zu erwarten, dass kurzfristig eine Ablehnung der lokalen Bevölkerung zu erwarten ist. Langfristig wird so jedoch der Tourismus im Land attraktiv bleiben.
10.6 Fazit Tourismus ist ein stark wachsender Sektor, der viele (ökonomische) Vorteile mit sich bringt, so auch für die Stadt Kotor und das Land Montenegro. Der Schutz seltener und kulturell wichtiger Stätten ist eine ebenfalls wichtige Aufgabe, der die UNESCO zentral durch den Schutz der Welterbestätten nachkommt. Sie vergibt das Label
10 Tourismus contra Übernutzung …
209
NESCO-Welterbe an Stätten, die besondere Relevanz haben, übergibt jedoch die U finanzielle, aber auch organisatorische Pflege, Instandhaltung und Verwaltung dezentral an die Länder ab. Welche Auswirkungen eine Ernennung zum Welterbe sowohl in positiver als auch negativer Hinsicht haben kann, ist vielen Ländern vermutlich vorher nicht klar. Häufig ist die Folge zunächst ein vermehrter Tourismus, der häufig ungeplant und unbegleitet beginnt, allerdings ein hohes Potenzial hat, nachhaltige Schäden auszulösen. Um diesen Schäden entgegenzuwirken, ist hier eine Anleitung durch die UNESCO wichtig, die Hilfestellung aus 40 Jahren Welterbe geben kann. Hierbei könnte es sich um eine Art Erfahrungsbericht helfen, der konkrete Maßnahmen schildert, wie mit den typischen Veränderungen einer neu ernannten Stätte umgegangen werden sollte. Das Welterbe Kotor wird durch die hohe Nachfrage im touristischen Bereich bereits auf der Roten Liste des Welterbes geführt, wodurch der Status Welterbe gefährdet ist. Hier sind konkrete Maßnahmen und Lösungen durch Montenegro zu erarbeiten, um diese negativen Effekte zu begrenzen oder im besten Fall zu verhindern. Sicherlich ist der Weg dorthin nicht einfach, da durch den Tourismus Arbeitsplätze geschaffen werden und die Stadt Kotor maßgeblich von den Touristen als wichtigstem Wirtschaftssektor abhängt. Ziel für die UNESCO wie auch für Montenegro selbst sollte es sein, die Welterbestätten auch noch in vielen Jahren in der heutigen Form und Qualität zu besitzen, um diese, ganz nach dem Grundsatz der UNESCO, auch für zukünftige Generationen zu bewahren.
Literatur Auswärtiges Amt. (2019). Montenegro: Überblick. https://www.auswaertiges-amt.de/de/aussenpolitik/laender/montenegro-node/montenegro/216320. Zugegriffen: 28. Aug. 2019. Bandarin, F. (2005). Foreword. In D. Harrison & M. Hitchcock (Hrsg.), The politics of world heritage – Negotiating tourism and conservation (S. 1). Clevedon: Channel View Publications. Biagi, B., Brandano, M. G., & Pulina, M. (2017). Tourism taxation: A synthetic control method for policy evaluation. International Journal of Tourism Research, 19(5), 505–514. Bickert, M., Göler, D., & Lehmeier, H. (2011). Coastal tourism in Montenegro – Economic dynamics, spatial developments and future perspectives. HRVATSKI GEOGRAFSKI GLASNIK, 73(1), 165–180. Bofinger, P. (2007). Grundzüge der Volkswirtschaftslehre (2. Aufl.). München: Person. Böhm, M. (2016). Digital aufs Weltkulturerbe kritzeln. https://www.spiegel.de/netzwelt/web/ florenz-app-autography-digital-denkmaeler-vollkritzeln-a-1085285.html. Zugegriffen: 28. Aug. 2019. Charta von Venedig. (2019). Internationale Charta zur Konservierung und Restaurierung von Denkmälern und Ensembles (1964). http://charta-von-venedig.de/789.html. Zugegriffen: 28. Aug. 2019. Dailymail. (2015). Security cameras, 10-minute visiting slots and two million tourists a year: Machu Picchu’s plans £28.5million makeover to cope with overcrowding. http://www. dailymail.co.uk/travel/travel_news/article-3058763/Security-cameras-10-minute-visiting-slots-
210
A.-K. Voit
two-million-tourists-year-Machu-Picchu-s-plans-9million-makeover-cope-overcrowding.html. Zugegriffen: 28. Aug. 2015. Frey, B., & Steiner, L. (2010). World heritage list: Does it make sense? CREMA Working Paper 11. Galapagos Conservacy. (o. J). Requirements to Enter Galapagos. https://www.galapagos.org/travel/ travel/planning-a-trip/. Zugegriffen: 8. Jan. 2020. Göler, D., & Lehmeier, H. (2011). Tourism is our future – Stand und Perspektiven des Tourismus in Montenegro. Europa Regional, 17(2), 59–69. Herrmann, S. (2002). Subventionierung der öffentlichen Bühnen? Aufgabe, Rechtsform und Finanzierung der deutschen Theater in Zeiten verschärfter ökonomischer Sachzwänge. Hamburg: Diplomica. Krieger, R. (2017). Italien im Dilemma – Wegen Überfüllung geschlossen. https://www. handelsblatt.com/politik/international/weltgeschichten/krieger/italien-im-dilemma-wegenueberfuellung-geschlossen/19888604.html. Zugegriffen: 5. Jan. 2020. Lafrenz Samuels, K., & Rico, T. (2015). Heritage keywords: Rhetoric and redescription in cultural heritage. Boulder: University Press of Colorado. Martens, J., & Hein, R. (2002). Globale öffentliche Güter – Zukunftskonzept für die internationale Zusammenarbeit? Berlin: Heinrich-Böll-Stiftung & Weltwirtschaft, Ökologie & Entwicklung e. V. Ministry of Sustainable Development and Tourism. (2016). Tourism and environment. December 2016. http://www.mrt.gov.me/en/sections/publications/167906/Tourism-and-EnvironmentDecember-2016.html. Zugegriffen: 28. Aug. 2019. MIPA. (2019). Montenegro country report – Edition 2019. http://www.mipa.co.me/en/publikacije/. Zugegriffen: 27. Dez. 2019. Montenegro Ministry of Tourism and Environment. (2008). Montenegro tourism development strategy to 2020. http://www.mrt.gov.me/en/sections/publications. Zugegriffen: 28. Aug. 2019. OECD. (2018). OECD tourism trends and policies 2018. https://www.oecd.org/cfe/tourism/2018Tourism-Trends-Policies-Highlights-ENG.pdf. Zugegriffen: 26. Dez. 2019. PAN (Planungsbüro für angewandten Naturschutz GmbH). (2015). Studie für ein mögliches UNESCO-Welterbe Steigerwald. https://www.stmuv.bayern.de/themen/naturschutz/steigerwald/doc/studie_unesco.pdf. Zugegriffen: 28. Aug. 2019. Pechlaner, H. (2003). Tourismus-Destinationen im Wettbewerb. Wiesbaden: Deutscher Universitätsverlag. Quack, H.-D., & Wachowiak, H. (2013). Welterbe und Tourismus: Ausgewählte Forschungsergebnisse. In H.-D. Quack & H. Wachowiak (Hrsg.), Kulturtourismus zu Beginn des 21. Jahrhunderts (S. 279–295). München: Oldenbourg. Reski, P. (2017). Wie die letzten Venezianer versuchen, die Lagunenstadt zu retten. https://www. tagesspiegel.de/gesellschaft/venedig-wie-die-letzten-venezianer-versuchen-die-lagunenstadtzu-retten/20209772.html. Zugegriffen: 29. Dez. 2019. Schlamp, H.-J. (2017). Auswüchse des Massentourismus in Venedig – La Serenissima und die Seeungeheuer. https://www.spiegel.de/reise/europa/venedig-weltkulturerbe-im-ausverkaufa-1177535.html. Zugegriffen: 29. Dez. 2019. Schlautmann, C. (2018). Tourismus: Wo diesen Sommer hohe Urlaubssteuern drohen. https:// www.handelsblatt.com/unternehmen/dienstleister/tourismus-wo-diesen-sommer-hoheurlaubssteuern-drohen/22809124.html?ticket=ST-1157776-hEZZiNeHnqhfF9T7sXXs-ap2. Zugegriffen: 5. Jan. 2020. Shackley, M. (2006). Empty bottles and sacret sights. In T. J. Dallen & D. H. Olsen (Hrsg.), Tourism, religion and spiritual journey (S. 94–104). London: Routledge.
10 Tourismus contra Übernutzung …
211
Squirs, N. (2018). Medieval walled town in Montenegro risks becoming the next Dubrovnik under pressure from cruise ship hordes. https://www.telegraph.co.uk/news/2018/08/22/medievalwalled-town-montenegro-risks-becoming-next-dubrovnik/. Zugegriffen: 28. Aug. 2019. Stocker, F. (2009). Moderne Volkswirtschaftslehre (6. Aufl.). München: Oldenbourg. Sundhaussen, H. (2008). Der Zerfall Jugoslawiens und dessen Folgen. http://www.bpb.de/ apuz/31042/der-zerfall-jugoslawiens-und-dessen-folgen?p=all. Zugegriffen: 28. Aug. 2019. Treibel, J. (2016). Tourismus in Montenegro legt weiter deutlich zu. https://www.gtai.de/GTAI/ Navigation/DE/Trade/Maerkte/suche,t=tourismus-in-montenegro-legt-weiter-deutlichzu,did=1531016.html. Zugegriffen: 28. Aug. 2019. United Nations. (2019). Sections. http://www.un.org/en/sections/about-un/overview/index.html. Zugegriffen: 26. Febr. 2020. UNESCO. (2010). Damage evaluated at Machu Picchu after torrential rains. https://whc.unesco. org/en/news/587. Zugegriffen 28. Aug. 2019. UNESCO. (2019a). Overview. Welterbe werden. https://www.unesco.de/kultur-und-natur/welterbe/ welterbe-werden. Zugegriffen: 28. Aug. 2019. UNESCO. (2019b). List of world heritage in danger. http://whc.unesco.org/en/danger/. Zugegriffen: 28. Aug. 2019. UNESCO. (2020). World heritage list. http://whc.unesco.org/en/list/. Zugegriffen: 28. Aug. 2019. Weingartner, H. (2019). Roms Polizei vertreibt Touristen von der Spanischen Treppe. https://www. welt.de/vermischtes/article198113357/Sitz-Verbot-Roms-Polizei-vertreibt-Touristen-von-derSpanischen-Treppe.html. Zugegriffen: 8. Jan. 2020.
Prof. Dr. Ann-Katrin Voit ist seit 2018 Professorin für Volkswirtschaftslehre, insbesondere Wirtschaftspolitik, an der FOM Hochschule für Oekonomie & Management in Bochum. Ihre Forschungsschwerpunkte liegen im Bereich der internationalen Wirtschaftspolitik, Kulturökonomik, globalen öffentlichen Gütern sowie Europapolitik und -ökonomik.
Teil III Digitalisierung
Beendet die Digitalisierung das deutsche Jobwunder?
11
Alexander Spermann
Inhaltsverzeichnis 11.1 Einführung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 11.2 Industrielle Revolutionen aus wirtschaftshistorischer Sicht . . . . . . . . . . . . . . . . . . . . . . . 216 11.3 Wirkungen der Digitalisierung auf den Arbeitsmarkt. . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 11.3.1 Digitalisierung und Arbeitsproduktivität. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 11.3.2 Empirische Ergebnisse zu Auswirkungen der Digitalisierung auf den Arbeitsmarkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 11.4 Konsequenzen für die Ausgestaltung der Wirtschaftspolitik. . . . . . . . . . . . . . . . . . . . . . . 223 11.4.1 Wachstumspolitik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 11.4.2 Bildungspolitik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 11.4.3 Arbeitsmarktpolitik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 11.5 Zusammenfassung und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
Zusammenfassung
Der deutsche Arbeitsmarkt zeichnet sich durch hohe Beschäftigung und niedrige Arbeitslosigkeit aus. Doch in den nächsten Jahren werden sowohl die Demografie als auch die Digitalisierung zwei wesentliche strukturelle Herausforderungen sein, die es zu bewältigen gilt. In diesem Beitrag werden nach einer wirtschaftshistorischen Einordnung der Digitalisierung die Ergebnisse der wichtigsten Studien zu den Wirkungen der Digitalisierung auf den Arbeitsmarkt zusammengefasst. Daraus wird eine Vielzahl an Politikvorschlägen im Bereich der Wachstums-, Bildungs- und A. Spermann (*) FOM Hochschule, Köln, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_11
215
216
A. Spermann
Arbeitsmarktpolitik abgeleitet. Ohne entsprechende Anpassungen der bestehenden ökonomischen Institutionen wird die Digitalisierung das deutsche Jobwunder beenden.
11.1 Einführung Trotz geringer Wachstumserwartungen boomt der deutsche Arbeitsmarkt: Noch nie waren so viele Menschen in Deutschland beschäftigt, nämlich etwa 45 Mio. Noch nie wurden so viele Stunden gearbeitet, nämlich etwa 61 Mrd. Es könnten sogar noch mehr sein, wenn die etwa eine Million offenen Stellen besetzt werden könnten. Die Arbeitslosenquote liegt bei etwa 5 %, in einigen Regionen herrscht Vollbeschäftigung (Bundesagentur für Arbeit 2019). Digitalisierung und Demografie sind zwei strukturelle Herausforderungen für den Arbeitsmarkt. In diesem Beitrag wird auf den Zusammenhang zwischen Digitalisierung und Arbeitsmarkt fokussiert. Konkret stellt sich die Frage, ob die mit der Digitalisierung verbundenen Produktivitätsschübe zu zunehmender Arbeitslosigkeit und weniger Beschäftigung führen werden.
11.2 Industrielle Revolutionen aus wirtschaftshistorischer Sicht Moderne makroökonomische Lehrbücher beschäftigen sich typischerweise mit der Frage, weshalb der Wohlstand – gemessen als BIP pro Kopf – im Mittelalter über Jahrhunderte weitgehend unverändert blieb, doch plötzlich rasant anstieg. So stieg die Pro-Kopf-Produktion seit dem Ende des Römischen Reichs bis etwa 1500 in Europa so gut wie gar nicht, zwischen 1500 und 1700 betrug das Wirtschaftswachstum etwa 0,1 % je Jahr (Blanchard und Illing 2016). Erst ab dem Ende des 18. Jahrhunderts gelang es dem Vereinigten Königreich, später auch anderen Ländern, enorme Steigerungen des BIP pro Kopf zu erreichen. Wieso kam es zu dieser „Hockey-Schläger-Entwicklung“ des BIP? Die zentrale Erklärung bietet die industrielle Revolution mit der Erfindung der Dampfmaschine 1775 und ihrer Verbreitung. Mit diesem sogenannten ersten Maschinenzeitalter ist die Erfahrung verbunden, dass mehr Wohlstand bei weniger Arbeitsstunden möglich ist, jedoch Steigerungen der Arbeitsproduktivität Zeit brauchen (Brynjolfsson und McAfee 2014). Anfang des 21. Jahrhunderts kamen mehrere technologische Entwicklungen zusammen, die zum sogenannten zweiten Maschinenzeitalter führten. Diese Entwicklungen lassen sich plakativ mit dem Akronym DANCE zusammenfassen. Gemeint ist, dass inzwischen in großem Umfang Daten produziert werden und zur Verfügung stehen. Algorithmen, die auf künstlicher Intelligenz basieren, können große Datenmengen automatisiert auswerten. Netzwerke werden immer schneller,
11 Beendet die Digitalisierung das deutsche Jobwunder?
217
wie die Entwicklung von 3G zu LTE und 5G zeigt. Die Speicherung von Daten in der Cloud ist zunehmend akzeptiert und wird immer kostengünstiger. Auch die Hardware-Entwicklung ist längst nicht an ihre Grenzen gekommen und entwickelt sich exponentiell, was die Speicherkapazitäten und Prozessorgeschwindigkeiten betrifft. Dieses Zusammentreffen mehrerer Entwicklungen beflügelt technologische Innovationen: Künstliche Intelligenz, humanoide Roboter, Internet der Dinge und 3D-Drucker sind die Kernelemente des zweiten Maschinenzeitalters. Darauf basieren neue Geschäftsmodelle der Plattformökonomie, die plakativ mit dem Akronym FAANG (Facebook, Amazon, Apple, Netflix und Google) zusammengefasst werden können. Aber auch die Geschäftsmodelle der sogenannten Sharing-Ökonomie, wie z. B. Uber und Airbnb, sind ohne das zweite Maschinenzeitalter nicht vorstellbar (McAfee und Brynjolfsson 2017; Eichhorst und Spermann 2016). Frey (2019) thematisiert die mit dem zweiten Maschinenzeitalter verbundene sogenannte „Technologiefalle“. Die Falle besteht darin, dass neue Technologien wie künstliche Intelligenz zwar höhere Arbeitsproduktivität und damit mehr Wohlstand im Durchschnitt ermöglichen, jedoch automatisierbare Jobs für immer verschwinden lassen – mit der Konsequenz, dass Verlierer der Automatisierung den Rest ihres Lebens arbeitslos bleiben. Frey (2019) analysiert die industriellen Revolutionen der Vergangenheit, um Chancen und Risiken des zweiten Maschinenzeitalters besser einordnen zu können. Es geht ihm um den perspektivischen Blick auf die Entwicklungen der Gegenwart. Dabei verweist er auf Churchill: „The longer you look back, the farther you can look forward“ (zitiert nach Frey 2019, S. XI). Zunächst kritisiert er die vereinfachte Darstellung zur „Hockeyschläger-Entwicklung“ des BIP, die zwar richtig ist, jedoch die enormen Anpassungsprozesse verschleiert. So waren die Reallöhne während der Anfangsphase der britischen industriellen Revolution des 18./19. Jahrhunderts konstant bzw. für einzelne Gruppen fallend, während sich die Gewinne der Industriellen verdoppelten. Nach Acemoglu und Restrepo (2018a, b) unterscheidet er arbeitssparenden technischen Fortschritt in Technologien, die Tätigkeiten ersetzen (z. B. Software, die Fahrstuhlführer ersetzt), und Technologien, die bestehende Tätigkeiten produktiver machen (z. B. Software zur Datenauswertung wie Stata). Freys Kernhypothese ist es, dass insbesondere künstliche Intelligenz mit arbeitssparendem technischem Fortschritt verbunden ist, der Jobs mittlerer Qualifikation in großem Stil durch Automatisierung zerstört. Dabei ist es eine offene Frage, ob in gleichem Umfang neue Stellen mit anderen Tätigkeiten entstehen und die entlassenen Personen diese neuen Stellen besetzen können. Die wirtschaftshistorische Erfahrung zeigt, dass „Verlierer der Automatisierung“ dauerhaft arbeitslos werden oder zumindest in wesentlich schlechter bezahlten Jobs, unter Umständen sogar in anderen Regionen, tätig sein werden. Mit Verweis auf die wirtschaftshistorischen Analysen von Acemoglu und Robinson (2012) zur zentralen Bedeutung politischer und ökonomischer Institutionen für den Wohlstand betont Frey (2019) den hohen Anpassungsbedarf im zweiten Maschinenzeitalter.
218
A. Spermann
Während die britische industrielle Revolution gegen den Widerstand der „Maschinenstürmer“ (Ludditen) mit militärischen Mitteln, Haftstrafen und Zwangsverschickungen nach Australien durchgesetzt wurde, gilt es jetzt, potenziellen Verlierern der Automatisierung demokratische Mitsprache zu ermöglichen – und nicht die mit dem zweiten Maschinenzeitalter verbundenen massiven Belastungen für Menschen zu ignorieren. Auch müssen die Institutionen, die qualifikatorische und regionale Anpassungen ermöglichen und unterstützen, reformiert werden: Frühkindliche Bildung, verbesserte Aus- und Weiterbildung, Umzugsbeihilfen und verbesserte Grundsicherungssysteme sind mögliche institutionelle Veränderungen.
11.3 Wirkungen der Digitalisierung auf den Arbeitsmarkt 11.3.1 Digitalisierung und Arbeitsproduktivität Digitalisierung erhöht – wie alle bisherigen industriellen Revolutionen – die Arbeitsproduktivität. Eine höhere Produktivität ermöglicht höheren Wohlstand. Wenn z. B. die Arbeitsproduktivität jährlich um 2,5 % zunimmt, dann verdoppelt sich das BIP pro Kopf alle 28 Jahre. Der Nobelpreisträger Paul Krugman fasst diese Einsicht prägnant zusammen: „… depressions, runaway inflation, or civil war can make a country poor, but only productivity can make it rich“ (zitiert nach Frey 2019, S. 12). Im Durchschnitt ist in industrialisierten Ländern steigender Wohlstand mit sinkender Jahresarbeitszeit einhergegangen. Vereinfacht und bildlich gesprochen: Der zu verteilende Kuchen wurde größer und damit wurden die für den Einzelnen zu konsumierenden Kuchenstücke größer, doch dank des Einsatzes von Maschinen mussten weniger Stunden gearbeitet werden. Es hat sich aber auch gezeigt, dass neue Technologien, sei es die Dampfmaschine, die Elektrifizierung oder die Computerisierung, erst allmählich, im Laufe von Jahrzehnten, zu statistisch messbaren Produktivitätssteigerungen führen. Denn die Umstellung von z. B. Dampf auf Elektrizität oder von Schreibmaschinen auf PCs erfordert eine völlig neue Kapitalausstattung und veränderte Arbeitsprozesse. Solche gravierenden technologischen Veränderungen durch diese universell einsetzbaren Technologien (general purpose technologies) geschehen nicht über Nacht (Brynjolfsson und Mc Afee 2014; McAfee und Brynjolffson 2017; Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung 2018, S. 63). Das zweite Maschinenzeitalter, also die Kombination aus künstlicher Intelligenz, humanoiden Robotern, Internet der Dinge und 3D-Druckern, wird ebenfalls erst im Laufe der nächsten Jahrzehnte durch Automatisierung hohe Steigerungen der Arbeitsproduktivität erzeugen. Damit ist zukünftig zusätzlicher Wohlstand zu erwarten, doch stehen – wie schon bei den industriellen Revolutionen der Vergangenheit – große Veränderungen am Arbeitsmarkt bevor. Im besten Fall ist das BIP pro Kopf in 30 Jahren höher – bei geringerer Jahresarbeitszeit.
11 Beendet die Digitalisierung das deutsche Jobwunder?
219
Doch schon seit Jahren nehmen die Zuwächse bei der Arbeitsproduktivität in Deutschland trendmäßig ab. Wie lässt sich das erklären? Es gibt keine Hauptursache, sondern ein Ursachenbündel. Ademmer et al. (2017) verweisen auf die vergleichsweise starke Regulierung von Güter- und Arbeitsmärkten sowie auf die größere Bedeutung kleiner und mittlerer Unternehmen, die im Vergleich zu Großunternehmen weniger digitalisiert arbeiten. Elstner et al. (2018) betonen die Integration von niedrigproduktiven Beschäftigten in den Arbeitsmarkt. Brenke (2019) nennt den sektoralen Wandel zu einer relativ zur Industriegesellschaft weniger produktiven Dienstleistungsgesellschaft. Klinger und Weber (2019) finden in einer empirischen Studie eine „Entkoppelung“ von Wirtschaftswachstum und Beschäftigung. So hat sich das Produktivitätswachstum seit der Großen Rezession abgeschwächt, weil die Beziehung zwischen Beschäftigung und BIP schwächer geworden ist. Konkret wuchs die Beschäftigung schneller als das BIP – mit der Konsequenz zurückgehender Arbeitsproduktivitätszuwächse. Die OECD weist in einer aktuellen Studie auf die zunehmende Heterogenität in den Produktivitätsentwicklungen zwischen Vorreitern (Frontiers) und Nachzüglern (Laggards) hin. Stark digitalisierte Firmen hätten weit überdurchschnittliche Produktivitätszuwächse zu verzeichnen („superstar firms“), während andere – überwiegend kleine und mittlere Unternehmen – unterdurchschnittlich digitale Technologien nutzen. Dadurch ergibt sich eine Produktivitätslücke, die sich auch in Deutschland beobachten lässt (OECD 2019a; Schiersch 2019).
11.3.2 Empirische Ergebnisse zu Auswirkungen der Digitalisierung auf den Arbeitsmarkt Technischer Fortschritt durch Digitalisierung löst ähnliche Hoffnungen auf mehr Wohlstand und Ängste vor Jobverlusten aus wie technischer Fortschritt durch die Dampfmaschine, Elektrifizierung und Computerisierung. Im 18. Jahrhundert wehrten sich die sogenannten „Maschinenstürmer“ (Ludditen) gegen die Automatisierung in der Textilindustrie, indem sie Webstühle zerstörten. Auch in den 1960er-Jahren gab es massiven Widerstand gegen Automatisierung in den USA (Autor 2015). Widerstand gegen neue jobzerstörende Geschäftsmodelle des zweiten Maschinenzeitalters ist auch heute beobachtbar. Vor einigen Jahren brannten in Paris von Taxifahrern entzündete Autoreifen als Protest gegen die Plattform Uber. In Deutschland konnte z. B. das ursprüngliche Geschäftsmodell von Uber erfolgreich juristisch verhindert werden. Die Verbreitung von Geschäftsmodellen auf der Basis künstlicher Intelligenz wird in Deutschland auch aus Datenschutzgründen eingeschränkt. Inzwischen liegt eine Vielzahl an Studien ganz unterschiedlicher Qualität zu den Konsequenzen der Digitalisierung für den Arbeitsmarkt vor. Spermann (2016) fasst die wichtigsten bis 2015 erschienenen Studien zusammen. Im Folgenden werden die in Spermann (2019) dargestellten wichtigsten internationalen und nationalen Studien
220
A. Spermann
mit hohem wissenschaftlichem Gehalt verkürzt zusammengefasst und um einige aktuelle Studien ergänzt. Das Thema Digitalisierung und Arbeitsmarkt geriet durch die Studie von Frey und Osborne (2013) ins Rampenlicht der Öffentlichkeit. Nach ihren Ergebnissen auf der Basis einer Befragung von Computerexperten arbeiten 47 % der Beschäftigten in den USA in Berufen, die in den nächsten zehn bis 20 Jahren mit über 70 %iger Wahrscheinlichkeit automatisiert werden könnten. Dabei liegt die Automatisierungswahrscheinlichkeit z. B. bei Kreditanalysten, Köchen und Sachbearbeitern über 90 %. Zahnärzte, Grundschullehrer, Psychologen, Allgemeinärzte und Gesundheitsberater hatten dagegen eine unter 1 %ige Automatisierungswahrscheinlichkeit (Frey und Osborne 2013). Nach einer Studie von Josten und Lordan (2019), die eine andere Jobklassifikation als Frey und Osborne (2013) nutzt, wird mit Daten für die Europäische Union und 25 weiteren Länder ebenfalls ein Anteil von 47 % grundsätzlich automatisierbarer Jobs in den nächsten zehn Jahren identifiziert, wobei 35 % vollständig automatisiert werden könnten. In einer Studie des Zentrums für Europäische Wirtschaftsforschung (ZEW) im Auftrag des Bundesministeriums für Arbeit und Soziales wird die Frey/Osborne-Studie kritisiert. Zum einen handelt es sich lediglich um die Einschätzung von Computerexperten. Es geht demnach um die grundsätzliche Möglichkeit zur Automatisierung, nicht um die Frage, ob die Automatisierung wirtschaftlich sinnvoll ist. Zum anderen wird nicht zwischen Jobs und Tätigkeiten unterschieden. Denn in der Praxis zeigt sich häufig, dass lediglich einzelne Tätigkeiten bestehender Stellenprofile und Berufsbilder durch Computer ersetzt werden können. Die ZEW-Autoren kommen zu dem Ergebnis, dass lediglich 12 % der Arbeitsplätze eine relativ hohe Automatisierungswahrscheinlichkeit haben (Bonin et al. 2015). Eine weitere ZEW-Studie im Auftrag der OECD kommt zu dem Schluss, dass im OECD-Durchschnitt lediglich 9 % der Arbeitsplätze eine hohe Automatisierungswahrscheinlichkeit haben. Dabei sind Arbeiternehmer mit niedriger Bildung einem höheren Risiko ausgesetzt. Zudem betonen die Autoren, dass sich wahrscheinlich die mit dem Beruf verbundenen Aufgaben und Anforderungen in vielen Bereichen ändern, doch der Arbeitsplatz wird nicht zwangsweise wegfallen (Arntz et al. 2016). Nach einer aktuellen OECD-Studie sind 14 % der existierenden Jobs von Automatisierung betroffen, also deutlich mehr als laut der vor drei Jahren erschienenen Studie. Weiterhin ist Deutschland mit einem Wert von 18,4 % überdurchschnittlich von Automatisierung bedroht. Das liegt insbesondere an dem im internationalen Vergleich hohen Anteil der Industrie (OECD 2019b). Doch erste Analysen zu diesem Thema wurden bereits ab 2003 publiziert. So wurden „Jobpolarisierung und das Verschwinden der Routinejobs“ in einer Studie von Autor et al. (2003) mit US-Daten für die Jahre 1979 bis 2012 thematisiert. Es konnte empirisch belegt werden, dass in diesem Zeitraum in großem Umfang Routinejobs, für die mittlere Qualifikationen (z. B. Verkäufer, Büro- und Verwaltungsangestellte und Industriearbeiter) erforderlich sind, automatisiert wurden. Während im Jahr 1979 noch 60 %
11 Beendet die Digitalisierung das deutsche Jobwunder?
221
der Jobs mittlere Qualifikationen erforderten, waren es im Jahr 2012 nur noch 46 % (Autor et al. 2003, 2006). Eine ähnliche Entwicklung lässt sich für den Zeitraum 1993 bis 2010 auch für 16 europäische Länder zeigen (Goos et al. 2014). Der Grund: Durch den massiven Preisverfall für Hard- und Software rechnete sich die Automatisierung für Arbeitgeber. Dagegen nahmen Nicht-Routinejobs anteilsmäßig zu – und zwar sowohl niedrig- als auch hochqualifizierte Stellen. Dieses Phänomen wird Jobpolarisierung genannt. Die erste empirische Studie für Deutschland wurde von Spitz-Oener (2006) vorgelegt – und bestätigte die aus den USA bekannte empirische Evidenz für den Zeitraum 1979–1999. Demnach bewirkt die Automatisierung durch den verstärkten Einsatz von Maschinen und Computern das Verschwinden von Routinetätigkeiten. Vereinfacht ausgedrückt: Arbeitnehmer mit mittleren Qualifikationen wie Buchhalter und Steuerfachgehilfen verlieren, während Arbeitnehmer mit einfachen Qualifikationen wie Servicekräfte in der Gastronomie und Reinigungspersonal sowie hochqualifizierte Berater und Manager zumindest anteilsmäßig gewinnen. Eine OECD-Studie zeigt die Entwicklung in den USA im Vergleich zu den 28 EU-Staaten für den Zeitraum 2002 bis 2016. Dort bestätigt sich der anteilsmäßige Rückgang der Routinejobs – sie nahmen in beiden Regionen um knapp zehn Prozentpunkte ab. Der Unterschied liegt jedoch bei den Nichtroutinetätigkeiten für mittlere Qualifikationen, die in den europäischen Staaten um gut drei Prozentpunkte zunahmen, während sie in den USA um knapp einen Prozentpunkt abnahmen, wie Abb. 11.1 zeigt (OECD 2016). Dagegen verweist eine Studie von Gregory et al. (2019) mit Daten zu 27 Ländern der Europäischen Union für die Jahre 1999 bis 2010 auf Nettobeschäftigungsgewinne. Die Autoren betonen, dass die Wirkung des technischen Fortschritts durch Digitalisierung theoretisch unbestimmt ist. Deshalb ist es eine empirische Frage, ob die Beschäftigung netto zu- oder abnimmt. In ihrer Analyse schätzen sie zum einen die negativen Substitutionseffekte, die zu einem Beschäftigungsrückgang führen. Aber sie vernachlässigen nicht die Gütermarkteffekte, die zu mehr Beschäftigung führen können. Konkret kann die Arbeitsnachfrage von Unternehmen durch zusätzliche Güternachfrage zunehmen. Die zusätzliche Güternachfrage, z. B. nach Smartphones, wird durch Preissenkungen ausgelöst, die sich durch die gesunkenen Kosten für Datenspeicherung und -verarbeitung ergeben. Nach dieser Studie beobachten wir ein „Rennen mit der Maschine“ statt ein „Rennen gegen die Maschine“ (Brynjolffson und McAfee 2011). Auch kommen einige Studien für Deutschland zu dem Ergebnis, dass durch Digitalisierung insgesamt keine Beschäftigungsverluste, sondern sogar Beschäftigungsgewinne entstehen. Nach einer IAB-Studie sind der Strukturwandel hin zu mehr Dienstleistungen und die Verbreitung des Internets der Dinge (Industrie 4.0) nicht mit Beschäftigungsverlusten verbunden (Wolter et al. 2015). Eine Studie des Zentrums für Europäische Wirtschaftsforschung (ZEW) kommt zu dem Ergebnis, dass der technologische Wandel mit schwach positiven Beschäftigungseffekten einhergeht. Dazu wurden die Auswirkungen der Computerisierung in den Jahren 1995 bis 2011 analysiert. Auf dieser Basis wurden die Beschäftigungswirkungen für die Jahre 2016 bis 2021 simuliert.
222
A. Spermann
Job-Polarisierung in den Vereinigten Staaten und der Europäischen Union Änderung in Beschäftigungsanteilen in Prozentpunkten nach Berufskategorien, 2002-2014 USA
8.00
EU-28
6.00 4.00
2.00 0.00
-2.00 -4.00 -6.00
-8.00 -10.00
Hochqualifiziert
Mittlere Qualifikation, Nicht-Routineaufgaben
Mittlere Qualifikation, Routineaufgaben
Geringqualifiziert
Abb. 11.1 Job-Polarisierung in den USA und der Europäischen Union (2002–2014). (Datenquelle: OECD 2016)
Dabei flossen die Ergebnisse einer Befragung von 2000 Unternehmen (IAB-ZEW Arbeitswelt 4.0 Unternehmensbefragung) ein. Es zeigt sich, dass die Gesamtbeschäftigung um 1,8 % zunimmt. Das entspricht einem jährlichen Beschäftigungszuwachs um 0,4 %, was – interessanterweise – ein doppelt so hoher Beschäftigungszuwachs wie in den vergangenen fünf Jahren ist (Arntz et al. 2018). Der Zuwachs von 1,8 % wird in der aktuellen ZEWStudie von Arntz et al. (2019) bestätigt. Die Begründung: Die neuen Technologien wirken in den Betrieben eher komplementär als substituierend. Damit benötigen die Unternehmen eher zusätzliche Beschäftigte, um die neuen Technologien einzuführen. In den Medien wurde dieses Studienergebnis plakativ zusammengefasst: „Automatisierung könnte 560.000 Jobs schaffen“ (Süddeutsche Zeitung v. 28.06.2019). Hintergründe zu Arbeitsmarktbegriffen
Arbeitsproduktivität Die Arbeitsproduktivität wird in Euro je Arbeitsstunde gemessen. Je mehr Umsatz (Output) in einer Arbeitsstunde (Input) erzeugt werden kann, desto höher ist die Produktivität. Dabei fließt die Kapitalausstattung (z. B. Einsatz von Maschinen und Software) in die Berechnung mit ein. Wer mit modernen Maschinen oder besserer Software arbeitet, der wird c. p. eine höhere Arbeitsproduktivität haben.
11 Beendet die Digitalisierung das deutsche Jobwunder?
223
Produktivitätsgerechte Entlohnung Höhere Arbeitsproduktivität ermöglicht eine höhere Entlohnung. Wer produktiver arbeitet (Ursache), der wird auch einen höheren Stundenlohn erhalten (Wirkung). Darin liegt die Chance der Digitalisierung. Aber auch die umgekehrte Kausalität ist beobachtbar: Wer sehr hohe Löhne bezahlt (Effizienzlöhne, z. B. eingeführt von Henry Ford bei der Fließbandproduktion von Automobilen), der erwartet eine höhere Produktivität der Arbeitnehmer. Vollbeschäftigung Wenn alle Arbeitnehmer, die ihre Arbeit anbieten, auf Arbeitgeber treffen, die ihre Arbeit auch nachfragen, dann herrscht theoretisch Vollbeschäftigung. Das Arbeitsangebot der Arbeitnehmer und die Arbeitsnachfrage der Unternehmen sind in der Realität jedoch nicht gleich hoch, weder gesamtwirtschaftlich noch in den verschiedenen Branchen. Empirisch wird eine geringe Arbeitslosigkeit von etwa 2 bis 3 % als vereinbar mit der theoretischen Vorstellung von Vollbeschäftigung angesehen, wobei es keinen allgemeinen Konsens unter Ökonomen gibt. Quellen: Ademmer et al. (2017); Weber (2014)
11.4 Konsequenzen für die Ausgestaltung der Wirtschaftspolitik 11.4.1 Wachstumspolitik Wie lassen sich die zentralen Determinanten des Wirtschaftswachstums – Sach- und Humankapital, Arbeit und technischer Fortschritt – angesichts der Digitalisierung stärken (Acemoglu 2009)? Digitalisierung erlaubt eine effizientere Nutzung des bestehenden Sachkapitals, wenn z. B. bei kleinen und mittleren Unternehmen im ländlichen Raum schnelles Internet zur Verfügung steht. Ein schneller Internetzugang ist darüber hinaus Voraussetzung für z. B. Unternehmensinvestitionen in das Internet der Dinge. Investitionen in die digitale Infrastruktur haben nicht nur einen konjunkturpolitischen Effekt, sondern ermöglichen auch mehr Wachstum in der Zukunft. Investitionen in das Humankapital sind zum einen Investitionen in die Bildungsinfrastruktur (z. B. Sanierung und Neubau von Schulen im weitesten Sinn), zum anderen aber auch in Hard- und Software. Diese Investitionen erlauben eine bessere Aus- und Weiterbildung, sodass die etwa eine Million offenen Stellen in Deutschland besetzt werden könnten. Die Beseitigung von Fachkräfteengpässen ist ein wichtiger Wachstumstreiber. Arbeit wird von Menschen angeboten. Alle institutionellen Regelungen, die das Arbeitsangebot von Menschen behindern, müssen aus wachstumspolitischer Sicht auf den Prüfstand. Dazu gehören z. B. die Fehlanreize im Steuersystem für Zweitverdiener
224
A. Spermann
(Ehegattensplitting), im Sozialsystem für Transferbezieher (hohe Transferentzugsraten), im Rentensystem (abschlagsfreie Rente ab 63 Jahren) und bei der Beschäftigung von Migranten (Fachkräfteeinwanderungsgesetz gilt erst seit März 2020 und enthält weiterhin Fehlanreize) auf den Prüfstand. Ziel muss es aus wachstumspolitischer Sicht sein, Fehlanreize für die Aufnahme von Arbeit zu minimieren. Technischer Fortschritt ermöglicht hohe Arbeitsproduktivitätsfortschritte, die angesichts der demografischen Entwicklung von höchster Bedeutung sind. Da die Zahl der Arbeitskräfte selbst bei minimierten Fehlanreizen begrenzt ist, gilt es, die Arbeitsproduktivität jedes Einzelnen durch Digitalisierung zu erhöhen. Innovationen, auch durch Start-ups, sind zu fördern (Keese 2016). In diesem Zusammenhang ist die Gründung einer „Agentur für Sprunginnovationen“ begrüßenswert, doch ist der Zugang zu Wagniskapital für junge Unternehmen im internationalen Vergleich weiterhin begrenzt (Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung 2017). Hintergründe zur Wachstumstheorie
Wodurch wird das Wachstum des Bruttoinlandsprodukts bestimmt? Die volkswirtschaftliche Wachstumstheorie ist eng mit dem Namen des Nobelpreisträgers Robert Solow verbunden. Seine sogenannte neoklassische Wachstumstheorie besteht aus drei Bausteinen: Erster Baustein ist die Produktionsfunktion, die das Bruttoinlandsprodukt (Y) mit physischem Kapital (K) (z. B. Maschinen), Arbeit inkl. Humankapital der Arbeiter (H) und Technologie (A) verknüpft:
Y = A × F(K, H)
(11.1)
Je mehr physisches Kapital, Arbeit und Technologie eingesetzt werden, desto höher ist das Bruttoinlandsprodukt. Der zweite Baustein ist die Gleichung für die physische Kapitalakkumulation (I = Investitionen):
Kheute = KLetztes Jahr − Kabgeschrieben + I
(11.2)
Abschreibungen auf den Kapitalstock müssen durch (Re-)Investitionen ausgeglichen werden, wenn der Kapitalstock nicht an Wert verlieren soll. Der dritte Baustein bezieht sich auf die Ersparnisbildung (s) der Haushalte, die Voraussetzung für Investitionen ist:
(3)I = s × Y Im Solow-Modell wird ein sogenanntes „steady-state“ (Gleichgewicht) abgeleitet, in dem das physische Kapital über die Zeit unverändert bleibt. In diesem Gleichgewicht entspricht der Anteil der Ersparnisse am Bruttoinlandsprodukt (s × Y = s × A × (F(K, H)) genau den Investitionen, die zur Erhaltung des Kapitalstocks notwendig sind.
11 Beendet die Digitalisierung das deutsche Jobwunder?
225
Was sind die Bestimmungsgründe des Bruttoinlandsprodukts? Zum einen sind das die Ersparnisse: Je höher die Ersparnisbildung, desto mehr kann investiert werden, sodass der Kapitalstock und das Bruttoinlandsprodukt zunehmen. Auch führen verbesserte Technologie (A) und mehr Humankapital der Arbeiter (H) zu einem höheren Bruttoinlandsprodukt, indem der bestehende Kapitalstock besser genutzt wird. Schließlich führen beide Entwicklungen im Solow-Modell zu einem neuen steady-state mit höherem physischem Kapital und höherem Bruttoinlandsprodukt. Auch wenn das Solow-Modell als zentrale Säule der Wachstumstheorie gilt, so wird es dennoch als unvollständig kritisiert. Insbesondere spielen Institutionen wie Gesetze, Regulierungen, Regeln und Politikmaßnahmen eine Rolle als wichtige Bestimmungsgründe, soweit sie ökonomische Anreize beeinflussen -und über diesen Kanal Einfluss auf physisches Kapital, Humankapital und Technologie haben. Ohne die Rolle von Institutionen können unterschiedliche wirtschaftliche Entwicklungen nicht vollständig erklärt werden. So zeigen neuere empirische Arbeiten z. B. zur Entwicklung von Nord- und Südkorea den positiven Einfluss von sogenannten inklusiven Institutionen. Inklusive Institutionen, wie sie in Südkorea existieren, sind z. B. ein funktionierendes Justizsystem, das Verträge und Eigentumsrechte durchsetzbar macht, sowie ein für alle Bürger zugängliches Bildungssystem. Inklusiv bedeutet, dass die Institutionen die Teilnahme der großen Mehrheit der Bevölkerung gemäß ihren Talenten und Qualifikationen in ökonomischen Aktivitäten erlaubt. Quellen: Acemoglu (2009), Acemoglu et al. (2019)
11.4.2 Bildungspolitik Die Digitalisierung erfordert massive Veränderungen in der Bildungspolitik. Bereits frühkindliche Förderung in Kindertagesstätten ist eine lohnende Bildungsinvestition, wie die Ergebnisse des Perry-Vorschulprojekts zeigen. Das Perry-Projekt begann in den USA in den 1960er-Jahren. Dabei wurden sozial benachteiligte Vorschulkinder nach dem Zufallsverfahren ausgewählt. Die Programmgruppe erhielt eine spezielle frühkindliche Förderung. Daten zur Programm- und Kontrollgruppe werden bis heute erfasst und statistisch analysiert. Es zeigt sich, dass die geförderten Vorschulkinder im Vergleich zur Kontrollgruppe ein höheres Bildungsniveau, höherqualifizierte Beschäftigung und eine geringere Kriminalitätsrate aufweisen (Heckman und Karapakula 2019a). Auch sind sie im Durchschnitt gesünder und verfügen über bessere kognitive und nicht-kognitive Fähigkeiten (Heckman und Karapakula 2019b). Die Schulausbildung in Deutschland ist noch weitgehend analog – digitale Medien werden selten eingesetzt (Dräger und Müller-Eiselt 2015). Zwar nutzen fast alle Schüler
226
A. Spermann
in weiterführenden Schulen Smartphones. Doch fehlende Hardware und/oder Software und/oder WLAN-Zugang zum Internet verhindern derzeit eine moderne Ausbildung nach dem neuesten technischen Stand in den Schulen. Mit dem „DigitalPakt Schule“ des Bundesministeriums für Bildung und Forschung, der fünf Milliarden Euro in den nächsten fünf Jahren für die bessere Ausstattung von Schulen mit digitaler Technik vorsieht, dürfte sich die Situation in den Schulen verbessern. Damit haben sich jedoch noch nicht die Lehrmethoden den Möglichkeiten der digitalen Bildung angepasst. Das wird noch jahrzehntelange Anstrengungen erfordern. Digitalisierung wird auch die Hochschulbildung massiv verändern. Seit dem Jahr 2014 existiert das Hochschulforum Digitalisierung (HFD). Es ist eine gemeinsame Initiative des Stifterverbandes mit dem CHE Centrum für Hochschulentwicklung und der Hochschulrektorenkonferenz (HRK), die vom Bundesministerium für Bildung und Forschung gefördert wird. Im Jahr 2015 legte das HFD 20 Thesen zur Digitalisierung der Hochschulbildung vor – mit der Kernaussage, dass digitale Medien die Hochschullehre verbessern können (Hochschulforum Digitalisierung 2015). Nach einer Studie des H IS-Instituts für Hochschulentwicklung im Auftrag des Hochschulforums Digitalisierung verfolgten im Jahr 2015 fast drei Viertel (73 %) der Hochschulen ein Konzept der Anreicherung ihrer Lehre durch digitale Elemente, und lediglich zwei Prozent der befragten Hochschulen verzichteten gänzlich darauf. Die Hochschulrektorenkonferenz fasste dieses Ergebnis treffend zusammen: „Viel wird getan, viel bleibt zu tun“ (Hochschulrektorenkonferenz 2016). Allmählich integrieren immer mehr Hochschulen Elemente digitaler Lehre in ihre Strategien (Hochschulforum Digitalisierung 2018). Digitalisierung wird auch in der betrieblichen und außerbetrieblichen Weiterbildung zukünftig an Bedeutung gewinnen. Online-Schulungen, E-Learning und „Massive Open Online Courses“ (MOOC) haben bereits weite Verbreitung gefunden (Spermann 2014). Doch lebenslanges Lernen in einer Welt des mobilen Internets ermöglicht neue Formen des Lernens, die das Experimentieren mit neuen bildungspolitischen Instrumenten wie einem „persönlichen Erwerbstätigenkonto“ oder einem „Erwachsenenbildungskonto“ (individual learning accounts for adults) sinnvoll erscheinen lassen (Bundesministerium für Arbeit und Soziales 2017; OECD 2019b).
11.4.3 Arbeitsmarktpolitik Arbeitsmarktpolitik greift in der Regel erst dann, wenn der Schadenfall Arbeitslosigkeit bereits eingetreten ist. Die massiven Veränderungen, die selbst bei zunehmender Nettobeschäftigung auf die Arbeitnehmer zukommen, erfordern jedoch neue Instrumente, sodass die Anpassung an neu entstehende Tätigkeiten und Jobs gelingt. So könnte sozialversicherungspflichtigen Arbeitnehmern die Möglichkeit einer Zusatzversicherung im Rahmen der Arbeitslosenversicherung gewährtt werden, damit durch höhere Beitragssätze ein umfangreicherer Versicherungsschutz erworben werden kann. So könnten eine längere Arbeitslosengeldbezugszeit und/oder ein höheres Arbeitslosengeld sowie die Ausstellung individuell verwendbarer Bildungsvoucher ermöglicht werden.
11 Beendet die Digitalisierung das deutsche Jobwunder?
227
Auch ließe sich präventive Arbeitsmarktpolitik ausbauen. Konkret könnten Beschäftigten, deren Stellen mit großer Wahrscheinlichkeit in absehbarer Zeit automatisiert werden könnten, über die bestehende Weiterbildungsberatung hinaus finanzielle Ressourcen für ihre Weiterbildung aus der Arbeitslosenversicherung zur Verfügung gestellt werden. Das könnte z. B. durch die Weiterentwicklung des bestehenden Programms „Weiterbildung Geringqualifizierter und beschäftigter älterer Arbeitnehmer in Unternehmen“ (WeGebAU) umgesetzt werden. Dieses Instrument wurde bereits durch das Qualifizierungschancengesetz zum Jahr 2019 verbessert. Auch die Wiedereinführung des im Rahmen der Hartz-Reformen abgeschafften Unterhaltsgeldes würde es Arbeitnehmern erlauben, sich weiterzubilden, ohne Einkommensverluste zu realisieren. Schließlich könnte die Verbindung von Kurzarbeitergeld und Qualifizierung, die derzeit unter dem Namen Transformations-Kurzarbeitergeld diskutiert wird, sinnvoll sein (Spermann 2017).
11.5 Zusammenfassung und Ausblick In diesem Beitrag werden die möglichen Auswirkungen der Digitalisierung auf den Arbeitsmarkt vor dem Hintergrund wirtschaftshistorischer Erfahrungen mit industriellen Revolutionen diskutiert. Es zeigt sich, dass enormer Anpassungsdruck auf Arbeitnehmer durch Digitalisierung entsteht. Gleichzeitig ist die Digitalisierung eine große Chance auf mehr Wohlstand bei geringerer Jahresarbeitszeit für die Arbeitnehmer. Digitalisierung erhöht die Arbeitsproduktivität, wenn auch gesamtwirtschaftlich nicht über Nacht, sondern erst nach einem längeren Zeitraum. Digitalisierung führt zu Automatisierung. Viele Arbeitnehmer können dank Digitalisierung produktiver arbeiten. Aber es gibt auch Tätigkeiten und Jobs, die durch Automatisierung teilweise oder komplett wegfallen werden – mit 14 % in der OECD deutlich weniger als noch vor fünf Jahren gedacht. Jedoch liegt der Wert für Deutschland mit 18,4 % über dem OECD-Durchschnitt. Es hängt insbesondere an der Ausgestaltung der ökonomischen Institutionen, ob zukünftig die Zahl der Beschäftigten und Arbeitslosen in Deutschland stabil sein oder abnehmen wird. So wird in diesem Beitrag eine Vielzahl von wachstums-, bildungs- und arbeitsmarktpolitischen Vorschlägen vorgestellt, deren Umsetzung es erlauben würde, dass das deutsche Jobwunder durch die Digitalisierung nicht beendet wird.
Literatur Acemoglu, D. (2009). Introduction to modern economic growth. Princeton: Princeton University Press. Acemoglu, D., & Restrepo, P. (2018a). Artificial intelligence, automation and work. Working Paper 24196. Cambridge, MA: National Bureau of Economic Research. Acemoglu, D., & Restrepo, P. (2018b). The wrong kind of AI? Artificial Intelligence and the future of labor demand. IZA Discussion Paper No. 12292.
228
A. Spermann
Acemoglu, D., & Robinson, J. A. (2012). Why nations fail: The origins of power, prosperity and poverty. New York: Crown Business. Acemoglu, D., Laibson, D., & List, J. A. (2019). Economics (2. Aufl.). Harlow: Pearson. Ademmer, M. et al. (2017). Produktivität in Deutschland – Messbarkeit und Entwicklung, Kieler Beiträge zur Wirtschaftspolitik Nr. 12. Kiel: IfW. Arntz, M., Gregory, T., & Ziehran, U. (2016). The risk of automation for jobs in OECD countries: A comparative analysis, OECD social. Employment and Migration Working Papers, No. 189. Paris: OECD Publishing. Arntz, M., Gregory, T., & Zierahn, U. (2018). Digitalisierung und die Zukunft der Arbeit: Makroökonomische Auswirkungen auf Beschäftigung, Arbeitslosigkeit und Löhne von morgen. Technical report. Bundesministerium für Forschung und Entwicklung (BMBF). Arntz, M., Gregory, T., & Ziehran, U. (2019). Digitalization and the future of work: Macroeconomic Consequences. ZEW Discussion Paper No. 19–024. Autor, D. (2015). Why are there still so many jobs? The history and future of workplace automation. Journal of Economic Perspectives, 29, 3–30. Autor, D. H., Levy, F., & Murnane, F. J. (2003). The skill content of recent technological change: An empirical exploration. Quarterly Journal of Economics, 118, 1279–1333. Autor, D. H., Katz, L. F., & Kearney, M. S. (2006). The polarization of the U.S. labor market. American Economic Review, 96, 189–194. Blanchard, O., & Illing, G. (2016). Makroökonomie (6. Aufl.). Hallbergmoos: Pearson. Bonin, H., Gregory, T., & Ziehran, U. (2015). Übertragung der Studie von Frey/Osborne (2013) auf Deutschland. Berlin: Bundesministerium für Arbeit und Soziales. Brenke, K. (2019). Produktivitätswachstum sinkt trotz steigendem Qualifikationsniveau der Erwerbstätigen. DIW Wochenbericht, 33, 575–590. Brynjolfsson, E., & McAfee, A. (2011). Race against the machine. Lexington: Digital Frontier Press. Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. New York: W.W. Norton. Bundesministerium für Arbeit und Soziales. (2017). Weissbuch Arbeiten 4.0. Berlin: Bundesministerium für Arbeit und Soziales. Bundesagentur für Arbeit (2019). Monatsbericht zum Ausbildungs- und Arbeitsmarkt, Dezember 2019. Nürnberg: Bundesagentur für Arbeit. Dräger, J., & Müller-Eiselt, R. (2015). Die digitale Bildungsrevolution. München: Deutsche Verlags-Anstalt. Eichhorst, W., & Spermann, A. (2016). Sharing Economy: Mehr Chancen als Risiken? Wirtschaftsdienst, 96, 433–439. Elstner, S., Feld, L. P., & Schmidt, C. M. (2018). The German productivity paradox: Facts and explanations, Ruhr Economic Paper 767. Essen: RWI – Leibniz-Institut für Wirtschaftsforschung. Frey, C. B. (2019). The technology trap. Princeton: Princeton University Press. Frey, C. B., & Osborne, M. A. (2013). The future of employment: How susceptible are jobs to computerization? Working Paper, Oxford University. Goos, M., Manning, A., & Salomons, A. (2014). Explaining job polarization: Routine-biased technological change and offshoring. American Economic Review, 104, 2509–2526. Gregory, T., Salomons, A., & Zierahn, U. (2019). Racing with or against the machine? Evidence from Europe. IZA Discussion Paper Nr. 12063. Mannheim: Centre for European Economic Research.
11 Beendet die Digitalisierung das deutsche Jobwunder?
229
Heckman, J. J., & Karapakula, G. (2019a). Intergenerational and intragenerational externalities of the Perry preschool project. IZA Discussion Paper No. 12363. Heckman, J. J., & Karapakula, G. (2019b). The Perry preschoolers at late midlife: A study in design-specific inference. NBER Working Paper No. 25888. Hochschulforum Digitalisierung. (2015). 20 Thesen zur Digitalisierung der Hochschulbildung, Arbeitspapier Nr. 14. Berlin: Hochschulforum Digitalisierung. Hochschulforum Digitalisierung. (2018). Hochschulstrategien für die Lehre im digitalen Zeitalter, Arbeitspapier Nr. 38. Berlin: Hochschulforum Digitalisierung. Hochschulrektorenkonferenz. (2016). Digitalisierung der Hochschullehre: Viel wird getan, viel bleibt zu tun. Pressemitteilung v. 27.06.2016. Berlin: Hochschulrektorenkonferenz. Josten, C., & Lordan, G. (2019). Robots at work: Automatable and non automatable jobs. IZA Discussion Paper No. 12520. Keese, C. (2016). Silicon Germany. München: Knaus. Klinger, S., & Weber, E. (2019). GDP-employment decoupling and the slow-down of productivity growth in Germany, IAB-Discussion Paper. Nürnberg: IAB. McAfee, A., & Brynjolfsson, E. (2017). Machine|Platform|Crowd. New York: Norton. OECD. (2016). OECD, automation and independent work in a digital economy, policy brief on the future of work. Paris: OECD Publishing. OECD. (2019a). Productivity growth in the digital age. Paris: OECD. OECD. (2019b). Employment outlook 2019, the future of work. Paris: OECD. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. (2017). Jahresgutachten 2017/2018, Für eine zukunftsorientierte Wirtschaftspolitik. Wiesbaden: Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. (2018). Jahresgutachten 2018/2019, Vor wichtigen wirtschaftspolitischen Weichenstellungen. Wiesbaden: Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. Schiersch, A. (2019). Frontiers und Laggards, Die Produktivitätsentwicklung deutscher Unternehmen, Produktivität für Inklusives Wachstum Nr. 4. Gütersloh: Bertelsmann Stiftung. Spermann, A. (2014). Ist die OECD-Kompetenzrevolution in Deutschland angekommen? In Das Demopraphie Netzwerk (Hrsg.), Lust am Lernen – ein Leben lang (S. 8–18). Bremen: Fachverlag NW. Spermann, A. (2016). Industrie 4.0 = Mehr Roboter = das Ende von Routinejobs? Wirtschaftspolitische Blätter, 63, 335–346. Spermann, A. (2017). Demografie + Digitalisierung = Vollbeschäftigung? Ifo schnelldienst, 70(1), 12–15. Spermann, A. (2019). Digitalisierung und soziale Sicherung. In M. Opielka (Hrsg.), Zukunftslabor Schleswig-Holstein, ISÖ-Text 2019-1. Norderstedt: Books on Demand. Spitz-Oener, A. (2006). Technical change, job tasks, and rising educational demands: Looking outside the wage structure. Journal of Labor Economics, 2, 235–270. Weber, E. (2014). Das Ziel der Vollbeschäftigung in Deutschland: Fern, aber erreichbar. IAB-Kurzbericht, 15/2014, Nürnberg. Wolter, M. I., Mönnig, A., Hummel, M., Schneemann, C., Weber, E., Zika, G., Helmrich, R., Maier, T., & Neuber-Pohl, C. (2015). Industrie 4.0 und die Folgen für Arbeitsmarkt und Wirtschaft. Szenario-Rechnungen im Rahmen der BIBB-IAB-Qualifikations-und Berufsfeldprojektionen. IAB-Forschungsbericht Nr. 8/2015. Nürnberg.
230
A. Spermann Prof. Dr. habil. Alexander Spermann ist seit 2018 Professor für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management in Köln. Weiterhin ist er Gründer des YouTube-Kanals „Prof. Spermann VWL-Lernvideos“. Nach Studium, Promotion und Habilitation an der Universität Freiburg hat er als Arbeitsmarktökonom in Führungspositionen bei internationalen Wirtschaftsforschungsinstituten (ZEW Mannheim, IZA Bonn) und in einem internationalen Konzern gearbeitet. Er hat über 100 wissenschaftliche Beiträge veröffentlicht und gehörte als IZA-Direktor nach dem FAZ-Ökonomenranking aufgrund seiner Forschungsund Medienarbeit zu den 100 einflussreichsten Ökonomen in Deutschland. Seine Forschungsschwerpunkte sind digitale Bildung, Zukunft der Arbeitswelt und Grundsicherung.
Verhaltens- und evolutionsökonomische Betrachtung von Finanzmarktprozessen
12
Thomas Holtfort
Inhaltsverzeichnis 12.1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 12.2 Bisherige Finanzmarkttheorien und -ansätze sowie deren Hauptcharakteristika . . . . . . 233 12.2.1 Klassische Finanztheorie und Markteffizienz. . . . . . . . . . . . . . . . . . . . . . . . . . 233 12.2.2 Behavioral-Finance-Ansatz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 12.2.3 Hauptcharakteristika bisheriger Finanztheorien und -ansätze. . . . . . . . . . . . . . 237 12.3 Evolutionary Finance – Ein neuer Ansatz zur Erklärung von Finanzmarktprozessen. . . 238 12.3.1 Evolutionsökonomie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 12.3.2 Evolutionary Finance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240 12.4 Kritische Würdigung des Evolutionary-Finance-Ansatzes. . . . . . . . . . . . . . . . . . . . . . . 241 12.5 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
Zusammenfassung
Die klassische Finanztheorie betrachtet Finanzmärkte und deren Teilnehmer als rational, wonach neue Informationen von den Teilnehmern sofort adaptiert und korrekt in die Preisbildung miteinbezogen werden. Der verhaltensökonomische Behavioral-Finance-Ansatz verneint dagegen die Rationalitätsannahme stringent und versucht, die Funktionsweise von Finanzmärkten und deren Teilnehmern über psychologische Faktoren (Heuristiken) zu erklären. Die klassische Finanztheorie und der Behavioral-Finance-Ansatz haben somit eine Gemeinsamkeit: Sie unterstellen einen repräsentativen Marktteilnehmer, auch wenn dieser entweder vollkommen T. Holtfort (*) FOM Hochschule, Bonn, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_12
231
232
T. Holtfort
rational oder ausschließlich heuristisch entscheidet. Evolutionary Finance versucht, Marktverhalten und Preisdynamiken über die Heterogenität von Teilnehmern, Veränderungen und Lernverhalten zu erklären. Aufbauend auf darwinistischen Begriffen, wie Selektion, Mutation und Anpassung, lässt sich der Begriff der dynamischen Rationalität ableiten, welcher zu einem neuen Verständnis von Finanzmärkten führen kann.
12.1 Einleitung Verschiedene (Finanz-)Krisen der letzten Dekaden, wie z. B. die dot.com-Blase, die Finanzkrise oder die nachfolgende europäische Verschuldungskrise, haben deutlich gemacht, dass die globale Ökonomie sehr stark von Problemen betroffen ist, die von von den Finanzmärkten ausgehen (Krugman 2009; Shiller 2000a, b). Vor diesem Hintergrund wurde die klassische Finanztheorie, welche auf der Markteffizienzhypothese und dem damit einhergehenden rationalen Agenten (Homo oeconomicus; siehe Fama 1970) basiert, stark herausgefordert (siehe z. B. Kirman 2010). Die Hinterfragung der klassischen Finanztheorie sowie der Marktrationalität ist aber nicht rein krisenbedingt, sondern wird auch von den Ergebnissen empirischer und experimenteller Arbeiten unterstützt (siehe z. B. Campbell 2000; Hirshleifer 2001; Simon 1955, 1991). Simon (1955, 1991) betonte schon früh die Bedeutung von begrenzter Rationalität (bounded rationality, womit eine suboptimale Anpassung des Agenten an komplexe Umweltbedingungen gemeint ist), welche auch zu einer wichtigen Annahme der Neuen Institutionenökonomik wurde (siehe Williamson 1975). Ab den 1970er-Jahren wurde ein neues Paradigma ökonomischen Verhaltens, welches auf psychologischen Modellen der Entscheidungsfindung unter Risiko und Unsicherheit basiert, entworfen (siehe z. B. Kahneman und Tversky 1979; Shiller 1990). Dieses neue Modell hatte den Anspruch, die traditionelle Sichtweise (vollkommene Rationalität aller Marktteilnehmer) auf ökonomische Entscheidungen und auch Finanzmärkte (Behavioral Finance) zu ersetzen. Aber auch der verhaltensökonomische Ansatz unterlag im Laufe der Jahre verschiedenen Kritikpunkten. Zum einen existiert bis heute keine geschlossene verhaltensökonomische Finanztheorie, einzig eine Sammlung von individuellen Verhaltensanomalien besteht (Fama 1991; Roßbach 2001). Des Weiteren sind die Verhaltenseffekte oft widersprüchlich (siehe dazu Subrahmanyam 2007). Letztlich kann festgehalten werden, dass alle bisherigen Finanztheorien die Rationalitätsannahme hinsichtlich des Grades an Perfektion verändert haben, aber nicht mit Blick auf die Stationarität der Rationalität. Vor diesem Hintergrund will dieser Beitrag die folgenden zwei Forschungsfragen analysieren:
12 Verhaltens- und evolutionsökonomische …
233
• Forschungsfrage 1: Was sind die Hauptmerkmale bisheriger Finanzansätze? • Forschungsfrage 2: Wie kann die Evolutionsökonomik bisherige Finanzansätze integrieren und somit Finanzmarktprozesse zielführender erklären? Während die klassische Finanztheorie Konzepte, wie z. B. Optimierung und Gleichgewicht, aus der Physik entlehnt, entnimmt die verhaltensökonomische Finanzmarktforschung ihren Input aus der Psychologie und Soziologie. Eine evolutorische Finanzmarktforschung (Evolutionary Finance) dagegen entlehnt ihr Wissen aus der Biologie deren Relevanz schon von Hayek (1994) beobachtet wurde, insbesondere aus biologischen Modellen basierend auf evolutorischer Dynamik, Lernprozessen und Prinzipien der Selektion, Variation und Mutation im Sinne Darwins (Hens und Schenk-Hoppé 2005a). Der Beitrag ist dabei wie folgt strukturiert: Abschn. 12.2 präsentiert einen Überblick über bisherige Finanzmarkttheorien und -ansätze mit dem Ziel einer Ausarbeitung jeweiliger Hauptmerkmale. Abschn. 12.3 beschreibt den neuen Ansatz der evolutionären Finanzmarktforschung und nimmt einen Vergleich mit den Ergebnissen aus Abschn. 12.2 vor. Abschn. 12.4 bewertet die Ergebnisse aus Abschn. 12.2 und Abschn. 12.3 mittels einer kritischen Würdigung. Abschn. 12.5 präsentiert ein Fazit.
12.2 Bisherige Finanzmarkttheorien und -ansätze sowie deren Hauptcharakteristika 12.2.1 Klassische Finanztheorie und Markteffizienz Das Postulat, welches die Finanzmärkte seit den 1960er-Jahren dominiert hat, ist die Markteffizienzhypothese von Fama (1965, 1970). Die Grundlage dieser Theorie, welche auch einen großen Einfluss auf Investment- und Finanzierungsentscheidungen hatte, basiert auf drei theoretischen Argumenten (siehe Malkiel 1992; Nik und Maheran 2009; Sewell 2012): Die erste Annahme ist, dass Investoren rational sind und Wertpapiere am Markt rational bewertet werden. Die zweite Annahme basiert auf der Idee, dass jeder Investor sorgfältig Notiz von den verfügbaren Informationen nimmt, bevor er Investmententscheidungen trifft. Das dritte Prinzip sagt aus, dass der Entscheidungsträger immer ein Eigeninteresse verfolgt. Fama (1965) wies bereits darauf hin, dass, wenn Wertpapiermärkte von gut informierten, rationalen Anlegern durchdrungen sein würden, die Anlagen angemessen bewertet und die verfügbaren Informationen widerspiegeln würden (dies wurde auch schon von Hayek (1945) gesehen, wonach der Preis Sender und Empfänger von Informationen ist). Markteffizienzhypothese
Die Markteffizienzhypothese (engl. efficient market hypothesis) wurde 1970 von Eugene Fama als mathematisch-statistische Theorie der Finanzökonomie aufgestellt. Finanzmärkte, so die These, sind effizient, wenn vorhandene
234
T. Holtfort
Informationen bereits eingepreist sind und somit kein Marktteilnehmer in der Lage ist, dauerhaft überdurchschnittliche Gewinne zu erzielen.
Die Markteffizienzhypothese unterscheidet drei verschiedene Ebenen (Fama 1970): die schwache, halb-strenge und strenge Form von Markteffizienz, abhängig von variierenden Informationsständen. Die schwache Form der Markteffizienz sagt aus, dass sich die relevanten Informationen in allen aktuellen und vergangenen Preisen widerspiegeln. Diese Version der Hypothese impliziert, dass technische Analyse nicht nützlich ist. Die halb-strenge Form der Markteffizienz behauptet, dass der Markt in Bezug auf alle öffentlich verfügbaren Informationen effizient ist. Neben den Preisen in der Vergangenheit sind daher grundlegende Daten wie das Produktportfolio des Unternehmens, die Zusammensetzung der Bilanz, die Rechnungslegungspraktiken und die Qualität des Managements in den aktuellen Preisinformationen enthalten. Somit bietet die Fundamentalanalyse in dieser Kategorie keinen Mehrwert. Schließlich besteht die strenge Form der Markteffizienz darin, dass die Aktienkurse alle für das Unternehmen relevanten Informationen widerspiegeln, einschließlich der Informationen, die nur Insidern von Unternehmen zur Verfügung stehen. Zahlreiche wegweisende klassische finanzwirtschaftliche Modelle, wie die PortfolioSelection-Theorie von Markowitz (1952), das Capital Asset Pricing-Modell (CAPM) von Sharpe (1964) und Lintner (1965) sowie die von Black und Scholes (1973) und Merton (1973) vorgeschlagene Option-Pricing-Theorie, basieren auf dem Konstrukt des rationalen Agenten. Demnach sammelt und verarbeitet er alle verfügbaren Informationen, die für eine Entscheidung relevant sind, und kann so die beste Wahl für sich treffen (siehe Baltussen 2009). Die Markteffizienzhypothese ist ebenfalls eng mit dem Konzept des „Random Walk“ verbunden, was bedeutet, dass alle nachfolgenden Preisänderungen zufällige Abweichungen von vorherigen Preisen darstellen. Die Logik der Random-Walk-Idee lautet: Wenn der Informationsfluss uneingeschränkt ist und sich Informationen sofort in den Aktienkursen niederschlagen, spiegelt die Preisänderung von morgen nur die Nachrichten von morgen wider und ist unabhängig von den heutigen Preisänderungen. Die Nachrichten sind jedoch per definitionem unvorhersehbar, und folglich müssen auch die daraus resultierenden Preisänderungen unvorhersehbar und zufällig sein (Fama 1965, 1970). Die Dominanz der Markteffizienzhypothese in Forschung und Praxis, welche schnell infrage gestellt wurde (siehe z. B. LeRoy 1976), aber durch Fama (1976, 1991) auch unmittelbar theoretische Rechtfertigung fand, erfährt seit Beginn des 21. Jahrhunderts verstärkte Kritik. Viele Finanzinvestoren, Ökonomen und Statistiker glauben, dass Aktienkurse zumindest teilweise vorhersagbar sind (Statman 1997; Shefrin 2000; Shiller 2000a, b). Die Ansicht nimmt zu, dass psychologische und verhaltensbezogene Elemente der Aktienkursbestimmung mehr und mehr relevant sind und somit künftige Aktienkurse bis zu einem gewissen Grad aufgrund von Preismustern der Vergangenheit bestimmbar sind (Malkiel 2003; Asness et al. 2013). Diese vorhersagbaren Muster ermöglichen es den Anlegern daher, risikobereinigte Überrenditen zu erzielen.
12 Verhaltens- und evolutionsökonomische …
235
Trotz der zunehmenden Kritik an der Markteffizienzhypothese ist sie heute immer noch akzeptiert und für die Erklärung von Kursbewegungen relevant, wie die Verleihung des Nobelpreises an Fama im Jahr 2013 zeigt (Fama 2014). Mit dem nachfolgend beschriebenen Behavioral-Finance-Ansatz, abgeleitet aus der Verhaltensökonomie, wurde dennoch der Rationalitätsbegriff und damit verbunden die Figur des Homo oeconomicus deutlich relativiert.
12.2.2 Behavioral-Finance-Ansatz Schon zu Beginn der 1980er-Jahre verstärkte sich die Haltung, mehr Erkenntnisse der Verhaltenswissenschaften (Psychologie und Soziologie) in die Finanztheorie zu integrieren (siehe z. B. De Bondt und Thaler 1985, 1987, 1989; Shefrin und Statman 1985; Statman und Caldwell 1987; Camerer 1989; Jegadeesh und Titman 1993; De Bondt 1998; Odean 1998; Fisher und Statman 2000; Bernardo und Welch 2001; Hirshleifer 2001). Die Anhänger des Behavioral-Finance-Ansatzes betonen hierbei verschiedene Preismuster (z. B. Reversal- oder Momentum-Effekt), in denen die Realität der Markteffizienzhypothese zu widersprechen scheint. Daher schlägt die Verhaltensökonomie vor, Erkenntnisse aus den Verhaltenswissenschaften zielführend auf Prozesse an den Finanzmärkten zu übertragen. Behavioral Finance
Behavioral Finance beschäftigt sich mit der Psychologie der Anleger. Die Investoren am Kapitalmarkt und ihre typischen Verhaltensweisen stehen im Mittelpunkt des Interesses. Es geht darum aufzuzeigen, wie Anlageentscheidungen tatsächlich (deskriptiv) zustande kommen und welche Fehler (kognitive Verzerrungen bzw. Heuristiken) hierbei gemacht werden. Die bisher gewonnenen Erkenntnisse widersprechen häufig der Markteffizienzhypothese, wonach die Anleger effizient und rational handeln.
Behavioral Finance basiert auf der Vorstellung, dass nur eingeschränkte Rationalität bei den Investoren vorherrscht. Diese wird z. B. durch Grenzen des Wissens, kognitive Verzerrungen und emotionale Faktoren hervorgerufen (siehe Barberis und Thaler 2003). Literatur zur Psychologie im Allgemeinen und Behavioral Finance im Besonderen, welche u. a. auf die wegweisenden Laborexperimente von Kahneman und Tversky (1979, 1984) und Tversky und Kahneman (1973, 1974, 1981) und Kahneman (2011) sowie die Pionierarbeiten von De Bondt und Thaler (1985, 1987, 1989) zurückgeht, kommt zu der Erkenntnis, dass wirtschaftliches Verhalten oft durch einfache heuristische Regeln (verursacht durch cognitive biases) und Rahmeneffekte (framing) besser erklärt werden kann als durch rationale Optimierung.
236
T. Holtfort
Diese sogenannten Verhaltensanomalien lassen sich nach Roßbach (2001) wie folgt unterscheiden: Wahrnehmungs-, Urteils- und Entscheidungsanomalien. Beispiele für Wahrnehmungsanomalien sind die selektive Wahrnehmung und die Verfügbarkeitsheuristik. Im Rahmen der selektiven Wahrnehmung werden überwiegend nur solche Informationen wahrgenommen, die den eigenen Vorstellungen und Meinungen entsprechen (siehe z. B. Oehler 1992). Übertragen auf Investmententscheidungen könnte somit ein Investor nach einem Aktienkauf Gefahr laufen, Informationen (z. B. aus den Medien), die seinem Kauf widersprechen, zu verdrängen oder zu vernachlässigen. Damit erhöht er aber in der Folge sein Risikoprofil.1 Verfügbarkeitsheuristik bedeutet, dass Informationen, welche leicht im Gehirn abgerufen werden können (hier ist die sogenannte Abrufflüssigkeit relevant, siehe Schwarz et al. 1991) tendenziell überbewertet werden. Einfluss auf die Verfügbarkeit hat hierbei die Anschaulichkeit, Auffälligkeit, Dramatik oder der persönliche Bezug der jeweiligen Information (siehe Roßbach 2001). So macht es z. B. einen Unterschied, ob ein Bankberater das Risiko eines Investmentfonds rein verbal oder eher mithilfe von Grafiken, welche Informationen verdichten und somit verfügbarer machen, erläutert. Beispiele für Urteilsanomalien sind die Ankerheuristik und die Verlustaversion. Bei der Ankerheuristik orientieren sich Schätzungen und Prognosen häufig zu stark an den Ausgangsdaten (dem sogenannten Anker, siehe Goldberg und Nitzsch 2000). In der Folge geschieht die Anpassung an diesen Anker zu langsam und führt zu Fehlschätzungen. Am Finanzmarkt können hier z. B. runde Kursmarken oder Prognosen von Finanzanalysten einen Ankereffekt bei Investoren hervorrufen. Die Verlustaversion sagt aus, dass Verluste in der Regel zwei- bis dreimal so stark empfunden werden wie Gewinne in gleicher Höhe (Kahneman 2011). Die Konsequenz ist, dass Investoren gerne ihre noch nicht realisierten Verluste aussitzen, anstatt diese zu realisieren, bevor der Verlust noch weiter zunimmt. Ein Beispiel für Entscheidungsanomalien sind die Repräsentativitätsheuristik und die Selbstüberschätzung. Repräsentativität beschreibt die Suche bei Individuen nach stereotypen Mustern in Sachverhalten, wobei aber gleichzeitig Informationen über statistische Basisraten vernachlässigt werden (Oehler 1992; Shiller 1990). In Unternehmen werden deshalb häufig die Erfolgsaussichten bei M&A-Transaktionen überschätzt (Studien zeigen, dass die meisten Transaktionen scheitern, siehe z. B. Bradley et al. 1988; Agarwal et al. 1992). Im Rahmen der Selbstüberschätzung (Overconfidence) tendieren Individuen dazu, ihre eigenen Fähigkeiten bzw. ihr Wissen als überdurchschnittlich einzuschätzen (Brenner et al. 1996). In der Folge werden nur solche Informationen in die Entscheidungsfindung einbezogen, die der Bestätigung einer bereits vorgefassten
1Solche
Risiken könnten zukünftig z. B. durch neue digitale Techniken, wie Robo Advisor (roboterähnliche Berater im Internet) abgemildert werden. Diese unterliegen, im Gegensatz zum Menschen, keinen Heuristiken.
12 Verhaltens- und evolutionsökonomische …
237
Meinung dienen. Bei Investoren kann diesbezüglich festgestellt werden, dass bei Vorliegen von overconfidence (z. B. aufgrund von vergangenen Erfolgen) tendenziell die Transaktionskosten in einem Börsenjahr überdurchschnittlich hoch sind (siehe z. B. Barber und Odean 2000; Glaser und Weber 2007). Demnach sind sich solche Investoren zu sicher in ihren Kauf- und Verkaufsentscheidungen und erhöhen ihr Handelsvolumen.2 Eine der wichtigsten Errungenschaften des Behavioral-Finance-Ansatzes ist die Möglichkeit, reale Phänomene an den Kapitalmärkten besser zu erklären (z. B. Preisblasen oder übermäßige Volatilität, siehe z. B. Shiller 1990, 2000a, b), die laut klassischer Finanztheorie nicht existieren dürften (siehe Roßbach 2001). Darüber hinaus haben insbesondere die grundlegenden Arbeiten von Kahneman und Tversky im Bereich Verhaltensökonomie/Behavioral Finance einerseits und die von Thaler und Bernartzi (2004) sowie Thaler und Sunstein (2008) andererseits der gesamten Wirtschaftswissenschaft entscheidende Impulse geliefert, was einige Jahre später jeweils mit dem Nobelpreis honoriert wurde: Im Jahre 2002 ging der Nobelpreis an Kahneman, „for having integrated insights from psychological research into economic science, especially concerning human judgment and decision-making under uncertainty“ (Nobel Committee 2002) und im Jahre 2017 an Richard Thaler „for integrating economics with psychology“ (Nobel Committee 2017). Schließlich ist zu erwähnen, dass die Verhaltensökononomie/Behavioral Finance in den letzten Jahren stark durch die Erkenntnisse der Neuroökonomie (Symbiose aus Neurowissenschaften und Ökonomie) aufgewertet worden ist (siehe grundlegend Schilke und Reimann 2007).
12.2.3 Hauptcharakteristika bisheriger Finanztheorien und -ansätze Nach einer Darstellung bisheriger Finanztheorien bzw. -ansätze werden in Tab. 12.1 die Hauptmerkmale dieser Ansätze analysiert (Forschungsfrage 1), um einer Integration durch eine stärker evolutorische Finanzmarktforschung den Weg zu bereiten. Im Hinblick auf die bisher vorgestellten Ansätze stellt sich vor allem die Frage, inwieweit die klassische Finanztheorie einerseits und Behavioral Finance anderseits Gegensätze darstellen (der Investor entweder als rein rationales oder heuristisches Wesen) oder ob sie bloß zwei Seiten der gleichen Medaille sind. Diese Frage wird nachfolgend anhand des Evolutionary-Finance-Ansatzes analysiert und bewertet.
2Auch
hier werden künftig digitale Robo Advisor Vorteile haben, da sie sich nicht von vergangenen Erfolgen beeinflussen lassen. Somit haben Emotionen auch keinen Einfluss auf das Handelsvolumen.
238
T. Holtfort
Tab. 12.1 Hauptmerkmale bisheriger Finanztheorien bzw. -ansätze Klassische Finanztheorie
Behavioral Finance
Methodologie
Normativ
Deskriptiv
Bedeutung des Individuums
Das Individuum steht im Fokus Der Fokus liegt auf dem Individuum, aber ebenso wird auch dessen Einfluss auf Märkte beobachtet
Grad der angenommenen Rationalität
Strenge Rationalität
Aufgrund von Heuristiken wird ein gewisser Grad an Irrationalität angenommen
Wichtige Konzepte oder Modelle
Portfolio-Theorie, CAPM, Markteffizienzhypothese, Optionspreismodell
Heuristiken und Rahmeneffekte, Marktanomalien
Bedeutende Forscher
Fama, Markowitz, Sharpe, Lintner, Black, Scholes
Kahneman, Tversky, Shiller, Thaler
Nützliche Hilfsdisziplinen
Mathematik und Physik (Fokus Psychologie und Soziologie auf Marktgleichgewichten) (Fokus auf Heuristiken sowie Gier und Panik)
Gründe/Auslöser für die Entwicklung der Theorie
Transfer des Gleichgewichtsansatzes/vollkommener Märkte aus der neoklassischen Theorie auf den Kapitalmarkt
Steigende Volatilitäten an den Finanzmärkten seit den 1990er-Jahren, Entstehung und Platzen der dotcom-Blase
12.3 Evolutionary Finance – Ein neuer Ansatz zur Erklärung von Finanzmarktprozessen 12.3.1 Evolutionsökonomie In den letzten drei Jahrzehnten wurde die ökonomische Forschung stark vom evolutionären Denken angeregt (siehe z. B. Mirowski 1983; Winter 1987; Rosenberg 1994; Witt 1999, 2003, 2004, 2008; Hodgson 2004; Shiozawa 2004; Aldrich et al. 2008). Vor allem die Veröffentlichung „An evolutionary theory of economic change“ von Nelson und Winter (1982) hat hierbei eine Art Führungsrolle übernommen. Die Autoren äußerten erhebliche Einwände gegen die grundlegenden klassischen Ansätze, die auf Gewinnmaximierung und Marktgleichgewichten basieren, und konzentrierten ihre Kritik auf die grundlegende Frage, wie sich Unternehmen und Branchen im Laufe der Zeit verändern (Nelson und Winter 1982). Darüber hinaus entlehnten sie das Konzept der natürlichen Auslese aus der Biologie, um eine genaue und detaillierte Evolutionstheorie von unternehmerischem Verhalten, und damit Modelle wettbewerbsfähiger Unternehmensdynamiken unter Wachstumsbedingungen und technologischem Wandel, entwickeln zu können (Nelson und Winter 2002). Ein Hauptbegriff im evolutionären
12 Verhaltens- und evolutionsökonomische …
239
Ansatz von Nelson/Winter ist das Konzept der Routinen, die ihrerseits (1) die Annahme einer Regel durch einen Informationsträger (z. B. Mitarbeiter eines Unternehmens, die Wissen generieren) und (2) die Beibehaltung der Regel für wiederkehrende Vorgänge voraussetzt (siehe Nelson und Winter 1982; Herrmann-Pillath 2002; Dopfer 2007). So kann das Spezialwissen in Unternehmen im Laufe der Zeit zu Wettbewerbsvorteilen und in der Folge zu dynamischen Verdrängungsprozessen führen. Die Grundlagen des evolutionären ökonomischen Denkens finden sich allerdings viel früher, vor allem in den Werken von Menger (1871), Veblen (1898), Marshall (1898), Schumpeter (1911), Mises (1940) und Hayek (1945), die in ihren Arbeiten schon wichtige Grundbegriffe erläuterten, welche heute Säulen der Evolutionsökonomie darstellen. Menger (1871, 1883) gilt als Begründer der Österreichischen Schule, die in der klassischen Wirtschaftstheorie eine heterodoxe Haltung einnahm und sich auf die Idee der evolutionären Schaffung von Wissen sowie auf die dynamische Unsicherheit wirtschaftlicher Prozesse konzentrierte. Es war Veblen (1898), der den Begriff der Evolutionsökonomie in die Wirtschaft einführte. Er tat dies in Anerkennung der Tatsache, dass die Natur der modernen Wirtschaft am besten durch die Bezugnahme auf ihre Dynamik erfasst werden kann. Darüber hinaus betonte Marshall (1898) die Bedeutung der Evolutionsbiologie für die Wirtschaftswissenschaften, während Schumpeter (1911, 1935, 1942, 1954) den rivalisierenden Charakter der Wettbewerbsprozesse und den Moment des kreativ zerstörerischen Unternehmers in den Mittelpunkt seiner Überlegungen stellte. Mises (1940, 1949), der die Tradition der Österreichischen Schule fortsetzte, wies auf die Notwendigkeit eines dezentralen Informationssystems hin, welches für das Funktionieren der Märkte von entscheidender Bedeutung ist und auf eine zentrale Planung verzichtet. Schließlich sah Hayek (1945, 1973, 1976, 1979) das Wesen der modernen Marktwirtschaft in der ausgeprägten Komplexität, der beschleunigten Entwicklung und der ungleichen Verteilung des Wissens. Zusammenfassend kann gesagt werden, dass sich die Evolutionsökonomie im Wesentlichen mit Umwandlungsprozessen, wie strukturellem Wandel (z. B. einer Branche), technologischem Wandel (z. B. aufgrund von Substitution, wie aktuell durch Digitalisierung), institutionellen Veränderungen (z. B. neue Regeln) oder wirtschaftlicher Entwicklung im Allgemeinen, beschäftigt. Witt (1987) betont in diesem Zusammenhang, dass der Begriff evolutionär zwar durch verschiedene Forschungsrichtungen unterschiedlich interpretiert wird (z. B. Konzepte aus der Evolutionsbiologie, Konzept der Pfadabhängigkeit, Selbstorganisation komplexer Systeme oder institutionell-kultureller Wandel), dennoch besteht ein gewisses Maß an Einigkeit über folgende Grundelemente: Fokus auf wirtschaftliche Dynamik als fortschreitender Prozess, zeitinduzierte Pfadabhängigkeit (wirtschaftliche Entwicklung wird von der Vergangenheit beeinflusst) und Erklärung von Innovationen (wie bspw. sogenannte Fintechs, also internetbasierte Finanzlösungen) und deren Verbreitung.
240
T. Holtfort
12.3.2 Evolutionary Finance Während sich die Evolutionsökonomie auf dynamische, wissensbasierte Probleme und die Unsicherheit von Märkten, Branchen, Unternehmen und Akteuren im Allgemeinen bezieht, befasst sich Evolutionary Finance mit der Dynamik der Finanzmärkte anhand biologischer Evolutionsmodelle (Hens und Schenk-Hoppé 2005a). Diese Modelle untersuchen das Zusammenspiel von Strategien am Finanzmarkt, in denen die natürliche Selektion die Vielfalt der Strategien einschränkt, während die Mutation ständig neue Strategien schafft (Evstigneev et al. 2008). Gemäß Lo (2017) können Alchian (1950) und später Hirshleifer (1977) als Pioniere der evolutionären Finanzmarktforschung angesehen werden. Alchian befasste sich vor allem mit der Frage, warum einige Unternehmen (auch Finanzunternehmen) erfolgreicher waren als andere, und stellte fest, dass das Überleben des Unternehmens ein evolutionärer Prozess der Variation und Auswahl ist (Alchian 1950; zur Kritik an Alchian siehe Penrose 1952). Er legte den Grundstein für Hirshleifer, der auf allen Ebenen der Wirtschaft (einschließlich der Finanzmärkte; Hirshleifer 1977) revolutionäre Kräfte sah. In den 1990er-Jahren legten die Forschungen zu computergestützten agentenbasierten Modellen am Santa Fe Institute (genannt The Santa Fe Artificial Stock Market) wichtige Grundlagen für ein tieferes Verständnis der Funktionsweise der Finanzmärkte (siehe beispielsweise Blume und Easley 1992; Palmer et al. 1994; Arthur et al. 1997; Farmer 1998; Farmer und Lo 1999). Finanzmärkte sind demnach komplexe, dynamische Systeme mit verschiedenen Arten von Investoren (Agenten), insbesondere fundamental orientierten Investoren und technischen Tradern (Brock und Hommes 1998; Lux und Marchesi 2000; Föllmer et al. 2005). In Abgrenzung zu Tab. 12.1 können die folgenden Merkmale von Evolutionary Finance aus der Literatur abgeleitet werden: • Evolutionary Finance ist beides, normativ und deskriptiv zugleich (siehe Hens und Schenk-Hoppé 2005a, 2009). • Evolutionary Finance fokussiert sich auf Marktstrategien und nicht auf den Investor, welcher nur ein geringes Gewicht am Markt hat (siehe Evstigneev et al. 2008, 2013; Hens und Schenk-Hoppé 2005b). • Evolutionary Finance unterstellt eine Bandbreite an Investoren auf dem Markt, von vollkommen rational bis zu irrational, wobei Investoren die Fähigkeit haben zu lernen und sich an neue Umweltbedingungen anzupassen (siehe Evstigneev et al. 2016; Föllmer et al. 2005; Hens und Schenk-Hoppé 2005a; Lo 2017). • Evolutionary Finance beinhaltet wichtige Modelle/Konzepte, wie z. B. Computeragentenbasierte Modelle, adaptive Markthypothese und evolutionär stabile Strategien (siehe Hens und Schenk-Hoppé 2009; Hommes 2009; LeBaron et al. 1999; LeBaron 2006, 2016; Lo 2004). • Evolutionary Finance wurde von verschiedenen wichtigen Forschern, wie bspw. Arthur, Farmer, Hens, LeBaron, Lo und Palmer, beeinflusst (ebenso spielen die grund-
12 Verhaltens- und evolutionsökonomische …
241
legenden Ideen von Hayek und Alchian zu evolutionären Prozessen eine wichtige Rolle). • Evolutionary Finance nutzt Hilfsdisziplinen wie die Biologie und Mathematik. Der Fokus liegt dabei auf der Modellierung von Dynamik, Komplexität, Selektion, Variation und Mutation (siehe Hens und Schenk-Hoppé 2005a). • Evolutionary Finance wurde sowohl entwickelt, um die Entstehung von Preisblasen und Krisen, als auch, um erhöhte Volatilitäten und die Modellierung von Märkten in einer Post-crisis-Phase erklären zu können (siehe Evstigneev et al. 2016; LeBaron 2012).
12.4 Kritische Würdigung des Evolutionary-Finance-Ansatzes Wie die Ausführungen in Abschn. 12.3 gezeigt haben, könnte der Evolutionary-FinanceAnsatz die Diskrepanz zwischen der klassischen Finanztheorie und dem BehavioralFinance-Ansatz integrierend überwinden (Forschungsfrage 2). So wird deutlich, dass Evolutionary Finance ein Modell der Portfolioauswahl und der Preisdynamik vorgibt, welches, insbesondere aus Gründen der Rationalität und basierend auf dem Gegensatz zwischen der klassischen Theorie und dem Behavioral-Finance-Ansatz, von dem Vorhandensein verschiedener Investorentypen am Finanzmarkt ausgeht. Entsprechend können die Anlegerstrategien aus einer rationalen Maximierung bezüglich einer erwarteten Nutzenfunktion, einfachen Heuristiken im Sinne von Behavioral Finance oder anreizorientiertem Principal-Agent-Denken gemäß der Neuen Institutionenökonomik resultieren (siehe Hens 2006). Ebenso nutzt Evolutionary Finance Erkenntnisse aus der Biologie (deren Relevanz für die Ökonomie bereits von Marshall und Hayek festgestellt wurde), insbesondere aus biologischen Modellen, welche auf evolutionären Dynamiken gemäß Charles Darwins Prinzipien der Selektion, Variation und Mutation basieren (Hens und Schenk-Hoppé 2005a). Bisherige Forschungsergebnisse an Computermodellen zeigen hierbei, dass sogenannte evolutionär stabile Strategien bzw. Portfolioregeln existieren, welche im Laufe der Zeit mehr Kapital an sich ziehen und somit andere Strategien im Sinne einer Selektion verdrängen (siehe z. B. Anufriev und Dindo 2010; Evstigneev et al. 2002; Hens et al. 2002). Dieser Gedanke ist auch vereinbar mit Talebs evolutionärer Theorie des Zufalls (siehe Taleb 2007, 2012), wonach die Zukunft das Ergebnis der Auslese des Fragilen (irrationale Investoren und ihre Strategien) und des Überlebens des Antifragilen (lernende Investoren und ihre evolutionär stabile Strategie) darstellt. Bezugnehmend auf Lo (2004, 2005) und seine adaptive Markthypothese, ermöglicht der Transfer von biologischem Denken auf die Finanzmärkte, dass die Investoren, welche als biologische Einheiten gesehen werden (getrieben von evolutionären Kräften), ihr Verhalten aufgrund von Lerneffekten über die Zeit anpassen. Demnach existieren in einem evolutionären Finanzmarkt Investoren mit verschiedenen Ebenen an Rationalität, welche langfristig im Sinne einer dynamischen Rationalität von der Vergangenheit
242
T. Holtfort
lernen, sich an neue Umweltbedingungen anpassen und neues Wissen aneignen (Lo 2017). Evolutionary Finance kann somit bisherige Finanztheorien und -ansätze zu einem höheren Erklärungswert des Verhaltens an den Finanzmärkten vereinen, ohne die Annahme der Rationalität vollständig aufzugeben. Rationalität und effiziente Märkte sind demnach als dynamische Konzepte, abhängig von den Lernfähigkeiten der Anleger und den jeweiligen Marktbedingungen, zu verstehen. Dementsprechend sind einige Märkte effizienter als andere, und daher sind das CAPM und die Portfoliotheorie in bestimmten Marktumgebungen schlechte Näherungslösungen. Ebenso betont die Evolutionary-Finance-Forschung, dass es kein dauerhaftes Gleichgewicht an den Finanzmärkten geben kann (im Gegensatz zur klassischen Theorie), sondern aufgrund der Interaktion verschiedener Investorengruppen (fundamental orientierte Investoren versus technische Trader) und Strategien es immer wieder zu starken Preisdynamiken und hohen Volatilitäten kommt (siehe Chiarella und He 2001; Gaunersdorfer et al. 2008; Lux und Marchesi 2000). Damit der Evolutionary-Finance-Ansatz aber weitere Anerkennung in der Wissenschaft und Investmentpraxis erfährt, müssen zukünftige Fortschritte in folgenden Bereichen umgesetzt werden: • Weitere Erforschung der Lernprozesse von Investoren (z. B. die Rolle unbewussten Lernens und der Einfluss der Neuroökonomie). • Mehr empirische Beweise anhand realer Marktdaten, um die Anwendbarkeit für Investoren zu erhöhen. • Die Notwendigkeit einer weitergehenden Modellierung von Märkten in Post-crisisPhasen, um die Komplexität der Märkte besser zu verstehen (z. B. hohe Volatilitäten und Preisdynamik). • Weitere methodologische Forschung hin zu einer einheitlichen, evolutionären Finanztheorie.
12.5 Fazit Der vorliegende Beitrag hat eine Unterscheidung zwischen bisherigen Finanztheorien bzw. -ansätzen und dem Evolutionary-Finance Ansatz, welcher sich aus der Evolutionsökonomik ableiten lässt, vorgenommen. Die Bewertung von Evolutionary Finance legt nahe, dass dieser Ansatz die klassische Finanztheorie und den BehavioralFinance-Ansatz in einer Synthese vereinen kann. Darüber hinaus ist das Konzept der dynamischen Rationalität aufgrund von Lernprozessen und Anpassung an neue Umweltbedingungen (z. B. Digitalisierung) seitens der Investoren für die Integration nützlich. Famas Markteffizienzhypothese darf von daher nicht als falsch betrachtet werden, aber sie ist unvollständig, da sie die Relevanz der Dynamik von Finanzmarktprozessen nicht einbezieht.
12 Verhaltens- und evolutionsökonomische …
243
Die Verhaltens- und die Evolutionsökonomie haben somit in den letzten Dekaden einen wichtigen Beitrag für die Weiterentwicklung des Verständnisses von Finanzmärkten geleistet. Auch wenn die klassische Finanztheorie in vielen Bereichen, wie bspw. Hochschulen oder Investmentpraxis, immer noch State of the Art ist, muss konstatiert werden, dass die Annahme einer strengen Rationalität kein allgemeingültiges Konzept mehr sein kann.
Literatur Agarwal, A., Jaffe, J., & Mandelker, G. (1992). The post-merger performance of acquiring firms: A re-examination of an anomaly. The Journal of Finance, 47(4), 1605–1621. Alchian, A. (1950). Uncertainty, evolution and economic theory. The Journal of Political Economy, 58(3), 211–221. Aldrich, H., Hodgson, G., Hull, D., Knudsen, T., Mokyr, J., & Vanberg, V. (2008). In Defense of Generalized Darwinism. Working Paper. Chapel Hill: University of North Carolina. Anufriev, M., & Dindo, P. (2010). Wealth-driven selection in a financial market with heterogeneous agents. Journal of Economic Behavior & Organization, 73(3), 327–358. Arthur, W., Holland, J., LeBaron, B., Palmer, R., & Tayler, P. (1997). Asset pricing under endogeneous expectations in an artificial stock market. Working Paper. New Mexico: Santa Fe Institute. Asness, C., Moskowitz, T., & Pedersen, L. H. (2013). Value and momentum everywhere. Journal of Finance, 68(3), 929–985. Baltussen, G. (2009). Behavioral finance: An introduction. Working Paper. New York: Stern School of Business. Barber, B., & Odean, T. (2000). Trading Is Hazardous to your wealth: The common stock investment performance of individual investors. The Journal of Finance, 55(2), 773–806. Barberis, N., & Thaler, R. (2003). A survey of behavioral finance. In G. M. Constantinides, M. Harris, & R. M. Stulz (Hrsg.), Handbook of the economics of finance (S. 1053–1128). Amsterdam: Elsevier. Bernardo, A., & Welch, I. (2001). On the evolution of overconfidence and entrepreneurs. Journal of Economics and Management Strategy, 10(3), 301–330. Black, F., & Scholes, M. (1973). The pricing of options and corporate liabilities. Journal of Political Economy, 81(3), 637–654. Blume, L., & Easley, D. (1992). Evolution and market behavior. Journal of Economic Theory, 58(1), 9–40. Bradley, M., Desai, A., & Kim, E. (1988). Synergistic gains from corporate acquisitions and their division between the stockholders of target and acquiring firm. Journal of Financial Economics, 21(1), 3–40. Brenner, L., Koehler, D., Liberman, V., & Tversky, A. (1996). Overconfidence in probability and frequency judgments: A critical examination. Organizational Behavior and Human Decision Processes, 65(3), 212–219. Brock, W. A., & Hommes, C. (1998). Heterogeneous beliefs and routes to chaos in a simple asset pricing model. Journal of Economic Dynamics and Control, 22(8–9), 1235–1274. Camerer, C. (1989). Bubbles and fads in asset prices. Journal of Economic Surveys, 3(1), 3–41. Campbell, J. (2000). Asset pricing at the millennium. Journal of Finance, 55(4), 1515–1567.
244
T. Holtfort
Chiarella, C., & He, X. (2001). Asset price and wealth dynamics under heterogeneous expectations. Quantitative Finance, 1(5), 509–526. De Bondt, W. (1998). A portrait of the individual investor. European Economic Review, 42(3–5), 831–844. De Bondt, W., & Thaler, R. (1985). Does the stock market overreact? Journal of Finance, 40(3), 793–805. De Bondt, W., & Thaler, R. (1987). Further evidence on investor overreaction and stock market seasonality. Journal of Finance, 42(3), 557–581. De Bondt, W., & Thaler, R. (1989). Anomalies: A mean-reverting walk down wall street. Journal of Economic Perspectives, 3(1), 189–202. Dopfer, K. (2007). Grundzüge der Evolutionsökonomie – Analytik, Ontologie und theoretische Schlüsselkonzepte. Working Paper No. 2007-10. St. Gallen: University of St. Gallen Department of Economics. Evstigneev, I., Hens, T., & Schenk-Hoppé, K. R. (2002). Market selection of financial trading strategies: Global stability. Mathematical Finance, 12(4), 329–339. Evstigneev, I., Hens, T., & Schenk-Hoppé, K. R. (2008). Globally evolutionarily stable portfolio rules. Journal of Economic Theory, 140(1), 197–228. Evstigneev, I., Hens, T., & Schenk-Hoppé, K. R. (2016). Evolutionary behavioral finance. In E. Haven, P. Molyneux, J. Wilson, S. Fedotov, & M. Duygun (Hrsg.), The Handbook of Post Crisis Financial Modeling (S. 214–234). London: Palgrave Macmillan. Evstigneev, I., Schenk-Hoppé, K. R., & Ziemba, W. T. (2013). Introduction: Behavioral and evolutionary finance. Annals of Finance, 9(2), 115–119. Fama, E. (1965). The behavior of stock market prices. Journal of Business, 38(1), 34–105. Fama, E. (1970). Efficient capital markets: A review of theory and empirical work. Journal of Finance, 25(2), 383–417. Fama, E. (1976). Efficient capital markets: Reply. Journal of Finance, 31(1), 143–145. Fama, E. (1991). Efficient capital markets: II. Journal of Finance, 46(5), 1575–1617. Fama, E. (2014). Two pillars of asset pricing. American Economic Review, 104(6), 1467–1485. Farmer, J. (1998). Market Force, Ecology and Evolution. Working Paper. New Mexico: Santa Fe Institute. Farmer, J., & Lo, A. (1999). Frontiers of finance: Evolution and efficient markets. National Academy of Science USA, 96(18), 9991–9992. Fisher, K., & Statman, M. (2000). Investor sentiment and stock returns. Financial Analysts Journal, 56(2), 16–23. Föllmer, H., Horst, U., & Kirman, A. P. (2005). Equilibria in financial markets with heterogeneous agents: A probabilistic perspective. Journal of Mathematical Economics, 41(1–2), 123–155. Gaunersdorfer, A., Hommes, C., & Wagener, F. (2008). Bifurcation to volatility clustering under evolutionary learning. Journal of Economic Behavior & Organization, 67(1), 27–47. Glaser, M., & Weber, M. (2007). Overconfidence and trading volume. The Geneva Risk and Insurance Review, 32(1), 1–36. Goldberg, J., & von Nitzsch, R. (2000). Behavioral finance. München: FinanzBuch Verlag. Hayek, F. A. (1945). The use of knowledge in society. American Economic Review, 35(4), 519– 530. Hayek, F. A. (1973). Law, legislation and liberty, I, rules and order. Chicago: University of Chicago Press. Hayek, F. A. (1976). Law, legislation and liberty, II, rules and order. Chicago: University of Chicago Press. Hayek, F. A. (1979). Law, legislation and liberty, III, rules and order. Chicago: University of Chicago Press.
12 Verhaltens- und evolutionsökonomische ···
245
Hayek, F. A. (1994). Hayek on Hayek: An Autobiographical Dialogue. Chicago: University of Chicago Press. Hens, T. (2006). Foxes and Rabbits. CFA Institute Magazine, 17(2), 38–41. Hens, T., & Schenk-Hoppé, K. R. (2005a). Evolutionary finance: Introduction to the special issue. Journal of Financial Mathematics, 41(1–2), 1–5. Hens, T., & Schenk-Hoppé, K. R. (2005b). Evolutionary stability of portfolio rules in incomplete markets. Journal of Financial Mathematics, 41(1–2), 43–66. Hens, T., & Schenk-Hoppé, K. R. (2009). Handbook of Financial Markets. Amsterdam: Elsevier. Hens, T., Schenk-Hoppé, K. R., & Stalder, M. (2002). An application of evolutionary finance to firms listed in the swiss market index. Swiss Journal of Economics and Statistics, 138(4), 465– 487. Herrmann-Pillath, C. (2002). Grundriß der Evolutionsökonomik. Stuttgart: Utb. Hirshleifer, J. (1977). Economics from a biological viewpoint. Journal of Law and Economics, 20(1), 1–52. Hirshleifer, D. (2001). Investor psychology and asset pricing. Journal of Finance, 56(4), 1533– 1597. Hodgson, G. (2004). The evolution of institutional economics: Agency, structure and Darwinism in American Institutionalism. London: Routledge. Hommes, C. (2009). Heterogeneous agent models in economics and finance. In K. Schmedders & K. Judd (Hrsg.), Handbook of computational economics (S. 1109–1186). Amsterdam: NorthHolland. Jegadeesh, N., & Titman, S. (1993). Returns to buying winners and selling losers: Implications for stock market efficiency. Journal of Finance, 48(1), 65–91. Kahneman, D. (2011). Thinking fast and slow. London: Penguin. Kahneman, D., & Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica, 47(2), 263–291. Kahneman, D., & Tversky, A. (1984). Choices, values and frames. American Psychologist, 39(4), 341–350. Kirman, A. (2010). The economic crisis is a crisis for economic theory. CESifo Economic Studies, 56(4), 498–535. Krugman, P. (2009). The return of the depression economics and the crisis of 2008. New York: Norton. LeBaron, B. (2006). Agent-based computational finance. In K. Schmedders & K. Judd (Hrsg.), Handbook of computational economics (S. 1187–1233). Amsterdam: North-Holland. LeBaron, B. (2012). Wealth dynamics and a bias toward momentum trading. Finance Research Letters, 9(1), 21–28. LeBaron, B. (2016). Financial price dynamics and agent-based models as inspired by benoit mandelbrot. The European Physical Journal Special Topics, 225(17–18), 3243–3254. LeBaron, B., Arthur, W., & Palmer, R. (1999). Time series properties of an artificial stock market. Journal of Economic Dynamics and Control, 23(9–10), 1487–1516. LeRoy, S. (1976). Efficient capital markets: Comment. Journal of Finance, 31(1), 139–141. Lintner, J. (1965). The valuation of risk assets on the selection of risky investments in stock portfolios and capital budgets. Review of Economics and Statistics, 47(1), 13–37. Lo, A. (2004). The adaptive markets hypothesis: Market efficiency from an evolutionary perspective. Journal of Portfolio Management, 30(5), 15–29. Lo, A. (2005). Reconciling efficient markets with behavioral finance: The adaptive markets hypothesis. Journal of Investment Consulting, 7(2), 21–44. Lo, A. (2017). Adaptive markets: Financial evolution at the speed of thought. New Jersey: Princeton University Press.
246
T. Holtfort
Lux, T., & Marchesi, M. (2000). Volatility clustering in financial markets. International Journal of Theoretical and Applied Finance, 3(4), 675–702. Malkiel, B. (1992). Efficient market hypothesis. In P. Newman, M. Milgate, & J. Eatwell (Hrsg.), New Palgrave dictionary of money and finance. New York: Macmillan. Malkiel, B. (2003). The efficient market hypothesis and its critics. Journal of Economic Perspectives, 17(1), 59–82. Markowitz, H. (1952). Portfolio selection. Journal of Finance, 7(1), 77–91. Marshall, A. (1898). Distribution and exchange. The Economic Journal, 8(29), 37–59. Menger, C. (1871). Principles of economics. Wien: Braumüller. Menger, C. (1883). Investigations into the method of the social science with special reference to economics. Berlin: Duncker & Humblot. Merton, R. C. (1973). Theory of rational option pricing. The Bell Journal of Economics and Management Science, 4(1), 141–183. Mirowski, P. (1983). Review of an evolutionary theory of economic change. Journal of Economic Issues, 17(3), 757–768. Mises, L. (1940). Nationalökonomie: Theorie des Handelns und Wirtschaftens. Genf: Editions Union Genf. Mises, L. (1949). Human action: A treatise on economics. New Haven: Yale University Press. Nelson, R., & Winter, S. (1982). An evolutionary theory of economic change. Cambridge: Belknap Press. Nelson, R., & Winter, S. (2002). Evolutionary theorizing in economics. Journal of Economic Perspectives, 16(2), 23–45. Nik, M., & Maheran, M. (2009). Behavioral Finance vs Traditional Finance. Advanced Management Journal, 2(6), 1–10. Nobel Committee (2002). Press Release. 9. October 2002. http://www.nobelprize.org/nobel_ prizes/economic-sciences/laureates/2002/press.html. Zugegriffen: 19. Okt. 2018. Nobel Committee. (2017). Press Release: The Prize in Economic Sciences 2017. 9. October 2017. https://www.nobelprize.org/nobel_prizes/economic-sciences/laureates/2017/press.html. Zugegriffen: 21. Okt. 2018. Odean, T. (1998). Are investors reluctant to realize their losses? Journal of Finance, 53(5), 1775– 1798. Oehler, A. (1992). Anomalien, Irrationalitäten oder Biases der Erwartungsnutzentheorie und ihre Relevanz für Finanzmärkte. Zeitschrift für Bankrecht und Bankwirtschaft, 2, 97–124. Palmer, R., Arthur, W., Holland, J., LeBaron, B., & Tayler, P. (1994). Artificial economic life: A simple model of a stockmarket. Physica D: Nonlinear Phenomena, 75(1–3), 264–274. Penrose, E. (1952). Biological analogies in the theory of the firm. American Economic Review, 42(5), 804–819. Rosenberg, A. (1994). Does Evolutionary Theory Give Comfort or Inspiration to Economics? In P. Mirowski (Hrsg.), Natural images in economic thought: Markets read in tooth and claw (S. 384–407). Cambridge: Cambridge University Press. Roßbach, P. (2001). Behavioral Finance: Eine Alternative zur vorherrschenden Kapitalmarkttheorie? Working Paper. Hochschule für Bankwirtschaft, No. 31, Frankfurt a. M.: Hochschule für Bankwirtschaft. Schilke, O., & Reiman, M. (2007). Neuroökonomie: Grundverständnis, Methoden und betriebswirtschaftliche Anwendungsfelder. Journal für Betriebswirtschaft, 57, 247–262. Schumpeter, J. (1911). The theory of economic development: An inquiry into profits, capital, credit, interest and the business cycle. Cambridge: Harvard Economic Studies. Schumpeter, J. (1935). The analysis of economic change. The Review of Economics and Statistics, 17(4), 2–10.
12 Verhaltens- und evolutionsökonomische …
247
Schumpeter, J. (1942). Capitalism, socialism and democracy. New York: Harper & Row. Schumpeter, J. (1954). History of economic analysis. London: Allen & Unwinn. Schwarz, N., Bless, H., Strack, F., & Klumpp, G. (1991). Ease of retrieval as information – Another look at the availability heuristic. Journal of Personality and Social Psychology, 61(2), 195–202. Sewell, M. (2012). The efficient market hypothesis: Empirical evidence. International of Statistics and Probability, 1(2), 164–178. Sharpe, W. (1964). Capital asset prices: A theory of market equilibrium under conditions of risk. Journal of Finance, 19(3), 425–442. Shefrin, H. (2000). Beyond Greed and Fear – Understanding Behavioral Finance and the Psychology of Investing. Brighton: Harvard Business School Press. Shefrin & Statman (1985). The disposition to sell winners too early and ride losers too long: Theory and evidence. Journal of Finance, 40(3), 777–790. Shiller, R. (1990). Market volatility and investor behavior. The American Economic Review, 80(2), 58–62. Shiller, R. (2000a). Irrational exuberance. New Jersey: Princeton University Press. Shiller, R. (2000b). Measuring bubble expectations and investor confidence. The Journal of Psychology and Financial Markets, 1(1), 49–60. Shiozawa, Y. (2004). Evolutionary economics in the 21 century: A Manifesto. Evolutionary and Institutional Economics Review, 1(1), 5–47. Simon, H. (1955). A behavioral model of rational choice. The Quarterly Journal of Economics, 69(1), 99–118. Simon, H. (1991). Bounded rationality and organizational learning. Organization Science, 2(1), 125–134. Statman, M. (1997). Behavioral finance: Past battles and future engagements. Financial Analysts Journal, 55(6), 18–27. Statman, M., & Caldwell, D. (1987). Applying behavioral finance to capital budgeting: Project terminations. Financial Management, 16(4), 7–15. Subrahmanyam, A. (2007). Behavioural finance: A review and synthesis. European Financial Management, 14, 12–29. Taleb, N. (2007). The Black Swan: The impact of the highly improbable. München: Random House. Taleb, N. (2012). Antifragile: Things that gain from disorder. München: Random House. Thaler, R., & Benartzi, S. (2004). Save more tomorrow: Using behavioral economics to increase employee saving. Journal of Political Economy, 112(1), 164–187. Thaler, R., & Sunstein, C. (2008). Nudge – Improving decisions about health, wealth and happiness. London: Penguin. Tversky, A., & Kahneman, D. (1973). Availability: A Heuristic for judging frequency and probability. Cognitive Psychology, 5(2), 207–232. Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124–1131. Tversky, A., & Kahneman, D. (1981). The framing of decisions and the psychology of choice. Science, 211(4481), 453–458. Veblen, T. (1898). Why is economics not an evolutionary science. The Quarterly Journal of Economics, 12(4), 373–397. Williamson, O. (1975). Markets and Hierarchies. New York: Free Press. Winter, S. (1987). Natural Selection and Evolution. In J. Eatwell, M. Milgate, & P. Newman (Hrsg.), The New Palgrave dictionary of economics (S. 614–617). New York: Macmillan.
248
T. Holtfort
Witt, U. (1987). Individualistische Grundlagen der evolutorischen Ökonomik. Tübingen: Mohr Siebeck. Witt, U. (1999). Bioeconomics as economics from a Darwinian perspective. Journal of Bioeconomics, 1(1), 19–34. Witt, U. (2003). The evolving economy: Essays on the evolutionary approach to economics. Northampton: Edward Elgar. Witt, U. (2004). On the proper interpretation of evolution in economics and its implications for production theory. Journal of Economic Methodology, 11(2), 125–146. Witt, U. (2008). What is specific about evolutionary economics? Journal of Evolutionary Economics, 18(5), 547–575.
Prof. Dr. Thomas Holtfort ist seit 2011 Professor für Finanz- und Wirtschaftspsychologie/Verhaltensökonomie an der FOM Hochschule für Oekonomie & Management. Zuvor war er drei Jahre als Professor für Finanz- und Anlagemanagement an einer anderen Hochschule sowie zehn Jahre in der Wirtschaft bei verschiedenen Unternehmen in der Bank-, Consulting- und Versicherungsbranche tätig. Seine Forschungsschwerpunkte liegen im Bereich Behavioral und Evolutionary Finance, Neuroökonomik, Evolutionsökonomik, Intuition und Entscheidungsverhalten von Wirtschaftssubjekten.
Internet-Ökonomik – Musik-Streaming, Apps und soziale Netzwerke aus mikroökonomischer Sicht
13
Sascha Frohwerk
Inhaltsverzeichnis 13.1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 13.2 Musik-Streaming. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 13.3 Betriebssysteme und Apps. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254 13.4 Soziale Netzwerke. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 13.5 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
Zusammenfassung
In diesem Beitrag werden Entwicklungen des digitalen Zeitalters wie Musik-Streaming, Betriebssysteme und Apps sowie soziale Netzwerke mit öko nomischen Modellen erklärt. Die teilweise sehr mathematischen Modelle aus der Industrie- und der Netzwerkökonomik werden aber nicht formal dargestellt. Stattdessen werden die Zusammenhänge intuitiv erklärt und mit aktuellen Beispielen illustriert.
S. Frohwerk (*) FOM Hochschule, Berlin, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOM-Edition, https://doi.org/10.1007/978-3-658-30129-3_13
249
250
S. Frohwerk
13.1 Einleitung In der klassischen Mikroökonomik, wie sie im Bachelor-Studium gelehrt wird, werden das Verhalten von Anbietern und Nachfragern sowie die sich daraus ergebenden Marktsituationen besprochen. Dabei geht man meist von physischen Gütern des täglichen Bedarfs aus und unterstellt zunächst die Marktform der vollkommenen Konkurrenz, später auch die des Monopols oder Oligopols. Auf den ersten Blick entsteht der Eindruck, dass die in der Mikroökonomik gelehrten Konzepte auf neue digitale Güter nicht anwendbar seien, als ob bei Musik-Streaming, Apps und sozialen Netzwerken andere Gesetze gelten würden, also ob das Gelernte für aktuelle strategische Fragestellungen nicht geeignet, ja veraltet sei. Tatsächlich werden diese Themen aber sehr wohl im Rahmen der Volkswirtschaftslehre erforscht. Nur sind die Modelle meist so kompliziert und mathematisch, dass sie im Bachelor-Studium nicht gelehrt werden. Auch finden sie durchaus Eingang in das strategische Management in der BWL. Dabei sind die Theorien inzwischen auch recht ausgereift. Ein Großteil der Forschung fand in den Jahren 1985 bis 2000 statt.1 Das macht die Modelle aber nicht veraltet, sondern sie sind heute auf einem Stand, auf dem sie als etabliert gelten können. Damit Unternehmen der Netzwerkindustrie heute ihre strategischen Fragestellungen lösen können, müssen die Theorien aber in eine weniger mathematische, verständliche Sprache übersetzt werden. Teilweise ist das schon geschehen, teilweise aber auch nicht.2 Dieser Artikel soll einen Beitrag dazu leisten, die Theorien in verständlicher Sprache zu erklären und durch aktuelle Beispiele zu unterlegen sowie die oft sehr theoretische Mikroökonomik auf praktische Fragestellungen anzuwenden. Bereits 1999 schrieben Shapiro und Varian: „We believe that the ideas, the concepts, the models, and the way of thinking that we describe will help you make better decisions.“ (Shapiro und Varian 1999, S. x)
13.2 Musik-Streaming Die Musikindustrie hat in den letzten 20 Jahren eine wechselhafte Entwicklung hinter sich. Abb. 13.1 zeigt die weltweiten Umsätze der Branche und beinhaltet dabei alle Kanäle, also neben dem Verkauf von Musik auch Lizenzen, Live-Auftritte und Streaming. Zu erkennen ist ein steter Rückgang der Erlöse bis 2010. „Die Musikindustrie ist tot“ prophezeite 2010 Joe Perry, Sänger der Band Aerosmith. Seit 2014 sehen wir nun wieder einen kontinuierlichen Anstieg der Erlöse. Warum ist das so? 1Wegweisende
Beträge waren unter anderem Katz und Shapiro (1985), Farrell und Saloner (1992) und Economides (1996). Ein erstes Fachbuch zum Thema ist Shy (2001). 2Eine sehr verständliche Übersicht bieten Clement und Schreiber (2016).
13 Internet-Ökonomik – Musik-Streaming …
251
Abb. 13.1 Umsatz der Musikindustrie weltweit. (Datenquelle: IFPI 2019)
Das Gut „Musik“ hat einige recht spezielle Eigenschaften: Im Vergleich zu physischen Gütern hat es eine andere Kostenstruktur. Die erste Kopie ist sehr teuer, jede weitere Kopie kann aber fast kostenlos hergestellt werden. Da es kaum Kapazitätsgrenzen dabei gibt, fallen die Durchschnittskosten kontinuierlich. Abb. 13.2 stellt diese Situation dar. Allerdings können auch von Konsumenten weitere Kopien fast kostenlos hergestellt werden, sodass die Gefahr von Raubkopien hoch ist.
Abb. 13.2 Kostenstruktur der Musikindustrie
252
S. Frohwerk
Daraus ergeben sich zwei Konsequenzen: 1. Aufgrund der hohen Fixkosten und der geringen Grenzkosten muss das Unternehmen eine möglichst hohe Menge verkaufen, um seine Kosten zu decken und idealerweise einen Gewinn zu erwirtschaften. 2. Da es nicht sinnvoll ist, den Preis an den Grenzkosten auszurichten, muss das Unternehmen versuchen, die maximale Zahlungsbereitschaft jedes Konsumenten auszunutzen.3 Weil die Wertschätzung der Konsumenten für ein bestimmtes Lied sehr unterschiedlich sein wird, bietet sich Preisdifferenzierung an (z. B. in Form einer Download-Version und einer CD-Version mit Booklet).
Kostenstruktur von Informationsgütern
Bei der Herstellung von physischen Gütern fallen üblicherweise fixe und variable Kosten an. Die Gesamtkosten steigen daher an. Die genaue Form hängt von der konkreten Produktionsfunktion ab. Die gestrichelte Linie in Abb. 13.2 links stellt die Gesamtkosten von physischen Gütern dar, wobei eine ertragsgesetzliche Produktionsfunktion unterstellt wurde (Pindyck und Rubinfeld 2015, Kap. 6). Bei der Herstellung von Musik entstehen fast nur fixe Kosten, die Kosten der ersten Kopie. Deren Gesamtkosten zeigt die durchgezogene Linie. Die rechte Seite der Abbildung stellt die sich daraus ergebenden Grenz- und Durchschnittskosten für physische Güter (gestrichelt) und Informationsgüter (durchgezogen) dar. Für physische Güter liegen die Grenzkosten ab dem Punkt A über den Durchschnittskosten. Bei Grenzkostenpreissetzung würde das Unternehmen ab hier Gewinne machen. Bei Informationsgütern hingegen liegen die Grenzkosten immer unter den Durchschnittskosten. Daher muss das Unternehmen einen höheren Preis verlangen. Da Musik kein homogenes Gut ist, kann das auch gelingen, und weil die Durchschnittskosten kontinuierlich sinken, sollte es (abhängig von der konkreten Form der Nachfragefunktion) eine relativ hohe Anzahl von Kopien verkaufen.
Nun sind die Fixkosten nicht nur sehr hoch, sondern auch versunken.4 Stellt sich ein Lied als Flop heraus, können sie nicht wieder erwirtschaftet werden. Daraus ergibt sich ein hohes Risiko für den Anbieter: Schafft er es nicht, eine große Menge von Tonträgern zu verkaufen, macht er einen Verlust. Aus diesem Grund ist ein Rückgang der verkauften Stückzahlen (z. B. durch Raubkopien) für diese Branche ein besonders großes Problem.
3Die
Theorie der Preisfindung bei vollkommener Konkurrenz würde den Umfang dieses Beitrags sprengen. Eine gute Einführung ist beispielsweise in Pindyck und Rubinfeld (2015), Kap. 7 bis 9, zu finden. 4Während Fixkosten, die z. B. beim Erwerb von Anlagen entstehen, zum Teil wieder durch den Verkauf dieser Anlagen zurückgeholt werden können, ist dies bei versunkenen Kosten nicht möglich. Beispiele sind die Kosten einer Werbekampagne oder Forschungs- und Entwicklungskosten.
13 Internet-Ökonomik – Musik-Streaming …
253
Weitere Kopien sind aber nicht nur für die Musikunternehmen billig, sondern auch für die Nachfrager. Mit der Verbreitung des schnellen Internets und der Verfügbarkeit von Tauschbörsen wie Napster und eMule Anfang der 2000er-Jahre sind die Suchkosten extrem gesunken. Obwohl die Musikindustrie alle juristischen Mittel eingesetzt hat, um illegale Kopien zu unterbinden, ist es ihr dennoch nicht gelungen, den Trend zu stoppen. Warum aber steigen die Umsätze wieder? Interessanterweise hat das mit der gleichen technischen Entwicklung zu tun: Durch schnelles und gut verfügbares Internet konnten sich Streaming-Dienste etablieren. Bei dieser Technik wird die Musik nicht als Datei (z. B. MP3) übertragen, sondern kann nur online in einer App oder Anwendung direkt gehört werden. Diese bietet neben der reinen Wiedergabe von Musik noch weiteren Mehrwert wie intelligente Suche und ausgereifte Vorschlagslisten wie den „Mix der Woche“ von Spotify (Steck et al. 2015). Darüber hinaus lassen sich diese zusätzlichen Dienste nur online nutzen, sodass es möglich ist, Abonnements als Preismodell durchzusetzen. 2013 titelte „Die Zeit“ dann auch: „Sie zahlen wieder!“ (Fichter 2013). 2018 gingen nur noch 25 % der Erlöse in der Musikindustrie auf physische Verkäufe zurück, während 59 % auf digitale Kanäle (Streaming 47 % und Download 12 %) entfielen (IFPI 2019, S. 13). Aber sind Abo-Modelle wirklich besser geeignet, die Kosten zu decken? Die Literatur zu sogenannten gebrochenen Preismodellen (Two-Part-Tarifs) zeigt, dass Preismodelle den Kostenstrukturen entsprechen sollten (Shy 2008, S. 154 ff.). Solche Tarife bestehen aus einem nutzungsunabhängigen Grundpreis und einem Preis pro konsumierter Einheit. Sie sind z. B. bei Strom verbreitet, der als natürliches Monopol übrigens eine ähnliche Kostenstruktur aufweist. Da bei der Produktion von Musik fast nur Fixkosten entstehen, ist es tatsächlich optimal, einen Flatrate-Tarif zu etablieren, so wie Spotify und Apple Music das ja auch tun. Hier schließen sich nun noch weitere Fragen an: Wie groß soll das Angebot (also die Auswahl an Titeln) sein und welcher Preis soll dafür verlangt werden? Ist es möglich und sinnvoll, Preis- oder auch Produktdifferenzierung durchzuführen (z. B. Light- und Premium-Version)? Diese Fragen sollen hier nicht beantwortet werden. Entsprechende Literatur ist z. B. bei Shy (2001) und Hahn (2000) zu finden. Das Beispiel verdeutlicht, wie technische Innovationen Geschäftsmodelle verändern können. Es zeigt aber auch, dass sich dabei nur die Rahmenbedingungen und in Folge die Kosten ändern. Das grundlegende Problem der Preisfindung für immaterielle und kopierbare Güter wurde bereits von Varian (1995) beschrieben. Eine ganz ähnliche Entwicklung können wir aktuell bei Software beobachten. Die Kostenstruktur und das dabei entstehende Problem der fehlenden Zahlungsbereitschaft finden wir hier genauso. Als Lösung versuchen einige Unternehmen, ebenfalls Abo-Modelle durchzusetzen. Das gelingt aber weniger gut als in der Musikindustrie, weil das Abo hier keinen inhärenten Vorteil bietet, wie z. B. personalisierte Empfehlungslisten. Die Akzeptanz auf Kundenseite ist daher eher gering. Ein anderer Weg besteht darin, die Software selbst kostenfrei abzugeben und Zusatzleistungen wie Support anzubieten. Ubuntu geht beispielsweise diesen Weg recht erfolgreich. Dabei hat die kostenfreie Weitergabe zwar einen negativen Einfluss auf die Erlöse, dafür erhöht sich aber die Anzahl der Nutzer schlagartig, sodass auch das Potenzial für Zusatzleistungen steigt. Netzwerkeffekte (vgl. Abschn. 13.3) verstärken diesen Effekt zusätzlich.
254
S. Frohwerk
13.3 Betriebssysteme und Apps Schaut man sich die Statistiken zu verwendeten Systemen beim Zugriff auf Webseiten (z. B. www.statcounter.com) an, so fallen ein paar Dinge auf: 1. Der Anteil der mobilen Zugriffe steigt kontinuierlich an. Stammten 2009 noch nahezu 100 % der Zugriffe von Desktop-Computern, so ist deren Anteil 2018 auf ca. 50 % gesunken. 2. Bei den Desktop-Systemen hat Windows immer noch einen sehr hohen Anteil, dieser ist aber leicht gesunken. 2009 lag der Anteil bei über 90 %, zehn Jahre später noch bei 75 %. 3. Bei mobilen Systemen hat sich der Markt zu einem Duopol entwickelt. Während 2013 noch diverse Systeme im Markt waren, von denen keines mehr als 40 % Marktanteil hatte, teilen sich heute iOS (ca. 27 %) und Android (ca. 71 %) den Markt. Was sind die Gründe für diese Entwicklungen und welche Konsequenzen haben sie? Der Trend zu mobilen Endgeräten hat technologische Gründe, die zu einem veränderten Nutzerverhalten führen. Eine bessere Abdeckung mit mobilem schnellem Internet und bessere Endgeräte führen zu einer verstärkten Nutzung. Dieser Trend ist global gesehen noch stärker als in Deutschland, denn Entwicklungs- und Schwellenländer überspringen häufig Desktop-Systeme und nutzen gleich die preisgünstigeren mobilen Geräte. Dies führt auch dazu, dass für Tätigkeiten, die früher auf dem Notebook durchgeführt wurden, heute teilweise das Smartphone oder Tablet genutzt wird. Für die Anbieter von Software bedeutet das: Es gibt nicht nur einen Wettbewerb auf dem Markt, sondern auch einen Wettbewerb um den Markt. Vor einiger Zeit war z. B. völlig klar, dass ein Text mit Microsoft Word geschrieben wurde. Es gab zwar immer auch andere Anbieter, aber Microsoft hat es geschafft, eine monopolartige Stellung zu halten. Dabei spielten auch Pfadabhängigkeiten eine Rolle, zu denen wir später noch kommen. Mit der Verlagerung auf mobile Plattformen gibt es heute mit Google Docs, aber auch mit anderen Technologien wie Markdown eine ganz neue Konkurrenz. Zwar ist Microsoft immer noch Marktführer für Textverarbeitungsprogramme auf dem Desktop, nur nutzen immer mehr Menschen Tablets und Mobiltelefone auch für diese Aufgaben. Dabei bedeutet „Wettbewerb um den Markt“, dass es einen Wettbewerb der Systeme gibt. Solche Systeme bestehen aus Hardware, Betriebssystem und Anwendungen. Diese Komponenten sind komplementäre Güter: Ein Windows-Programm stiftet nur im Zusammenhang mit einem Windows-Rechner einen Nutzen. Wie wir aus der Haushaltstheorie wissen, ist die Kreuzpreiselastizität für komplementäre Güter negativ: Steigt der Preis einer anderen Komponente, geht die Nachfrage nach der eigenen Komponente zurück (Pindyck und Rubinfeld 2015, S. 67). Dies begründet eine gegenseitige Abhängigkeit der Anbieter voneinander, denn auch ein Betriebssystem ohne Anwendungen ist nutzlos. In der Literatur ist dieses Phänomen als Components Approach bekannt (Shy 2001, S. 36 ff.).
13 Internet-Ökonomik – Musik-Streaming …
255
Diese Komponenten können in der Regel nicht von einem einzigen Unternehmen angeboten werden. Versuche in dieser Richtung, wie z. B. die ersten Betriebssysteme für Mobiltelefone, scheiterten daran, dass die Anbieter nicht in der Lage waren, eine ausreichend große Vielfalt von Anwendungen anzubieten. Unternehmen müssen also Allianzen bilden, in denen häufig ein Unternehmen als Plattform fungiert und dabei die größte Macht hat. Oftmals ist dies der Anbieter des Betriebssystems, also Microsoft, Apple oder Google. Für diesen Anbieter stellen sich strategische Fragen: Welche Komponenten soll das Unternehmen selbst anbieten? Soll das System für jedes andere Unternehmen geöffnet werden oder nur für bestimmte? Wie kann sichergestellt werden, dass der Anbieter die Kontrolle behält und seine Gewinne maximiert, gleichzeitig aber ausreichend viele Komponenten (z. B. Apps) angeboten werden, um das Gesamtsystem attraktiv zu halten? Apple beispielsweise bietet Hardware und Betriebssystem ausschließlich zusammen an. Microsoft und Google hingegen beschränken sich auf das Betriebssystem. Sie bieten zwar auch Hardware an, aber dies können auch andere Unternehmen tun. Aus technischer Sicht hat der Ansatz von Apple eine höhere Stabilität des Gesamtsystems zur Folge. Ökonomisch sichert er Apple die maximale Kontrolle. Andererseits kann sich weniger Dynamik entwickeln, da Apple alle Innovationen selbst vorantreiben muss. Für alle beteiligten Unternehmen ist es wichtig, ein System aufzubauen und weiterzuentwickeln, das für den Kunden attraktiv ist. Das Betriebssystem Windows Phone ist ein gutes Beispiel dafür, dass das nicht immer gelingt. 2010 wurde Windows Phone eingeführt und auf Geräten von Nokia, Huawei, HTC und Samsung angeboten. Dennoch ist es nie gelungen, ein ausreichend großes Angebot an Apps zu generieren. 2013 gab es für das System 170.000 Apps, während für iOS und Android 1.000.000 bzw. 850.000 Apps verfügbar waren (Apple, Google, Microsoft 2013). 2016 wurde Windows Phone schließlich mit einem Marktanteil von 0,2 % eingestellt (IDC 2019). Wir haben bisher die Angebotsseite dieses Marktes betrachtet. Aber auch auf der Nachfrageseite gibt es einige Besonderheiten. So ist die Entscheidung eines Konsumenten in der Regel eine diskrete Entscheidung: Er kauft sich ein iPhone oder ein Gerät mit Android, aber nicht beides.5 Solche Entscheidungen können z. B. mit dem weit verbreiteten Logit-Ansatz modelliert werden (Train 2003, S. 38 ff.). Hierbei wählt der Konsument die Alternative, deren Nutzen höher ist als der Nutzen aller anderen Alternativen. Was allerdings voraussetzt, dass der Konsument den Nutzen aller Alternativen kennt. Genau das kann aber in Frage gestellt werden, denn bei Software handelt es sich oft um sogenannte Experience-Goods, also um Güter, deren Qualität der Konsument erst nach einiger Zeit Benutzung wirklich beurteilen kann. Hat er sich erst einmal auf ein System festgelegt, ist ein Wechsel mit erheblichen monetären und nicht monetären Kosten verbunden. Der Ökonom spricht hier von Switching Costs (Shy 2001, S. 4;
5Und
selbst wenn das so ist, werden diese meist für spezielle Zwecke genutzt, z. B. privat und beruflich.
256
S. Frohwerk
Klemperer 1987). Diese entstehen einerseits, weil Apps, selbst solche vom gleichen Hersteller, für das neue System erneut erworben werden müssen. Andererseits aber auch, weil die Bedienung des neuen Systems erst erlernt werden muss, Dateien möglicherweise konvertiert werden müssen und für Anwendungen, die es für das neue System nicht gibt, ein Ersatz gefunden werden muss. Einige dieser Kosten sind technisch begründet, andere aber stellen eine strategische Variable der Anbieter dar. Die Literatur hierzu geht auf Farrell und Shapiro (1988) sowie Farrell und Saloner (1992) zurück. Dabei ist die Kernaussage intuitiv verständlich: Ein Anbieter mit hohem Marktanteil wird versuchen, hohe Wechselkosten zu erzeugen und Kompatibilität zu verhindern, während ein kleiner Anbieter an geringen Wechselkosten interessiert ist. Es verwundert daher auch nicht, dass z. B. auch heute noch Keynote die Dateien von PowerPoint lesen und schreiben kann, andersherum aber nicht. Solange es aber keinen eindeutigen Marktführer gibt, ist auch nicht klar, welches Dateiformat sich als Standard etablieren wird. Dies kann anhand einer Auszahlungsmatrix spieltheoretisch dargestellt werden. Wir nehmen dabei an, dass es für jeden Anbieter vorteilhaft ist, wenn sein eigenes Format zum Standard wird. Wenn das aber nicht so ist, ist es immer noch besser, ein anderes Format als Standard zu unterstützen, als inkompatible Software zu haben. Daraus ergibt sich z. B. die Auszahlungsmatrix in Abb. 13.3 (Fall 1) (Shy 2001, S. 291). Bei den hier angegebenen Werten würden sich zwei Nash-Gleichgewichte ergeben: Eines links oben und eines rechts unten. Das muss aber nicht so sein. Wenn die Unternehmen die Auszahlungen anders einschätzen und z. B. die Auszahlungsmatrix aus Fall 2 gilt, so gibt es kein Gleichgewicht und auf dem Markt sind mehrere konkurrierende Formate verbreitet. Dies kann sowohl für die Anbieter als auch für die Nachfrager nachteilig sein. Die Auszahlungsmatrix
Die Auszahlungsmatrix ist ein Instrument zur Lösung von simultanen Spielen in der nicht-kooperativen Spieltheorie (Holler und Illing 2006). Dabei stellen die Werte in der Matrix die Auszahlungen für die Spieler 1 und 2 dar. Diese können jeweils zwischen den Standards a und b wählen. In Abb. 13.3 links bedeutet
Abb. 13.3 Auszahlungen bei zwei Standards
13 Internet-Ökonomik – Musik-Streaming …
257
der Eintrag 200, 100 in der linken oberen Zelle: Wenn sich beide Unternehmen für Standard a entscheiden, hat Unternehmen 1 eine Auszahlung (Gewinn) von 200 und Unternehmen 2 von 100. Um die jeweils beste Entscheidung fällen zu können, vergleicht Unternehmen 1 also jeweils die ersten Werte oben und unten, Unternehmen 2 vergleicht die jeweils zweiten Werte links und rechts. Die Pfeile in der Tabelle weisen in Richtung der höchsten Auszahlungen, also der besten Entscheidung für die Unternehmen. In Fall 1 (links) erkennen wir, wenn wir die Pfeile betrachten, dass es zwei Gleichgewichte geben kann: oben links und unten rechts. Beide Unternehmen entscheiden sich für den gleichen Standard, unklar ist nur, für welchen. In Fall 2 (rechts) wurden die Auszahlungen leicht geändert. Mit dem gleichen Lösungsverfahren zeigt sich nun aber, dass es kein Gleichgewicht gibt. Wir erkennen das, weil die Pfeile hier einen Kreis darstellen.
Aktuell können wir eine solche Situation auf dem Markt für Multi-RoomLautsprechersysteme beobachten. Sonos ist zwar Marktführer, aber auch Wettbewerber wie Denon verfügen über substanzielle Marktanteile. Alle großen Anbieter unterstützen weder offene Standards noch die ihrer Mitbewerber. Zusammen mit den erheblichen Wechselkosten bei einem Systemwechsel führt das bei den Nachfragern zu hoher Unsicherheit, sodass einige potenzielle Käufer mit der Anschaffung warten werden. Dabei verlieren alle Beteiligten.
13.4 Soziale Netzwerke Am 28. Juni 2011 startete Google, eines der größten und erfolgreichsten Internet-Unternehmen, sein soziales Netzwerk Google plus. Reich an Funktionen und modern im Design wurde es von vielen als ernsthafter Konkurrent zu Facebook gesehen. Kurze Zeit später wurde jeder Nutzer anderer Dienste von Google zum Anlegen eines Profils gezwungen. Dennoch war das Netzwerk nicht erfolgreich und wurde am 2. April 2019 für Privatnutzer geschlossen. Aus dieser Beobachtung leiten sich mehrere Fragen ab: Warum investiert ein Unternehmen erhebliche Mittel in die Bereitstellung eines sozialen Netzwerkes? Warum war Google plus trotz modernerer Technik und Design nicht erfolgreich? Warum investiert Facebook trotz Konkurrenz wenig in die Modernisierung der Plattform? Um diese Fragen zu beantworten, ist es wichtig, die Eigenschaften sozialer Netzwerke für Konsumenten zu verstehen. Konsumgüter stiften normalerweise Nutzen alleine dadurch, dass sie vom Konsumenten ge- oder verbraucht werden. Nehmen wir den simplen Fall einer Pizza, dann hängt der Nutzen U in positiver Weise von der Menge an Pizza x1 und von anderen Gütern ab.
258
S. Frohwerk
U = U(x1 , . . .)
mit
∂U > 0. ∂x1
Sie hängt aber nicht davon ab, wie viele andere Menschen ebenfalls Pizza essen. Das ist uns ziemlich egal. Genau das ist aber bei sozialen Netzwerken anders: Je mehr Menschen (insbesondere solche, die wir kennen) ein Netzwerk nutzen, desto höher ist auch unser eigener Nutzen aus dem Netzwerk. Anders gesagt: Wenn ich der einzige bin, der in meinem Bekanntenkreis Facebook nutzt, ist Facebook für mich ziemlich langweilig. Bezeichnen wir die Anzahl von Nutzern eines Netzwerkes mit N, dann gilt nun
U = U(x1 , N, . . .)
mit
∂U >0 ∂x1
und
∂U > 0. ∂N
Der Nutzen U hängt nun positiv vom eigenen Konsum x1 und von der Größe des Netzwerkes N ab. Dies wird als Netzwerk-Effekt oder Netzwerk-Externalität bezeichnet, denn ein Nutzer verursacht einen positiven externen Effekt auf jeden anderen Nutzer, indem er das Netzwerk vergrößert. Solche Effekte treten, wenn auch nicht in dieser extremen Form, bei vielen Gütern auf. Auch der Nutzen eines Textverarbeitungsprogramms steigt, wenn viele Menschen es verwenden, weil der Austausch von Dateien vereinfacht wird und Know-how vorhanden ist, um Fragen zu klären (z. B. Bücher und Blogs). Dies haben wir bereits bei den Betriebssystemen beschrieben. Abb. 13.4 stellt den Nutzen von verschiedenen Gütern in Abhängigkeit von der Anzahl der Nutzer N beispielhaft dar (Clement und Schreiber 2016, S. 57). Starke Netzwerkeffekte haben Konsequenzen für die Anbieter solcher Güter: • Damit sie dem Nutzer einen ausreichenden Nutzen spenden, sodass sich dieser für das Netzwerk entscheidet, muss dieses in kurzer Zeit eine gewisse Größe erreichen. Diese
Abb. 13.4 Nutzen in Abhängigkeit von der Netzwerkgröße
13 Internet-Ökonomik – Musik-Streaming …
259
wird auch als kritische Masse bezeichnet. Gelingt das nicht, springen auch die bisherigen Nutzer ab. Diese kritische Masse kann z. B. durch Werbung erreicht werden. Auch der Zwang zu Google-plus-Accounts für Nutzer anderer Dienste von Google hatte diesen Zweck. • Gelingt es, die kritische Masse zu erreichen, steigt der Nutzen für potenzielle Konsumenten immer mehr an und auch solche, für die die Nutzung zunächst nicht attraktiv war, entscheiden sich jetzt dafür, was das Netzwerk wiederum vergrößert. Aus diesen beiden Aspekten ergibt sich, dass es langfristig nur zwei mögliche Entwicklungen gibt: Das Netzwerk wird entweder richtig groß und erlangt eine marktbeherrschende Stellung oder es muss schließen. Diese Entwicklungen sind in Abb. 13.5 dargestellt (Shapiro und Varian 1999, S. 177). Schauen wir uns einmal die bestehenden sozialen Netzwerke an, so können wir genau das beobachten: In jedem Themenbereich (berufliche Kontakte, Video-Streaming, Fotos …) gibt es genau ein großes Netzwerk. Manchmal gibt es regionale Unterschiede, beispielsweise ist XING fast ausschließlich im deutschsprachigen Raum zu finden, währen global LinkedIn führend ist. Langfristig ist aber zu erwarten, dass auch hier nur ein Anbieter überlebt. Was bedeutet das für die Strategie der Anbieter? Zunächst einmal muss die kritische Masse in kurzer Zeit erreicht werden. Im Fall von Google plus ist das trotz aller Anstrengungen nicht gelungen. Wenn ein Netzwerk erst einmal groß ist, ist es alleine dadurch attraktiv. Der Anbieter muss nicht unbedingt in die Weiterentwicklung investieren. Genau das sehen wir ja auch bei Facebook. Netzwerkeffekte sorgen wie bereits erläutert für Wechselkosten. Wenn ein Nutzer das Netzwerk wechselt, verliert er seine Kontakte. Er wird eine gewisse Zeit auch dann im Netzwerk verbleiben, wenn er nicht besonders zufrieden damit ist und andere Anbieter technisch bessere Lösungen
Abb. 13.5 Kritische Masse
260
S. Frohwerk
haben. Derzeit kann man das bei WhatsApp beobachten: Obwohl z. B. Threema mehr Datenschutz, eine modernere Oberfläche und mindestens genauso viele Funktionen bietet, bleiben die meisten Nutzer bei WhatsApp. Trotz all dieser Effekte können wir immer wieder drastische Veränderungen im Markt beobachten. In den 1990er-Jahren war in Deutschland das Netzwerk StudiVZ sehr verbreitet, während Facebook nur einen kleinen Anteil hatte. In kurzer Zeit ist StudiVZ komplett zusammengebrochen. Die Erklärung liefern wieder die Netzwerkeffekte, dieses Mal kombiniert mit Erwartungen: Wenn der Markt erwartet, dass ein Netzwerk zusammenbricht oder dass ein anderes „hipp“ ist, wechseln einige Nutzer. Dadurch verkleinert sich das Netzwerk (N sinkt) und verliert an Attraktivität (U sinkt). Nutzer, die schon vorher relativ unzufrieden waren, wechseln jetzt ebenfalls und verringern ihrerseits damit die Attraktivität. Eine Art Lawine entsteht und das Netzwerk bricht zusammen. Aktuell gibt es erste Anzeichen dafür, dass auch Facebook zusammenbrechen könnte (Botsman 2019). In diesen Zusammenhang wird auch deutlich, wie wichtig es für Unternehmen ist, die „richtigen“ Erwartungen zu erzeugen. Wenn es gelingt, dass der Markt glaubt, ihr Produkt sei „The next big thing“, wird es das mit großer Wahrscheinlichkeit auch. Bestes Beispiel sind die bekannten Produktpräsentationen von Apple. Unbeantwortet geblieben ist bisher noch die Frage, warum ein Unternehmen überhaupt in die Entwicklung solcher sozialen Medien investiert, insbesondere, wenn deren Nutzung kostenlos ist. Dies hängt damit zusammen, dass ein immer größeres Angebot an Informationen dazu führt, dass die einzelne Information weniger Beachtung findet. Schon in den 1960er-Jahren sagte Herbert Simon: „[…] a wealth of information creates a poverty of attention“. Überträgt man das auf Werbeanzeigen, bedeutet das, dass deren Wirkung immer geringer wird. Dies gilt insbesondere, da auch der Konsum von Zeitschriften und Fernsehsendungen, die ja oft einen Rückschluss auf die Interessen der Nutzer zulassen, zurückgeht. Schafft es ein Unternehmen, dem Konsumenten Werbung näherzubringen, die seinen Interessen entspricht und deshalb wahrgenommen wird, hat es einen erheblichen Vorteil. Hierzu ein Beispiel: Ca. 19 % aller deutschen Haushalte haben einen Hund.6 Ein zufällig platziertes Plakat für Hundefutter erreicht also nur zu max. 19 % einen potenziellen Kunden. Wenn man den genannten Informationsüberfluss berücksichtigt, dürfte die Quote noch deutlich kleiner sein. Postet nun jemand auf Instagram wiederholt Hundefotos, so kann man dies mit einer relativ einfachen Bilderkennung herausfinden und dieser Person gezielt Werbung für Hundefutter einblenden. Die Kosten sind geringer und die Erfolgsquote ist höher. Aus dem gleichen Grund bietet Google seinen Kunden unentgeltlich Speicherplatz für Fotos an, denn auch diese Fotos werden durch künstliche Intelligenz analysiert, um so Rückschlüsse auf Interessen, Einkommen und Wohnort zu ziehen. Je mehr Informationen ein soziales Netzwerk über seine Kunden sammeln
6Laut
einer Studie des Zentralverbandes Zoologischer Fachbetriebe Deutschland e. V.
13 Internet-Ökonomik – Musik-Streaming …
261
kann, desto teurer kann es Anzeigen verkaufen. Aus diesem Grund werden diese Netzwerke auch nie mehr Datenschutz bieten als gesetzlich unbedingt nötig. Es steht im Widerspruch zu ihrem Geschäftsmodell. Carl Miller schreibt in der aktuellen Ausgabe des WIRED Magazine: „In a clash of incentives, Big Tech will always pick growth over safety, engagement over decency“ (Miller 2019, S. 30).
13.5 Fazit Stellvertretend für viele Entwicklungen des digitalen Zeitalters wurden in diesem Beitrag Musik-Streaming, Software und soziale Netzwerke diskutiert und anhand mikroökonomischer Modelle erklärt. Dabei wurde auf eingehende mathematische Formulierung zugunsten besserer Verständlichkeit verzichtet. Dennoch hat sich gezeigt, dass die Theorie geeignet ist, Entwicklungen und Zusammenhänge zu erklären und Empfehlungen für strategische Entscheidungen von Unternehmen zu geben. Dabei spielt die recht spezielle Kostenstruktur von Informationsgütern eine besondere Rolle. Netzwerkeffekte, Switching Costs und der Wettbewerb der Systeme sind die wichtigsten theoretischen Grundlagen. In diesem Überblicksartikel konnte nur auf die grundlegenden Entwicklungen eingegangen werden. Weitergehende Fragen lassen sich aber mit der genannten Literatur beantworten. Für Unternehmen sind das beispielsweise: Wie ist ein optimales Preismodell konkret auszugestalten? Wie sollen Produktvarianten definiert werden? Wie kompatibel soll ein Produkt sein? Sollen offene Standards unterstützt werden oder nicht? Auch die Politik steht vor Herausforderungen, die sich mit der Theorie lösen lassen: Wie soll mit der Marktmacht der Internet-Konzerne umgegangen werden? Wie lassen sich nationale Gesetze in globalen Netzwerken durchsetzen? Wie können private Tätigkeiten mit kommerziellem Hintergrund (beispielsweise Influencer oder Uber-Fahrer) steuerlich richtig behandelt werden? Als Einstieg in die Theorie können Shapiro und Varian (1999) sowie Clement und Schreiber (2016) dienen, aber auch Osterwalder und Pigneur (2011) ist, wenn auch aus anderer Perspektive, sehr lesenswert.
Literatur Apple, Google, Microsoft (2013) zitiert nach de.statista.com: Anzahl der verfügbaren Apps in den größten App-Stores. 2013. https://de.statista.com/infografik/1212/verfuegbare-apps-in-dengroessten-app-stores. Zugegriffen: 10. Dez. 2019. Botsman, R. (2019). Vertrauensforscherin Rachel Botsman: Die Marke Facebook stirbt. t3n, 55, 78–83. Clement, R., & Schreiber, D. (2016). Internet-Ökonomie – Grundlagen und Fallbeispiele der vernetzten Wirtschaft (3. Aufl.). Wiesbaden: Springer Gabler.
262
S. Frohwerk
Economides, N. (1996). The economics of networks. International Journal of Industrial Organization, 14(6), 673–699. Farrell, J., & Saloner, G. (1992). Converters, compatability and the control of interfaces. The Journal of Industrial Economics, XL(1), 9–35. Farrell, J., & Shapiro, C. (1988). Dynamic competition with switching costs. RAND Journal of Economics, 19(1), 123–137. Fichter, A. (2013). Sie zahlen wieder! Die Zeit, 14(2013). Hahn, J. H. (2000). Functional quality degradation of software with network externalities. Working Paper. Keele: Keele University. Holler, M. J., & Illing, G. (2006). Einführung in die Spieltheorie. Wiesbaden: Springer Gabler. IDC (2019). Smart Phone Market Share. https://www.idc.com/promo/smartphone-market-share/os. Zugegriffen: 10. Nov. 2019. IFPI. (2019). Global Music Report 2019. https://www.ifpi.org/news/IFPI-GLOBAL-MUSICREPORT-2019. Zugegriffen: 10. Nov. 2019. Katz, M. L., & Shapiro, C. (1985). Network externalities, competition and compatibility. The American Economic Review, 75(3), 424–440. Klemperer, P. (1987). The competitiveness of markets with switching costs. RAND Jounal of Economics, 18(1), 138–150. Miller, C. (2019). It’s time we stopped moralising about Big Tech, and got on with reform. WIRED Magazine, September/Oktober, 29. Osterwalder, A., & Pigneur, Y. (2011). Business Model Generation: Ein Handbuch für Visionäre, Spielveränderer und Herausforderer. Frankfurt a. M.: Campus. Pindyck, R. S., & Rubinfeld, D. L. (2015). Mikroökonomie (8. Aufl.). Hallbergmoos: Pearson. Shapiro, C., & Varian, H. R. (1999). Information rules. Boston: Harvard Business School Press. Shy, O. (2001). The economics of network industries. Cambridge: Cambridge University Press. Shy, O. (2008). How to price: A guide to pricing techniques and yield management. Cambridge: Cambridge University Press. Steck, H., van Zwol, R., & Johnson, C. (2015). Interactive recommender systems: Tutorial. In Proceedings of the 9th ACM Conference on Recommender Systems (S. 359–360). Ne York: Association for Computing Machinery. Train, K. E. (2003). Discrete choice methods with simulation. Cambridge: Cambridge University Press. Varian, H. R. (1995). Pricing information goods. Working Paper. Ann Arbor: University of Michigan.
Prof. Dr. Sascha Frohwerk ist seit 2017 Professor an der FOM Hochschule für Oekonomie & Management in Berlin und unterrichtet dort in den Bereichen Volkswirtschaftslehre und Wirtschaftsinformatik. Daneben ist er am Hasso-Plattner-Institut der Universität Potsdam tätig. Seine Schwerpunkte liegen in der Raumwirtschaft und in ökonomischen Aspekten der Digitalisierung. Er hat in Kiel Volkswirtschaftslehre studiert und an der Universität Potsdam promoviert. Danach war er in der Unternehmensberatung tätig, bis er zur FOM wechselte. Er ist Mitglied der Gesellschaft für Regionalforschung.
Crowdfunding – Eine institutionenökonomische Betrachtung
14
Thomas Ostendorf
Inhaltsverzeichnis 14.1 Einleitung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264 14.2 Finanzbeziehungen aus Sicht der Neuen Institutionenökonomik. . . . . . . . . . . . . . . . . . 265 14.2.1 Grundlagen der Neuen Institutionenökonomik. . . . . . . . . . . . . . . . . . . . . . . . . 266 14.2.2 Anwendung der Neuen Institutionenökonomik auf Finanzbeziehungen. . . . . . 269 14.3 Crowdfunding als Finanzierungsalternative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 14.3.1 Grundlagen des Crowdfundings. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 14.3.2 Transaktionskosten im Rahmen von Crowdfunding. . . . . . . . . . . . . . . . . . . . . 275 14.3.3 Prinzipal-Agent-Probleme im Rahmen von Crowdfunding. . . . . . . . . . . . . . . . 277 14.4 Fazit und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
Zusammenfassung
Die internetgestützten sozialen Medien ermöglichen eine neue Art der direkten Interaktion zwischen Kapitalgebern und Kapitelnehmern, wie bspw. beim Crowdfunding. Grundsätzliche Problemfelder zwischen den Transaktionspartnern, wie Informationsasymmetrien und Transaktionskosten, treten auch bei solchen internetbasierten Finanzierungsformen auf. Mithilfe der neuen Institutionenökonomik können die Möglichkeiten, aber auch die Grenzen solcher Finanzierungsalternativen untersucht werden. Ein Vergleich mit herkömmlichen Finanzintermediären zeigt, dass die institutionellen Arrangements der Crowdfunding-Plattformen einen deutlich geringeren Schutz für Kapitalgeber, aber auch -nehmer bieten. Hinzu kommt die T. Ostendorf (*) FOM Hochschule, Bremen, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_14
263
264
T. Ostendorf
bislang noch geringere staatliche Regulierung der Crowdfunding-Anbieter. Aus diesem Grund kann Crowdfunding bislang noch nicht als vollwertige Finanzierungsbzw. Investitionsalternative für Kapitalsuchende bzw. Kapitalanleger betrachtet werden.
14.1 Einleitung Die Digitalisierung und insbesondere die daraus entwickelten neuen Verkehrswege zur Übertragung von Nachrichten, Informationen und Daten erfüllen den Tatbestand dessen, was Joseph Schumpeter (2018, S. 116) den „Prozess der schöpferischen Zerstörung“ genannt hat. In nahezu allen Lebens- und Wirtschaftsbereichen ist es durch die Informationstechnologien zu fundamentalen Veränderungen gekommen. Alte Gewohnheiten, Prozesse und Vorgehensweisen wurden und werden weiterhin abgelöst (oder um im Wortlaut von Schumpeter zu bleiben „zerstört“), während gleichzeitig neue Wege geschaffen werden. Die Finanzindustrie ist davon ebenso betroffen wie andere Wirtschaftssektoren. Bereits seit den 1950er-Jahren digitalisieren Banken ihre internen Prozesse, aber erst seit den 1980er-Jahren rückt die Digitalisierung der Kundenbeziehungen unter dem Stichwort Onlinebanking in den Vordergrund. Eine neue Dimension des Wettbewerbs birgt die weltweit vernetzte soziale Interaktion, die das Internet ermöglicht. Neue Wettbewerbsmodelle bieten Menschen und Unternehmen Alternativen zu den herkömmlichen Finanzintermediären wie Banken, Versicherungen und Investmentfonds. Bill Gates’ Bonmot aus dem Jahre 1994 „Banking is necessary, banks are not“ könnte sich allmählich bewahrheiten. Die viel diskutierten FinTechs scheinen dabei aber eher eine Ergänzung der herkömmlichen Geschäftsmodelle der Banken zu sein, sodass hier nicht von einer disruptiven Veränderung, sondern eher von einer evolutionären Anpassung gesprochen werden kann. Andere Entwicklungen hingegen bergen das Potenzial, die Finanzintermediation säkular zu verändern. Unter anderem gilt dies für das sogenannte Crowdfunding, auch wenn es derzeit noch weit davon entfernt ist, ein ernsthafter Konkurrent für die etablierte Finanzindustrie zu sein. Unter Crowdfunding wird eine Form der Finanzintermediation verstanden, bei der mithilfe einer internetbasierten Austauschplattform Kapitalgeber aus der Menge der Internetnutzer („Crowd“) Geldmittel („Funds“) an kapitalsuchende Privatpersonen, Unternehmen und Organisationen weiterleiten. Crowdfunding ist eine Unterform des sogenannten Crowdsourcings, ein Begriff, den Jeff Howe (2006) eingeführt hat. Er unterteilt Crowdsourcing in die Teilbereiche Crowdwisdom, Crowdcreation, Crowdvoting und Crowdfunding (Howe 2008, S. 146–259). Die Idee des Crowdsourcings basiert darauf, das gesammelte Fachwissen von außenstehenden Experten, in der Regel über das Internet, für ein bestimmtes Projekt zur Verfügung zu stellen. In diesem Sinne dient Crowdfunding der Sammlung von vielen (u. U. kleinen) Kapitalbeträgen über das Internet, um ein ausgewähltes Projekt zu finanzieren. Crowdfunding kann sowohl
14 Crowdfunding – Eine institutionenökonomische Betrachtung
265
als Alternative als auch als Ergänzung zur traditionellen Bankenfinanzierung genutzt werden. Zudem bietet es Kapitalanlegern Möglichkeiten, abseits von organisierten Märkten direkt in Projekte und Unternehmen zu investieren. Ob eine Bankenfinanzierung oder Crowdfunding oder vielleicht sogar eine Kombination von beiden vorteilhaft ist, unterliegt einer jeweils für den Einzelfall zu treffenden Abwägung. Allerdings können grundsätzliche Unterschiede sowie Möglichkeiten und Grenzen durch eine theoretische Analyse herausgearbeitet werden. Diese Erkenntnisse dienen dann als Grundlage für diskretionäre Entscheidungen. Beim Crowdfunding stehen sich, wie bei jeder Finanztransaktion zwei Transaktionspartner gegenüber: Ein Partner, der Geldmittel zur Verfügung stellt, und ein Partner, der Geldmittel erhält. In der klassischen Finanzierungstheorie wird davon ausgegangen, dass diese Transaktionen reibungslos über Märkte organisiert werden können. Die dabei vorausgesetzten Annahmen eines vollkommenen Kapitalmarktes und vollständiger Information der Marktteilnehmer bilden die Realität allerdings nicht ab. In der Realität sind die Kapitalmärkte unvollkommen und die Akteure nur unvollständig informiert. Dadurch entstehen Informationsasymmetrien zwischen den Transaktionspartnern und in der Folge Transaktionskosten. Diese Marktunvollkommenheiten und deren Lösungsmöglichkeiten sind Untersuchungsgegenstand der neoinstitutionalistischen Finanzierungstheorie, die hier als theoretische Grundlage für die Untersuchung der Forschungsfrage dienen soll. Dieser Beitrag geht der Frage nach, ob Crowdfunding eine Alternative zur traditionellen Finanzintermediation bieten kann. Dazu werden zunächst die Grundlagen der neoinstitutionalistischen Finanzierungstheorie erläutert und im Anschluss auf das Crowdfunding angewendet.
14.2 Finanzbeziehungen aus Sicht der Neuen Institutionenökonomik Tauschbeziehungen involvieren regelmäßig zwei Partner, zwischen denen der Tausch vollzogen wird. Gleiches gilt für Finanzbeziehungen, die häufig den monetären Gegenpart für realwirtschaftliche Tauschbeziehungen darstellen, aber auch nur finanziell begründet (Kredite, Geldanlage) oder einseitig (Schenkungen) sein können. Die Neue Institutionenökonomik geht davon aus, dass keiner der Transaktionspartner über vollständige Informationen verfügt und somit von beschränkter Rationalität bei Tauschhandlungen auszugehen ist. Ferner sind Transaktionskosten zu berücksichtigen, die auf unvollkommenen Märkten notwendigerweise auftreten, wie Informations-, Such-, Verhandlungs- und Durchsetzungskosten (Voigt 2009, S. 22). Daraus ergibt sich gemäß der Neuen Institutionenökonomik, dass Institutionen im Sinne von Regeln und Regelwerken eingeführt werden sollten, um die Tauschhandlungen effizient zu gestalten.
266
T. Ostendorf
14.2.1 Grundlagen der Neuen Institutionenökonomik „In einer Welt ohne Unsicherheit gibt es keine Existenzberechtigung für Regeln und Institutionen“ (Voigt 2009, S. 23). Im Umkehrschluss kann daraus abgeleitet werden, dass in einer unsicheren Welt Regeln und Institutionen notwendig sind. Die Neue Institutionenökonomik geht davon aus, dass die Welt unsicher ist. Vollständig rationale Individuen sollten in der Lage sein, bei Unsicherheit alle Optionen und Konsequenzen einer Entscheidung zu kennen und in ihren Handlungen zu berücksichtigen. Das ist aus mehreren Gründen unrealistisch. Durch das Internet ist zwar ein Großteil des Wissens der Menschheit grundsätzlich allgemein zugänglich. Allerdings hat die menschliche Verarbeitungskapazität von Informationen mit dem Wachstum des Wissens evolutiv nicht Schritt gehalten. Niemand ist in der Lage, das gesamte relevante Wissen zu sammeln. Und selbst wenn es gelänge, sämtliche Informationen zu sammeln, so unterliegt der Mensch zeitlichen und kognitiven Beschränkungen, sodass er nicht alle Informationen verarbeiten könnte. Aus der Psychologie und der ökonomischen Disziplin der Verhaltensökonomik sind diese Einschränkungen bekannt. In der modernen Wirtschaftswissenschaft wird daher von beschränkter Rationalität ausgegangen (vgl. dazu z. B. Kahneman 2011, S. 269; Thaler 2016, S. 23–24; Beck 2014, S. 9–13). Keiner der Tauschpartner hat vollständige Informationen, in der Regel hat einer der Partner mehr Informationen über den Tausch bzw. den Tauschgegenstand als der andere. Daraus entstehen Informationsasymmetrien. Dies ist Gegenstand der Prinzipal-Agent-Theorie. Prinzipal-Agent-Theorie
Die Annahme eines beschränkt rationalen Verhaltens der Akteure in Tauschhandlungen und der sich daraus möglicherweise ergebenden Informationsasymmetrien muss ergänzt werden um die Möglichkeit opportunistischen Verhaltens seitens der Transaktionspartner, um der Realität nahe zu kommen. Wenn man davon ausgeht, dass Menschen anreizgetrieben sind und ihren eigenen Vorteil zu mehren versuchen, steht zu erwarten, dass einzelne Wirtschaftssubjekte dies auch mit unlauteren Mitteln zu erreichen versuchen. Oliver E. Williamson bezeichnet dieses Verhalten als Opportunismus, den er als „condition of self-interest seeking with guile“ definiert (Williamson 1985, S. 30 und 47–50). Eine Prinzipal-Agent-Beziehung ist dadurch gekennzeichnet, dass einer der Transaktionspartner, der Prinzipal, weniger Informationen über die Transaktion hat als der andere, Agent genannt. Häufig wird alternativ beschrieben, dass der Prinzipal als Auftraggeber fungiert und der Agent als Auftragnehmer (z. B. Voigt 2009, S. 84); das ist aber für die hier betrachtete Konstellation nicht entscheidend. Wenn nun der Agent opportunistisch handelt, ist der Prinzipal in Gefahr, übervorteilt zu werden. Dagegen muss sich der Prinzipal in einer Tauschbeziehung schützen.
14 Crowdfunding – Eine institutionenökonomische Betrachtung
267
In einer solchen Prinzipal-Agent-Beziehung können Informationsasymmetrien aufgrund folgender Problemlagen auftreten (Voigt 2009, S. 85–87): • Hidden Characteristics: Der Prinzipal kennt die Eigenschaften des Transaktionspartners oder -gegenstands vor Vertragsabschluss nicht. Daraus ergibt sich die Gefahr der Negativauslese (Adverse Selection). • Hidden Information: Der Prinzipal ist aufgrund mangelnder Fachkenntnis nicht in der Lage, das Verhalten des Agenten zu beurteilen. • Hidden Action: Der Prinzipal kann die Handlungen des Agenten nicht beobachten. Sowohl bei Hidden Information als auch bei Hidden Action besteht das Risiko des moralischen Fehlverhaltens (Moral Hazard) nach Vertragsabschluss. Denn der Agent kann gefahrlos die Ahnungslosigkeit des Prinzipals zu seinem eigenen Vorteil ausnutzen. Lösungsmöglichkeiten für diese Prinzipal-Agent-Probleme sind Institutionen im Sinne von Regeln und Regelwerken, die mit Sanktionen bei nicht-regelkonformem Verhalten bewehrt sind. Maßnahmen, die entsprechend institutionell zur Vermeidung von opportunistischem Verhalten des Agenten geregelt werden könnten, sind z. B.: • Screening: Der schlechter informierte Prinzipal beschafft sich im Vorfeld des Vertragsabschlusses Informationen über den Agenten, um das Problem der Hidden Characteristics und damit die Gefahr einer Negativauslese abzumildern. • Monitoring: Nach Vertragsabschluss holt der Prinzipal Informationen über den Agenten und seine Tätigkeit ein. • Signaling: Der besser informierte Agent stellt von sich aus Informationen für den Prinzipal zusammen, um seine Eigenschaften glaubwürdig darzustellen. Eine Sonderform des Signalings ist der Aufbau einer (positiven) Reputation. • Reporting: Der Agent liefert dem Prinzipal nach Vertragsabschluss eigenständig Informationen über seine Tätigkeit. • Anreizkompatible Gestaltung von Verträgen: Der Prinzipal bietet dem Agenten einen Vertrag an, in dem das vom Prinzipal gewünschte Verhalten belohnt und das unerwünschte Verhalten sanktioniert wird. Das Risiko des opportunistischen Verhaltens, das aus Informationsasymmetrien zwischen zwei Vertragspartnern entsteht, kann also durch die Vereinbarung von Institutionen im Sinne von Regeln und Regelwerken gemindert werden. Diese Institutionen können entweder privat zwischen den beiden Transaktionspartnern vereinbart werden, sollten dann aber auch wirksame Sanktionen enthalten, die nicht-regelkonformes Verhalten bestrafen. Oder diese Institutionen können
268
T. Ostendorf
vom Staat oder ähnlichen Organen festgeschrieben werden und damit eine Allgemeingültigkeit erhalten. Auch in diesen Fällen muss eine Sanktionierung bei nicht-regelkonformem Verhalten gewährleistet sein, um Opportunismus wirksam einzuschränken.
Als zweite Grundlage der Neuen Institutionenökonomik gilt die Transaktionskostentheorie. Kenneth Arrow hat Transaktionskosten als „costs of running the economic system“ definiert (Arrow 1969, S. 48). Transaktionskosten werden grundsätzlich in Ex-ante- und Ex-post-Kosten unterschieden. Ex-ante-Transaktionskosten treten z. B. in Form von Such-, Informations-, Verhandlungs- und Absicherungskosten auf. Sie können im Vorfeld eines Vertragsabschlusses u. a. dadurch entstehen, dass die Handlungswilligen nicht über vollständige Informationen verfügen und somit erst einmal Transaktionspartner suchen und finden müssen. Ex-post-Transaktionskosten werden hingegen erst nach Vertragsabschluss relevant, wenn z. B. bestimmte Ereignisse eine Anpassung der Vertragsmodalitäten notwendig machen oder wenn Streitigkeiten auftreten (Williamson 1985, S. 20–22). Transaktionskostentheorie
Die Theorie der Transaktionskosten geht auf einen Aufsatz von Ronald Coase aus dem Jahr 1937 zurück (Coase 1937), in dem er die Frage zu beantworten suchte, warum es Firmen – also hierarchisch strukturierte Organisationen – gibt, obwohl doch alle Transaktionen, die innerhalb einer Firma ablaufen, auch über Märkte abgebildet werden können. Seine Antwort war, dass über Märkte ausgeführte Transaktionen Kosten verursachen. Um diese zu minimieren, lohne es sich, bestimmte wiederkehrende Transaktionen in Unternehmen zu organisieren. Da die Märkte nicht vollkommen sind und keine vollständige Informationstransparenz herrscht, besteht strategische Unsicherheit, sobald zwei Transaktionspartner interagieren. „Strategische Unsicherheit liegt immer dann vor, wenn das Ergebnis einer Handlung nicht nur von der eigenen Handlung, sondern auch von der Handlung mindestens eines weiteren Akteurs abhängt“ (Voigt 2009, S. 25). Wenn diese strategische Unsicherheit durch institutionelle Regeln und Regelwerke vermindert werden kann, verbessert das die Leistungsfähigkeit einer Volkswirtschaft. Allerdings gilt es dabei wiederum zu beachten, wie hoch die Kosten der Koordination bzw. der Institutionen sind. Denn nur, wenn die institutionellen Koordinationskosten geringer sind als die Transaktionskosten des Marktes, finden diese Institutionen Akzeptanz. Zu den Kosten dieser Institutionen gehören auch die Sanktionierungskosten bei regelwidrigem Verhalten.
14 Crowdfunding – Eine institutionenökonomische Betrachtung
269
Die Digitalisierung hat dazu beigetragen, dass die Such- und Informationskosten als Ex-ante-Transaktionskosten im Vergleich zum vordigitalen Zeitalter deutlich reduziert worden sind. So ist es heute möglich, mithilfe des Internets, sozialer Medien und Nachrichtenübermittlungsdienste relativ leicht Transaktionspartner zu finden und zu kontaktieren. Allerdings erfordert auch die digitale Suche aufgrund der schieren Masse an Informationen immer noch einen erheblichen Such- und Informationsaufwand. Verhandlungs- und Absicherungskosten werden durch die digitale Verbreitung von Musterverträgen und Wettbewerbsvergleichen ebenfalls erheblich erleichtert. Dennoch ist grundsätzlich davon auszugehen, dass spezifische Transaktionen mit individuellen Ausgestaltungswünschen weiterhin Verhandlungs- und Absicherungskosten verursachen. Auch bei den Ex-post-Transaktionskosten, wie etwa Überwachungs- und Durchsetzungskosten, ist durch die Möglichkeit zur elektronischen Übermittlung von Daten und die sich stetig weiterentwickelnden Möglichkeiten der computergestützten Analyse, etwa mit Hilfe künstlicher Intelligenz, eine erhebliche Arbeitserleichterung und Beschleunigung eingetreten. Das dürfte die Ex-post-Transaktionskosten grundsätzlich verringern, aber nicht vollständig eliminieren. Wenn zudem Regeln und Regelwerke eingeführt werden, die mit Sanktionierungsmechanismen verbunden sind, könnte dies ein zusätzlicher Schutz vor opportunistischem Verhalten seitens der Transaktionspartner sein. Denn Sanktionen „verteuern“ illegales bzw. regelwidriges Verhalten in der einzelwirtschaftlichen Perspektive (Voigt 2009, S. 20–21).
14.2.2 Anwendung der Neuen Institutionenökonomik auf Finanzbeziehungen Die Überlegungen der Neuen Institutionenökonomik haben auch in der finanzwirtschaftlichen Forschung Spuren hinterlassen. Auf Basis der Neuen Institutionenökonomik wurde die sogenannte Neoinstitutionalistische Finanzierungstheorie entwickelt (für einen kurzen Überblick z. B. Perridon et al. 2017, S. 27–28). Demnach ist in Finanzbeziehungen der Kapitalgeber der Prinzipal und der Kapitalnehmer bzw., im Fall von Unternehmen, das Management der Agent (das gilt sowohl für die Bereitstellung von Eigen- oder Fremdkapital als auch von Mezzanine-Kapital). Allerdings sind direkte Finanzbeziehungen zwischen privaten Haushalten als Kapitalgeber und anderen privaten Haushalten oder Unternehmen als Kapitalnehmer in der Realität die Ausnahme. Häufig kommt im Fall von Finanzbeziehungen noch ein dritter Akteur ins Spiel, der sogenannte Finanzintermediär. Ein Finanzintermediär tritt zwischen Kapitalgeber und Kapitalnehmer und nutzt die Mittel der Kapitalgeber, um sie an Kapitalnehmer weiterzuleiten. In diesen Fällen liegt eine mehrstufige Prinzipal-Agent-Beziehung vor, die je nach Ausgestaltung der Haftungsverhältnisse zu unterschiedlichen Problemstellungen führt. Wichtige Finanzintermediäre sind Banken, Versicherungen und Investmentfonds.
270
T. Ostendorf
Gründe für die Inanspruchnahme von Finanzintermediären sind Haftungsübernahme, Risikodiversifikation, Senkung von Transaktionskosten und Skaleneffekte bei Informations- und Kontrollaktivitäten (Hagen und Stein 2000, S. 15–16). Neoklassische vs. Neoinstitutionalistische Finanzierungstheorie
Die neoklassische Finanzierungstheorie geht von einer Reihe von Annahmen aus, die eine mathematische Modellbildung erleichtern, aber die Realität nicht hinreichend abbilden, sodass die Aussagekraft dieser Modelle letztlich eingeschränkt sein muss. Solche Annahmen sind bspw. ein vollkommener Kapitalmarkt ohne Transaktionskosten und Steuern, aber mit unbeschränktem Marktzugang. Oder eine hohe Informationseffizienz, weil alle Akteure ohne Unsicherheit am Markt agieren. Diese restriktiven Annahmen sind unzureichend für die Erklärung einer komplexen realen Finanzwelt, auch wenn die Digitalisierung mit den Möglichkeiten hoher Informationstransparenz und -geschwindigkeit die Märkte näher an das neoklassische Ideal herangeführt hat. In einer idealen neoklassischen Welt werden Finanzintermediäre nicht gebraucht, die in der Realität aber wichtige Akteure auf den Finanzmärkten sind, weil eben nicht alle Informationen verfügbar sind bzw. verarbeitet werden können. In der Realität führen Informationsunvollkommenheiten zu Intransparenz und Informationsasymmetrien zwischen den Partnern in Finanzbeziehungen und fördern so opportunistisches Verhalten. Die Gefahr des Opportunismus zieht wiederum hohe Transaktionskosten nach sich, da die Finanzpartner sich gegenseitig überprüfen und überwachen müssen, um nicht übervorteilt zu werden. Wenn die Finanzierungstheorie also einerseits die Realität möglichst gut erklären und andererseits Möglichkeiten zur Verbesserung aufzeigen will, muss sie dieses tatsächliche Verhalten der Akteure in ihre Modelle einbeziehen. Das versucht die Neoinstitutionalistische Finanzierungstheorie zu berücksichtigen.
Die typischen Probleme einer Prinzipal-Agent-Beziehung treten auch in Finanzbeziehungen auf. Der Kapitalgeber als Prinzipal verfügt über eingeschränkte Informationen, während der Kapitalnehmer als Agent mehr Informationen hat. Die daraus folgenden Probleme lassen sich danach kategorisieren, ob die Informationsasymmetrie vor, während oder nach Abschluss der Finanzbeziehung zu Unsicherheit führt (Hagen und Stein 2000, S. 167–172). • Ex-ante-Unsicherheit: Aufgrund von fehlenden Informationen über den Kapitalnehmer (Hidden Characteristics), der möglicherweise nicht in der Lage oder willens ist, das Kapital zurückzuzahlen oder vereinbarungsgemäß einzusetzen, kann es zu einer Negativauswahl kommen.
14 Crowdfunding – Eine institutionenökonomische Betrachtung
271
• Ex-interim-Unsicherheit: Nach Abschluss, aber während der Vertragslaufzeit besteht die Gefahr, dass der Kapitalnehmer sich opportunistisch verhält, indem er Handlungsspielräume zu seinen Gunsten und zu Lasten des kapitalgebenden Prinzipals ausnutzt (Hidden Action, Hidden Information). So könnte der Kapitalnehmer das Kapital bspw. nicht vereinbarungsgemäß verwenden oder er verschleiert eine Verschlechterung seiner wirtschaftlichen Lage, die seine Rückzahlungsfähigkeit beeinträchtigt. • Ex-post-Unsicherheit: Wenn die Finanzbeziehung etwa durch Insolvenz des Kapitalnehmers beendet wurde und der Prinzipal sein Kapital nicht oder nicht in voller Höhe zurückerhält, besteht die Gefahr opportunistischen Verhaltens des Agenten, der möglicherweise Kapital zu seinem eigenen Vorteil beiseite geschafft hat, mit dem die Forderungen des Prinzipals hätten erfüllt werden können. Ob die Rückzahlung des Geldes aufgrund bewusster Handlungen des Agenten gefährdet ist, z. B. durch opportunistisches Verhalten, oder ob vom Agenten nicht zu vertretende Gründe dazu geführt haben, z. B. ein konjunktureller Rückgang, ist dabei letztlich unerheblich. Denn der kapitalgebende Prinzipal erhält sein Geld nicht zurück. Darum sind auch in Finanzbeziehungen Screening, Monitoring, Signaling, Reporting und eine anreizkompatible Vertragsgestaltung wichtige Lösungsmöglichkeiten für die Gefahren, die aus Informationsasymmetrien und opportunistischem Verhalten entstehen können. Die Kreditfähigkeit und die Kreditwürdigkeit eines Kreditnehmers werden im Vorfeld des Vertragsabschlusses überprüft. Das zu finanzierende Projekt wird begutachtet. Die Rückzahlungsfähigkeit des Agenten wird anhand von Jahresabschlüssen, unterjährigen Kennzahlen, Cash-Flows u. v. m. laufend beobachtet, die vom Agenten regelmäßig an den Prinzipal übersandt werden. Allerdings sind Privathaushalte als kapitalgebende Prinzipale mit der Durchführung solcher Kreditüberwachungsmaßnahmen häufig überfordert. Darum eröffnen sich wiederum Gelegenheiten für den Agenten zu opportunistischem Verhalten. Das ist ein Grund für die Einschaltung von Finanzintermediären. Finanzintermediäre sind darauf spezialisiert, Informationen in Finanzbeziehungen zu analysieren und zu bewerten sowie Überwachungs- und Kontrollfunktionen zu übernehmen. Opportunistisches Verhalten von Agenten zu erkennen und einzuhegen bzw. zu sanktionieren gehört für sie zum täglichen Geschäft. Aufgrund ihrer standardisierten und auf diese Tätigkeiten ausgerichteten Geschäftsprozesse fallen bei ihnen deutlich geringere Transaktionskosten an. Bilanzen und andere Unternehmenszahlen werden digital verarbeitet und bewertet. Projekte und Managementqualifikationen werden von erfahrenen Mitarbeitern beurteilt. Die Vertragswerke sind standardisiert und darauf ausgerichtet, die Rückzahlung des Kapitals abzusichern. Durch diese Spezialisierung sinken bspw. Informations-, Vertragsverhandlungs- und Absicherungskosten. Darüber hinaus dienen Finanzintermediäre der Risikotransformation. Wenn ein Privathaushalt einen im Vergleich zu seinem Gesamtbudget großen Kapitalbetrag an einen einzigen Kapitalnehmer gibt, ist die Gefahr des Untergangs dieses Kapitals groß,
272
T. Ostendorf
wenn dieser Kapitelnehmer oder sein Projekt scheitern. Traditionelle Finanzintermediäre dienen dagegen häufig als Kapitalsammelstellen. Sie sammeln das Kapital von vielen Kapitalgebern und verteilen es wiederum auf viele Kapitalnehmer. Wenn einer dieser Kapitalnehmer scheitert, ist nur ein kleiner Teil der Summe verloren und nicht das gesamte Kapital, das auf mehrere Kapitalnehmer verteilt ist. Wenn ein Kapitalgeber diese Risikodiversifikation erreichen möchte, muss er eine Vielzahl an potenziellen Kapitalnehmern finden, mit ihnen Vertragsverhandlungen führen, die Rückzahlung überwachen usw. Er ist also mit hohen Transaktionskosten konfrontiert. Durch die Einschaltung von Finanzintermediären werden diese Transaktionskosten erheblich vermindert. Darüber hinaus haben sich die Finanzintermediäre auf die Prüfungs-, Überwachungs- und Kontrollfunktion von Finanzbeziehungen spezialisiert, sodass sie Skaleneffekte ausnutzen können, die nicht nur die Transaktionskosten, sondern auch die Prozesskosten erheblich verringern (Hagen und Stein 2000, S. 16). Das gilt im Übrigen nicht nur für Kreditbeziehungen. Auch bei der Bereitstellung von Eigenkapital für ein Unternehmen kommt es zu einer Prinzipal-Agent-Beziehung, denn der Kapitalgeber ist auch hier der schlechter informierte Prinzipal, während der kapitalnehmende Agent besser informiert ist (Brealy et al. 2017, S. 12–3; Berk und DeMarzo 2017, S. 597–616). Die Agentur-Probleme sind dieselben wie zuvor geschildert: Informationsasymmetrien, Negativselektion, opportunistisches Verhalten, Moral Hazard. Da diese Probleme seit langer Zeit bekannt sind, haben sich für bestimmte Rechtsformen, die darauf ausgelegt sind, viele Anleger am Kapital zu beteiligen, wie z. B. die Aktiengesellschaft, gesetzliche Regeln herausgebildet, die diese Themen adressieren. So muss eine Aktiengesellschaft einen Aufsichtsrat bilden, der von den Kapitaleignern gewählt wird und mindestens viermal im Jahr zusammentritt, um stellvertretend für die Anteilseigner die Geschäftstätigkeit des Managements als Agenten zu überwachen. Zudem müssen alle Anteilseigner mindestens einmal im Jahr zu einer Hauptversammlung eingeladen werden, auf welcher der Vorstand die Anteilseigner informieren und für Fragen zur Verfügung stehen muss. Die Gesellschaft muss einen Geschäftsbericht veröffentlichen, in dem sie umfassend über die Geschäftstätigkeit des letzten Geschäftsjahres berichtet u. v. a. m. Börsen legen darüber hinausgehende Regeln für die bei ihnen notierten Unternehmen fest, z. B. unterjährige Berichterstattung, Rechnungslegungsstandards etc. All das dient dazu, die Informationsasymmetrien zwischen dem kapitalgebenden Prinzipal und dem kapitalnehmenden Agenten und die daraus folgenden Agenturprobleme zu vermindern. Anleger, die Eigenkapital für Gesellschaften anderer Rechtsformen bereitstellen, wie z. B. Personengesellschaften oder GmbHs, sind in der Regel nicht durch entsprechende Transparenzvorschriften geschützt. Hier sind die Anleger und Kapitalnehmer wiederum auf sich selbst gestellt, um die Informationsasymmetrien durch bilaterale vertragliche Vereinbarungen zu verringern, was wiederum zu erhöhten Transaktionskosten führt. Aber auch hier haben sich Finanzintermediäre etabliert, die sich auf die Kapitalanlage in nicht-börsennotierte Unternehmen spezialisiert haben, wie bspw. Private Equity Fonds.
14 Crowdfunding – Eine institutionenökonomische Betrachtung
273
14.3 Crowdfunding als Finanzierungsalternative Crowdfunding als Idee, Projekte mit größerem Finanzbedarf über die Sammlung von Kleinbeträgen von einer Vielzahl von Kapitalgebern zu finanzieren, ist historisch nicht neu. Die Genossenschaftsidee etwa folgt einem ähnlichen Ansatz (Sixt 2014, S. 55–56). Seit Anfang der 2000er-Jahre wird diese Idee aber mit den digitalen Medien verbunden und hat damit eine weltweite Verbreitung gefunden. Dazu wurden im Internet zahlreiche Plattformen gegründet, auf denen Kapitalsuchende ihre Projekte vorstellen. Prospektive Kapitalgeber nutzen diese Plattformen, um geeignete Vorhaben zu finden, in die sie ihr Kapital investieren. Häufig gilt bei diesen Plattformen der Grundsatz „Alles oder Nichts“, d. h., die Finanzierung ist nur dann erfolgreich, wenn das vorab festgelegte Finanzierungsziel erreicht wird (ansonsten bekommen die Kapitalgeber ihr Geld zurück). Beim Crowdfunding sind somit drei Beteiligte am Finanzierungsprozess zu betrachten: Kapitalgeber, Kapitalnehmer und Plattform. Es liegt also eine mehrstufige Prinzipal-Agent-Beziehung vor.
14.3.1 Grundlagen des Crowdfundings Grundsätzlich sind die verschiedenen Arten des Crowdfundings nach der Art der Gegenleistung zu unterscheiden. Es gibt Arten, bei denen die Kapitalgeber keine finanziellen Interessen verfolgen, und solche, bei denen eine Gegenleistung finanzieller Art angestrebt wird (Sixt 2014, S. 57–58). Crowdfundingarten ohne finanzielle Gegenleistung sind: • Donation-based Crowdfunding (Crowddonating): Bei dieser spendenbasierten Finanzierung wird keine Gegenleistung in Aussicht gestellt. Der Kapitalgeber unterstützt das Projekt aus rein altruistischen oder ideellen Gründen. • Reward-based Crowdfunding: Diese Art des Crowdfundings ist dadurch gekennzeichnet, dass der Kapitalgeber ebenfalls keine finanzielle Gegenleistung für seine Unterstützung erhält; allerdings erhält er irgendeine andere Form der Kompensation, wie bspw. ein Muster des produzierten Gutes, eine Aufmerksamkeit des unterstützten Künstlers (z. B. einen signierten Druck) oder die Nennung im Abspann des finanzierten Films (wie bei „Stromberg – Der Film“). Crowdfundingarten mit finanzieller Gegenleistung sind: • Equity-based Crowdfunding (Crowdinvesting): Wörtlich bedeutet diese Form des Crowdfundings, dass der Kapitalgeber Eigenkapitalanteile an dem finanzierten Unternehmen erhält. In der Praxis ist dies jedoch kein rechtliches Eigenkapital, sondern lediglich mezzanines, wirtschaftliches Eigenkapital in Form von Nachrangdarlehen,
274
T. Ostendorf
wie z. B. partiarische Darlehen, deren Verzinsung sich u. a. nach dem Erfolg des Unternehmens richtet. • Lending-based Crowdfunding (Crowdlending): Bei dieser Art des Crowdfundings werden Kreditbeziehungen zwischen den Kapitalgebern und dem Kapitalnehmer etabliert. Die finanzielle Gegenleistung besteht hier üblicherweise aus einer Verzinsung der Darlehen. Das Donation-based Crowdfunding eignet sich in erster Linie für soziale, ökologische, künstlerische und sonstige Projekte, die ideell motiviert sind und keine finanziellen Ziele verfolgen. Diese Form der Finanzierung tritt somit in Konkurrenz mit herkömmlichen Spendenaufrufen seitens Kirchen, karitativen Einrichtungen, NGOs u. a. Ein Vorteil des Donation-based Crowdfundings aus Sicht des Spenders ist, dass die finanzierten Projekte klar definiert sind, während bei den traditionellen Spendenaufrufen eine Vielzahl von verschiedenen Vorhaben gleichzeitig finanziert wird. Mit dem Reward-based Crowdfunding kann es Start-ups und anderen, durchaus finanzielle Ziele verfolgenden Einzelpersonen und Organisationen gelingen, Gelder für ein Projekt einzusammeln und die Bezahlung aus den Ergebnissen des Projektes zu leisten. Damit ist gleichzeitig auch eine Art Markttest verbunden, inwieweit das geplante Projekt bei der „Crowd“ Anklang findet. Denn nur, wenn die Kapitalgeber Interesse am Ergebnis des Projektes haben und die versprochene Gegenleistung attraktiv erscheint, werden genügend Kapitalgeber zusammenkommen, um das Projekt zu finanzieren. Da diese beiden Crowdfundingarten ohne finanzielle Gegenleistung nur bedingt als Alternativen zu herkömmlichen Finanzierungsmethoden dienen (für das Reward-based Crowdfunding ist bspw. kein Äquivalent aus der traditionellen Finanzierungspraxis bekannt, das über bilaterale Vereinbarungen hinaus geht), werden im Folgenden die Crowdfundingarten mit finanzieller Gegenleistung im Fokus der Betrachtung stehen. Denn diese Finanzierungsformen stellen Alternativen zu herkömmlichen Finanzierungswegen über Banken, Börsen oder andere Mittler dar. Neben dem Kapitalsuchenden und dem Kapitalgeber ist die Plattform der dritte Akteur beim Crowdfunding. Die Plattformen stellen zunächst einmal einen digitalen Marktplatz im Internet zur Verfügung, auf dem sich Kapitalsuchende den Kapitalgebern vorstellen können (Assenmacher 2017, S. 10–11). Die Plattformen agieren dabei nicht als Kapitalsammelstellen, welche die Gelder auf die verschiedenen Projekte verteilen. Der Kapitalgeber muss selbst entscheiden, in welche Projekte er das Geld investiert. Das Ausmaß der weiteren Dienstleistungen, die von Plattformbetreibern angeboten werden, variiert je nach Plattform. Grundsätzlich stehen sie dem Kapitalsuchenden für seine Kampagne beratend zur Seite, übernehmen aber keine Haftung (Sixt 2014, S. 130–131). Eine wichtige Funktion, welche die Plattformen aus Sicht der Kapitalgeber erfüllen, ist die Ex-ante-Auswahl der Projekte. Die Kapitalsuchenden müssen sich zunächst bei der Plattform bewerben, die dann im Zuge einer betriebswirtschaftlichen Due Diligence die Güte des Projektes prüft. In den USA veröffentlichen CrowdfundingPlattformen ihre Ablehnungsquoten, um den Kapitalgebern das Gefühl einer sorgfältigen
14 Crowdfunding – Eine institutionenökonomische Betrachtung
275
Vorabprüfung und Qualitätssicherung der Projekte zu geben (Sixt 2014, S. 131). Jedoch lässt sich allein daraus noch nicht die Qualität des Prüfungsprozesses beurteilen, sodass der Kapitalgeber eine eigene Prüfung anhand der veröffentlichten Daten vornehmen sollte. Es kann allerdings davon ausgegangen werden, dass die Plattformen ein Eigeninteresse daran haben, die Projekte sorgfältig zu prüfen, da gescheiterte Projekte die Reputation einer Plattform schädigen und infolgedessen weniger Investoren diese Plattform wählen könnten. Ex-interim, also während der Finanzierungslaufzeit, liegt die Verantwortung für die Information der Investoren beim Kapitalnehmer; die Plattformen bieten lediglich Unterstützung an, wenn versprochene Informationen nicht geliefert werden. Weitere, eher technische Aufgaben, welche die Plattformen übernehmen, sind die Abwicklung des Zahlungsverkehrs, das Eintreiben von Zinsen und Tilgung inklusive Mahnverfahren sowie gerichtliche Vertretung (Dimler et al. 2018, S. 258–259).
14.3.2 Transaktionskosten im Rahmen von Crowdfunding Die Anzahl der Crowdfunding-Plattformen beziffert Sixt mit weltweit über 600, europaweit mehr als 300 (Sixt 2014, S. 66), das Crowdfunding-Informationsportal Crowdfunding.de hat auf seiner Internetseite allein für den deutschsprachigen Raum aktuell mehr als 100 Plattformen aufgeführt (Crowdfunding.de o. J.). Mithin haben sowohl der Investor als auch der Kapitalnehmer einen erheblichen Suchund Informationsaufwand zu tragen, um die richtige Plattform für ihre Ziele zu finden. Zwar haben sich viele Plattformen auf unterschiedliche Crowdfunding-Arten und häufig auch auf Branchen bzw. Segmente (bspw. Immobilien, Energie, Mittelstand) spezialisiert, aber die reine Menge an verfügbaren Plattformen impliziert hohe Ex-ante-Transaktionskosten. Die einzelnen Plattformen stellen darüber hinaus eine Vielzahl an Projekten vor. Auch hier werden wiederum Kategorien gebildet und Suchwerkzeuge angeboten, aber die Sammlung, Analyse und Bewertung der Information erfordert einen hohen Rechercheaufwand vom prospektiven Kapitalgeber, um das passende Projekt zu finden. Auch aus Sicht des Kapitalsuchers sind Crowdfunding-Kampagnen mit hohen Transaktionskosten verbunden. Zum einen wegen der Auswahl der richtigen Plattform, zum anderen aber auch wegen der aufwendig zu planenden Kampagne mit Vorhabensdarstellung (vorzugsweise per Video), Aufbereitung der notwendigen Unterlagen und der laufenden Information der Investoren. Da die maximalen Investitionssummen von den Crowdfunding-Plattformen regelmäßig so festgelegt werden, dass die kapitalsuchenden Unternehmen nicht der Prospektpflicht unterliegen, fehlt dem Investor die dazugehörige Rechtssicherheit. Er muss sich auf die Unterlagen verlassen, die vom Kapitalnehmer zur Verfügung gestellt und von der Plattform geprüft wurden. Ein Anhaltspunkt für den Investor bezüglich der Güte der einzelnen Projekte könnte die bereits erreichte Finanzierungsquote sein. In
276
T. Ostendorf
der Regel wird ein Finanzierungsziel festgelegt, das auf der Plattform ebenso veröffentlicht wird wie die Restlaufzeit der Finanzierungsphase (die in der Regel nur wenige Wochen dauert) und das bislang bereits zugesagte Kapital. Im Sinne einer „Weisheit der Vielen“ (Sixt 2014, S. 19) könnte der Investor aus der erreichten Finanzierungsquote den indirekten Schluss ziehen, ob ein Projekt gut ist (bei einer hohen Finanzierungsquote) oder schlecht (bei einer niedrigen Finanzierungsquote). Das wäre allerdings sicherlich keine Vorgehensweise eines sorgfältig agierenden Kaufmanns und beinhaltet zudem die Gefahr des aus der Behavioral Finance bekannten Herdenverhaltens, das lediglich zu einem Trendfolgeverhalten des Investors führen würde (zu dem in diesem Kontext durchaus interessanten Zusammenhang zwischen Verfügbarkeitsheuristiken und Investmenttrends z. B. Beck 2014, S. 359–360). Allerdings schützt ihn das „Alles oder Nichts“-Prinzip vieler Plattformen, denn wenn ein Projekt die zuvor festgelegte Finanzierungsschwelle nicht erreicht, bekommt er sein Geld zurück, das von der Plattform während der Finanzierungsphase treuhänderisch verwaltet wurde (Assenmacher 2017, S. 11–12). Bei den Vertragsverhandlungen und dem Vertragsabschluss unterstützen die Crowdfunding-Plattformen Kapitalgeber und -nehmer, indem sie standardisierte Vertragswerke zur Verfügung stellen, sodass diese Ex-ante-Transaktionskosten vergleichsweise gering sind. Ex-interim ist der Investor darauf angewiesen, dass der Kapitalnehmer regelmäßig Informationen bereitstellt, anhand derer der Kapitalgeber überprüfen kann, ob die wirtschaftliche Entwicklung hinreichend für die Bedienung des Kapitals ist. Die Plattformen greifen lediglich ein, wenn der Investor die abgesprochenen Informationen nicht erhält. Die rechtliche Durchsetzungsmöglichkeit ist abhängig von der Vertragsgestaltung. Die Prüfung der Unterlagen während der Finanzierungslaufzeit unterliegt aber ausschließlich dem Investor, die Plattform bietet hier in der Regel keine Unterstützung an. Somit sind die Ex-interim-Transaktionskosten aus Investorensicht beim Crowdfunding hoch. Falls das finanzierte Projekt scheitert und der Kapitalnehmer insolvent ist, steht ebenso, bis auf die erwähnte Unterstützung bei Mahnverfahren und gerichtlicher Vertretung, keine Unterstützung der Plattform an, sodass auch mögliche Ex-post-Transaktionskosten zu Lasten des Investors gehen. Da die Crowdfunding-Plattformen nicht als Kapitalsammelstelle fungieren, also Gelder von vielen Investoren einsammeln, die sie dann auf eine Vielzahl von Projekten verteilen, entfällt die transaktionskostensparende Funktion der Risikodiversifikation (bei traditionellen Geschäftsbanken kommt die Haftungsübernahme noch dazu). Der Investor muss selbst über seine Portfolioallokation entscheiden und hierfür die entsprechenden Such- und Informationskosten aufwenden. Zu erwarten steht allerdings nicht, v. a. für den Privatinvestor, dass er genügend Erfahrungen sammelt, um Skaleneffekte bei der Prüfung von Investitionsvorhaben zu erreichen. Zudem existiert kein organisierter Sekundärmarkt für Crowdfunding-Investitionen, sodass der Investor bei einer Risikoverschlechterung sein Investment nur unter Inkaufnahme sehr hoher Suchund Informationskosten veräußern kann und an sein Investment gebunden bleibt, wenn er keinen Käufer findet.
14 Crowdfunding – Eine institutionenökonomische Betrachtung
277
Insgesamt betrachtet sind die Crowdfunding-Vorhaben sowohl für den Kapitalgeber als auch für den Kapitalnehmer mit hohen Transaktionskosten verbunden. Auch wenn durch die digitalen Medien die Informationsvermittlung grundsätzlich erleichtert und beschleunigt wird, muss doch letztlich ein Mensch diese Unterlagen zusammen- und bereitstellen sowie auswerten, analysieren und bewerten.
14.3.3 Prinzipal-Agent-Probleme im Rahmen von Crowdfunding Da die Crowdfunding-Plattformen, wie dargestellt, lediglich rudimentäre Prüfungsund Überwachungsaufgaben übernehmen, sind die beiden wesentlichen Akteure, die sich einigen müssen, der Kapitalgeber und der Kapitalnehmer. Damit liegt im Wesentlichen wiederum eine klassische, einstufige Prinzipal-Agent-Konstellation vor, die von Informationsasymmetrien und den damit verbundenen Gefahren opportunistischen Verhaltens, des Moral Hazards und der Negativauslese gekennzeichnet ist. Da die Crowdfunding-Plattformen die vorgestellten Projekte im Vorfeld einer Kreditfähigkeits- und Kreditwürdigkeitsprüfung unterziehen, sind die Informationsasymmetrien zumindest zu einem gewissen Grad gemildert, wobei dieser Grad von der Zuverlässigkeit der Prüfungstätigkeit der Crowdfunding-Plattformen abhängt. Zudem bieten die Crowdfunding-Plattformen direkte Kommunikationswege zwischen prospektiven Investoren und Kapitalnehmern an, sodass der Kapitalgeber zusätzliche Informationen vom Kapitalnehmer vor der Kapitalzusage einholen kann. Das Problem der Hidden Characteristics dürfte damit weitgehend lösbar sein. Der Kapitalnehmer kann durch Signaling sein Informationsverhalten steuern und Vertrauen beim Investor aufbauen. Das bei Banken und Private-Equity-Gebern übliche persönliche Vorstellungsgespräch entfällt hier allerdings, da es schlichtweg zu aufwändig für den Kapitalnehmer wäre, eine Vielzahl von Investoren persönlich zu treffen. Diese haptische Dimension der Kreditwürdigkeitsprüfung wird durch die digitale Projektpräsentation ersetzt, für die von den Plattformen u. a. Videopräsentationen empfohlen werden. Für das Problem der Hidden Action, das während der Finanzierungslaufzeit auftreten kann, bieten die Plattformen allerdings keine hinreichende Lösung. Denn letztlich ist der Investor abhängig von den vom Kapitalnehmer zur Verfügung gestellten Informationen. Die Plattformen empfehlen den Kapitalnehmern eine hohe Informationstransparenz und einen engen Kontakt zu den Kapitalgebern. Aber letztlich kann das nur soweit durchgesetzt werden, wie es vertraglich vereinbart ist und wie der Kapitalnehmer dazu bereit ist. Gerade in Situationen, in denen Probleme auftauchen, sind viele Menschen jedoch geneigt, diese Probleme zu vertagen, anstatt sie offen anzusprechen und frühzeitig Lösungswege zu diskutieren. Also hängt auch die Vermeidung des Problems der Hidden Action letztlich von der Bereitschaft des Kapitalnehmers zu einer transparenten Informationspolitik ab. Aufgrund der Grundannahme opportunistischen Verhaltens geht die Prinzipal-Agent-Theorie davon aus, dass der kapitalnehmende Agent nicht sein volles Leistungspotenzial ausnutzt, um im Interesse des kapitalgebenden Prinzipals zu
278
T. Ostendorf
handeln. Hier sollten klare vertragliche, mit Sanktionen versehene Regeln bei den Vertragsverhandlungen vereinbart werden, um im Streitfall einklagbar zu sein. In diesem Sinne genügt es also nicht, dass die Crowdfunding-Plattform zu Beginn eine Prüfung des Kapitalnehmers vornimmt. Denn auch die laufende Überwachung des Projektes liegt im Interesse des Investors. Dadurch, dass die Crowdfunding-Plattformen nicht so strikt reguliert sind wie Banken, Börsen oder Investmentfonds, ist die Abwicklung der Finanzierung zwar relativ unbürokratisch und spart Prozesskosten. Auf der anderen Seite führt die staatliche Regulierung, wie z. B. eine Prospektpflicht, aber auch zu höherer Rechtssicherheit auf allen Seiten. Dies kann nur eingeschränkt durch privatrechtliche Vertragsbeziehungen abgedeckt werden. Die Frage, die in diesem Zusammenhang beantwortet werden muss, ist, ob staatliche oder private institutionelle Arrangements letztlich die geringeren Gesamtkosten verursachen (Voigt 2009, S. 41–42). Für die Lösung des Problems der Hidden Information, dass also der Prinzipal aufgrund mangelnder Fachkenntnis nicht in der Lage ist, die Handlungen des Agenten zu beurteilen, sollte allerdings der Prinzipal selbst zuständig sein. Durch Screening und Monitoring ist er gehalten, seinen Informationsstand zu verbessern. Wenn er fachliche Defizite hat, sollte er den Kapitalnehmer um Auskunft bitten bzw. eigene Recherchen anstellen. Alternativ könnte er sich auf Projekte konzentrieren, für die er die notwendige Expertise aufweist. Zusammengefasst sind für die Prinzipal-Agent-Probleme im Rahmen von Crowdfunding-Beziehungen Lösungen möglich (vgl. Tab. 14.1). Diese Lösungsmöglichkeiten setzen aber bei allen drei beteiligten Parteien, Kapitalgeber, Kapitalnehmer und Crowdfunding-Plattform, eine entsprechende Bereitschaft voraus, die Probleme zu erkennen, offen anzusprechen und Maßnahmen zu vereinbaren.
14.4 Fazit und Ausblick Der Mitgründer der größten deutschen Crowdfunding-Plattform Startnext, Timo Kreßner, wird auf der Homepage der Plattform wie folgt zitiert: „Crowdfunding ist für mich der logische nächste Schritt von Social Media, da wir durch die wachsende digitale Vernetzung nicht nur Ideen schnell und kostengünstig mit vielen Menschen teilen können, sondern auch direkt finanzieren können. Wir demokratisieren damit die Verteilung von Kapital.“ (Startnext o. J.). Diese Grundidee des Crowdfundings hat nicht nur großen Charme, sondern birgt auch das Potenzial einer disruptiven Technologie, mit der die etablierten Finanzbeziehungen infrage gestellt werden. Allerdings sind aus institutionenökonomischer Sicht dazu institutionelle Arrangements notwendig, welche die Transaktionskosten für Kapitalnehmer und Kapitalgeber senken, Informationsasymmetrien verringern und opportunistischem Verhalten vorbeugen. Die derzeitigen Arrangements sind dafür in Teilen nutzbar, aber einige Themen sollten noch adressiert werden. Insbesondere während der Finanzierungslaufzeit
14 Crowdfunding – Eine institutionenökonomische Betrachtung
279
Tab. 14.1 Transaktionskosten- und Prinzipal-Agent-Probleme bei Finanzierungen mithilfe von Crowdfunding und traditionellen Finanzintermediären aus Sicht von Investoren und Kapitalnehmern Crowdfunding
Traditionelle Finanzintermediäre
Suche nach geeigneten Plattformen, Auswahl des konkreten Projekts, viele Vertragspartner, standardisierte Verträge
Suche nach geeigneten Finanzintermediären, i. d. R. Streuung der Kapitalanlagen, ein Vertragspartner, standardisierte Verträge
Transaktionskosten Ex-ante-Transaktionskosten
Ex-interim-Transaktionskosten Informationsbereitstellung durch Kapitalnehmer, Prüfung durch Investor, direkte Kommunikation zwischen Investor und Kapitalnehmer Ex-post-Transaktionskosten
I. d. R. laufende Überwachung durch Finanzintermediär, Transaktionskosten trägt Finanzintermediär
U. U. Unterstützung bei Mahn- Durch Risikodiversifikation verfahren und gerichtlicher vergleichsweise geringes Vertretung Risiko, Transaktionskosten trägt Finanzintermediär
Prinzipal-Agent-Probleme Hidden Characteristics
Projektprüfung durch PlattKreditwürdigkeitsprüfung/ form, Ex-ante-Screening durch Screening durch FinanzinterInvestor mediär
Hidden Information
Ex-interim-Monitoring durch Investor (Effektivität hängt u. a. von den Fachkenntnissen des Investors ab), Sanktionen bei regelwidrigem Verhalten müssen ex-ante vertraglich geregelt werden
Professionelles Monitoring durch Finanzintermediär mit erprobten Prozessen und ausgebildeten Fachleuten, Sanktionen bei regelwidrigem Verhalten in Standardverträgen festgelegt
Hidden Action
Ex-interim-Monitoring durch Investor, Informationsbereitstellung durch Kapitalnehmer, Sanktionen müssen vertraglich geregelt werden
Professionelles Monitoring durch Finanzintermediär, Risiko trägt i. d. R. Finanzintermediär
bestehen potenziell noch größere Informationsasymmetrien, wenn nicht entsprechende sanktionierbare vertragliche Regelungen getroffen werden, die diese vermindern. Zudem sind die Such- und Informationskosten, insbesondere für unerfahrene Privatanleger, aufgrund der Vielzahl der Anlagemöglichkeiten hoch. Letztlich haben sich aus diesen Gründen die traditionellen Finanzintermediäre, wie Banken, Versicherungen, Investmentfonds, etablieren können, denn sie haben institutionelle Regelungen gefunden, welche die Probleme aus Sicht der
280
T. Ostendorf
ransaktionskosten- und Prinzipal-Agent-Theorie mildern. Darüber hinaus wurden staatT liche institutionelle Regelungen etabliert und in den Jahren seit der Finanz- und Weltwirtschaftskrise 2008 f. noch verstärkt, um Kapitalgeber und -nehmer zu schützen. Hier steht das Crowdfunding noch am Anfang einer Entwicklung, die derzeit noch nicht absehbar ist. Auch wenn somit Crowdfunding noch keine vollwertige Alternative zur traditionellen Finanzintermediation darstellt, so kann es als Ergänzung im Finanzierungsmix insbesondere von kleinen und mittleren Unternehmen (KMU) oder für die Finanzierung von risikoreichen Projekten ein sinnvoller Baustein sein. Die Ausgestaltung als nachrangiges Mezzanine-Kapital etwa stärkt c. p. das wirtschaftliche Eigenkapital, sodass Banken eher gewillt sein könnten, die Finanzierungsprojekte mit Krediten zu unterlegen. Bislang konzentriert sich ein Großteil der Crowdfunding-Finanzierungen noch auf künstlerische und soziale Projekte (Brealy et al. 2017, S. 382). Hier wird auch in Zukunft das größte Potenzial von Crowdfundings liegen. Eine substanzielle Ausweitung auf die normale Unternehmensfinanzierung hängt wohl auch davon ab, dass der Begriff Crowdfunding einer breiten Öffentlichkeit vertraut wird. In Deutschlands traditionell bankenorientierter Finanzierungslandschaft wird dieser Umbruch sicherlich länger dauern als in den eher kapitalmarktgeprägten angelsächsischen Ländern oder in Schwellenländern mit nicht vollständig entwickelten Finanzierungssystemen. Hilfreich für die Verbreitung der Crowdfunding-Idee in Deutschland könnte die anhaltende Niedrigzinsphase sein, da Investoren nach Geldanlagemöglichkeiten mit lukrativen Renditen suchen, die von Banken und Versicherungen mit traditionellen Sparprodukten nicht mehr geboten werden können. Hier bieten die Crowdfunding-Plattformen eine große Auswahl hochverzinster Projekte. Allerdings sollte sich der Investor stets bewusst sein, dass hohe Renditen regelmäßig mit hohen Risiken einhergehen.
Literatur Arrow, K. (1969). The organization of economic activity: Issues pertinent to the choice of market versus non-market allocation. In U.S. Joint Economic Committee of Congress (Hrsg.), The analysis and evaluation of public expenditure: The PBB system (S. 47–64), Washington: U.S. Government Printing Office. Assenmacher, K. (2017). Crowdfunding als kommunale Finanzierungsalternative. Wiesbaden: Springer Gabler. Beck, H. (2014). Behavioral Economics. Eine Einführung. Wiesbaden: Springer Gabler. Berk, J., & DeMarzo, P. (2017). Corporate finance (4. Aufl.). Harlow: Pearson Education Limited. Brealy, R. A., Myers, S. C., & Allen, F. (2017). Principles of corporate finance (12. Aufl.). New York: McGraw Hill Education. Coase, R. (1937). The Nature of the firm. Economica, 4, 386–405. Crowdfunding.de (o. J.). Plattformen. https://www.crowdfunding.de/plattformen/. Zugegriffen: 30. Aug. 2019.
14 Crowdfunding – Eine institutionenökonomische Betrachtung
281
Dimler, N., Karcher, B., & Peter, J. (Hrsg.). (2018). Unternehmensfinanzierung im Mittelstand. Lösungsansätze für eine maßgeschneiderte Finanzierung. Wiesbaden: Springer Gabler. Howe, J. (2006). The Rise of Crowdsourcing. Wired. https://www.wired.com/2006/06/crowds/. Zugegriffen: 31. Aug. 2019. Howe, J. (2008). Crowdsourcing: Why the power of the crowd is driving the future of business. New York: Crown Business. Kahneman, D. (2011). Thinking fast and slow. New York: Macmillan. Perridon, L., Steiner, M., Rathgeber, & A. W. (2017). Finanzwirtschaft der Unternehmung, (17. Aufl.). München: Vahlen. Schumpeter, J. A. (2018). Kapitalismus, Sozialismus und Demokratie, (9. Aufl.). Tübingen: utb. Sixt, E. (2014). Schwarmökonomie und Crowdfunding. Wiesbaden: Springer Gabler. Startnext (o. J.). Zitat Timo Kreßner. https://www.startnext.com/info/startnext.html. Zugegriffen: 30. Aug. 2019. Thaler, R. H. (2016). Misbehaving. The making of behavioral economics. New York: Norton. Voigt, S. (2009). Institutionenökonomik, (2. Aufl.). Paderborn: utb. von Hagen, J., & von Stein, J. H. (2000). Obst/Hintner: Geld- Bank- und Börsenwesen (40. Aufl.). Stuttgart: Schäffer-Poeschel. Williamson, O. E. (1985). The economic institutions of capitalism. New York: The Free Press.
Prof. Dr. Thomas Ostendorf ist seit 2017 Dozent für Betriebswirtschaftslehre, insbesondere Finanzwesen, an der FOM Hochschule für Oekonomie & Management in Bremen und Hamburg. Seine Forschungsschwerpunkte liegen in den Feldern Anlageverhalten von Kapitalinvestoren, Finanzierung von KMU sowie alternative Anlage- und Finanzierungsinstrumente.
Die Blockchain-Technologie und ihre Anwendungspotenziale
15
Charmaine Fritsche
Inhaltsverzeichnis 15.1 Einführung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284 15.2 Grundlagen der Blockchain-Technologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 15.2.1 Zur Geschichte der Blockchain. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 15.2.2 Blockchain verstehen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 15.3 Spieltheorie – Das Gefangenendilemma. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292 15.4 Anwendungsmöglichkeiten von Blockchain. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 15.4.1 Aufsichtsfunktion versus Selbstregulierung im Bankensektor . . . . . . . . . . . . . 296 15.4.2 Automatisierte Identifizierungsprozesse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 15.4.3 Grenzüberschreitende Kreditverträge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 15.4.4 Grenzüberschreitender Geldtransfer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298 15.4.5 Smart Contracts. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298 15.4.6 Zukunftstrends. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 15.5 Fazit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
Zusammenfassung
Technologische Entwicklungen haben im vergangenen halben Jahrhundert gerade den Bereich der Informations- und Kommunikationstechnologie von Grund auf revolutioniert. Blockchain, die Technologie hinter der Kryptowährung Bitcoin, wurde 2008 der Welt vorgestellt und gilt als potenzieller Innovationsmotor der kommenden Jahre. In diesem Artikel geht es darum, die Grundlagen und Funktionsweise von Blockchain zu verstehen. Ferner wird ein Zusammenhang zwischen der C. Fritsche (*) FOM Hochschule, Essen, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_15
283
284
C. Fritsche
lockchain-Technologie und der Spieltheorie hergestellt. Blockchain wurde als B strategisches Netzwerk entwickelt, in dem die Spieler im eigenen Interesse handeln und trotzdem das Netzwerk als Ganzes stabil bleibt und insgesamt gedeiht. Es wird beschrieben, wie die Blockchain-Technologie eingesetzt werden könnte, um Effizienzsteigerungen zu erzielen. Ein Anwendungsbeispiel ist der Bankensektor: Banken als Vermittler bieten Kunden kostenintensive Vermittlungsdienste. Im Vergleich beseitigt die sich selbst regulierende Blockchain die Vermittlungsfunktion von Banken und senkt dadurch die Kosten. Durch die Blockchain-Protokolle können Smart Contracts die traditionellen Regulierungsfunktionen von Banken und Dienstleistern ersetzen und zu transparenten und effizienten Ergebnissen führen.
15.1 Einführung Vermittler spielen immer eine entscheidende Rolle bei der Ausführung und Aufzeichnung von sensiblen Transaktionen mit hohem Wert. Im Bankgeschäft ermöglicht eine Bank den reibungslosen Geldtransfer zwischen zwei Parteien gegen eine geringe Gebühr. In ähnlicher Weise tritt bei Immobilienverträgen ein Makler als Vermittler auf, indem er das Eigentum und die vertraglichen Rechte und Pflichten im Zusammenhang mit dem Kauf oder Verkauf von Immobilien prüft. Die mit diesen Intermediären verbundenen Nachteile können wie folgt angegeben werden: a) Transaktionskosten, b) vom Vermittler festgelegte Zeit- oder Mengenbegrenzungen und c) die Möglichkeit von Betrug oder Fehlern bei Transaktionen. Das Internet half bei der Schaffung einer digitalen Technologie, der Blockchain, als Alternative zur normalen Abwicklung und Aufzeichnung von Transaktionen. Blockchain unterstützt Transaktionen in alternativen digitalen Währungen wie z. B. Bitcoin. Diese Technologie eliminiert herkömmliche Kosten und die Rolle, die Zwischenhändler bei der Ermöglichung und Sicherung einer Transaktion spielen. Dieser Artikel ist in drei Hauptabschnitte unterteilt. Abschn. 15.2 zielt darauf ab, die Grundlagen von Blockchain zu verstehen. Abschn. 15.3 befasst sich mit der Verknüpfung von Blockchain und Spieltheorie. Hier werden einzelne und iterative Spiele im Zusammenhang mit Blockchain behandelt. Es wird gezeigt, dass die Ergebnisse von iterativen Spielen die ehrliche Interaktion zwischen Teilnehmern in einem Blockchain-Netzwerk unterstützen. Abschn. 15.4 Teil befasst sich mit der Anwendung von Blockchain in der Wirtschaft, wobei ein besonderer Schwerpunkt auf Smart Contracts liegt.
15 Die Blockchain-Technologie und ihre Anwendungspotenziale
285
15.2 Grundlagen der Blockchain-Technologie 15.2.1 Zur Geschichte der Blockchain 2008 stellte ein Computerprogrammierer unter dem Pseudonym Satoshi Nakamoto die Idee der Blockchain vor. Es wurde als elektronisches Kassensystem konzipiert, das es Teilnehmern eines Computernetzwerks ermöglichte, Online-Zahlungen in digitaler Währung vorzunehmen. Die Zusammenfassung der Einführungspublikation über Blockchain und der Websitelink dazu wurden vom Autor an eine Gruppe von Online-Benutzern von kryptografischen Währungen in einer E-Mail mit den folgenden Worten gesendet:
I’ve been working on a new electronic cash system that’s fully peer-to-peer, with no trusted third party. (Satoshi Nakamoto Institute 2008)
Die Website bitcoin.org wurde 2008 registriert, und am Anfang des Folgejahres wurde der erste Block, der Genesis-Block der Bitcoin-Netzwerkkette, erstellt. Ein paar Dutzend Menschen weltweit schlossen sich dem Netzwerk an und haben Bitcoins gehandelt. Diese Bitcoins wurden schließlich Sammlerstücke. Ein Jahr später, im Oktober 2009, verkaufte eine Internet-Börse 5050 Bitcoins zum Wechselkurs von 1006 Bitcoins pro US-Dollar (Ammous 2018). Dieser Preis war äquivalent zu den Stromkosten, die zur Herstellung eines Blockes damals benötigt wurden. Es war der erste Kauf von Bitcoin mit Geld. Damit wurde die Blockchain-Technologie Teil der digitalen Welt. In der Literatur gibt es mittlerweile eine kaum überschaubare Vielzahl an Veröffentlichungen zum Thema Blockchain. Beispielhaft seien an dieser Stelle Yermack (2013) sowie Narayanan et al. (2016) genannt, die umfassende Arbeiten über die Funktionsweise der Blockchain, ihre Anwendungen in der Finanzbranche und intelligente Verträge, sogenannte Smart Contracts, verfasst haben. Auf diese Weise, so ihre These, können Staat und Wirtschaft kooperieren und digitale Plattformen für dezentrale Transaktionen schaffen.
15.2.2 Blockchain verstehen Der Name Blockchain selbst beschreibt die Grundstruktur dieser Technologie. Ein Block ist wie eine Kalkulationstabelle, die eine Liste von Transaktionen enthält. Transaktionen können monetärer oder vertraglicher Natur sein oder eine Kombination aus beiden. Einzelne Blöcke, die Transaktionsdatensätze enthalten, werden nacheinander zu einer Kette von Blöcken verknüpft. Das Besondere an Blockchain ist, dass jeder Block in der Kette einen Zeitstempel erhält. Datensätze, die einmal in einem Block enthalten sind, können nicht mehr unbemerkt geändert werden.
286
C. Fritsche
Jeder Computer in einem Blockchain-System wird als Node bezeichnet. Benutzer an Nodes in der Blockchain handeln miteinander. Diese Transaktionen werden in Blöcken aufgezeichnet. Benutzer können anonym bleiben, haben jedoch verschlüsselte Identitäten. Jede Transaktion wird auch verschlüsselt. Diese beiden kryptografischen Anforderungen machen Betrug in der Blockchain theoretisch unmöglich. Das Erstellen und Aktualisieren von Datensätzen in der Blockchain erfolgt dezentral. Es gibt keine Vermittler oder Befugnisse, um die Aufzeichnung und Überwachung von Informationen zu kontrollieren. Bestimmte Benutzer im Netzwerk, sogenannte Miner, sind für das Hinzufügen von Informationen zu einem Block verantwortlich. Sobald eine Transaktion geprüft und validiert wurde, kann sie in einen Block aufgenommen werden.
15.2.2.1 Öffentliche verteilte Kontobücher Daten in einer Blockchain sind für alle Teilnehmer im globalen Netzwerk zugänglich. Dies macht die Informationen im Block öffentlich und eröffnet theoretisch die Möglichkeit von Betrug. Kopien derselben Blöcke werden jedoch über das Netzwerk verteilt. Jeder Node hat Zugriff auf denselben Datensatz, da er repliziert wird. Wenn Daten geändert werden, kann jeder im Netzwerk den für die Änderung verantwortlichen Node identifizieren. Dies ist Grund genug, um zu vermeiden, dass Benutzer Änderungen an den Daten in einem Block vornehmen. Manchmal wird Blockchain als dezentrales Kontobuch (engl. Ledger) bezeichnet. Ledger ist ein Begriff, der der Buchhaltung entstammt und bezeichnet ein Kontobuch, in dem Geldtransaktionen erfasst werden. Bei der Blockchain bezieht sich ein Ledger auf Informationsblöcke mit Geldtransaktionen oder andere Transaktionsarten. 15.2.2.2 Die digitale Signatur Der Begriff Kryptografie bei Computeroperationen bezieht sich auf die Verwendung spezieller Codes, um die Sicherheit von Informationen in Computernetzwerken zu gewährleisten. Um Sicherheit und Ehrlichkeit im Blockchain-Netzwerk zu garantieren, wird Verschlüsselung verwendet. Verschlüsselung bedeutet die Verwendung einer digitalen Identifikation, die Benutzer zur Teilnahme an Netzwerktransaktionen berechtigt. Sie besteht aus einem öffentlichen Schlüssel oder einem Wallet und einem privaten Schlüssel (Catalini und Gans 2019). Während einer Transaktion werden keine Namen von Vertragspartnern erfasst. Daher ist ein Wallet, eine digitale Geldbörse, eine Voraussetzung für jedes Mitglied im Blockchain-Netzwerk. Die Wallet (Geldbörse) ist wie eine Adresse und besteht aus einer Kombination von Buchstaben und Zahlen. Sie ist der öffentliche Schlüssel und identifiziert den Benutzer. Ein privater Schlüssel ist eine zufällige Folge von Zahlen, die dem Schlüssel eines Gebäudes ähnelt und den Besitzern des Schlüssels den Zugang ermöglicht. In der Blockchain ermöglicht ein privater Schlüssel einem Teilnehmer, auf Informationen zuzugreifen und Transaktionen im Netzwerk durchzuführen. Die Wallet in Kombination mit dem privaten Schlüssel ermöglicht es einer Person, einen Vertrag mit einer sogenannten
15 Die Blockchain-Technologie und ihre Anwendungspotenziale
287
digitalen Signatur zu besiegeln. Im Falle einer Geldüberweisung muss die Person, die den Vertrag zur Zahlung eines bestimmten Geldbetrags abschließt, mit ihrer privaten Schlüsselnummer unterzeichnen.
15.2.2.3 Verschlüsselung eines Blocks Wenn ein Teilnehmer eine Zahlung an einen anderen Teilnehmer tätigt, muss die Transaktion als Eingabe in einem Block erfasst werden, damit sie von allen Teilnehmern eingesehen werden kann. Dafür müssen die Eingabedaten auf dem Block mit einem digitalen Stempel, dem sogenannten Hash Code, gesichert werden, um zu zeigen, dass diese wahr sind. Wenn Daten in einen Block eingegeben werden, wird der Hash zum Fingerabdruck der Daten. Es werden nicht nur einzelne Transaktionen im Block, sondern auch der gesamte Inhalt des Blocks gehasht. Da alle Teilnehmer im Netzwerk über eine Kopie derselben Datenbank und somit denselben Hash eines Blockes verfügen, sind alle über die Transaktionen in diesem Block informiert (Catalini und Gans 2019). Der SHA256 (Secure Hash Algorithm), der im Bitcoin-Netzwerk verwendet wird, ist eine Hash-Funktion, die von der National Security Agency (NSA) der USA erstellt wurde. Es handelt sich um eine Reihe von Zufallszahlen (siehe folgendes Beispiel). Die SHA-256-Hash-Funktion konvertiert einen bestimmten Text oder andere Daten in eine 256-Bit-Zeichenfolge aus 64 Buchstaben und Zahlen und macht sie so zu einem digitalen Fingerabdruck für eine bestimmte Transaktion oder einen Block. Jede Menge von Eingabedaten in einem Block ist darauf ausgelegt, genau einen 64-Hash-Code zu erzeugen (PasswordsGenerator 2018). Darüber hinaus erzeugen dieselben Daten immer genau denselben Hash. Beispiel
Der SHA256-Hash für zwei ähnliche, aber nicht identische Texte ist wie folgt: We live in the hope that the null will be rejected. AF38AFC11662FAE6A6A10684CC52278A4D5269846185630A41890E02A7251 E5E We live in the hope that the Null will be rejected. F0080F69BCCB261477F0EBEC6678FE0ABEFFD9E5CB13434BE3A1D30180 DED291 ◄ Um die Sicherheit der Daten im Block zu erhöhen, wird jeder neu erstellte Block mit dem alten Block verbunden. Dazu wird der Block-Hash zusammen mit dem Hash des vorherigen Blocks angezeigt. Die Abb. 15.1 zeigt, wie der Hash von Block 02 mit dem Hash von Block 01 verbunden ist. Wenn jemand einen Block manipulieren und die darin enthaltenen Informationen ändern wollte, würde sich der Hash des Blocks ändern. Infolgedessen würde eine Änderung in diesem Block eine Änderung in allen nachfolgenden Blöcken bewirken. Eine solche Kryptographie macht das Hacken schwierig, wenn nicht unmöglich (Schlatt et al. 2017).
288 Block
C. Fritsche 01
Nonce
Block
02
Nonce
Data
Input for January 2019
Data
Input for February 2019
Previous
00000000000000000000 000000000000
Previous
Block hash
128C70B325697073637 C907E8669732F602FEF 436AC05E9A292A07D8 BFB44E78
Block hash
128C70B325697073637C 907E8669732F602FEF43 6AC05E9A292A07D8BFB 44E78 EE37F91A05F2DEEAB84 B1A3EFDC318741F7BD6 E56919ABDC8C9BE9437 042A37C
Mine
Mine
Abb. 15.1 Der Block-Hash verbindet Block 1 mit Block 2
In einem Block können mehrere Transaktionen mit jeweils einem eigenen Hash enthalten sein. Die Transaktionen sind nicht in einer Sequenz, sondern in einer binären baumartigen Weise miteinander verbunden. Die Transaktionen auf der untersten Ebene werden Blätter genannt. Wenn es zwei Transaktionen auf Ebene 0 gibt, sind sie mit einer Transaktion auf der höheren Ebene (Ebene 1) verbunden. Der Hash, der die beiden Transaktionen der unteren Ebene (Ebene 0) mit der Transaktion auf der höheren Ebene (Ebene 1) verbindet, wird als Merkle-Wurzel dieses Drei-Transkationen-Blocks bezeichnet. Wenn es vier Blatttransaktionen in Ebene 0 gibt, werden jeweils zwei Blätter mit einer Transaktion auf Ebene 1 verbunden. Die beiden Transaktionen auf Ebene 1 werden dann mit einer Transaktion auf Ebene 2 verbunden. Der resultierende Hash auf Ebene 2 ist die Merkle-Root des Blocks. Er repräsentiert alle Transaktionen innerhalb dieses bestimmten Blocks.
15.2.2.4 Miners und Proof of Work Miners sind Personen, die den sogenannten Arbeitsnachweis erbringen. Sie sind mit dem Netzwerk verbunden, verfügen über Programmierkenntnisse und erstellen den Hash-Code oder Block-Hash für einen bestimmten Block. Mining, übersetzt Abbau, basierend auf seiner englischen Bedeutung des Goldschürfens, bezeichnet hier das digitale Schürfen. Proof of Work ist der Arbeitsnachweis. Der Nachweis der Arbeit von Miners ist mathematischer Natur und setzt die Erfüllung verschiedener Anforderungen voraus. Dieser bezieht sich auf die zeit- und kostenintensive Aufgabe, den Hash für den Block zu erstellen, damit ein Block validiert und der Kette hinzugefügt werden kann (Narayanan et al. 2016).
15 Die Blockchain-Technologie und ihre Anwendungspotenziale
289
Nonce Um die Daten noch sicherer zu machen, wird im Block eine „Nonce“ hinzugefügt. Nonce oder number used once ist eine Zufallsnummer, die in dem Block integriert ist und daher den Block-Hash beeinflusst. Wenn sich die Nonce ändert, ändert sich auch der Block-Hash. Eine Nonce zu identifizieren, die einen speziellen Hash erzeugt, ist eine Herausforderung, die selbst Computer nicht schnell bewerkstelligen können. Dies gewährleistet die Informationssicherheit im Block. Damit ein Block akzeptiert wird, müssen bestimmte Anforderungen erfüllt werden, die unter anderem Folgendes beinhalten: 1. Den Hash des vorherigen Blocks. 2. Die Nonce, die Zufallszahl im Block. 3. Den Hash der Merkle Root, die ein Hash aller Transaktionen im Blockkörper darstellt. 4. Den Zeitstempel für den Block, der alle paar Sekunden aktualisiert wird. Wenn diese vier Voraussetzungen erfüllt sind, wird ein Block-Hash gesucht. Für den Arbeitsnachweis müssen Miner nach einem Block-Hash suchen, dessen Wert unter dem Target Hash oder Zielwert des Blocks liegt. Der Target Hash ist der Hash des vorherigen Blocks (siehe Abb. 15.2). Ein Miner, der den Block-Hash generiert, der die Target- oder Ziel-Hash-Anforderungen erfüllt, benachrichtigt dann das Netzwerk. Andere Miner validieren den Block und dieser kann dann zur Blockchain hinzugefügt werden. Miner erhalten eine Belohnung für den Aufwand des Minings (siehe Abb. 15.3). Aufgrund der Schwierigkeit, einen Block-Hash zu finden, arbeiten Miner häufig in Pools, wobei jeder einzelne zur Erfüllung einer bestimmten Aufgabe beiträgt. Dies macht den Arbeitsnachweis effizient und die Belohnung, sofern sie verdient wird, wird unter den Minern im Pool aufgeteilt.
Target (Ziel) Hash-Wert = 14
Abgelehnt
Target (Ziel) Hash-Wert = 20
Akzeptiert
Generierter HashWert = 18
Abb. 15.2 Target (Ziel) Hash-Wert und generierter Hash-Wert
290
C. Fritsche
Miner können ihre Token für Einkäufe oder Investitionen in das Netzwerk ausgeben.
START: Bei einer Transaktion im Netzwerk fordert ein Benutzer, dass die Informationen der Transaktion zu einem Block hinzugefügt werden.
Miner erhalten eine Belohnung für ihre Bemühungen in Form von Token.
Ein Block kann mit dem von Minern erstellten HashCode an die Kette angehängt werden.
Abb. 15.3 Miner fügen einer Kette neue Blöcke hinzu und verdienen sich die Belohnung (Token) für ihre Arbeit
Nur durch Mining können neue Bitcoins (oder andere Kryptowährungen) generiert werden. Die Anzahl der Bitcoins pro Block, die ein Miner als Belohnung erhält, halbiert sich alle vier Jahre. Im Jahr 2012 war die Belohnung 25 Token. 2016 wurde sie auf 12,5 Token halbiert, was auch die aktuelle Block-Mining-Belohnung ist. Im Mai 2020 erfolgte eine weitere Halbierung, die nächste Halbierung soll 2024 erfolgen. Dieser Mechanismus reguliert den Zuwachs an Bitcoins im Netzwerk. Er stellt sicher, dass das Angebot an Kryptowährung begrenzt und auf einem niedrigen Niveau gehalten wird und ihr Wert mit der Zeit steigt. Block Time
Block Time ist die Zeit, die ein Netzwerk benötigt, um einen Block zu kompilieren, der der Kette hinzugefügt werden kann. Jedes Netzwerk hat eine eigene definierte Block Time. Zwei Wochen haben 20.160 min. Für Bitcoin zielt die Blockchain darauf ab, alle zehn Minuten einen neuen Block zu produzieren. Nach der Erstellung von
15 Die Blockchain-Technologie und ihre Anwendungspotenziale
291
2016 Blöcken wird die tatsächliche Zeit, die für die Erstellung der Blöcke benötigt wurde, mit dem Zwei-Wochen-Ziel verglichen. Daraufhin wird der Schwierigkeitsgrad zur Erstellung der Arbeitsnachweise (Minen) angepasst, um die angestrebte Anzahl von Blocks innerhalb von zwei Wochen zu erzielen. Wenn die durchschnittliche Zeit für das Minen eines Blocks in einem bestimmten Zeitraum von zwei Wochen zum Beispiel 8,5 min beträgt, wird der Schwierigkeitsgrad des Minens erhöht. In ähnlicher Weise verringert sich der Schwierigkeitsgrad, wenn in einem Zeitraum von zwei Wochen durchschnittlich mehr als zehn Minuten benötigt werden, um einen Block zu minen.
15.2.2.5 Einen Block hacken Wenn ein Hacker Informationen in einem Block ändert, ändert sich sein Block-Hash. Da Blöcke in der Kette miteinander verbunden sind, ändern sich auch der B lock-Hash aller nachfolgenden Blöcke. Um noch einen Schritt weiter zu gehen, könnte der Hacker Informationen in einem Block ändern und dann einen neuen Hash für den Block generieren und somit den aktuellen Block validieren. Alle nachfolgenden Blöcke würden jedoch unverändert bleiben. Wenn der Hacker erfolgreich Hash-Codes für alle nachfolgenden Blöcke generieren könnte, würden auch diese validiert und das Problem theoretisch unentdeckt bleiben. Die Blockchain ist jedoch ein verteiltes Ledger. Jeder Teilnehmer im Netzwerk hat Zugriff auf eine Kopie der Blockkette und kann diese herunterladen. Jede Kopie des verteilten Blockchain-Ledgers ist gleich, daher sind auch die Hashs für jeden Block bekannt. Angenommen, ein Hacker ändert die Dateninformation und erstellt einen neuen Hash für einen Block und alle nachfolgenden Blöcke, dann würde dies dazu führen, dass diese neuen Hashs nur auf seinem Node angezeigt werden. Die Hash-Codes der anderen Netzwerkteilnehmer würden sich von denen des Hackers unterscheiden. Diese Struktur hilft dabei herauszufinden und zu identifizieren, welche Nodes für Hacking-Aktivitäten verantwortlich sind. Eine schematische Darstellung zeigt Abb. 15.4. Überblick der Funktionsweise der Blockchain
1. Teilnehmer in einem Blockchain-Netzwerk nutzen ihre digitalen Identitäten, um sich zu identifizieren. Sie handeln miteinander und Transaktionen zwischen ihnen können finanzieller oder nichtfinanzieller Natur sein, z. B. das Bereitstellen und Empfangen einer Dienstleistung. 2. Transaktionen werden einem Block hinzugefügt und sind für alle sichtbar. Miner sind Personen mit Programmierkenntnissen, die die Transaktionen in einen Datenblock aufnehmen. Sie generieren für den Block einen Identifikations- und Sicherheitscode, auch Block-Hash genannt.
292
C. Fritsche
User X (Nicht-Hacker) Block 01 Hash 0045
Block 02 Hash 0079
Block 03 Hash 0043
Block 04 Hash 0031
Block 05 Hash 0049
Block 06 Hash 0064
Block 03 Hash 0052
Block 04 Hash 0093
Block 05 Hash 0098
Block 06 Hash 0076
Block 03 Hash 0043
Block 04 Hash 0031
Block 05 Hash 0049
Block 06 Hash 0064
User Y (Hacker) Block 01 Hash 0045
Block 02 Hash 0079
User Z (Nicht-Hacker) Block 01 Hash 0045
Block 02 Hash 0079
Abb. 15.4 Ein Hacker kann leicht identifiziert werden
3. Wenn die Anforderungen an den Block erfüllt sind und der generierter Block-Hash stimmt, wird der Block von anderen Minern im Netzwerk genehmigt. Dann wird er in die Blockchain-Kette aufgenommen. 4. Miner erhalten eine Belohnung für den Aufwand des Minings, die als Token bezeichnet wird. Zusätzliche Token in der Blockchain können nur durch das Minen erzeugt werden und verbleiben zur Verwendung in der Blockchain.
15.3 Spieltheorie – Das Gefangenendilemma Die Spieltheorie befasst sich mit Verhaltensstrategien zwischen Akteuren, die an einer Interaktion beteiligt sind. Diese wird als „Spiel“ modelliert, die Akteure werden also zu „Spielern“. Ein Spieler muss eine Wahl treffen, basierend auf der Erwartung der Wahl des anderen. Es handelt sich also um eine „strategische“ Situation, anders als bspw. das Entscheidungsproblem der Akteure im Modell der vollständigen Konkurrenz (z. B. die optimale Konsumentscheidung des Haushaltes, siehe Kap. 4 von Rebeggiani und Kap. 9 von an de Meulen), das weitgehend autonom gelöst wird. Die Spieltheorie eignet sich gut dafür, die Folgen nicht-kooperativen Verhaltens in menschlichen Transaktionen zu untersuchen. Das bekannteste Anwendungsbeispiel ist das sogenannte Gefangenendilemma, das hier kurz wiedergegeben werden soll (Nash 1950). Die Entscheidungen von zwei Gefangenen, denen vorgeworfen wird, an einem Verbrechen mitgewirkt zu haben, sind im Folgenden aufgeführt.
15 Die Blockchain-Technologie und ihre Anwendungspotenziale
293
Der Gefangenendilemma
Das grundlegende Analyseinstrument der Spieltheorie ist die sogenannte Auszahlungsmatrix (Tab. 15.1). Die Zellen enthalten jeweils die Auszahlungen (payoffs), die ein Spielergebnis (also das Ergebnis der getroffenen Entscheidungen der beteiligten Akteure) den beteiligten Spielern bringt. Anhand der erwarteten Auszahlungen für jede Strategie ermittelt jeder Spieler die für ihn „dominante“ Strategie, also die Strategie, die unter Berücksichtigung der möglichen Entscheidungen der anderen Spieler die höchste erwartete Auszahlung für ihn verspricht. Im Beispiel des Gefangenendilemmas werden zwei Verbrecher verhaftet und unabhängig voneinander verhört. Man hat Beweise gegen sie für ein minder schweres Vergehen (z. B. illegaler Waffenbesitz), die für eine Haft von zwei Jahren reichen würden. Ein weitaus schwereres Vergehen (z. B. ein Raubüberfall) kann man ihnen nur nachweisen, wenn sie es zugeben. Um sie dazu zu bringen, bietet man ihnen eine Kronzeugenregelung an: Wenn einer gesteht, wird er freigelassen, während der andere für acht Jahre in den Knast wandert. Gestehen beide, landen beide für vier Jahre hinter Gittern. Falls die beiden Verbrecher zuvor das Schweigen vereinbart hätten und sich an diese Abmachung hielten, dann wäre die Gesamtanzahl der Knastjahre am geringsten. Dies wäre die optimale Lösung für beide. Wir gehen jedoch davon aus, dass beide Parteien nicht wissen, was der andere auswählt. Deshalb will jeder sich vor unkooperativem Verhalten des anderen schützen und handelt im Eigeninteresse. Unabhängig davon, was A tut, ist es die beste Strategie für B zu gestehen. Gleichermaßen ist es auch für A besser zu gestehen – sowohl wenn B schweigt, als auch, wenn B gesteht. Eine andere Wahl würde keinen Vorteil verschaffen. Die stabile Lösung des Spiels, also das sogenannte Nash-Gleichgewicht, lautet daher (Gestehen/Gestehen). Eine individuell rationale Strategie führt hier – im Gegensatz bspw. zur Analyse der neoklassischen Mikroökonomik – zu einem gesellschaftlich ineffizienten Ergebnis: Bei (Gestehen/Gestehen) ist die Anzahl der im Gefängnis verbrachten Jahre deutlich höher. Trotzdem stellt sich diese Gleichgewichtslösung ein. Zu bedenken ist schließlich, dass das klassische Ergebnis des Gefangenendilemmas für ein Einrunden-Spiel gilt: bei wiederholten Spielen haben die Akteure i. d. R. einen höheren Anreiz zu kooperieren. Tab. 15.1 Ein nicht-kooperatives und nicht-wiederholtes „Spiel“ der Gefangenen Häftling A Häftling B
Gestehen
Schweigen
Gestehen
(4/4)
(0/8)
Schweigen
(8/0)
(2/2)
294
C. Fritsche
Das Gefangenendilemma erklärt die Ergebnisse eines einzelnen, nicht-kooperativen Spiels. In der Blockchain kann die Spieltheorie verwendet werden, um Sicherheitsprobleme in der Blockchain-Anwendung zu verstehen (Liu et al. 2019). Wie bereits erläutert, steht Blockchain-Mining jedem offen, der über das Wissen und die Rechenleistung verfügt, um Proof-of-work-Lösungen zu erarbeiten. Miner bündeln oft ihre Ressourcen und Kräfte und arbeiten zusammen in Pools, um Proof-of-work-Lösungen zu finden. Die Belohnungen werden unter den Minern im Pool geteilt. Da jeder einem Miningpool beitreten kann und sein Beitrag nicht spezifisch erfasst werden kann, besteht eine Gefahr für die Sicherheit eines Pools. Wenn Miner aus einem konkurrierenden Pool eintreten, können sie Proof-of-work-Probleme entgegennehmen und einen Teil der verdienten Belohnungen erhalten, obwohl sie keine nützlichen Miningtätigkeiten ausführen. Dies deutet auf Sabotageaktivitäten und ein unehrliches Verhalten hin. Miner haben einen Anreiz, sich kurzfristig unehrlich zu verhalten, um ihre Einnahmen zu steigern. Die Anwendung der Spieltheorie auf das Verhalten von Minern in einer Blockchain auf kurze Sicht in einem Einzelspielszenario stellt ebenfalls ein Gefangenendilemma dar, bei dem unehrliches Verhalten für beide Spieler die dominante Strategie ist. Dieses Szenario wird zunächst beschrieben. Langfristig jedoch, wenn viele Spiele gespielt werden, stellen die Spieler schnell fest, dass die höchsten Einnahmen erzielt werden, wenn sich alle Teilnehmer ehrlich verhalten. Hierauf wird anschließend eingegangen. Miner in konkurrierenden Pools können sich gegenseitig bedrohen, wenn sie Sabotageaktivitäten durchführen (Eyal 2015). In Tab. 15.2 infiltriert ein Miner von einem Angreifer-Pool einen anderen Minerpool, beispielsweise infiltriert Minerpool A Minerpool B. Hier akzeptiert der Angreifer Proof-of-work-Aufträge aus Minerpool B, die er oder sie jedoch nicht ausführt. Dies führt zu einer Senkung des Einkommens und Zeitverlusten für Minerpool B und zu mehr Einnahmen für die Miner aus dem Angreifer-Pool A (Eyal 2015). In Tab. 15.2 infiltriert ein Miner von einem Angreifer-Pool einen anderen Minerpool, beispielsweise infiltriert ein Miner aus Pool A Minerpool B. Jeder Pool verdient die gleiche Belohnung (3/3), siehe Zelle unten rechts. Miner wissen jedoch, dass das Infiltrieren eines anderen Pools die Belohnungen erhöht. Angenommen, Minerpool A infiltriert Minerpool B, die Belohnung für A steigt auf 4 und die für B fällt auf 0. Die resultierenden Ergebnisse sind (0/4) in Zelle unten links. Wenn Pool B angreift und Pool A nicht, sind die Ergebnisse umgekehrt. Wenn beide Minerpools Vergeltung üben, sinkt die Belohnung für beide Pools auf (1/1).
Tab. 15.2 Ein nicht-kooperatives, nicht-wiederholtes Spiel unter Minern und der Anreiz zum unehrlichen Verhalten Minerpool A Minerpool B
Angriff (unehrlich)
Kein Angriff (ehrlich)
Angriff (unehrlich)
(1/1)
(4/0)
Kein Angriff (ehrlich)
(0/4)
(3/3)
15 Die Blockchain-Technologie und ihre Anwendungspotenziale
295
Tab. 15.3 Ein iteratives Spiel mit Wechselstrategien Punkte A
3
3
0
1
4
0
11
Miningpool A
K
K
K
D
D
K
Summe der Auszahlungen
Miningpool B
K
K
D(W)
D
K(W)
D(W)
Punkte B
3
3
4
1
0
4
15
Tab. 15.4 Ein iteratives Spiel ohne Wechselstrategien Punkte A
3
3
3
3
3
3
18
Miningpool A
K
K
K
K
K
K
Summe der Auszahlungen
Miningpool B
K
K
K
K
K
K
Punkte B
3
3
3
3
3
3
18
In nicht-wiederholten Spielen haben Miner die Möglichkeit anzugreifen oder nicht. Hier bildet „Angreifen“ die dominante Strategie, um die Einnahmen zu maximieren. Ehrliches Verhalten stellt kein Gleichgewicht dar. Wenn ein Pool feststellt, dass er angegriffen wird, kann er verschiedene Gegenmaßnahmen ergreifen, um den Angreifer zu erkennen. Zum Beispiel können Miner nach Dienstalter bezahlt werden. Alternativ können sie einfache Lösungsprobleme erhalten. Wenn ein Miner keine Lösung hervorbringt, kann er als Eindringling erkannt werden. Die Spieltheorie bietet jedoch eine generische Lösung, bei der Miningpools keinen Anreiz haben, sich gegenseitig zu infiltrieren und zu betrügen. Zur Aufrechterhaltung der Sicherheit der Blockchain ist es das Ziel, die Teilnehmer bei Einhaltung der Regeln zu belohnen. In einem wiederholten Spiel ist die Anzahl der Spiele nicht auf eins begrenzt, was auch auf die Blockchain zutrifft, da Miner ständig nach Proof-of-work-Lösungen suchen, um alle zehn Minuten einen neuen Block an die Blockchain zu hängen. Im Grunde genommen haben Miner immer zwei mögliche Strategien: ehrlich arbeiten, d. h. kooperieren (K), oder unehrlich sein, d. h. defektieren (D). In Tab. 15.3 und 15.4 werden die Belohnungen dargestellt, die Miner in einer Blockchain erzielen können, wenn sie mehrere Interaktionen miteinander haben. Die Beispiele zeigen, dass beginnend mit einer kooperativen Strategie kontinuierliche Kooperation langfristig höhere Renditen bringt als eine Wechselstrategie (W). Die Belohnungen für einzelne Spiele entsprechen denen des nicht-wiederholten Spieles in Tab. 15.2 und sind wie folgt: K K = 3 3 D K = 4 0 K D = 0 4 D D = 1 1
296
C. Fritsche
Die Summe der Ergebnisse in Tab. 15.3 zeigt, dass in einem iterativen Spiel der Miningpool B, der einer Wechselstrategie folgt, sich gegenüber dem Miningpool A besserstellen kann. Hier ist es angenommen, dass Miningpool A die Strategie von Miningpool B folgt. Das iterativ wiederholte Spiel mit der Strategie der kontinuierlichen Kooperation führt zu Auszahlungen, die höher sind, wenn keine Partei ihre Strategie ändert. Das Spiel erzielt einen stabilen Zustand: In diesem Szenario kann kein Miningpool seine Situation verbessern, indem er die Infiltrationsraten erhöht. Es besteht also der Anreiz, sich ehrlich zu verhalten, was die Sicherheit in der Blockchain gewährleistet.
15.4 Anwendungsmöglichkeiten von Blockchain 15.4.1 Aufsichtsfunktion versus Selbstregulierung im Bankensektor Goldzertifikate des 18. Jahrhunderts ermöglichten die Übertragung von Eigentumsrechten an Teilen des zugrunde liegenden Goldes. Die heutigen Fiat-Währungen werden von der Zentralbank ausgegeben. In beiden Fällen werden Währungen von einem Bankensystem unterstützt. Digitale Online-Währungen, die sogenannten Kryptowährungen, werden dagegen von keiner Regierung oder internationalen Einrichtung reguliert. Angesichts von 48 % der Weltbevölkerung, die das Internet nutzen (World Bank 2019a), nehmen die Transaktionen mit digitalen Währungen zu. Die Anzahl der Blockchain-Wallet-Benutzer weltweit stieg von einer Million im Jahr 2012 auf über 40 Millionen im August 2019 (Blockchain.com 2017). Mittlerweile existieren weltweit Hunderte von Kryptowährungen, von denen Bitcoin die bekannteste ist. Bitcoin wurde 2008 zusammen mit der ihm zugrunde liegenden Blockchain-Technologie eingeführt (siehe Kap. 16 von Wohlmann). Ein Aspekt des Wortes „Bitcoin“ ist die digitale Währung selbst, die einen Wert verkörpert und die ausschließlich im Internet gespeichert, umgetauscht oder investiert werden kann. Der andere Aspekt ist die Bitcoin-Plattform, einschließlich des Netzwerks, die diese digitalen Transaktionen unterstützt. Zusammengenommen bilden beide Komponenten „Bitcoin“, wie wir es heute kennen. Die in Abschn. 15.2.2 beschriebenen Funktionen der allgemeinen BlockchainTechnologie gelten auch für Bitcoin. Sie sind im Wesentlichen die gleichen, u. a. Ledger von Transaktionen, die in Ketten auf einem Block erfasst werden, ohne dass eine Kontrollinstanz eingreift (Ammous 2018). Während beliebige Informationen in einem Block aufgezeichnet werden können, werden im Fall von Bitcoin nur Geldtransaktionen in Bitcoin aufgezeichnet. Ein Thema, mit dem die Finanzwelt seit jeher konfrontiert ist, ist Vertrauen in die verschiedenen Marktteilnehmer. Im Markt für Kredite sind die Teilnehmer in keiner Weise verpflichtet, untereinander die volle Wahrheit zu kommunizieren. Daher schafft das Bankinstitut das Vertrauen zwischen Kreditnehmern und Kreditgebern, indem es die
15 Die Blockchain-Technologie und ihre Anwendungspotenziale
297
Rolle des Vermittlers und des Prüfers von Transaktionen übernimmt. Höhere Kosten sind ein wesentlicher Bestandteil dieses Szenarios. Der Grundgedanke der Blockchain ist es, dass eine dezentrale Blockchain ein verteiltes und für alle zugängliches Ledger von Transaktionen darstellt. Wenn Transaktionsdaten nicht durch einen Dritten geregelt, sondern ehrlich und zuverlässig in der Blockchain durch Protokolle aufgezeichnet werden, können Kosten gesenkt werden. Die Einführung der Blockchain-Technologie durch Banken könnte Vertrauen und Transparenz im System steigern. Regierungen können mit Banken zusammenarbeiten, um mithilfe der Blockchain-Technologie digitale Kundenidentitäten zu erstellen. Mit einer authentifizierten Identifikation können Banken ihren Kunden Dienstleistungen effizienter und zu geringeren Kosten anbieten. Außerdem können Banken das Eigentum an Vermögen und Dokumenten von Kunden digitalisieren. Einmal digitalisiert, können der Eigentümer und der Wert des Vermögens einfach überprüft und Übertragungen aufgezeichnet werden.
15.4.2 Automatisierte Identifizierungsprozesse Banken verlieren jedes Jahr Milliarden aufgrund von Betrug (United Nations Office on Drugs and Crime 2019), obwohl Identifizierungsprozesse, die gemeinsame Nutzung von Transaktionsdaten in Echtzeit und die Mechanismen zur Verhinderung von Geldwäsche vorhanden sind. Der Zeit- und Kostenaufwand für diese Bemühungen ist jedoch enorm. Blockchain kann diese Prozesse unterstützen bzw. ersetzen durch KYC-Protokolle (Know Your Customer) und AML-Protokolle (Anti-Money-Laundering), die schon bekannt sind und nur verbreiteter angewendet werden müssten. Diese Protokolle können von Banken gemeinsam genutzt werden, um Daten zu teilen, die Identität von Kunden zu authentifizieren und so Doppelprüfungen bei Kontoeröffnungen oder bei der Durchführung von Transaktionen zu vermeiden.
15.4.3 Grenzüberschreitende Kreditverträge Komplizierte Kreditverträge zwischen Firmen in verschiedenen Ländern können vollständig automatisiert werden. Dies vereinfacht den gesamten Kredit- und Tilgungsprozess. Beispielsweise können Banken, die für die Durchführung von Überweisungen zuständig sind, automatisch über bevorstehende Zahlungen informiert werden. Der Status des aufgenommenen Darlehens kann ebenfalls nachverfolgt werden. Bei Fälligkeit können Überweisungen automatisch ausgeführt werden. Dies kann für alle Banken und Vertragsparteien vollständig sichtbar sein.
298
C. Fritsche
15.4.4 Grenzüberschreitender Geldtransfer Im Jahr 2018 umfassten laut Weltbank die weltweiten Transfers in Länder mit niedrigem und mittlerem Einkommen 529 Mrd. US-$ und in Länder mit hohem Einkommen 689 Mrd. US-$. Banken erheben für den grenzüberschreitenden Geldtransfer eine Gebühr von durchschnittlich 11 %. Dies war die teuerste Form von Überweisungen im ersten Quartal 2019 (World Bank 2019b). Auf Basis der Blockchain-Technologie könnten grenzüberschreitende Zahlungen schneller und kostengünstiger durchgeführt werden. Einige Banken verbinden sich mit Finanztechnologieunternehmen (Fintech) wie Ripple, die grenzüberschreitende Geldtransfers mit Blockchain-Technologie unterstützen. Andere Banken wie JP Morgan Chase, die Australia and New Zealand Banking Group und andere Banken haben globale Allianzen geschlossen, um selbst die Blockchain-Technologie weiterzuentwickeln und einzusetzen.
15.4.5 Smart Contracts Anwälte formalisieren Verträge, um deren Einhaltung durch die Vertragsparteien zu gewährleisten. Nick Szabo, ein US-amerikanischer Informatiker und Anwalt, präsentierte eine andere Denkweise, die er als Smart Contracts (intelligente Verträge) bezeichnete, wobei Verträge zwischen zwei Parteien direkt ohne die Notwendigkeit eines Dritten formalisiert werden (Szabo 1997). Schon in einer seiner ersten Veröffentlichungen zu diesem Thema im Jahre 1997 erwähnte er den Grundgedanken der Fusion von Sicherheit und Verträgen. Als er diese Idee entwickelte, Protokolle als Ersatz für die traditionellen Funktionen von Vermittlern und Anwälten einzusetzen, war er damit der Einführung von Blockchain in der Welt mehr als ein Jahrzehnt voraus. Wie in den vorherigen Abschnitten dieses Artikels beschrieben, wurde 2008 die Blockchain mit ihren kryptografischen Sicherheitsmaßnahmen eingeführt, um die Privatisierung von Geld zu ermöglichen. Blöcke erlaubten die Aufzeichnung von monetären Transaktionen innerhalb eines Netzwerks. Jetzt, über ein Jahrzehnt später, hat Blockchain sich weit über eine Plattform hinaus entwickelt, die Geldtransfers über Token ermöglicht (Ethereum 2019). Protokolle erlauben anonymen Teilnehmern innerhalb eines kryptografischen Frameworks durch intelligente Verträge zu handeln, wie es sich schon Nick Szabo vorgestellt hat. Blockchain-Algorithmen für Smart Contracts stellen Vertragsinformationen für alle Teilnehmer zur Verfügung und erlauben, dass Geschäfte in Echtzeit sichtbar werden. Ein Vertrag kann unter Verwendung von Blockchain-Protokollen schrittweise ausgeführt werden, sobald eine Vertragspartei ihre Seite der Handlung erfüllt. Die Überwachung ist selbstregulierend und beruht auf der Einhaltung von Protokollen. Wenn eine Partei gegen eine Compliance verstößt, wird der Vertrag nicht ausgeführt. Wenn z. B. ein Verkauf getätigt wird und der Verkäufer den gewünschten Geldbetrag erhält, wird die Warenlieferung gemäß den Vertragsbedingungen automatisch angestoßen. Keine
15 Die Blockchain-Technologie und ihre Anwendungspotenziale
299
Dritten übersehen, fordern auf oder bestrafen direkt das Verhalten der Beteiligten. Smart Contracts können eines Tages die Arbeit von vielen Buchhaltern, Anwälten, Polizisten und Bankiers ersetzen. Veränderungen in der Struktur der Wirtschaft, wie wir sie heute kennen, sind Herausforderungen, die mit der Digitalisierung einhergehen. Die negativen Auswirkungen der Digitalisierung gelten auch für Smart Contracts. Zukünftige Herausforderungen liegen in den Bereichen Beschäftigung, Verschwinden von Branchen, Verfolgung und Erfassung von Daten, die zu Datenschutzproblemen und Internetkriminalität führen, sowie in sozialen und ethischen Konsequenzen. Banken können von Smart Contracts profitieren, indem sie selbst Smart Contracts erstellen oder mit Fintechs arbeiten, die über die dafür notwendige Technologie und Verbindungen verfügen. Im internationalen Handel z. B. können alle am Handel beteiligten Parteien – der Exporteur, der Importeur, ihre Banken, Logistikfirmen – durch Smart Contracts zur Gewährleistung des reibungslosen Verkehrs von Waren und Zahlungen verbunden werden. Dies reduziert das Risiko, liefert Echtzeitinformationen, verfolgt die Waren während des Transports, unterstützt die Einhaltung von Vorschriften und macht Geldtransfers vollständig transparent. Der gesamte Prozess würde automatisiert werden und keine Aufsichtsbehörde wäre für den Betrieb verantwortlich.
15.4.6 Zukunftstrends Finanztechnologische Innovationen im Bankensektor sind bereits im Gange. Zukünftig müssen sich Banken entweder mit Finanztechnologiefirmen, Fintechs genannt, zusammentun oder selbst Innovationen entwickeln, Technologie bereitstellen und Netzwerke aufbauen, um die Blockchain-Technologie unter Einhaltung der behördlichen Vorschriften anwenden zu können. Die Ausweitung von Blockchain-Diensten auf Kunden ist eine Frage der Zeit und der Investitionen in den digitalen Markt. Die Integration des traditionellen Bankwesens in die Blockchain-Technologie ist erforderlich und bedeutet, Service und Vertrauen zu verbinden und gleichzeitig die Transaktionskosten zu senken. In den letzten zehn Jahren hat sich die ursprüngliche Blockchain-Technologie zu mehr als nur einer Plattform für den Geldwechsel entwickelt. Durch Smart Contracts kann fast alles von Wert in Blockchain-Netzwerken gespeichert, verwaltet und ausgetauscht werden. Dies erfordert natürlich ein besseres Verständnis dafür, wie Blockchain-Technologie erfolgreich implementiert werden kann, um den Bedürfnissen von Einzelpersonen, Unternehmen und Branchen gerecht zu werden. Die Blockchain-Technologie wird durch „Blockchain as a Service“ – (BaaS) kundenfreundlicher. Diese Cloud-basierte Lösungsplattform ermöglicht es Kunden, Blockchains in Form einer App gegen eine Gebühr zu verwenden. Die Technologieunternehmen, die diesen Service anbieten, verwalten die Technologie, damit Blockchain reibungslos funktioniert. Das Ergebnis ist, dass Blockchain-Lösungen in Branchen von Logistik über Finanztechnologieunternehmen bis hin zum Streaming implementiert werden (Catalini 2017).
300
C. Fritsche
15.5 Fazit Blockchain ist eine digitale Technologie, die 2008 weltweit eingeführt wurde. Sie wurde mit der Idee entwickelt, eine selbstregulierende digitale Alternative zur herkömmlichen Fiat-Währung anzubieten. Jetzt, ein Jahrzehnt später, deutet vieles darauf hin, dass die Blockchain-Technologie sich zur Mainstream-Anwendung entwickeln wird, welche über bloße Finanztransaktionen hinausgeht. In diesem Artikel werden die Funktionsweise von Blockchain und seine bekannteste Anwendung (Bitcoin) erläutert, aber auch Anwendungspotenziale wie Smart Contracts werden vorgestellt. Weiter wurden am Beispiel des Gefangenen-Dilemmas Parallelen zwischen der Spieltheorie und Blockchain gezogen. Blockchain-Prozesse sind mit der Herausforderung konfrontiert, dass sie auf kooperatives Verhalten der Akteure angewiesen sind. Die Architektur wiederholter Spiele mit Sanktionierung von illoyalem Verhalten bietet hier eine stabile Lösung, bei denen Eigennutz der Akteure und Gesamtwohlfahrt des Netzwerks nicht im Widerspruch stehen. Banken fungieren als Vermittler und bieten ihre Kunden kostenintensive Dienstleistungen an. Im Vergleich dazu beseitigt die selbstregulierende Blockchain die Vermittlungsfunktion von Banken und senkt die damit verbundenen Kosten. Blockchain wird bereits von Banken verwendet, um Kunden über Ländergrenzen hinweg zu identifizieren. Dies ermöglicht schnellere Transaktionen und sorgt für Transparenz. Blockchain ermöglicht auch die Überprüfung und Aufzeichnung von Eigentum, dessen Übertragung und aller damit zusammenhängender Daten, was im Wesentlichen einen Vertrag zwischen den Parteien ohne traditionellen Zwischenhändler darstellt. Anschließend werden die Informationen an alle Mitglieder des Netzwerks verteilt. Ein solcher Vertrag, genannt Smart Contract, bringt die Elemente von Recht und Kryptologie im Rahmen von Blockchain-Protokollen zusammen.
Literatur Ammous, S. (2018). The bitcoin standard: The decentralized alternative to central banking. Hoboken: Wiley. Blockchain.com. (2017). Blockchain wallet users. https://www.blockchain.com/de/charts/mywallet-n-users. Zugegriffen: 23. Juli 2019. Catalini, C. (2017). How blockchain applications will move beyond finance. Harvard Business Review. https://hbr.org/2017/03/how-blockchain-applications-will-move-beyond-finance. Zugegriffen: 15. Aug. 2019. Catalini, C., & Gans, J. (2019). Some simple economics of the blockchain. National Bureau of Economic Research. https://www.nber.org/papers/w22952.pdf. Zugegriffen: 15. Juli 2019. Ethereum. (2019). Building a smart contract using the command line. https://github.com/ethereum/ ethereum-org/blob/master/views/content/greeter.md. Zugegriffen: 17. Sept. 2019. Eyal, I. (2015). Miner’s dilemma. 2015 IEEE Symposium on Security and Privacy. https://people. cs.uchicago.edu/~davidcash/23280-winter-19/miners.pdf. Zugegriffen: 19. Nov. 2019.
15 Die Blockchain-Technologie und ihre Anwendungspotenziale
301
Liu, Z., Luong, N. C., Wang, W., Niyato, D., Wang, P., Liang, Y.-C., & Kim, D. I. (2019). A survey on applications of game theory in blockchain. https://arxiv.org/pdf/1902.10865.pdf. Zugegriffen: 19. Nov. 2019. Narayanan, A., Bonneau, J., Felten, E., Miller, A., & Goldfeder, S. (2016). Bitcoin and cryptocurrency technologies. Draft. https://d28rh4a8wq0iu5.cloudfront.net/bitcointech/ readings/princeton_bitcoin_book.pdf. Zugegriffen: 20. Juni 2019. Nash, J. (1950). Non-Cooperative Games. Dissertation, Princeton University. https://rbsc. princeton.edu/sites/default/files/Non-Cooperative_Games_Nash.pdf. Zugegriffen: 23. Sept. 2019. PasswordsGenerator. (2018). SHA256 Hash Generator. https://passwordsgenerator.net/sha256hash-generator/. Zugegriffen: 28. Jan. 2019. Satoshi Nakamoto Institute. (2008). Bitcoin: A peer-to-peer electronic cash system. https:// nakamotoinstitute.org/bitcoin/. Zugegriffen: 23. Jan. 2019. Schlatt, V., Schweizer, A., Urbach, N., & Fridgen, G. (2017). Blockchain: Grundlagen, Anwendungen und Potenziale. https://www.researchgate.net/publication/314117029_ BLOCKCHAIN_GRUNDLAGEN_ANWENDUNGEN_UND_POTENZIALE. Zugegriffen: 1. Juli 2019. Szabo, N. (1997). Formalizing and securing relationships on public networks. First Monday, 2(9– 1). https://journals.uic.edu/ojs/index.php/fm/article/view/548/469. Zugegriffen: 15. Sept. 2019. United Nations Office on Drugs and Crime. (2019). Money laundering and Globalization. https:// www.unodc.org/unodc/en/money-laundering/globalization.html. Zugegriffen: 20. Nov. 2019. World Bank. (2019a). Individuals using the Internet (% of population). https://data.worldbank.org/ indicator/IT.NET.USER.ZS. Zugegriffen: 18. Sept. 2019. World Bank. (2019b). Record high Remittances sent Globally in 2018. Press Release 2019/148. https://www.worldbank.org/en/news/press-release/2019/04/08/record-high-remittances-sentglobally-in-2018. Zugegriffen: 15. Aug. 2019. Yermack, D. (2013). Is Bitcoin a real currency? An economic appraisal. National Bureau of Economic Research Working Paper. https://www.nber.org/papers/w19747.pdf. Zugegriffen: 1. Apr. 2019.
Dr. (USA) Charmaine Fritsche erwarb einen Bachelor- und Master-Abschluss in Wirtschaft von der University of Bombay, Indien. 1996 promovierte sie im Fach Volkswirtschaftslehre an der Clemson University in South Carolina, USA. Sie lebte und arbeitete mehrere Jahre in Griechenland. Dort lehrte sie als Dozentin für Volkswirtschaftslehre am American College of Greece in Athen. Seit 2013 lehrt sie an der FOM Hochschule für Oekonomie & Management in Essen die Fächer Asset Management sowie International Accounting und Quantitative Methods. 2018 und 2019 unterrichtete sie an der Wuhan Business University in China. Ihr Forschungsinteresse liegt im Bereich der angewandten Ökonomie. Zu ihren Forschungsschwerpunkten gehören PURCHASING POWER PARITY, Asset Pricing, Migration, Blockchain Technologie und Smart Contracts.
Kryptowährungen – Top oder Flop?
16
Monika Wohlmann
Inhaltsverzeichnis 16.1 Einordnung und Begrifflichkeiten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304 16.1.1 Geldarten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304 16.1.2 Geld, Währung oder Asset?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 16.2 Wie funktionieren Kryptowährungen?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 16.3 Zielsetzung und Eigenschaften von Kryptowährung. . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 16.3.1 Ziele. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 16.3.2 Eigenschaften. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 16.4 Unterschiedliche Ausprägungen von Kryptowährungen. . . . . . . . . . . . . . . . . . . . . . . . . 315 16.4.1 Erlaubnis zur Validierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 16.4.2 Deckung durch Sicherheiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316 16.4.3 Künftige Entwicklung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 16.5 Digitales Zentralbankgeld. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 16.6 Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
Zusammenfassung
Schon der Bitcoin mit seinen starken Kurssprüngen zog die Menschen in seinen Bann. Aber spätestens seit Facebook mit Libra eine eigene Kryptowährung einführen möchte, sind Kryptowährungen in aller Munde. Gleichzeitig können sich die Wenigsten tatsächlich etwas darunter vorstellen, und die Nennung von Kryptowährung in einem Zug mit Mobile Payments, also einer Zahlungsmethode, verwirrt. Der Beitrag gibt einen Einblick in die Welt der Kryptowährungen, indem er M. Wohlmann (*) FOM Hochschule, Düsseldorf, Deutschland E-Mail: [email protected] © Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2020 L. Rebeggiani et al. (Hrsg.), Megatrends aus Sicht der Volkswirtschaftslehre, FOMEdition, https://doi.org/10.1007/978-3-658-30129-3_16
303
304
M. Wohlmann
das Wesen einer Kryptowährung und ihre Funktionsweise in einfacher Form erklärt. Anschließend werden die Eigenschaften von Kryptowährungen wie Effizienz, Sicherheit und Autonomie beleuchtet sowie unterschiedliche Ausprägungen von Kryptowährungen, wie z. B. der Stablecoin oder digitales Zentralbankgeld, diskutiert. Der Beitrag schließt mit einer Einschätzung zur zukünftigen Bedeutung von Kryptowährungen.
16.1 Einordnung und Begrifflichkeiten Um das Besondere an Kryptowährungen zu verstehen, ist es sinnvoll, sich vor Augen zu führen, dass auch der Euro in unterschiedlichen Formen auftritt. Euro ist nicht gleich Euro: Es gibt ihn als Bargeld, elektronisches Geld (ausgegeben von Geschäftsbanken) oder als Zentralbankgeld. Die unterschiedlichen Geldarten weisen hierbei auch unterschiedliche Eigenschaften auf, was die Nutzer dazu bewegt, die eine oder andere Form zu bevorzugen.
16.1.1 Geldarten Zum einen gibt es den Euro als Bargeld, das aus Banknoten und Münzen besteht. Ausgegeben werden die Banknoten von der Zentralbank, die Münzen vom Staat (Münzregal). Euro-Bargeld ist das gesetzliche Zahlungsmittel in Deutschland. Einmal im Umlauf kann Bargeld aber ohne zentrale Instanz genutzt werden. Denn bezahlt wird durch physische Übertragung der Banknote oder -münze, ohne dass hierfür eine zentrale Instanz oder ein Vermittler notwendig wäre. Bei Bargeld handelt es sich daher um eine dezentrales Peer-to-Peer(P2P)-System.1 Dies ist bei elektronischem oder digitalem Geld anders: Angenommen, Bank A transferiert 20 € an Bank B, vergisst aber, die 20 € bei ihrem Konto abzurechnen, dann würde hierdurch Falschgeld geschaffen, da (elektronische) Euros dupliziert würden. Dies wäre aber nach außen nicht zu erkennen, da der elektronische Euro nicht als Fälschung entlarvt werden kann. Es bedarf daher bei elektronischem Buchgeld, das beliebig vervielfältigbar ist, einer zentralen Instanz, die die Richtigkeit der Transaktionen überwacht. Bei Bargeldzahlungen ist dagegen keine zentrale Instanz erforderlich.
1Der
Begriff Peer-to-Peer ist aus der Informationstechnik entlehnt und bezeichnet ein Rechnernetz mit gleichgestellten Rechnern – im Gegensatz zur Client-Server-Struktur. Im weiteren Sinne wird unter P2P die Interaktion unter Gleichgestellten, z. B. Käufer und Verkäufer, ohne Einschaltung einer weiteren, ggf. übergeordneten Einheit verstanden.
16 Kryptowährungen – Top oder Flop?
305
Gleichzeitig ist Bargeld ein sogenanntes Außen-Geld. Es begründet keine Forderung gegenüber einer anderen Partei. Elektronisches Geld begründet dagegen eine Forderung gegenüber der ausstellenden Bank. Es handelt sich daher um Innen-Geld. Geht die Bank in Konkurs, ist das Geld weg (d. h., die Forderung wird nicht beglichen, sofern keine Einlagensicherung besteht). Aus den unterschiedlichen Funktionsweisen ergeben sich auch unterschiedliche Eigenschaften für die beiden Geldarten. Als wichtigstes Unterscheidungsmerkmal ist hierbei die Anonymität zu nennen: Zahlungen mit Bargeld sind anonym, da sich die Geschäftspartner nicht namentlich zu erkennen geben müssen. Allein der physische Besitz des Bargelds reicht als Legitimation aus. Elektronische Bezahlvorgänge können dagegen nicht anonym abgewickelt werden. Vielmehr ist die Identität des Zahlenden hier entscheidend für die Rechtmäßigkeit der Übertragung, da nur über sie sichergestellt werden kann, dass der Zahlende tatsächlich auf seinem Konto über ausreichende elektronische Euros verfügt. Als Zentralbankgeld bezeichnet man das von der Zentralbank ausgegebene Geld. Hierbei handelt es sich zum einen um Bargeld, zum anderen um elektronisches Geld, das Geschäftsbanken auf Konten bei der Zentralbank halten. Der Unterschied zum bereits beschriebenen elektronischen (Geschäftsbanken-)Geld besteht darin, dass der Nutzerkreis auf Geschäftsbanken beschränkt ist. Der Privatsektor kann (zurzeit) kein elektronisches Zentralbankgeld halten – rein technisch wäre dies möglich, aber die Zentralbanken haben sich bisher dagegen entschieden, eine solche Variante von Zentralbankgeld anzubieten. Kryptowährungen ähneln dem Bargeld: Sie sind gewissermaßen digitales Bargeld. Die Distributed-Ledger-Technologie (DLT) ermöglicht es, Transaktionen ohne zentrale Einheit zu verifizieren (siehe Abschn. 16.2 zur Funktionsweise). Damit basieren Kryptowährungen auf einem dezentralen P2P-System wie das Bargeld. Im Gegensatz zum Bargeld entfällt aber die physische Übergabe eines Wertgegenstands, womit Kryptowährungen eine durchaus betrachtenswerte Neuerung mit sich bringen.2 In Abb. 16.1 werden die Geldarten nach ihren verschiedenen Merkmalen eingeordnet. Die hell schattierten Flächen zeigen die heutigen Geldarten, die dunkel schattierten Flächen stellen neue Geldarten dar, die durch Kryptowährungen ermöglicht werden könnten. Eine andere Betrachtungsweise ordnet Kryptowährungen in die Reihe der Bezahlverfahren ein. Damit werden Kryptowährungen mit Bezahlung per Mobiltelefon, Paypal
2Siehe
Berentsen und Schär (2018, S. 3–4) für ein Beispiel eines dezentralen Bezahlsystems in der Vergangenheit mit physischer Währung. Milne (2018) weist richtigerweise darauf hin, dass sich Kryptowährung insofern von Bargeld unterscheiden, als hier kein Objekt (physisch oder digital) übergeben wird.
306
M. Wohlmann Elektronisches Geschä sbankengeld
allgemein zugänglich
digital
Zentralbankgeld
Elektronisches Zentralbankgeld für Geschä sbanken
P2P
KryptoZentralbankgeld für Geschä sbanken KryptoZentralbankgeld für Nicht-Banken
Bargeld
Kryptowährung mit begrenztem Nutzerkreis Kryptowährung
Abb. 16.1 Taxonomie des Geldes. (Quelle: In Anlehnung an Bech und Garratt 2017, S. 60; Elsner und Pecksen 2017, S. 12)
u. Ä. verglichen. Hierbei wird schon deutlich, dass es nicht eigentlich um die Schaffung von neuem Geld geht, sondern die Art und Weise der Bezahlung einer Transaktion im Vordergrund steht. Basiert das Bezahlverfahren auf einer digitalen Technologie, wird häufig von „digitalem Geld“ oder „e-money“ gesprochen.3 Kryptowährungen wären damit eine mögliche Form von e-money und stünden in Konkurrenz zu anderen digitalen Bezahlverfahren, wie beispielsweise Mobile Payments. So tritt z. B. die Nutzung des Bitcoins zur Bezahlung von Transaktionen in Konkurrenz zur Bezahlung mit AliPay in China oder M-Pesa in Ostafrika. Abb. 16.2 zeigt die verschiedenen Bezahlverfahren und ihre Bedeutung in Deutschland; Kryptowährungen sind hierbei unter „Sonstige“ einzuordnen. In den weiteren Ausführungen liegt der Schwerpunkt der Betrachtung jedoch nicht auf dem Bezahlverfahren, sondern auf der Schaffung einer neuen Geldart und ihren Implikationen für das Finanzsystem.
16.1.2 Geld, Währung oder Asset? Auch wenn sich im Sprachgebrauch der Begriff „Kryptowährung“ durchgesetzt hat, ist zu hinterfragen, ob es sich hier tatsächlich um eine Währung im ökonomischen Sinne 3Adrian und Mancini-Griffoli (2019) bieten eine ausführliche Übersicht und Einordnung der verschiedenen Bezahlverfahren. Kryptowährungen werden dabei je nach ihrer Ausgestaltung in unterschiedliche Kategorien eingeordnet.
16 Kryptowährungen – Top oder Flop?
307
2.4 7.1
4.6
8.8
10.6
Debitkarte Kreditkarte Lastschri
66.5
Überweisung Internetbezahlverfahren Sonsge
Abb. 16.2 Bezahlverfahren (unbar) in Deutschland und ihre Bedeutung (prozentualer Anteil am Umsatz). (Quelle: Nach Deutsche Bundesbank 2017, S. 103)
handelt. Auch der Begriff „Krypto-Anlage“ wird im Zusammenhang mit Bitcoin & Co. vermehrt verwendet. Welche Bezeichnung ist eigentlich richtig? Handelt es sich beispielsweise beim Bitcoin um Geld, Währung oder nur einen Asset? Als Währung im ökonomischen Sinn bezeichnet man das (staatlich geregelte) Geldwesen eines Landes. Hierzu zählt insbesondere die Festlegung der Geldeinheit (Thiele und Diehl 2017, S. 3). Der Begriff Währung geht auf das mittelhochdeutsche „werunge“ zurück, was „Gewährleistung“ bedeutet. Dies bringt zum Ausdruck, dass hinter einer Währung immer eine vertrauensbildende Instanz steht, die für die Wertbeständigkeit der Währung Sorge trägt.4 Ob der Bitcoin und andere Kryptowährungen daher als Währung zu bezeichnen sind, ist umstritten: Zwar unterliegt ihre Entstehung und Verbreitung einem gewissen (privaten) Regelsystem, es gibt aber keine zentrale, insb. keine staatliche Instanz, die den Wert der Kryptowährung überwacht. Das Fehlen dieser zentralen Instanz ist gerade auch das Besondere an den dezentral gesteuerten Kryptowährungen. Handelt es sich hierbei um Geld? Im ökonomischen Sinne wird alles als Geld bezeichnet, was die folgenden drei Funktionen erfüllt: Tauschmittel, Recheneinheit und Wertaufbewahrungsmittel (siehe folgenden Einschub „Was ist Geld?“). So waren auch US-amerikanische Zigaretten, die in Deutschland nach dem Zweiten Weltkrieg für diese Zwecke eingesetzt wurden, als Geld zu bezeichnen. Die heutigen Kryptowährungen erfüllen diese Funktionen nur sehr eingeschränkt. Zwar kann der Bitcoin manchmal als Zahlungsmittel benutzt werden, aber seine Verbreitung ist vergleichsweise gering, und
4Ursprünglich
konnte Papiergeld bei dieser Instanz gegen Gold eingetauscht werden.
308
M. Wohlmann
die starken Wertschwankungen lassen ihn als Wertaufbewahrungsmittel ungeeignet erscheinen. Wenngleich Kryptowährungen heute noch nicht als Geld bezeichnet werden können, besteht doch theoretisch die Möglichkeit, dass sie in Zukunft eine weitere Verbreitung und einen stabileren Wert finden könnten, sodass sie zukünftig Geld darstellen könnten. Aktuell ist die Bezeichnung Kryptogeld jedoch kaum zutreffend.
Was ist Geld?
Vor der Erfindung von Geld betrieben die Menschen Tauschhandel: Ware wurde gegen Ware getauscht. Brauchte ein Bäcker ein neues Paar Schuhe, konnte er Brot gegen Schuhe tauschen. Aufwendig wurde dieses Verfahren aber, wenn der Schuster schon genug Brot hatte und stattdessen lieber Fleisch wollte. Es ist offensichtlich, dass der Warentausch mit hohen Transaktionskosten verbunden ist. Daher kam es zur Erfindung von Geld als einem allgemeinen Tauschmittel: Brot wurde gegen Geld und dann Geld gegen Schuhe getauscht. Dieses allgemeine Tausch- oder Zahlungsmittel war umso mehr erforderlich, je arbeitsteiliger das Wirtschaftsleben wurde, denn mit der Arbeitsteilung nahm auch die Anzahl an Transaktionen zu. Neben der Eigenschaft als allgemeines Zahlungsmittel erfüllt Geld auch eine weitere nützliche Funktion: Es fungiert als Wertaufbewahrungsmittel. Hiermit kann Kaufkraft „gelagert“ und von der Gegenwart in die Zukunft transferiert werden. Nachdem das Brot gegen Geld getauscht wurde, können die Schuhe heute, morgen oder erst in mehreren Wochen gekauft werden. Mit dem Tausch von Ware in Geld etablierte sich Geld auch als Recheneinheit: Der Wert einer Ware konnte in Geldeinheiten gemessen und mit anderen Waren verglichen werden. Hatte ein gutes Paar Schuhe früher den Gegenwert von acht Brotlaiben, so ließen sich dann der Preis für Brot mit z. B. 5 € und der Preis für ein Paar Schuhe mit 40 € beschreiben. Erst die Bemessung der Werte von Gütern in der gleichen Recheneinheit ermöglicht es auch, Wirtschaftlichkeitsrechnungen u. Ä. durchzuführen. Aus ökonomischer Sicht ist daher alles als Geld zu bezeichnen, was die drei Geldfunktionen erfüllt. Dies können dann Muscheln, Edelmetalle oder Papierscheine sein. Trotzdem sind nicht alle Güter gleichermaßen als Geld geeignet. Ein Zahlungsmittel muss leicht zu transportieren (fungibel) und in kleine Einheiten teilbar sein. Ein Wertaufbewahrungsmittel muss wertbeständig sein und darf nicht verderben. Seltene und haltbare Edelmetalle waren daher besonders geeignet. Ein Gegenstand als Recheneinheit muss homogen sein, d. h., jede Einheit muss möglichst ähnlich sein, um den gleichen Wert aufzuweisen. Auf der Suche nach Gegenständen, die alle diese Eigenschaften in sich vereinen, ist man schließlich bei unserem heutigen Bargeld angekommen – wobei hier die Wertbeständigkeit von der Zentralbank garantiert werden muss (hierzu mehr im Einschub „Die Zentralbank und ihre Aufgaben“ in Abschn. 16.5).
16 Kryptowährungen – Top oder Flop?
309
Zunehmend wird von Krypto-Anlagen oder neudeutsch Krypto-Assets gesprochen. Bezogen auf Kryptowährungen wie den Bitcoin ist diese Bezeichnung auch am treffendsten, da der Bitcoin oft zur spekulativen Geldanlage dient (Baur et al. 2018). Geht es allerdings um Kryptowährungen, wie die von Facebook beabsichtigte Libra, so steht hier doch eindeutig die Zahlungsmittelfunktion im Vordergrund und der Begriff KryptoAsset erscheint damit nicht mehr passend. In jüngerer Zeit wird daher auch von KryptoWerten gesprochen, was bislang die treffendste Bezeichnung scheint (siehe z. B. o. V. 2019). Da sich im allgemeinen Sprachgebrauch jedoch die Bezeichnung Kryptowährung hält, wird diese trotz der aufgeführten Einschränkungen auch nachfolgend verwendet. Kryptowährungen treten in unterschiedlichen Ausprägungen auf, sodass es sinnvoll ist, sich einmal die grobe technische Funktionsweise vor Augen zu führen, um auf dieser Basis unterschiedliche Typen von Kryptowährungen identifizieren zu können – denn diese Abgrenzung ist ganz wesentlich, um Vor- und Nachteile von Kryptowährungen zuordnen zu können.
16.2 Wie funktionieren Kryptowährungen? Auf den technischen Ablauf soll hier nur so weit eingegangen werden, wie es für die ökonomische Beurteilung der Technologie und ihrer Anwendung im Geldwesen notwendig ist. Eine ausführlichere, verständliche Beschreibung der technischen Funktionsweise findet sich z. B. in Berentsen und Schär (2018), Brühl (2017) sowie Kap. 15 von Fritsche. Wie bereits beschrieben, basieren Kryptowährungen auf der DLT. Die Blockchain ist strenggenommen eine Form der DLT, häufig wird sie im Sprachgebrauch aber mit ihr gleichgesetzt, da sie die prominenteste Form der DLT ist. Das englische Wort „Ledger“ bedeutet übersetzt „Hauptbuch“ – im kommerziellen Sinn. „Distributed Ledger“ (verteiltes Hauptbuch) bedeutet nun, dass es viele identische Kopien dieses Hauptbuchs gibt. Warum? Elektronisches Geld bringt im Gegensatz zu physischem Geld – wie anfangs bereits angesprochen –, ein Problem mit sich: Es kann unbemerkt dupliziert werden (man spricht auch vom „Double-spending“-Problem). Eine physische Euro-Münze kann dagegen nur von einer Person gehalten werden. Ein elektronischer Euro, der von Konto A zu Konto B überwiesen wird, könnte dagegen fälschlicherweise auf Konto B gutgeschrieben, aber auf Konto A nicht gelöscht werden. Es wäre nicht ohne Weiteres erkennbar, dass der Saldo von Konto A nun einen „falschen“ Euro enthält. Die Richtigkeit der Transaktionen wird daher üblicherweise durch eine zentrale Clearingstelle festgestellt. Diese Clearingstelle besitzt sozusagen das Hauptbuch, in dem alle Transaktionen verzeichnet sind. In unserem bisherigen Geldsystem wird daher immer eine zentrale Instanz bestimmt, die alle elektronischen Geldflüsse überwacht und im Falle von Streitigkeiten entscheidet. In der Regel übernimmt eine Bank diese Funktion. Die DLT kann dagegen auf eine solche zentrale Instanz verzichten (siehe Abb. 16.3). Deshalb spricht man auch von einer dezentralen Struktur. Wie ist das möglich? Jeder
310
M. Wohlmann
Abb. 16.3 Ablauf des Zahlungsvorgangs. (Quelle: In Anlehnung an Parashar und Rasiwala 2019, S. 103)
Bar
Elektronisch
Intermediär
DLT
Knoten 2 Knoten 1
Knoten 3
Knoten 4
Miner5 besitzt eine identische Kopie des Hauptbuchs. Wenn ein Miner eine Änderung im Hauptbuch vornimmt, also eine Transaktion anfügt, dann erscheint diese im Haupt-
5Als
Miner wird ein Knoten im Netzwerk bezeichnet. Der Begriff Miner ist aus der Goldsuche entlehnt, da durch das Schürfen von Gold jeder Goldsucher die Geldmenge vergrößern konnte. Genauso können die Miner bei Kryptowährungen neue Währungseinheiten durch den Einsatz ihrer Rechenleistung schaffen.
16 Kryptowährungen – Top oder Flop?
311
buch aller Miner und muss von diesen verifiziert, also als richtig anerkannt werden. Erst dann ist die Transaktion gültig. Die Richtigkeit einer Transaktion wird damit nicht durch eine zentrale Einheit, sondern durch Konsens bestimmt. Man spricht daher auch von einem dezentralen Konsens-Mechanismus. Dieser Verzicht auf eine zentrale Instanz ist – neben der neuen Technologie – eine wesentliche Eigenschaft, die Kryptowährungen von herkömmlichem Geld unterscheidet. Allerdings muss hier gleich einschränkend gesagt werden, dass nicht alle unter dem Begriff Kryptowährung fungierenden Werte tatsächlich darauf verzichten. Denn Kryptowährungen treten, wie bereits erwähnt, in verschiedenen Ausprägungen auf.
16.3 Zielsetzung und Eigenschaften von Kryptowährung 16.3.1 Ziele Die wohl älteste Kryptowährung ist der Bitcoin.6 Es ist kein Zufall, dass er 2009 inmitten der Finanzkrise entstand. Im Zuge der Krise war das Vertrauen in das Bankensystem stark erschüttert. Demzufolge wollten die Erfinder des Bitcoins ein dezentrales Zahlungsmittel schaffen, das ohne eine überwachende Finanzinstitution auskommt. Kernproblem war es daher, ein fälschungssicheres elektronisches Geld zu erstellen. Statt durch eine zentrale, vertrauenswürdige Instanz wird das Vertrauen in den Wert und die Echtheit des Geldes durch kryptografische Verfahren, die Irreversibilität der Transaktion und die Öffentlichkeit hergestellt (Nakamoto 2008, S. 1). Weiteres Interesse an Kryptowährungen entstand in der Finanzindustrie dadurch, dass die heutigen Zahlungs- und Abwicklungssysteme als ineffizient – durch viele Beteiligte ist ein häufiger Abgleich erforderlich – und technisch überholt gelten (Chapman und Wilkins 2019, S. 9). Wer schon einmal versucht hat, Geld ins außereuropäische Ausland zu überweisen, weiß, dass die Zahlungsabwicklung – selbst in technisch fortschrittliche Länder wie in die USA – oft mehrere Tage in Anspruch nimmt und mit hohen Gebühren verbunden ist. Vor diesem Hintergrund sind der Bedarf und damit auch das Interesse an neuen Technologien groß. Um sich auf lange Sicht am Markt durchsetzen zu können, muss die neue Technologie effizient – in Bezug auf Geschwindigkeit und Kosten – und sicher sein. Aus Sicht der Finanzindustrie ist die Dezentralität, die für die Begründer der Kryptowährungen wichtig war, von untergeordneter Bedeutung.
6Andere
Kryptowährung werden – als Alternative zum Bitcoin – oft als „altcoins“ bezeichnet.
312
M. Wohlmann
16.3.2 Eigenschaften 16.3.2.1 Effizienz Niedrige Transaktionskosten und eine hohe Abwicklungsgeschwindigkeit können bei Kryptowährungen im Idealfall erreicht werden. Durch das P2P-System gibt es nur wenige Beteiligte an der Transaktion und durch die dezentrale Steuerung entfällt der zentrale Kontenabgleich. Insbesondere grenzüberschreitende Zahlungen dürften deutlich schneller und billiger werden, da auch keine Wechselkursgeschäfte erforderlich sind. Auch aus Sicht der Zahlungsempfänger erscheint das System günstig, da es insbesondere für Online-Händler leicht zu implementieren ist und keine hohen Investitionen in Computersysteme erfordert (Bolt und van Oordt 2016, S. 4; European Central Bank 2015, S. 18 f.). Um diese erwarteten Vorteile vollumfänglich zu realisieren, ist die Technik derzeit jedoch noch nicht ausgereift genug. In ihrer ursprünglichen Form werden Transaktionen mit einem sogenannten Proof-of-Work, der aufwendigen Lösung eines mathematischen Problems, validiert. Mit zunehmender Nutzung einer Kryptowährung sind im Rahmen des Proof-of-Work-Konzepts immer aufwendigere Rechenprozeduren nötig, und da alle erfolgten Transaktionen an die Blockchain angehängt werden, verlängert sich diese mit zunehmender Historie. Daher gilt: Je länger die Kryptowährung besteht und je mehr Nutzer sie hat, desto mehr Rechner- und Speicherkapazität benötigt sie. Des Weiteren weisen ältere Kryptowährungssysteme noch eine geringe Abwicklungskapazität auf und neigen zur Verstopfung („congestion“), da sich bei steigender Zahl der Transaktionen die Dauer bis zur Finalisierung der Transaktion verlängert. Eine hohe Zahl an Nutzern wird somit zum Problem und der dezentrale Konsens-Mechanismus schränkt die Geschwindigkeit ein (Bank für Internationalen Zahlungsausgleich 2018, S. 99; Fiedler et al. 2018, S. 753). Dies führt auch dazu, dass bei verbreiteter Nutzung mit einem Anstieg der Gebühren zu rechnen ist (Bolt und van Oordt 2016, S. 6). Tatsächlich ist bei den Kryptowährungen der ersten Stunde die technische Infrastruktur von Ineffizienzen und Ausfällen geprägt, und auch Fehler und Betrug wurden vermehrt verzeichnet. Im Jahr 2014 meldete eine der größten Handelsplattformen, Mt.Gox in Japan, nach einem umfangreichen Diebstahl von Bitcoins Insolvenz an. Die Kapazitäten bei Bitcoin gelten als erreicht, da die Abwicklung nun zu langsam wird und die Gebühren jetzt vergleichsweise hoch sind, weil eine Transaktion aufgrund des aufwendigen Prozederes sonst nicht mehr validiert werden würde (Dorofeyev 2018, S. 39 f.). Dennoch wäre es zu früh, Kryptowährungen bereits abzuschreiben. Vielmehr steckt die Technologie noch in den Kinderschuhen und wird laufend weiterentwickelt, um den Problemen Abhilfe zu schaffen. So wurde beispielsweise als Ersatz für das aufwendige
16 Kryptowährungen – Top oder Flop?
313
Proof-of-Work- mit einem Proof-of-Stake-Konzept oder einem „Notar-Knoten“7 experimentiert. Diese technischen Veränderungen konnten einerseits die Effizienz erhöhen, führten aber andererseits zu veränderten Eigenschaften der neuen Kryptowährung gegenüber ihrer ursprünglichen Version.
16.3.2.2 Sicherheit Da durch den dezentralen Konsens-Mechanismus Informationen mit allen Nutzern geteilt werden und Betrugsversuche daher von anderen Nutzern erkannt werden können, gilt die Technologie als relativ betrugssicher. Jedoch wiesen auch schon die Erfinder des Bitcoins darauf hin, dass das System durch einen sogenannten 51 %-Angriff – nämlich, wenn sich 51 % der Rechnerkapazitäten zusammenschließen – manipuliert werden kann (Nakamoto 2008, S. 1). Dies geschah z. B. im Mai 2018 beim Bitcoin Gold, wodurch 18 Millionen US-Dollar durch eine Duplizierung von Coins verdient wurden (o. V. 2018). Die Gefahr einer 51 %-Attacke steigt mit der Konzentration der Rechnerkapazitäten. Je aufwendiger das Proof-of-Work-Verfahren wird, desto eher werden kleine Miner den Markt verlassen und desto eher wird die Konzentration der Rechnerkapazitäten zunehmen (Dorofeyev 2018, S. 441 ff.). Die Sicherheit wird auch durch die Irreversibilität der Transaktionen erhöht. Dadurch, dass Transaktionen nicht rückgängig gemacht werden können, können sie auch nicht nachträglich manipuliert oder ihre Informationen für Betrugszwecke verwendet werden. Vielmehr werden die Informationen unter allen Nutzern geteilt und damit auch von allen kontrolliert (Chapman und Wilkins 2019, S. 8; European Central Bank 2015, S. 19). Die (Pseudo-)Anonymität der Transaktionspartner – nicht ihre wahre Identität, sondern nur die Rechneradresse ist bekannt – könnte als Sicherheitsrisiko aufgefasst werden (He et al. 2016, S. 9). Vertrauen in die Gegenpartei wird aber durch Vertrauen in das technische Protokoll und die Miner, die zusammen die korrekte Abwicklung der Transaktion garantieren, ersetzt (Chapman und Wilkins 2019, S. 9). Die Anonymität der Nutzer hat Kryptowährungen als bevorzugtes Zahlungsmittel für kriminelle Geschäfte in Verruf gebracht, kann aber auch positiv als Wahrung der Privatsphäre bei legalen Transaktionen ausgelegt werden. Bei Handelsaktivitäten über eine Krypto-Börse8 muss diese Anonymität zumindest bei der Anmeldung aufgegeben werden, denn hier gilt i. d. R. die „Know your c ustomer“-Praxis. Wenngleich die Kryptowährungstransaktionen selbst zwar als sicher gelten, ergibt sich ein Problem in der Nutzung dadurch, dass es für die Ausführung der Transaktion weder einen vorgegebenen Zeitrahmen gibt, noch garantiert ist, dass die Transaktion
7Der
Notar-Knoten wurde als Alternative zum aufwendigen Konsens-Mechanismus in der zweiten Phase des kanadischen Projekts Jasper entwickelt (vgl. Payments Canada et al. 2017, S. 19 ff.). 8Eine Krypto-Börse ist ein digitaler Handelsplatz für Kryptowährung, vergleichbar mit der Funktion der Deutschen Börse für Wertpapiere.
314
M. Wohlmann
überhaupt durchgeführt wird (Dorofeyev 2018, S. 443). Die Validierung der Transaktion liegt allein in den Händen der Miner. Die fehlende Transparenz für die Nutzer, was die Technik und damit auch das Angebot an Kryptowährungen und dessen Kontinuität betrifft, machen Kryptowährung anfällig für Betrug (European Central Bank 2015, S. 4). So können neue Kryptowährungen kreiert werden, deren Handel plötzlich wieder eingestellt wird und damit zu Verlusten bei den Nutzern führt. Neben den technischen Sicherheitsaspekten spielt auch die Anwenderfreundlichkeit für die sichere Nutzung eine Rolle. Der Handel mit Kryptowährungen erfordert eine gewisse Qualifikation des Nutzers – umso mehr, als die Transaktionen irreversibel sind (Dorofeyev 2018, S. 439; European Central Bank 2015, S. 20). Die Nutzerfreundlichkeit wird jedoch zunehmend durch Handelsplattformen im Internet, sogenannte Krypto-Börsen, verbessert. Obwohl bislang grundsätzlich kein Verbraucherschutz oder Sicherheiten greifen, kann dies dann von den Krypto-Börsen auf freiwilliger Basis gewährt werden. Auf einem anderen Blatt steht die Sicherheit der Krypto-Börsen. Diese werden bisher in den meisten Ländern nicht reguliert oder überwacht, sodass hier die Gefahr von Betrug, Diebstahl oder Konkurs besteht. Der bereits erwähnte Konkurs von Mt. Gox im Jahr 2014 führte bei dessen Anlegern zu Totalausfällen oder hohen Verlusten. Auch Hacker-Attacken auf Krypto-Börsen sind ein ernst zu nehmendes Risiko. Gleiches gilt für die Sicherheit der Digital Wallets. Hier handelt es sich um Softwareprogramme, die Zugriff auf die eigenen elektronischen Coins ermöglichen; diese Programme könnten Sicherheitslücken aufweisen und zum Ziel von Hackern werden. In beiden genannten Fällen steht aber nicht die Sicherheit von Kryptowährungen und deren Basistechnologie infrage, sondern die der damit verbundenen sonstigen Softwareapplikationen.
16.3.2.3 Autonomie Das dezentrale System und die Unabhängigkeit vom traditionellen Finanzsektor waren für die Begründer von Kryptowährungen eine wesentliche Motivation, die zu deren Erfindung beigetragen hat. Aus Sicht der Finanzindustrie, die in erster Linie nach einer effizienten und sicheren Technologie sucht, ist diese Eigenschaft von untergeordneter Bedeutung. Unter Autonomie sollen hier das Fehlen einer zentralen Institution und die Unabhängigkeit vom Bankensektor verstanden werden. Die fehlende Verbindung zum Bankensystem und zur staatlichen Währung kann insbesondere in Ländern mit einem instabilen Finanzsystem von Vorteil sein. Kryptowährungen können damit in Hochinflationsländern oder in Entwicklungsländern mit einer unzureichenden Finanzinfrastruktur eine leicht zugängliche Alternative zur staatlichen Währung und dem Bankensystem darstellen. In entwickelten Volkswirtschaften mit vertrauenswürdigem Finanzsystem muss diese Abkopplung jedoch nicht unbedingt von Vorteil sein. Die Autonomie von Kryptowährungen schlägt sich auch in deren Wertentwicklung nieder: Es wurde festgestellt, dass die Kursentwicklung von Kryptowährungen nicht mit
16 Kryptowährungen – Top oder Flop?
315
der von Aktien oder Anleihen korreliert war (Baur et al. 2018; Corbet et al. 2018). Daher kann die Wertanlage in Kryptowährungen zur Risikostreuung verwendet werden.9 Die Wertentwicklung von Kryptowährungen, insbesondere des Bitcoins, ist durch hohe Volatilität gekennzeichnet (Gronwald 2014). Im Jahr 2019 lag der Bitcoin-Volatilitätsindex im Durchschnitt bei etwa 3 % (Standardabweichung der Erträge für ein 30-Tage-Fenster), während die Volatilität von Gold im Durchschnitt nur 1,2 % beträgt und die von wichtigen Währungen noch darunter liegt (Buy Bitcoin Worldwide 2019). Diese hohe Volatilität ist i. d. R. durch die zugrunde liegende Technologie vorgegeben, denn das Angebot an Kryptowährung bestimmt sich durch den programmierten Algorithmus. Somit kann es nicht flexibel an Schwankungen der Nachfrage angepasst werden (Fiedler et al. 2018, S. 753). Bei herkömmlichen Währungen wird das Angebot durch die Zentralbank gesteuert. Eine solche zentrale Instanz fehlt jedoch bei Kryptowährungen. Hinzu kommt noch, dass Kryptowährungen an den Krypto-Börsen oft zu zum Teil stark abweichenden Kursen notiert werden. Arbitrage ist jedoch wegen des zeit- und gebührenaufwendigen Transfers der Bitcoins von einer zur anderen Börse nur begrenzt möglich (Yermack 2013, S. 2). Aufgrund der starken Wertschwankungen müssen Händler, die Preise in Kryptowährung auszeichnen, ihre Preise oft neu kalkulieren. Auch ist die Preisauszeichnung speziell in Bitcoin aufgrund vieler Nullstellen sehr ungünstig (Yermack 2013, S. 12). Die starke Volatilität ist jedoch auch Folge der geringen Umsätze und dürfte mit stärkerer Verbreitung abnehmen (Bolt und van Oordt 2016, S. 29). Auch wird an Algorithmen, die das Angebot elastisch an die Nachfrage anpassen, gearbeitet. Wegen der bereits skizzierten Unzulänglichkeiten der aktuellen Kryptowährungen wird laufend an einer Verbesserung der Blockchain-Technologie geforscht und mit verschiedenen technischen Ausprägungen experimentiert. Dies führt dazu, dass es unterschiedliche Arten von Kryptowährungen gibt. Je nach technologischem Standard weisen die Kryptowährungen dann auch andere Eigenschaften auf. Im Folgenden wird auf die wichtigsten Unterschiede in der Ausgestaltung der Kryptowährung und deren ökonomische Implikationen eingegangen.
16.4 Unterschiedliche Ausprägungen von Kryptowährungen 16.4.1 Erlaubnis zur Validierung Bei Kryptowährungen in ihrem ursprünglichen Sinne wie dem Bitcoin handelt es sich um ein offenes Netzwerk, bei dem jeder als Miner aktiv werden kann. Dagegen gibt es aber auch Kryptowährungen, bei denen nur autorisierte Miner Transaktionen validieren
9Siehe
zur Preisbildung bei Kryptowährungen insb. dem Bitcoin auch den Literaturüberblick von Corbet et al. (2019).
316
M. Wohlmann
Abb. 16.4 Arten von Kryptowährungen
dürfen.10 Man spricht hier auch von einer „permissioned“ Blockchain. Ein solches System liegt z. B. der Kryptowährung Ripple zugrunde. Diese Entwicklung könnte sogar so weit gehen, dass die Validierung der Transaktionen nur von einer zentralen Instanz durchgeführt wird. Durch diese Einschränkung ergäbe sich dann wieder ein zentralisiertes System, das sich dann im Prinzip nur einer anderen Technik als bisher bediente. Auf diese Weise könnte die Blockchain-Technologie auch in unserem heutigen Geldsystem ohne größere Anpassungen genutzt werden; der ursprüngliche dezentrale Charakter der Kryptowährung ginge damit aber verloren.
16.4.2 Deckung durch Sicherheiten Die geringe Wertstabilität der Kryptowährungen verhindert derzeit noch ihre Ausbreitung als Zahlungs- und Wertaufbewahrungsmittel. Vielmehr werden Kryptowährungen aktuell eher als Spekulationsobjekte genutzt. Wertstabilität ist daher eine wichtige Voraussetzung für eine flächendeckende Nutzung einer Kryptowährung. Deshalb gibt es Ansätze, den Wert einer Kryptowährung an eine hinterlegte Sicherheit zu koppeln (siehe Abb. 16.4). In diesem Zusammenhang spricht man auch von Stablecoins. Ein Stablecoin soll, wie der Name sagt, einen stabilen Wert aufweisen. Der stabile Wert wird dadurch sichergestellt, dass die Kryptowährung an Sicherheiten gebunden wird. Diese Sicherheiten oder Deckungsmasse können z. B. US-Dollar, Gold oder andere wertstabile Vermögensgegenstände sein. Die Kryptowährung Tether wird z. B. 1:1 zum US-Dollar gehandelt. Dementsprechend kann neue Kryptowährung nur ausgegeben werden, wenn auch zusätzliche Sicherheiten zur Verfügung stehen. Diese Art des Stablecoins ähnelt damit dem bekannten Currency-Board-System, bei dem die Zentralbank eines Landes nur dann
10Siehe
hierzu auch eine Übersicht in Bank für Internationalen Zahlungsausgleich (2018, S. 96).
16 Kryptowährungen – Top oder Flop?
317
heimische Währung ausgibt, wenn sie entsprechende Währungsreserven in ausländischer Währung besitzt.11 Der Wert des Stablecoins entspricht damit dem Wert seiner Sicherheit. Außerdem bedarf es einer zentralen Instanz, die die Sicherheiten verwaltet. Damit entfernt sich dies Art von Kryptowährung schon sehr weit von ihrer Ursprungsform im Bitcoin und auch von deren Intention: Zum einen gibt es eine zentrale Instanz, zum anderen wird das Angebot nicht algorithmisch, sondern durch die Menge an Sicherheiten bestimmt. Gleichwohl dürfte es für die Zukunft eine der vielversprechendsten Anwendungsmöglichkeiten sein, daher sei hier ausführlicher darauf eingegangen. Die Sicherheiten, die für die Stablecoins hinterlegt sind, können „off-chain“ oder „on-chain“ gehalten werden (PriceWaterhouseCoopers und Loopring 2019, S. 8 f.). Von „off-chain“ spricht man, wenn die Sicherheiten in herkömmlicher Weise z. B. auf einem Bankkonto hinterlegt sind und die Menge an Kryptowährung nicht digital mit den Sicherheiten verknüpft ist. Werden die Sicherheiten „on-chain“ gehalten, so gib es einen Mechanismus über die Smart-Contracts-Logik, die die Menge an Stablecoins an die Menge an Sicherheiten koppelt. Als Beispiel sei hier die Kryptowährung DAI genannt (Maker-Team 2017, S. 17). In beiden Fällen dienen die Sicherheiten dazu, den Wert der Kryptowährung abzusichern. Voraussetzung für die Stabilisierung des Werts ist das Vertrauen der Nutzer, dass auch – wie versprochen – ausreichende Sicherheiten vorhanden sind. Hierfür bürgt die zentrale Instanz, die die Sicherheiten verwaltet. Bei der „On-chain“-Variante wird das Vertrauen der Nutzer dadurch bekräftigt, dass es einen Automatismus gibt, der die Menge an Sicherheiten und die Menge an Kryptowährung verbindet. Eine dritte Variante eines Stablecoins bzw. zur Stabilisierung des Wertes einer Kryptowährung ist die Möglichkeit, den Wert der Kryptowährung nicht durch hinterlegte Sicherheiten, sondern durch einen Algorithmus abzusichern, der das Angebot an Kryptowährung so an die Nachfrage anpasst, dass Wertstabilität garantiert ist (PriceWaterhouseCoopers und Loopring 2019, S. 10). Wenn sich der Wert der Kryptowährung, also ihr Preis, durch Angebot und Nachfrage bildet, kann der Preis über eine entsprechende Anpassung des Angebots an die Nachfrage – wenn die Nachfrage nach Kryptowährung steigt, wird auch das Angebot ausgeweitet und umgekehrt – stabil gehalten werden. Eine besondere Schwierigkeit liegt bei dieser Konstruktion darin, wie das Angebot, d. h. die umlaufende Menge an Kryptowährung, bei einem Nachfragerückgang reduziert werden kann. Bei der Kryptowährung Basis, die dieses System nutzte, sollten Investoren in diesem Fall eine Option auf zukünftige Kryptowährung zu einem günstigen Preis kaufen können (dadurch gaben sie Kryptowährung ab und die umlaufende Menge ging zurück). Aufgrund regulatorischer Hürden wurde diese
11Von
1991 bis 2002 war der argentinische Peso im Rahmen eines Currency-Board-Systems 1:1 an den US-Dollar gekoppelt, d. h., die argentinische Zentralbank musste US-DollarReserven in gleicher Höhe wie die umlaufende inländische Geldmenge vorhalten (siehe auch PriceWaterhouseCoopers und Loopring 2019, S. 8).
318
M. Wohlmann
Abb. 16.5 Das BlockchainTrilemma. (Quelle: In Anlehnung an Abadi und Brunnermeier 2019, S. 2)
Autonomie
? Effizienz
Zentralisiertes Verfahren
Sicherheit
Kryptowährung jedoch wieder eingestellt (Al-Naji 2018). Im Bereich der algorithmisch abgesicherten Kryptowährungen wird derzeit noch am meisten experimentiert und es gibt bisher kaum umgesetzte Beispiele.
16.4.3 Künftige Entwicklung Bislang konnten die drei Merkmale Effizienz, Sicherheit und Autonomie noch nicht in einer Kryptowährung vereint werden. Vielmehr erwies sich dies als ein Trilemma, bei dem entweder Sicherheit und Effizienz zu Lasten der Autonomie oder Autonomie und Sicherheit zu Lasten der Effizienz realisiert werden konnten (siehe Abb. 16.5).12 Ein Stablecoin, der mit Sicherheiten gedeckt ist, bedarf wie bereits erwähnt einer zentralen Instanz, die diese Sicherheiten verwaltet. Dadurch geht die dezentrale Charakteristik der Kryptowährung verloren. Diese Eigenschaft könnte nur durch die dritte Variante, den Algorithmus zur Sicherung der Wertstabilität, erhalten bleiben. Dennoch dürften die ersten beiden Varianten kurzfristig die Formen mit Aussicht auf die größte Verbreitung sein, da sie über die Schaffung von Währungen hinausgehen. Man spricht auch von „Tokenisierung“, wenn für einen zugrunde liegenden Asset ein digitaler Token13 ausgegeben wird. Die Blockchain-Technologie bietet damit nicht nur für Währungen, sondern auch für andere Vermögensgegenstände eine Anwendung, bei der ein digitales Abbild des Assets in der Blockchain geschaffen wird und dieser Wertgegenstand bzw. sein digitales Abbild dann leichter übertragbar wird.14 Kryptowährungen werden als sogenannte Exchange Token kategorisiert. Darüber hinaus gibt es auch Utility oder Asset Tokens (Eidgenössische Finanzmarktaufsicht FINMA 2018, S. 4 f.; HM Treasury et al. 2018, S. 13).
12Abadi und Brunnermeier (2019) zeigen das Trilemma auf, wobei hier „correctness“ frei mit Sicherheit und „decentralization“ mit Autonomie übersetzt wurde, da diese Begriffe in der deutschen Sprache passender erscheinen. 13Token bedeutet übersetzt Wertmarke, d. h., anstelle des realen Vermögensgegenstands besitzt man eine Wertmarke oder Token in Form einer digitalen Einheit. 14Siehe zur Unterscheidung zwischen Coins und Tokens auch Hu et al. (2018).
16 Kryptowährungen – Top oder Flop?
319
16.5 Digitales Zentralbankgeld Auch Zentralbanken beobachten die Entwicklung von Kryptowährungen intensiv. Aus ihrer Sicht geht es hierbei im Wesentlichen um zwei Aspekte: Treten Kryptowährungen in starke Konkurrenz zur eigenen nationalen Währung und könnten somit die Effektivität der Geldpolitik gefährden? Sollten sich Zentralbanken der neuen Technologie bedienen und eigene Kryptowährungen ausgeben? Die erste Frage kann derzeit klar verneint werden. Kryptowährungen sind in ihrer Verbreitung im Verhältnis zur umlaufenden Geldmenge noch so unbedeutend, dass sie keine ernsthafte Konkurrenz darstellen und die Effektivität der Geldpolitik kaum infrage stellen. Dies könnte sich in Zukunft ändern; der Frage, ob Kryptowährungen in Zukunft mehr Verbreitung finden werden, wird in Abschn. 16.6 nachgegangen. Intensiv diskutiert wird hingegen die Frage, ob sich Zentralbanken der neuen Technologie bedienen und eine eigene Kryptowährung ausgeben sollten. Hierbei ist die Rede von „digitalem Zentralbankgeld“ oder Zentralbank-Kryptowährungen. Im Gegensatz zum ursprünglichen Gedanken der Kryptowährung würde dann die Zentralbank als zentrale Institution hinter der Kryptowährung stehen. Man bediente sich zwar der dezentralen DLT, der dezentrale Gedanke der Währungsausgabe ginge aber verloren. Somit steht die Nutzung der neuen Technik im Vordergrund. Dies könnte allerdings zu einschneidenden Veränderungen im Finanzsystem führen. Da die Technologie als kostengünstig, effizient und sicher gilt, müsste die Ausgabe von digitalem Zentralbankgeld nicht mehr auf den kleinen Kreis der Finanzinstitute beschränkt bleiben. Eine direkte Versorgung von Nicht-Banken mit Zentralbankgeld wäre vermutlich technisch machbar. Aus Sicht der Nicht-Banken wäre das neue Geld attraktiv, da es im Gegensatz zu Geschäftsbanken-Geld als risikolos gilt, weil die Zentralbank nicht in Konkurs gehen kann. Die Verbreitung eines solchen Zentralbankgeldes würde aber einen deutlichen Bedeutungsverlust der Banken und ihrer Intermediärfunktion nach sich ziehen, was auch mit Auswirkungen auf die Geldschöpfung und die Transmissionsmechanismen der Geldpolitik verbunden wäre. Einerseits sind Zentralbanken der Finanzstabilität verpflichtet, und es liegt daher nicht in ihrem Interesse, den Bankensektor zu destabilisieren. Andererseits ist es auch Aufgabe der Zentralbank, die Wirtschaftssubjekte mit Geld zu versorgen, effiziente Zahlungssysteme zur Verfügung zu stellen und damit allen die Teilhabe am Wirtschaftsleben zu ermöglichen (siehe folgenden Einschub „Die Zentralbank und ihre Aufgaben“). Wenn aber die Bargeldnutzung in einer Gesellschaft deutlich abnimmt, müssen die Wirtschaftssubjekte zunehmend auf Geschäftsbankengeld und Zahlungen innerhalb des Bankensystems zurückgreifen und sind damit von den Konditionen im Bankensektor abhängig. Denkbar wäre es dann, dass einzelnen Wirtschaftssubjekten der Zugang zu Geld bzw. zur Zahlungsabwicklung verwehrt werden kann. Dies ist ein wesentlicher Grund, warum sich u. a. Länder wie Schweden, wo die Bargeldnutzung deutlich auf dem Rückzug ist, schon seit Längerem mit Kryptowährungen beschäftigen. Die schwedische
320
M. Wohlmann
Zentralbank prüft derzeit, ob sie digitales Geld für die Öffentlichkeit, eine sogenannte e-krona, emittieren sollte (siehe hierzu Skingsley 2016; Sveriges Riksbank 2018). Dies könnte – muss aber nicht zwingend – in Form einer Kryptowährung geschehen. Auch die kanadische Notenbank experimentiert im Rahmen ihres Projekt Jaspers mit der DLT, wobei hier der Schwerpunkt auf Zahlungs- und Abwicklungssystemen liegt (Bank of Canada et al. 2018; Chapman et al. 2017). Das schwedische Beispiel zeigt, dass sich durch einen direkten Zugang der Öffentlichkeit zu digitalem Zentralbankgeld die Finanzarchitektur – das Zusammenspiel von Zentralbank, Geschäftsbanken und sonstigen Finanzinstituten – mittel- bis langfristig deutlich wandeln könnte.
Die Zentralbank und ihre Aufgaben
Unsere heutige Finanzarchitektur besteht aus einem zweistufigen Bankensystem: Auf der ersten Stufe steht die Zentralbank oder auch Notenbank genannt. Sie stellt die „Bank der Banken“ oder den „Lender of last resort“ dar, denn sie versorgt die Volkswirtschaft mit (Basis-)Geld. Auf der zweiten Stufe befinden sich die Geschäftsbanken, die (Basis-)Geld oder Zentralbankgeld von der Notenbank erhalten und auf dieser Grundlage weiteres Buchgeld schöpfen können. Zur Aufgabe der Zentralbank gehört es daher, die Volkswirtschaft mit Geld zu versorgen und diese Geldwirtschaft auch aufrechtzuerhalten. Aus diesem Anspruch heraus ergeben sich die unterschiedlichen Aufgaben der Notenbank: Voraussetzung einer funktionierenden Geldwirtschaft ist die Wertstabilität des Gelds, ansonsten weichen die Wirtschaftssubjekte auf andere, wertbeständigere Alternativen aus. Die Wertbeständigkeit des Geldes wird über die Wahrung der Preisniveaustabilität erreicht, die daher das oberste Ziel der Notenbank ist: „Das vorrangige Ziel des Europäischen Systems der Zentralbanken (im Folgenden ‚ESZB‘) ist es, die Preisstabilität zu gewährleisten.“ (Artikel 127 Absatz 1 AEU-Vertrag)
• Als Geldpolitik bezeichnet man alle Maßnahmen, die die Zentralbank ergreift, um dieses Ziel zu erreichen. Mit ihren geldpolitischen Instrumenten steuert sie insbesondere das Zinsniveau und die Geldmenge. • Da das wertstabile Geld auch in Umlauf gebracht werden muss, ist die Zentralbank für die Ausgabe von Bargeld und die Versorgung der Geschäftsbanken mit Liquidität (elektronischem Zentralbankgeld) zuständig. Die Versorgung der Geschäftsbanken erfolgt über die diversen geldpolitischen Instrumente. • Für eine funktionierende Geldwirtschaft, die in der heutigen Zeit vorranging mit elektronischem Geld handelt, sind computergestützte Zahlungssysteme erforderlich. Zu den Aufgaben der Zentralbank gehört es daher auch, funktionsfähige Zahlungssysteme bereitzustellen und zu unterhalten. • Nach außen hin steht die eigene Währung in Konkurrenz zu ausländischen Währungen. Der Wechselkurs spiegelt hierbei das Tauschverhältnis wider. Die
16 Kryptowährungen – Top oder Flop?
321
Zentralbank hat daher i. d. R. auch die Hoheit über den Wechselkurs bzw. das Wechselkurssystem, unternimmt Devisengeschäfte und hält Währungsreserven. • Eine funktionierende Geldwirtschaft erfordert Finanzstabilität und ein funktionierendes Bankensystem. Auch die Bankenaufsicht wird daher in vielen Ländern von der Zentralbank ausgeübt.
16.6 Ausblick Die Blockchain-Technologie verspricht Effizienzgewinne bei Zahlungsverkehrs- und Wertpapierdienstleistungssystemen, da sie die Anzahl der Beteiligten deutlich verringert und damit eine kostengünstige und schnelle Abwicklung verspricht (Brühl 2017, S. 141).15 Mit weiteren technischen Verbesserungen, der Klärung regulatorischer Fragen und der Anerkennung durch die Aufsichtsbehörden könnte sich diese Technologie als zukunftsweisend entwickeln. Der Einsatz von Kryptowährungen in den Geldfunktionen ist dagegen differenziert zu betrachten: Die Kryptowährung in ihrer ursprünglichen Form als offenes, dezentrales System dürfte auf absehbare Zeit eine Nischenerscheinung bleiben und den etablierten Währungen keine ernsthafte Konkurrenz machen. Zwar ist auch hier mit technischem Fortschritt und Effizienzgewinnen zu rechnen, aus Nutzersicht bleibt ihr Vorteil gegenüber anderen Währungen oder Bezahlformen aber begrenzt. Vorteilhaft ist ihr Einsatz in erster Linie im grenzüberschreitenden Zahlungsverkehr aufgrund von höherer Geschwindigkeit und niedrigeren Kosten bei der Übertragung oder in Ländern mit schwacher Währung und/oder unterentwickeltem Finanzsystem als Alternative zur staatlichen Währung (vgl. auch Payments Canada et al. 2017, S. 6). Die Pseudo-Anonymität macht sie zudem als Alternative zum Bargeld für Nutzer attraktiv, die auf die Wahrung ihrer Privatsphäre bedacht sind. Darüber hinaus bieten Kryptowährungen gegenüber anderen digitalen Bezahlverfahren aber keine wesentlichen Vorteile für den Nutzer. Kryptowährungen unter dem Dach einer zentralen Institution mit einem begrenzten Nutzerkreis könnten sich mittelfristig etablieren, da mithilfe der zentralen Steuerung, wie bereits beschrieben, Effizienzen gehoben und die Wertstabilität der Kryptowährung verbessert werden kann. Eine eigene Währung, die in bestimmten Netzwerken genutzt wird, wie z. B. die von Facebook angestrebte Libra, könnte Zahlungen innerhalb dieses Netzwerks vereinfachen, ist dadurch für Nutzer attraktiv und hat gute Chancen auf Ver-
15Siehe hier auch weitere Anwendungsmöglichkeiten wie Smart Contracts und Smart Government, wie auch in Kap. 15 von Fritsche beschrieben.
322
M. Wohlmann
breitung. Auch der Zahlungsdienstleister Paypal ist in Deutschland maßgeblich durch seine Kooperation mit Ebay groß geworden. Aus Sicht der Zentralbanken ist eine schnellere und sichere Technik sowie ggf. ein elektronischer Ersatz für Bargeld interessant. Aus heutiger Sicht ist hierfür die Technologie jedoch noch nicht ausgereift genug. In Deutschland hat die Deutsche Bundesbank zusammen mit der Deutschen Börse ein Projekt mit der Blockchain-Technologie zur Wertpapier- und Zahlungsabwicklung durchgeführt und kam zu dem Schluss, dass die Technologie grundsätzlich geeignet erscheine, wobei vor allem die permissioned Blockchain die Anforderungen der Finanzindustrie erfülle. Der Trend gehe aber eher zur Entwicklung von speziellen Lösungen für spezielle Probleme (Deutsche Börse AG und Deutsche Bundesbank 2018, S. 14 f.). Die Tatsache, dass Kryptowährungen und deren Weiterentwicklungen von den Zentralbanken laufend beobachtet werden und einige Zentralbanken auch eigene Projekte mit einer experimentellen Infrastruktur verfolgen, lässt erwarten, dass mittelfristig die DLT hier Einzug halten wird. Aber erst die Ausgabe von Zentralbankgeld an Nicht-Banken wäre eine einschneidende Neuerung. Viele Zentralbanken stehen diesem Schritt derzeit aber noch kritisch gegenüber.
Literatur Abadi, J., & Brunnermeier, M. (2019). Blockchain Economics (NBER Working Paper Nr. 25407). Adrian, T., & Mancini-Griffoli, T. (2019). The Rise of Digital Money (IMF FinTech Note Nr. 19/01). Al-Naji, N. (2018). Letter to basis community. https://www.basis.io/. Zugegriffen: 27. Aug. 2019. Bank für Internationalen Zahlungsausgleich. (Hrsg.). (2018). Cryptocurrencies: looking beyond the hype. In BIS Annual Economic Report 2018, 91–114. Bank of Canada, TMX Group, Payments Canada, Accenture, & R3. (2018). Jasper Phase III. Baur, D. G., Hong, K., & Lee, A. D. (2018). Bitcoin: Medium of exchange or speculative assets? Journal of International Financial Markets, Institutions and Money, 54, 177–189. Bech, M., & Garratt, R. (2017). Central bank cryptocurrencies. BIS Quarterly Review, September 2017, 55–70. Berentsen, A., & Schär, F. (2018). A short introduction to the world of cryptocurrencies. Federal Reserve Bank of St. Louis Review, 100(1), 1–19. Bolt, W., & van Oordt, M. R. C. (2016). On the Value of Virtual Currencies (Bank of Canada Staff Working paper Nr. 2016-42). Brühl, V. (2017). Bitcoins, Blockchain und Distributed Ledgers. Wirtschaftsdienst, 97(2), 135–142. Buy Bitcoin Worldwide. (Hrsg.). (2019). Bitcoin-Volatilitätsindex. https://www. buybitcoinworldwide.com/de/volatilitatsindex/. Zugegriffen: 3. Jan. 2020. Chapman, J., Garratt, R., Scott, H., McCormack, A., & McMahon, W. (2017). Project Jasper: Are Distributed Wholesale Payment Systems Feasible Yet? Bank of Canada Financial System Review, June 2017, 59–69. Chapman, J., & Wilkins, C. A. (2019). Crypto ‚Money‘: Perspective of a Couple of Canadian Central Bankers (Bank of Canada Staff Discussion paper Nr. 2019-1). Corbet, S., Meegan, A., Larkin, C., Lucey, B., & Yarovaya, L. (2018). Exploring the dynamic relationships between cryptocurrencies and other financial assets. Economics Letters, 165, 28–34.
16 Kryptowährungen – Top oder Flop?
323
Corbet, S., Lucey, B., Urquhart, A., & Yarovaya, L. (2019). Cryptocurrencies as a financial asset: A systematic analysis. International Review of Financial Analysis, 62, 182–199. Deutsche Börse AG, & Deutsche Bundesbank. (2018). Blockbaster Final report. Deutsche Bundesbank. (2017). Zahlungsverhalten in Deutschland 2017. Frankfurt a. M.: Deutsche Bundesbank. Dorofeyev, M. (2018). Trends and prospects for the development of blockchain and cryptocurrencies in the digital economy. European Research Studies Journal, 21(3), 429–445. Eidgenössische Finanzmarktaufsicht FINMA. (2018). Guidelines for enquiries regarding the regulatory framework for initial coin offerings (ICOs). Bern: Eidgenössische Finanzmarktaufsicht FINMA. Elsner, D., & Pecksen, G. (2017). Kryptowährungen sind noch nicht reif für eine weitreichende Umsetzung. Wirtschaftsdienst, 70(22), 10–13. European Central Bank. (2015). Virtual currency schemes – a further analysis. Frankfurt a. M.: European Central Bank. Fiedler, S., Gern, K.-J., & Stolzenburg, U. (2018). Kryptowährungen – Geld der Zukunft? Wirtschaftsdienst, 98(10), 752–754. Gronwald, M. (2014). The Economics of Bitcoins - Market Characteristics and Price Jumps. CESifo Working Paper, No. 5121. München: Center for Economic Studies and Ifo Institute (CESifo). He, D., Habermeier, K., Leckow, R., Haksar, V., Almeida, Y., Kashima, M., … Verdugo-Yepes, C. (2016). Virtual Currencies and Beyond: Initial Considerations (IMF Staff Discussion Note Nr. 16/03). HM Treasury, Financial Conduct Authority, & Bank of England (2018). Cryptoassets Taskforce: final report. London. Hu, A. S., Parlour, C. A., & Rajan, U. (2018). Cryptocurrencies: Stylized Facts on a New Investible. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3182113. Zugegriffen: 30. Aug. 2019. Maker-Team. (2017). Das Dai Stablecoin System. https://makerdao.com/en/whitepaper/#daisavings-rate-adjustments. Zugegriffen: 27. Aug. 2019. Milne, A. (2018). Argument by false analogy: The mistaken classification of Bitcoin as token money. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3290325. Zugegriffen: 30. Aug. 2019. Nakamoto, S. (2008). Bitcoin: A peer-to-peer electronic cash system. https://bitcoin.org/bitcoin. pdf. Zugegriffen: 30. Aug. 2019. o. V. (2018). Bösartiger Miner: 51-Prozent-Attacke und Double-Spend gegen Bitcoin Gold. https:// www.heise.de/newsticker/meldung/Boesartiger-Miner-51-Prozent-Attacke-und-Double-Spendgegen-Bitcoin-Gold-4058874.html. Zugegriffen: 27. Aug. 2019. o. V. (2019). Geldwäscheregeln bedrohen Bitcoin und Co. Frankfurter Allgemeine Zeitung vom 24.07.2019, S. 23. Parashar, N., & Rasiwala, F. (2019). Bitcoin – Asset or Currency? User’s Perspective About Cryptocurrencies. IUP Journal of Management Research, 18(1), 102–122. Payments Canada, Bank of Canada, & R3. (2017). Project Jasper. PriceWaterhouseCoopers, & Loopring. (2019). Emergence of Stable Value Coins and A Trust Framework For Fiat-Backed Versions. Hongkong. Skingsley, C. (2016). Should the Riksbank issue e-krona? FinTech Stockholm 2016. Riksbank, Sveriges. (2018). The Riksbank’s e-krona project, Report 2. Stockholm: Sveriges Riksbank.
324
M. Wohlmann
Thiele, C.-L., & Diehl, M. (2017). Kryptowährung Bitcoin: Währungswettbewerb oder Spekulationsobjekt: Welche Konsequenzen sind für das aktuelle Geldsystem zu erwarten? Wirtschaftsdienst, 70(22), 3–6. Yermack, D. (2013). Is Bitcoin a real currency? An economic appraisal (NBER Working Paper Nr. 19747).
Prof. Dr. Monika Wohlmann ist Professorin für Volkswirtschaftslehre an der FOM Hochschule für Oekonomie & Management in Düsseldorf und ist wissenschaftliche Leiterin des KCV KompetenzCentrum für angewandte Volkswirtschaftslehre. Nach dem Studium der Betriebswirtschaftslehre an den Universitäten Passau und Málaga sowie einem weiteren Auslandsaufenthalt in Bratislava und Prag promovierte sie im Fach Volkswirtschaftslehre am Ibero-Amerika-Institut der Universität Göttingen. In diesem Zusammenhang war sie zweimal zu Forschungsaufenthalten bei der argentinischen Zentralbank in Buenos Aires. Langjährige Berufserfahrung als Volkswirtin bringt sie durch ihre Tätigkeit bei der WestLB in Düsseldorf mit. Dort war sie in verschiedenen Funktionen tätig; ihre Aufgaben reichten dabei vom volkswirtschaftlichen Research über das Länderrating bis hin zum TreasuryControlling. Ihre Forschungsschwerpunkte liegen in den Bereichen Geldpolitik und Finanzmärkte.