Wirtschaftspolitik im Wandel: Ordnungsdefizite und Lösungsansätze 9783110554861, 9783110552645

Containing papers from the 50th Radein Research Seminar, this edited volume focuses on regulatory policy issues and dile

294 52 2MB

German Pages 406 Year 2017

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Inhalt
Teil I. Staatliche Prozesssteuerung versus Ordnungsgestaltung in der Marktwirtschaft
Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten
Central Banks – from Overburdening to Decline?
Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht
Banken- und Finanzregulierung: Viel Spreu und wenig Weizen
Ordnungspolitik in der digitalen Welt
Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive
Die Zukunft des Sozialstaates
Teil II. Ausgewählte Ordnungsprobleme und Lösungsansätze
Geldpolitik, Preisniveaustabilität und Finanzstabilität
Geldpolitik und Bankenaufsicht in Europa: Ordnungsdefizite und Reformoptionen
Arbeitsmärkte zwischen Mindestlohn und Zuwanderung
Europa zwischen Regelbindung und Vertrauensverlust
Informationsbedarf, Informationsqualität und Medienstruktur
Verkehrsinfrastrukturgesellschaft
(Un-)Ordnungspolitik im deutschen Gesundheitswesen: Eine kritische Bestandsaufnahme
Teilnehmerliste Radein 2017
Recommend Papers

Wirtschaftspolitik im Wandel: Ordnungsdefizite und Lösungsansätze
 9783110554861, 9783110552645

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Justus Haucap und H. Jörg Thieme (Hrsg.) Wirtschaftspolitik im Wandel

Schriften zu Ordnungsfragen der Wirtschaft

Herausgegeben von Prof. Dr. Thomas Apolte Prof. Dr. Martin Leschke Prof. Dr. Albrecht F. Michler Prof. Dr. Christian Müller Prof. Dr. Rahel Schomaker und Prof. Dr. Dirk Wentzel

Band 105

Wirtschaftspolitik im Wandel Ordnungsdefizite und Lösungsansätze

Herausgegeben von Justus Haucap und H. Jörg Thieme

ISBN 978-3-11-055264-5 e-ISBN (PDF) 978-3-11-055486-1 e-ISBN (EPUB) 978-3-11-055285-0 Library of Congress Cataloging-in-Publication Data A CIP catalog record for this book has been applied for at the Library of Congress. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2018 Walter de Gruyter GmbH, Berlin/Boston Satz: Meta Systems Publishing & Printservices GmbH, Wustermark Druck und Bindung: CPI books GmbH, Leck ♾ Gedruckt auf säurefreiem Papier Printed in Germany www.degruyter.com

Vorwort Im Februar 2017 hat das „Forschungsseminar Radein zum Vergleich von Wirtschafts- und Gesellschaftssystemen“ sein fünfzigjähriges Jubiläum begangen. Über 60 Wissenschaftler (Professoren, Habilitanden, Doktoranden) trafen sich wie jedes Jahr im bekannten „Zirmerhof“ in dem einsamen Südtiroler Bergdorf Radein auf 1.560 m Höhe und diskutierten intensiv über ordnungsökonomische Probleme. Das Seminar wurde 1967 von Prof. Dr. K. Paul Hensel, Ordinarius an der Philipps-Universität Marburg und Direktor der Forschungsstelle zum Vergleich wirtschaftlicher Lenkungssysteme in Marburg, gegründet. Zusammen mit seinen Mitarbeitern und Doktoranden sowie dem Marburger Wirtschaftshistoriker Prof. Dr. Ingomar Bog diskutierten sie in Radein Funktionsweise und Lenkungsprobleme unterschiedlicher Wirtschaftssysteme. Die Ergebnisse der zunächst zweiwöchigen Seminare wurden in den „Schriften zum Vergleich von Wirtschaftsordnungen“ publiziert. Nach dem frühen Tod von K. Paul Hensel im Jahre 1975 haben einige seiner Schüler das Seminar als eingetragenen Verein institutionalisiert (Forschungsseminar Radein e. V.; www.radein.de). Seitdem finden jährlich einwöchige Forschungsseminare unter wechselnder wissenschaftlicher Leitung zu unterschiedlichen ordnungstheoretischen und ordnungspolitischen Themen im Zirmerhof der Familie Perwanger in Radein statt. Das Prinzip von K. Paul Hensel, junge Wissenschaftler und gestandene Professoren zu mischen, wurde strikt beibehalten und hat die Seminardynamik stets befruchtet. Das Forschungsinteresse von K. Paul Hensel war darauf gerichtet zu analysieren, wie in einer hochgradig arbeitsteiligen Wirtschaft die immer aktuelle Knappheit von Gütern und Ressourcen möglichst gut gemindert werden kann und welchen Einfluss darauf die Gestaltung konkreter Wirtschaftsverfassungen eines Landes oder Wirtschaftsraumes hat. Sein Denken war geprägt worden durch sein Studium in Freiburg und London sowie insbesondere durch seine Assistententätigkeit bei Walter Eucken, einem der Gründer der liberalen „Freiburger Schule“. Unter dem Titel „Wirtschaftspolitik im Wandel: Ordnungsdefizite und Lösungsansätze“ haben die Wissenschaftlichen Leiter des Jubiläumsseminars, Justus Haucap und H. Jörg Thieme, beide Heinrich Heine-Universität Düsseldorf, vierzehn Einzelthemen zusammengestellt, die von kompetenten Wissenschaftlern bearbeitet wurden. Im ersten Teil des Seminars wurden allgemeine ordnungsökonomische Probleme aufgegriffen und die besonders aktuellen wirtschaftspolitischen Themen der Energiewende, der Entwicklung Europas, der rasanten Digitalisierung der ökonomischen Prozesse, der Geldpolitik in Europa sowie der Sozialpolitik aus ordnungsökonomischer Sicht analysiert. Im zweiten Teil des Seminars wurden Ordnungsprobleme von Güter- und Faktormärkten (Arbeits-, Geld- und Kapitalmärkte), verschiedener Wirtschaftssektoren (Verkehrs- und Mediensektor) und zentrale Politikbereiche (Europa-, Geld- sowie Sozialpolitik) im Detail diskutiert. Hinzu kamen acht Vorträge junger Wissenschaftler, die aus ihren aktuellen Forschungsprogramhttps://doi.org/10.1515/9783110554861-202

VI

Vorwort

men berichteten. Keynotes renommierter Persönlichkeiten (Prof. Dr. Leszek Balcerowicz, Universität Warschau; Prof. Drs. Otmar Issing, Universität Würzburg; Patrick Schwarz-Schütte, Hochschulrat Universität Düsseldorf; Prof. Dr. Carl Christian von Weizsäcker, Universität Bonn) rundeten das Programm ab. In den meisten Referaten wurde – mehr oder weniger pointiert – der weitgehend fehlende ordnungspolitische Bezug der aktuellen Wirtschaftspolitik in Marktwirtschaften kritisiert. In vielen Fällen wirtschaftspolitischer Aktivitäten wird deutlich, dass Einzelmaßnahmen isoliert betrachtet werden und den gesamtwirtschaftlichen Systembezug, wie er in der Ordnungstheorie von K. Paul Hensel postuliert wird, vermissen lassen. Es entstehen Flickenteppiche von häufig zusammenhangslosen Einzelmaßnahmen, deren kurz- und langfristigen Effekte unzureichend erfasst werden und nicht selten zu zügigen wirtschaftspolitischen Korrekturen zwingen. Dadurch entsteht das empirisch gut beobachtbare Bild einer hektischen „stop and go“- Politik der Eingriffe in Marktprozesse. Fehlende Stetigkeit und mangelhafter Ordnungsbezug der Wirtschaftspolitik schafft instabile Rahmenbedingungen für einzelwirtschaftliche Planungen, Entscheidungen und Handlungen und begründet dauerhafte Wohlfahrtsverluste für die Gesellschaft. Die schon frühzeitig von Walter Eucken eingeforderte „Konstanz der Wirtschaftspolitik“ als konstitutives Element einer funktionsfähigen Marktwirtschaft ist somit weitgehend verloren gegangen und wird durch „pragmatisches Durchwursteln“ ersetzt. Hierdurch wird die dezentral geplante Marktwirtschaft als Ordnungsmodell einer freien Gesellschaft enorm gefährdet, wenn sich die Menschen (und damit die Politiker) immer mehr von ihm abwenden und zentralistischen Tendenzen Vorschub leisten. Die wissenschaftlichen Leiter und Herausgeber dieses Buches danken allen Seminarteilnehmern für die stimulierenden Beiträge im Seminar, den Referenten und Autoren für die (halbwegs) eingehaltenen Regeln bei der Anfertigung der Manuskripte. Besonders danken wir Frau Lisa Schlesewsky, M.Sc., Universität Münster, die mit großem Engagement und vorzüglichem Organisationstalent zum Gelingen des Seminars und der zügigen Publikation der Manuskripte beigetragen hat. Dank gebührt auch Herrn Dr. Stefan Giesen vom de Gruyter Verlag, der am Seminar teilgenommen hat und die Manuskripte zügig zu dem vorliegenden Buch geformt hat. Zu danken ist der Familie Perwanger und den Mitarbeitern des Zirmerhofs in Radein, die das 50. Forschungsseminar Radein für die Teilnehmer zu einem bemerkenswerten Jubiläumserlebnis gestaltet haben. Schließlich danken wir der Konrad-Henkel-Stiftung, der Schwarz-Schütte Förderstiftung, der Marburger Gesellschaft für Ordnungsfragen der Wirtschaft und dem Verein zur Förderung der wettbewerbsökonomischen Forschung e. V., ohne deren großzügige und unbürokratische finanzielle Unterstützung das Jubiläumsseminar und die Publikation nicht gelungen wären. Justus Haucap Düsseldorf, im Juni 2017

H. Jörg Thieme

Inhalt Teil I Staatliche Prozesssteuerung versus Ordnungsgestaltung in der Marktwirtschaft Martin Leschke und H. Jörg Thieme Ordnungstheorie versus Institutionenökonomik: Unterschiede und 3 Gemeinsamkeiten Otmar Issing Central Banks – from Overburdening to Decline?

25

Susanne Cassel Politische Ökonomie der Energiewende: Reformen des EEG im 37 Interessengeflecht Thomas Mayer Banken- und Finanzregulierung: Viel Spreu und wenig Weizen Justus Haucap und Ulrich Heimeshoff Ordnungspolitik in der digitalen Welt

63

79

Carl Christian von Weizsäcker Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive 133 Norbert Berthold Die Zukunft des Sozialstaates Stillstand, Evolution oder Revolution?

153

Teil II Ausgewählte Ordnungsprobleme und Lösungsansätze Albrecht Michler und Franz Seitz Geldpolitik, Preisniveaustabilität und Finanzstabilität

183

Uwe Vollmer Geldpolitik und Bankenaufsicht in Europa: Ordnungsdefizite und Reformoptionen 211

VIII

Inhalt

Thomas Apolte und Kim Leonie Kellermann Arbeitsmärkte zwischen Mindestlohn und Zuwanderung Heinz-Dieter Smeets Europa zwischen Regelbindung und Vertrauensverlust

237

273

Nadine Lindstädt-Dreusicke und Dirk Wentzel Informationsbedarf, Informationsqualität und Medienstruktur

299

Karl-Hans Hartwig Verkehrsinfrastrukturgesellschaft Eine ordnungspolitische Lösung gegen Erhaltungskrisen und Staus auf den 343 Straßen Björn A. Kuchinke (Un-)Ordnungspolitik im deutschen Gesundheitswesen: Eine kritische 367 Bestandsaufnahme Teilnehmerliste Radein 2017

395

Teil I Staatliche Prozesssteuerung versus Ordnungsgestaltung in der Marktwirtschaft

Martin Leschke und H. Jörg Thieme

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten 1 2 3

4 5

Hensels Ordnungstheorie und das Forschungsseminar Radein 3 Knappheits- und Interessenprobleme in arbeitsteiliger Wirtschaft 4 Problemlösungen als ordnungspolitische Aufgabe 7 3.1 Systeme zentraler Planung und Lenkung: Sozialistische Planwirtschaft 7 3.2 Systeme dezentraler Planung und Lenkung: Marktwirtschaft 10 Systemvergleich und Ordnungsinterdependenz im Lichte der Institutionenökonomik Fazit 20

15

1 Hensels Ordnungstheorie und das Forschungsseminar Radein Die ökonomische Ordnungstheorie hat im deutschsprachigen Raum eine lange Tradition. Walter Eucken und die Freiburger Schule sowie Friedrich August von Hayek sind die bekanntesten Vertreter. K. Paul Hensel war Schüler und Assistent von Walter Eucken. Das fünfzigjährige Jubiläum des Forschungsseminars Radein bietet die Möglichkeit, auch einige Gedanken zur Entstehung des Seminars, seiner wissenschaftlichen Ausrichtung und vor allem auch zur Leistung des Seminargründers K. Paul Hensel zu formulieren. Dabei geht es nicht um eine umfassende Laudatio auf einen bemerkenswerten Wissenschaftler, der am 24. Januar 2017 110 Jahre alt geworden wäre. Angesichts seiner ausgeprägten Persönlichkeit wäre dies ein abendfüllendes Programm. Es geht vielmehr um die Kerninhalte seines Forschungsprogramms, die er seinen Mitarbeitern und Doktoranden in intensiven Diskussionen – auch und insbesondere in Radein – zu vermitteln versuchte. Gegenstand des vorliegenden Beitrags sind somit folgende Leitfragen: Welche drängenden Probleme haben K. Paul Hensel bewegt, die er immer wieder ins Zentrum seiner ordnungstheoretischen Studien gestellt hat? Wie kann in einer hochgradig arbeitsteiligen Wirtschaft die vorhandene Knappheit an Gütern und Ressourcen möglichst gut gemindert werden? Wie können die um die Güter und Ressourcen konkurrierenden Interessen so gelagert werden, dass gesellschaftliches Leben auf Dauer möglich ist und wirtschaftliche Handlungen der Menschen positive Ergebnisse für alle erbringen (Teil 2)? Welche Ordnungen sind denkbar und welche Ordnungsregeln sind notwendig, damit einzelwirtschaftliches Handeln gesamtwirtschaftlich systematisiert wird und dauerhaft effizient ist (Teil 3)? Welche Gemeinsamkeiten und Unterschiede bestehen zwischen der vorwiegend im deutschen Sprachraum entwickelten Ordnungstheorie und der im angelsächsischen https://doi.org/10.1515/9783110554861-002

4

Martin Leschke und H. Jörg Thieme

Sprachraum dominanten Institutionenökonomik1 in ihren verschiedenen Ausprägungen (Teile 4 und 5)? Und schließlich: Weshalb wurde der bemerkenswerte ordnungstheoretische Ansatz zur Erforschung der Funktionsweise und des Vergleichs von Wirtschaftssystemen in den Wirtschaftswissenschaften wenig beachtet?

2 Knappheits- und Interessenprobleme in arbeitsteiliger Wirtschaft Das Forschungsinteresse von K. Paul Hensel war stets darauf gerichtet, wie Güterknappheit in einer hochgradig arbeitsteiligen Wirtschaft wirksam gemindert werden kann und welche Bedeutung dabei die Wirtschaftsordnung hat. Weltweite Arbeitsteilung bedeutet völlige Unüberschaubarkeit des Wirtschaftsprozesses für das einzelne Wirtschaftssubjekt. Individuen haben keinen Überblick über und Einblick in das wirtschaftliche Geschehen. Einzelwirtschaftliches Handeln folgt jedoch individuellen Interessen. Wie gelingt es, die einzelwirtschaftlichen Interessen und das daraus resultierende einzelwirtschaftliche Handeln so zu einem gesamtwirtschaftlichen Prozess zu koordinieren, dass Güterknappheit möglichst wirksam gemindert wird und gesellschaftliches Zusammenleben – trotz immer aktueller Interessengegensätze – möglich ist? – Damit sind mindestens fünf Probleme angesprochen, die es in konkreten Volkswirtschaften zu lösen gilt (Thieme 2007, S. 3 ff.): 1. Arbeitsteilung und Spezialisierung erhöhen die Produktivität wirtschaftlichen Handelns, aber zugleich auch die Abhängigkeiten der Menschen voneinander (Abhängigkeitsproblem). 2. Individuen müssen ihre Entscheidungen und Handlungen an einzelwirtschaftlich wahrnehmbaren Rahmenbedingungen orientieren, ohne Richtung, Umfang und Struktur des wirtschaftlichen Gesamtprozesses überschauen zu können (Informationsproblem). 3. In einer arbeitsteiligen Wirtschaft muss entschieden werden, was, wo, wann, wie, womit, von wem und für wen produziert werden soll (Allokations- und Verteilungsproblem). 4. Spezialisierung bedeutet, dass der einzelne lediglich partiell an der Produktherstellung beteiligt ist und insofern keine Produktmotivation verspürt. Arbeitsteilung begründet deshalb immer spezifische Motivationsformen (Leistungs- und Motivationsproblem). 5. Die Anhäufung von Fähigkeitspotenzialen und Verfügungsrechten über Produktionsmittel begründet Machtpositionen, die zu kontrollieren sind (Kontrollproblem).

1 Einen Überblick über die institutionenökonomischen Bereiche geben Erlei / Leschke / Sauerland (2016).

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

5

Hensels Augenmerk war insbesondere auf den morphologischen Aspekt von Wirtschaftsordnungen konzentriert. Danach sind Wirtschaftsordnungen eine Kombination einer begrenzten Anzahl von Ordnungsformen, die wiederum unterschiedlich ausgeprägt sein können (Thieme 2007, S. 12, vgl. Abbildung 1):

Gesellschaftssystem: Politisches, kulturelles und wirtschaftliches Beziehungsnetz zwischen Elementen Wirtschaftsverfassung: Rechtliche und sittliche Normen und Institutionen, die Handlungsspielräume in konkreten Volkswirtschaften festlegen. Wirtschaftsordnung: Kombination der Ausprägungen von Ordnungsformen Ordnungsformen Ausprägungen (Beispiele) Planungs- und zentral Lenkungsformen dezentral Privateigentum GesellschaftsEigentumsformen eigentum Staatseigentum Markt- und Preisbildungsformen

Polypol Oligopol Monopol AG, GmbH, OHG, VEB, VEG, LPG

Unternehmensformen

Formen der Geld- und Finanzwirtschaft

Sozialökonomische Umweltbedingungen Wirtschaftssystem: Beziehungsnetz zwischen Wirtschaftseinheiten – Planungs- und Koordinationssystem – Motivations- und Kontrollsystem

– Bestand an natürlichen Ressourcen – Ausstattung mit Arbeits- und Realvermögen – Politisches System – Kulturelles System

Verhaltensweisen im Wirtschaftsprozess

Entstehung, Verteilung und Verwendung des Produktionsergebnisses

Gewinn-, Planerfüllungs-, Einkommensprinzip Banken-, Währungssystem; Steuersystem, Haushaltsprinzipien

Abb. 1: Zusammenhang zwischen Wirtschaftsordnung, -verfassung, -system und Umweltbedingungen.

6

Martin Leschke und H. Jörg Thieme

Konstitutiv für das wirtschaftliche Geschehen ist das Planungs- und Lenkungssystem, das in zwei Ausprägungen existiert: Das System zentraler und das System dezentraler Planung und Lenkung des Wirtschaftsprozesses. Abgrenzungskriterium ist die Form der Knappheitsgradanzeige. Nach Hensel sind wissenschaftlich bislang nur zwei Formen der Ermittlung und Anzeige gesamtwirtschaftlicher Knappheitsgrade nachgewiesen, durch die ein gesamtwirtschaftlicher Rechnungszusammenhang hergestellt wird: Mengensalden in güterwirtschaftlichen Planbilanzen oder Marktpreise auf Güter- und Faktormärkten (Thieme 2007, S. 14): Im ersten Fall wird der Wirtschaftsprozess zentral geplant. Die Mengendifferenzen der Güter werden periodenbezogen in zahlreichen Aufkommens- und Verwendungsbilanzen ermittelt. Das Beziehungsnetz entsteht, indem die Mengensalden in den Bilanzen der Konsumgüter über technische Produktionskoeffizienten jeweils in Güter höherer Ordnung umgerechnet werden. Die in den Aufkommens- und Verwendungsbilanzen der Güter höchster Ordnung auf diese Weise festgestellten Mengensalden sind die wichtigsten Bewertungskriterien, an Hand derer die Planungsstrategien (z. B. Bedarfseinschränkung, Aufwandsvermehrung durch Importe) für die betreffende Planperiode zu entwickeln sind. Im zweiten Fall werden gesamtwirtschaftliche Knappheitsgrade bzw. -verhältnisse durch absolute Preise bzw. relative Preise ausgedrückt. Sie bilden sich auf Märkten durch das Zusammenspiel zwischen angebotenen und nachgefragten Gütermengen. Diese gehen aus einzelwirtschaftlichen Plänen privater und öffentlicher Haushalte und Unternehmen hervor, deren Entscheidungen über Märkte und die dort geschlossenen Verträge aufeinander abgestimmt werden.

Akzidentiell für das Wirtschaftssystem sind die Eigentumsformen, Markt- und Preisbildungsformen, Unternehmensformen und Formen der Geld- und Finanzwirtschaft, die in ihren unterschiedlichen Ausprägungen wesentlichen Einfluss auf die Leistungsmotivation der Wirtschaftssubjekte sowie auf die Kontrolle ihrer Entscheidungen haben. Sie bilden das Motivations- und Kontrollsystem in der Gesellschaft, prägen die Verhaltensweisen der Wirtschaftssubjekte und entscheiden damit über die Ergebnisse des Wirtschaftens. Jede Änderung der Ausprägungen der akzidentiellen Ordnungsformen, also der Regeln, die in der Wirtschaftsverfassung eines Landes verankert sind, löst ebenso wie eine Variation der Umweltbedingungen Anpassungsreaktionen der Wirtschaftssubjekte aus. Dies geschieht, weil ein gesamtwirtschaftliches Rechenwerk existiert, das die absoluten und relativen Güterknappheiten sichtbar macht, so dass diese in den Entscheidungen der Planungsträger berücksichtigt werden können. K. Paul Hensel hat die Planungs- und Koordinationssysteme als analytisches Instrument zur zielgerichteten Reduktion der Komplexität von Wirtschaftsprozessen verstanden (Hartwig 1987, S. 16). Der gesamtwirtschaftliche Rechnungszusammenhang steht im Zentrum seiner Modellanalysen. Ohne ihn ist eine optimale Allokation der Ressourcen nicht möglich. Die Logik der beiden abgegrenzten Systemalternativen erlaubt es nach Hensel nicht, von Mischsystemen („Mixed Economies“) zu

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

7

sprechen, wie es im „Mainstream“ der Systemforschung seit den sechziger Jahren üblich war. Seine strikte Konsequenz machte ihn zum Außenseiter, was sicherlich auch die Akzeptanz und Verbreitung seiner Systemanalysen beeinträchtigte. Hensels Modellanalysen wurden wesentlich durch seine Schüler weiterentwickelt: Gernot Gutmann (1965) hat das System zentraler Naturalplanung in ein monetäres System der Zentralverwaltungswirtschaft transformiert und zentral festgesetzte Gleichgewichtspreise berechnet, die zeitpunktbezogen Knappheitsgrade anzeigten. In bemerkenswerten Analysen hat Helmut Leipold (2002) das – bei Hensel eher vage formulierte – sittliche Gebilde konkretisiert, indem er kulturelle und religiöse Faktoren als ökonomische Einflussfaktoren in den Fokus der Analyse gerückt hat (und dies auch mit Bezug auf moderne Institutionenökonomen wie Douglass C. North (1990)).

3 Problemlösungen als ordnungspolitische Aufgabe Wie bereits angedeutet, sind Lösungen der Planungs- und Lenkungsprobleme einerseits und Motivations- und Kontrollprobleme andererseits ordnungsbedingt. Die historische Einzigartigkeit von Wirtschaftsverfassungen resultiert aus der Vielfalt von Kombinationsmöglichkeiten der Ausprägungen der akzidentiellen Ordnungsformen. Sie erklären auch wesentlich die unterschiedliche gesamtwirtschaftliche Effizienz bei gleichen oder ähnlichen Faktorausstattungen in den betrachteten Ländern. Die sorgfältige Verankerung der Ausprägungen der Ordnungsformen in wirtschaftsverfassungsrechtlichen Regeln ist somit eine ständige ordnungspolitische Aufgabe. Immer gilt es dabei zu beachten, welches Planungs- und Lenkungssystem bei der Koordination des Wirtschaftsprozesses etabliert ist, in der Logik Hensels also ein System zentraler oder dezentraler Planung des Wirtschaftsprozesses. Dieser Erklärungsansatz ist also stets auf das Funktionieren eines arbeitsteiligen Gesamtprozesses ausgerichtet. Das gilt nicht für andere Institutionenökonomische Ansätze.

3.1 Systeme zentraler Planung und Lenkung: Sozialistische Planwirtschaft Will man den Beitrag von Hensel zur ordnungstheoretischen Bestimmung und Erklärung des Systems zentraler Planung adäquat würdigen, sind zwei verschiedene Erklärungsansätze zu unterscheiden, die von ihm selbst nicht immer klar abgegrenzt werden (Hartwig 1987, S. 15 ff.): (a) Auf der einen Seite hat Hensel in seiner Habilitationsschrift „Einführung in die Theorie der Zentralverwaltungswirtschaft“ aus dem Jahr 1954 (zweite Auflage 1959) nachgewiesen, dass unter strikten (neoklassischen) Annahmen ein gesamt-

8

Martin Leschke und H. Jörg Thieme

wirtschaftliches Gleichgewicht bei naturaler Zentralplanung denkbar ist.2 Das gesamtwirtschaftliche Plangleichgewicht basiert auf dem Prinzip der Nutzenmaximierung und der Verwirklichung des Grenznutzenausgleichs beim zentralen Planträger. Hartwig (1987, S. 15) sieht darin eine progressive Problemverschiebung im ordoliberalen Forschungsprogramm, das insbesondere durch Walter Eucken geprägt war. Allerdings ist dadurch der empirische Gehalt des Aussagensystems – wie bei neoklassischen Modellen der Marktwirtschaften – verloren gegangen. Die Annahmen des Modells – vollständige naturale Zentralplanung, vollständige Verfügungsmacht der Zentrale über die Produktionsmittel (Staatseigentum), eindeutige Zielfunktion des Zentralplaners, Interessenidentität bei allen Planbeteiligten, vollständige Information über technische Produktionskoeffizienten und Produktionsfaktoren – erlauben es dem Zentralplaner, ökonomisch rationale Entscheidungen zu fällen, und zwar an Hand der Plansalden der Güter höchster Ordnung. Für die jeweilige Planperiode kann der Planträger bei Fehlmengen Anpassungsstrategien (z. B. Bedarfsreduktion, Importerhöhung, Erhöhung der Faktorausstattung) entwickeln und eine gesamtwirtschaftlich optimale Plankoordination sicherstellen. Wie erwähnt, können bei Einfügen eines monetären Sektors die naturalen Plansalden in Knappheitspreise transferiert werden, wodurch die Wirtschaftsrechnung und auch die Planverwirklichung erleichtert werden. Zu beachten bleibt, dass die Knappheitspreise nur für den Zeitpunkt die richtigen Knappheiten anzeigen. Als Mann der Praxis (Lederplanung im Kriegsministerium!) hat Hensel schon in seiner Habilitationsschrift immer wieder auf die vielfältigen praktischen Probleme der Informationsbeschaffung, der mangelnden Interessenidentität zwischen Planer und Planverwirklicher, auf den Mangel an plankonformen Verhalten bei der Planverwirklichung etc. hingewiesen. Dadurch hat Hensel das realitätsferne Modell verlassen. Die Realität von Zentralverwaltungswirtschaften wurde dann mit zahlreichen partiellen Verhaltenshypothesen erklärt. (b) Damit ist der zweite Erkenntnisgegenstand der ordnungstheoretischen Forschung von K. Paul Hensel angesprochen, der auch maßgeblich die Inhalte der Forschungsseminare in Radein prägte. Das Modell der Zentralplanung fungierte dabei als orientierender Fixpunkt, auf den Hensel in den häufig kontroversen Diskussionen gelegentlich auch lautstark hinwies. Analysiert wurden systematisch jene Informations-, Motivations- und Kontrollprobleme, die bei unvollständiger Zentralplanung, also bei „unheilbarem Bruch in der Wirtschaftsrechnung“ (Schül-

2 Bezogen auf die Welt ohne Transaktionskosten argumentiert Hensel vom Ergebnis her gesehen ähnlich wie der marxistische Ökonom Oskar Lange (1936), der ein Modell der optimalen Allokation im Sozialismus („Konkurrenz-Sozialismus“) als Gegenentwurf zu Ludwig von Mises’ Unmöglichkeitstheorem (Unmöglichkeit der rationalen Planung ohne Privateigentum und Marktpreise) entwickelte (vgl. auch Mises 1932). Hensel hob allerdings auch deutlich hervor, dass in der realen Welt (mit Transaktionskosten) ein System zentraler Planung mit großen Informations- und Interessenproblemen zu kämpfen habe.

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

9

ler 1987, S. 97), erhebliche Fehlallokationen und Wachstumsverluste auslösen können. Am Beispiel konkreter sozialistischer Planwirtschaften (z. B. DDR, Polen, CSSR, Sowjetunion, Ungarn, China) wurden die zahlreichen Hilfsinstrumente diskutiert, die in den Ländern Fehlinformationen wegen Interessendivergenzen zwischen zentraler Volkwirtschaftsplanung (Politbüro, staatliche Plankommission, Ministerien) und den Planverwirklichern in den Volkseigenen Betrieben und Genossenschaften vermeiden oder wenigstens mindern sollten (Phänomen der „weichen Pläne“). Zahlreiche Instrumente wurden eingesetzt, um Betriebe und Wirtschaftssubjekte zu plankonformen Leistungen anzureizen und zu Höchstleistungen zu motivieren („Ökonomische Hebel“, „Prinzip der materiellen Interessiertheit“, Prämiensysteme, „sozialistischer Wettbewerb“). Zahlreiche Kontrollinstanzen und -bürokratien (z. B. Ministerien, Bezirksorgane, Vereinigung Volkseigener Betriebe, Arbeiter- und Bauerninspektionen, Stasi) wurden installiert, um Plankonformität sicherzustellen oder planinkonformes Verhalten zu bestrafen (Gerichte). Diese theoretischen und empirischen Analysen sind ein bemerkenswerter Beleg für das Nichtfunktionieren staatlich konstruierter Ersatzmaßnahmen für fehlende Leistungsanreize und -kontrollen, die bei privatem Produktionsmitteleigentum und funktionierenden Wettbewerbsmärkten entstehen. Da der „neue Mensch“ ohne Eigeninteressen nicht existiert, sind die Effekte solcher Instrumente schnell verpufft. Deshalb wurden rhythmisch wiederkehrende Wirtschaftsreformen (z. B. NÖSPL, NÖS, ÖS in der DDR) in diesen Ländern umgesetzt, deren positive Wachstumseffekte allerdings nur vorübergehend und sehr bescheiden waren. Der „Saustallkoeffizient“ (Hensel) wurde dadurch nicht beseitigt. Ein weiterer Erkenntnisgegenstand der Radeiner Forschungsseminare waren die beobachtbaren Transformationsversuche in einigen sozialistischen Planwirtschaften (z. B. „Prager Frühling“ in den sechziger Jahren in der CSSR) oder sozialistischen Marktwirtschaften (z. B. Jugoslawien). Kontrovers wurde diskutiert, ob ein abrupter Systemwechsel, wie z. B. nach dem Ende des II. Weltkrieges in Deutschland, oder ein langwieriger Prozess des schrittweisen Systemwandels höhere Transformationskosten (und damit volkswirtschaftliche Probleme) verursacht. Dies ist von grundlegender Bedeutung, weil dadurch die Akzeptanzbarrieren bei der Bevölkerung beeinflusst werden. Es geht dabei nicht nur um die Transformation von sozialistischen Planwirtschaften des Ostblocks in politische Demokratien und marktwirtschaftliche Systeme, wie sie seit 1990 in der DDR und anderen Satellitenstaaten der Sowjetunion stattfanden. Der Zerfall der Sowjetunion in zahlreiche Einzelstaaten hat völlig unterschiedliche politische und wirtschaftliche Ordnungen etabliert. Ihre Entwicklungen sind sorgfältig zu beobachten und zu analysieren, weil in einzelnen Ländern Rückfälle in administrative Planwirtschaften keineswegs auszuschließen sind. Systematische Antworten sind auch auf die – allerdings in der Ordnungsökonomik sehr selten gestellte – Frage notwendig, ob und inwieweit massive bürokratische Zentralisierungsprozesse und zunehmende wirtschaftspolitische Prozesseingriffe in Märkte das System dezentraler Planung und Lenkung

10

Martin Leschke und H. Jörg Thieme

zunächst zunehmend ineffizient machen und schließlich in ein System zentraler Lenkung transformieren. Ein weiteres Forschungsfeld des Radein-Seminars war das bereits von Walter Eucken betonte Interdependenzproblem der Teilordnungen, das K. Paul Hensel systematisch in all seinen Schriften behandelt hat. Gefragt wurde, ob ein System dezentraler Planung des Wirtschaftsprozesses und Marktkoordination dauerhaft in einer politischen Diktatur mit Einparteiensystem funktionieren kann. Die dabei auftretenden Allokationsprobleme konnten am Beispiel der „sozialistischen Marktwirtschaft“ Jugoslawiens auch empirisch überprüft werden. China, Vietnam oder Kuba sind markante aktuelle Beispiele für die Interdependenzanalyse von politischen und wirtschaftlichen Teilordnungen. Diese und andere ordnungstheoretische und ordnungspolitische Erkenntnisgegenstände des Forschungsseminars Radein können in den mehr als 100 „Schriften zu Ordnungsfragen der Wirtschaft“ nachgelesen werden. Einen kurzen Abriss dazu liefert Abschnitt 4. Es ist heute und in der Zukunft nach wie vor sehr wichtig, das System zentraler Planung und Lenkung des Wirtschaftsprozesses zu analysieren, Informations-, Motivations- und Kontrollprobleme sowie die systembedingten prozessualen Innovationsdefizite zu markieren. Die dabei gewonnenen Erkenntnisse sollten dringend (wieder!) für die akademische Lehre sowie für Parteien und politische Bildungseinrichtungen aufbereitet werden – ein Punkt, der immer wieder von K. Paul Hensel gefordert und praktiziert wurde (Hensel 1966 sowie auch 1972, S. 9 f.). Grund dafür war und ist die insbesondere bei jüngeren Bürgern beobachtbare Neigung, beim Auftreten partieller Produktions- oder Verteilungsprobleme in dezentralen Marktwirtschaften nach Staatslösungen zu rufen und damit Zentralisierungstendenzen, die nur schwer wieder rückgängig zu machen sind, Vorschub leisten.

3.2 Systeme dezentraler Planung und Lenkung: Marktwirtschaft Eine Marktwirtschaft beruht auf einem System dezentraler, freiheitlicher, bürgerlicher Planung und Entscheidung. Dies ist an rechtliche Vorgaben geknüpft. Hensel (1965, S. 19) führt in diesem Zusammenhang aus: „Wie alle anderen Ordnungen werden auch die Wirtschaftsordnungen bürgerlicher Planung rechtlich begründet und ermöglicht.“ Damit ist die grundsätzliche Ordnungsentscheidung systematisch dem Wirtschaften selbst vorangestellt. Die konstitutionelle Ebene – die Entscheidung über die Gestaltung des Rechtssystems – stellt die Weichen für die Planungen und Entscheidungen auf der Ebene des Wirtschaftens. „Das Gesetzeswerk besteht in einer großen Zahl von Verhaltensnormen, Verhaltensgeboten und -verboten, durch die gewisse Spielräume der Staatsbürger im arbeitsteiligen Miteinander in mehr oder weniger engen Grenzen abgesteckt werden. Innerhalb dieser Grenzen liegt der Bereich autonomen Wirtschaftens“ (Hensel 1965, S. 19). Hensel sieht folgende Rechtsbereiche als bedeutsam für das Wirtschaften an: die Gewerbeordnung, das BGB und HGB, das Aktien- und GmbH-Gesetz, die Konkursordnung, das

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

11

Kreditwesengesetz, das Patentgesetz, das GWB u. v. a. Als Kernstück des wirtschaftlichen Rechtssystems hebt er jedoch ausdrücklich das Vertragsrecht (die Vertragsfreiheit) hervor. Eine „Rechtsordnung für den Markt“ muss eine freiheitliche Rechtsordnung sein. „[Sie] gibt jedem die Freiheit, sich innerhalb des arbeitsteiligen Gesamtprozesses die besten Chancen des beruflichen Wirkens, des Einkommenserwerbs und der Versorgung auszusuchen. […] Diese Freiheiten und der mit ihnen verbundene faktische Zwang selbstverantwortlicher Versorgung sind der rechtliche Ursprung von Wirtschaftsordnungen bürgerlicher Planung“ (Hensel 1965, S. 20). Hensels Ausführungen stehen hier in völligem Einklang mit den wesentlichen Inhalten von Buchanans „Limits of Liberty“ (1975) und von Hayeks „Constitution of Liberty“ (1960). Der Regelrahmen determiniert die Freiheiten und deren Grenzen und stellt damit den Rahmen für das Wirtschaften dar. Werden durch die angesprochenen Rechtsgebiete den Bürgern weitgehende Freiheiten zum eigenverantwortlichen Entscheiden an die Hand gegeben, konstituiert sich dadurch eine dezentrale Wirtschaftsordnung bürgerlicher Planung. Wenn nun durch das Recht die Weichen für eine dezentrale Marktwirtschaft gestellt sind, ergibt sich die Frage, wie die Koordination der Pläne und Entscheidungen der Millionen von Wirtschaftsakteuren funktioniert. Teilt man die Wirtschaftsakteure in zwei Gruppen, nämlich Haushalte als Nachfrager und Unternehmen als Anbieter von Gütern und Leistungen, so scheinen deren Ziele bzw. Interessen klar formulierbar: Die Haushalte streben nach einer guten Lebensgestaltung (heute spricht man schlicht von Nutzenmaximierung) und die Unternehmen streben nach Gewinn (heute spricht man von Gewinnmaximierung). Die Koordination und damit auch Kontrolle der Pläne und Entscheidungen erfolgt in der Marktwirtschaft auf vielerlei Weise (Hensel 1978, S. 47 ff.): a) durch das Preissystem, b) durch das Vertragssystem, c) durch den Staat als ordnende Kraft, d) durch die Bürgerinteressen selbst. Ad a (Preissystem): Während die reine Tauschlehre der Neoklassik von Geld abstrahiert, spricht Hensel (1965, S. 25) von einem mittelbaren Tausch; denn in einer Geldwirtschaft (und alle realen Marktwirtschaften sind bekanntlich Geldwirtschaften) bietet jeder Nachfrager Geld an, und jeder Anbieter fragt Geld nach. Die Geldpreise bilden sich auf den vielfältigen Teilmärkten aus dem Zusammenspiel von Angebot und Nachfrage. Bei Ungleichgewichten in Form von Übernachfragen oder Überangeboten besteht ein (systematischer) Anreiz zum Abbau dieser Ungleichgewichte. „Ist das Gesamtangebot eines Gutes, das aus den entsprechenden Plänen hervorgeht, größer als die Gesamtnachfrage nach demselben Gut, die ebenfalls aus einzelwirtschaftlichen Plänen entsteht, dann haben die Anbieter Absatzschwierigkeiten, und sie werden dazu neigen, die geforderten Preise zu senken, um die

12

Martin Leschke und H. Jörg Thieme

Nachfrage an sich zu ziehen“ (Hensel 1965, S. 25). Entsprechend gilt, dass bei einer Übernachfrage eine Tendenz zur Ausdehnung des Angebots besteht, denn man kann als Unternehmen mit dieser einfachen Maßnahme Gewinne erzielen. Wenn also als nicht-intendiertes Resultat intentionalen Handelns Ungleichgewichte auftreten, entstehen in einem dezentralen Marktsystem unmittelbar Anreize, diese wieder abzubauen. Da jedoch Planrevisionen immer auch Kosten verursachen, haben die Wirtschaftssubjekte (egal ob als Unternehmen oder Konsumenten) ein Interesse, Planungsfehler zu vermeiden. Die Akteure sind somit bestrebt, bei ihren Plänen Knappheiten und Preise richtig abzuschätzen. Veränderungen von Güter-, Ressourcen- und Faktorpreisen zeigen Veränderungen von Knappheiten an, an denen sich die Akteure bei ihren Plänen orientieren. „Hiernach haben die Preise, die sich auf Märkten bilden, gesamtwirtschaftlich gesehen die Funktion, es den planenden Personen zu ermöglichen, ihre Planentscheidungen an den gesamtwirtschaftlichen Knappheitsgraden und deren Veränderungen zu orientieren. Weil keines der Millionen Subjekte [bei] der Planung des arbeitsteiligen Gesamtprozesses die gesamtwirtschaftlichen Knappheitsgrade unmittelbar erkennen kann, […] ergibt sich [...], dass bürgerliche Planung […] unmöglich wäre“ (Hensel 1965, S. 26). Gemeint ist hier natürlich eine effiziente bürgerliche Planung. Die Informationsfunktion der Preise ist somit die Voraussetzung für eine zielgerichtete individuelle Planung und damit für volkswirtschaftliche Prozesse, die mit recht geringen Ineffizienzen einhergehen. Hensels Ausführungen zur Rolle der Preise bei der Koordination der Pläne und Entscheidungen decken sich mit von Hayeks Erkenntnissen, die er in seinem Aufsatz „The Use of Knowledge in Society“ bereits 1945 darlegte. Ad b (Vertragssystem): Jeder Kauf- bzw. Tauschakt stellt stets einen Vertrag dar. Modalitäten zu Gütern, Leistungen und Gegenleistungen (Lieferung, Quantität, Qualität, Termine, Zahlungen) werden hier im allseitigen Einvernehmen festgelegt. Charakteristikum einer funktionierenden Marktwirtschaft ist die Planung und Gestaltung der Zukunft. „Es gibt Verträge, die für Jahre oder auch Jahrzehnte gelten […]. Wenn Verträge abgeschlossen werden, geschieht dies im Hinblick darauf, was künftig voraussichtlich geleistet werden kann“ (Hensel 1965, S. 28). Verträge enthalten somit stets Erwartungen. Sind sie (weit) in die Zukunft gerichtet, lassen sich aus ihnen gesamtwirtschaftliche Terminpreise und erwartete Preisentwicklungen ableiten. Die Koordination über Verträge geht folglich Hand in Hand mit der Koordination über Preise. In einer dezentralen Marktwirtschaft bürgerlicher Planung und Entscheidung bedingt sich beides; nichts geht ohne das andere. Ad c (Staat): Die Entscheidung für die Marktwirtschaft als auch die Voraussetzungen für eine funktionierende Marktwirtschaft spiegeln sich zuallererst im Recht, das der Staat durchsetzt und gestaltet, wider. „Die Wirtschaftsordnung als rechtliche Ordnung umfasst ein System rechtlicher Normen mit Verhaltensgeboten und Verhaltensverboten. Selbstverständlich ist zu kontrollieren, ob die wirtschaftenden Menschen diese Normen einhalten. Dies ist die Sache öffentlicher Organe aller Art, und insofern unterliegen die Interessen staatlichen Kontrollen“ (Hensel

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

13

1965, S. 32). Hensel erkennt folglich genau wie Eucken, dass die oft gestellte Frage „Markt oder Staat?“ in Bezug auf die Allokation von Faktoren, Ressourcen, Gütern und Leistungen eine falsche Frage ist. Es kann nämlich gar nicht um die Frage, ob dies der Staat oder der Markt „erledigen“ soll, gehen, sondern es geht bei jedweden Wirtschaftsordnungen immer um ein bestimmtes Zusammenspiel von Markt und Staat (von privaten und öffentlichen Planungen und Entscheidungen). Und auch die von nicht wenigen Konstitutionenökonomen vertretene These, dass der Staat die „Grenzen der Freiheit“ (Buchanan 1975) markieren und durchsetzen müsse, kontert Hensel (1965, S. 33) mit folgenden Fragen: „Ist in einer Wirtschaftsordnung bürgerlicher Planung der Staat allein die ordnende Potenz? Kann er alleinige ordnende Potenz sein?“ Seine Antwort ist „Nein!“, der Staat kann nie alleine die Regeln der Wirtschaftsordnung durchsetzen. Einen solchen Kontrollaufwand kann kein Staat „schultern“. Zudem sind in der Staatsorganisation selbst große Anreizprobleme verankert, so dass die öffentliche Hand Probleme hat, die ihr zugewiesenen Aufgaben effizient durchzuführen; denn die Verantwortlichen schädigen durch Ineffizienzen ja nicht sich selbst (wie das bei privatem Unternehmertum der Fall ist), sondern die Allgemeinheit (Hensel 1965, S. 34). Zur wirksamen Kontrolle der Wirtschaftsprozesse setzt er folglich auch nicht allein auf den Staat, sondern sieht als weitere ordnende Kraft die Bürgerinteressen selbst.3 Ad d (Bürgerinteressen): Die (spontanen) Kontrollen der Privaten durch Private ist nach Hensel (1965, S. 36 ff. und S. 42 f.) in einer dezentral organisierten Marktwirtschaft von großer Bedeutung. An erster Stelle verhindern natürlich Konkurrenten (auch bereits potenzielle) auf der Angebotsseite, dass den Nachfragern über längere Zeit schlechte Preis-Leistungsangebote gemacht werden. Überteuerte Produkte oder/und schlechte Qualität sind ein Ansporn für Unternehmen offensiv in den Markt einzutreten und mit besseren Angeboten die zahlungsfähige Nachfrage auf sich zu ziehen. Dies ist das Wirken von Adam Smiths unsichtbarer Hand. Kann aufgrund von Markteintrittsbarrieren das schlechte Angebot nicht durch ein besseres ersetzt werden (z. B. weil es Patentschutz oder sonstige Markteintrittsbarrieren gibt), so kann zumindest die Substitutionskonkurrenz wirken. Diese Art der Kontrolle durch Konkurrenz kann jedoch nur funktionieren, wenn auch die Konsumenten wachsam sind und kritisch die Preis-Leistungs-Angebote vergleichen. Aber ist es realistisch, von dieser Wachsamkeit der Unternehmen und Konsumenten auszugehen? Hensel bejaht das, weil hierzu ein unmittelbarer Anreiz besteht; denn die Wachsamkeit belohnt die Akteure unmittelbar mit steigenden Gewinnen auf der Unternehmens- und besserer Bedürfnisbefriedigung auf der Konsumentenseite. Wachsamkeit im Markt zahlt sich somit aus. In Fällen von unvermeidbaren natürlichen Monopolen versagt diese Art von Kontrolle allerdings und muss auf den Staat übergehen (Hensel 1965, S. 40).

3 Eucken (1952) diskutiert als weitere mögliche „ordnende Potenzen“ die Kirche und die Sozialwissenschaft.

14

Martin Leschke und H. Jörg Thieme

Funktionieren diese Kontrollen, so wird das Marktsystem die Interessen und Handlungen so kanalisieren, dass es Ergebnisse hervorbringt, die letztlich zum Vorteil aller sind. Die „unsichtbare Hand“ des Marktes funktioniert. Dies gilt unabhängig von der konkreten Spielart der Marktwirtschaft, die sich je nach konkreter Ausgestaltung der Wirtschafts- und Geldpolitik sowie der Regulierungen der Teilmärkte ergibt. Hensels Analyse der dezentralen marktwirtschaftlichen Ordnung (bürgerlicher Planung) steht grundsätzlich in Einklang mit den Erkenntnissen der modernen Institutionenökonomik und der klassischen (z. T. auch neoklassischen) Theorie:4 – Die dezentralen Entscheidungen und deren Ergebnisse sind nicht intendierte Resultate intentionalen Handelns (Klassik, Adam Smith). – Die Marktergebnisse sind letztlich ein Resultat der Marktverfassung (Klassik und Institutionenökonomik). – Ziel einer Marktverfassung ist es, Allokationseffizienz herzustellen (Neoklassik). – Zur Marktverfassung gehören in erster Linie die formalen Regeln (Freiheitsrechte, Verbotsgesetze, Regulierungen), aber auch informelle Regeln (Institutionenökonomik). – Damit die Marktergebnisse in der Summe die Wohlfahrt der Konsumenten möglichst umfänglich mehrt, bedarf es permanenter Kontrollen der Anbieter durch die Konsumenten und Konkurrenten (pointiert v. a. von Hensel hervorgehoben, grundsätzlich in Einklang mit der Klassik und Institutionenökonomik). Hensels Anliegen bei der Beschreibung des Marktsystems ist es nicht, „Idealwelten“ darzulegen (die nur in Modellen unter restriktiven Annahmen existieren), sondern er sieht seine Aufgabe darin, reale Spielarten der marktwirtschaftlichen Ordnung – Funktionsweise, Voraussetzungen, Ergebnisse – zu analysieren bzw. zu erklären. Hierbei steht die Allokationseffizienz als Norm im Fokus. Insofern weisen seine Arbeiten auch eine Nähe zur Neoklassik auf. Die dynamischen Inventions-, Selektions- und Innovationsfunktionen des Marktes – auch im Vergleich zu planwirtschaftlichen Ordnungen – spielen bei Hensel so gut wie keine Rolle. Dieser Frage hat sich vor allem Friedrich August von Hayek gewidmet. Verwiesen sei in diesem Zusammenhang auf seine bahnbrechende Arbeit „Der Wettbewerb als Entdeckungsverfahren“ aus dem Jahr 1968.

4 Vgl. hierzu auch die Analyse von Hartwig (1987), der die Ordnungsökonomik wissenschaftstheoretisch einordnet und mit der Vertragstheorie vergleicht.

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

15

4 Systemvergleich und Ordnungsinterdependenz im Lichte der Institutionenökonomik Die Ökonomik als Wissenschaft hat nach Hensel – und damit stimmt er mit der heute vorherrschenden Meinung der Mainstreamökonomik überein – folgende zentrale Aufgaben: (a) Knappheitsprobleme erfassen bzw. analysieren und damit „richtig“ diagnostizieren; (b) auf Basis der Diagnose Therapievorschläge in die ökonomische oder/und politische Debatte einspeisen. „Erklären zwecks Gestalten“ wird damit zum Credo des Ordnungsökonomen, wobei Dreh- und Angelpunkt bestimmte Knappheitsprobleme sind: „Von hier aus hat sie [die Wirtschaftswissenschaft] alle Fragen des Wirtschaftslebens zu denken. Verliert sie diesen Grundsachverhalt und dieses ihr Leitproblem aus dem Blick, dann hört sie auf, Wirtschaftswissenschaft zu sein“ (Hensel 1977, S. 2). Warum jedoch erscheint es Hensel vor diesem Hintergrund (extrem) wichtig, sich vor allem mit Wirtschaftsordnungen auseinanderzusetzen? Er selbst führt dazu aus (Hensel 1977, S. 2): „Wie das Problem der Knappheitsminderung mit der Wirtschaftsordnung zusammenhängt, ist leicht zu erkennen. Jegliches Gemeinleben, und so auch das wirtschaftliche, ist ordnungsbedingt, ist durch Ordnung geformt, beeinflusst und gesteuert. Danach ist auch das Bestreben, Knappheit zu mindern ordnungsbedingt, und die Lösung des Problems der Knappheitsminderung ist abhängig von der Lösung des Ordnungsproblems.“ Kürzer ausgedrückt lässt sich diese Erkenntnis auf folgende Formel bringen: Die Ordnung determiniert die Allokation! Hierbei gilt nach Hensel (1977, S. 3) für jedwede Ordnungsform, die in der Realität verankert wird: Jede konkrete Ordnung ist charakterisiert durch herrschende Sitten und Gebräuche; das Verhalten der Menschen ist geleitet durch Bindung an Religionen, und Weltanschauungen, durch sittliche Normen oder durch Sittenlosigkeit. Jede Wirtschaftsordnung besteht aber auch aus einem mehr oder weniger dichten Netz rechtlicher Normen, durch das Verhaltensweisen ermöglicht, unterbunden oder begrenzt werden. […] In jedem historischen Moment begründet die je gegebene sittliche, rechtliche und morphologische Beschaffenheit der Gesamtordnung eine Bedingungskonstellation des wirtschaftlichen Handelns der Menschen und ihres Verhaltens zueinander, wobei die Verhaltensspielräume unterschiedlich groß sein können. Damit ist die je realisierte Gesamtordnung gleichbedeutend mit einer durch sie bedingten oder mitbedingten Lösung des Problems der Knappheitsminderung […] Bezogen auf einen historischen Moment, ist somit die realisierte Ordnung Datum des Geschehens und auch der wissenschaftlichen Analyse. Bezogen auf das Morgen, sind sittliche und hier insbesondere rechtliche und morphologische Beschaffenheit der Gesamtordnung oder der Teilordnungen Problem der Gestaltung und deshalb jederzeit auch Problem und Aufgabe wissenschaftlicher Analyse.

Diese Ausführungen belegen, dass Hensel für den Bereich der Wirtschaft eine ganz klare institutionenökonomische Perspektive einnimmt: Die Ergebnisse des Wirtschaftssystems sind Folgen vielfältiger Entscheidungen der Wirtschaftsakteure. Diese wiederum sind eingebettet in den Rahmen der Wirtschaftsordnung, der nicht

16

Martin Leschke und H. Jörg Thieme

nur auf formellen, sondern auch aus informellen Regeln besteht. Hensel liegt hier völlig auf einer Linie mit den Ausführungen von Institutionenökonomen wie Douglass North (1990) oder auch Friedrich August von Hayek (1960). Das Wirtschaftssystem und damit die Festlegung auf eine bestimmte Wirtschaftsgrundordnung (Planoder Marktwirtschaft) inklusive der entsprechenden gesetzlichen und moralischen Flankierungen erfüllen letztlich nur einen Zweck: den Menschen größtmögliche Chancen zu geben, ihre individuellen Ziele zu erreichen (Hensel spricht von der Verwirklichung möglichst vieler menschlicher Ziele – vgl. Hensel 1977, S. 122). Was bedeutet nun innerhalb des ordnungsökonomischen Programms Hensels der Begriff des Systemvergleichs oder Ordnungsvergleichs? Was wird genau verglichen und warum wird „es“ verglichen? Die Antwort ist im Grunde in diesem Beitrag schon gegeben worden: Weil die Knappheitsbewältigung essenziell und ein universelles Problem ist, kommt der Allokation von Gütern und Leistungen in einem Wirtschaftssystem eine zentrale Bedeutung zu. Für das Wirtschaftssystem selbst ist wiederum die Frage der ordnungspolitischen Ausrichtung entscheidend.5 Und hier ist die These von Hensel, dass es grundsätzlich nur zwei ordnungspolitische Weichenstellungen zur Lösung des Allokationsproblems geben kann: – die Orientierung an Knappheitsdifferenzen, die durch das System der Geldpreise angezeigt werden, oder alternativ – die Orientierung an Knappheitsdifferenzen, die durch das System der Plansalden angezeigt werden. Nach Hensel muss man sich für eines der beiden Wirtschaftsordnungssysteme entscheiden: entweder für ein marktwirtschaftliches System dezentraler Planung und Entscheidung oder für ein System zentraler staatlicher Planung und Entscheidung. Eine Vermischung beider Systeme ist für Hensel (1977, S. 33) faktisch unmöglich: Es ist kaum vorstellbar, dass innerhalb eines Landes für die eine Hälfte der Güter die Güterknappheit in Form von Plansalden, für die andere Hälfte in Form von Preisen, die sich auf Märkten bilden, quantifiziert werden könnte. Dies wird besonders deutlich, wenn man bedenkt, dass bei zentraler Planung der ökonomische Entscheidungsprozess sehr langwierig ist und die Koordination aller Teilpläne in allen Ländern zentraler Planung mehrere Monate dauert. Ist der Planungsprozess aber abgeschlossen, dann beruht er auf einer gewissen quantitativen und qualitativen Struktur der Güterknappheit. Die Anpassungselastizität im Prozess der Verwirklichung des zentralen Plansystems ist deshalb eng begrenzt.

Unerwartete Plansalden (Differenzen zwischen geplanten und tatsächlichen Bedarfen) setzen länger dauernde Diskussionen über adäquate Planrevisionen und nachfolgende Entscheidungsprozesse in Gang, so dass sich daraus folgern lässt: „Wegen

5 Der Zusammenhang von Wirtschaftsprozessen und Ordnungsentscheidungen wird in Thieme (1987) dargelegt.

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

17

Grundsatzentscheidung zum Wirtschaftssystem

Dezentrales marktwirtschaftliches System

Zentrales staatliches Wirtschaftssystem

Art des Wirtschaftssystems beeinflusst maßgeblich die Anforderungen an die politische und bürokratische Struktur Abb. 2: Wirtschaftspolitische Grundsatzentscheidung.

der unterschiedlichen zeitlichen Logik der Entfaltung des Systems dezentraler und des Systems zentraler Planung sind diese beiden Planungssysteme nicht mischbar; sie können also in dem Wirtschaftssystem eines Landes nicht gleichzeitig realisiert sein“ (Hensel 1977, S. 33). Die Abbildung 2 verdeutlicht dies noch einmal. Weil mit der Grundsatzentscheidung „staatliche Wirtschaftsplanung oder marktliche Allokation“ weitere politische Entscheidungen untrennbar zusammenhängen – im Grunde ist die gesamte politische Organisation und die Struktur der Verwaltung davon beeinflusst –, ist diese Entscheidung für Hensel konstitutiv (sie besitzt eine immense Strahlkraft). Bei dieser Grundsatzentscheidung gilt es zu beachten, dass zwischen der politischen Governancestruktur (Demokratie oder Autokratie) und der wirtschaftlichen Governancestruktur (Markt- oder Planwirtschaft) gewisse Abhängigkeiten bestehen (Hensel 1978, S. 168 ff.). Nach Hensel (1977, S. 141 f.) schließen sich Planwirtschaft und Demokratie aus zwei Gründen aus: Für die Willensbildung bei der Planung des Wirtschaftsprozesses [...] [hat man] nur wenige Wochen, bestenfalls Monate zur Verfügung. Innerhalb dieser Zeit sind viele Tausende von Verwendungsentscheidungen zu treffen. Hierfür aber ist die parlamentarische Willensbildung viel zu langsam. […] Der zweite Grund […] ergibt sich aus den Problemen der Planverwirklichung. Die Verwirklichung des zentralen Plansystems und damit die Lösung des Leistungsproblems verlangt eine vollständig umfassende Organisation der Menschenführung. […] Vor allem gefährdet jede Form einer konkurrierenden oppositionellen Willensbildung die Planverwirklichung […]. Die Planverwirklichung setzt demnach eine umfassende und unbedingte Autorität der politischen Führung und ein solches Maß staatlicher Macht voraus, über das eine parlamentarische Demokratie niemals verfügen kann und auch nicht soll.

Auf eine einfache Formel gebracht bedeutet das: Ein System zentraler Wirtschaftsplanung benötigt eine autoritäre Staatsordnung! Wie ist nun aber das Verhältnis der Marktwirtschaft zur Staatsordnung. Hier führt Hensel (1977, S. 142 und 145 f.) keine „technischen“ Gründe an, sondern argumentiert, dass Individuen, welche freie wirtschaftliche Entscheidungen präferie-

18

Martin Leschke und H. Jörg Thieme

Dezentrales marktwirtschaftliches System

Zentrales staatliches Wirtschaftssystem

Demokratische Staatsordnung

Autoritäre Staatsordnung

Abb.3: Wirtschafts- und Staatsordnung.

ren, diese Freiheit auch in der Politik bevorzugen. Sie werden mithin für eine freiheitliche demokratische Ordnung offensiv eintreten. Wenn die Bürger entscheiden dürfen, würden sie in diesem Fall für die Demokratie votieren. Zudem ist die Kombination „Marktwirtschaft – Demokratie“ funktionsfähig, weil die Parlamente „nur“ das Regelsystem verabschieden und die Regierung die Kollektivgüter (inklusive des sozialen Netzes) bereitstellen muss. Dies ist weit weniger kompliziert als die Aufstellung eines gesamten Wirtschaftsplans und damit von einer Demokratie recht problemlos leistbar. Damit ist allerdings noch nicht die Frage beantwortet, ob denn eine Kombination „Marktwirtschaft – Autokratie“ in der Realität funktionsfähig sein kann. Hierzu führt Hensel (1977, S. 142 ff.) aus, dass dies nur dann möglich ist, wenn die Autokratie sich wirksam binden kann, so dass die wirtschaftlichen Freiheiten tatsächlich garantiert werden. Diese Glaubwürdigkeit ist vor allem für die Investoren von zentraler Bedeutung. Ein totalitärer Staat vermag dies nicht zu leisten. Bei abgemilderten Formen der Autokratie erscheint dies denkbar. Abbildung 3 veranschaulicht noch einmal Hensels Thesen zu (Dis-) Harmonie von Wirtschafts- und Staatssystem. Hensel vergleicht in vielen seiner Arbeiten aus gutem Grund die Markt- mit der Planwirtschaft. Genauer gesagt lassen sich dafür drei Gründe anführen: – Da es nach dem Zweiten Weltkrieg den Wettkampf der beiden Systeme „Marktvs. Planwirtschaft“ gab, war es von zentraler Bedeutung, die Unterschiede der beiden Systeme (samt der Folgewirkungen) wissenschaftlich zu analysieren. – Beide Systeme schließen einander aus, Mischformen werden nicht als stabil angesehen. – Zu der Grundsatzentscheidung (Plan- oder Marktwirtschaft) gab und gibt es keine weitere Alternative. Hierbei erkennt Hensel natürlich, dass es von jeder der beiden grundsätzlichen Wirtschaftsformen eine Fülle von unterschiedlichen Spielarten gibt. Einige dieser Facetten – nämlich diejenigen, die tatsächlich in verschiedenen Staaten verankert wurden – analysiert er recht genau in Bezug auf die Frage, wie und inwiefern die Versorgung der Bevölkerung mit Gütern und Dienstleistungen gelingt.

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

19

Hensels vergleichende Analyse knüpft unmittelbar an die moderne Institutionenökonomik an. Diese Methode, relevante institutionelle Alternativen ausfindig zu machen und diese zielgerichtet zu vergleichen, hat in der Institutionenökonomik prominente Vertreter: Walter Eucken, Friedrich A. von Hayek sowie James M. Buchanan, Ronald Coase und Douglass North gehen nicht nur genauso vor, sondern versuchen auch deutlich zu machen, dass diese Vorgehensweise äußerst fruchtbar ist (und sich die Ökonomik daher in diese Richtung entfalten sollte). Die Entscheidung, welche Spiel-Regeln in der Politik und in der Wirtschaft gelten, bestimmt maßgeblich die gesellschaftliche Entwicklung. Das Institutionensetting ist letztlich dafür verantwortlich, ob die Individuen eine „gute Basis“ erhalten, um ihre Ziele zu erreichen. Hierbei spielen nicht nur formelle, sondern auch informelle Institutionen eine zentrale Rolle. Hensel gehört eindeutig zum Lager der Institutionenökonomen, die sich als Konstitutionenökonomen (im deutschsprachigen Raum ist das u. E. weitgehend deckungsgleich mit dem Begriff „Ordnungsökonom“) verstehen. Ziel dieses Zweigs der Ökonomik ist es, die Wirkungen zentraler bindender Regeln und Verträge in den Bereichen Wirtschaft und Politik zu erfassen, um auf dieser Basis ggf. auch Empfehlungen für institutionelle Reformen zu geben. Auch Hensel verfolgt genau dieses Ziel; trotzdem unterscheiden sich seine Analysen von denen der anderen Protagonisten in einem wichtigen Punkt: Seine normativen Implikationen sind in einem zentralen Punkt differenzierter. Während v. a. Hayek, Buchanan und Eucken bestrebt sind, Gründe für ein freiheitliches Marktsystem und gegen eine Planwirtschaft in den Vordergrund ihrer Analysen zu stellen, sind Hensels Argumente abgestufter. Ziel seiner Analysen ist nicht die „Verteufelung“ des Sozialismus, um die Menschen bzw. Staaten zum Widerstand gegen dieses planwirtschaftliche System zu bewegen. Vielmehr beinhalten seine Analysen u. E. folgende drei Botschaften: a) Wenn man sich für die Marktwirtschaft entscheidet, sollte man sich auch für eine Demokratie entscheiden und zudem die Preissignale als Knappheitssignale richtig deuten und sich daran mit den (dezentralen) Plänen ausrichten. b) Wenn man sich hingegen für eine Planwirtschaft entscheidet, muss man sich auch für eine autoritäre Staatsordnung entscheiden und die Plansalden als Knappheitssignale richtig deuten, um die Zentralplanung bedarfsgerecht zu gestalten. c) Eine Marktwirtschaft bedarf genau wie die Planwirtschaft einer geeigneten Governancestruktur, um funktionsfähig zu sein (d. h. die divergierenden Interessen so zu kanalisieren, dass die Allokation funktioniert); die Allokationsineffizienzen von Governancedefiziten sind unmittelbar spürbar. Damit zeigt sich, dass die Methode des Systemvergleichs – von Hensel zielgerichtet bzw. problemfokussiert angewendet – zu sehr weitreichenden Hypothesen zu den Interdependenzen von wirtschaftlicher und politischer Ordnung führt. Die dargelegten Thesen dürfen natürlich nicht als in Stein gemeißelte Wahrheiten interpre-

20

Martin Leschke und H. Jörg Thieme

tiert werden; vielmehr stellen sie nach wie vor eine Grundlage für (kontroverse) Diskussionen dar.

5 Fazit Die Quintessenz des Werks von Hensel lässt sich u. E. in sieben Punkten zusammenfassen: 1. Obschon es in der Realität viele unterschiedliche Wirtschaftssysteme in den Ländern dieser Welt gibt, lassen sich doch idealtypisch zwei grundlegende Wirtschaftsordnungen unterschieden: die Marktwirtschaft und die Planwirtschaft. 2. Die Funktionsfähigkeit der Markt- wie Planwirtschaft hängt von den konkreten institutionellen Bedingungen (der Koordination und Kontrolle) dieser Wirtschaftssysteme ab; eine inadäquat verfasste Marktwirtschaft kann ggf. die Allokation ineffizienter „bewerkstelligen“ als eine adäquat verfasste Planwirtschaft. 3. Es gibt kein „natürliches Entwicklungsgesetz“ der Konvergenz der Wirtschaftssysteme bzw. Wirtschaftsordnungen; beide können zwar nicht in einem Staat, aber natürlich auf der Welt nebeneinander existieren. 4. Eine Planwirtschaft funktioniert nur gut im Zusammenspiel mit einer autoritären (nicht demokratischen) Staatsordnung; eine Marktwirtschaft funktioniert vergleichsweise gut mit einer Demokratie. 5. Wer die Ergebnisse eines konkreten Wirtschaftssystems nachvollziehen möchte, um auf dieser Basis ggf. Handlungsempfehlungen zu geben, muss die Wirtschaftsverfassung im Zusammenspiel mit der bürokratisch-politischen Governancestruktur6 analysieren und zugleich Ordnungsalternativen in die Analyse einbeziehen. 6. Die systemvergleichende Analyse ist kein Selbstzweck und keinesfalls beliebig; verglichen werden müssen stets (relevante) institutionelle Alternativen; insofern ist der Systemvergleich nichts anderes als eine Opportunitätskostenanalyse auf institutioneller Ebene und damit eine Daueraufgabe des Ökonomen. 7. Hensels Leitfrage (normative Leitlinie) der systemvergleichenden Analysen lautet: Wie muss, sollte oder kann eine Ordnung – ein Wirtschaftssystem im Zusammenspiel mit der Governancestruktur – beschaffen sein, um das Allokationsproblem möglichst gut zu lösen?

6 Natürlich verwendet Hensel selbst diesen Begriff nicht, seine Art des Analysierens läuft jedoch genau darauf hinaus.

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

21

Wie oben ausgeführt ist Hensel insofern dem neoklassischen Denken verhaftet, als dass er die Allokationseffizienz als Norm aus der Standardökonomik übernimmt und evolutorisch-dynamischen Analysen (die Inventionen und Innovationen in der Tradition von Schumpeter oder Hayek in den Fokus rücken) weitgehend außer Acht lässt. Dennoch ist eine große Nähe zur modernen Institutionenökonomik – in der Tradition von Buchanan, Hayek und North – ohne Zweifel gegeben. Als den gravierenden Unterschied kann man vielleicht die marktwirtschaftliche Perspektive ausmachen. Hensel sieht die Rolle des Marktes bzw. allgemein die Rolle des Wirtschaftssystems darin, das Allokationsproblem zu lösen, also vorhandene Ressourcen und Faktoren in die besten Verwendungen lenken und die produzierten Güter und Leistungen zu den Haushalten zu befördern, so dass die (weitgehend bekannten) Bedürfnisse der Bürger möglichst gut erfüllt werden. Es ist v. a. Hayeks Verdienst, nachdrücklich darauf hingewiesen zu haben, dass eine ebenso wichtige Aufgabe eines Wirtschaftssystems darin besteht, Inventionen, Innovationen also technischen und zivilisatorischen Fortschritt – also Neues, was erst einmal unbekannt ist – hervorzubringen. Diese Aufgabe ist nur über adäquat verfasste Wettbewerbsprozesse zu lösen, durch die mehr Wissen hervorgebracht wird als man über zentral geplante Systeme hervorbringen kann. Diese evolutorische Sichtweise des Marktes haben neben Hayek auch North und Buchanan verinnerlicht. Dies ist ohne Zweifel ein Unterschied zwischen der Henselschen Ordnungstheorie und der modernen Institutionen- bzw. Konstitutionenökonomik und möglicherweise auch einer der Gründe, warum sich die moderne Wirtschaftswissenschaft kaum mehr mit der Planwirtschaft auseinandersetzt. Das „Fortschritts- und Wissens-Argument“ erscheint als so durchschlagend, dass eine detaillierter Vergleichsanalyse „Markt- vs. Planwirtschaft“ unnötig erscheint. Andere institutionenökonomische Ansätze wie die Property-Rights-Theorie, die Vertragstheorie, die Prinzipal-Agent-Theorie analysieren vorwiegend (interessante) Einzelfragen. Häufig fehlt den institutionenökonomischen Partialanalysen allerdings der gesamtwirtschaftliche Systembezug, so dass normative Empfehlungen, die auf solchen „schmalen“ Analysen fußen, nicht ungefährlich sind, weil sie vorhandene Interdependenzen der Teilordnungen nicht beachten. Dies hat Hensel bereits genau erkannt. Wenn man diese Einschätzung teilt, lässt sich nun abschließend die Frage stellen: Was kann man aus Hensels Analysen heute noch lernen? Wir glauben, man kann in den aktuellen Debatten über Wirtschaftssysteme vor allem lernen, die richtigen Fragen zu stellen und die relevanten Alternativen ins Blickfeld zu nehmen. Hierzu seien abschließend zwei Punkte angeführt: 1. Ohne Zweifel scheint die Grundsatzdebatte „Plan- vs. Marktwirtschaft“ derzeit kein Thema in der Öffentlichkeit zu sein – weder, was die Verankerung von Wirtschaftsordnungen in der Realität betrifft, noch, was die Kontroversen in der Ökonomik betrifft. Doch der Schein trügt: Denn es ist eine ähnliche Debatte entbrannt, die man mit „Wachstumsökonomie vs. Post-Wachstumsökonomie“

22

2.

Martin Leschke und H. Jörg Thieme

umschreiben kann. Bezüglich dieser Debatte können Hensels Analysen helfen, die richtigen Fragen zu stellen – so z. B. die Fragen: Hätte die „Degrowth-Makrosteuerung“ nicht weitreichende Folgen für die Bürokratie und die politische Ordnung? Würde sich eine subsidiär gestaltete Ordnung, die weitreichende interventionistische Makro- und Struktureingriffe vornimmt, nicht schleichend in eine Technokratie und später Autokratie verwandeln? Würde nicht die Anpassungsfähigkeit und allokative Effizienz verlorengehen, wenn man (basis-) demokratische politische Strukturen mit einem interventionistischen Wirtschaftssystem verbindet? Mit Hensels Perspektive stößt man unweigerlich auf solche Fragestellungen, die essentiell für die Funktionsfähigkeit der Wirtschafts- und Gesellschaftsordnung sind. Seit Ausbruch der Finanz- und Wirtschaftskrise 2007/2008 wird in den Sozialwissenschaften eine Debatte zur Neustrukturierung des Geld- und Finanzsystems diskutiert. Hensels Einsichten folgend muss man auch hier die Interdependenzen der Teilordnungen und die Anreize der Akteure innerhalb der Teilordnungen in die Analysen einbeziehen. Romantische Vorstellungen einer Verstaatlichung aller Banken werden nicht-intendierte Folgen haben, wenn ein dezentral gestaltetes Wirtschaftssystem auf ein staatliches Geldsystem trifft. Ein träges und konservatives politisches System der Kreditzuteilung wird sehr schnell zur Bremse innovativen Wirtschaftens werden. – Will man das Geldund Finanzsystem wieder stärker in den Dienst einer Wirtschaft stellen, deren zentrale Aufgabe es ist, die vielfältigen Probleme der Knappheitsminderung (zum Wohle der Menschen) zu lösen, muss man die Folgeprobleme alternativer Geld- und Finanzsysteme detailliert analysieren. Idealistische Schnellschüsse helfen hier wenig.

Genau für die Analyse solcher aktueller Ordnungsinterdependenzen (jenseits der guten Absicht) liefert Hensels Werk nach wie vor eine hervorragende Basis und ist in diesem Sinne nach wie vor modern. Vor diesem Hintergrund erscheint es wünschenswert, wenn alle politischen Entscheidungsträger ein ordnungstheoretisches Basisseminar absolvierten würden, damit sie begreifen, dass jede von ihnen ergriffene Partialmaßnahme das Gesamtsystem mehr oder weniger verändert. In Marktwirtschaften gilt das insbesondere für direkte oder indirekte staatliche Preiseingriffe (z. B. Mindestlöhne, Höchstpreismieten etc.), weil sie das Spiel der relativen Preise als Knappheitsgradanzeiger stören und damit die Faktorallokation, Güterverteilung und die Innovations- und Investitionsanreize beeinflussen.

Literatur Buchanan, James M. 1975. The Limits of Liberty. Between Anarchy and Leviathan, Chicago. Erlei Mathias, Martin Leschke, Dirk Sauerland. 2016. Institutionenökonomik, 3. Auflage (1. Auflage 1999), Stuttgart.

Ordnungstheorie versus Institutionenökonomik: Unterschiede und Gemeinsamkeiten

23

Eucken, Walter. 1952. Grundsätze der Wirtschaftspolitik, Tübingen. Gutmann, Gernot. 1965. Theorie und Praxis der monetären Planung in der Zentralverwaltungswirtschaft, Schriften zum Vergleich von Wirtschaftsordnungen, H. 5, Stuttgart. Hartwig, Karl-Hans. 1987. Wissenschaftstheoretische Ortsbestimmung ausgewählter Ordnungskonzeptionen, in: Forschungsstelle zum Vergleich wirtschaftlicher Lenkungssysteme (Hrsg.): Arbeitsberichte zum Systemvergleich, Nr. 11 (September), S. 1–31. Hayek, Friedrich A. 1945. The Use of Knowledge in Society, in: American Economic Review XXXV (4), S. 519–530. Hayek, Friedrich A. 1960. The Constitution of Liberty, Chicago. Hayek, Friedrich A. 1968. Der Wettbewerb als Entdeckungsverfahren, in: Internationales Institut „Österreichische Schule der Nationalökonomie“ (Hrsg.): Die Österreichische Schule der Nationalökonomie. Texte − Band II von Hayek bis White. Wien, S. 119–137. Hensel, K. Paul. 1959. Einführung in die Theorie der Zentralverwaltungswirtschaft, Schriften zum Vergleich wirtschaftlicher Lenkungssysteme, Bd. 1, 2. Auflage (1. Auflage 1954), Stuttgart. Hensel, K. Paul. 1965. Marktwirtschaft. Wirtschaftsordnungen bürgerlicher Planung, Hannover. Hensel, K. Paul. 1966. Zentralverwaltungswirtschaft. Wirtschaftsordnungen staatlicher Planung, Hannover. Hensel, K. Paul. 1972. Das Profitprinzip – Seine ordnungspolitischen Alternativen in sozialistischen Wirtschaftssystemen, Stuttgart-New York. Hensel, K. Paul. 1977. Systemvergleich als Aufgabe, Stuttgart-New York. Hensel, K. Paul. 1978. Grundformen der Wirtschaftsordnung, 3. Auflage (1. Auflage 1972), München. Lange, Oskar. 1936. On the Economic Theory of Socialism: Part One, in: Review of Economic Studies 4, S. 53–71. Leipold, Helmut. 2002. Islam, institutioneller Wandel und wirtschaftliche Entwicklung, Studien zur Ordnungsökonomik, Hg. Alfred Schüller, Nr.27, Stuttgart. Mises, Ludwig von. 1932. Die Gemeinwirtschaft. Untersuchungen über den Sozialismus. Jena. North, Douglass. 1990. Institutions, Institutional Change, and Economic Performance, Cambridge. Schüller, Alfred. 1987. Ordnungstheorie – Theoretischer Institutionalismus. Ein Vergleich, in: Arbeitsberichte zum Systemvergleich, Nr. 11, Marburg, S. 74–100. Thieme, H. Jörg. 1987. Prozesstheoretische Erklärungsansätze in systemvergleichender Perspektive, in: Forschungsstelle zum Vergleich wirtschaftlicher Lenkungssysteme (Hrsg.): Arbeitsberichte zum Systemvergleich, Nr. 11 (September), S. 135–161. Thieme, H. Jörg. 2007. Wirtschaftssysteme, in: Vahlens Kompendium der Wirtschaftstheorie und Wirtschaftspolitik, Bd. 1, 9. Auflage (1. Auflage 1980), München, S. 1–52.

Otmar Issing

Central Banks – from Overburdening to Decline? 1 2 3 4

The fundament of credibility 25 Institutional Overburdening 26 The ECB – a special case 29 Concluding remarks 32

1 The fundament of credibility Over decades, if not centuries, the reputation of central banks has been rather volatile. As a global phenomenon, it reached a peak before and around the turn of the century. The Bundesbank has been exceptional as this institution had developed its high prestige already at a much earlier stage. As “guardian” of the DM, the Bundesbank (and its predecessor the “Bank deutscher Länder”) has delivered a stable currency to the German people who had lost their (nominal) wealth twice in one generation. The almost “pathological” relation of Germans with their currency (as I once called it) was demonstrated again when the countrymen in the East announced to come to the DM if the DM would not come to them. What is interesting in this context is the fact that other central bankers and even academics who were very critical of the Bundesbank’s monetary policy and its “monetarist approach” showed great respect for this institution and its representatives. It would be interesting to explore further the underlying reason for this phenomenon. What creates credibility? Is it just a track record irrespective of the underlying policy approach, the theoretical underpinning? On the global level in retrospect, the personality of Alan Greenspan is a prominent example for “personalities matter”, and to me, also represents a kind of enigma. He managed to fascinate people by giving speeches on monetary policy in which you would hardly find the word “money” or even other nominal variables. It was a time when transparency and communication became fundamental for the reputation of a central bank (Issing 2005). What is surprising is the fact that according to the media and even academia, the communication by the chairman of the Fed was acknowledged as a kind of a benchmark for transparency. To quote just one example of this puzzle, Bob Woodward (2000) in his book “Maestro” wrote: “Greenspan’s policy of expanding openness and transparency has done more than merely increase the Fed’s accountability…” (p. 226). But, only one page later he claims: “Greenspan can subtly confound his audience. (…) He does not provide a

Original Publication: SAFE Policy Center, White Paper Series No 42, Frankfurt 2016. https://doi.org/10.1515/9783110554861-003

26

Otmar Issing

clear declaration about the condition of the economy or the likely direction of interest rates. His long, convoluted sentences seem to take away in the end what they have given at the beginning, as they flow to new levels of incomprehensibility. He uses what he calls ‘constructive ambiguity’ “. The ECB as the youngest central bank in the world was the first to hold a press conference after every monetary policy meeting where the President was ready to answer questions from a crowd of journalists – a practice that has later been emulated around the globe. Nevertheless, we were seen as the embodiment of in-transparency. W. Buiter (1999) conferred on me the dubious title of the “enforcer for the ECB Opaqueness Squad”. But this personal recollecting is irrelevant. What is, however, of general interest is the aura which surrounded Greenspan and can still be observed although to a lesser degree in other cases. Karl Brunner (1981) once criticized a sort of “metaphysical approach” to monetary policy. To some extent this special prestige might support credibility. On the other hand, one can observe that this kind of privilege can in the course of time be also a cause for a rather deep collapse in the reputation of a central banker. One might call this “Personality Overburdening”, i.e., too high expectations placed on a leading central banker, expectations which in the end might lead to great disappointments. Personal reputation is also exposed to volatility. Neither the initial phase nor the following decline must be the responsibility of a special person although it might be difficult to withstand the temptation of tolerating if not fostering the emergence of this aura.

2 Institutional Overburdening “Institutional Overburdening” to a large extent was a consequence of the “Great Moderation”. This term indicates that it was a period in which inflation had come down from rather high levels. Growth and employment were at least satisfying and variability of output had substantially declined. Was this “goldilock economy” just the result of luck due to a decline in exogenous shocks (Stock and Watson 2003) or of improved macro policies, especially monetary policy (Romer and Romer 2002)? The jury on this question is still out. But this period has substantially increased the reputation of central banks and central bankers. It was almost unavoidable that, as a consequence, expectations on future actions of central banks and their ability to control the economy reached an unprecedented peak which was hardly sustainable. The Annual Report of the BIS (2016, p. 22) presents a concise assessment: “And yet the extraordinary burden placed on central banking since the crisis is generating growing strains. During the Great Moderation, markets and the public at large came to see central banks as all-powerful. Post-crisis, they have come to expect the central bank to manage the economy, restore full employment, ensure strong growth, preserve price stability and foolproof the financial system. But in fact, this

Central Banks – from Overburdening to Decline?

27

is a tall order on which the central bank alone cannot deliver. The extraordinary measures taken to stimulate the global economy have sometimes tested the boundaries of the institution. As a consequence, risks to its reputation, perceived legitimacy and independence have been rising.” Disappointments with “politics” in general and loss of trust in politicians contributed to concentrating expectations on the competence of central banks. The crisis of EMU is a special case which is characterized by the ECB seen as the “only game in town”. We will later come back to this phenomenon. Institutional overburdening has two dimensions. One is coming from exaggerated expectations on what central banks can achieve (“expectational overburdening”) – as explained by the BIS. The other dimension is “operational overburdening”, i.e., overloading the central bank with more and more responsibilities and competences. The biggest challenge is implied in the responsibility for financial stability. The financial crisis triggered an intensive discussion to what extent central banks should be made directly responsible for financial stability and how they should act to deliver on this goal. A consensus has emerged that preserving price stability is not enough. As the phase of the great moderation has demonstrated, huge risks to the stability of the financial sector can develop while low inflation is preserved. Following Minsky, a stable environment might even foster the build-up of financial fragility which will end in a collapse of the whole system. Is there a trade-off between price stability and financial stability? This is the key question arising from the above consensus. While a short-term conflict cannot be excluded, there is no reason to sacrifice price stability over the medium to longterm with the aim of fostering financial stability (Issing 2003). However, a central bank loses its reputation if it is perceived as having underestimated or even neglected the challenge of financial instability. This is basically true almost independently of whether the central bank has an official/legal mandate in this field or not. Would it not be appropriate to include explicitly financial stability as a goal in the mandate of the central bank (see e.g. Smets 2014)? Before coming back to this problem one should ask what traditional monetary policy can achieve to preserve or at least foster financial stability. One observation is obvious: the inflation targeting approach is unable to meet this challenge. In contrast, the ECB’s two-pillar monetary strategy explicitly considers developments in the field of money and credit when taking monetary policy decisions (Issing 2011). What is implicit in this approach is the leaning against the wind, by the way in both directions, i.e., against the risk of boom and bust. There is no place here to enter a long and still ongoing discussion what the strategy of leaning against the wind can achieve. But one conclusion seems clear. A monetary policy of simply ignoring money and credit, i.e., a pure inflation targeting approach has been discredited by the financial crisis. The fact that this message is widely ignored is evidence that conceding mistakes is not an outstanding characteristic, neither in central banks nor in wide circles of academia.

28

Otmar Issing

Ignoring critique is always a misleading attitude. In the context of the great financial crisis, an encompassing analysis of past policies is badly needed and neglecting critique is extremely dangerous. In a number of studies, the BIS has warned against the repetition of mistakes in the past. Taylor and Wieland (2016) demonstrate evidence that the policy of the Fed contributed to the overheating of the economy. Does the continuation of the policy of extremely low interest rates combined with additional expansionary measures not imply the risk of creating once again a situation which turns out to be unsustainable and ending in a collapse of financial markets? And does the expectation that central banks and governments will again have to play the role of saviors of the system not create moral hazard – remember the “Greenspan put”? If one considers the communication of the Fed and its policy, such thoughts are put aside. It seems that the dominating view, probably on a global level, is still in line with the message presented by Alan Blinder (2005) not long before the collapse of financial markets in the great financial crisis: “The ‘mop up after strategy’ received a severe real world stress test in 2000–02, when the biggest bubble in history (sic!) imploded, vaporizing some USD 8 trillion in wealth in the process. It is noteworthy, but insufficiently noted, that the ensuing recession was tiny and not a single sizable bank failed. In fact, and even more amazing, not a single sizable brokerage or investment bank failed either. Thus, the fears that the ‘mop up after strategy’ might be overwhelmed by the speed and magnitude of the bursting of a giant bubble proved to be unfounded. Regarding Greenspan’s legacy, then, we pose a simple rhetorical question. If the mopping-up strategy worked this well after the mega-bubble burst in 2000, shouldn’t we assume that it will also work well after other, presumably smaller, bubbles burst in the future? Our suggested answer is apparent.” Unfortunately, this strategy of letting bubbles emerge and to come in with “mopping-up after” has produced, or at least contributed, to a much more disastrous financial crisis. It is extremely alarming that such thinking might be behind present monetary policies. For a while, macroprudential policy was seen as a kind of panacea to avoid potential conflicts between monetary policy aimed at preserving price stability and financial stability. In the meantime, a more skeptical view is dominating. Experience with these new instruments is lacking and implementation of these tools raises many more questions than was imagined. The assignment of macroprudential competence to the central bank or outside can be seen differently (see e.g. Bundesbank 2015). If the central bank has a direct legal responsibility for financial stability, it should dispose of all necessary instruments. There is an ongoing discussion whether financial stability should be a legal mandate for the central bank. Efficiency aspects seem to argue in favor of bringing responsibility and competence into one institution, the central bank. However, high risks for the reputation of the central bank and its credibility constitute strong

Central Banks – from Overburdening to Decline?

29

arguments against such an assignment. And the other side of overburdening the central bank is the concern that central banks might become too powerful to retain the status of independence from politics.

3 The ECB – a special case So far, one might recognize an overburdening which applies more or less to all major central banks. The ECB is unique in the sense that it is the central bank of – in the meantime – 19 states. This arrangement brings the ECB in a special position which implies a kind of “extra institutional overburdening” going beyond the challenges identified above. The establishment of the Single Supervisory Mechanism extended the mandate of the ECB and made it even more important than before. However, being now also responsible for banking supervision implies a substantial reputational risk. Will the ECB always timely identify problems in individual banks? Will it communicate its assessment in a way which will avoid conflicts with other political authorities? Will the financial markets, and finally also the general public, be content with this enlarged role of the central bank? In its 2009 report, the High-Level Group on Financial Supervision in the EU (de Larosière et al.) presented three arguments against giving this competence to the ECB: – Potential conflicts with monetary policy; – Greater risk of political pressure; – Possible interference with the ECB’s independence in cases where tax payers’ money has to be invested to provide financial support for banks. As a consequence, the Group suggested that the EU should take steps leading to the creation of an independent European Supervisory Authority. This proposal was initially approved by the Council and the Commission. In the end, a change in the Treaty would have been necessary to establish such an authority. For the foreseeable future, there is no chance for this. Notwithstanding doubts on the legal basis for this decision, the ECB was given this competence. In the very short period of its existence, conflicts between banking supervision and monetary policy have already become visible. There is the risk of a negative feedback from this arrangement on the behavior of financial intermediaries. These might be encouraged to take higher risks because they know that the supervisor does not want to lose reputation and has the means to protect banks from running into dangerous troubles. This risk of moral hazard applies in first place to financial institutions too big or too interconnected to fail. (One might call it a micro Greenspan put.) In this respect, the ECB is in the same position as many other central banks. However, the ECB seems to be more than content with its enhanced authority. This is evidenced by the fact that in a recent report by the five presidents – the

30

Otmar Issing

president of the ECB being one of them – the new institutional arrangement on banking supervision was not even mentioned among a number of forward-looking proposals which would imply a change of the Treaty. An unprecedented degree of overburdening for the central bank has unfolded in the course of the crisis of EMU. This became obvious in May 2010 when the ECB embarked in a political responsibility by buying government bonds of countries that otherwise would have experienced substantial increases in long term interest rates. No doubt this was a lose-lose situation for the central bank because it was confronted with the risk that without this intervention, financial markets might have been exposed to turmoil for which the ECB would have been made responsible. This, however, does not hide the fact that the central bank acted because politics, fiscal policies of member states, were not able to meet their obligations. In spite of the fact that the ESM was established, the action of the ECB was widely interpreted as a kind of a guarantee for the membership of every country in the EMU, and what is most important, a guarantee for the existence of the euro itself. This notion was driven to the extreme by the famous “whatever it takes” announcement. Further monetary policy decisions of the ECB from which problem countries and banks profited mostly supported this view. The decisions by the European Court of Justice and the German Constitutional Court all in all have rejected the accusation that the ECB exceeded its mandate and violated the Treaty. It is difficult to understand the economic logic behind the legal argumentation. Mervyn King (2016b), a prominent former central banker who is widely respected for his concise and well-funded observations recently came out with this clear statement: “The proposal for outright monetary transactions is a transfer from countries that can borrow cheaply to countries that can’t borrow cheaply. There’s no point dressing it up with fancy language such as measures to improve the transmission mechanism of monetary policy. It’s a straight transfer from countries that have credibility in their ability to run their public finances to countries that don’t. From that perspective, it clearly violates the no-bailout clause of the European Treaty, and it runs completely counter to this vision of the monetary union.” But the fact alone that measures taken by the central bank led to cases before the court is anything but supportive for the reputation of the central bank. There is a high risk that future actions of the ECB might lead to new litigations. It is not surprising that in the context of these legal combats new discussions on the status of the ECB emerged. In Maastricht, the ECB was endowed with independence from politics “when exercising the powers and carrying out the tasks and duties conferred upon them by this Treaty and this statute”. The court cases concentrated on the question whether the ECB has acted within its mandate or went beyond. Uncertainty on this fundamental question necessarily leads to critic of the statute. Beyond the legal interpretation of the existing mandate, a longstanding dissent came again to the fore. Independence was given to the ECB by a unanimous decision of member states, yet not everywhere with the same conviction. In the run-up to the French referen-

Central Banks – from Overburdening to Decline?

31

dum, e.g., President Mitterrand, in a televised debate, emphasized that the technocrats at the future central bank would not decide exercising their own competence but implement the decision taken by the Council (see Issing 2008 p. 59). This was an extreme comment totally out of line with the just approved legal situation. But doubts about the appropriateness of the status of the ECB never disappeared. This is not surprising, as mandating “unelected technocrats” with independence from politics in such an important field evidently raises questions on the democratic legitimacy of such an arrangement. There exists a vast literature on this important subject. Nevertheless, what matters in the present situation are two aspects. Firstly, a central bank which is seen as to transgress the limits of its mandate causes resistance and beyond litigations stirs initiatives against the status of independence. Secondly, objections against independence grow more than proportionally with the extension of the mandate. Giving more power to the central bank not only overburdens the institution, but at the same time undermines the case and support for its independence. The more politics of member states fail to fulfill their responsibility, the more the ECB is seen as the only institution within EMU which has the power and ability to act and disposes of the necessary instruments what in this context boils down to providing credit at low interest rates and buying government bonds to prevent the emergence of larger spreads in long-term interest rates. These actions undermine and even destroy the working of financial markets as guardians of sound fiscal (and other) policies. As a consequence, member states can delay or even dismiss badly needed reforms without the risk of losing credibility in the financial markets. The implicit as well as explicit strategy of the ECB has been to take additional expansionary monetary policy measures to compensate for missing structural reforms (Coeure 2016). The ECB reacts to this critique by emphasizing that it has no mandate to “punish” member states for a lack of structural reforms. But does the ECB have a mandate to suppress market reactions which would signal lack of confidence in national politics? Under these circumstances, how credible is the strong request for structural reforms in every Introductory Statement by the president repeated in testimonies to the European Parliament and in numerous speeches? Being seen as the only game in town demonstrates an existential disequilibrium in the distribution of political power in the EMU. It signals an extreme case of overburdening of the central bank in almost every respect – creating expectations, assigning a political role for which a central bank has not and must not have a mandate. One might concede that the ECB did not seek this role. But so far, there is hardly any signal from the central bank that it will start to reduce and finally stop its politically motivated interventions. Rather the opposite can be observed when the ECB is progressing on this slippery road. Whereas the ECB is heavily engaged in expansionary monetary policy with the political aim to guarantee the cohesion of EMU, it is confronted with the de facto destruction of the Stability and

32

Otmar Issing

Growth Pact. This is highly deplorable as the Pact was seen as the fiscal counterpart to monetary stability. EMU was built on the idea of the two pillars of monetary stability and fiscal solidity. The extension of its tasks and the increasing political role will and has already triggered a debate on the legitimacy of such power given to an independent central bank in a democratic society. The irony lies in the fact that no matter whether the ECB’s actions in the longer run are proven successful or not, the status of independence will be at stake anyway.

4 Concluding remarks People in ancient Greece tried to hide a personal lucky situation, being afraid that the gods might become envious and punish human haughtiness. These times of superstition are behind us. But, is it not almost a kind of general law that after a rise follows a decline? In this sense, shouldn’t the alarm bells have been ringing for the central banks when their prestige in public reached a peak? No reason to fear interventions by envious gods, but this time of glory could have constituted an especially suitable time to show a degree of humility. This attitude is, however, appropriate in principle all the time. Imperfect knowledge is a pertinent feature for the conduct of monetary policy. Models as a basis for monetary policy are exposed to a high degree of uncertainty. The complexity and elegance of a new generation of models might increase the danger to underestimate the great dimension of uncertainty. Our understanding of the dynamics of prices and economic activity and the transmission mechanism of monetary policy measures is still limited. In the context of the evolution of highly complex and globally interconnected financial markets, uncertainty has anything but declined. Following Woodford (2005), very little else than expectations about monetary policy matter. Even if one does not go so far, central banks focus on controlling or − more cautiously spoken – on guiding expectations. Accordingly, communication has entered the center stage. With central bank interest rates more or less at the zero bound, guiding expectations has become even more important, and at the same time more difficult. Central banks reacted to this challenge by introducing forward guidance. After a few years, the enthusiasm about this “revolution” has substantially abated. A sequence of different approaches adopted by the Fed demonstrates that forward guidance did not meet the high expectations attributed to this new instrument of communication. Sound analysis alone should have sufficed to understand that it could not have done so (Issing 2014). The intention of forward guidance is to reduce the uncertainty of the public about future monetary policy. However, there is no way to overcome the uncertainty to which the central bank itself is exposed. Giving a different impression via forward guidance, the central bank delivers a new example of pretence of knowledge.

Central Banks – from Overburdening to Decline?

33

Central bank interest rates at or close to the zero bound – more recently supported by forward guidance- have now existed for many years. The longer this situation continues the more central banks are confronted with a dilemma. Once they consider raising interest rates to contain inflationary developments they risk to undermining the stability of the financial sector which has substantial low fixed interest assets in its portfolio. Even small increases in interest rates would create huge losses. One might ask if central banks are already trapped in “financial dominance”. In his remarkable book “The End of Alchemy”, Mervyn King (2016a) reminded us of the difference between risk and uncertainty (which goes back to F. Knight). “In a world of radical uncertainty there is no way of identifying the probability of future events and no set of equations that describes people’s attempt to cope with, rather than optimize against, that uncertainty. A common saying among economists is that ‘it takes a model to beat a model’. But this overlooks the fact that whereas a world of risk can be described by equations representing optimizing behavior, a world of radical uncertainty cannot be so described” (p. 304). There is no answer to this challenge as of yet. But central banks must deal with risk and uncertainty in a way which does not confuse the public, and at the same time does not lead into the trap of pretence of knowledge. Again, a sign of humility might be the best protection against the threat of hurting people’s trust. The status of independence of central banks is increasingly undermined by two developments. One is coming from instruments with distributional consequences like cheap credit to special groups, banks or companies. It is true that any monetary policy decision unavoidably will also have distributional consequences. These are normal side effects, whereas the instruments mentioned have direct, planned discriminatory effects. Decisions of this kind must remain in the domain of politics, which finally is controlled by voters and cannot be the competence of an independent central bank. The other conflict with the status of independence is implied in acts of coordination with fiscal policy. The more monetary policy measures are de facto an act of fiscal policy – see the case of the ECB – the more it is exposed to criticism that this is not compliant with the status of independence. To the extent that the central bank yields to political pressure, independence might still exist “de jure”, but it has been abandoned “de facto”. Fiscal dominance is the consequence of this. A wide consensus has emerged that monetary policy at the zero bound having applied a lot of unconventional measures has come to a limit and negative side effects might already dominate. With high public debt restricting the room for expansionary fiscal policy, “helicopter money” is now seen as the solution. In the meantime, all kinds of variations have been discussed. Adair Turner (2016), in his book “Between Debt and the Devil”, has presented a concise concept. The main idea is that the central bank brings money into circulation not via the banking sector as it used to do but by transferring money to the finance ministry. The status

34

Otmar Issing

of independence should guarantee that the central bank always controls the respective amount of money creation. Can one really expect that a central bank which once has embarked on such a role will be able to say “No” in future cases? Political and public pressure will be strong and always find socially important tasks which need to be financed by the central bank. And what about appointing central bankers which have an “open mind” and understanding for urgent political priorities? De jure independence, or lack of it will not matter anymore in such a regime – the decline of central banks will be completed and will end in inflation (which will later lead to new discussions on the best statute for a central bank).

References Bank for International Settlements. 2016. 86th Annual Report, Basel 26th June. Blinder, A. S., and R., Reis. 2005. Economic Performance in the Greenspan Era: The Evolution of Events and Ideas, in: The Greenspan Era: Lessons for the Future, Federal Reserve Bank of Kansas City, ed. Brunner, K. 1981. The Art of Central Banking, in K. Brunner (1981) The art of central banking, in H. Göppl and R. Henn (eds), Geld, Banken und Versicherungen, vol. 1 (Königstein). Buiter, W. H. 1999. Alice in Euroland, Journal of Common Market Studies, No. 2. Bundesbank. 2015. Die Bedeutung der makroprudenziellen Politik für die Geldpolitik, Monatsbericht März. Coeure, B. 2016. The ECB’s operational framework in post-crisis times, Speech in Jackson Hole on 27 August. de Larosière, J., L., Balcerowicz, O., Issing, et al. 2009. The High-Level Group on Financial Supervision in the EU, Report, Brussels, February Issing, O. 2003. Monetary and financial stability: Is there a trade-off?, BIS, Monetary stability, financial stability and the business cycle: five views, Basel, September. Issing, O. 2005. Communication, Transparency Accountability. Monetary Policy in the Twenty-first century, Federal Reserve Bank of St. Louis, Review, March/April. Issing, O. 2008. The Birth of the Euro, Cambridge. Issing, O. 2011. Lessons for monetary policy: What should the consensus be?, IMF Working Paper, April. Issing, O. 2014. Forward Guidance: A new Challenge for Central Banks, SAFE Policy Center, White Paper Series No. 16, Frankfurt King, M. A. 2016a. The End of Alchemy: Money, Banking, and the Future of the Global Economy. WW Norton & Company. King, M. A. 2016b. Interview, Quarterly Journal of Central Banking, August. Masciandaro, D. 2016. Monetary Policy and banking supervision: still at arm’s length? A comparative analysis. The European Journal of Comparative Economics, Vol. 9, n. 3 Romer. C. D. and D. H., Romer. 2002. The Evolution of Economic Understanding and Postwar Stabilization Policy, NBER Working Paper 9274, October. Smets, F. 2014. Financial stability and monetary policy: How closely interlinked?, International Journal of Central Banking, 10. Stock, J.H. and Watson, M.W. 2003. Understanding Changes in International Business Dynamics, NBER Working Paper 9859, July.

Central Banks – from Overburdening to Decline?

35

Taylor, J.B. and Wieland, V. 2016. Finding the Real Equilibrium Interest Rate in a Fog of Policy Deviations, CEPR Discussion Paper Series No. 11264. Turner, A. 2015. Between debt and the devil: money, credit, and fixing global finance. Princeton University Press. Woodford, M. 2005. Central bank communication and policy effectiveness (No. w11898). National Bureau of Economic Research. Woodward, B. 2000. Maestro, New York. Yellen, J. L. 2012. Revolution and Evolution in Central Bank Communication, November 13.

Susanne Cassel

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht 1 2 3

4 5

6 7

Die ich rief, die Geister … 37 Die Energiewende: Wesentliche Ziele und Herausforderungen Akteure der Energiewende 40 3.1 Unternehmen und Verbände 40 3.2 Die Bundesländer 42 3.3 Die Europäische Kommission 43 Governance der Energiewende 44 Die politische Ökonomie der Energiewende am Beispiel des EEG 5.1 Das EEG und seine Reformen 46 5.2 EEG-Reformen im Interessengeflecht 47 Zur (Un)Reformierbarkeit des EEG 52 … werd’ ich nun nicht los 55

38

46

1 Die ich rief, die Geister … Die deutsche Energiewende zielt darauf ab, die Energieversorgung bis zum Jahr 2050 weitgehend zu dekarbonisieren. Dazu sollen der Einsatz erneuerbarer Energien weiter vorangetrieben und die Energieeffizienz deutlich erhöht werden. Der Energiesektor, auf den 2014 rund 40 Prozent der Treibhausgasemissionen in Deutschland entfielen, soll so einen wesentlichen Beitrag dazu leisten, das ehrgeizige Ziel zu erreichen, die Treibhausgasemissionen in Deutschland bis Mitte des Jahrhunderts um 80 bis 95 Prozent zu reduzieren. Das im Jahr 2000 eingeführte Erneuerbare-Energien-Gesetz (EEG) ist bis heute das zentrale Instrument, um die Erzeugung von Strom aus erneuerbaren Energien zu fördern. Die Förderung hat dazu beigetragen, dass inzwischen fast ein Drittel der deutschen Stromproduktion aus erneuerbaren Energien stammt. Eingeführt, um den Erneuerbare-EnergienTechnologien auf die Beine zu helfen und sie wettbewerbsfähig zu machen, hat sich das EEG politisch als außerordentlich stabil erwiesen. Es ist im Laufe der Zeit zu einem immer ausdifferenzierteren Förderinstrument geworden, das von ursprünglich zwölf auf inzwischen 79 Paragraphen angewachsen ist. Die Entwicklung des EEG ist ein instruktiver Anwendungsfall der Public-Choice- bzw. RentSeeking-Theorie, denn Langlebigkeit und Ausdifferenzierung des EEG sind im Wesentlichen politökonomisch zu erklären. Der folgende Beitrag zeichnet die Entwicklung des EEG von einem Instrument zur Förderung von Nischentechnologien zu einem Mechanismus nach, der inzwi-

Anmerkung: Der Beitrag gibt die persönliche Auffassung der Verfasserin wieder. https://doi.org/10.1515/9783110554861-004

38

Susanne Cassel

schen von verschiedensten Interessengruppen genutzt wird, um Sondervorteile zu Lasten der Allgemeinheit zu erlangen und industriepolitische Ziele zu befördern. Dazu werden im zweiten Abschnitt die Ziele und Herausforderungen der Energiewende beschrieben sowie deren Komplexität verdeutlicht. Der dritte Abschnitt stellt die wesentlichen Akteure der Energiewende vor, während im vierten Abschnitt die Governance-Strukturen der Energiewende erläutert werden. Daran anschließend analysiert der Beitrag die Entwicklung des EEG aus politökonomischer Sicht (Abschnitt 5) und zeigt auf, warum es so schwierig ist, es zu reformieren (Abschnitt 6). Abschnitt 7 zieht ein kurzes Fazit.

2 Die Energiewende: Wesentliche Ziele und Herausforderungen Mit dem Begriff Energiewende wird die umfassende Transformation des Energieversorgungssystems in Deutschland weg von der Stromproduktion aus fossilen Energieträgern und der Kernenergie hin zu einem überwiegenden Anteil erneuerbarer Energien und mehr Energieeffizienz bezeichnet. Grundlage für die Energiewendepolitik ist das im September 2010 von der damaligen Bundesregierung beschlossene Energiekonzept (BMWi/BMU 2010). Gemeinsam mit den nach der Reaktorkatastrophe von Fukushima getroffenen Beschlüssen der Bundesregierung vom Juni 2011 bildet es bis heute die Richtschnur für die Energiewende. Das Energiekonzept enthält die wesentlichen quantitativen Ziele der Energiewende, die mit Zwischenschritten bis zum Jahr 2050 erreicht werden sollen: Es sieht vor, dass die Treibhausgasemissionen gegenüber dem Jahr 1990 bis 2020 um 40 Prozent und bis 2050 um 80 bis 95 Prozent reduziert werden sollen. Dieses Klimaziel gehört gemeinsam mit dem 2011 beschlossenen Ausstieg aus der Nutzung von Kernenergie zur Stromerzeugung bis zum Jahr 2022 sowie den Zielen, Versorgungssicherheit zu gewährleisten und die Wettbewerbsfähigkeit der deutschen Wirtschaft zu sichern, zu den politischen Zielen der Energiewende. Erreicht werden soll die Energiewende durch den Ausbau der erneuerbaren Energien und die Senkung des Primärenergieverbrauchs bzw. mehr Energieeffizienz. Dazu sollen die erneuerbaren Energien bis 2020 18 Prozent und bis 2050 60 Prozent am gesamten Energieverbrauch ausmachen. Ihr Anteil am Bruttostromverbrauch soll 2020 mindestens 35 Prozent betragen und 2050 mindestens 80 Prozent. Der Primärenergieverbrauch soll gegenüber 2008 bis zum Jahr 2020 um 20 Prozent gesenkt und bis 2050 halbiert werden. Um diese ambitionierten Ziele zu erreichen, ist eine Vielzahl von Maßnahmen nicht nur im Stromsektor, sondern auch im Gebäudebereich, in der Industrie, in Gewerbe, Handel, Dienstleistungen sowie im Verkehrssektor notwendig. Die wesentlichen Energiewendemaßnahmen der aktuellen Legislaturperiode hat das Bundeswirtschaftsministerium in der 10-Punkte-Energie-Agenda zusammengefasst

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

39

(BMWi 2017). Schon allein die Transformation des Stromsystems hin zu einem überwiegenden Anteil erneuerbarer Energien ist sehr komplex und zeichnet sich durch viele Interdependenzen und Rückkoppelungen aus. So müssen nicht nur die erneuerbaren Energien ausgebaut werden, was im Wesentlichen mit dem EEG unterstützt wird. Gleichzeitig muss der notwendige Leitungsausbau auf Verteilernetz- und Übertragungsnetzebene erfolgen, um den erneuerbaren Strom in das Netz zu bringen und insbesondere den Windstrom von den Produktionsschwerpunkten im Norden und Osten Deutschlands zu den Verbrauchszentren im Westen und Süden zu transportieren. Allein im Übertragungsnetzbereich umfassen die Vorhaben des so genannten Start- sowie des Zubaunetzes ca. 8.000 km an Netzverstärkungs- und Neubaumaßnahmen. Um zu vermeiden, dass Erneuerbare-EnergienAnlagen in großem Umfang entschädigungspflichtig abgeregelt werden müssen, muss der Netzausbau mit dem Ausbau der erneuerbaren Energien synchronisiert werden. Auch auf dem Strommarkt schlägt sich die Energiewende nieder: Der Anteil der erneuerbaren Energien am Bruttostromverbrauch ist von sechs Prozent im Jahr 2000, als das EEG eingeführt wurde, auf 31,7 Prozent im Jahr 2016 gestiegen. Unter anderem durch die zunehmende Einspeisung von Strom aus erneuerbaren Energien sinken die Börsenstrompreise, wodurch sich die Ertragslage der konventionellen Stromproduzenten deutlich verschlechtert hat. Zudem muss für eine sichere Stromversorgung gesorgt werden: Je höher der Anteil der erneuerbaren Energien am Strommix ist, desto relevanter wird es, dass der Strommarkt ausreichend flexibel ist, um Versorgungssicherheit auch dann zu gewährleisten, wenn der Wind nicht weht und die Sonne nicht scheint. Gleichzeitig muss der Strommarkt weiterhin ausreichend Anreize für Investitionen in benötigte Erzeugungskapazitäten bieten. Weitere Herausforderungen ergeben sich durch die angestrebte so genannte Sektorkopplung. Sie zielt darauf ab, Strom aus erneuerbaren Energien zunehmend auch in den Bereichen Wärmeerzeugung und Verkehr zu nutzen, um die für diese Sektoren vorgegebenen CO2-Reduktionsziele zu erreichen. Damit die Sektorkopplung funktioniert, muss der Einsatz von erneuerbarem Strom im Wärme- und Verkehrsbereich wettbewerbsfähig sein. Entscheidend für die Akzeptanz der Energiewende ist, dass die Kosten nicht aus dem Ruder laufen. Insbesondere die EEG-Umlage, die die Höhe der Förderkosten für erneuerbare Energien widerspiegelt, steht im Fokus der Aufmerksamkeit. Sie stieg von 2010 bis 2017 von 2,05 auf 6,88 Cent/Kilowattstunde. 2016 wurden gut 23,5 Mrd. Euro an die Betreiber von erneuerbaren Energien-Anlagen ausgezahlt (Netztransparenz.de 2017). Angesichts des hohen Netzausbaubedarfs bzw. der durch zunehmende Netzengpässe notwendig werdenden Eingriffsmaßnahmen der Netzbetreiber und der damit verbundenen Kosten entwickeln sich zunehmend auch die Netzentgelte zu einem Kostentreiber der Energiewende. 2015 betrugen die Kosten für Eingriffe in die Erzeugungsleistung von Kraftwerken zur Netzentlastung (sog. Redispatch), die Abregelung von Erneuerbare-Energien-Anlagen (sog. Einspeisemanagement) sowie den Einsatz der Netzreserve gut eine Mrd. Euro.

40

Susanne Cassel

Die Politik hat in der aktuellen Legislaturperiode u. a. in den Bereichen erneuerbare Energien, Strommarkt und Netzausbau vielfältige Maßnahmen beschlossen, um diesen Herausforderungen zu begegnen.

3 Akteure der Energiewende Die Stromproduktion von fossilen und nuklearen Energieträgern auf erneuerbare Energien umzustellen, geht mit einem umfassenden Strukturwandel einher und verändert die Akteurslandschaft. Das traditionelle System der Stromproduktion war relativ zentralisiert: Große Kraftwerke, die sich nahe der Lastzentren befanden, belieferten diese mit Strom. Mit dem zunehmenden Ausbau der erneuerbaren Energien nimmt nicht nur die wirtschaftliche Bedeutung der traditionellen Energieversorgung ab und gehen nach und nach Geschäftsfelder verloren, sondern auch die Struktur der Energieversorgung ändert sich. So wird die Stromerzeugung insgesamt dezentraler, da die Erneuerbaren-Energien-Anlagen in ganz Deutschland verteilt sind. Eine gewisse Zentralisierung findet sich gleichwohl in Nord- und Ostdeutschland, wo ein starker Ausbau von Windkraftanlagen sowohl an Land als auch auf See stattfindet. Neben der stärker dezentralisierten Erzeugungsstruktur zeichnet sich die Energiewende dadurch aus, dass eine Vielzahl neuer Akteure, insbesondere aus der Erneuerbaren-Energien-Branche, auf dem Energiemarkt aktiv ist.

3.1 Unternehmen und Verbände Im Bereich der erneuerbaren Energien betreiben insbesondere kleine und mittlere Unternehmen sowie Privatpersonen, z. B. private Geldanleger, Betreibergesellschaften, Landwirte und Hauseigentümer Erneuerbare-Energien-Anlagen bzw. investieren in diese. Im Laufe der Zeit hat sich zwar die Branche der erneuerbaren Energien professionalisiert und insbesondere im Bereich der Offshore-Windenergie sind finanzstarke Unternehmen engagiert. Dennoch ist die Akteursstruktur nach wie vor relativ kleinteilig, pluralisiert und bürgernah (Mautz, Byzio und Rosenbaum 2008: 144 ff.; Ohlhorst 2011: 79). So sind nach einer Studie von Ernst & Young 35 Prozent der Erneuerbare-Energien-Anlagen im Besitz von Privatpersonen, elf Prozent gehören Landwirten, 14 Prozent Projektierern, 13 Prozent Banken und Fonds, 14 Prozent Unternehmen und 13 Prozent der Energiewirtschaft, wobei die „Big 4“ (E.on, RWE, Vattenfall und EnBW) zusammen auf lediglich fünf Prozent kommen (Energie Informationsdienst 2016: 1 f.). Parallel zum Wachstum der Erneuerbare-Energien-Branche hat sich eine entsprechende Verbändelandschaft etabliert, die neben die bereits existierende Verbändestruktur der traditionellen Energiewirtschaft getreten ist und versucht, im Interesse ihrer jeweiligen Mitglieder Einfluss auf energiepolitische Entscheidungen

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

41

zu nehmen. Aufgrund der Heterogenität der Interessen und zunehmender Konkurrenz zwischen den einzelnen Erneuerbare-Energien-Sparten haben sich für die einzelnen Technologien jeweils Fachverbände gegründet, in manchen Bereichen existieren gleich mehrere Verbände (z. B. Bundesverband Bioenergie e. V., Biogasrat e. V., Bundesverband deutscher Wasserkraftwerke, Bundesverband Geothermie e. V., Stiftung Offshore Windenergie, Bundesverband Windenergie e. V., Bundesverband Kleinwindanlagen e. V., Bundesverband Solarwirtschaft e. V., Deutscher Solarbetreiber-Club e. V. etc.). Als Dachverband für die Erneuerbare-Energien-Branche wirkt der Bundesverband Erneuerbare Energie e. V. (BEE), in dem derzeit 39 Verbände und Unternehmen aus den Bereichen Wasserkraft, Wind-, Bio- und Solarenergie sowie Geothermie mit insgesamt über 30.000 Einzelmitgliedern und Firmen zusammengeschlossen sind (BEE 2017). Daneben haben sich Vereine wie das Bündnis Bürgerenergie e. V. gegründet, das sich als „Vordenker für die dezentrale Energiewende in Bürgerhand“ (BBEn 2017) versteht und sich für eine breite Akteursvielfalt im Bereich der Erneuerbare-Energien-Erzeugung einsetzt. Aber auch etablierte Verbände aus anderen Bereichen vertreten inzwischen die Interessen ihrer Mitglieder in Sachen Energiewende. So hat insbesondere der Ausbau der Windenergie an Land, aber auch der Ausbau der Bio- und Solarenergie neue Einkommensquellen für Landwirte eröffnet. Vor allem die Verpachtung von Grundstücken, auf denen Windkraftanlagen errichtet werden, ist inzwischen zu einem sehr lukrativen Geschäft geworden. „Fast unbemerkt [entwickelt] sich eine landwirtschaftsfremde Rentenökonomie, die weiträumige sozial-räumliche Folgen zeitigt und tatsächlich in Grundzügen an die Wirtschaftsweise von Ölscheichtümern erinnert. […] Die Knappheit dieser Standorte (für Windkraftanlagen, d. V.) hat einen neuen Berufsstand hervorgebracht: Flächenmakler für Erneuerbare Energien“ (Czada 2014: 16). Darüber hinaus sind die Land- und Forstbesitzer von dem notwendigen Übertragungsnetzausbau betroffen. Durch die Entscheidung des Gesetzgebers Ende 2015, die großen Höchstspannungs-Gleichstrom-Übertragungsleitungen vorrangig als Erdkabel zu verlegen, hat sich diese Betroffenheit verstärkt. Entsprechend sind z. B. der Deutsche Bauernverband oder die ADGW – Die Waldeigentümer als Dachverband der privaten und kommunalen Waldbesitzer in Deutschland ebenfalls Akteure der Energiewende. Betroffen von der Energiewende ist auch die Industrie, insbesondere die energieintensiven Unternehmen, die durch steigende Strompreise ihre Wettbewerbsfähigkeit gegenüber internationalen Konkurrenten bedroht sieht. Entsprechend setzen sich sowohl Dachverbände wie der Bundesverband der Deutschen Industrie (BDI) und der Deutsche Industrie- und Handelskammertag (DIHK) als auch Spezialverbände wie „Die energieintensiven Industrien in Deutschland“, aber auch (Industrie-)Gewerkschaften für die energiepolitischen Belange ihrer Mitglieder ein. Verbraucherverbände wie die Verbraucherzentrale Bundesverband sehen insbesondere Geringverdiener durch die steigenden Kosten der Energiewende bedroht und wollen daher mit ihrer Politik dazu beitragen, die Kosten der Energiewende zu begrenzen und gerecht zu verteilen.

42

Susanne Cassel

Der Ausbau der erneuerbaren Energien führt zunehmend zu Konflikten zwischen Energiewende und Naturschutz, etwa im Bereich Windkraftausbau und Vogelschutz, sodass auch Naturschutzverbände wie der WWF, der NABU – Naturschutzbund Deutschland u. a. energiepolitische Entscheidungen zu beeinflussen versuchen. Und nicht zuletzt nimmt der Widerstand in der Bevölkerung insbesondere gegen den Netzausbau und den Ausbau der Windkraft zu. Ende 2015 waren deutschlandweit über 100 Bürgerinitiativen gegen Energiewendeprojekte aktiv (Schütte, Gerdes, Bieber und Hecking 2015). Auch bei den Bürgerinitiativen nimmt die Professionalisierung zu. So hat sich z. B. 2015 der Bundesverband Bürgerinitiativen gegen SuedLink gegründet, der über 60 Bürgerinitiativen aus fünf Bundesländern vereint, die sich gegen die geplante, von Nord- nach Süddeutschland führende „Stromautobahn“ SuedLink aussprechen. Ziel des Bundesverbandes ist es u. a., dem Bürgerprotest eine deutliche Stimme gegenüber der Politik zu verleihen (Bundesverband Bürgerinitiativen gegen SuedLink 2017). Und in Mecklenburg-Vorpommern hat ein Aktionsbündnis von 40 Bürgerinitiativen gegen den unkontrollierten Ausbau der Windenergie Anfang 2016 die Partei „Freier Horizont“ gegründet, die bei der Landtagswahl im September 2016 0,8 Prozent der Stimmen erhielt.

3.2 Die Bundesländer Eine besondere Rolle spielen die Bundesländer in der Energiewende (Bruns, Futterlieb und Ohlhorst 2016). Viele von ihnen haben die Erneuerbare-Energien-Branche als wichtigen Wirtschaftsfaktor erkannt, von dem sie sich eine steigende regionale Wertschöpfung und dadurch zusätzliche Steuereinnahmen, neue Arbeitsplätze sowie neue Märkte und Technologieentwicklung versprechen. Sie haben sich ehrgeizige Ausbauziele gesetzt, die in ihrer Gesamtheit die Ausbauziele des Bundes übertreffen, und gute Rahmenbedingungen für die Branche geschaffen. Insbesondere einige der ostdeutschen Bundesländer, die das industrie- und regionalpolitische Potenzial der Energiewende früh erkannt haben, gelten dabei als Vorreiter (Ohlhorst 2011: 84 ff.; Ohlhorst 2015: 309 ff.). So belegten Mecklenburg-Vorpommern, Thüringen und Sachsen-Anhalt 2015 im Bundesvergleich die ersten drei Plätze beim Anteil der erneuerbaren Energien an der Bruttostromerzeugung.1 Zudem weisen viele der neuen Bundesländer auch eine große Zahl von (Zuliefer-)Unternehmen aus der Branche auf.2 Aber auch die westdeutschen Länder setzen zunehmend auf die wirtschaftlichen Möglichkeiten der Energiewende und fördern die Ansiedlung entsprechender Unternehmen mit den zugehörigen Arbeitsplätzen.

1 Der Anteil der erneuerbaren Energien an der Bruttostromerzeugung betrug 2015 in MecklenburgVorpommern 70,2 Prozent, in Thüringen 58,6 Prozent und in Sachsen-Anhalt 53,9 Prozent. Mit 53,0 Prozent folgte Schleswig-Holstein auf dem vierten Platz (AEE 2017). 2 Für einen Überblick über die Energiewende in den Bundesländern s. AEE 2017.

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

43

Die Interessen der Bundesländer sind aber auch im Bereich der konventionellen Energieerzeugung und der energieintensiven Industrien berührt. So beteiligen sich die Braunkohleländer Nordrhein-Westfalen, Brandenburg und Sachsen intensiv an der Diskussion um die Zukunft der Kohleverstromung. Bundesländer, in denen eine große Anzahl (energieintensiver) Industrieunternehmen angesiedelt ist, setzen sich für Regelungen ein, die deren Wettbewerbsfähigkeit im internationalen Standortwettbewerb sichern. Vor diesem Hintergrund ist inzwischen jede Diskussion um die Reform des EEG bzw. anderer energiepolitischer Regelungen immer auch eine industriepolitische Diskussion, in der die Länder ihre jeweiligen Interessen vehement vertreten. Zentrale Argumente sind dabei u. a. regionale Arbeitsplätze und Wertschöpfung zu schaffen bzw. zu erhalten, sich von Stromimporten unabhängig zu machen, die Bürger stärker zu beteiligen sowie regionale und lokale Identität zu stärken (Rave 2016: 76). Obwohl die Gesetzgebungskompetenzen im Bereich der Energiepolitik i. W. beim Bund liegen, haben die Länder zahlreiche Möglichkeiten, ihre Interessen durchzusetzen, und machen davon auch Gebrauch. Dies trägt dazu bei, die volkswirtschaftlichen Kosten der Energiewende zu erhöhen (Ohlhorst 2015).

3.3 Die Europäische Kommission Nicht zu unterschätzen ist der Einfluss der EU-Kommission auf die Ausgestaltung der Energiewende im Allgemeinen und die Förderung der erneuerbaren Energien im Besonderen (Strunz, Gawel und Lehmann 2015: 10 f.). Insbesondere über die Beihilfenkontrolle hat sie sich als wichtiger Akteur in der Energiewendediskussion etabliert (Wustlich 2014: 1114). Von besonderem beihilferechtlichem Interesse sind die Ausnahmen für die stromintensiven Unternehmen und die Strom-Eigenversorgung sowie die Ausgestaltung des Fördersystems für erneuerbare Energien. Bereits das 1991 als Vorläufer des EEG eingeführte Stromeinspeisungsgesetz stand unter Beobachtung der EU-Kommission. Seine Ablösung durch das EEG im Jahr 2000 ist wesentlich dadurch zu erklären, dass damit seine beihilferechtlichen Probleme beseitigt werden sollten (Vossler 2014: 207). Auch spätere EEG-Novellen, insbesondere seit 2014, sind stark vom Einfluss der EU-Kommission geprägt. So hat sie Ende 2013 das EEG 2012 als Beihilfe eingestuft und ein Hauptprüfverfahren eingeleitet, um die Vereinbarkeit des EEG mit dem Beihilferecht zu überprüfen. 2014 hat sie neue Umwelt- und Energiebeihilfeleitlinien beschlossen, in denen u. a. definiert ist, unter welchen Voraussetzungen nationale Fördersysteme binnenmarktkonform sind. Dazu zählt z. B., dass die Förderung erneuerbarer Energien ab 2017 im Regelfall mithilfe von Ausschreibungen zu erfolgen hat.

44

Susanne Cassel

4 Governance der Energiewende Der Begriff Governance bezeichnet die Strukturen, Mechanismen und Wirkungen koordinierten kollektiven Handelns und bezieht sich auf die Prozesse, mit denen die jeweils gesetzten Ziele erreicht werden sollen, sowie auf die Beziehungen zwischen den beteiligten Akteuren. Die Politikkoordination kann dabei auf unterschiedliche Art und Weise erfolgen, etwa durch wechselseitige Anpassung, Verhandlungen, Netzwerke, Wettbewerb oder hierarchische Strukturen (Benz, Lütz, Schimank und Simonis 2007; Renn 2015: 67). In einem föderalen Staat wie der Bundesrepublik Deutschland spielt auch die Multilevel Governance, d. h. die Akteursbeziehungen und Koordinationsmechanismen zwischen den föderalen Ebenen, eine wichtige Rolle (Benz 2007; Benz 2010). Die Energiewende zeichnet sich durch eine hohe Komplexität und ein umfängliches Zielsystem aus, das auch Zielkonflikte beinhaltet. Hinzu kommt eine Vielzahl beteiligter Akteure, die selbstständig agieren und zum Teil sehr unterschiedliche Interessen verfolgen. Sie hat weitreichende Auswirkungen auf Wirtschaft und Gesellschaft, bringt Gewinner und Verlierer mit sich und wirft vielfältige Verteilungsfragen auf. Zudem ist sie ein auf Jahrzehnte angelegtes Projekt, das offen für neue Entwicklungen sein muss, die heute noch nicht absehbar sind. Dies betrifft sowohl technologische Innovationen als auch gesellschaftliche Veränderungen sowie neue Geschäftsfelder und -modelle. Ein so umfassendes Reformvorhaben mit einer Vielzahl unterschiedlicher Interessen erfordert eine an diese Anforderungen angepasste Governance-Struktur. Diese sollte einerseits Beteiligungsmöglichkeiten für die Gesellschaft bzw. gesellschaftliche Gruppen an der Entscheidungsfindung und -umsetzung vorsehen. Partizipation trägt dazu bei, dass Entscheidungen auf Basis von mehr Informationen getroffen werden und die Qualität der Steuerungsprozesse zunimmt. Zudem kann eine höhere Legitimation von Entscheidungen erreicht werden (Renn 2015: 67 ff.). Zum anderen sollte sie auch Lernprozesse ermöglichen, sodass Kurskorrekturen vorgenommen werden können (reflexive Governance). Solche Lernprozesse können im Rahmen von Monitoring-Prozessen erfolgen, die regelmäßig überprüfen, inwieweit die verfolgten Ziele erreicht werden. Auch dezentrale Experimente wie sie in einem System des Wettbewerbsföderalismus stattfinden, fördern Lernprozesse (Musgrave 1959; Olson 1969; Oates 1972). Dabei ist allerdings zu beachten, dass dezentrale Entscheidungen sich nicht negativ auf das Gesamtsystem auswirken, indem sie z. B. zu höheren Kosten durch regionale Partikularinteressen führen. Insgesamt muss die Governance-Struktur die richtige Balance zwischen zentraler und dezentraler Steuerung aufweisen, damit sowohl die Kostenvorteile durch zentrale Koordinierung als auch die positiven Effekte dezentraler Koordinierung – nämlich eine bessere Beachtung der Präferenzen der Bürger und Anreize für Innovationen – realisiert werden können (Gawel und Strunz 2016). Die Energiewende-Governance enthält partizipatorische Elemente in Form der zum Teil schon in der 17. Legislaturperiode eingerichteten Energiewende-Platt-

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

45

formen. In den aktuell fünf Plattformen „Strommarkt“, „Energienetze“, „Energieeffizienz“, „Gebäude“ und „Forschung & Innovation“ findet die fachspezifische Diskussion zu energiewenderelevanten Themen statt. Daran nehmen die Bundesländer sowie Vertreter aus Wirtschaft, Gesellschaft und Wissenschaft teil. Zudem führt das Bundeswirtschaftsministerium zu grundlegenden energiepolitischen Fragestellungen umfangreiche öffentliche Konsultationsprozesse durch. Im Bereich des Übertragungsnetzausbaus hat die Bundesregierung bereits in der 17. Legislaturperiode die Beteiligungsmöglichkeiten erweitert, sodass Länder und Kommunen sowie die Öffentlichkeit auf jeder Stufe der Netzausbauplanung und der Genehmigungsverfahren Stellungnahmen abgeben können (BNetzA 2017). Damit ist sie nicht zuletzt den zunehmenden Forderungen der Bürger nach mehr Mitspracherechten nachgekommen. Im Sinne der reflexiven Governance hat die Bundesregierung 2011 den Monitoring-Prozess „Energie der Zukunft“ ins Leben gerufen. In jährlichen Monitoring-Berichten überprüft sie den Fortschritt der Energiewende, um bei möglichen Zielverfehlungen nachsteuern zu können. Der alle drei Jahre erscheinende Fortschrittsbericht enthält zudem eine Einschätzung darüber, inwieweit die Ziele des Energiekonzepts mittel- bis langfristig erreicht werden und welche neuen Maßnahmen ggf. ergriffen werden müssen. Der Monitoring-Prozess wird von einer unabhängigen Expertenkommission begleitet, die zu den Berichten Stellung nimmt (BMWi 2017). Um eine kohärente Energiepolitik aus einer Hand zu gewährleisten, sind zu Beginn der 18. Legislaturperiode Anfang 2014 die energiepolitischen Kompetenzen im Bundesministerium für Wirtschaft und Energie gebündelt worden. Zuvor waren diese auf mehrere Ressorts verteilt, wobei die Zuständigkeit für die erneuerbaren Energien seit 2002 beim Bundesumweltministerium lag. Dieses ist weiterhin für Fragen des Klimaschutzes zuständig. Die Bündelung der Kompetenzen in einem Ressort hat es ermöglicht, die Energiewende in ihrer Gesamtheit zu gestalten und die Erneuerbare-Energien-Erzeuger, die längst kein Nischendasein mehr führen, sondern sich zu immer wichtigeren Akteuren am Strommarkt entwickelt haben, stärker in den Markt zu integrieren. Der föderale Aufbau Deutschlands mit z. T. weit reichenden eigenen Kompetenzen der Bundesländer und ihren Mitspracherechten bei der Bundesgesetzgebung stellt besondere Anforderungen an eine erfolgreiche Zusammenarbeit von Bund und Ländern.3 So nehmen die Bundesländer z. B. über ihre Kompetenzen im Bereich der Raumordnung großen Einfluss auf das Tempo der Energiewende vor Ort. Neben den etablierten Gremien und formellen Verfahren zur Bund-Länder-Abstimmung im Bundesrat findet im Bereich der Energiepolitik zusätzlich eine sehr frühzeitige und enge Koordinierung mit den Ländern statt. So werden zu zentralen energiepolitischen Gesetzesvorhaben i. d. R. sehr frühzeitig Abstimmungsgespräche mit den Ländern sowohl auf politischer als auch auf Fachebene geführt. So

3 Zur Koordinierung im föderalen System s. Bruns, Futterlieb und Ohlhorst 2016.

46

Susanne Cassel

können schon vor Beginn des formellen Abstimmungsverfahrens im Bundesrat konsensfähige Lösungen mit den Bundesländern erarbeitet werden.

5 Die politische Ökonomie der Energiewende am Beispiel des EEG 5.1 Das EEG und seine Reformen Die Förderung der erneuerbaren Energien begann in Deutschland mit dem Stromeinspeisungsgesetz von 1991, das für Strom aus erneuerbaren Energien Mindestpreise garantierte und eine Abnahmeverpflichtung für erneuerbaren Strom festschrieb.4 Die Mindestpreise orientierten sich an den Durchschnittserlösen je Kilowattstunde Strom der Elektrizitätsversorger. Seit 2000 ist das EEG das zentrale Instrument zum Ausbau der erneuerbaren Energien in Deutschland. Erzeuger von Strom aus erneuerbaren Energien erhalten für 20 Jahre für jede erzeugte Kilowattstunde eine gesetzlich festgelegte Vergütung, wobei die Vergütungshöhe je nach Technologie und innerhalb der Technologien nach Anlagengröße und Standort variiert. Erneuerbare-Energien-Anlagen müssen vorrangig an das Stromnetz angeschlossen und der erzeugte Strom darf vorrangig eingespeist werden. Die Vergütung ist degressiv ausgestaltet, sodass neue Anlagen, die in späteren Jahren installiert werden, jeweils geringere Fördersätze bekommen. Die Förderkosten werden bundesweit umgelegt und über die EEG-Umlage finanziert, die letztlich von den Stromkunden zu zahlen ist. Um die internationale Wettbewerbsfähigkeit der energieintensiven Industrie zu sichern, die zunehmend von der steigenden Kostenbelastung durch die Förderung der Erneuerbaren betroffen war, wurde 2004 die so genannte Besondere Ausgleichsregelung eingeführt, die für Unternehmen unter bestimmten Voraussetzungen reduzierte Zahlungen der EEG-Umlage vorsieht. Das EEG hat sich in dem Sinne als sehr erfolgreich erwiesen, dass der Anteil der erneuerbaren Energien an der Stromerzeugung im Laufe der Zeit deutlich angestiegen ist und inzwischen fast ein Drittel beträgt. Gleichzeitig war es jedoch „spektakulär ineffizient“, da die Kosten der Förderung „förmlich explodiert sind“ (SVR 2016: 448). Vor diesem Hintergrund hat die Politik Wege gesucht, um die Kostendynamik der Erneuerbaren-Förderung zu durchbrechen. Zudem ging es um eine stärkere Markt- und Systemintegration der erneuerbaren Energien, die aufgrund ihrer hohen Anteile am Strommix immer dringlicher wurde. So zielten die FotovoltaikNovelle 2012 und die EEG-Novelle 2014 im Wesentlichen darauf ab, die Kosten der Erneuerbaren-Förderung in den Griff zu bekommen. Mit der Fotovoltaik-Novel-

4 Zur Entwicklung der Erneuerbaren-Förderung in Deutschland s. Mautz, Byzio und Rosenbaum 2008 sowie Jacobsson und Lauber 2006.

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

47

le 2012 wurde für die Fotovoltaikförderung ein so genannter atmender Deckel eingeführt, der bei Überschreiten bestimmter Ausbaumengen zu einer zusätzlichen Degression der Förderung führt. Zudem wurde ein Gesamtausbauziel von 52 Gigawatt für die geförderte Fotovoltaik festgelegt. Mit dem EEG 2014 wurden Überförderungen und Boni abgebaut, ein Ausbaukorridor für die Erneuerbaren festgelegt, der dafür sorgen soll, dass die längerfristigen Ausbauziele eingehalten werden, für die einzelnen Technologien zudem jährliche Ausbaumengen festgelegt und die Förderung auf die günstigsten Technologien Wind an Land und Fotovoltaik konzentriert (s. dazu Wustlich 2014; BMWi 2017a).5 Schließlich wurden die Ausnahmen von der Zahlung der EEG-Umlage für stromintensive Unternehmen beschränkt. Um die Erneuerbaren besser in den Strommarkt zu integrieren, sieht das EEG 2014 die Direktvermarktung als vorrangige Vermarktungsform vor. Zudem wurde im Vorgriff auf das EEG 2017 im Rahmen von Pilotausschreibungen für Fotovoltaik-Freiflächenanlagen die wettbewerbliche Ermittlung der Fördersätze eingeführt. Damit sollte das neue Instrument getestet werden. Mit dem EEG 2017 (s. dazu BMWi 2017a) erfolgte dann die generelle Umstellung auf Ausschreibungen.

5.2 EEG-Reformen im Interessengeflecht EEG-Reformen, die aufgrund der entstandenen Ausbaudynamik der erneuerbaren Energien zuletzt im Zweijahrestakt notwendig wurden, bieten ein ideales Betätigungsfeld für verschiedenste Interessengruppen. Das EEG ist geradezu zum Geschäftsmodell vieler Interessengruppen geworden (Sühlsen und Hirsschemöller 2014). Ihr Einfluss auf die Höhe der Einspeisetarife wie auch zunehmend auf andere Regulierungstatbestände hat dazu geführt, dass Anspruch und Wirklichkeit von EEG-Reformen oftmals auseinanderklaffen. Die Entwicklung des EEG soll im Folgenden auf Grundlage der Public-Choice-Theorie nachgezeichnet werden. Die Public-Choice-Theorie befasst sich mit der ökonomischen Analyse politischer Entscheidungsprozesse und bezieht dabei die Nutzenkalküle der beteiligten Akteure ein, um deren Handeln zu erklären (Buchanan und Tullock 1962; Tullock 1967; für einen umfassenden Überblick s. Mueller 2003). Sie geht von der Annahme aus, dass sich nicht nur die Marktakteure, sondern auch die Akteure des politischen Prozesses wie Wähler, Politiker und Interessengruppen als eigeninteressierte, rationale Nutzenmaximierer verhalten. So streben politische Entscheidungsträger vor allem danach, (wieder)gewählt zu werden. Gut organisierte Interessengruppen versu-

5 Das EEG 2014 legt folgende neue, bereits im Koalitionsvertrag von 2013 vereinbarte Ausbauziele fest: 2025 soll der Anteil der Erneuerbaren am Bruttostromverbrauch 40–45 Prozent und 2035 55– 60 Prozent betragen. Diese Gesamt-Ausbauziele werden durch jährliche Ausbaumengen für die einzelnen Technologien wie folgt konkretisiert: 2.500 Megawatt (netto) Windenergieanlagen an Land, 2.500 Megawatt (brutto) Fotovoltaik-Anlagen und 100 Megawatt Biomasseanlagen. Für Windenergie auf See ist ein Zielwert von 6.500 Megawatt im Jahr 2020 festgelegt (Wustlich 2014: 1115).

48

Susanne Cassel

chen, über ihren Einfluss auf den politischen Prozess Privilegien, z. B. in Form von für sie vorteilhafter Regulierung oder Subventionen, zu erlangen. Dies schließt nicht aus, dass auch ideologische Motive in den Kalkülen der Akteure eine Rolle spielen (Strunz, Gawel und Lehmann 2015: 5 f.). Da die Interessengruppen hinsichtlich der tatsächlichen Gegebenheiten in ihrer Branche einen Informationsvorsprung gegenüber den politischen Entscheidungsträgern besitzen, können sie diesen strategisch ausnutzen, um für sie vorteilhafte Entscheidungen zu erreichen (Helm 2010: 186). Die unterschiedliche Organisierbarkeit von Gruppen – kleine Gruppen mit homogenen Interessen lassen sich besser organisieren als große Gruppen mit heterogenen Interessen (Olson 1971) – führt aufgrund der Anreize des politischen Prozesses dazu, dass gut organisierte Gruppen vielfach Sondervorteile zu Lasten der Allgemeinheit erlangen können. Denn für Politiker ist es oft aussichtsreicher, Partikularinteressen zu befriedigen, um sich die Unterstützung wichtiger Wählergruppen zu sichern bzw. diese nicht zu verlieren, als Maßnahmen umzusetzen, die im Interesse der Gesamtheit der Wähler liegen. In dem Maße, in dem Politik Rentensuche zulässt, konzentrieren sich die Interessengruppen stärker darauf, im politischen Prozess Privilegien zu erstreiten, als darauf, im Marktprozess erfolgreich zu sein. Aus diesen Anreizen kann sich eine Dynamik entwickeln, die dazu führt, dass individuell rationales Verhalten gesamtwirtschaftlich zu zunehmend schädlichen Konsequenzen führt und eine Interventionsspirale entsteht, die das Vertrauen in Marktprozesse untergräbt (Eucken 1952/1990, S. 334 f.; Krueger 1974).6 Die schlecht organisierbare Mehrheit, z. B. der Stromkunden, kann dieser Dynamik wenig entgegensetzen. Dies umso mehr, als Interessengruppen oft geschickt darin sind, ihre Partikularinteressen als gemeinwohlfördernd darzustellen. Dies spielt in einem sehr ideologisch aufgeladenen Politikfeld wie der Energiepolitik eine besondere Rolle. Sowohl die Einführung des Stromeinspeisungsgesetzes 1991 als auch des EEG 2000 kann als großer Erfolg der Erneuerbare-Energien-Verbände angesehen werden. Diese verfolgten mit der Förderung von Strom aus erneuerbaren Energien eine homogene Zielsetzung und waren bereits damals relativ gut organisiert. Aufgrund der differenzierten Fördersätze für die einzelnen Technologien und der fehlenden Mengenbegrenzung bestand weder zwischen den unterschiedlichen Technologien noch zwischen den unterschiedlichen Anbietern innerhalb der Technologien eine Konkurrenzbeziehung hinsichtlich der Förderung (Gawel, Strunz und Lehmann 2016). Die Förderung durch das EEG war für die meisten Betreiber

6 „Sobald solche Machtgebilde (Interessengruppen, d. Verf.) staatliche Privilegien erhalten, macht sich ein circulus vitiosus geltend. […] Wer das erste Privileg gewährt, muss wissen, dass er die Macht stärkt und die Grundlage gibt, von der aus das zweite Privileg erstritten wird und dass das zweite Privileg die Grundlage für die Erkämpfung eines dritten sein wird“ (Eucken (1952/ 1990: 334 f.).

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

49

sehr auskömmlich. Zudem hatten sie aufgrund des Einspeisevorrangs keinerlei Absatzrisiken zu tragen. Die Finanzierung über die EEG-Umlage statt über den Bundeshaushalt hatte den Vorteil, dass die Ausgaben für die Erneuerbaren-Förderung nicht mit anderen öffentlichen Ausgabeposten konkurrieren mussten (Erdmann 2017: 9). Von Seiten der konventionellen Energieerzeuger, die sehr gut organisiert waren und großen Einfluss hätten nehmen können, kam zunächst wenig Widerstand gegen die Förderung der erneuerbaren Energien. Denn sie trauten den Erneuerbaren kaum Wachstumschancen zu und hielten einen hohen Anteil erneuerbarer Energien an der Stromversorgung aus Gründen der Versorgungssicherheit für nicht realisierbar. Damit sahen sie die Erneuerbare-Energien-Erzeuger nicht als Konkurrenten an. Zudem waren ihre Ressourcen in den gleichzeitig stattfindenden Verhandlungen zum Atomausstieg gebunden. Die damaligen politischen Entscheidungsträger konnten mit dem Fördergesetz demonstrieren, dass sie sich für umwelt- und klimapolitische Belange einsetzen, ohne negative Konsequenzen fürchten zu müssen (Vossler 2014: 208 f.; Müller 2015: 225; Strunz, Gawel und Lehmann 2015: 6 ff.). Im ersten Jahrzehnt der Erneuerbaren-Förderung hat sich aufgrund der breit gestreuten Teilhabe am Ausbau der erneuerbaren Energien eine starke gesellschaftliche Akzeptanz gegenüber diesen Technologien entwickelt. Dadurch standen auch politische Entscheidungsträger der Förderung positiver gegenüber, weil sie sich davon entsprechende Wählerstimmen erhofften. Indem die energieintensiven Industrien durch die Besondere Ausgleichsregelung weitgehend vor steigenden Kosten geschützt wurden, konnte die Erneuerbaren-Förderung ohne Einschränkungen fortgeführt und gleichzeitig die Wettbewerbsfähigkeit der energieintensiven Industrie gesichert werden (Müller 2015: 220 ff.; Erdmann 2017: 9). Negativ betroffen waren lediglich die schlecht organisierbaren Stromkunden, die höhere Stromkosten zu zahlen hatten. Insgesamt hatten die Erneuerbaren-Verbände in den 2000er Jahren prägenden Einfluss auf die Gestaltung des Förderrahmens. Im Jahr 2002 wurde die Zuständigkeit für die erneuerbaren Energien vom Bundeswirtschafts- auf das Bundesumweltministerium verlagert. Dies wurde als wichtiger Meilenstein für den Ausbau der erneuerbaren Energien angesehen (Ohlhorst 2011: 82). Die Erneuerbaren-Verbände konnten so ihre Interessen noch wirkungsvoller durchsetzen, da das Bundesumweltministerium sehr eng mit ihnen zusammenarbeitete. Demgegenüber fanden die Verbände der konventionellen Energiewirtschaft dort kaum Gehör (Müller 2015: 223 f.). Mit dem zunehmenden Ausbau der Erneuerbaren-Anlagen und der Ansiedlung entsprechender Industrien zur Produktion dieser Anlagen konnten die ErneuerbarenVerbände ihre Position stärken und mit dem Argument drohen, dass grüne Arbeitsplätze und die Vorrangstellung Deutschlands bei der Entwicklung grüner Technologien gefährdet würden, wenn Einschnitte an der Förderung erfolgten. So hat sich im Laufe der Jahre durch positive Rückkopplungen und Selbststabilisierungsprozesse eine effektive Erneuerbaren-Lobby als wichtiger politischer Akteur etabliert,

50

Susanne Cassel

der die Macht der konventionellen Energieerzeuger-Lobby erodiert hat (Müller 2015; Sühlsen und Hirsschemöller 2014). In dem Maße jedoch, in dem der Ausbau der erneuerbaren Energien voranschritt und sich negativ auf den gesamten Strommarkt, die Kosten und letztlich den Erfolg der Energiewende auswirkte, hat sich die Stellung der ErneuerbarenVerbände verschlechtert. Müller (2015: 233 ff.) führt dafür insbesondere drei Gründe an: Erstens habe die starke Fokussierung der Verbände auf den Zubau von Erneuerbare-Energien-Anlagen und die damit verbundene „Produce-and-forget-Mentalität“, die die Folgen dieses Ausbaus ignoriert, zunehmend weniger politische Unterstützung gefunden. Zweitens hätten die Erneuerbaren-Verbände aufgrund ihrer überzogenen Forderungen z. T. an Glaubwürdigkeit gegenüber der Politik eingebüßt. Im Bereich der Fotovoltaik ist es der Branche in besonderem Maße gelungen, ihren Informationsvorteil gegenüber der Politik auszunutzen. So sind die Einspeisevergütungen für Fotovoltaik-Anlagen auf Druck der Lobby nur langsam abgesenkt worden, während die Preise für Solarpaneele seit 2008 rapide verfallen sind. Die massive Überförderung hat zu einem Ausbauboom bei der Fotovoltaik mit entsprechenden Folgen für die Kosten geführt (Kronberger Kreis 2014: 22 ff.; Frondel, Schmidt und Vance 2012: 6 ff.). Und drittens habe die zunehmende Heterogenität und Konkurrenz zwischen den Erneuerbaren-Verbänden deren Position geschwächt. Insbesondere die eingeführte Mengensteuerung im EEG hat zu einem Verteilungskampf um Marktanteile der einzelnen Technologien geführt. Verstärkt hat sich der Wettbewerb im Bereich der erneuerbaren Energien auch dadurch, dass zunehmend Unternehmen der konventionellen Energieerzeugung in die Produktion von erneuerbarem Strom, vor allem Offshore-Windenergie, eingestiegen sind und entsprechend ihre Interessen vertreten (Müller 2015: 239 f.; Sühlsen und Hirsschemöller 2014). Zudem sind inzwischen auch Akteure außerhalb des Bereichs der erneuerbaren Energien i. e. S. betroffen und schalten sich in die Diskussionen ein. So zielen die konventionellen Stromerzeuger, die nicht selbst in den Ausbau der Erneuerbaren einsteigen, darauf ab, diesen zu verlangsamen oder für sich eigene Renten etwa über die Vergütung von Leistung durch einen Kapazitätsmarkt zu erzielen. Stromintensive Unternehmen setzen sich im politischen Prozess dafür ein, möglichst weitgehende Befreiungen von den Kosten des Erneuerbaren-Ausbaus zu erlangen bzw. diese zu behalten. Trotz oder gerade wegen des verschärften Wettbewerbs, dem die erneuerbaren Energien-Verbände ausgesetzt sind, versucht z. B. der Bundesverband Erneuerbare Energien mit hoher Dramatik, die Öffentlichkeit und die politischen Entscheidungsträger für seine Belange zu mobilisieren. So titelte er in einer Pressemitteilung zum EEG 2017 z. B.: „EEG-Reform 2016 schneidet hart ins Herz der Energiewende. […] In der Branche der Erneuerbaren Energien stehen damit Zehntausende von Arbeitsplätzen vor allem in der Wind- und Solarbranche vor dem Aus“ (BEE 2016). Während jedoch generelle Argumente, dass die jeweilige EEG-Reform zu einem „Abwürgen der Energiewende“ führe, da der Ausbau der erneuerbaren Ener-

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

51

gien „ausgebremst“ und damit Arbeitsplätze gefährdet würden, immer weniger verfangen, bieten die inzwischen stark ausdifferenzierten Regelungen im EEG vielfältige Hebel, um Sonderinteressen durchzusetzen. So gab es im Rahmen der Reform des EEG 2014 z. B. eine ausgiebige Diskussion um die Höhe der jährlichen Ausbaumengen. Sah der Entwurf des Bundeswirtschaftsministeriums ursprünglich vor, diese als Bruttowerte festzulegen, d. h. abgebaute Leistung bestehender Anlagen z. B. aufgrund von Repowering-Maßnahmen bei Windenergieanlagen einzurechnen, so haben sich die Verbände wie auch die Bundesländer erfolgreich dafür einsetzen können, dass für die Windenergie der Nettowert relevant ist, d. h. das Ausbauziel implizit angehoben wurde. Zudem wurden angesichts des Widerstands der Bundesländer die Einspeisevergütungen für Wind an Land und auf See sowie für Biomasse weit weniger gekürzt als ursprünglich vorgesehen, was entsprechende Mehrkosten nach sich zieht (Schreurs und Steuwer 2015: 64). Auch die Umstellung der Erneuerbaren-Förderung von staatlich festgesetzten Einspeisevergütungen auf (technologiespezifische) Ausschreibungen durch das EEG 2017 war von intensiven Diskussionen begleitet. Dabei ging es aufgrund der Vorgaben der EU-Kommission weniger um das Ob – auch wenn dies von einigen Erneuerbaren-Verbänden als Ansatzpunkt dafür genutzt wurde, erneut das Ende der Energiewende heraufzubeschwören – als vielmehr um das Wie. So wurde z. B. sehr kontrovers darüber diskutiert, inwieweit Ausnahmen von den Ausschreibungen notwendig sind, um die Akteursvielfalt in der Energiewende zu erhalten. Diese wird als ein Markenzeichen der deutschen Energiewende und Garant für ihre Akzeptanz angesehen. Unter Akteursvielfalt fallen aus Sicht der Befürworter insbesondere kleine, regional verankerte und vorzugsweise genossenschaftlich organisierte Produzenten von erneuerbarem Strom bzw. Anleger in solche Anlagen. Auch wenn das Argument einer höheren Akzeptanz der Energiewende durch eine breitere Beteiligung der Bürger (sog. Bürgerenergie) nicht von der Hand zu weisen ist, ist nach dem Kosten-Nutzen-Verhältnis weitreichender Ausnahmen für solche Bürgerenergieprojekte zu fragen, denn schließlich sind die Kosten dafür von der Allgemeinheit zu tragen. Vielmehr drängt sich der Verdacht auf, dass der Sympathiebegriff Bürgerenergie dafür genutzt wird, partikulare Interessen an Zusatzrenten durch bessere Förderbedingungen unter dem Deckmantel des Gemeinwohls zu verstecken (Gawel 2016). Im Ergebnis wurden Ausnahmen für Bürgerenergiegenossenschaften im Bereich der Ausschreibungen für Windenergie an Land beschlossen, die jedoch deutlich hinter den Forderungen der Interessengruppen zurückblieben. Im Bereich der Fotovoltaik sind durch die Schwelle von 750 Megawatt für die Teilnahmepflicht an den Ausschreibungen Anlagen von Eigenheimbesitzern ausgenommen. Ebenfalls sehr kontrovers wurde über die auszuschreibenden Mengen diskutiert. In einem Eckpunktepapier vom Februar 2016 hatte das Bundeswirtschaftsministerium vorgesehen, die Einhaltung des Ausbaukorridors über die Ausschreibungsmenge bei Wind an Land zu steuern, und dafür eine Formel entwickelt

52

Susanne Cassel

(BMWi 2016). Dieser Ansatz wurde im Laufe der Diskussionen fallen gelassen und im Ergebnis die auszuschreibenden Mengen für Wind an Land und Biomasse ausgeweitet, was Mehrkosten in Milliardenhöhe bedeutet. Diese Änderungen kamen insbesondere aufgrund des Drucks aus den weniger windreichen Ländern in der Mitte und im Südwesten Deutschlands sowie aus Ländern mit ausgeprägten Interessen im Bereich Biomasse zustande.

6 Zur (Un)Reformierbarkeit des EEG Ein so umfassendes Reformprojekt wie die Energiewende kann nur gelingen, wenn die beteiligten Stakeholder einbezogen werden. Denn nur so kann die notwendige Akzeptanz erreicht werden. Je enger und frühzeitiger die Betroffenen einbezogen werden, desto größer ist jedoch auch die Gefahr, dass Partikularinteressen sich zu Lasten der Allgemeinheit durchsetzen können. Insofern ist die derzeitige Governance der Energiewende, die vielfältige partizipatorische Elemente enthält und stark auf Kooperation der Akteure setzt, zwar einerseits notwendig, um die Energiewende weiter erfolgreich umzusetzen und ihre Akzeptanz zu sichern. Andererseits ist sie aus politökonomischer Perspektive nicht unproblematisch. Denn die gut organisierten Gruppen haben dadurch noch besseren Zugang zu politischen Entscheidungsprozessen. Zwar genießt die Energiewende eine hohe öffentliche Aufmerksamkeit, sodass das Handeln der Interessengruppen nicht verborgen bleibt. Allerdings haben nicht-organisierte Gruppen kaum Möglichkeiten, den organisierten Interessen etwas entgegen zu setzen. Inwieweit die zu Beginn der 18. Legislaturperiode eingeführte Bündelung der energiepolitischen Kompetenzen im Bundeswirtschaftsministerium aus politökonomischer Sicht vorteilhafter ist als geteilte Kompetenzen zwischen Umwelt- und Wirtschaftsministerium, ist schwer zu beantworten. Zwar führt die Bündelung der Kompetenzen dazu, dass die Auswirkungen energiepolitischer Entscheidungen auf das Gesamtsystem stärker berücksichtigt und die Energiewende koordinierter umgesetzt werden kann. Zielkonflikte z. B. zwischen dem Ausbau der Erneuerbaren einerseits und der Versorgungssicherheit und wettbewerbsfähigen Strompreisen andererseits werden dann allerdings eher intern ausgetragen, sodass sie weniger transparent und nachvollziehbar sind (Monopolkommission 2014: 27 f.). Zudem ist das Wirtschaftsministerium durch die Bündelung Hauptansprechpartner für alle durch die Energiewende betroffenen Interessen. Wie die Regulierungstheorie zeigt, birgt dies die Gefahr des „Regulatory Capture“ (Stigler 1971). Damit ist gemeint, dass es in Behörden, die für die Regulierung bestimmter Branchen oder Sektoren zuständig sind, zu einer starken Identifikation mit der zu regulierenden Branche kommen kann mit der Folge, dass die Interessen der Branche stärker berücksichtigt werden als die Interessen von Bürgern und Steuerzahlern (Monopolkommission 2014: 27 f.). Dem könnte entgegenstehen, dass die Interessen der an der Energie-

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

53

wende Beteiligten z. T. stark widerstreitend sind, so dass der Wettbewerb zwischen den Interessengruppen zu einem gewissen Ausgleich führt (Becker 1983). Da der Ausbau der erneuerbaren Energien über die EEG-Umlage bundesweit finanziert wird, bestehen Anreize, den Ausbau vor Ort voranzutreiben, ohne Rücksicht darauf zu nehmen, dass sich dies negativ auf die Gesamteffizienz bzw. den bundesweit festgelegten Ausbaukorridor auswirkt. Die Förderung durch das EEG wird wie eine Allmende für alle potenziellen Nutzer bereitgestellt, die es je nach eigener Interessenlage in Anspruch nehmen können (SVR 2013: 435 ff.). Im Ergebnis stellt sich eine Übernutzung des Allmendegutes ein (Hardin 1968), die durch regulatorische Eingriffe beseitigt werden muss. Die Bundesländer und lokalen Akteure befinden sich in einem Gefangenen-Dilemma: Keiner hat einen Anreiz, den Ausbau im eigenen Land zu senken bzw. mit dem Gesamtsystem zu koordinieren, da die Kosten für eine Zurückhaltung in Form von Arbeitsplätzen und Wertschöpfung vor Ort zu tragen sind, während der Nutzen in Form einer besser koordinierten und damit kostengünstigeren Energiewende bundesweit anfällt bzw. umgekehrt die Kosten für einen übermäßigen Ausbau deutschlandweit verteilt werden, während der Nutzen lokal entsteht. Da jedes Bundesland einen Anreiz hat, den Ausbau der erneuerbaren Energien auf Kosten der Allgemeinheit voranzutreiben, stellen sich am Ende alle schlechter als in einer Situation, in der der Ausbau koordiniert erfolgen würde (Gawel und Korte 2015: 163 ff.; SVR 2013: 435 ff.). Vor diesem Hintergrund mussten z. B. 2013 die im Rahmen der „Kostenbremse-Diskussion“ geführten Verhandlungen zwischen dem Bund und den Ländern darüber, wie die nationalen Ausbauziele für erneuerbare Energien mit den jeweiligen länderspezifischen Ausbauzielen synchronisiert werden können, scheitern. Das EEG ist inzwischen zum Opfer seines eigenen Erfolgs geworden. Reformen gleichen zunehmend Abwehrkämpfen, bei denen jede Interessengruppe versucht, für sich Vorteile zu bewahren und die Reformlast auf andere zu überwälzen (SVR 2013: 434 f.). Jede EEG-Reform stellt einen Kompromiss dar, der die jeweiligen Einzelinteressen ausgleicht. Indem z. B. die stromintensiven Unternehmen Ausnahmeregelungen von den EEG-Zahlungen erwirken konnten, sind auch sie zu Nutznießern dieser Politik geworden. Ihr Interesse richtet sich daher stärker darauf, ihre Ausnahmeprivilegien zu verteidigen, als das EEG insgesamt infrage zu stellen (Bettzüge 2016: 10). Die Stromverbraucher sind zwar durch höhere Kosten negativ betroffen. Sie können sich als heterogene Gruppe jedoch schlecht organisieren, um Widerstand zu leisten. Auch potenzielle Reformgewinner können sich nicht organisieren, da sie kaum zu personifizieren sind, während die Verlierer grundlegender Veränderungen am Fördermechanismus klar identifizierbar und damit gut organisierbar sind. Aufgrund der Vielzahl der von der Förderung im engeren und weiteren Sinne profitierenden Akteure befindet sich das EEG in einem lock-in, das ein Verharren im Status quo begünstigt. Der Einfluss der Interessengruppen hat dazu geführt, dass das EEG im Laufe der Zeit immer kleinteiliger und komplexer und damit unübersichtlicher geworden

54

Susanne Cassel

ist. Das stark ausdifferenzierte Fördersystem mag es zwar eigeninteressierten Politikern bisweilen ermöglichen, Renten zielgenau zu vergeben sowie Widerstand zu fragmentieren und eigene Handlungsspielräume zu vergrößern (Gawel, Strunz und Lehmann 2016: 5 f.; Bettzüge 2016: 9). Letztlich macht sich die Politik jedoch zunehmend zum Spielball der Interessengruppen, die sie sich im Laufe der Zeit durch die Gewährung der Förderung gleichsam herangezüchtet hat. Dadurch ist eine „Unterhöhlung der Staatsautorität durch partikulare Gewalten“ entstanden, die zu einer „neufeudalen Autoritätsminderung des Staates“ (Eucken 1952/1990: 329 und 334) geführt hat. Um Rent-Seeking-Aktivitäten möglichst geringe Ansatzpunkte zu geben, sind marktbasierte, einfache Instrumente interventionistischen und komplexen Ansätzen vorzuziehen (Helm 2010: 191 ff.). Marktbasierte Instrumente wie ein Emissionshandelssystem oder ein Ausschreibungssystem für Fördermittel lösen nicht nur das Wissensproblem, indem sie das dezentral bei den Wirtschaftssubjekten vorhandene Wissen verfügbar machen (Hayek 1945), sie bieten auch weniger Ansatzpunkte für Rent-Seeking, da weniger Informationen benötigt werden und so Informationsasymmetrien weniger stark für die Rentensuche ausgenutzt werden können. Genauso sind Informationsasymmetrien umso geringer, je weniger komplex eine Regelung oder ein Regelungssystem ist. Daher sollten die gewählten Instrumente möglichst einfach sein, wenige Ausnahmen vorsehen und nicht zwischen verschiedenen Technologien differenzieren (Helm 2010). Aus dem Status quo zu einem solchen System zu gelangen, ist allerdings sehr schwierig – zu groß ist die Blockadehaltung der Profiteure, die nicht auf einmal gewährte Privilegien verzichten wollen. Externer Druck wie das Ansteigen der Kosten der Energiewende oder Vorgaben der EU-Kommission können helfen, grundlegende Änderungen zu erwirken. In diesem Sinne könnten sich die mit dem EEG 2017 aufgrund von Vorgaben der Europäischen Kommission eingeführten Ausschreibungen für Erneuerbare-Energien-Anlagen als wichtiger Schritt zu einem weniger Rent-Seeking-anfälligen System erweisen. Seit Anfang 2017 entscheidet nicht mehr der Deutsche Bundestag über die Höhe der Vergütungen für erneuerbare Energien, sondern der Wettbewerb unter den Bietern. Dieser findet allerdings nur innerhalb der jeweiligen Technologie statt, da die Ausschreibungen technologiespezifisch ausgestaltet sind. Als Pilotvorhaben sollen zusätzlich in kleinem Umfang auch technologieübergreifende Ausschreibungen getestet werden (BMWi 2016a). Zudem könnte sich der Wettbewerb unter den Interessengruppen schließlich als Regulativ erweisen, wenn er zu einem hohen Rechtfertigungsdruck für ineffiziente Politikmaßnahmen führt (Strunz, Gawel und Lehmann 2015: 16). Dadurch, dass die politischen Prioritäten zunehmend auf die Systemintegration der erneuerbaren Energien gerichtet sind und über die Förderhöhe für einzelne Erneuerbaren-Technologien nicht mehr politisch entschieden wird, dürften die Branchenverbände für einzelne Erneuerbaren-Technologien an Relevanz verlieren. Dagegen dürften Verbände, die sich in die Diskussion um die Systemintegration einbringen und die

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

55

Energiewende in ihrer Gesamtheit betrachten, mehr Gehör finden. Und schließlich dürfte auch der weiter anhaltende Kostendruck die Diskussion um eine effizientere Umsetzung der Energiewende in Gang halten.

7 … werd’ ich nun nicht los Mithilfe des EEG haben sich die Erneuerbare-Energien-Erzeuger in Deutschland von einem Nischendasein zu relevanten Akteuren auf dem Strommarkt entwickelt. Aus dem anfänglichen Wettbewerb zwischen konventionellen und erneuerbaren Stromerzeugern ist ein sehr komplexer Wettbewerb aller an der Energiewende beteiligter Interessengruppen entstanden. Die zunehmende Systemrelevanz der erneuerbaren Energien und der starke Einfluss vielfältiger Interessengruppen haben dazu geführt, dass aus dem EEG im Laufe der Zeit ein sehr ausdifferenziertes, komplexes und intransparentes Umverteilungsinstrumentarium entstanden ist, das für Außenstehende kaum noch zu durchschauen ist. Für Interessengruppen bietet es ideale Bedingungen, um ihre Partikularinteressen durchzusetzen. Reformen des EEG, die darauf abzielen, die Förderung stärker marktbasiert auszurichten und zu vereinfachen, lassen sich nur schwer umsetzen, da die Verlierer sich in der Regel mehr Gehör verschaffen können als die Gewinner solcher Reformen. Reformen haben daher bisher meist nur in kleinen Schritten stattgefunden, oftmals ausgelöst durch die öffentliche Diskussion über die Kosten der Förderung und Vorgaben der EU-Kommission. Die Entwicklung des EEG ist ein politökonomisches Paradebeispiel dafür, wie sich Rent-Seeking ausbreitet und die Politik sich in einem selbst geschaffenen Interessengeflecht verfängt. Die in der föderalen Struktur der Bundesrepublik angelegten Mitwirkungsmöglichkeiten der Bundesländer an energiepolitischen Entscheidungen führen – gepaart mit den Anreizen der Bundesländer, regionale Wertschöpfung zu schaffen bzw. zu sichern – zu einer Politikverflechtung (Scharpf 1976) mit entsprechend negativen Auswirkungen. Aus anderen Bereichen wie der Landwirtschaftspolitik oder der Subventionierung des Steinkohlebergbaus ist bekannt, wie schwierig und langwierig es ist, einmal gewährte Privilegien wieder zurückzunehmen und zu einer Politik zu gelangen, die sich stärker an den Interessen der Allgemeinheit orientiert.

Literatur AEE. 2017. Agentur für Erneuerbare Energien, Föderal erneuerbar – Bundesländer mit neuer Energie, www.foederal-erneuerbar.de/startseite (letzter Aufruf: 27. 09. 2017). BBEn. 2017. Bündnis Bürgerenergie e. V., Aufgaben und Ziele, www.buendnis-buergerenergie.de/ buendnis/aufgaben-und-ziele/ (letzter Aufruf: 08. 04. 2017).

56

Susanne Cassel

Becker, Gary S. 1983. A Theory of Competition Among Pressure Groups for Political Influence, in: The Quarterly Journal of Economics, Vol. 98, No. 3, S. 371–400. BEE. 2017. Bundesverband Erneuerbare Energie e. V., Mitglieder des BEE, www.bee-ev.de/home/ verband/mitglieder/ (letzter Aufruf: 08. 04. 2017). BEE. 2016. Bundesverband Erneuerbare Energie e. V., EEG-Reform 2016 schneidet hart ins Herz der Energiewende, Pressemitteilung vom 15. April 2016, www.bee-ev.de/home/presse/ mitteilungen/detailansicht/eeg-reform-2016-schneidet-hart-ins-herz-der-energiewende/ (letzter Aufruf: 08. 04. 2017). Benz, Arthur. 2010. Multilevel-Governance – Governance in Mehrebenensystemen, in: Arthur Benz und Nicolai Dose (Hrsg.), Governance – Regieren in komplexen Regelsystemen – Eine Einführung, 2. aktualisierte und veränderte Aufl., Wiesbaden, S. 111–135. Benz, Arthur. 2007. Multilevel Governance, in: Arthur Benz, Susanne Lütz, Uwe Schimank und Georg Simonis (Hrsg.), Handbuch Governance – Theoretische Grundlagen und empirische Anwendungsfelder, Wiesbaden, S. 287–310. Benz, Arthur, Susanne Lütz, Uwe Schimank und Georg Simonis. 2007. „Einleitung“, in: dies. (Hrsg.), Handbuch Governance – Theoretische Grundlagen und empirische Anwendungsfelder, Wiesbaden, S. 9–25. Bettzüge, Marc Oliver. 2016. Zwischen Rhetorik und Realität – Perspektiven der deutschen Energiepolitik, in: Energiewirtschaftliche Tagesfragen, 66. Jg., Heft 10, S. 8–13. BMWi. 2017. Bundesministerium für Wirtschaft und Energie, Themendossier Energiewende, www.bmwi.de/Redaktion/DE/Dossier/energiewende.html (letzter Aufruf: 08. 04. 2017). BMWi. 2017a. Bundesministerium für Wirtschaft und Energie, Themendossier erneuerbare Energien, www.bmwi.de/Redaktion/DE/Dossier/erneuerbare-energien.html (letzter Aufruf: 08. 04. 2017). BMWi. 2016. Bundesministerium für Wirtschaft und Energie, EEG-Novelle 2016 – Fortgeschriebenes Eckpunktepapier zum Vorschlag des BMWi für das neue EEG, Stand 15. Februar 2016, www.bmwi.de/Redaktion/DE/Downloads/E/eeg-novelle-2016fortgeschriebenes-eckpunktepapier.pdf?__blob=publicationFile&v=7 (letzter Aufruf: 08. 04. 2017). BMWi. 2016a. Bundesministerium für Wirtschaft und Energie, Überblick über die erzielte Verständigung mit der EU-Kommission zum Energiepaket, Berlin, 30. August 2016, www.bmwi.de/Redaktion/DE/Downloads/E/energiepaket-ueberblick-verstaendigung-eukommission.pdf?__blob=publicationFile&v=4 (letzter Aufruf: 08. 04. 2017). BMWi/BMU. 2010. Bundesministerium für Wirtschaft und Technologie und Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit, Energiekonzept für eine umweltschonende, zuverlässige und bezahlbare Energieversorgung, www.bmwi.de/Redaktion/DE/Downloads/E/ energiekonzept-2010.pdf?__blob=publicationFile&v=3 (letzter Aufruf: 08. 04. 2017). BNetzA. 2017. Bundesnetzagentur, Stromnetze zukunftssicher gestalten, wer kann mitreden?, www.netzausbau.de/mitreden/wer-kann-mitreden/de.html (letzter Aufruf: 08. 04. 2017). Bruns, Elke, Matthias Futterlieb und Dörte Ohlhorst. 2016. Akteure verschiedener Handlungsebenen und ihre Interessen im Hinblick auf eine räumliche Steuerung des Zubaus erneuerbarer Energien, Institut für nachhaltige Energie- und Ressourcennutzung, Hintergrundpapier Nr. 3 (29. 04. 2016) erstellt im Rahmen des Forschungsvorhabens „Instrumente für eine verbesserte räumliche Steuerung der Energieerzeugung aus erneuerbaren Energien – IRSEE“. Buchanan, James M. und Gordon Tullock. 1962. The Calculus of Consent – Logical Foundations of Constitutional Democracy, Ann Arbor. Bundesverband Bürgerinitiativen gegen SuedLink. 2017. Über uns, http://bundesverband-gegensuedlink.de/?page_id=27 (letzter Aufruf: 08. 04. 2017).

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

57

Czada, Roland. 2014. Gesellschaft, Staat und Politische Ökonomie im postfossilen Zeitalter, in: Dietrich Fürst und Andrea Bache (Hrsg.), Postfossile Gesellschaft – Fluchtlinien in die Zukunft, Frankfurt/Main, S. 13–26. Energie Informationsdienst. 2016. Neue Geschäftsmodelle – EY-Studie: Veränderung jetzt, Nr. 40, 30. September 2016, S. 1–2. Erdmann, Georg. 2017. Der Klimaschutzbeitrag der deutschen Energiewende, in: Energiewirtschaftliche Tagesfragen, 67. Jg., Heft 4, S. 8–13. Eucken, Walter. 1952/1990. Grundsätze der Wirtschaftspolitik, 6. durchges. Aufl., Tübingen. Frondel, Manuel, Christoph M. Schmidt und Colin Vance. 2012. Germany’s Solar Cell Promotion: An Unfolding Disaster, Ruhr Economic Papers, Nr. 353. Gawel, Erik. 2016. Akteursvielfalt bei der Stromwende – Was ist das und wozu brauchen wir es? in: Zeitschrift für das gesamte Recht der Energiewirtschaft, Nr. 6, S. 241–242. Gawel, Erik und Sebastian Strunz. 2016. Dezentrale Energiepolitik – Eine fiskalföderalistische Perspektive für den deutschen Stromsektor, in: Vierteljahreshefte zur Wirtschaftsforschung, 85. Jg., Nr. 4, S. 29–40. Gawel, Erik, Sebastian Strunz und Paul Lehmann. 2016. Support policies for renewables – Instrument choice and instrument change from a Public Choice perspective, WIDER Working Paper 2016/6, www.wider.unu.edu/sites/default/files/wp2016-6.pdf (letzter Aufruf: 08. 04. 2017). Gawel, Erik und Klaas Korte. 2015. Regionale Verteilungswirkungen und Finanzierungsverantwortung: Bund und Länder bei der Strom-Energiewende, in: Thorsten Müller und Hartmut Kahl (Hrsg.), Energiewende im Föderalismus, Baden-Baden, S. 145–186. Hardin, Garrett. 1968. The Tragedy of the Commons, in: Science, New Series, Vol. 162, No. 3859, S. 1243–1248. Hayek, Friedrich August von. 1945. The Use of Knowledge in Society, in: American Economic Review, Vol. 35, No. 4, S. 519–530. Helm, Dieter. 2010. Government failure, rent-seeking, and capture: the design of climate change policy, in: Oxford Review of Economic Policy, Vol. 26, No. 2, S. 182–196. Jacobsson, Staffan und Volkmar Lauber. 2006. The politics and policy of energy system transformation – explaining the German diffusion of renewable energy technology, in: Energy Policy, Vol. 34, S. 256–276. Kronberger Kreis. 2014. Neustart in der Energiepolitik jetzt!, Schriftenreihe der Stiftung Marktwirtschaft, 58, Berlin. Krueger, Anne O. 1974. The Political Economy of the Rent-Seeking Society, in: American Economic Review, Vol. 64, No. 3, S. 291–303. Mautz, Rüdiger, Andreas Byzio und Wolf Rosenbaum. 2008. Auf dem Weg zur Energiewende – Die Entwicklung der Stromproduktion aus erneuerbaren Energien in Deutschland, Göttingen. Monopolkommission. 2014. Energie 2013: Wettbewerb in Zeiten der Energiewende, Sondergutachten der Monopolkommission gemäß § 62 Abs. 1 EnWG, Bd. 65, Baden-Baden. Mueller, Dennis C. 2003. Public Choice III, Cambridge. Müller, Tom. 2015. Politische Ökonomie der Erneuerbare-Energien-Politik in Deutschland. Eine Betrachtung des Politikbildungsprozesses auf dem Strommarkt unter dem Einfluss von Interessengruppen, Kassel. Musgrave, Richard A. 1959. The Theory of Public Finance, New York. Netztransparenz.de. 2017. Informationsplattform der deutschen Übertragungsnetzbetreiber, EEG-Jahresabrechnung 2016, www.netztransparenz.de/portals/1/EEG-Jahresabrechnung_ 2016.pdf (letzter Aufruf: 26. 09. 2017). Oates, Wallace E. 1972. Fiscal Federalism, New York. Ohlhorst, Dörte. 2015. Germany’s energy transition policy between national targets and decentralized responsibilities, in: Journal of Integrative Environmental Sciences, Vol. 12, No. 4, S. 303–322.

58

Susanne Cassel

Ohlhorst, Dörte. 2011. Energiemix im Lobbygeflecht – das Ringen der Akteure um die Weichenstellungen für die Zukunft, in: Dorothee Keppler, Benjamin Nölting und Carolin Schröder (Hrsg.), Neue Energie im Osten – Gestaltung des Umbruchs. Perspektiven für eine zukunftsfähige sozial-ökologische Energiewende, Frankfurt/M., S. 73–95. Olson, Mancur. 1971. The Logic of Collective Action – Public Goods and the Theory of Groups, 2. Aufl., Cambridge. Olson, Mancur. 1969. The Principle of “Fiscal Equivalence”. The Division of Responsibilities among Different Levels of Government, in: The American Economic Review, Vol. 59, No. 2, S. 479–487. Rave, Tilmann. 2016. Der Ausbau Erneuerbarer Energien im Föderalismus und Mehrebenensystem – Neoklassische und neoinstitutionalistische Perspektiven, ENERGIO – Working Paper Nr. 8, Juli 2016, www.cesifo-group.de/portal/page/portal/DocBase_Extern/ External_Publications/2016_External_Publications/ENERGIO_WP8_EE_Mehrebenensystem.pdf (letzter Aufruf: 08. 04. 2017). Renn, Ortwin. 2015. (Hrsg.), Aspekte der Energiewende aus sozialwissenschaftlicher Perspektive, Schriftenreihe Energiesysteme der Zukunft, München. Scharpf, Fritz W. 1976. Theorie der Politikverflechtung, in: Fritz W. Scharpf, Bernd Reissert und Fritz Schnabel (Hrsg.), Politikverflechtung. Theorie und Empirie des kooperativen Föderalismus in der Bundesrepublik, Kronberg/Ts., S. 13–70. Schreurs, Miranda und Sibyl Steuwer. 2015. Der Koordinierungsbedarf zwischen Bund und Ländern bei der Energiewende aus politikwissenschaftlicher Sicht, in: Thorsten Müller und Hartmut Kahl (Hrsg.), Energiewende im Föderalismus, Baden-Baden, S. 45–67. Schütte, Matthias, Anne Gerdes, Friedemann Bieber und Claus Hecking. 2015. Nicht vor meiner Tür, in: „Die Zeit“ vom 26. 11. 2015. Stigler, George J. 1971. The Theory of Economic Regulation, in: The Bell Journal of Economics and Management Science, Vol. 3, No. 1, S. 3–21. Strunz, Sebastian, Erik Gawel und Paul Lehmann. 2015. The Political Economy of Renewable Energy Policies in Germany and the EU, UFZ Discussion Papers, Leipzig. Sühlsen, Kathrin und Matthijs Hirsschemöller. 2014. Lobbying the ‚Energiewende‘. Assessing the effectiveness of strategies to promote the renewable energy business in Germany, in: Energy Policy, Vol. 69, S. 316–325. SVR. 2016. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung, Jahresgutachten 2016/2017: Zeit für Reformen, Wiesbaden. SVR. 2013. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung, Jahresgutachten 2013/14: Gegen eine rückwärtsgewandte Wirtschaftspolitik, Wiesbaden. Tullock, Gordon. 1967. The Welfare Costs of Tariffs, Monopolies and Theft, in: Western Economic Journal, No. 5, S. 224–232. Vossler, Christian. 2014. Entwicklung und Reformmöglichkeiten des EEG aus Sicht der neuen politischen Ökonomie, in: Zeitschrift für Umweltpolitik und Umweltrecht, Nr. 2, S. 198–223. Wustlich, Guido. 2014. Das Erneuerbare-Energien-Gesetz 2014, in: Neue Zeitschrift für Verwaltungsrecht (NVwZ), Heft 17, S. 1113–1121.

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

59

Anhang Korreferat zum Beitrag von Susanne Cassel Rahel Schomaker In einer pluralistischen Gesellschaft gibt es eine Vielzahl unterschiedlicher Weltanschauungen, immer weniger Bürger teilen die exakt gleichen Wertvorstellungen und Grundüberzeugungen. Aus diesem Grund erscheint eine Konsensfindung gerade bei Themenkomplexen, die normativ belegt sind sehr schwierig, selbst wenn diese Bereiche aufgrund ihrer Bedeutung für Wirtschaft und Gesellschaft einer politischen und rechtlichen Regelung bedürfen. Zu diesen Themenfeldern zählt aktuell unter anderem die Energiewende, die geplante vollständige Transformation des Energieversorgungssystems in Deutschland. Wie Susanne Cassel in ihrem Beitrag sehr kenntnisreich, umfassend und strukturiert darlegt, gehen mit dieser Transformation Struktur- und Prozessemergenzen einher, die erhebliche Herausforderungen für Märkte, aber auch politisch-administrative Institutionen und nicht zuletzt die Bürger bedeuten. Diese sind nicht nur als Verbraucher betroffen, welche die marktlichen Folgen der Energiewende etwa in Form von Preissteigerungen tragen müssen, sondern etwa auch durch den Ausbau von Netzen oder den Bau von Energieerzeugungseinrichtungen. Es gibt eine Vielzahl von Akteuren mit zum Teil sehr unterschiedlichen Interessen innerhalb auch einzelner Marktseiten oder Stakeholdergruppen. In diesem Zusammenhang stellen sich insbesondere Fragen nach den Interessen einzelner Stakeholder, aber auch nach Legitimation und der Akzeptanz letztlich getroffener Entscheidungen in der Gesellschaft. Wie von Susanne Cassel sehr übersichtlich dargelegt, zeichnet sich die Energiewende durch eine hohe Komplexität aus, die neben vielen Zielvorstellungen damit zwangsläufig auch Zielkonflikte auslöst. Dies gilt umso mehr, wenn Regelungen allgemeiner Natur getroffen werden, welche über Zulässigkeit oder Zumutbarkeit bestimmter Technologien und Verfahren entscheiden, die zum Teil mit erheblichen Folgekosten behaftet sind. Hier wird regelmäßig zur Konsensfindung nicht nur eine Abstimmung im Sinne eines legislativen Prozesses notwendig sein, sondern eine vorausgehende Diskussion über die den divergierenden Positionen zugrundeliegenden Wertvorstellungen, wenn auch nicht nur diese, sondern ebenfalls Partikularinteressen der Akteure handlungsleitend sein mögen. Damit sind ebenfalls neue oder zumindest grundlegend veränderte Verfahren und Institutionen erforderlich, welche die öffentliche Debatte abbilden, daran teilnehmen und diese in Form von „geronnener Politik“ beeinflussen können. Somit sind alle Analysefelder, in welche der Bereich Politik aufgegliedert werden kann, vom Themenkomplex Energiewende betroffen: Politische Inhalte und Programme (policy), politische Prozesse im Sinne von Meinungsbildung und Entscheidungsfindung (politics) sowie politische Strukturen und Organisationen (polity).

60

Susanne Cassel

Zu dieser national begrenzten tritt eine weitere, internationale Dimension: Europäische Integration und eine fortschreitende Globalisierung erfordern eine weitreichende Regelung dieses Politikfeldes über nationale Grenzen, insbesondere da die Reichweite der mit dem Politikfeld verbundenen Problematiken im Sinne „Öffentlicher Güter“ nicht national begrenzt ist, sondern die mit Energieerzeugung und Energienutzung verbundenen Auswirkungen vielmehr globale öffentliche Güter zu schädigen vermögen. Daher müssen auch die im internationalen Raum vorherrschenden Interessen in die innerstaatliche Debatte einbezogen werden, die Notwendigkeit eines staatenübergreifenden Diskurses steigt. Die verschiedenen mit der Energiewende verbundenen Positionen sind zwar einerseits sehr stark von Überzeugungen und Wertvorstellungen bestimmt, lassen sich aber nicht in das klassische links-rechts-Schema einordnen; auch andere traditionelle Kategorisierungen sind an dieser Stelle nicht problemlos anwendbar. Wie im Beitrag von Susanne Cassel deutlich wird, entstehen aus einer Vielzahl von Interessen auch neue Koalitionen sowie die Frage nach der Durchsetzbarkeit der Interessen bestimmter Akteure in der politischen Arena. Die Parteien- und Koalitionenbildung verläuft quer durch politische Parteien und gesellschaftliche Gruppen, es kommt so zu sehr ungewöhnlichen Akteurskonstellationen. So etwa gehen traditionell „grüne“ Positionen, welche von Abgeordneten der Partei „Die Grünen“ oder der SPD vertreten werden, zum Auf- und Ausbau erneuerbarer Energien durchaus konform zu den Interessen von etwa Landwirten, welche durch Solar- oder Windkraftanlagen profitieren und Industrieunternehmen, welche in diesem Sektor produzieren, nicht jedoch mit den Positionen etlicher Naturschutzverbände (Schütte et al. 2015). Diese sind oftmals mit ähnlichen, ablehnenden Positionen in ihrer Positionierung näher bei den Dachverbänden der Industrie sowie traditionellen Energieerzeugern und Verbraucherverbänden. Diese Beobachtungen und die Abkehr vom traditionellen Parteienschema gelten für die Bundesebene, insbesondere aber für die Bundesländer mit ihrer starken Prägung durch industriepolitische Interessen, wie auch Susanne Cassel herausstellt. Um dieser Besonderheit gerecht zu werden, mag bei der Bestimmung und Diskussion der einzelnen Positionen ein theoretischer Ansatz hilfreich sein, der sowohl die Wertvorstellungen und Interessen, welche die einzelnen Gruppen vereinen, als auch die Herkunft der Gruppenmitglieder aus unterschiedlichen Institutionen, Parteien und gesellschaftlichen Gruppierungen berücksichtigt. Zweckmäßig erscheint dazu der in den 1980er Jahren von Paul A. Sabatier entwickelte Advocacy-Koalitionenrahmen, welcher „Wertvorstellungen“ oder „Überzeugungen“ eine eigenständige Bedeutung für den politischen Prozess einräumt. Dieser Ansatz sieht innerhalb eines Policy-Subsystems den Zusammenschluss verschiedener Akteure, die „gemeinsame normative und kausale Vorstellungen haben und ihre Handlungen oft abstimmen“, zu Koalitionen vor. Diese Akteure haben unterschiedliche Positionen im politischen System inne; explizit werden durch Sabatier nur politische Eliten erwähnt, es ist jedoch davon

Politische Ökonomie der Energiewende: Reformen des EEG im Interessengeflecht

61

Tab. 1: Ausgewählte Strukturmerkmale des „Belief Systems“ nach Sabatier. Hauptkern

Policy-Kern

Sekundäraspekte

Charakteristik

Fundamentale normative und ontologische Richtlinien

Für die Durchsetzung des Policy-Kerns notwendige instrumentelle Entscheidungen und Informationssuche

Wirkungsbereich

Alle Subsysteme

Variabilität / Beeinflussbarkeit durch äußere Umstände

Sehr gering

Policy-Positionen, welche die grundlegenden Vorstellungen des Hauptkerns berücksichtigen; sollen diese innerhalb des Subsystems umsetzen Abhängig vom jeweiligen Subsystem Gering, aber möglich durch entsprechende Erfahrungen

Spezifisch für jedes Subsystem Relativ hoch

Quelle: Eigene Darstellung in Anlehnung an Sabatier 1993

auszugehen, dass der Begriff des Akteurs auch auf andere Gruppen ausgedehnt werden kann, solange sie politisch aktiv sind (Sabatier 1993).7 Insbesondere für Politikfelder, in denen neben staatlichen Institutionen viele gesellschaftliche Gruppierungen engagiert sind, ist an dieser Stelle die Tatsache relevant, dass Sabatier nicht zwischen staatlichen und nichtstaatlichen Akteuren unterscheidet; beide Gruppen können gleichermaßen in Policy-Subsystemen aktiv werden und in Koalitionen zusammenarbeiten (Sabatier 1993: 122 ff). Koalitionen werden gebildet aus Akteuren, welche ein gleiches „Belief System“, d. h. ein bestimmtes Set grundlegender Werte und handlungsleitender Interessen teilen und „über längere Zeit einen durchschnittlichen Grad koordinierter Handlungen aufweisen“ (Sabatier 1993: 127). Diese „Belief Systems“ der einzelnen Koalitionen lassen sich in drei Kategorien aufschlüsseln: Den grundlegenden Hauptkern; den Policy-Kern und die sekundären Aspekte (siehe Tab. 1). Die einzelnen Akteure werden dem Advocacy-Koalitionen-Ansatz zufolge nicht primär durch kurzfristige Eigeninteressen geleitet, sondern handeln oftmals zumindest zusätzlich aus tiefgreifenden Überzeugungen heraus. Aus diesem Grund ist die Zusammensetzung der jeweiligen Koalitionen normalerweise über einen Zeitraum von rund zehn Jahren relativ stabil, sofern die Akteure gleiche Kernüberzeugungen teilen; es kann jedoch auch zu kurzfristigen Allianzen kommen. Die gemeinsamen Überzeugungen in staatliche Maßnahmen umzusetzen, ist Hauptziel

7 Als politische Eliten nennt Sabatier an dieser Stelle Verwaltungsbeamte, Politiker, Wissenschaftler oder hochrangige Vertreter von Interessengruppen.

62

Susanne Cassel

der Koalitionen; ihr Erfolg hierbei hängt nach Sabatier jedoch im Wesentlichen von ihren finanziellen und personellen Ressourcen sowie ihrer Autorität ab. Für das Politikfeld „Energiewende“ als Subsystem im Sinne des Ansatzes von Sabatier lassen sich auf nationaler wie auf Europäischer und internationaler Ebene verschiedene Advocacy-Koalitionen bestimmen, welche die Debatte bestimmen und somit auch Einfluss auf Neuregelungen und Anpassungen des Politikfeldes Energiewende auf deutscher und europäischer Ebene haben werden. Eine weitergehende Analyse der politökonomischen Implikationen der Energiewende könnte sich entsprechend des vorgestellten Ansatzes bedienen, um aktuelle Positionen, aber auch die dynamische Anpassung der einzelnen Koalitionen weitergehend zu untersuchen.

Literatur Sabatier, Paul A. 1993. Advocacy-Koalitionen, Policy-Wandel und Policy-Lernen: Eine Alternative zur Phasenheuristik. In: Héritier, Adrienne: Policy-Analyse. Kritik und Neuorientierung. Politische Vierteljahresschrift. Sonderheft 24/1993. Opladen. Schütte, Matthias, Anne Gerdes, Friedemann Bieber und Claus Hecking. 2015. Nicht vor meiner Tür. In: „Die Zeit“ vom 26. 11. 2015.

Thomas Mayer

Banken- und Finanzregulierung: Viel Spreu und wenig Weizen 1 2 3 4 5

6

Wofür sind Regeln gut? 63 Gute und schlechte Regeln im Finanzbereich 64 Systembedingte schlechte Regeln 66 Organisatorische Vorschriften zerstören den liberalen Rechtsstaat Ein stabiles System und gute Regeln 71 5.1 Trennung von Kreditvergabe und Geldschöpfung 72 5.2 Kaufleute statt Finanztheoretiker am Kapitalmarkt 75 Fazit 77

70

1 Wofür sind Regeln gut? Regeln sind ein wesentliches Koordinationsinstrument in einer Gesellschaft freier Individuen. Sind sie von abstrakter Natur und allgemein formuliert, erlauben sie größtmögliche individuelle Freiheit aller Gesellschaftsmitglieder. Ohne Regeln bestünde die Koordination aus einem kräftezehrenden, dauernden Kampf, und mit konkreten Vorschriften gäbe es keine individuelle Freiheit. Regeln entstehen am besten über Versuch und Irrtum in der praktischen gesellschaftlichen Koordinierung und begründen ihre Gültigkeit durch gesellschaftliche Übereinkunft. Sie verfolgen keinen besonderen Zweck, sondern dienen nur der Koordinierung zweckgebundener Handlungen der Gesellschaftsmitglieder. Sind sie allgemein akzeptiert, können sie in der Gesetzgebung formuliert werden. Diese erfindet nicht die Regeln, sondern findet sie durch genaue Beobachtung erfolgreicher gesellschaftlicher Koordinierung.1 Den Regeln der Gesellschaft (griechisch nomos) stehen die Vorschriften gegenüber, die eine Organisation braucht, um zu funktionieren (thesis). Das für die Gesellschaft wichtigste organisatorische Vorschriftenwerk ist das, welches sich der Staat durch die Gesetzgebung gibt, um die Macht exekutiver Gewalt zu kontrollieren. Andere staatliche Vorschriftenwerke betreffen die Steuererhebung zur Finanzierung öffentlicher Aufgaben und diese Aufgaben selbst, wie z. B. die Landesverteidigung oder die Gewährleistung der öffentlichen Sicherheit durch die Polizei. Im Gegensatz zu den gesellschaftlichen Regeln sind die Vorschriften von Natur spezifisch und aufgestellt, um einen bestimmten Zweck zu erreichen.

1 F. A. von Hayek, Law, Legislation and Liberty, A New Statement of the Liberal Principles of Justice and Political Economy. Routledge (London & New York) 2013. Thomas Mayer, Der Autor ist Gründungdirektor – Flossbach von Storch Research Institute https://doi.org/10.1515/9783110554861-005

64

Thomas Mayer

The law of organization of government is not law in the sense of rules defining what kind of conduct is generally right, but consists of directions concerning what particular officers or agencies of government are required to do. They would more appropriately be described as the regulations or by-laws of government. Their aim is to authorize particular agencies to take particular actions for specified purposes, for which they are assigned particular means. But in a free society, these means do not include the private citizen.2

Schlechte Regeln entstehen, wenn der Gesetzgeber gesellschaftliche Regeln (nomos) durch organisatorische Vorschriften (thesis) deformiert oder außer Kraft setzt. Kein einzelner Mensch und keine spezifische Gruppe von Menschen haben das Wissen, um Regeln so zu setzen, dass diese die größtmögliche individuelle Freiheit erlauben. Indem sie ihre eigenen Vorstellungen durchsetzen, beschneiden sie zwangsläufig über das nötige Maß hinaus die Freiheit der übrigen Mitglieder der Gesellschaft. Ohne individuelle Freiheit ist aber eine gesunde Entwicklung weder von Gesellschaft noch Wirtschaft möglich. Beide brauchen die Beiträge aller Gesellschaftsmitglieder, um sich optimal entfalten zu können. „During the last hundred years it has been chiefly in the service of so-called ‘social’ aims that the distinction between rules of just conduct and rules for the organization of the services of government has been progressively obliterated.”3 In Reaktion auf die Finanzkrise hat der Staat im Finanzsektor diesen Unterschied mit dem Ziel zerstört, durch organisatorische Vorschriften negative externe Effekte dieses Sektors auf die Realwirtschaft zu verhindern. Dabei hat ihm ein deformiertes Verständnis der Rechtswissenschaft geholfen: The fact that jurisprudence (especially on the European continent) has been almost entirely in the hands of public lawyers, who think of law chiefly primarily as public law, and of order entirely as organization, is chiefly responsible for the sway not only of legal positivism (which in the field of private law just does not make sense) but also of the socialist and totalitarian ideologies implicit in it.4

2 Gute und schlechte Regeln im Finanzbereich Gute Regeln sind von abstrakter Natur, allgemein, negativ formuliert und haben sich mit der Entwicklung der gesellschaftlichen Ordnung gebildet. Dazu gehören beispielsweise die Regeln, nicht zu täuschen und für seine Fehler einzustehen. Aus diesen abstrakten und allgemein formulierten Regeln lassen sich konkrete Handlungsverbote im Finanzbereich ableiten:

2 Hayek op. cit., S. 126. 3 Hayek op. cit. S. 125. 4 Hayek op. cit. S.127.

Banken- und Finanzregulierung: Viel Spreu und wenig Weizen







65

Du sollst nicht manipulieren: Kunden sind in vollem Umfang über die ihnen angebotenen Produkte zu informieren. Es darf nichts verschwiegen oder falsch dargestellt werden, um ihre Entscheidungen zu manipulieren. Du sollst nicht zu Lasten anderer handeln: Anbieter und Nachfrager haften jeweils für ihre Fehler. Für Anbieter heißt dies nicht nur, dass sie für falsche oder unvollständige Aufklärung des Kunden, sondern auch für ihre falschen Geschäftsentscheidungen haftbar sind. Für Nachfrager heißt dies, dass sie für Entscheidungen die Verantwortung übernehmen, die sie aus freien Stücken und ohne dabei getäuscht worden zu sein getroffen haben. Wer Verluste erleidet, muss sie selber tragen, auch wenn er Bankrott geht. Du sollst nicht täuschen: Manipulationen des Marktes durch vorgetäuschte Handlungen oder die Verbreitung gefälschter Informationen sind verboten. Zuwiderhandlungen werden bestraft.

Diese Handlungsverbote sind wenig umstritten. Allerdings gab es in der Vergangenheit nicht immer eine klare Definition und Überwachung zu ihrer Einhaltung. So wurde das Verbot der Marktmanipulation durch Täuschung erst in der jüngeren Vergangenheit konkretisiert. Außerdem wurde nur unzulänglich überwacht, inwieweit Anbieter die Entscheidungen ihrer Kunden durch Verschweigen von Informationen oder schiefe Darstellung von Sachverhalten manipulieren. Und schließlich wurde in der Finanz- und Eurokrise die Haftung für fehlerhafte oder unverantwortliche Entscheidungen außer Kraft gesetzt, um angeblich größeren Schaden für Wirtschaft und Finanzen zu vermeiden. Sofern diese Handlungsverbote nun genauer definiert bzw. ihre Einhaltung besser überwacht wird, sind Änderungen am regulatorischen Rahmen positiv zu bewerten. Allerdings gibt es auch aus guten Regeln abgeleitete Handlungsverbote, die schlecht begründet sind. Dazu gehört zum Beispiel das Verbot des Handelns auf der Grundlage von „Insiderinformation“. Einerseits scheint dieses Verbot aus dem Verbot von Handlungen zu Lasten anderer zu kommen. Wettbewerber im Markt sollen sich nicht Vorteile verschaffen können, die auf Kosten anderer Wettbewerber gehen. Andererseits steht hinter ihm die Vorstellung, dass Information ein objektiv vorhandenes öffentliches Gut ist, das allen Akteuren am Markt gleichermaßen anzubieten ist. Diese Vorstellung ist falsch, weil die Marktteilnehmer auf der Grundlage der von ihnen erworbenen Information und der ihnen eigenen Kenntnis der wirtschaftlichen Zusammenhänge aus ihrer subjektiven Sicht heraus handeln. Das Wissen der einzelnen Marktteilnehmer ist immer unvollständig und von Individuum zu Individuum verschieden. Mit anderen Worten, jeder am Markt Handelnde ist ein „Insider“ in Bezug auf das für seine Handlungen wichtige Wissen. Folglich ist es sinnwidrig, zwischen öffentlichem und privatem Wissen zu unterscheiden und jemandem zu verbieten, auf der Grundlage nur ihm zugänglicher Information zu handeln, es dagegen jemandem zu erlauben, zu handeln, wenn er davon Wind bekommt.

66

Thomas Mayer

Schlechte Regeln sind von einer zentralen staatlichen Planungsinstanz entwickelte, detaillierte Handlungsvorschriften im gesellschaftlichen oder wirtschaftlichen Bereich. Die von der Planungsinstanz aufgestellten Vorschriften basieren notwendigerweise nur auf einer kleinen Teilmenge des in den Köpfen der Marktteilnehmer vorhandenen Wissens. Dadurch entsteht ein Konflikt zwischen dem in den Vorschriften verkörperten geringeren Wissen der Planungsinstanz und dem in den Köpfen der Marktteilnehmer steckenden überlegenen Wissen. Da die Planungsbehörde mit staatlicher Macht ausgestattet ist, ihre Vorschriften durchzusetzen, wird der Konflikt dadurch gelöst, dass die Marktteilnehmer die Vorschriften dem Wortlaut nach befolgen, ihren Sinn aber durch Umgehung konterkarieren, wenn sie sich davon Vorteile versprechen. Dieses Verhalten ist als „Regulatory Arbitrage“ hinlänglich bekannt. Seit der Finanzkrise wird oft die mangelnde Moral im Finanzsektor beklagt. Dabei wird unterstellt, dass die Befolgung der von der staatlichen Planungsinstanz aufgestellten, detaillierten Vorschriften allein nicht ausreicht, denn sonst würde auf die mangelnde Rechtstreue verwiesen werden. Diese wird zwar auch beklagt, aber der Umstand, dass außer der Einhaltung der aufgestellten Vorschriften zusätzlich „moralisches Verhalten“ eingefordert wird, verweist auf den Konflikt zwischen gesellschaftlichen Regeln (nomos) und organisatorischen Vorschriften (thesis). Denn was anderes kann denn moralisches Verhalten bedeuten als regelgerechtes Verhalten? Wenn aber verlangt wird, detaillierte Vorschriften einzuhalten wo sie nicht hingehören, eröffnet sich für Verhalten, das „moralisch“ begründete Regeln verletzt, viel Spielraum. Der „unmoralisch“ Handelnde verliert sein Schuldbewusstsein, wenn seine eigentlich „unmoralischen“ Handlungen vollständig mit den detailliert aufgestellten Handlungsvorschriften der Regulierungsinstanz übereinstimmen. Die Konsequenz daraus wäre, statt zentral geplanter, detaillierter Handlungsvorschriften allgemeine und abstrakte Regeln aufzustellen, die sich „spontan“ (d. h. ungeplant) entwickelt haben.

3 Systembedingte schlechte Regeln Die Banken- und Finanzkrise hat schwere strukturelle Mängel in unserem Geldund Finanzsystem offenbart. Die Antwort der Politik darauf war, die detaillierten Handlungsvorschriften für die Branche zu erweitern und zu verschärfen. Geld wird in einer öffentlich-privaten Partnerschaft erzeugt: Die Banken schaffen Giralgeld über die Kreditvergabe als privates Schuldgeld. Die Zentralbank steuert den Prozess der Geldschaffung, indem sie den Geldmarktsatz unter Banken bestimmt, und sie stellt Zentralbankgeld in Form von Banknoten bereit, wenn die Inhaber von privatem Schuldgeld dieses in gesetzliches Zahlungsmittel tauschen wollen. Die staatliche Regulierungsbehörde setzt die Vorschriften für den Bankbetrieb. Dieses System ermöglicht wiederkehrende Kreditzyklen, die zu erheblichen

Banken- und Finanzregulierung: Viel Spreu und wenig Weizen

15

% Veränderung

% des BIP

67

15 10

10

5

5

0 0 –5 –5 –10

–10 Reale private heimische Nachfrage Kreditimpuls (r.Sk.)

–15

–15

1928 1932 1936 1940 1944 1948 1952 1956 1960 1964 1968 1972 1976 1980 1984 1988 1992 1996 2000 2004 2008 2012

–20

Abb. 4: Reale private Nachfrage und Kreditimpuls in den USA; 1928 – 2015 * Der Kreditimpuls ist definiert als Veränderung der Kreditströme relativ zum BIP. Quelle: US Federal Reserve.

wirtschaftlichen Verwerfungen führen können. In der Geschichte der letzten hundert Jahre zählen dazu die Depression nach dem Aktienmarktcrash von 1929 und die Große Rezession nach der Kreditkrise von 2007–09.5 Der Zusammenhang zwischen Entwicklungen der Realwirtschaft und des Kredits ist in Abb. 4 am Beispiel der USA dargestellt. Die Kreditvariable ist als Veränderung der Kreditströme (zweite Differenz der Bestände) in Relation zum Bruttoinlandsprodukt definiert. Ich habe sie „Kreditimpuls“ genannt, weil sie zeigt, dass entgegen der landläufigen Meinung in kritischen Phasen der Kredit der realen privaten Nachfrage vorauseilt. Die Wirkungen des Einbruchs der Kreditvergabe nach dem Aktienmarktcrash von 1929 und der Bankenpleiten von 2008 sind in Abbildung 4 klar erkennbar. Auf den Kapitalmärkten handeln viele Akteure nach Prinzipien, die in der modernen Finanztheorie entwickelt wurden. Diese Theorie hat aber so gravierende Mängel, dass ihre Anwendung ebenfalls zu wiederkehrenden Kapitalmarktkrisen geführt hat. Ein herausragendes Beispiel dafür ist die jüngste Krise am amerikanischen Hypothekenmarkt, die durch Produkte entstand, die auf der Grundlage der Portfoliotheorie der modernen Finanztheorie gestaltet wurden.6 Staatliche Instanzen haben auf die Banken- und Finanzkrise mit einer Verschärfung ihrer Handlungsvorschriften reagiert. Dazu gehört das vom Basler Ausschuss der Bank für Internationalen Zahlungsausgleich (BIZ) entwickelte Vorschriftenwerk für Banken (Basel III), das von der Europäischen Union durch die Capital

5 Siehe dazu Jesus Huerta de Soto, Geld, Bankkredit und Konjunkturzyklen. Lucius und Lucius (Stuttgart) 2011 und Thomas Mayer, Die Neue Ordnung des Geldes. Finanzbuchverlag (München) 2014. 6 Siehe dazu Thomas Mayer, Die neue Kunst Geld anzulegen. Finanzbuchverlag (München) 2016.

68

Thomas Mayer

Requirements Directive (CRD) umgesetzt wurde. Die wesentlichen Elemente dieser Vorschriftenwerke sind eine Erhöhung der Eigenkapitalanforderungen und der Liquiditätshaltung der Banken. Dabei werden zur Berechnung der Eigenkapitalquote nicht nur präzise Vorschriften über deren Höhe, sondern auch Vorschriften zur Definition des Eigenkapitals und zur Berechnung der Bilanzsumme gemacht. Zur Sicherung der Liquidität müssen die Banken liquide und frei verfügbare Anlagen hoher Qualität halten, welche auch in Krisenzeiten verkäuflich sind. Idealerweise sollten sie von einer Zentralbank als Sicherheiten akzeptiert werden (Liquidity Coverage Ratio). Außerdem wird von den Banken verlangt, dass sie in Abhängigkeit vom Fälligkeitsprofil ihrer Forderungen über langfristige Finanzierungsquellen verfügen (Net Stable Funding Ratio). Auch die Versicherungswirtschaft soll durch striktere Regulierung sicherer werden. Mit ihrem Vorschriftenwerk „Solvency II“ will die EU-Kommission in einer grundlegenden Reform des Versicherungsaufsichtsrechts in Europa die Solvabilitätsvorschriften für die Eigenmittelausstattung neu ordnen. Das Vorschriftenwerk besteht aus drei „Säulen“: Säule I regelt die Eigenkapitalanforderungen, Säule II stellt spezifische Anforderungen an das Risikomanagement und Säule III regelt Berichterstattungspflichten der Versicherungsunternehmen. Darüber hinaus wird auch noch die Beaufsichtigung von Versicherungsgruppen neu geregelt. Gleichzeitig wurden die Bestimmungen zur Banken- und Finanzmarktaufsicht sowie zur Abwicklung von Banken verschärft. In den USA wurde mit dem DoddFrank Act die Banken- und Finanzindustrie enger an die Kandare genommen. Das 541 Artikel umfassende, über 849 Seiten gehende Gesetz schafft unter anderem mit dem Financial Stability Oversight Council einen Rat zur Überwachung der Stabilität des US-amerikanischen Finanzmarktes und zur Koordinierung der Aktivitäten der Finanzmarktaufsichtsbehörden des Bundes. Der Rat kann mit Zweidrittelmehrheit Finanzdienstleistungsunternehmen außerhalb des Bankensektors unter die Aufsicht der US-amerikanischen Zentralbank stellen. Außerdem ermächtigt das Gesetz die Finanzmarktaufsichtsbehörden des Bundes, bestimmte Finanzdienstleistungsunternehmen unter Zwangsverwaltung zu stellen und geordnet abzuwickeln, wenn diese in finanziellen Schwierigkeiten sind und eine Bedrohung für die Stabilität des Finanzmarkts der Vereinigten Staaten darstellen. Des Weiteren verstärkt das Gesetz die aufsichtsbehördliche Regulierung von Banken, Sparkassen und deren Holdinggesellschaften und es beschränkt Banken in den Möglichkeiten, auf eigene Rechnung am Finanzmarkt riskante Wetten einzugehen. Die Verstärkungen beinhalten bedeutende Beschränkungen des Eigenhandels und des Sponsorings von Investitionen in Hedgefonds oder Private Equity Fonds für Banken durch die nach dem ehemaligen Vorsitzenden des Federal Reserve Board benannte Volcker-Regel. Den Banken ist der Eigenhandel nur noch erlaubt, wenn dadurch eigene Risiken abgesichert werden sollen. Dazu kommen eine bessere Aufsicht über Tochtergesellschaften, die über keine Bankenlizenz verfügen, verbesserte Beschränkungen für Geschäfte mit nahestehenden Personen,

Banken- und Finanzregulierung: Viel Spreu und wenig Weizen

69

Beschränkungen für Risiken im Zusammenhang mit Derivaten und für das Gegenparteirisiko bei der Wertpapierleihe und die Pflicht für Unternehmen, die eine bei der staatlichen Einlagenversicherungsgesellschaft versicherte Gesellschaft beherrschen, die Finanzen solcher Gesellschaften zu stärken. Der Wirtschaftshistoriker Charles Geisst schrieb dazu in der New York Times vom 25. Juni 2010: „Not since the Great Depression, when the mighty House of Morgan was cleaved in two, have Washington lawmakers rewritten the rules for Wall Street as extensively as they did on Friday.“ 7 Inzwischen ist die Regierung von Donald Trump dabei, das überaus sperrige Regelwerk wieder zu ändern und teilweise zurückzubauen. In Europa wurde mit dem „Single Supervisory Mechanism“ (SSM) ein einheitlicher Mechanismus zur Bankenaufsicht in Europa geschaffen. Der SSM setzt sich aus der EZB und den nationalen Aufsichtsbehörden der teilnehmenden Länder zusammen. Die neue Bankenaufsicht soll: (1) die Sicherheit und Solidität des europäischen Bankensystems gewährleisten; (2) die Finanzintegration und -stabilität stärken; und (3) eine einheitliche Aufsicht sicherstellen. Der SSM ist neben dem Einheitlichen Abwicklungsmechanismus (Single Resolution Mechanism – SRM) eine der beiden Säulen der EU-Bankenunion. Der Einheitliche Abwicklungsmechanismus soll einen Rahmen für die geordnete Abwicklung von Banken schaffen, die in Schieflage geraten sind, auch über nationale Grenzen hinweg. Der SRM ist für alle Euro-Länder zuständig, zudem für EULänder, die freiwillig beitreten. Kernstück des institutionellen Rahmens des SRM ist die Errichtung eines Einheitlichen Abwicklungsgremiums (Single Resolution Board, SRB), einer europäischen Agentur mit eigener Rechtspersönlichkeit. Entschließt sich das SRB, ein Institut abzuwickeln, können Europäische Kommission und Rat der Europäischen Union das Konzept binnen 24 Stunden ablehnen. Der Einheitliche Abwicklungsmechanismus wird durch einen Einheitlichen Abwicklungsfonds für Banken (Single Bank Resolution Fund, SBRF) ergänzt, der für eine Abwicklung benötigte finanzielle Mittel bereitstellen kann. Der SRM wurde in der Bank Restructuring and Resolution Directive (BRRD) in EU Recht umgesetzt. Die BRRD trat zu Beginn des Jahres 2016 in Kraft und wird sehr wahrscheinlich schon dieses Jahr zum Papiertiger. Mitte 2016 ergab sich aus dem Bankenstresstest der EZB (der Teil des einheitlichen Aufsichtsverfahrens ist), dass die italienische Traditionsbank Monte Paschi dei Siena (MPS) in Schieflage geraten war. Eine politisch beeinflusste Kreditpolitik und die schon lange dauernde Schwäche der italienischen Wirtschaft hatten Kredite in einem Umfang notleidend werden lassen, der nicht mit dem Eigenkapital der Bank abgefangen werden konnte. Nach den Bestimmungen der BRRD hätte die Bank nun unter Beteiligung der Besitzer von Anleihen und Einlagen über 100.000 Euro rekapitalisiert oder abgewickelt werden sollen. Aus politischen Gründen stemmte sich die Regierung Renzi dagegen und versuchte, eine private Rekapitalisierung zu arrangieren. Ziel war es,

7 www.nytimes.com/2010/06/26/business/26morgan.html?scp=1&sq=Dodd/Frank%20Act&st=cse.

70

Thomas Mayer

eine möglicherweise drohende Abwicklung auf die Zeit nach dem Referendum zur Verfassungsreform Anfang Dezember zu verschieben. Wie erwartet scheiterten die Versuche einer privaten Rekapitalisierung Ende 2016. Dies führte nun aber keineswegs dazu, dass die Bank abgewickelt wurde. Vielmehr will sich die neue Regierung Gentiloni eine Bestimmung der BRRD zu Nutze zu machen, nach der eine Bank, die zwar gefährdet aber solvent ist, nicht abgewickelt werden muss, sondern vorsorglich mit öffentlichen Mitteln rekapitalisiert werden kann. Nach den Regeln der staatlichen Unterstützung (State Aid Rules) sollen auch dabei die Besitzer nachrangiger Anleihen beteiligt werden. Doch die Regierung ist fest entschlossen, Privatanleger, die im Besitz dieser Anleihen sind, zu kompensieren.

4 Organisatorische Vorschriften zerstören den liberalen Rechtsstaat Die öffentlich-private Partnerschaft der Geldproduktion öffnet das Tor für das Eindringen organisatorischer Vorschriften in den Finanzsektor. Wie das oben erwähnte Beispiel zeigt, können diese Vorschriften nur schlecht durchgesetzt werden. Außerdem unterminieren sie den liberalen Rechtsstaat, weil sie entweder gebrochen werden (siehe oben) oder, wenn sie mit staatlicher Gewalt durchgesetzt werden, die Freiheit des Einzelnen über das notwendige Maß einschränken. Für Joseph Schumpeter ist die eigenmächtige Kredit- und Geldschöpfung der Banken, ohne auf vorher gebildete Ersparnisse angewiesen zu sein, das Adrenalin für Wirtschaftswachstum im Kapitalismus: „Die Ausgabe neuer hierfür geschaffener Zahlungsmittel entspricht, da unsere Unternehmer keine eigenen Mittel haben und – bisher – keine Ersparnisse vorhanden sind, in der kapitalistischen Gesellschaft dem vom Zentralbüro des sozialistischen Staates gegebenen Befehl.“ 8 Schumpeter weist dem Bankensektor also eine zentrale Rolle für das Wachstum der Wirtschaft im kapitalistischen System zu. Mehr noch, die Fähigkeit der Banken, Kredite und Geld aus dem Nichts zu schaffen ist entscheidend, neue unternehmerische Aktivitäten spontan zu finanzieren. Alles, was nötig ist, ist die Entscheidung der Bank, den Kredit zu vergeben, und schon geht es los, wie im Sozialismus, wenn das Zentralbüro grünes Licht gibt. Aber die Vergabe von Krediten kann auch schief gehen. Zu viele oder die falschen unternehmerischen Aktivitäten können angestoßen werden. Dann kommt es zu einer Finanzkrise und Rezession, oder gar Depression. Doch ist dies Teil des kapitalistischen Prozesses. Eine Finanzkrise, in der Kredite abgeschrieben werden

8 Joseph Schumpeter, Konjunkturzyklen, Göttingen 2008, S.119, zitiert nach Stephan Balling, Sozialphilosophie und Geldpolitik. Lucius und Lucius, Stuttgart 2013.

Banken- und Finanzregulierung: Viel Spreu und wenig Weizen

71

müssen, weil Investitionen nicht die in sie gesetzten Erwartungen erfüllt haben, ist geballte schöpferische Zerstörung. Aber die schöpferische Zerstörung ist nicht nur der Motor für Wachstum und Expansion im kapitalistischen Wirtschaftssystem, sie zerstört am Ende wegen ihrer Wildheit auch den Kapitalismus selbst. Schumpeter erwartet im Lauf der Zeit eine zunehmende Aushöhlung des schöpferischen Unternehmertums durch den Aufstieg der Manager, Bürokraten und Intellektuellen in den Unternehmen und in der Gesellschaft, die eine gemäßigtere Entwicklung der Wirtschaft versprechen. Damit verliert der Unternehmer seine „individuelle Führerschaft“ und die Wirtschaftsstruktur wandelt sich zum bürokratischen Sozialismus. Am Ende braucht der Kapitalismus wegen seiner Zügellosigkeit „einen Polizisten und einen Protektor nicht-bürgerlicher Färbung, der ihn reguliert, schützt und ausbeutet“, nämlich den Staat.9 Mit den ausgebauten und neu gegründeten Regulierungsbehörden und organisatorischen Vorschriftenwerken schlüpft der Staat in die Rolle des „Polizisten …, der … reguliert, schützt und ausbeutet“. Er übernimmt zumindest indirekt die Verantwortung für eine sichere Geschäftsführung von Banken und Versicherungen und für das reibungslose Funktionieren der Finanzmärkte. Dabei kann er nicht erwarten, dass er das notwendige Wissen hat, die angestrebten Ziele zu erreichen. Wie oben erklärt, müsste er damit rechnen, dass die über mehr Wissen verfügenden Akteure im Finanzgewerbe dieses nun nicht primär einsetzen, um ihre Geschäfte sicher zu führen, sondern es dazu verwenden, ihre Ziele unter Umgehung der Regulierungsbehörden und Regulierungsvorschriften zu erreichen. Dies werden sie mit geringem oder ohne Unrechtsbewusstsein tun, da sie aus ihrer Sicht dem Recht durch die buchstabengenaue Einhaltung der detaillierten Handlungsvorschriften vollauf Genüge getan haben.

5 Ein stabiles System und gute Regeln Ein organisierter Finanzsektor mit detaillierten und starren Handlungsvorschriften erzeugt Fragilität in der Wirtschaft. Die Fragilität ist umso größer, je umfangreicher und detaillierter die zu befolgenden Regeln sind. Fehler der zentralen Planungsinstanz erfassen alle Teile des Systems und lassen es zerbrechen, wenn es unter stärkeren Druck kommt. Logischerweise wäre die Antwort auf ein fragiles System mit detaillierten Handlungsvorschriften ein robustes System mit allgemeinen und abstrakten Regeln. In einem robusten System haben die einzelnen Akteure die größtmögliche Freiheit, mit ihrem subjektiven, praktischen Wissen auf Schocks und Druck von außen zu reagieren. Dadurch hat es „Knautschzonen“, mit denen es

9 Schumpeter (Konjunkturzyklen), S. 679, zitiert nach Stephan Balling, Sozialphilosophie und Geldpolitik. Lucius und Lucius, Stuttgart 2013.

72

Thomas Mayer

Druck absorbieren kann. Anders als das fragile System zerbricht es nicht an Druck von außen, sondern widersteht dem und erholt sich davon ohne bleibende Nachwirkungen. Ein robustes System lässt sich nicht „von oben herab“ planen und einführen, sondern es muss „von unten herauf“ entstehen und Fuß fassen. Wenn aber ein geplanter Wechsel nicht möglich ist, dann muss der Weg zu einem neuen System zunächst durch die „schöpferische Zerstörung“ des bestehenden Systems frei gemacht werden. Ob diese in einer überschaubaren Zeit kommen wird, ist schwer zu sagen – auch schlechte Systeme haben manchmal sieben Leben. Wann und wie die schöpferische Zerstörung ablaufen könnte, ist noch schwerer zu sagen. Aber es ist möglich, zu spekulieren, wie ein besseres System aussehen könnte. Ich denke, es sollte drei Ansprüchen genügen: 1. Im Bankenbereich sollte die Kreditvergabe von der Geldschöpfung getrennt sein. 2. Im Finanzbereich sollte mit kaufmännisch begründetem, gesundem Menschenverstand gehandelt werden, statt nach Anweisungen die von einer irrigen Finanztheorie abgeleitet sind. 3. Geschäftspraktiken und Verhalten sollten von allgemeinen und abstrakten Regeln bestimmt sein, die sich mit der Entwicklung der gesellschaftlichen Ordnung gebildet haben.

5.1 Trennung von Kreditvergabe und Geldschöpfung Wie eingangs erläutert ermöglicht die Schöpfung privaten Schuldgelds durch die Banken mittels Kreditvergabe die Entstehung schädlicher Kreditzyklen. Dadurch dass die Banken kreditfinanzierte Ausgaben durch Geldschaffung vorfinanzieren können, sind ex-ante Abweichungen von der ex-post geltenden Identität von Ersparnis und Investitionen immer möglich. Die Abweichungen sind besonders wahrscheinlich, wenn der Kreditzins von einer Zentralbank manipuliert wird. Als zentrale Planungsinstanz kann die Zentralbank unmöglich den Kreditzins erahnen, der ex-ante Ersparnis und Investitionen dorthin bringt, wo sie ex-post hingehören. Folglich führt die Fehlerkorrektur zur Herstellung der ex-post Identität zu wiederkehrenden Boom/Bust-Kreditzyklen. Die Möglichkeit, durch die Geldschaffung über Kreditvergabe Zyklen zu erzeugen, ist mit der Entwicklung unserer Geldordnung stark angestiegen. Im Goldstandard des späten 19. und frühen 20. Jahrhunderts wurde privates Schuldgeld in Form von Giralgeld der Banken über Teilreservehaltung geschaffen. Banknoten der Zentralbanken waren in der Regel zu 100 Prozent durch Gold gedeckt. Der Geldmengenmultiplikator war durch den Reservesatz und die durch den Goldbestand bestimmte Zentralbankgeldmenge begrenzt. Im Bretton-Woods-System der Mitte des 20. Jahrhunderts war zwar der US Dollar, der als Ankerwährung für die anderen Währungen des Systems diente, an Gold gekoppelt, aber die US Federal Reserve selbst vermehrte die Dollargeldmenge durch Teilreservehaltung. Mit anderen Worten, sie emittierte mehr US Dollar als durch Gold gedeckt war, was schließlich einen „Bank Run“ auf die Fed auslöste, an dem das System zerbrach. In unserem

Banken- und Finanzregulierung: Viel Spreu und wenig Weizen

73

gegenwärtigen, in den 1970er Jahren entstandenen „Fiat-Geldsystem“, ist die Möglichkeit zur Schöpfung von privatem Schuldgeld nur noch durch die Eigenkapitalund (neuerdings) Liquiditätsanforderungen der Regulierungsbehörden eingeschränkt. Zur Absicherung des fragilen Schuldgeldes werden daher detaillierte Handlungsvorschriften als nötig erachtet. Diese fördern jedoch kontraproduktives Geschäftsgebaren. Wie erwähnt begünstigt die Forderung der buchstabengetreuen Einhaltung detaillierter Regeln die Missachtung übergeordneter allgemeiner und abstrakter Regeln, die sich nicht kleinteilig konkretisieren lassen. Sowohl die systembedingten Boom/Bust-Zyklen als auch das durch die Regulierung induzierte kontraproduktive Geschäftsgebaren könnten vermieden werden, wenn Geld direkt vom Emittenten statt über Kreditbanken als Schuldgeld in Umlauf gebracht würde. Eine ursprüngliche Form der direkten Emission von Geld ist das in Münzform in Zirkulation gebrachte neu geschürfte Gold. Direkt verwandt damit ist die von Wechselbanken durchgeführte Ausgabe von papiernen Verwahrscheinen für eingelagerte Gold- oder Silbermünzen, wie sie von der legendären Wechselbank von Amsterdam vom frühen 17. Jahrhundert bis Ende des 18. Jahrhunderts durchgeführt wurde. Später fand das Prinzip der Volldeckung von Papiergeld durch Gold Einzug in den Britischen Bank Charter Act von 1844. Die beabsichtigte Unterbindung der Geldschöpfung durch Kreditvergabe der Banken wurde jedoch verfehlt, da Sichtguthaben der Banken von der Volldeckung ausgenommen blieben. Dies versuchte der in der Depression von namhaften Ökonomen entwickelte Chicago Plan von 1933 nachzuholen, indem dort die Volldeckung von Giralgeld der Banken durch Reserven bei der Zentralbank gefordert wurde (deren Geld wiederum durch Gold gedeckt war). Daraus wurde jedoch nichts, da die Banklobby die Umsetzung dieses Plans durch die Regierung Roosevelt verhinderte. Stattdessen führte Roosevelt im Glass Steagall Act von 1933 das Trennbankensystem ein. Im Zuge der Finanzkrise feierte das „Vollgeldsystem“ des Chicago Plans im Rahmen unseres gegenwärtig bestehenden Fiat-Geldsystems ein Come-back.10 Demnach steht es sogar in der Schweiz in einer Volksabstimmung zur Wahl.11 Außerdem ist die direkte Emission von Geld vom Emittenten unabhängig von der Kreditvergabe der Banken durch die Entwicklung digitaler Währungen und Peer-toPeer Bezahlsystemen auf Basis der Blockchaintechnologie möglich geworden. Die Kryptowährung Bitcoin ist ein Beispiel dafür. Sie ist als (ungedecktes) Fiat-Geld konzipiert und wird von denjenigen Nutzern in Umlauf gebracht, die sich die (kostspielige) Mühe machen, die in der Blockchain erfassten Zahlungen zu prüfen und ihre Rechtmäßigkeit zu bestätigen. Gegenwärtig arbeiten alle namhaften Zentral-

10 Michael Kumhof and Jaromir Benes, The Chicago Plan Revisited, IMF (Washington D.C.) Working Paper No. 12/202 (August 2012) und Josef Huber, Monetäre Modernisierung − Zur Zukunft der Geldordnung: Vollgeld und Monetative, Metropolis (Marburg) 2012. 11 Siehe www.vollgeld-initiative.ch/.

74

Thomas Mayer

banken an digitalen Währungen, die die Möglichkeit der direkten Emission eröffnen. Geld bezieht seine Werthaltigkeit dadurch, dass der Nutzer darauf vertraut, es gegen Dinge eintauschen zu können, die er begehrt. Dies gilt für Schuldgeld ebenso wie das vom Emittenten direkt emittierte, mit Sachwerten gedeckte oder ungedeckte Geld. Entsprechend ihrer jeweiligen Bilanzierung habe ich alle Formen des Schuldgelds „Passivgeld“ und jene des direkt emittierten Gelds „Aktivgeld“ genannt.12 Da in der Aktivgeldordnung Geld nicht über Verschuldung geschaffen wird, ist dort der Verschuldungsgrad niedriger und die Wirtschaft robuster als in der Passivgeldordnung, wo hohe Verschuldung hohe Fragilität erzeugt. Wird Geld in der Aktivgeldordnung vom Emittenten direkt in Umlauf gebracht, fallen Banken auf die ihnen in den ökonomischen Lehrbüchern zugeteilte Aufgabe zurück, Sparguthaben einzusammeln, um daraus Kredite vergeben zu können. Der wesentliche Unterschied zwischen einem Investmentfonds für Anleihen und einer Bank wäre dann nur noch, dass die Bank mit ihrem Eigenkapital eine „First-Loss“Versicherung für den Sparer gibt. Bei einem Investmentfonds wirken sich Kreditausfälle direkt auf den Wert der Anteilsscheine aus. Bei einer Bank verliert der Einleger von Ersparnissen nur dann, wenn die Kreditausfälle das Eigenkapital der Bank übersteigen. Ist die Eigenkapitaldecke der Bank dünn und die Leverage Ratio entsprechend hoch, wird hohes Risiko durch höhere Einlagenzinsen belohnt. Ist die Eigenkapitaldecke dick, ist das Ausfallrisiko für den Einleger niedrig. Dementsprechend muss er mit einer niedrigeren Rendite rechnen. Ein weiterer Unterschied wäre, dass Beteiligungen an Investmentfonds liquider sind als Spareinlagen. Im Gegensatz zu Bankkrediten können Anleihen in der Regel vor Fälligkeit verkauft werden. Daher gibt es im Allgemeinen keine Beschränkung der Rückgabe von Anteilen eines Investmentfonds. Die Bank muss jedoch ihre Kredite fristenkongruent finanzieren, wenn sie kein Liquiditätsrisiko eingehen will. Folglich wäre die Laufzeit der Spareinlagen fest zu vereinbaren. Allerdings kann die Bank von Fristentransformation profitieren, wenn sie meint, das damit verbundene Liquiditätsrisiko kontrollieren zu können. Niedriger verzinsliche, kürzerfristige Einlagen würden dann genutzt, um längerfristige Kredite zu finanzieren. Allerdings würde der Einleger damit das Risiko eingehen, dass die Bank die Rückzahlung der Spareinlage verzögern muss, wenn es ihr nicht gelingt, diese durch eine andere zu ersetzen. Risikoaversive Sparer würden also Banken bevorzugen, die hohe Geldreserven halten. Der Zins auf Spareinlagen würde nicht nur die Eigenkapitalausstattung, sondern auch die Liquiditätsausstattung einer Bank widerspiegeln, wenn diese Fristentransformation betreibt. In Gegensatz zum bestehenden Kreditgeldsystem, in dem Staat und Zentralbank dem Bankkunden Solvenz- und Liquiditätsrisiko abnehmen, müsste der Kunde bei der reinen Bankintermediation in der Aktivgeldordnung diese Risiken selbst

12 Mayer (2014), op. cit.

Banken- und Finanzregulierung: Viel Spreu und wenig Weizen

75

tragen. Damit er dies kann, müsste die Bank ihre Risiken in einer leicht verständlichen Form offenlegen. Aktivgeld kann von einer staatlichen Organisation im Monopol oder privat im Wettbewerb hergestellt werden. Wird Geld staatsmonopolistisch emittiert, besteht immer die Gefahr, dass der Staat damit andere Ziele als das der Geldversorgung verfolgt. Er kann sich Einnahmen verschaffen oder versuchen, die Wirtschaftsentwicklung zu manipulieren. Auf diese Weise greift er in das frei entstandene gesellschaftliche Regelwerk ein und lenkt die Akteure. Wird Aktivgeld dagegen privat und im Wettbewerb der Emittenten geschaffen, steht wie bei jedem anderen privatwirtschaftlichen Anbieter das Ziel im Vordergrund, ein gutes Produkt für den Nutzer zu schaffen. Gegen den Währungswettbewerb wurde eingewendet, dass er zu höheren Informations- und Transaktionskosten führen würde und am Ende ein privates Geldoligopol oder -monopol stehen würde. Mit elektronischen Bezahlsystemen und digitalen Währungen sinken die Informationskosten jedoch. Außerdem haben starre Oligopole oder Monopole in einem dynamischen Markt im Ungleichgewicht keinen Bestand. Sobald Oligopol- oder Monopolrenten bei der Geldemission anfallen, werden neue Anbieter angeregt, in den Markt einzutreten. In einer digitalen Geldwirtschaft sind die Markteintrittsbarrieren relativ niedrig.

5.2 Kaufleute statt Finanztheoretiker am Kapitalmarkt Mit der Verwissenschaftlichung des Kapitalmarktgeschäfts wurde die Anfälligkeit des Markts für Krisen drastisch erhöht. Grund dafür ist, dass die das Kapitalmarktgeschäft heute bestimmende Moderne Finanztheorie eine auf falschen Annahmen fußende Pseudowissenschaft ist. So sind die Annahmen unhaltbar, dass die Verteilung der Finanzmarktpreise bekannt ist und diese der Gaußschen Normalverteilung entspricht.13 Auf einer oder beiden Annahmen fußen aber die Mean-Variance Optimierung nach Harry Markowitz in der Portfoliotheorie, die daraus abgeleiteten Modelle des „Value-at-Risk“ im Risikomanagement von Banken und Investmentfonds und die Optionspreistheorie nach Fisher Black und Myron Scholes. Auch ist die Annahme unhaltbar, dass sich Finanzmarktteilnehmer rational im Sinne der Theorie rationaler Erwartungen verhalten.14 Ohne diese Annahme fällt aber die von Eugene Fama aufgestellte These von der Effizienz der Finanzmärkte zusammen. Völlig unrealistisch sind die weiteren Annahmen, dass Märkte immer kontinuierlich und liquide sind und es eine risikofreie Anlage gibt. Dies gibt dem Capital Asset Pricing Model von William Sharpe, John Lintner und Jan Mossin den finalen Todesstoß. Kurz gesagt, alle wesentlichen Annahmen der modernen Finanztheorie

13 Siehe dazu Benoit Mandelbrot und Richard L. Hudson, The Misbehavior of Markets: A Fractal View of Financial Turbulence. Basic Books 2006. 14 Siehe Robert Shiller, Irrational Exuberance, Crown Business 2006.

76

Thomas Mayer

sind abwegig und die Theorie daher ungeeignet, das Handeln auf den Finanzmärkten zu erklären, geschweige denn Handlungsempfehlungen zu geben. Wie ich an andere Stelle ausführlicher beschrieben habe, hat die praktische Anwendung der Lehren der modernen Finanztheorie wesentlich zu den Kapitalmarktkrisen der jüngeren Geschichte beigetragen.15 Beispielhaft sei an dieser Stelle auf die Bildung von Portfolios verbriefter Hypothekenkredite von zweifelhafter Qualität, die sogenannten Collateralized Mortgage Obligations, im Sub-Prime-Segment der US Hypothekenmarkts verwiesen. Allein betrachtet hätten sich die Schuldner aufgrund ihrer mangelnden Kreditwürdigkeit nicht für eine Hypothek qualifiziert. Nach der modernen Portfoliotheorie kann jedoch das Risiko einzelner Anlagen reduziert werden, wenn die Preisveränderungen dieser Anlagen untereinander nicht oder negativ korreliert sind. Auf der Grundlage schlampiger Korrelationsberechnungen für regionale Ausfallraten von Hypothekenkrediten wurden scheinbar weniger riskante Hypothekenportfolios aus riskanten Einzelhypotheken gebildet. Im zweiten Schritt wurden die Portfolios in Tranchen aufgeteilt und für diese eine Reihenfolge im Empfang der Schuldendienstleistungen aufgestellt. Als erste sollte die am höchsten bewertete Tranche Schuldendienstzahlungen erhalten. Wenn alle höher bewerteten Tranchen bedient sind, sollte als letzte die am niedrigsten bewertete Tranche bedient werden. Die Rechnung ging nicht auf, die Produkte versagten und es kam zur Finanzkrise. Das Versagen der modernen Finanztheorie hat der verhaltensorientierten Finanztheorie (Behavioral Finance) Auftrieb gegeben. Wie die auf der Neoklassik fußende Moderne Finanztheorie leidet Behavioral Finance jedoch an seinem objektivistischen Ansatz. Statt des super-rationalen Homo Oeconomicus der Neoklassik wird dort die von Bauchgefühlen getriebene Comicfigur Homer Simpson seziert und modelliert. Sowohl der Homo Oeconomicus als auch Homer Simpson sind nützliche Modelle für Typen menschlichen Verhaltens. Diese Modelle können aber nicht beanspruchen, komplexes menschliches Verhalten in der Wirklichkeit umfänglich zu erklären. Außerdem ist es gefährlich, aus mikroökonomischen Modellen makroökonomische zu bauen, da es den dort unterstellten „repräsentativen“ Akteur aufgrund der Verschiedenheit der Menschen nicht gibt. Insgesamt ist die quantitative objektive Analyse menschlichen Verhaltens durch den Menschen problematisch, da der Mensch kein für andere Menschen berechenbares Wesen ist. Die Antwort auf dieses Methodenproblem ist der subjektive Ansatz der österreichischen Schule, der davon ausgeht, dass wirtschaftliches Handeln von dem artikulierten und unartikulierten Wissen bestimmt ist, das nur den selbst Handelnden zugänglich ist. Demnach handeln Wirtschaftssubjekte im Finanzmarkt weder rational noch irrational, wie in Modern Finance und Behavioral Finance unterstellt, sondern sie handeln subjektiv-rational, d. h., treffen Entscheidungen auf der

15 Mayer (2016).

Banken- und Finanzregulierung: Viel Spreu und wenig Weizen

77

Grundlage der ihnen zugänglichen Information und des ihnen eigenen Wissens um die wirtschaftlichen Zusammenhänge. Dies ist aber nicht berechenbar. Auf den Finanzmarkt bezogen heißt dies, dass die Akteure dort nach kaufmännischen statt nach wissenschaftlichen Prinzipien handeln müssen, wenn sie sich am Markt behaupten wollen. Sie kommen mit dem ihnen eigenen Wissen an den Markt und erweitern es dort im Austausch mit anderen Akteuren. Aus der Zunahme des Wissens ergeben sich neue Handlungen. Mit anderen Worten, das praktische wirtschaftliche Wissen entsteht und erweitert sich durch Versuch und Irrtum der Wirtschaftssubjekte am Markt und nicht durch das Studium von an den Universitäten konzipierten Lehrbüchern.

6 Fazit Die Finanz- und Eurokrisen haben die Fragilität unserer Banken- und Finanzordnung deutlich gemacht. Die Antwort der Politik darauf war, der Fragilität mit detaillierten Handlungsanweisungen zu begegnen. Diese Strategie ist zum Scheitern verurteilt, da der Regulierungsinstanz das Wissen fehlt, der Fragilität zu begegnen. In diesem Papier habe ich dafür plädiert, in unserem Banken- und Finanzsystem Robustheit zu schaffen, indem allgemeinen und abstrakten Regeln, die sich „spontan“ entwickelt haben, im Finanzsektor zur Gültigkeit verholfen wird. Dadurch erlangen die Wirtschaftssubjekte die größtmögliche Freiheit, mit ihrem dem zentralen Planer überlegenen subjektiven Wissen Druck oder Stöße von außen abzufangen. Statt zu zerbrechen, absorbiert das System Druck und erholt sich davon ohne bleibende Nachwirkungen. Eine Aktivgeldordnung und die Befolgung kaufmännischer Prinzipien auf den Kapitalmärkten schafft größere wirtschaftliche Robustheit und verführt nicht zu dem aussichtslosen Versuch, hoher Fragilität mit detaillierten Handlungsanweisungen begegnen zu wollen. Worauf es ankommt ist, dass jeder wirtschaftlich Handelnde für seine in Freiheit getroffenen Entscheidungen die Verantwortung übernimmt. Unternehmerische Freiheit muss mit Haftung einhergehen. Nur so ist es möglich, dass Handlungen dezentral dort entschieden werden, wo das dafür notwendige Wissen vorhanden ist. Jede Haftungsverschiebung auf eine höhere Ebene führt dazu, dass Handlungsentscheidungen mit geringerem Wissen als möglich getroffen werden. Dies führt zwangsläufig zu höherer Fragilität und Ineffizienz der Wirtschaft. Die Trennung der Geldschöpfung von der Kreditvergabe macht es nicht länger notwendig, die Gemeinschaft der Steuerzahler für den Ausfall von Krediten in Haftung zu nehmen, da bei Kreditausfällen Geld nicht mehr vernichtet wird. Gewinn und Risiko bei der Kreditvergabe werden wieder zusammengeführt. Ebenso schärft die Rückkehr zu kaufmännischen Prinzipien im Kapitalmarktgeschäft das Risikobewusstsein der Akteure, das durch die Alchemie des im Rahmen der modernen Finanztheorie entstandenen Finanzingenieurwesens verschüttet wurde. Der

78

Thomas Mayer

wirtschaftlich Handelnde muss sich das für seine Handlungsentscheidungen am Markt notwendige Wissen selbst bilden können. Notwendig sind daher Offenheit und Ehrlichkeit beim Austausch am Markt. Täuschung und Verschweigen wichtiger Informationen sind Regelverletzungen und müssen sanktioniert werden. Dabei kommt es nicht darauf an, alle am Markt Handelnden auf den gleichen „Wissensstand“ zu bringen, was ein Ding der Unmöglichkeit wäre. Vielmehr darf niemand im Bemühen, sein Wissen zu erweitern, vorsätzlich von einem anderen durch Täuschung oder Verschweigen behindert werden. Die Aussichten dafür, dass die Politik den vorgeschlagenen Kurswechsel durchführt, sind denkbar gering. Denn an Stelle des kritischen Rationalismus hat der rationale Konstruktivismus Konjunktur und treibt immer neue Blüten. Nicht nur im Bereich der Banken- und Finanzregulierung führt dies dazu, dass die Politik immer mehr Spreu statt Weizen produziert.

Literatur Stephan Balling. 2013. Sozialphilosophie und Geldpolitik. Stuttgart: Lucius und Lucius. F. A. von Hayek. 2013. Law, Legislation and Liberty, A New Statement of the Liberal Principles of Justice and Political Economy. London & New York: Routledge. Josef Huber. 2012. Monetäre Modernisierung − Zur Zukunft der Geldordnung: Vollgeld und Monetative, Marburg: Metropolis. Michael Kumhof and Jaromir Benes. 2012. The Chicago Plan Revisited, IMF (Washington D.C.) Working Paper No. 12/202. Thomas Mayer. 2016. Die neue Kunst Geld anzulegen. München: Finanzbuchverlag. Thomas Mayer. 2014. Die Neue Ordnung des Geldes. München: Finanzbuchverlag. Benoit Mandelbrot und Richard L. Hudson. 2006. The Misbehavior of Markets: A Fractal View of Financial Turbulence. Basic Books. Robert Shiller. 2006. Irrational Exuberance, Crown Business. Jesus Huerta de Soto. 2011. Geld, Bankkredit und Konjunkturzyklen. Stuttgart: Lucius und Lucius.

Justus Haucap und Ulrich Heimeshoff

Ordnungspolitik in der digitalen Welt 1 2

3

4 5

6

7

8

Einleitung 79 Führt die Digitalisierung zu einer Monopolisierung von Märkten? 82 2.1 Konzentration auf Plattformmärkten 82 2.2 Sinnvolle Anpassungen des Kartellrechts in der 9. GWB-Novelle 85 Datengetriebene Wettbewerbsveränderungen 87 3.1 Daten als Wettbewerbsfaktor 87 3.2 Big Data und Preisdifferenzierung 90 3.3 Geschäftsmodelle der Sharing Economy 95 Breitbandausbau 97 Kartellrechtsanwendung auf Online-Märkten 101 5.1 Anmerkungen zum Google-Shopping-Fall 101 5.2 Doppelpreissysteme 103 5.3 Bestpreisklauseln 105 5.4 Implikationen der 9. GWB-Novelle für digitale Märkte 107 Einige Beispiele des digitalen Wandels 109 6.1 Der Wandel der urbanen Mobilität: Car- und Ride-Sharing 109 6.2 Der Wandel des Literaturbetriebs: Amazon und die Buchpreisbindung 6.3 Der Wandel der Medienlandschaft 114 6.4 Andere Branchen 116 Auswirkungen der Digitalisierung auf die Arbeitswelt, die Rechtsdurchsetzung und das soziale Zusammenleben 7.1 Auswirkungen der Digitalisierung auf die Arbeitswelt 117 7.2 Auswirkungen auf Gesetzestreue und Steuerhinterziehung 118 7.3 Auswirkungen auf das soziale Zusammenleben 119 Fazit 120

112

117

1 Einleitung Durch die Digitalisierung kommt es zu einem Strukturwandel in vielen Bereichen der Wirtschaft und darüber hinaus zu erheblichen Veränderungen des gesellschaftlichen Zusammenlebens. Die Auswirkungen der Digitalisierung auf die Gesellschaft können durchaus mit denen der industriellen Revolution verglichen werden (vgl. etwa Brynjolfsson und McAfee 2014). Bisherige Marktstrukturen und Wertschöpfungsketten wandeln sich, sodass auch Besitzstände entwertet werden und sich wirtschaftliche und politische Machtgefüge verändern (vgl. Haucap 2016). Gleichwohl ist auch dieser technische Fortschritt nicht aufzuhalten, und er sollte auch gar nicht aufgehalten werden, auch wenn dies für einige schmerzhafte Anpas-

Anmerkung: Für sehr hilfreiche Kommentare danken wir Malte Krüger sowie den Teilnehmerinnen und Teilnehmern des 50. Forschungsseminars Radein. https://doi.org/10.1515/9783110554861-006

80

Justus Haucap und Ulrich Heimeshoff

sungsprozesse bedeutet. Der Verlust des einen ist jedoch fast immer auch die Chance eines anderen. Bei den Grundprinzipien der Sozialen Marktwirtschaft scheinen viele heute vor allem an die soziale Absicherung zu denken.1 Gleichwohl gehört auch die Ermöglichung von Chancen und Chancengerechtigkeit zu ihren Prinzipien. Eine Politik, die primär darauf abzielt, Besitzstände zu verteidigen (Google zerschlagen, Uber verbieten, Amazon regulieren), verhindert sowohl zahlreiche Chancen für Unternehmen und Unternehmer als auch Vorteile für viele Verbraucherinnen und Verbraucher. Eine Politik, die primär darauf abzielt, dass möglichst vieles so bleibt wie es ist und sich möglichst wenig verändert, blockiert auch den „Wohlstand für alle“. Die Kernfrage sollte heute nicht lauten, wie neue Technologien und Märkte unter „altes Recht“ gezwängt werden können („Preisbindung für E-Books“, „Ladenöffnungszeiten für Online-Shops“ etc.), sondern wie ein Rechtsrahmen aussieht, der zum einen mögliche Fehlentwicklungen und unerwünschte Nebenwirkungen der Digitalisierung verhindert, jedoch zugleich nicht unangemessen Chancen verhindert und positive Wirkungen unterdrückt. In Europa und in Deutschland werden nun viele der mit der Digitalisierung verbundenen Entwicklungen, bei denen oftmals amerikanische Unternehmen eine federführende Rolle spielen, mit großer Skepsis (vgl. etwa Schirrmacher 2015) und sogar Angst (vgl. Döpfner 2016) betrachtet. Da die europäische Internetwirtschaft zudem noch immer eine relativ geringe wirtschaftliche Bedeutung hat, dominieren – im Gegensatz zur Situation in den USA – die Besitzstandwahrer sehr deutlich die politischen Debatten in Europa. Darin liegt langfristig eine Gefahr für den Wirtschaftsstandort Deutschland und Europa, da auf dem Markt der Meinungen in Europa diejenigen dominieren, die keine Veränderungen wünschen. Das politische Gleichgewicht sieht aktuell so aus, dass Besitzstandswahrer dominieren und Innovationen – oder zumindest ihre Implementierung – verhindert werden, sofern diese die etablierten Anbieter bedrohen. Der demographische Wandel begünstigt die Blockade von Veränderungen tendenziell zusätzlich. Da ältere Mitbürgerinnen und Mitbürger Änderungen nicht selten weniger aufgeschlossen gegenüberstehen, strukturkonservativer sind und den Status Quo bevorzugen (was sich aus der Humankapitaltheorie ohne Weiteres ableiten lässt, da es sich umso eher lohnt, neue Fähigkeiten anzueignen und alte Routinen aufzugeben je höher die verbleibende Lebenserwartung ist), so werden ältere Wähler stärker für den Status Quo und gegen Neuerungen votieren. Bedenken wir, dass der Medianwahlberechtigte und – aufgrund der unterschiedlichen Wahlbeteiligung bei Jungen und Alten – stärker noch der tatsächliche Medianwähler zunehmend älter wird (vgl. Sinn 2013), so dürfte eine Politik, die Änderungen verhindert, aus politökonomischer Sicht eher attraktiv für Politiker sein als eine

1 Vgl. etwa www.spdfraktion.de/themen/soziale-marktwirtschaft-40 oder Bundesministerium für Arbeit und Soziales (2015, S. 54).

Ordnungspolitik in der digitalen Welt

81

Politik, die Veränderungen ermöglicht. Nur in Monaco ist übrigens der Medianwähler älter als in Deutschland.2 Diese Kollateralschäden des demographischen Wandels werden bisher wenig beachtet. In Deutschland fehlen nicht nur junge Innovatoren und Unternehmer. Auch politökonomischen Überlegungen sprechen für ein wenig innovationsfreundliches Klima, in dem Innovationen eher unterbunden als zugelassen werden, sodass sich neue Dienste nicht leicht durchsetzen können. Gleichwohl gibt es auch eine Reihe von berechtigten Befürchtungen in Bezug auf die Digitalisierung. Mindestens fünf zentrale Befürchtungen werden immer wieder geäußert, auch wenn nicht alle dieselbe Berechtigung haben. Konkret sind die folgenden fünf Befürchtungen in abgewandelter Form in unterschiedlicher Betonung oft zu hören: – die Digitalisierung bringe neue Geschäftsmodelle hervor, die tendenziell zu Monopolbildung und Machtkonzentration führen (vgl. etwa Dolata 2015, 2018). Bekannt sind die Stichworte „Datenkapitalismus“, und „Plattformkapitalismus“; – die Digitalisierung führe zu einem Verlust des Rechts auf informationelle Selbstbestimmung und zur Aufgabe der Kontrolle über die eigene Privatsphäre;3 – die Digitalisierung führe zu einem systematischen Unterlaufen bzw. einer Umgehung von sinnvollen Standards und Regulierungsmaßnahmen sowie Steuergesetzen (vgl. etwa Dittmann 2016); – die Digitalisierung führe zu prekären Arbeitsverhältnissen und – die Digitalisierung führe zu einem Verlust des Sozialen, die Menschen würden zunehmend individualistischer, das Sozialkapital unserer Gesellschaft gehe daher verloren. Die genannten Befürchtungen sind teils durchaus nicht unberechtigt, teils beruhen sie jedoch auf falschen Analysen. Wir werden uns kritisch mit diesen Befürchtungen auseinandersetzen und zeigen, dass gesellschaftliche Veränderungen teils nicht Resultat der Digitalisierung sind, teils fehlgedeutet werden und insgesamt die Chancen der Digitalisierung wesentlich stärker betont werden sollten als bisher. Dazu bedarf es einer intelligenten Anpassung des Rechtsrahmens in sehr vielen Bereichen des gesellschaftlichen Zusammenlebens, die wir anhand ausgewählter Beispiele skizzieren werden. Wir schlagen zudem vor, in der nächsten Legislaturperiode eine „Digitalisierungskommission“ nach Vorbild der durchaus erfolgreichen Deregulierungskommission Anfang der 1990er-Jahre einzusetzen. Eine solche Kommission soll Regelungsvorschläge zur Weiterentwicklung des ordnungspolitischen Rahmens bündeln, um so die Verhinderungspolitik zu überwinden, die sich bei isolierter Betrachtung einzelner Probleme (Verbot von Uber und

2 www.laenderdaten.de/bevoelkerung/medianalter.aspx. 3 Für einen Überblick aus verschiedenen Perspektiven vgl. die Beiträge in Friedewald, Lamla und Roßnagel (2017) sowie explizit aus ökonomischer Sicht Acquisti, Taylor und Wagman (2016).

82

Justus Haucap und Ulrich Heimeshoff

AirBnB, Buchpreisbindung für E-Books, Verbot des (Internet-)Versandhandels von rezeptpflichtigen Medikamenten, Leistungsschutzrecht für Presseverlage, u.v.m.) momentan leicht einstellt. Eine Bündelung der Vorschläge hat hingegen den Vorteil, dass es für einzelne Interessengruppen schwieriger wird, Gesetzesinitiativen allein zu ihrem Vorteil zu gestalten.

2 Führt die Digitalisierung zu einer Monopolisierung von Märkten? 2.1 Konzentration auf Plattformmärkten Zunächst ist festzuhalten, dass sich durch das Internet und die Digitalisierung der Wettbewerb in vielen Bereichen zunächst dramatisch intensiviert (vgl. etwa Ellison und Ellison 2005; Janssen, Moraga-González und Wildenbeest 2007; Levin 2013; Haucap und Heimeshoff 2014). Produkt- und Preisvergleiche werden deutlich einfacher als sie es in der Vergangenheit waren. Heute konkurrieren etwa Kunstgalerien, Antiquitätenhändler, Möbelhäuser und Autohändler von Flensburg bis Passau und von Saarbrücken bis Greifswald miteinander, indem sie ihre Angebote online stellen und so Produktvergleiche ermöglichen, die früher aufgrund der geographischen Distanz nicht möglich gewesen wären (vgl. z. B. Baye, De los Santos and Wildenbeest 2013). Die Europäische Kommission unternimmt zudem aktuell große Anstrengungen, Hindernisse zur Weiterentwicklung des Digitalen Binnenmarktes mit ihrer „Digital Single Market“-Initiative zu identifizieren und abzubauen (vgl. Europäische Kommission 2015). Von Wettbewerbsdefiziten im Paketmarkt über Unterschiede beim Verbraucherschutz bis hin zu Problemen bei Online-Bezahlungen werden nahezu sämtliche Facetten analysiert, welche die Entwicklung des grenzüberschreitenden E-Commerce eventuell behindern. Ein Abbau etwaiger Handelshemmnisse wird den Wettbewerb nicht nur im Online-Handel, sondern auch in anderen Bereichen des E-Business weiter intensivieren. Für standardisierte Produkte boomen zudem Preisvergleichsrechner im Internet. Und selbst im stationären Einzelhandel reicht ein Blick auf das Smartphone, um Preise zu vergleichen. Vergleichsportale wie ladenzeile.de, idealo und auch Google Shopping intensivieren daher zuerst einmal den Wettbewerb, ebenso wie spezialisierte Vergleichs- und Buchungsportale wie etwa HRS für Hotels, Trivago für Flüge und Reisen, Foursquare für Restaurants und Kneipen, Verivox für Energiepreise oder Check24 für Versicherungen, Kredite, Autovermietungen und vieles mehr. Auch Amazon, eBay und Google helfen beim Suchen, Vergleichen und Buchen. Die meisten dieser Portale operieren als sog. Plattformen, d. h. sie sind lediglich vermittelnd tätig.4 4 Amazon ist hier eine Ausnahme. Zur Entwicklung von Amazon sowie kartellrechtlichen Fragen vgl. Köhler (2016), Budzinski und Köhler (2016).

Ordnungspolitik in der digitalen Welt

83

Die Plattformen bringen zwei (oder noch mehr) Nutzergruppen zusammen, z. B. Käufer und Verkäufer bei eBay, Amazon, Verivox und Check24, Hotels und Reisende bei HRS oder Werbetreibende und Suchende bei Google, ohne dass die Plattformen direkt an den Transaktionen beteiligt wären (vgl. Evans und Schmalensee 2015). Die Finanzierung erfolgt vielmehr wie bei Börsen über eine Kommission für erfolgreiche Vermittlungen, durch erfolgsunabhängige Gebühren für das Einstellen von Inseraten oder andere Werbung oder durch eine Mischung aus beidem. Charakteristisch für diese Plattformen sind sogenannte Netzwerkeffekte, wobei zwischen direkten und indirekten Netzeffekte unterschieden wird (vgl. Rochet und Tirole 2003, 2006; Armstrong 2006; Evans und Schmalensee 2015; Budzinski 2016): Direkte Netzeffekte entstehen direkt dadurch, dass sich mehr andere Nutzer (derselben Art) einem Netz anschließen. So dürften dezidierte Kommunikationsplattformen wie Skype, Twitter, WhatsApp, Viber und Facebook direkt einen umso höheren Nutzen stiften, je mehr andere Teilnehmer des jeweiligen Dienstes existieren. Indirekte Netzeffekte wirken sich dagegen erst indirekt für andere Nachfrager aus. So ist z. B. eBay als Marktplatz, ceteris paribus, umso attraktiver für einen Verkäufer je mehr potenzielle Käufer eBay aufsuchen. Für einen Käufer wiederum ist es umso attraktiver, bei eBay nach einem Angebot zu suchen, je mehr Angebote es gibt. Somit werden umso mehr Käufer eBay nutzen, je mehr Verkäufer sich dort tummeln, und umgekehrt werden umso mehr Verkäufer sich, ceteris paribus, dort tummeln je mehr potenzielle Käufer dort sind (vgl. für eBay speziell Haucap und Wenzel 2009, 2011). Die Käufer profitieren somit nur indirekt davon, dass es mehr andere Käufer gibt – eben weil dadurch mehr Verkäufer angelockt werden. Und auch Verkäufer profitieren nur indirekt von der Existenz anderer Verkäufer – weil dies eben die Attraktivität des Marktplatzes für Käufer erhöht. Das Vorliegen dieser indirekten Netzeffekte ist charakteristisch für sehr viele Online-Plattformen (vgl. Evans und Schmalensee 2007, 2015; Peitz 2006; Dewenter 2006). Der Nutzen der potenziellen Käufer bei Online-Plattformen wie eBay, Amazon, myHammer oder immobilienscout.de steigt, je mehr Anbieter es gibt, und der Nutzen der Anbieter steigt, je mehr potenzielle Kunden es gibt. Dies gilt auch für Google: Eine Suchmaschine ist für Nutzer umso attraktiver je mehr Webseiten durchsucht und geordnet werden, und für Betreiber von Webseiten ist die Optimierung hin auf bestimmte Suchmaschinen umso attraktiver, je mehr Nutzer Suchanfragen über diese Suchmaschine starten. Dieses Prinzip der indirekten Netzeffekte ist prinzipiell nicht neu, sondern war schon immer charakteristisch für Marktplätze, Börsen, Messen und Einkaufszentren, aber auch Flughäfen oder Tageszeitungen. Fast alle der in Tabelle 2 genannten Plattformen haben ihre Pendants in der analogen, stationären Welt. Von Presseerzeugnissen und Kartenzahlsystemen über Taxizentralen und Reisebüros hin zu Einkaufszentren und Malls gibt es für nahezu jede Internetplattform ein Pendant in der analogen Welt. Die durch die Konzentration auf einen Marktplatz oder eine Plattform mögliche Reduktion von Suchkosten hat schon in der Vergangenheit

84

Justus Haucap und Ulrich Heimeshoff

Tab. 2: Beispiele für Plattformmärkte im Internet. Plattform

Akteur 1 (B)

Akteur 2 (S)

Beispiele

Online Medien

Rezipienten

Werbetreibende

Suchmaschine

Suchende

Werbetreibende

Zahlungssysteme Mitfahrzentralen Reisevermittler Marktplätze

Zahlende Fahrer Reisende Käufer

Zahlungsempfänger Mitfahrer Fluglinien, Hotels Verkäufer

Professionelle Sportvereine

Zuschauer

Sponsoren

Youtube, Huffington Post Google, Bing, Yelp, Foursquare PayPal Uber, Lyft, BlablaCar Expedia, Opodo eBay, Amazon MarketPlace FC St. Pauli, Celtic Glasgow

dazu geführt, dass sich z. B. viele Antiquitätengeschäfte, Gebrauchtwagenhändler oder Bekleidungsgeschäfte in unmittelbarer geographischer Nachbarschaft zueinander befinden (vgl. dazu bereits Stigler 1961, sowie Nelson 1970). Im Internet aber ist diese Konzentration aufgrund des Fehlens von Transportkosten – im Englischen plastisch bezeichnet als „Death of Distance“ – und der geringeren zeitlichen Suchkosten noch wesentlich stärker ausgeprägt. Durch direkte und indirekte Netzeffekte können daher starke Konzentrationstendenzen ausgelöst werden (vgl. Evans und Schmalensee 2007). Allerdings sind nicht alle Plattformen gleichermaßen konzentriert. Gegenbeispiele sind Immobilienmakler, Reisevermittler oder viele Partnerbörsen im Internet. Das Vorliegen indirekter Netzeffekte ist also keineswegs hinreichend für eine Monopolisierung oder hohe Marktkonzentration (vgl. Haucap und Wenzel 2009, 2011; Dewenter und Haucap 2009; Levin 2013). Die Konkurrenz zwischen solchen mehrseitigen Plattformen und die Marktkonzentration werden maßgeblich bestimmt durch (1) die Stärke der Netzeffekte, (2) das Ausmaß steigender Skaleneffekte, (3) Überlastungsgefahren, (4) Differenzierung der Plattformen und (5) die Möglichkeit des sog. Multihoming und/oder Anbieterwechsels (vgl. Evans und Schmalensee 2007; Levin 2013). Dabei bedeutet Multihoming, dass man sich parallel verschiedener Vermittler bedient so wie etwa Hotels ihre Zimmer parallel bei verschiedenen Plattformen und über verschiedene Distributionskanäle anbieten oder sich Taxifahrer bei verschiedenen Vermittlern anmelden. Je nach Ausprägung der fünf genannten Kriterien ergeben sich unterschiedliche Konzentrationstendenzen und Markteintrittsbarrieren (siehe Tabelle 3). Pauschal lässt sich zwar nicht feststellen, dass im Internet besonders viele dauerhaft resistente Monopole anzutreffen wären und ein besonderer Regulierungsbedarf besteht. Gleichwohl zeigt sich, dass einzelne Plattformen wie z. B. Facebook und eBay auf manchen Märkten durchaus beträchtliche Marktmacht besitzen, die aufgrund erheblicher Markteintrittsbarrieren und starker direkter (Facebook) oder indirekter

Ordnungspolitik in der digitalen Welt

85

Tab. 3: Einflüsse auf die Marktkonzentration. Ursache

Effekt auf die Konzentration

Stärke der indirekten Netzeffekte Ausmaß steigender Skaleneffekte Überlastungsgefahren Differenzierung der Plattformen Multihoming

+ + – – –

(eBay) Netzeffekte, oft in Verbindung mit der fehlenden Möglichkeit zum Multihoming, auch nicht schnell erodieren wird (vgl. Haucap und Wenzel 2009). Auch im Fall von Suchmaschinen wie Google, Bing oder auch Foursquare etc. ist insbesondere von indirekten Netzeffekten auszugehen, da Nutzer zwar nicht direkt von der Nutzung einer Suchmaschine durch andere Suchende profitieren, indirekt jedoch schon, da die Optimierung des Suchalgorithmus umso einfacher und somit die Qualität bzw. Passgenauigkeit der Trefferliste umso höher ist, je mehr andere Individuen ebenfalls dieselbe Suchmaschine nutzen. Die hohe Marktkapitalisierung der sog. GAFA (Google, Amazon, Facebook, Apple) impliziert zudem, dass viele Marktteilnehmer offenbar für die Zukunft sehr hohe Gewinne erwarten. Diese Gewinnerwartungen könnten selbstredend auch erwartete Monopolrenten erhalten. Zumindest ein Teil des Marktes scheint daher durchaus auf eine Monopolisierung von Marktsegmenten durch diese Unternehmen zu wetten. Eine Kernaufgabe des Kartellrechts wird es daher gerade auf Plattformmärkten sein, Exklusivitätsvereinbarungen sehr kritisch zu prüfen, wenn dadurch das Multihoming erschwert wird (vgl. dazu auch Peitz und Schwalbe 2016). Auch die Frage nach etwaigen Vorschriften zur Interoperabilität von Plattformen ist aus kartellrechtlicher Sicht naheliegend, wenngleich keineswegs trivial, wie unten noch erörtert werden wird. Und schließlich mögen – unter bestimmten Umständen – Zugangsrechte zu bestimmten Datenbeständen von Wettbewerbern sinnvoll sein, um Wettbewerb zu ermöglichen.

2.2 Sinnvolle Anpassungen des Kartellrechts in der 9. GWB-Novelle Wie dargelegt wurde, ist das Kartellrecht prinzipiell geeignet, auch Wettbewerbsprobleme auf Plattformmärkten zu adressieren (vgl. Monopolkommission 2015a). Durch direkte und indirekte Netzeffekte können zwar leichter Konzentrationsprozesse entstehen, jedoch sollte bei der Möglichkeit der parallelen Plattformnutzung („Multihoming“) auch wirksamer Wettbewerb entstehen können. Die am 9. Juni 2017 in Kraft getretene 9. GWB-Novelle (vgl. dazu Kersting und Podszun 2017) hat

86

Justus Haucap und Ulrich Heimeshoff

diese Gedanken bereits aufgenommen. In Bezug auf digitale Märkte findet sich nun folgender neuer § 18 Abs. 3a im GWB: Insbesondere bei mehrseitigen Märkten und Netzwerken sind bei der Bewertung der Marktstellung eines Unternehmens auch zu berücksichtigen: 1. direkte und indirekte Netzwerkeffekte, 2. die parallele Nutzung mehrerer Dienste und der Wechselaufwand für die Nutzer, 3. seine Größenvorteile im Zusammenhang mit Netzwerkeffekten, 4. sein Zugang zu wettbewerbsrelevanten Daten, 5. innovationsgetriebener Wettbewerbsdruck.

Aus ökonomischer Sicht ist dies eine durchaus sinnvolle Klarstellung, wenn sie auch nicht notwendig ist. Das Bundeskartellamt ist relativ frei in seiner Entscheidung, welche Faktoren es zur Beurteilung von Marktmacht heranzieht. Somit können die hier genannten fünf Kriterien auch heute schon angewendet werden. Die explizite Erwähnung im Gesetz schafft jedoch eine größere Transparenz, welche Kriterien die Kartellbehörden bei der Prüfung von Marktmacht auf Plattformmärkten heranziehen werden und trägt damit zu einer höheren Vorhersehbarkeit kartellrechtlicher Entscheidungen bei. Eine beachtliche Herausforderung besteht jedoch darin, dass die o.g. Faktoren – im Gegensatz etwa zu Marktanteilen und Gewinnmargen – schwer messbar sind, sodass es wohl regelmäßig bei qualitativen Einschätzungen bzgl. der Kriterien bleiben wird. Bemerkenswert ist zudem der explizite Hinweis auf den Zugang zu wettbewerbsrelevanten Daten. Hier sind zwei Dinge zu bedenken: Zum einen können Daten, insbesondere wenn sie exklusiv verfügbar sind, ein wesentlicher Wettbewerbsfaktor sein, wie wir in Abschnitt 3 erörtern werden. Zum anderen können durch Web-Tracker wie Google Analytics oder Google AdSense deren Anbieter Datenströme auf fremden Homepages überwachen. Sofern Anbieter von Web-Trackern wie etwa Google mit Unternehmen, die den Tracker nutzen, im Wettbewerb stehen, könnte darin eine kartellrechtswidrige Informationsweitergabe zu sehen sein, die kartellstabilisierend wirken kann (vgl. Schmidt 2016). Eine weitere Herausforderung für die Kartellrechtsdurchsetzung liegt in der Schwierigkeit der Marktabgrenzung bei unentgeltlichen Diensten. Der sog. SSNIPTest wird hier aus praktischer Sicht aufgrund der Datenanforderungen und auch aufgrund konzeptioneller Probleme faktisch unbrauchbar (vgl. Kehder 2013; Dewenter, Rösch und Terschüren 2014; Monopolkommission 2015a), auch wenn theoretisch ein SSNIP-Test für mehrseitige Märkte konstruiert werden kann (vgl. Filistrucchi et al. 2014). Illustrativ ist die Marktabgrenzung im Fall Google (vgl. Haucap und Kehder 2013; Hamelmann und Haucap 2016, S. 186 ff.). Berichtet wird oft von einem Marktanteil von Google von mehr als 90 % bei „allgemeinen Suchanfragen“ in vielen europäischen Ländern. Unklar ist jedoch, ob ein solcher Markt überhaupt existiert, denn Suchende stöbern selten einfach herum. Vielmehr suchen sie meist etwas Bestimmtes. Unklar, und auch von der Europäischen Kommission nicht analysiert,

Ordnungspolitik in der digitalen Welt

87

ist, wie die Ausweichreaktionen der Suchenden wären, wenn Google eine geringfügige Suchgebühr (z. B. 5 Euro pro Monat) einführen würde. Würden die Suchenden zu Bing ausweichen oder ggf. eher zu Spezialdiensten – sog. vertikalen Suchmaschinen – wie etwa Wikipedia, Facebook, Amazon, eBay, HRS, Expedia, FAZ.net, Foursquare etc.? Ist Googles Suchdienst eher auf einem Sortimentsmarkt aktiv oder gehören auch die o. g. Spezialdienste zu dem Markt? Ohne empirische Analysen des Nutzerverhaltens lässt sich die Frage nicht verlässlich beantworten. Allerdings sind genau diese empirischen Analysen schwierig, da in der Realität die oben genannte hypothetische monatliche oder auch jährliche Suchgebühr bisher nirgendwo eingeführt wurde. Es stehen somit lediglich weniger verlässliche Methoden zur Verfügung wie etwa Conjoint-Analysen, die jedoch zwangsläufig auf hypothetischen Szenarien beruhen.5 Ökonomisch sinnvoll ist die im Rahmen der 9. GWB-Novelle erfolgte Klärung der in Deutschland zuvor umstrittenen Frage, ob auch unentgeltliche Leistungen auf einem Markt angeboten werden können oder ob die Abwesenheit monetärer Entgelte auch das Nichtvorhandensein eines Marktes impliziert (vgl. Podszun und Franz 2017). Dass dies nicht so ist, stellt nun § 18 Abs. 2a GWB klar: „Der Annahme eines Marktes steht nicht entgegen, dass eine Leistung unentgeltlich erbracht wird.“ Letztere ist auch für das laufende Missbrauchsverfahren des Bundeskartellamtes gegen Facebook relevant. Während eine Marktbeherrschung durch Facebook auf dem unentgeltlichen Nutzer-Markt für soziale Netzdienste durchaus plausibel erscheint, ist dies auf dem Online-Werbemarkt weitaus weniger klar. Nur auf letzterem fließen jedoch monetäre Entgelte. Die in der GWB-Novelle vorgenommene Klarstellung erleichtert dem Bundeskartellamt somit die Feststellung von Marktbeherrschung auf dem unentgeltlichen Nutzer-Markt für soziale Netzwerkdienste (vgl. auch Hamelmann und Haucap 2016, S. 292 f.).

3 Datengetriebene Wettbewerbsveränderungen 3.1 Daten als Wettbewerbsfaktor Daten seien das Öl des 21. Jahrhunderts wird oft gesagt.6 Dies ist jedoch aus mikround wettbewerbsökonomischer Sicht kein besonders treffendes Bild, denn Daten können – anders als Öl – von vielen Parteien zugleich oder auch nacheinander genutzt werden, sie sind grenzkostenlos mehrnutzbar. Nur weil einer sie nutzt, schließt dies – anders als eben beim Öl – nicht die Nutzung durch andere aus (vgl. auch Dewenter und Lüth 2016). Sinnvoll ist der Vergleich von Daten und Öl als 5 Zu den Problemen der Marktabgrenzung auf (mehrseitigen) Online-Märkten siehe auch Evans (2009), Kehder (2013) sowie Dewenter und Linder (2017). 6 Erstmalig soll Clive Humby, britischer Mathematiker und Entwickler der Kundenkarte von Tesco, diese Analogie 2006 benutzte haben: http://ana.blogs.com/maestros/2006/11/data_is_the_new.html.

88

Justus Haucap und Ulrich Heimeshoff

Antriebsmittel der Wirtschaft vielleicht insofern, als dass die enorme Reduktion von Transport- und Mobilitätskosten durch die Erfindung des Automobils einen erheblichen Strukturwandel in vielen Bereichen ausgelöst hat, so wie er nun von datengetriebenen Geschäftsmodellen erwartet wird. Zudem gehören die sog. GAFAUnternehmen, also Google, Apple, Facebook und Amazon, heute zu den wertvollsten Unternehmen der Welt, so wie ehemals die großen Mineralölkonzerne. Gleichwohl unterscheiden sich Öl und Daten als Rohstoffe für die wirtschaftliche Wertschöpfung doch erheblich. Für Wettbewerbsökonomen ist vor allem die Tatsache, dass Daten prinzipiell von vielen Personen ohne weitere Kosten parallel oder auch sequentiell genutzt werden können, zunächst einmal eine gute Nachricht, denn es gibt – anders als beispielsweise beim Frequenzspektrum im Mobilfunk – keine natürliche Ressourcenknappheit, die den Wettbewerb begrenzt. Gleichwohl kann der Zugriff auf bestimmte Daten essentiell für die effektive Teilnahme am Wettbewerb sein. Im Fall von Google wird etwa diskutiert, ob Wettbewerber wie Microsoft oder Yahoo! einen Zugriff auf historische Suchdaten von Google benötigen, um genauso gute Suchalgorithmen programmieren zu können (vgl. etwa Argenton und Prüfer 2012). Auch wenn diese Forderung plausibel erscheinen mag, ist dies doch keineswegs klar. Letztlich ist dies eine empirische Frage. Google selbst nutzt nach eigenen Angaben nur einen Bruchteil der Daten zur Verbesserung des eigenen Suchalgorithmus, denn auch hier gilt die Logik der Äquivalenz von Grenzkosten und Grenznutzen im Optimum. Letztlich werden die Daten solange analysiert, bis die Grenzkosten der weiteren Analyse den Grenzertrag zu übersteigen drohen.7 Gleichwohl ist nicht klar, inwiefern Google doch erhebliche Wettbewerbsvorteile bei der Optimierung der Suchalgorithmen und Erstellung der Trefferlisten hat, da Google auch Zugriff auf andere Dienste wie Google-Mail, Google-Kalender etc. nehmen kann, sofern ein Suchender diese Dienste nutzt. Da Suchergebnisse immer stärker individualisiert werden und viele Nutzer nur einen Email-Dienst und einen Kalender nutzen, erschwert dies die Replikation der Datenbasis von Google durchaus. Das einfache Einlesen und Auswerten von öffentlichen Webseiten reicht dann nicht, um die bestmöglichen Suchergebnisse anzuzeigen. In anderen Fällen ist noch eher denkbar, dass der Zugriff auf Daten, die ein Wettbewerber erhoben hat, für die Teilnahme am Wettbewerb essenziell sein kann. Dies kann insbesondere dann der Fall sein, wenn individuelle Daten exklusiv vorliegen. Ein Beispiel könnten Energieverbrauchsdaten in Smart Grids sein. Auch im Auto gesammelte Daten über Technik und Fahrverhalten können kaum dupliziert werden. Sollte etwa ein PKW-Hersteller selbst KfZ-Versicherungen anbieten, wären andere Versicherungen ohne Zugriff auf die Daten wohl in einem erheblichen Nachteil. Dasselbe würde für freie Werkstätten bei der Reparatur gelten. Natürlich

7 Eine ausführliche Analyse des Google-Falls bieten Haucap und Kehder (2013), Manne und Wright (2011, 2012), Pollock (2010) sowie Bork und Sidak (2012).

Ordnungspolitik in der digitalen Welt

89

geht es hier im Grunde um die klassische Problematik von Sekundärmärkten („After Markets“), wie sie schon bei PKW-Ersatzteilen erörtert und kontrovers diskutiert wurde (vgl. etwa Heinichen 2014). Gleichwohl wäre hier ein Zugriff auf Daten für Wettbewerber wohl unvermeidlich. Angemerkt sei auch, dass die Europäische Datenschutzgrundverordnung die Portierung von persönlichen Daten nur für Privatpersonen garantiert, nicht aber für Gewerbe, so dass das Recht auf Portierung den Lock-in nur für Privatpersonen aufhebt, nicht aber für die oft wirtschaftlich sehr bedeutsamen Gewerbekunden. Um Wettbewerb zu ermöglichen und damit Auswahlmöglichkeiten für Nutzer zu schaffen, mag es somit manchmal notwendig sein, auf Daten zurückzugreifen, die ein Konkurrent originär erhoben hat. Bestimmte Daten haben dann die Eigenschaft einer wesentlichen Einrichtung („Essential Facility“), ohne deren gemeinsame Nutzung Wettbewerb nicht möglich ist.8 Daraus ergeben sich für eine marktwirtschaftliche Ordnung zahlreiche noch nicht geklärte Fragen: – Wie kann ein etwaiges Spannungsfeld zwischen Datenschutz und Wettbewerb aufgelöst oder wenigstens ausbalanciert werden? Die Einwilligung, dass Unternehmen A die Daten eines Kunden nutzen kann, impliziert noch nicht, dass der Kunde von Unternehmen A auch in die Nutzung durch Unternehmen B einwilligt. – Wie und in welchem Umfang kann und sollte die Portabilität von Daten gewährleistet werden? Prinzipiell ist es nach der europäischen Datenschutzgrundverordnung ab 2018 für Anbieter, die Nutzerdaten erheben, verpflichtend, für Privatpersonen die Mitnahme ihrer Daten zu ermöglichen. In der Praxis stellen sich hier gleichwohl Fragen geistigen Eigentums, die es zu lösen gilt. Wem etwa gehört das geistige Eigentumsrecht an einem witzigen Kommentar in Reaktion auf ein von einem anderen Nutzer bei Facebook geposteten Bild? Facebook, dem Poster des Bildes, dem Kommentator, jedem, allen gemeinsam? Wem sollte es gehören? Wessen Erlaubnis muss bei einer etwaigen Portierung eingeholt werden? – Sollte die Möglichkeit, Daten zu kombinieren, bei der kartellrechtlichen Kontrolle von Fusionen und Kooperationen eine eigene Rolle spielen? Sollte das bei einer völlig hypothetischen Fusion von EON, Mercedes, Facebook und einer Bank eine Rolle spielen? Sollten Datenschützer ein eigenes Mitspracherecht bei Unternehmensfusionen bekommen? Zumindest letzteres ist jedoch aus folgenden Erwägungen eher kritisch zu bewerten. Die Fusionskontrolle ist ein Instrument der Gefahrenabwehr, bei der präventiv die Entstehung solcher Marktkonstellationen verhindert werden soll, die besonders anfällig sind für (a) den unilateralen Missbrauch von marktbeherrschenden Stel-

8 Zur Thematik der wesentlichen Einrichtungen („Essential Facilities“) siehe allgemein Lipsky und Sidak (1999), Rottenbiller (2002) sowie Cotter (2008).

90

Justus Haucap und Ulrich Heimeshoff

lungen, (b) eine Kartellierung oder kollusives Verhalten oder (c) eine andersartige erhebliche Minderung wirksamen Wettbewerbs. Diese Ex-ante-Kontrolle wird vor allem deswegen als vorzugswürdig erachtet, weil sich die Ex-post-Kontrolle des Missbrauchs marktbeherrschender Stellungen oder kollusiven Verhaltens als sehr schwierig und oftmals fast unmöglich erweist. Die Fusionskontrolle ist somit ein imperfektes institutionelles Substitut angesichts der Unvollkommenheit der nachträglichen Missbrauchsaufsicht und der Kontrolle kollusiven Verhaltens. Weil eben sowohl der Missbrauch marktbeherrschender Stellungen als auch ein kartellähnliches Parallelverhalten ex post oft nur schwer zu beweisen sind, soll die Gefahr solcher Verhaltensweisen schon ex ante durch die Fusionskontrolle eingedämmt werden. Für die Verletzung datenschutzrechtlicher Bestimmungen dürfte diese Logik jedoch nicht gelten. Eine etwaige Verletzung datenschutzrechtlicher Vorschriften sollte auch ex post entdeckt und abgestellt werden können, ohne dass dazu eine – sehr kostspielige – Entflechtung des fusionierten Unternehmens notwendig wäre. Eine Ex-ante-Kontrolle möglicher Gefährdungslagen durch die Fusionskontrolle erscheint somit nicht geboten.

3.2 Big Data und Preisdifferenzierung Verwandte, aber doch andere wettbewerbspolitische Fragen ergeben sich aus der Möglichkeit, durch die Analyse von Kundendaten gezielte Preisdifferenzierung zu betreiben (vgl. dazu auch Acquisti und Varian 2005; Genth 2016; Schleusener 2016; Kenning und Pohst 2016). Traditionell haben etwa im Supermarkt und im Kaufhaus die Kunden – in aller Regel – denselben Preis bezahlt, wenngleich auch über intertemporale Preisdifferenzierung („Super Samstag“ etc.) sowie Coupons schon lange eine gewisse Preisdifferenzierung erfolgt. Beim Autokauf war die Preisdifferenzierung durch individuelle Preisverhandlungen immer schon der Standard, hier hängt und hing der tatsächlich gezahlte Preis auch stark vom Verhandlungsgeschick der Akteure ab. Im Supermarkt jedoch galt dies nicht, personalisierte Preise sind hier im Grunde, anders als etwa auf dem Basar, weitgehend unbekannt. Oftmals wird vermutet, dass insbesondere im Online-Bereich von einer Zunahme der intertemporalen Preisdifferenzierung („dynamic pricing“) als auch einer stärker auf persönlichen Merkmalen (wie etwa der Such- und Kaufhistorie) beruhenden Preisdifferenzierung („personalised pricing“) auszugehen ist (vgl. etwa Remmel 2016). Durch Big Data getrieben würden bald allen Kunden maßgeschneiderte Preise abverlangt, das Lehrbuchideal der Preisdifferenzierung erster Ordnung könne bald umgesetzt werden. Das Verhältnis von Spekulation und selbst unter Wissenschaftlern verfestigten urbanen Mythen einerseits zu belastbaren empirischen Fakten andererseits scheint dabei fast gegen unendlich zu laufen, womöglich erste Anzeichen für eine postfaktische Wissenschaft.

Ordnungspolitik in der digitalen Welt

91

Während die intertemporale Preisdifferenzierung („dynamic pricing“) in der Tat zuzunehmen scheint (vgl. Zander-Hayat, Domurath und Groß 2016; Schleusener 2016), gibt es für eine Zunahme der personalisierten Preissetzung bisher kaum belastbare Evidenz. Die Expertise von Schleusener und Hosell (2015) für den Sachverständigenrat für Verbraucherfragen beim Bundesminister für Justiz und Verbraucherschutz zum Thema „Personalisierte Preisdifferenzierung im OnlineHandel“ jedenfalls kam zu dem Ergebnis, dass lediglich bei hochpreisigen Pauschalreisen eine Differenzierung nach Nutzermerkmalen sowie nach Betriebssystem ersichtlich wurde. Für niedrigpreisige Pauschalreisen konnte dieser Unterschied ebenso wenig nachgewiesen werden wie für die anderen experimentell getesteten Branchen (Tourismus-Flugreise, Consumer Electronics, Sportartikel, Mode, Versicherungen, Spielwaren, Medien/Tonträger, Food/Pet Food, Drogerie, Gartenmöbel). Gleichwohl wird von der Politik9 wie von Verbraucherschützern (vgl. Zander- Hayat, Domurath und Groß 2016) schon ein Verbot erwogen. Warum aber findet sich online (noch) nicht mehr individuelle Preisdifferenzierung, wo doch Big Data Analytics dies nahelegen? Schleusener und Hosell (2015) nennen drei Gründe: Erstens sei es ökonomisch betrachtet unwahrscheinlich, „dass Unternehmen kundenindividuelle Preise erfolgreich einsetzen können, und zwar aufgrund fehlender Professionalität im Pricing, fehlendem Wissen über Preisbereitschaften der Konsumenten und der Herausforderungen, die die Preisbildung über mehrere Vertriebskanäle und Preissuchmaschinen mit sich bringen.“ Anders ausgedrückt waren also trotz Big Data die Algorithmen im Jahr 2015 noch nicht so gut, dass die Zahlungsbereitschaft der Kunden tatsächlich ermittelt werden kann. Dies sollte sich aber bald ändern, wenn immer bessere Algorithmen entstehen. Zweitens könnten Verbraucher jedoch „über eigene Maßnahmen, angefangen über Boykott über den Einsatz von Agenten bis hin zur Nutzung von manipulierten Daten, eine aus Unternehmenssicht erfolgreiche Umsetzung kundenindividueller Preise schwierig bis unmöglich machen“, so Schleusener und Hosell (2015). Und drittens mache der Wettbewerb die Preisdifferenzierung schwierig, da „ein Abschöpfen individueller Preisbereitschaften bei geringen Suchkosten im Internet bei aktivem Suchverhalten der Konsumenten unmöglich“ sei. Ein vierter Grund, den Schleusener und Hosell (2015) nicht explizit aufführen, kann darin liegen, dass (zu) starke Preisdifferenzierungen von Kunden als unfair empfunden werden können und personalisierte Preise daher beim Unternehmen wiederum einen Reputationsschaden verursachen mögen, den diese eben vermeiden können, wenn sie auf personalisierte Preise verzichten. Eine experimentelle Studie von Richards, Liaukonyte und Streletskaya (2016) lässt das nicht unplausibel erscheinen. In dem von den Autoren durchgeführten Experiment ist die Preisdifferenzierung für die Probanden umso weniger akzeptabel, je größer der beobachtbare Spread der Preise

9 www.nrz.de/wirtschaft/nrw-minister-remmel-will-personalisierte-preise-im-online-handelbekaempfen-id11511876.html sowie Remmel (2016).

92

Justus Haucap und Ulrich Heimeshoff

ist. Die Kaufwahrscheinlichkeit wird im Experiment signifikant negativ beeinflusst. Haben Kunden jedoch selbst ein Vorschlagsrecht für Preise, sind sie durchaus bereit, ein wesentlich größeres Ausmaß an Preisdifferenzierung zu akzeptieren. Weitere Evidenz liefern Vulkan und Shem-Tovb (2015) sowie von Schleusener (2016) zitierte Quellen. Richards, Liaukonyte und Streletskaya (2016) belegen im Übrigen auch, dass Kunden keine allgemeine Aversion gegen Ungleichheit im Allgemeinen haben. Sie empfinden Preise nur dann als unfair, wenn sie selbst mehr als andere bezahlen sollen. Von zentraler Bedeutung sind die sog. Referenzpreise, von welchen die Kunden bei ihrer Beurteilung der verlangten Preise ausgehen. Somit setzt auch das Fairness-Empfinden der Verbraucher der Preisdifferenzierung Grenzen, auch wenn sie dadurch nicht unmöglich wird. Während im Internet die Konkurrenz meistens wirklich nur „einen Klick entfernt“ ist, gilt dies im stationären Handel weniger. Vor allem bei relativ geringwertigen Gütern des täglichen Bedarfs wie bei Lebensmitteln und Drogerieartikeln spielt der Online-Handel noch eine sehr untergeordnete Rolle. Dies könnte aus verschiedenen Gründen auch durchaus so bleiben, da der noch immer vorhandene (wenn auch kleine) Lieferverzug und die mangelnde Bequemlichkeit der Lieferung (etwa aufgrund der Notwendigkeit, zuhause zu sein), den Online-Einkauf hier relativ unattraktiv machen (etwa im Vergleich zu dauerhaften Gütern, die nicht täglich genutzt werden). Es ist zu erwarten, dass auch in absehbarer Zukunft der größte Teil der Verbraucher Lebensmittel und Drogerieartikel weitgehend im stationären Handel erwerben wird. Im stationären Lebensmitteleinzelhandel (LEH) sind aktuell zwei interessante Tendenzen auszumachen: Zum einen werden zunehmend elektronische Preisschilder eingeführt, welche – prinzipiell wie an Tankstellen – eine schnelle Preisänderung ohne hohe Transaktionskosten („dynamic pricing“) ermöglichen. Zum anderen arbeiten diverse Unternehmen wie etwa Kaiser’s Tengelmann (bis zur endgültigen Übernahme durch Edeka und Rewe), Penny, Rossmann und in der Schweiz Migros mit individualisierten Rabatt-Coupons, welche den Kunden auf ihr Smartphone gesendet werden oder welche nach Einlesen einer Kundenkarte, auf der die Einkaufshistorie gespeichert wird, durch Ausdruck am Automaten in der Filiale erhalten können („personalised pricing“). In der Schweiz sollen etwa 80 % der Kunden die Migros-Kundenkarte nutzen (vgl. Lebensmittelzeitung 2016). Sind die Kunden jedoch erst einmal in einer Filiale, sind die Wechselkosten ungleich höher als beim Online-Handel, sodass eine differenzierte, individualisierte Preisbildung sich einfacher durchsetzen lässt, auch weil der Preisvergleich so tendenziell schwieriger wird, da die Coupons vor Betreten der Filiale nicht abrufbar sind. Ist der Kunde jedoch erst einmal in der Filiale, erscheint es wenig wahrscheinlich, dass er bei Lebensmitteln und anderen geringwertigen Gütern noch Preisvergleiche mit anderen Händlern vornimmt. Perspektivisch ist denkbar, dass wir so in die Nähe individualisierter Preise kommen, auch wenn aktuell die entsprechenden Algorithmen die Kunden immer

Ordnungspolitik in der digitalen Welt

93

noch in eine relativ überschaubare Anzahl von Gruppen klassifizieren. Gleichwohl bedeutet dies, dass im Supermarkt bzw. in der Drogerie dann im Grunde nur noch Höchstpreise (elektronisch) ausgezeichnet werden, die nur für diejenigen gelten, die keine Coupons besitzen. Studien zum Umgang mit privaten Daten zeigen zugleich (vgl. etwa Acquisti, Taylor und Wagman 2016; Benndorf und Normann 2017), dass der Großteil der Individuen zwar vorgibt, dass Privatheit und Datenschutz einen hohen Wert für sie hätten, zugleich aber bereit ist, für (sehr) kleine Geldbeträge sehr viel über sich preiszugeben. Diese offenbar recht weit verbreitete Haltung wird auch als Privacy Paradox bezeichnet (vgl. Norberg, Horne und Horne 2007). Während ein Großteil der Individuen, nicht selten 80 % und mehr, angeben, dass ihnen die Privatsphäre und der Schutz persönlicher Daten viel wert seien, tut der größere Teil dieser Menschen so gut wie nichts für den persönlichen Datenschutz. Im Gegenteil sind viele schon gegen einen geringen monetären Vorteil bereit, persönliche Daten heraus- und Privatsphäre aufzugeben. Relevant ist dies, weil sich absehen lässt, dass – wenn etwa 80 % der Schweizer die Migros-Kundenkarte nutzen – lediglich die 20 % der Nicht-Nutzer die ausgezeichneten (Höchst-)Preise zahlen. Letztlich kann so eine Sogwirkung entstehen, bei der selbst datenschutzsensible Kunden sich genötigt fühlen, ihre Privatsphäre zumindest teilweise aufzugeben, um nicht durch hohe Preise „bestraft“ zu werden. Eine umfassende Verbreitung personalisierter Preise hätte zum einen Implikationen für die Vorgehensweise bei der kartellrechtlichen Marktabgrenzung. Es wäre zu überlegen, ob nicht nach Kundengruppen segmentiert separate Märkte abzugrenzen wären, so wie das Bundeskartellamt dies im deutschen Stromendkundenmarkt bereits tut (vgl. Bundeskartellamt 2011, Tz. 33 ff.; Monopolkommission 2012, Tz. 689 ff.). Vor allem aber wurden die etwas faulen und trägen Verbraucher bisher indirekt durch die sog. Schnäppchenjäger geschützt. Weil letztere nur bei günstigen Preisen kaufen, haben die etwas phlegmatischen Verbraucherinnen und Verbraucher indirekt von den Preisvergleichen der Schnäppchenjäger profitiert. Zwar haben Einzelhändler durch temporäre Sonderangebote und Schlussverkäufe versucht, auch die Schnäppchenjäger anzuziehen (vgl. Varian 1980). Dies könnte in Zukunft jedoch anders sein, wenn viele Kunden – ausgerüstet mit ihrer Kundenkarte, auf der die Einkaufshistorie gespeichert wird – maßgeschneiderte Rabattcoupons erhalten und damit auch individuelle Preise zahlen. Die Preisdifferenzierung nach Kundengruppen wird dann erheblich zunehmen, und die phlegmatischen Kunden mit hohen Suchkosten wären nicht mehr automatisch durch die Schnäppchenjagd der preisvergleichenden Kunden geschützt. Der Wettbewerb verlöre dann also zum anderen auch seine Eigenschaft als öffentliches Gut, bei dem selbst die vom Wettbewerb profitieren, die nicht durch ihr Verhalten zum Wettbewerb beitragen. Im Einzelhandel mit Elektronikprodukten oder auch Lebensmitteln mag das – rein ökonomisch gesehen – nicht tragisch sein. Ein gesamtwirtschaftlicher Wohlfahrtsverlust wird dadurch nicht direkt ausgelöst, es kommt lediglich zu einer Um-

94

Justus Haucap und Ulrich Heimeshoff

verteilung von Renten, sowohl zwischen Herstellern (Produzentenrente) und Verbrauchern (Konsumentenrente) als auch zwischen verschiedenen Typen von Verbrauchern (träge Konsumenten vs. „Schnäppchenjäger“). Jedoch stellen sich für die Kartellrechtspraxis nun wie schon erwähnt diffizilere Fragen bei der Marktabgrenzung. Schwieriger wird die wohlfahrtsökonomische Beurteilung bei Versicherungen. Auch bei Autoversicherungen, deren Tarif hypothetisch an die freiwillige Übermittlung von Fahrdaten geknüpft wird, mag eine personalisierte Preissetzung gesellschaftlich nicht nur akzeptabel sein, sondern sogar gewünschte Anreize zu einem vorsichtigen Fahren bieten und so die gesellschaftliche Wohlfahrt steigern. Wer vorsichtig fährt, zahlt dann zu Recht weniger. Dies wiederum erhöht die Anreize, vernünftig zu fahren und dürfte die Effizienz der Marktergebnisse tendenziell eher steigern als schmälern. Problematisch könnten personalisierte Tarife – zumindest theoretisch – bei Krankenversicherungen sein, die – mit Ausnahme der privaten Krankenversicherungen – dezidiert solidarisch angelegt sein sollen. Nehmen wir an, ein Versicherer bietet Rabatte für die Kunden an, die sich durch Armbänder, Uhren und sog. Wearables (vgl. dazu Budzinski und Schneider 2017) überwachen lassen. Leicht ist vorstellbar, dass es zu einer Sogwirkung kommt, sodass letztlich 80 % der Versicherten Rabatte bekommen und nur 20 % nicht, weil sie entweder – elektronisch überwacht – zu wenig Sport treiben, zu wenig schlafen oder zu viel trinken oder weil sie nicht in die Überwachung ihres Lebensalltags einwilligen. In der Tat zeigen experimentelle Untersuchungen, wie z. B. von Benndorf und Normann (2017), dass lediglich 10 bis 20 % der Probanden nicht bereit waren, ihre eigenen persönlichen Daten zu verkaufen bzw. gegen einen geldwerten Vorteil preiszugeben. Auf Märkten für Krankenversicherungen etwa könnte dies schnell zu einer Entsolidarisierung führen, welche bisher politisch gerade nicht erwünscht war. Auch wohlfahrtsökonomisch ist ein Wettbewerb, der sich primär auf die Auslese nicht beeinflussbarer Risiken konzentriert, regelmäßig wohlfahrtssenkend. Die freiwillige Informationspreisgabe zu untersagen, um solche Entwicklungen zu verhindern, berührt jedoch womöglich das Recht auf informationelle Selbstbestimmung – wieder läge dann ein schwieriger Balanceakt im Umgang mit individuellen Rechten vor uns. Allerdings sollte dieses (theoretische) Problem auch nicht überstrapaziert werden. Durch die Pflicht der gesetzlichen Krankenversicherungen, jeden in die Grundversorgung aufzunehmen, gibt es bisher nur sehr eingeschränkte Möglichkeiten, schlechte Risiken auszusortieren. Dies kann auch deswegen nicht gelingen, weil nicht nur eine Aufnahmepflicht besteht, sondern auch der Mindestleistungskatalog in der Grundversorgung vorgeben wird. Insofern sind der Entsolidarisierung Grenzen gesetzt. Die Zusatzversicherungen oder privaten Krankenversicherungen, welche sich diese Big-Data-getriebenen Möglichkeiten zu Nutze machen können und dies auch tun, sind wiederum ohnehin nicht vom Solidaritätsgedan-

Ordnungspolitik in der digitalen Welt

95

ken getragen, sondern ganz bewusst vom Solidaritätsprinzip ausgenommen, welches eben nur für die Mindestabsicherung gilt. Somit sollte die Kirche im Dorf belassen werden. Eine übermäßige Besorgnis, dass Big Data zu einer Entsolidarisierung im Gesundheitswesen führt, ist sicherlich aufgrund des heute geltenden Ordnungsrahmens nicht angezeigt.

3.3 Geschäftsmodelle der Sharing Economy In der Nutzung umfangreicher Daten können zugleich große Vorteile liegen, indem neue Geschäftsmodelle entstehen. Zahlreiche Modelle der sog. „Sharing Economy“ 10, für welche Ride-Sharing Dienste wie Lyft, Uber und BlaBlaCar, CarsharingAngebote oder AirBnB prominente Beispiele sind, basieren auf der Nutzung von Daten. Das Teilen von Ressourcen ist prinzipiell nichts Neues: Mitfahrzentralen, Wohngemeinschaften und Mitwohnzentralen sind schon immer der Idee gefolgt, Ressourcen und Fixkosten zu teilen (Theurl 2015; Levering und Icks 2016). Vor dem Aufkommen professioneller Online-Vermittlungen war die Konkurrenz durch Mitfahr- und Mitwohnzentralen für die Bahn und Taxis bzw. Hotels und Pensionen jedoch überschaubar, erst durch die Digitalisierung und die damit einhergehenden technischen Möglichkeiten ist das rasante Wachstum der sogenannten Sharing Economy ausgelöst worden (vgl. etwa Yaraghi & Ravi 2016), Zwei Gründe sind dafür im Wesentlichen maßgeblich: Erstens reduziert das Internet die Suchkosten in ganz erheblicher Weise, das „Matching“ von Anbietern und Nachfragern auch für kleine Transaktionen (wie eine kurze Stadtfahrt oder eine Übernachtung) wird durch Online-Plattformen wesentlich einfacher (vgl. z. B. Benjafaar et al. 2015). Und zweitens löst das Internet das Problem fehlenden Vertrauens zwischen ehemals weitgehend anonymen Anbietern und Nachfragern. In der Vergangenheit war es aufgrund zahlreicher Informationsprobleme riskant, die eigene Wohnung Fremden zu überlassen oder diese im Auto mitzunehmen bzw. bei diesen mitzufahren, sodass zahlreiche Transaktionen einfach unterblieben. Über Bewertungs- und Reputationsmechanismen kann die Anonymität des Marktes überwunden werden, indem Vertrauen durch Reputationsmechanismen induziert wird. Nicht zufällig ist etwa bei Uber oder AirBnB wie schon bei eBay das gegenseitige Bewerten nach einer Transaktion ein zentraler Punkt für das Funktionieren der Plattformen (vgl. etwa Horton und Zeckhauser 2016; Bolton, Greiner & Ockenfels 2013; Einav, Farronato & Levin 2015).

10 Zum Begriff und zur Entwicklung vgl. Benkler (2005), Bardhi und Eckhardt (2012), Allen und Berg (2014), Belk (2014), Haucap (2015), Demary (2015), Codagnone und Martens (2016) sowie Dittmann und Kuchinke (2016).

96

Justus Haucap und Ulrich Heimeshoff

Da somit erstens die Suchkosten reduziert (vgl. bereits Bakos 1997) und das Matching von Anbietern und Nachfragern erheblich vereinfacht wird und zweitens die Problematik fehlenden Vertrauens überwunden werden kann, können nun private Transaktionen realisiert werden, die in der Vergangenheit an eben diesen Transaktionskosten regelmäßig gescheitert sind (vgl. Allen und Berg 2014; Codagnone und Martens 2016). Durch das vermehrte Teilen von Ressourcen zwischen Privatpersonen ergeben sich jedoch auch wirtschaftspolitisch bedeutsame Fragen (vgl. etwa Edelman und Geradin 2016; Dittmann 2016; Codagnone und Martens 2016): Werden etwa soziale Standards und gesetzliche Regulierungen umgangen und wird so ein unfairer Wettbewerb zwischen gewerblichen und privaten Anbietern von Autofahrten ausgelöst, der gewerbliche Anbieter künstlich benachteiligt? Ist die aktuelle Regulierung angesichts des technischen Fortschritts noch zeitgemäß und sachgerecht? Und: Was bedeuten die neuen Angebote für Verbraucher? Ganz allgemein lässt sich prognostizieren, dass auf langfristigen Geschäftsbeziehungen oder aber auf Regulierung basierendes Vertrauen weniger wichtig wird, da über Datenauswertungen und Reputationssysteme Substitute bereitstehen, die auch einen kurzfristigen Aufbau von Vertrauen ermöglichen. Das Teilen knapper Ressourcen, das so einfacher möglich wird, ist ökonomisch gesehen effizient, da die Ausnutzung von ansonsten ungenutzten Ressourcen so gesteigert werden kann. Hier liegen auch im sog. P2P-Bereich deutliche Effizienzpotenziale, die nicht zu leichtfertig durch eine zu strikte Regulierung vergeben werden sollten. Der Ansatz mit Umsatzschwellen und Grenzwerten zu arbeiten, wie eben bei Mini-Jobs oder im Umsatzsteuerrecht, erscheint hier vielversprechend. Sinnvoll erscheint ein Regulierungsrahmen, bei dem ab gewissen Schwellenwerten Anbieter als gewerblich eingestuft werden, solange sie nicht das Gegenteil belegen können, während umgekehrt Anbieter unterhalb dieser Schwellenwerte als private Anbieter gelten und damit von Auflagen befreit werden, die für gewerbliche Anbieter gelten (vgl. dazu Haucap et al. 2017; Haucap und Konya 2017). Die Stadt Amsterdam etwa hat mit AirBnB eine Vereinbarung getroffen, dass Vermieter nicht als gewerblich eingestuft werden, sofern sie ihre Wohnung an weniger als 60 Tagen im Jahr vermieten. AirBnB kümmert sich zugleich um die Erhebung der City Tax. Ähnliche Regulierungen wären auch für Ride Sharing-Modelle wie Uber denkbar: Bietet jemand an weniger als X Tagen im Monat oder im Jahr seine Dienste an oder verdient jemand weniger als Y Euro, so könnte dies als nicht gewerbliche Tätigkeit klassifiziert werden, ähnlich wie dies implizit immer bei Mitfahrgelegenheiten der Fall war. Die Werte für X und/oder Y wären politisch zu diskutieren. Im Gegensatz zum Komplettverbot von Uber und AirBnB könnten so Effizienzpotenziale gehoben und sinnvolle Transaktionen ermöglicht werden.

Ordnungspolitik in der digitalen Welt

97

4 Breitbandausbau Um die veränderten Geschäftsmodelle und das stärkere Teilen zu ermöglichen, wird die notwendige digitale Infrastruktur benötigt. Der Breitbandausbau ist eines der politisch stark priorisierten Ziele der Bundesregierung. In der Tat ist eine moderne Telekommunikationsinfrastruktur für die wirtschaftliche Entwicklung von hoher Bedeutung, wie zahlreiche Studien immer wieder demonstriert haben, seitdem Röller und Waverman (2001) die prinzipielle Bedeutung von Kommunikationsinfrastrukturen für die wirtschaftliche Entwicklung belegt haben (vgl. etwa Koutroumpis 2009; Czernich et al. 2011; Falck, Haucap und Kühling 2014; Gruber, Hätönen und Koutroumpis 2014; OECD 2015; Minges 2015). Auch die OECD (2016, S. 43) führt in ihrem Economic Outlook aus: „Investment spending has a highmultiplier and good-quality infrastructure projects, including additional spending on clean energy projects, education, skills and telecommunication, would help to support future growth and the capacity of the economy to deliver higher living standards. (…) Options for telecommunication include investment in high-speed broadband networks and deeper fibre deployment.“ Und weiter heißt es dort: „More specifically, increasing investment in public infrastructure that effectively raises growth potential in the medium term (e.g. high-speed broadband networks) and can stimulate private investment in the short term” (OECD 2016, S. 46). Die Bedeutung effizienter Investitionen in eine moderne Kommunikationsinfrastruktur ist erheblich und daher auch als eines der Ziele im Telekommunikationsgesetz (TKG) angelegt. Dem Digital Scoreboard der Europäischen Kommission (2016) zufolge ist die Breitbandversorgung in Deutschland im europäischen Vergleich – entgegen anderer Meinungen – überdurchschnittlich, wenn auch nicht in der Spitzenklasse.11 So ist ein fester Breitbandanschluss in Deutschland für 98 % aller Haushalte verfügbar (97 % in der EU), und auch sogenannte NGA („Next Generation Access“) Anschlüsse stehen 81 % aller deutschen Haushalte (71 % in der EU) zur Verfügung. Auch in ländlichen Gegenden können 93 % der Haushalte einen Breitbandanschluss erhalten. Nachholbedarf besteht in Deutschland allerdings bei schnellen Breitbandanschlüssen mit mehr als 30 Mbit/s Download-Geschwindigkeit sowie bei mobilem Breitband. Nur 21 % der deutschen Haushalte beziehen einen schnellen Festnetzzugang zum Internet; hier liegt Deutschland in der EU auf Platz 17. Und auch bei mobilem Breitband ist Deutschland mit 66 Anschlüssen auf 100 Einwohner (75 in der EU) unterdurchschnittlich.

11 Vgl. für die folgenden Zahlen: https://ec.europa.eu/digital-single-market/en/scoreboard/ germany.

98

Justus Haucap und Ulrich Heimeshoff

Um die Versorgung mit schnellen Internetzugängen im deutschen Festnetz zu verbessern, will die Deutsche Telekom AG (DTAG) nun das sogenannte Vectoring auch im Nahbereich einsetzen. Vectoring ist eine Technologie, welche die Geschwindigkeit des Kupferkabels noch einmal deutlich steigert. Typischerweise entstehen beim Datenverkehr über Kupferleitungen elektromagnetische Störungen, die den Datenfluss stören und verlangsamen. Besonders problematisch ist das sogenannte „Übersprechen”, bei dem sich unterschiedliche Signale aus verschiedenen Kabeladern überlagern. Genau diese Probleme werden durch die VectoringTechnologie eliminiert, so dass eine schnellere Internetverbindung möglich wird. Allerdings liegt ein Problem des Vectoring-Einsatzes darin, dass an jedem Kabelverzweiger nur ein Anbieter Vectoring einsetzten kann, da die Kontrolle des Kupferkabels in einer Hand liegen muss, um die elektromagnetischen Störungen erfolgreich herauszufiltern. Somit entsteht ein prinzipielles Spannungsverhältnis zwischen Wettbewerb einerseits und einer höheren Qualität/Leistungsfähigkeit andererseits. Das o. g. Ziel der Bundesregierung, bis 2018 bei rund 80 % aller Haushalte in Deutschland die Breitbandversorgung auf eine Geschwindigkeit von mindestens 50 Mbit/s zu erhöhen, kann mit Vectoring als relativ kostengünstige Übertragungstechnologie erreicht werden, wenn Glasfaser in Deutschland ausgebaut und mit Vectoring kombiniert wird (vgl. Falck, Haucap und Kühling 2014). Ein wesentlicher Vorteil des Vectorings liegt darin, dass eine Versorgung mit mindestens 50 Mbit/s kurzfristig und relativ kostengünstig nahezu flächendeckend möglich wird. Damit entstehen Innovationschancen mit positiven Effekten für das gesamtwirtschaftliche Wachstum, was sich wiederum positiv auf die Nachfrage auswirken und den Glasfaserausbau beschleunigen kann. Die Verfügbarkeit moderner Breitbandanschlüsse kann durch den Einsatz von Vectoring in Deutschland somit relativ kostengünstig erreicht werden. Auch der Subventionsbedarf für sogenannte Next-Generation-Access-(NGA-) Flecken wird dann geringer als bislang veranschlagt. Der Breitbandausbau mit Hilfe von Vectoring kann zugleich evolutionär vorangehen und sich am tatsächlichen Bedarf der Nachfrager orientieren, d. h. es steht eine nachfragebasierte Methode zur Verfügung, die nicht politische Ex-ante-Festlegungen auf bestimmte Bandbreiten voraussetzt. Solche Festlegungen können sehr schnell veralten, weil kaum zu prognostizieren ist, welche Bandbreiten von den Verbrauchern künftig wann nachgefragt werden. Eine Ausrichtung der Bandbreiten an den Zahlungsbereitschaften der Konsumenten lässt den Markt über die konkreten Ausbauerfordernisse entscheiden. Neuere empirische Forschungsbeiträge zeigen nämlich gerade, dass die aggregierte Breitbandpenetration, und damit implizit auch die aggregierten Investitionen in den Breitbandausbau, zu einem nicht unwesentlichen Teil nachfragegetrieben sind. Der Umfang der Nachfrage und dementsprechend auch die Zahlungsbereitschaft der Haushalte wird dabei von diversen Faktoren wie dem Bildungsniveau

Ordnungspolitik in der digitalen Welt

99

sowie dem Grad der Nutzung von Informations- und Kommunikationstechnologie durch die Bevölkerung signifikant beeinflusst (vgl. Trkman, Blasic & Turk 2008; Lin und Wu 2013). Des Weiteren zeigen Haucap, Heimeshoff und Lange (2016) sowie weitere Studien, dass der Intra-Plattform-Wettbewerb sich wesentlich weniger auf die Breitbandpenetration auswirkt als der Inter-Plattform-Wettbewerb zwischen Kabel-TV- und Telekommunikationsnetzen. Vectoring bietet hier eine Technologie, die dafür sorgt, dass auch im Telekommunikationsnetz kurzfristig höhere Bandbreiten kosteneffizient erzielt werden können und langfristig eine Erweiterung des Glasfaserausbaus möglich ist. Durch die Erhöhung der Übertragungsraten wird erstmals wirksamer Infrastrukturwettbewerb mit den Kabelnetzbetreibern ermöglicht (vgl. Monopolkommission 2015a, Tz. 38). Letztere besitzen bislang eine dominierende Position beim Angebot höchster Bandbreiten. Neben dem direkten Wettbewerb zwischen der Deutschen Telekom und den Kabelnetzbetreibern ermöglicht der Zugang der Wettbewerber durch ein sogenanntes VULA-Produkt oder, falls dieses aus Kapazitätsgründen nicht möglich sein sollte, ein Layer-2-Bitstrom-Zugangsprodukt den Wettbewerb auf Dienstebene für Wettbewerber der DTAG gegenüber den Kabelnetzen. Erst mit der Möglichkeit, Bandbreiten im 50 Mbit/s-Bereich anzubieten, können Wettbewerber in Konkurrenz zu den Kabelnetzbetreibern treten. Folglich sind es nicht zuletzt die Wettbewerber auf dem Netz der Deutschen Telekom, die von den getätigten Investitionen in Vectoring maßgeblich profitieren, denn sie erhalten Zugang zu immer höheren Bandbreiten, wodurch sich neue Absatzmöglichkeiten erschließen. Somit wird der lokale Wettbewerb durch den weiteren Vectoring-Ausbau nicht gemindert, sondern gestärkt. Erst dadurch wird es sowohl für die DTAG als auch über neue Zugangsprodukte für die Wettbewerber möglich, den Kabelnetzbetreibern im hochbitratigen Bereich deutlich Konkurrenz zu machen. Ohne den Einsatz von VDSL2-Vectoring bliebe vielerorts den Kunden die Möglichkeit vorenthalten, Datengeschwindigkeiten von 50 Mbit/s und mehr nachzufragen. Wettbewerbliche Angebote wären in diesen Gebieten ohne Vectoring gänzlich ausgeschlossen. Aus wohlfahrtsökonomischer Perspektive ist jedoch die NichtEinführung von Innovationen deutlich schädlicher als potenziell mögliche Einschränkungen des Wettbewerbs, sofern diese zu erwarten wären (vgl. Baake et al. 2007). Durch den geplanten Ausbau im Nahbereich kann intermodaler Wettbewerb somit (a) dort neu entstehen, wo erstmals Bandbreiten von 50 Mbit/s und mehr angeboten werden können, und (b) überall dort intensiviert werden, wo der hochbitratige Breitbandausbau die verbesserten Angebote mit erhöhter Down- und Upload-Geschwindigkeit zukünftig wettbewerbsfähig bleiben lässt. Letzteres kann auch dadurch gesichert werden, dass perspektivisch höhere Datenraten als die heute möglichen 50 oder 100 Mbit/s über die letzte Meile realisiert werden können. Dies entspricht in etwa einer Verdoppelung der Downstream- und einer Vervierfachung der Upstream-Geschwindigkeit gegenüber dem herkömmlichen VDSL2 ohne

100

Justus Haucap und Ulrich Heimeshoff

Vectoring. Mit Angeboten wie G.fast 12 oder Bonding,13 die auf den geplanten VDSLNetzen aufbauen, sind flächendeckend Geschwindigkeiten von 250 Mbit/s bis zu 1 Gbit/s technisch realisierbar. Dies ist ein weiterer Schritt zur zeitnahen Versorgung der Bevölkerung mit schnellem Internet und zur Umsetzung der „Digitalen Agenda für Europa“.14 Als Fazit bleibt, dass die kurzfristig angestrebten mindestens 50 Mbit/s für viele ländliche und halbstädtische Gebiete eine signifikante Qualitätsverbesserung und damit einen nicht zu vernachlässigbaren Faktor im Rahmen von Ansiedlungsentscheidungen von Unternehmen sowie der Erschließung neuer Wohngebiete darstellen. Dies ist für die wirtschaftliche Entwicklung in Deutschland insgesamt bedeutend, aber auch für die regionale Entwicklung. In der Literatur wird belegt, dass die Verfügbarkeit breitbandigen Internets eine wesentliche Determinante im Rahmen von individuellen Ansiedlungsentscheidungen ist (vgl. Kolko 2012; Mack, Anselin und Grubesic 2011, sowie Mack und Grubesic 2009). Der Bundesnetzagentur ist es insgesamt gelungen, einen angemessenen Ausgleich zwischen Investitionsanreizen und Schutz des Wettbewerbs zu gewährleisten. Gleichwohl muss angemerkt werden, dass der Breitbandausbau allein nur ein notwendiger Baustein ist, um die Digitalisierung in Deutschland voranzutreiben. Zum einen hat Deutschland ohnehin gewisse natürliche Standortnachteile für solche Innovationen, die Verbraucher direkt betreffen wie etwa Amazon, Google, Facebook, AirBnB, Uber, eBay etc. Im Gegensatz zu den USA und anderen Märkten ist Englisch nicht unsere Muttersprache, zudem ist der deutsche Markt ohnehin schon kleiner als die USA oder auch China. Innovationen für Verbraucher werden daher sicher nur selten zuerst in Deutschland entwickelt und getestet. Zum anderen sind aber auch die Rahmenbedingungen in Deutschland für Gründer und Innovatoren oftmals wenig gut, da beispielsweise die Regulierung vieler Bereiche sehr strikt ist wie etwa der tendenziell unternehmensfeindliche Datenschutz. In der Kombination können natürliche und institutionelle Standortnachteile eine toxische Mischung für den Standort ergeben. In der Tat ist heute unter den 20 größten Internetunternehmen der Welt kein einziges europäisches.

12 G.fast ist ein Akronym für „fast access to subscriber terminals“, zu Deutsch: Schneller Zugang zu Kundenendgeräten. G.fast basiert, ebenso wie VDSL2, auf Vectoring und ermöglicht über die Teilnehmeranschlussleitung (TAL) Übertragungsraten bis zu 1 Gbit/s. G.fast ist nach heutigem Stand nur auf relativ kurzen Entfernungen von 250 Metern wirksam, daher wird davon ausgegangen, dass in Zukunft ein gemischter Betrieb von G.fast und anderen xDSL-Technologien zur Anwendung kommen wird. 13 Bonding bezeichnet die Kombination mehrerer (bis zu 4) TALen. Bei VDSL Bonding werden vom Anbieter meist zwei Kupferdoppeladern zu einem VDSL-Bonding-Anschluss zusammengeschaltet. Diese Technik erlaubt Datenraten von über 200 Mbit/s. Durch die zusätzliche Kombination von Bonding und Vectoring werden die möglichen Bandbreiten sogar noch weiter gesteigert, so dass bis zu 300 Mbit/s möglich sind. 14 Europäische Kommission, Mitteilung KOM(2010)245.

Ordnungspolitik in der digitalen Welt

101

Unter den 20 größten Tech-Unternehmen der Welt ist immerhin SAP, allerdings auch seit langem das einzige deutsche Unternehmen. Deutschland droht den Anschluss in diesem wichtigen Zukunftsfeld zu verlieren. Es wird daher auch nicht ausreichen, noch mehr und schnelleres Breitband zu vergraben, wenn die Rahmenbedingungen nicht stimmen, um interessante Dienste und Inhalte zu entwickeln.15 Die Entwicklung interessanter Angebote und Plattformen scheitert vielmehr an anderen Dingen, wie z. B. der Rückständigkeit von Behörden und öffentlichen Institutionen im Bereich der Digitalisierung. Die Expertenkommission für Forschung und Innovation (EFI) der Bundesregierung spricht von einer „digitalen Service-Wüste in deutschen Amtsstuben“ (vgl. Expertenkommission Forschung und Innovation 2016). Die Europäische Kommission (2016) hat Deutschland in ihrem jährlichen European Digital Progress Report im Bereich E-Government unter den 28 EU-Staaten gerade auf Platz 18 gerankt.16 Auch bei der Verfügbarkeit öffentlicher Daten (Open Data) liegt Deutschland zurück.17 Da aber gerade in der digitalen Welt viele neue Dienste auf der Verarbeitung und intelligenten Nutzung von Daten basieren, ist ein Knausern mit öffentlichen Daten eher innovationshemmend. Der strikte Datenschutz sowie die regelmäßige Untersagung oder mindestens strikte Regulierung neuer Geschäftsmodelle tut ihr Übriges. Neben der Frage des Breitbandausbaus und seiner Finanzierung stellt sich auch die Frage, ob große Infrastrukturbetreiber, sowohl bei Netzen als auch von IT-Infrastruktur (etwa für das Cloud Computing18) – ähnlich wie Banken – Systemrelevanz erlangen können und einer besonderen Aufsicht bedürfen. Ähnlich wie Banken können diese Anbieter essentiell für das Funktionieren von Wirtschaftsabläufen sein, sie benötigen besonderes Vertrauen. Über die Frage einer möglichen Systemrelevanz und der Konsequenzen ist jedoch noch relativ wenig nachgedacht worden.

5 Kartellrechtsanwendung auf Online-Märkten 5.1 Anmerkungen zum Google-Shopping-Fall Die sachgerechte Kartellrechtsanwendung auf digitalen Märkten ist schon seit Langem Gegenstand detaillierter Analysen und intensiver Diskussionen (vgl. Haucap und Stühmeier 2016). Verschiedene Kartellbehörden wie etwa das Bundeskartell-

15 Zur Interdependenz von Breitbandausbau und -regulierung einerseits und der Entwicklung innovativer Dienste andererseits vgl. Haucap und Klein (2012). 16 https://ec.europa.eu/digital-single-market/en/desi sowie www.zeit.de/digital/internet/2016-05/ e-government-digitalisierung-deutschland-fortschrittsbericht. 17 Vgl. etwa https://okfn.de/blog/2016/01/statements_open_data_vorsaetze/. 18 Zu den Potenzialen des Cloud Computing vgl. Bräuninger et al. (2012).

102

Justus Haucap und Ulrich Heimeshoff

amt oder auch die Europäische Kommission haben hier bereits vielfältige Aktivitäten entwickelt. Insbesondere diverse Wettbewerbsbeschränkungen des InternetHandels haben sich jüngst zu einem Schwerpunkt der Kartellrechtsdurchsetzung entwickelt. Besonders prominent ist dabei das Brüsseler Kartellrechtsverfahren gegen Google wegen einer angeblich missbräuchlichen Bevorzugung der eigenen Shopping-Plattform Google Shopping. Die bisherigen Analysen zeigen nun erstens, dass die Marktabgrenzung bei Suchmaschinen äußerst schwierig ist: zum einen weil für Suchanfragen kein Entgelt von den Nutzern erhoben wird, sondern Nutzer mit ihren Daten bzw. ihrer Aufmerksamkeit für die platzierten Werbeanzeigen zahlen, sodass typische Instrumente der Marktabgrenzung nicht anwendbar sind, und zum anderen weil Internetsuchen nicht nur über universelle Suchmaschinen erfolgen, sondern auch bei spezialisierten Webseiten. So wird bei Amazon nach Büchern und vielen anderen Produkten gesucht, ebenso bei eBay, bei Wikipedia nach allgemeinen Informationen, in sozialen Netzen nach Personen etc. Das mögliche Substitutionsverhalten der Nutzer ist hier bisher wenig ergründet worden, was eine sachgerechte Marktabgrenzung erschwert. Zweitens ist auch der Nachweis einer angeblich verzerrten Darstellung von Suchergebnissen schwer zu erbringen, schließlich muss eine Suchmaschine die Treffer sortieren, sonst wäre sie ziemlich nutzlos (vgl. Bracha und Pasquale 2008; Edelman 2011; Haucap und Kehder 2013). Und drittens sind auch die möglichen Abhilfen allesamt nicht ohne Nebenwirkungen (vgl. Bork und Sidak 2012; Ammori und. Pelican 2012, Haucap und Kehder 2013). Eine Entflechtung von Suchmaschinen wäre hochgradig innovations- und damit auch nutzerunfreundlich. Die Vorgabe einer Suchneutralität (vgl. dazu Crane 2012, Grimmelmann 2011; Dewenter und Lüth 2015) hört sich zwar gut an, dürfte aber in der Praxis faktisch kaum operationalisierbar sein, da sich Googles Suchalgorithmus fast 1000-mal im Jahr ändert. Wer legt dann fest, was „neutral“ ist, wer soll das überprüfen und für welche Suchanfragen soll das gelten – etwa für alle denkbaren? Eine regulatorisch verordnete Suchneutralität dürfte faktisch kaum ohne einen gigantischen Ressourceneinsatz überprüfbar sein (vgl. insbesondere auch Grimmelmann 2011). Am besten scheinen hier weitere Transparenzvorgaben zu sein, die es den Nutzern erstens noch deutlicher machen, welche Links sog. organische Suchtreffer sind und welche nicht, und zweitens zwischen Google-Inhalten und anderen unterscheiden.19 Gleichwohl birgt selbst eine solche Transparenzvorschrift die Gefahr, dass sie anders wirkt als beabsichtigt – nämlich nicht abschreckend, sondern als Werbung für die hohe Qualität der Google-Produkte. So wie vor über 100 Jahren die britische Vorschrift, zum Schutz britischer Produkte deutsche Konkurrenzprodukte als „Made in Germany“ zu brandmarken, ihre Intention nicht nur verfehlte,

19 Weitere Details finden sich bei Bracha und Pasquale (2008), Manne und Wright (2011, 2012), Ammori und Pelican (2012), Pollock (2010), Haucap und Kehder (2013).

Ordnungspolitik in der digitalen Welt

103

sondern das Gegenteil bewirkte (nämlich Werbung für die hohe Qualität deutscher Produkte war), so könnte auch eine vorgeschriebene farbliche oder anderweitige Hervorhebung von Google-Produkten eher werbewirksam sein als abschreckend. Die Abhilfe hätte in diesem Fall ihr Ziel verfehlt.

5.2 Doppelpreissysteme Auch Vertikalvereinbarungen im Internethandel sind aktuell ein intensiv diskutiertes Thema (vgl. Dolmans und Leyden 2012; Dolmans und Mostyn 2015). Insbesondere Randnummer 52 der Leitlinien für vertikale Beschränkungen der Europäischen Kommission ist hier relevant. Dort heißt es: „Da im Vergleich zu den bisherigen Verkaufsmethoden über das Internet mehr oder andere Kunden schnell und effektiv angesprochen werden können, werden bestimmte Beschränkungen über die Nutzung des Internets als (Weiter-)Verkaufsbeschränkungen behandelt. Prinzipiell muss es jedem Händler erlaubt sein, das Internet für den Verkauf von Produkten zu nutzen.“ Als spezielle Beispiele, in denen nach Auffassung der Kommission eine Kernbeschränkung des passiven Verkaufs vorliegt, werden vier Fallgruppen genannt: a) wenn vereinbart wird, dass der Händler/Alleinvertriebshändler verhindert, dass Kunden aus einem anderen Gebiet/Alleinvertriebsgebiet seine Website einsehen können, oder dass er auf seiner Website eine automatische Umleitung auf die Website des Herstellers oder anderer Händler/Alleinvertriebshändler einrichtet; dies schließt nicht aus, dass vereinbart wird, dass die Website des Händlers zusätzlich Links zu Websites anderer Händler und/oder Anbieter enthält; b) wenn vereinbart wird, dass der Händler/Alleinvertriebshändler Internet-Transaktionen von Verbrauchern unterbricht, sobald ihre Kreditkarte eine Adresse erkennen lässt, die nicht im Gebiet/Alleinvertriebsgebiet des Händlers liegt; c) wenn vereinbart wird, dass der Händler den über das Internet getätigten Teil der Gesamtverkäufe begrenzt; dies hindert den Anbieter weder, vom Abnehmer zu verlangen (ohne die Online-Verkäufe des Händlers zu beschränken), dass er das Produkt mindestens in einem nach Wert oder Menge bestimmten absoluten Umfang offline verkauft, um einen effizienten Betrieb seines physischen Verkaufspunkts zu gewährleisten, noch sicherzustellen, dass das OnlineGeschäft des Händlers mit dem Vertriebsmodell des Anbieters im Einklang steht (siehe die Randnummern 54 und 56); der absolute Umfang der geforderten Offline-Verkäufe kann für alle Abnehmer identisch sein oder anhand objektiver Kriterien, beispielsweise der Größe des Abnehmers im Vertriebsnetz oder seiner geografischen Lage, im Einzelfall festgelegt sein; d) wenn vereinbart wird, dass der Händler für Produkte, die er online weiterverkaufen will, einen höheren Preis zahlt als für Produkte, die offline verkauft werden sollen. Dies schließt nicht aus, dass der Anbieter mit dem Abnehmer eine feste Gebühr vereinbart (d. h. keine variable Gebühr, die mit erzieltem Offline-Umsatz steigen würde, da dies indirekt zu einem Doppelpreissystem führen würde), um dessen Offline- oder Online-Verkaufsanstrengungen zu unterstützen.

Konkret geht es also um Plattformverbote, die mengenmäßige Begrenzung der online vertriebenen Produkte sowie Doppelpreissysteme. Diese Beschränkungen des

104

Justus Haucap und Ulrich Heimeshoff

Internethandels, angefangen von vollständigen Verbotsvorgaben seitens der Hersteller, „ihre“ Produkte im Internet zu verkaufen, über mengen- und anteilsmäßige Beschränkungen des Internethandels bis hin zu einer preislichen Incentivierung des stationären Vertriebs werden vom Bundeskartellamt und der Europäischen Kommission als preisliche Benachteiligung und somit Beschränkungen des OnlineHandels interpretiert und bisher als sog. Kernbeschränkung eingestuft. Die Einstufung als Kernbeschränkung impliziert, dass selbst Unternehmen, die nicht über erhebliche Marktmacht verfügen und auch nur sehr kleine Marktanteile haben, weder den Vertrieb „ihrer“ Produkte über das Internet allgemein oder auch nur bestimmte Plattformen (wie etwa eBay) ausschließen dürfen noch dürfen sie Sonderkonditionen und Leistungsrabatte für den stationären Vertrieb gewähren. Dies gilt völlig unabhängig vom Marktanteil der beteiligten Unternehmen. Die wettbewerbsökonomische Literatur arbeitet diesbezüglich Fragen und Probleme heraus, die von Wettbewerbsbehörden oftmals vernachlässigt werden. Strittig ist insbesondere die Frage, ob bzw. wie weit untersuchte Geschäftspraktiken den Wettbewerb tatsächlich erheblich einschränken oder ob sie nicht sogar den Wettbewerb fördern, sodass gerade ihr Verbot faktisch den Wettbewerb beschränkt.20 Dies gilt für das Plattformverbot, das gerade bei Luxusartikeln und Statussymbolen aus Imagegründen seine Rechtfertigung haben kann, und noch mehr für das weitgehende Verbot von sog. Preisspaltungen bei Herstellerabgabepreisen, welche zwischen Online- und Offline-Vertriebswegen der Händler differenzieren. Den europäischen Leitlinien für vertikale Beschränkungen zufolge sind Vereinbarungen zwischen Herstellern und Händlern verboten, nach denen ein Händler für online vertriebene Mengen eines Produktes einen höheren Preis an den Hersteller zahlen muss als für offline vertriebene Einheiten (sog. Doppelpreissystem bzw. Preisspaltung). Begründet wird das Verbot, Händlern höhere Rabatte für stationär vertriebene Mengen zu gewähren, mit der prinzipiellen Unzulässigkeit jeglicher preislicher Schlechterstellung der online vertriebenen Mengen. Allenfalls in engen Ausnahmefällen kommt eine Einzelfreistellung in Betracht, wenn der Onlinevertrieb für den Hersteller mit deutlich höheren Kosten verbunden ist als Offlineverkäufe. Das Bundeskartellamt hat diese Preisspaltung in jüngerer Zeit in zahlreichen Verfahren gegen deutsche Hersteller untersucht und ein Ende der vertriebswegbezogenen Preisspaltung erreicht (vgl. etwa Pautke und Billinger 2016). Die Wettbewerbswirkungen einer Preisspaltung sind jedoch keineswegs so eindeutig, wie es die Leitlinien für vertikale Beschränkungen und die Kartellrechtspraxis erwarten lassen. Vielmehr kann gerade die Preisspaltung den intermodalen Wettbewerb zwischen Online- und Offline-Händlern fördern, wie Dertwinkel-Kalt, Haucap und Wey (2016) zeigen. Gerade die Preisspaltung zwischen online und off-

20 Siehe beispielsweise zu Vertikalbeschränkungen im Internet: OECD (2013), Bundeskartellamt (2013, 2015) sowie Haucap und Stühmeier (2016).

Ordnungspolitik in der digitalen Welt

105

line vertriebenen Produkten ermöglicht es den Herstellern, auch den eigentlich teureren stationären Handel am Leben zu halten. Ist eine Preisspaltung untersagt, kann stationären Händlern aufgrund ihrer höheren Vertriebskosten das Ende drohen, da der stationäre Handel im Wettbewerb mit dem kostengünstigeren Internetvertrieb nicht mehr konkurrenzfähig ist. Verschwinden jedoch mittelfristig die stationären Händler droht eine Marktkonzentration und somit ein Verlust an Wettbewerb zwischen den Vertriebsformen zu Lasten der Verbraucher. Wie DertwinkelKalt, Haucap und Wey (2015) zudem zeigen, können starke Internethändler wie etwa Amazon ihre Verhandlungsmacht sogar strategisch dazu nutzen, die stationären Händler vom Markt zu verdrängen, indem sie für alle ungünstige Beschaffungskonditionen aushandeln, die nur noch die marktstarken Internethändler sich leisten können. Ein Verbot der Preisspaltung sichert in diesem Fall nicht den Wettbewerb, sondern – ganz im Gegenteil – würgt ihn sogar künstlich ab – zu Lasten sowohl von Herstellern als auch Verbrauchern. Dies betrifft mittelfristig nicht nur den Wettbewerb auf der Handelsebene, sondern auch unter Herstellern, da neue oder expandierende Hersteller es bei einer zunehmenden Konzentration auf der Handelsseite schwieriger haben werden, Händler zu finden, die zu einer Einlistung neuer Produkte bereit sind.

5.3 Bestpreisklauseln Neben Preisspaltungen sind Meistbegünstigungsklauseln wie etwa Bestpreisklauseln prominente Beispiele für Wettbewerbsbeschränkungen im Online-Handel, die von den Kartellbehörden sehr kritisch betrachtet werden. Bekannte Fälle sind der Apple-EBook-Fall der Europäischen Kommission (vgl. Germain und White 2014; De los Santos und Wildenbest 2014) sowie in Deutschland das Verfahren gegen HRS und später auch andere Online-Hotelbuchungsportale (vgl. etwa Hamelmann, Haucap und Wey 2015; Hunold et al. 2017). Auch die Wettbewerbswirkungen dieser Fälle sind bei genauer Analyse weniger eindeutig als die Rechtsprechung vermuten lässt. Im Verfahren gegen Apple ging es zum einen um die Einrichtung einer Bestpreisklausel, nach der E-Books über die Apple-Plattformen nicht teurer verkauft werden dürfen als auf der günstigsten anderen Plattform (ein sog. Across Platform Parity Agreement – APPA), zum anderen um die Umstellung beim E-Book-Vertrieb vom sog. Großhandelssystem, bei dem die Händler die E-Books zunächst einkaufen und dann weiterverkaufen, auf das sog. Handelsvertretermodell, bei dem die Händler lediglich eine Provision für jedes verkaufte E-Book erhalten, jedoch die EBooks gar nicht erst selbst erwerben (vgl. dazu Vezzoso 2015). Während eine isolierte Betrachtung der E-Book-Preise schnell auf Preissteigerungen schließen lässt, ist die Lage weitaus weniger eindeutig, wenn auch die Preise der komplementären Lesegeräte für E-Books betrachtet werden, welche parallel gesunken sind (vgl. dazu Gaudin und White 2014).

106

Justus Haucap und Ulrich Heimeshoff

Auch das HRS-Verfahren des Bundeskartellamts ist nicht unumstritten. Wieder ging es um APPA, hier um die Vereinbarung Hotelzimmer nirgendwo günstiger anzubieten als bei HRS (sog. Bestpreisklausel), und wieder ergeben sich bei der sachlichen Marktabgrenzung auf Plattformmärkten sowie bei den entwickelten Schadenstheorien nicht unerhebliche Schwierigkeiten (vgl. dazu Hamelmann, Haucap und Wey 2015). Aufgrund der noch wenig klaren Wirkungsweisen von APPA (vgl. Buccirossi 2013) sowie den konzeptionellen Problemen der Marktabgrenzung (vgl. Hamelmann, Haucap und Wey 2015) stellt sich die (durchaus offene) Frage, ob nicht eine behutsamere Vorgehensweise gegenüber den Plattformen ratsamer wäre. So haben z. B. die Wettbewerbsbehörden in Frankreich, Italien und Schweden sog. enge APPA gebilligt. Bei diesen garantieren die Hotels, Zimmer auf der eigenen Webseite nicht günstiger anzubieten als auf der betroffenen Buchungsplattform. Den Hotels bliebe jedoch die Freiheit, auf anderen dritten Plattformen günstigere Angebote zu unterbreiten. Somit kann zumindest das naheliegendste Trittbrettfahrerverhalten – nämlich das Suchen und Vergleichen auf der betroffenen Plattform und das Buchen über die Hotelwebseite – wirksam unterbunden werden, während sich der Wettbewerb zwischen Plattformen ungezügelt entfalten kann. Das OLG Düsseldorf scheint sich dieser Ansicht nicht völlig zu verschließen. Stattdessen hat das Bundekartellamt die Gefahr des Trittbrettfahrerverhaltens rigoros mit der Begründung ausgeschlossen, dass HRS dies nicht durch hinreichende Evidenz habe substantiieren können. Hier liegt jedoch ein konzeptionelles Problem: Die Existenz von Trittbrettfahrerverhalten lässt sich kaum belegen, wenn das Problem – z. B. durch die Implementierung von APPA – erfolgreich beseitigt und somit überwunden wurde. Die Zuweisung der Beweislast an das Unternehmen ist dann äquivalent zu einem Per-se-Verbot ohne die Möglichkeit der Berücksichtigung von etwaigen Effizienzen.21 Im vorliegenden Fall mag sich der Schaden in Grenzen halten, denn auch ohne Bestpreisklauseln scheinen die Online-Buchungsportale absolut und auch im Vergleich zu anderen Vertriebskanälen weiter zugelegt zu haben, auch wenn die Hotels zunehmend günstigere Angebote auf der eigenen Webseite oder in anderen Vertriebskanälen anbieten (vgl. Hunold et al. 2017). Das prinzipielle Problem besteht jedoch fort, dass Vertikalbeschränkungen sehr rigoros von den Kartellbehörden bekämpft werden, obgleich ihre Wettbewerbseffekte keineswegs eindeutig sind. Zwar fordert auch der Generalanwalt am EuGH, Nils Wahl, dass nur solche Verhaltensweisen als bezweckte Wettbewerbsbeschränkungen eingestuft werden sollten, „deren schädlicher Charakter angesichts gesicherter Erfahrung und der wirtschaftswissenschaftlichen Erkenntnisse feststeht und leicht nachweisbar ist, nicht aber Vereinbarungen, die angesichts des Zusammenhangs, in den sie sich einfügen, ambivalente Auswirkungen auf den Markt haben.“ Jedoch verhallen diese Forderungen bisher noch weitgehend ohne Resonanz. Der langfris-

21 Für weitere Details siehe Hamelmann, Haucap und Wey (2015).

Ordnungspolitik in der digitalen Welt

107

tige Kollateralschaden für Fachhandel und stationären Vertrieb (und damit auch für die Innenstädte) könnte erheblich sein.

5.4 Implikationen der 9. GWB-Novelle für digitale Märkte Am 9. Juni 2017 ist die neunte GWB-Novelle in Kraft getreten. Während der Auslöser für die Novelle die Umsetzung europarechtlicher Vorgaben zur erleichterten Durchsetzung privater Rechtsansprüche auf Schadensersatz gegenüber Kartellen war und dies auch einen großen Teil der Novelle einnimmt, sind zugleich drei Paragraphen eingeführt worden, die sich direkt auf die digitale Wirtschaft beziehen. Erstens ist dies der neue § 18 Abs. 2a GWB, welcher lautet: „Der Annahme eines Marktes steht nicht entgegen, dass eine Leistung unentgeltlich erbracht wird.“ Diese Feststellung war in der deutschen Rechtsprechung lange umstritten (vgl. etwa Podszun und Franz 2015). Gerade für mehrseitige Märkte ist diese Feststellung jedoch wichtig. So bieten etwa Google und Facebook einen großen Teil ihrer Dienstleistungen unentgeltlich an. Stattdessen würden die Nutzer mit ihren Daten bezahlen, wird oftmals suggeriert, auch wenn dies aus Nutzersicht nicht ganz richtig ist. Knapp sind nämlich nicht die Daten der Nutzer, sondern (a) ihre Aufmerksamkeit und (b) ihre Privatsphäre. Die Nutzer „zahlen“ somit, indem sie (personalisierten) Werbeanzeigen Aufmerksamkeit schenken und (b) einen Teil ihrer Privatsphäre aufgeben. Gleichwohl zahlen sie nicht mit Geld, sodass auch keine Umsätze auf dieser Seite der mehrseitigen Plattform kalkulierbar wären. Würde die Abwesenheit von Zahlungsströmen von Nutzern an Facebook und Google nun auch implizieren, dass hier kein Markt vorläge, so könnten Google und Facebook logischerweise auch nicht beherrschen was nicht existierte, also nicht marktbeherrschend sein und auch keine Marktmacht missbrauchen. Aus ökonomischer Sicht ist es jedoch unerheblich, ob für Leistungen mit Geld oder anderen Dingen (wie etwa der Aufmerksamkeit für Werbung) „bezahlt“ wird, solange die Gegenleistung für den Leistungserbringer einen Wert hat (weil sie eben knapp ist). Für die Kartellrechtsdurchsetzung ist es daher sehr hilfreich, die ökonomische Perspektive hier zu übernehmen, um eine Kartellrechtsdurchsetzung nicht schon daran scheitern zu lassen, dass mit den Nutzern nicht direkt, sondern eben nur indirekt Umsätze (über die Vermarktung von Werbung) generiert werden. Die zweite Neuerung im deutschen Kartellrecht ist die Einführung einer neuen transaktionswertabhängigen Schwelle für die Fusionskontrolle, die ab einem Transaktionswert von 400 Mio. EUR greift. Zusätzlich zu den bisher bestehenden Schwellenwerten sind nun auch Transaktionen anmeldepflichtig, die einen Zusammenschlusstatbestand des § 37 GWB darstellen, wenn (1) die beteiligten Unternehmen insgesamt weltweite Umsatzerlöse von mehr als 500 Euro Millionen im letzten Geschäftsjahr vor dem Zusammenschluss erzielt haben, (2) im Inland im letzten Geschäftsjahr vor dem Zusammenschluss (a) ein beteiligtes Unternehmen Umsatzerlöse von mehr als 25 Millionen Euro erzielt hat und (b) weder das zu erwerbende

108

Justus Haucap und Ulrich Heimeshoff

Unternehmen noch ein anderes beteiligtes Unternehmen Umsatzerlöse von jeweils mehr als 5 Millionen Euro erzielt haben, (3) der Wert der Gegenleistung für den Zusammenschluss mehr als 400 Millionen Euro beträgt und (4) das zu erwerbende Unternehmen nach Nr. 2 in erheblichem Umfang im Inland tätig ist. Die transaktionswertabhängige Schwelle von 400 Millionen Euro führt zu einer Ausdehnung des deutschen Fusionskontrollregimes. Hintergrund der Einführung dieser neuen wertorientierten Aufgreifschwelle war die Übernahme von WhatsApp durch Facebook im Jahr 2014, die in vielen Ländern einer fusionskontrollrechtlichen Prüfung entzogen war, da die Umsätze der beteiligten Unternehmen die existierenden Umsatzschwellenwerte nicht erreichten (vgl. Monopolkommission 2015a). Während der Ansatz zweifelsohne aus ökonomischer Sicht richtig ist, da sich das Potenzial eines Unternehmens gerade bei jungen, innovativen Firmen eher im Kaufpreis als in den Umsätzen des letzten Jahres zeigt, ist die gewählte Schwelle von 400 Millionen Euro vergleichsweise hoch. In den USA etwa besteht eine Notifizierungspflicht in jedem Fall ab einem Transaktionswert von 323 Mio. US$ und bei Erwerbern mit einem Umsatz oder eigenem Unternehmenswert von mehr als 161,5 Mio. US$ eine Notifizierungspflicht ab einem Transaktionswert von 80,8 Mio. US$.22 Diese deutlich geringeren Werte gelten, obgleich der US-Markt viel größer ist als der deutsche Markt. Daher sollte die Schwelle in Deutschland, wenn überhaupt, unter der amerikanischen liegen, nicht aber bei einem mehr als fünffachen Wert. Faktisch dürften so kaum mehr Fusionen als bisher von der Notifizierungspflicht erfasst werden. Drittens werden in § 18 Abs. 3a GWB nun Kriterien definiert, welche bei der Beurteilung von Marktmacht insbesondere bei Plattformen heranzuziehen sind. Wörtlich heißt es in § 18 Abs. 3a GWB: „Insbesondere bei mehrseitigen Märkten und Netzwerken sind bei der Bewertung der Marktstellung eines Unternehmens auch zu berücksichtigen (1) direkte und indirekte Netzwerkeffekte, (2) die parallele Nutzung mehrerer Dienste und der Wechselaufwand für die Nutzer, (3) seine Größenvorteile im Zusammenhang mit Netzwerkeffekten, (4) sein Zugang zu wettbewerbsrelevanten Daten, (5) innovationsgetriebener Wettbewerbsdruck.“ Die Kriterien reflektieren direkt die Erkenntnisse der ökonomischen Theorie, wie sie oben in Abschnitt 2.1 dargelegt wurden. Das Bundeskartellamt hätte (und hat zumindest teilweise) diese Kriterien auch vor der 9. GWB-Novelle schon herangezogen, sodass die GWB-Novelle hier nicht unbedingt etwas Neues für die praktische Kartellrechtsanwendung bedeutet. Gleichwohl erscheint es sinnvoll, die Kriterien explizit zu benennen, sodass die Vorhersehbarkeit von Kartellrechtsentscheidungen erhöht wird.

22 Diese Werte werden in den USA jährlich (im Wesentlichen um die Preissteigerung) angepasst. Zu den aktuellen Werten für 2017 siehe www.ftc.gov/enforcement/premerger-notification-program/ current-thresholds.

Ordnungspolitik in der digitalen Welt

109

Allerdings muss konstatiert werden, dass die fünf nun in § 18 Abs. 3a GWB genannten Kriterien allesamt weniger gut messbar sind als traditionelle Maße für Marktmacht wie etwa diverse Konzentrationsmaße oder Maße für die Profitabilität eines Unternehmens (etwa der sog. Lerner-Index oder Rendite-Maße). Insofern bleibt abzuwarten, wie die Kartellbehörden die Kriterien bei der Beurteilung der Marktmacht konkret interpretieren werden. Interessant ist schließlich auch, was nicht in der GWB-Novelle adressiert wurde: der Zugang zu Daten. Zwar spielt der Zugang zu wettbewerbsrelevanten Daten nun bei der Beurteilung von Marktmacht nach § 18 Abs. 3a Nr. 4 GWB eine Rolle. Jedoch gibt es keinen expliziten Zugangsanspruch für dritte. In § 19 Abs. 2 Nr. 4 GWB heißt es Ein Missbrauch liegt insbesondere vor, wenn ein marktbeherrschendes Unternehmen als Anbieter oder Nachfrager einer bestimmten Art von Waren oder gewerblichen Leistungen (….) 4. sich weigert, einem anderen Unternehmen gegen angemessenes Entgelt Zugang zu den eigenen Netzen oder anderen Infrastruktureinrichtungen zu gewähren, wenn es dem anderen Unternehmen aus rechtlichen oder tatsächlichen Gründen ohne die Mitbenutzung nicht möglich ist, auf dem vor- oder nachgelagerten Markt als Wettbewerber des marktbeherrschenden Unternehmens tätig zu werden; dies gilt nicht, wenn das marktbeherrschende Unternehmen nachweist, dass die Mitbenutzung aus betriebsbedingten oder sonstigen Gründen nicht möglich oder nicht zumutbar ist.

Ein möglicher Zugangsanspruch bezieht sich somit auf Netze oder „andere Infrastruktureinrichtungen“, nicht jedoch auf mögliche Datenbestände, da diese nicht vom Begriff der Infrastruktureinrichtung erfasst werden. Ein Grund für den Ausschluss von Daten mag in dem noch ungelösten Spannungsfeld zwischen dem Schutz der Privatsphäre und dem Schutz des Wettbewerbs liegen. Allerdings könnten Datenschutzvorschriften auch jederzeit als eine sachliche Rechtfertigung anerkannt werden, die das Verweigern einer Datenherausgabe an Wettbewerber sachlich rechtfertigen würde. Insofern ist hier ggf. noch ein gesetzlicher Nachholbedarf, falls sich gewisse Datenbestände doch als wesentlich für den Wettbewerb im Sinne einer „essential facilitiy“ herausstellen. Herausforderungen ergeben sich insgesamt jedoch keineswegs nur für die Kartellrechtsanwendung. Vielmehr stehen viele Branchen vor einem durch die Digitalisierung ausgelösten Strukturwandel. Im Folgenden soll dies anhand von Beispielen illustriert werden.

6 Einige Beispiele des digitalen Wandels 6.1 Der Wandel der urbanen Mobilität: Car- und Ride-Sharing Starke Veränderungen werden im Zuge der Digitalisierung für den Verkehrsbereich erwartet. Langfristig wird das autonome Fahren Taxen vermutlich überflüssig ma-

110

Justus Haucap und Ulrich Heimeshoff

chen und auch für die Bahn eine starke Konkurrenz werden. Sollten sich zudem mehr und mehr Bürger für das Teilen des Autos, also Car Sharing, entscheiden, wird auch der Autohandel zunehmend unwichtiger. Ob dann bisherige Autovermieter, die ja im Grunde bereits seit langer Zeit Car Sharing betreiben, das Geschäft machen, die Automobilhersteller selbst, Unternehmen wie Google oder auch ganz neue Anbieter, ist heute schwer abzusehen. Ebenso ist heute unklar, ob die Bürgerinnen und Bürger weniger oder doch sogar mehr Autos nachfragen und besitzen werden, da Rebound-Effekte eintreten könnten, wenn durch Peer-to-Peer Car Sharing die Nettokosten der Haltung eines Automobils sinken sollten. Ein in vielen Jurisdiktionen kontrovers diskutiertes Beispiel ist zudem das oben schon angesprochene Beispiel der Plattform Uber, welche Fahrten im urbanen Nahverkehr vermittelt. Trotz dieser Kontroverse – oder vielleicht gerade wegen ihr – wird heute wohl fast jeder konzedieren, dass die Regulierung des Taximarktes völlig überholt und antiquiert ist (vgl. etwa Monopolkommission 2012, 2014). Forderungen nach einer Ortskundeprüfung im Zeitalter von Smartphones und Stadtplandiensten erinnern stark an den Heizer auf der E-Lok, der vermutlich demnächst vom Lokführer im selbstfahrenden Zug begleitet wird. Vor allem aber werden weder Taxifahrer noch Fahrgäste durch die Regulierung von Mindestpreisen in Verbindung mit einer künstlichen Lizenzverknappung (mit Ausnahme von Hamburg und Berlin) geschützt, sondern ausgebeutet. In der Folge blüht nicht nur der Handel mit den Lizenzen zu fünfstelligen Euro-Beträgen,23 sondern auch Schwarzarbeit und Steuerhinterziehung sind im Taxigewerbe ganz besonders verbreitet (vgl. Linne + Krause 2016) – die Folge eines dramatischen Politikversagens. Eine Studie des Berliner Taxigewerbes im Auftrag des Berliner Senats etwa kam zu folgenden Ergebnissen: „Die übergroße Mehrheit der Berliner Taxis (ca. 77 %) werden von irregulär arbeitenden Unternehmen betrieben. (…) Die wenigen noch regulär arbeitenden Taxibetriebe sind einem dramatischen Verdrängungswettbewerb ausgesetzt, der in erster Linie um die Ressource „Fahrpersonal“ ausgetragen wird. Zugang zu Fahrpersonal hat derjenige Unternehmer, der seinen Fahrern Zugriff auf Schwarzeinnahmen und – mit Hilfe unzutreffender Lohnnachweise – Zugriff auf staatliche Transferleistungen verschafft. (…) Aus der u. a. personell bedingten unzulänglichen Aufsicht konnte sich flächendeckend ein Milieu entwickeln, das mittels Steuerhinterziehung und Sozialbetrug die öffentlichen Kassen in hohem Maße schädigt und eine beispiellose Wettbewerbsverzerrung hervorgebracht hat.“ (Linne + Krause 2016, S. 99 f.). Die Vorstellung, im Taxigewerbe würden sozialversicherte Angestellte zu Mindestlöhnen oder höherer Entlohnung geregelter Arbeit nachgehen, muss ins Reich der romantischen Träumereien verbannt werden. Gleichwohl unterliegen selbst Ökonomen diesem Trugschluss, wenn sie etwa die Realität der Uber-Fahrer mit einem hypothetischen, vom Gesetzgeber

23 In Düsseldorf etwa kostet eine Taxi-Lizenz auf dem grauen Markt aktuell laut Branchenkennern etwa 30.000 Euro, in anderen Städten wie Frankfurt sogar mehr.

Ordnungspolitik in der digitalen Welt

111

erträumten Taxigewerbe vergleichen, das jedoch in der Realität nicht existiert. Diese Art der Analyse ist von Demsetz (1969) vor fast 50 Jahren als Nirwana-Ansatz gebrandmarkt worden. Was also läuft falsch auf dem Taxi-Markt? Auf dem Markt für wenig qualifizierte Arbeitskräfte herrscht intensiver Wettbewerb. Neben der Gastronomie sowie Reinigungs- und Sicherheitsdiensten ist das Taxigewerbe ein wichtiger Arbeitgeber für wenig qualifizierte Arbeitnehmer mit ungewöhnlichen Berufswegen. Die künstliche Verknappung der Lizenzen führt nun dazu, dass viele Arbeitnehmer um wenige Jobs konkurrieren, da jede Taxi-Lizenz nur 24 Stunden am Tag im Einsatz sein kann und nicht mehr als ein Fahrer pro Taxi simultan benötig wird. Die Folge: Die potenziellen Fahrer konkurrieren sich im Lohn massiv nach unten. Durch den Mindestlohn ist dies vorerst scheinbar gestoppt, aber der Konkurrenzdruck bleibt. Die Folge dürfte sein, dass die Fahrer sich durchsetzen, die die geringsten Skrupel haben, Regeln zu umgehen. Die Erfahrungen aus Berlin (vgl. Linne + Krause 2016) lassen andere Schlüsse jedenfalls als naiv erscheinen. Mit der Digitalisierung hat dies im Übrigen jedoch rein gar nichts zu tun – im Gegenteil: Die Digitalisierung bringt plötzlich Konkurrenz in das Geschäft der oft monopolistisch organisierten Funkzentralen. Taxifahrer sind viel weniger von einer einzigen Funkzentrale abhängig, wenn sie auf MyTaxi, Uber etc. ausweichen können. Durch den Markteintritt von Uber Taxi, die aktuell etwa 5 % Kommission verlangen, hat MyTaxi die Kommission von zuvor maximal 12 % auf 7 % gesenkt. Der Wettbewerb wirkt also – und zwar zugunsten der Fahrer! Dass den ehemals monopolistischen Funkzentralen sowie den großen Taxiunternehmen, die oft an den Funkzentralen beteiligt sind, dies nicht gefällt, ist klar. Mit der Sorge um die Verbraucher haben die Proteste jedoch nichts zu tun. Durchaus sinnvoll können hingegen Vorschriften zu Versicherungspflichten sowie Anforderungen an Fahrer und Fahrzeug sein (vgl. Peitz und Schwalbe 2016; Dittmann 2016), zumindest ab gewissen Umsatzschwellen. Hier mag man sich etwa an den Grenzwerten bei der Umsatzsteuerpflicht oder für sog. Mini-Jobs orientieren. Nicht jede Mitfahrgelegenheit sollte sofort von der Bürokratie erdrosselt werden, denn das Teilen von Ressourcen – die Sharing Economy – ist nicht nur ökonomisch, sondern oft auch ökologisch vorteilhaft (vgl. Heinrichs 2013). Es gilt nicht, neue Geschäftsmodelle unter altes Recht zu zwängen, sondern das Recht so anzupassen, dass ökonomisch und ökologisch sinnvolle Aktivitäten nicht verhindert werden.24 Bei Überschreiten der Schwellenwerte – welche sich auf den Verdienst in Euro, die gefahrenen Kilometer, die als Fahrer zugebrachte Zeit oder auch eine Kombination aus allem ergeben können – sollten dann die Regelungen für professionelle Taxifahrer gelten. Diese Regulierung ist jedoch zuvor selbst zu entrümpeln, etwa gemäß den Vorschlägen der Monopolkommission (2014, 2016). Auf Orts-

24 Für eine detaillierte Studie der möglichen Verbrauchervorteile durch den Eintritt neuer Anbieter im Markt für urbane Mobilität vgl. Haucap et al. (2017), Santi et al. (2014) sowie Cramer und Krueger (2014).

112

Justus Haucap und Ulrich Heimeshoff

kundeprüfungen kann sicher ebenso verzichtet werden wie auf Mindest- und Festpreise. Langfristig könnten auch Höchstpreise abgeschafft werden, da durch mobile Apps der Preisvergleich selbst für Ortsfremde einfach möglich ist. Ebenfalls zu streichen ist die quantitative Begrenzung der Taxilizenzen, welche die Lizenzpreise auf dem Graumarkt nach oben treibt. Qualitative Vorgaben hinsichtlich Fahrzeug und Fahrer sind als Regulierungsmaßnahmen auf jeden Fall ausreichend. Bei funktionsfähigem Wettbewerb kann ggf. selbst darauf verzichtet werden, da über die heutigen Apps Fahrer und Fahrzeuge bewertet werden können und so Interesse an einem guten Ruf besteht.25 Im Übrigen: Die ultimative Bedrohung für Taxiunternehmen und auch die Taxifahrer sind nicht Uber & Co., sondern – wie eingangs erwähnt – die Entwicklung des selbstfahrenden Autos.

6.2 Der Wandel des Literaturbetriebs: Amazon und die Buchpreisbindung Noch werden nicht einmal 20 % der Bücher in Deutschland über den Online-Buchhandel vertrieben, die weit überwiegende Mehrheit der Literatur wird durch den stationären Buchhandel (rund 50 %) oder die Verlage selbst (rund 21 %) verkauft.26 Doch auch dies wird sich ändern. Der stationäre Buchhandel dürfte langfristig deutlich schrumpfen, trotz Buchpreisbindung. Die Buchpreisbindung verhindert zwar den Preiswettbewerb, nicht aber den Wettbewerb an sich. Der Wettbewerb verlagert sich lediglich auf Parameter wie Beratung, Sortimentsbreite, Zahlungsmöglichkeiten, Verfügbarkeit, Lieferzeiten, und andere Parameter. Bei den meisten dieser Parameter sind Online-Händler wie Amazon nicht zu schlagen. Aufgrund von Big Data ist die Beratung fast zwangsläufig besser: Amazon weiß besser, was die Kunden wollen, als der durchschnittliche Buchhändler das wissen kann. Die Sortimentsbreite ist online ohnehin kaum zu schlagen. Für den stationären Handel sprechen heute vor allem noch die kurzen Lieferzeiten – man kann das Buch direkt mitnehmen. So ist es kein Wunder, dass gerade Amazon stark in Drohnen und moderne Logistik investiert. Vor allem aber die zunehmende Verbreitung von EBooks wird dem stationären Buchhandel langfristig das Leben schwermachen (vorher sterben jedoch noch die Videotheken aus). Dann hat Amazon auch in der Lie-

25 Das von Kritikern einer Reform der Taxi-Regulierung oft vorgebrachte Argument der Informationsasymmetrie zwischen Fahrern und Fahrgästen (vgl. Baake und von Schlippenbach 2014) ist aus zwei Gründen obsolet. Erstens verhindert auch die heutige Regulierung kein opportunistisches Verhalten (vgl. Balafoutas et al. 2013, Linne + Krause 2016) und zweitens sind gerade durch das mobile Internet und entsprechende Apps Fahrpreis und Fahrweg sehr gut vergleichbar (vgl. auch Haucap et al. 2017; Pape und Wein 2015). 26 www.boersenverein.de/de/182716.

Ordnungspolitik in der digitalen Welt

113

ferzeit eher noch einen Vorteil gegenüber dem stationären Handel. Niemand wird E-Books im stationären Buchhandel kaufen. Auch wenn es heute für viele noch ungewohnt sein mag, ein E-Book statt einem gedruckten Exemplar zu lesen, sind die Vorteile der E-Books langfristig deutlich: Geringe Kosten bei Herstellung und Distribution (zudem ökologische Vorteile), kein Platzbedarf und ein Gewicht von (fast) null sowie neue technische Möglichkeiten wie einfache Querverweise (Links) werden dem E-Book langfristig (mit der möglichen Ausnahme von Bildbänden) zum Durchbruch verhelfen. Die Leser können dann im Grunde die gesamte Weltliteratur in der Jackentasche (oder im Urlaub) mit sich herumtragen. In der Folge dürfte auch die Buchpreisbindung bald Makulatur sein, wenn Bücher in Zukunft nicht mehr verkauft werden, sondern nur noch ein Zugang zum EBook geschaffen wird, so wie dies heute schon bei Netflix (für Filme) oder Spotify (für Musik) der Fall ist. Statt einmaligen Kaufpreisen werden dann periodische Abonnement-Gebühren fällig. Denn Bücher bieten sich – vor allem in digitaler Form – ideal zum Teilen an. Ein E-Book ist im Grunde grenzkostenlos mehrfach nutzbar, es rivalisiert nicht im Konsum. Von daher ist die Entwicklung zugangsbasierter Geschäftsmodelle wie im audiovisuellen Medienbereich (Netflix, Spotify) zumindest mittelfristig wahrscheinlich. Denn viele Individuen sind ultimativ nicht an Büchern per se interessiert, sondern an deren Inhalten, also an Literatur, Kochrezepten, Reisetipps etc. Ist diese Entwicklung gesellschaftlich gesehen ein Drama, gar der Untergang der westlichen Kultur und Zivilisation? Für Nostalgiker sicherlich – nüchtern betrachtet jedoch nicht. Produktions- und Distributionskosten werden erheblich sinken und damit auch die Fixkosten der Buchproduktion (und auch der Verbrauch natürlicher Ressourcen und die Umweltbelastung). Der Zugang zu Literatur wird somit günstiger und für noch mehr Individuen erschwinglich. Bei sinkenden Kosten wird auch die Vorauswahl dessen, was gedruckt werden kann, durch die Verlage weniger wichtig. Im Grunde lassen sich auch alle Nischenprodukte – der sog. Rattenschwanz oder „Long Tail“ – nun produzieren. Buchempfehlungen durch die Aufnahme eines Autors in ein Verlagsprogramm werden weniger wichtig. Die Signalling-Funktion durch die Aufnahme in ein Verlagsprogramm oder eine Edition (etwa Suhrkamp versus Bastei Lübbe) verliert an Bedeutung, da zahlreiche Plattformen eine Unzahl von Rezensionen und Bewertungen anbieten. Durch diese Entwicklung wird auch für die Verlage das Leben schwer. Welche Rolle spielen sie noch, wenn sowohl die Vorauswahl von Autoren und Werken als auch die Produktion und Distribution gedruckter Werke weniger bedeutsam werden? Der Zugang zu Literatur dürfte jedoch wie gesagt für viele Menschen erheblich günstiger werden. Und ebenso dürften mehr Autoren (der o. g. „Long Tail“) Zugang zu Lesern finden – für die publizistische Vielfalt eher eine schöne Entwicklung. Das Verlagswesen wird jedoch tendenziell schrumpfen und an Bedeutung verlieren, während Literaturplattformen wie Amazon an Bedeutung gewinnen. Wichtig wird es daher sein, Verbrauchern und Autoren den Wechsel der Anbieter weiter zu ermöglichen und ggf. für Interoperabilität zu sorgen. Dies gilt insbe-

114

Justus Haucap und Ulrich Heimeshoff

sondere, falls eine starke Konzentration zu beobachten sein wird. Denn Multihoming scheint hier bei den Lesern aufgrund der unterschiedlichen inkompatiblen Endgeräte weniger wahrscheinlich. Zugleich sind auch Exklusivvereinbarungen zwischen Plattformen und Autoren kritischer zu betrachten als die bisherige Exklusivvermarktung durch den jeweiligen Verlag. Die kartellrechtliche Aufsicht über marktbeherrschende Literaturplattformen wird somit tendenziell an Bedeutung gewinnen (vgl. auch Budzinski und Köhler 2015). Gleichwohl ist davon auszugehen, dass der Zugang zu Literatur günstiger wird und die publizistische Vielfalt im Literaturbetrieb aufgrund der sinkenden Herstellungs- und Distributionskosten zunehmen wird. Der Untergang des Abendlandes sieht anders aus.

6.3 Der Wandel der Medienlandschaft Auch die Medienlandschaft hat sich durch die Digitalisierung erheblich verändert. Insbesondere in der Tagespresse ist es aus zweierlei Gründen zu einem erheblichen Einbruch der Erlöse gekommen. Zum einen ist das Anzeigengeschäft in zahlreichen Rubriken in das Internet abgewandert, vor allem Stellenanzeigen, Immobilieninserate und Anzeigen für gebrauchte Kfz. Allein Familien- und Todesanzeigen scheinen der Presse aktuell noch zu bleiben. Der Komfort des Suchens, die fehlenden Platzbeschränkungen und die geringen Kosten sprechen dafür, dass die meisten Anzeigen auch im Internet bleiben werden. Zugleich hat sich das Mediennutzungsverhalten geändert. In der Vergangenheit haben viele Leser die regionale Tageszeitung vor allem wegen der regionalen und lokalen Inhalte abonniert. Politik- und Wirtschaftsnachrichten sowie die Sportberichterstattung sowie Neuigkeiten aus aller Welt, das tägliche TV-Programm und die regionale Wetterprognose wurden im Bündel gleich mitgeliefert, auch wenn dieser Mehrwert nicht ausschlaggebend für den Kauf gewesen sein mag. Durch das Internet ist es nun zu einer Entbündelung dieser Inhalte gekommen. Aktuelle Nachrichten, Wetterprognosen, Wirtschaftsnachrichten und Sportergebnisse erhalten die Leser im Internet unentgeltlich. Hier greift die Logik des Wettbewerbs bei hochgradig austauschbaren Produkten bzw. Inhalten: Die Konkurrenz drückt den Preis auf die Grenzkosten und der ist bei Informationsprodukten im Internet gleich null. Stattdessen versuchen viele Zeitungen über die Vermarktung von Anzeigen Erlöse zu generieren (vgl. Dewenter und Haucap 2013). Der Mehrwert der Politik- und Wirtschaftsnachrichten, der Sportberichterstattung sowie der Neuigkeiten aus aller Welt, des täglichen TV-Programms und der regionalen Wetterprognose in der Tageszeitung sind für die Leser drastisch gesunken. Für die Leser stellt sich daher nun die Frage, ob der Kauf der Tageszeitung allein aufgrund der Lokalnachrichten noch lohnt oder doch darauf verzichtet wird. Somit sind auch die Erlöse auf dem Lesermarkt unter Druck, zumindest für die Zeitungen, die keine unverwechselbaren Inhalte haben, die es nicht gratis im Internet gibt. Zugleich wird durch die ungebremste Ausdehnung der öffentlich-

Ordnungspolitik in der digitalen Welt

115

rechtlichen Telemedienangebote der Presse das Leben auch abgabenfinanziert noch schwer gemacht.27 Viele Presseerzeugnisse werden daher in der heutigen Form als Druckerzeugnisse verschwinden. Ist das tragisch? Für die Gesellschaft als Ganzes nicht unbedingt, denn Qualitätsjournalismus wird sich halten, weil es keinen Grund gibt, warum intelligente Menschen dafür nicht auch in Zukunft bezahlen würden. Individuen sind ultimativ nicht an Zeitungen interessiert, sondern an deren Inhalten. Die Markteintrittsbarrieren, um eigene Ein- und Ansichten zu verbreiten, sind aber heute so niedrig wie nie zuvor. Die rezipierbare Meinungsvielfalt wird durch das Internet weiter drastisch zunehmen. Zugleich werden Falschmeldungen („Fake News“) viel einfacher aufzuspüren sein als bisher, d. h. auch die Kontrolle der Medien durch die Öffentlichkeit steigt. Wettbewerbspolitisch bedeutet dies in der Tat, dass über die Pressefusionskontrolle etwas entspannter nachgedacht werden kann. Die bisher stets hochgehaltene Vermutung, dass es zu Markteintritten in bzw. aus benachbarten Kreisen kommen könnte, um aus einem sog. Einzeitungskreis einen Zweizeitungskreis werden zu lassen, erscheint in einem schrumpfenden Markt ziemlich unwahrscheinlich. Die von manchen monierte Lockerung der Fusionskontrolle im Medienbereich und die einfachere Möglichkeit zur presseverlagsübergreifenden Zusammenarbeit, welche die 9. GWB-Novelle eingeführt hat, sind daher durchaus entspannt zu betrachten. Zu überdenken wäre in diesem Kontext aber auch die Rolle des öffentlichrechtlichen Fernsehens. Traditionell wurde die Notwendigkeit des öffentlich-rechtlichen Rundfunks mit verschiedenen Marktversagenstheorien begründet, die heute nicht mehr anwendbar sind. Insbesondere die raschen technologischen Veränderungen der vergangenen Jahre lassen traditionelle Begründungen für ein so umfassendes öffentlich-rechtliches Rundfunkangebot auf wackeligen Beinen stehen. War die Zahl möglicher Fernsehkanäle früher technologisch begrenzt und damit auch die Möglichkeit der Erstellung eines umfangreichen und anspruchsvollen Fernsehprogramms, so besteht diese Beschränkung heute nicht mehr. Zudem sind die finanziellen Anforderungen zum Betreiben eines Fernsehkanals stark gesunken und heute relativ niedrig, sodass besonders hohe Eintrittskosten kaum noch als Argument für die Existenz eines öffentlich-rechtlichen Rundfunkangebotes Gültigkeit besitzen. Zusätzlich schwächt die immer stärker werdende Nutzung des Internets als Hauptinformationsmedium die Sonderstellung der öffentlich-rechtlichen Rundfunkanstalten in der Sicherung der Meinungsvielfalt. Neue technologische Möglichkeiten stellen heute ein äußerst umfangreiches Programmangebot bereit mit etwa 400 TV-Programmen in Deutschland, zahlreichen Video-on-Demand-Angeboten und neuen Kommunikationskanälen. Diese An-

27 Für Details zum Strukturwandel in der Medienlandschaft siehe auch Dewenter und Haucap (2013).

116

Justus Haucap und Ulrich Heimeshoff

gebotsvielfalt sorgt für eine Meinungsvielfalt, die insbesondere durch das Internet ein zuvor nicht dagewesenes Ausmaß erreicht. Paradoxerweise hat das weitgehende Verschwinden früher womöglich einmal existierender Marktversagenstatbestände jedoch nicht zu einer Rückführung öffentlich-rechtlicher Programmangebote geführt, sondern – ganz im Gegenteil – zu einer noch weiteren Expansion und aktiven Verdrängung privater Inhalte, insbesondere im Internet. So können die öffentlich-rechtlichen Sender innerhalb des dualen Rundfunksystems mittlerweile ein beachtliches Produktionsvolumen mit 21 Fernsehkanälen, 63 Radiosendern sowie neuerdings auch eigenen Internetformaten aufweisen. Diese stetige Expansion der öffentlichen-rechtlichen Rundfunkanstalten hat dazu geführt, dass der öffentlich-rechtliche Rundfunk in Deutschland mittlerweile zu den größten und teuersten in der Welt gehört (vgl. Haucap, Kehder und Loebert 2015). Insbesondere die Gebührenhöhe muss unter Berücksichtigung der besonderen Kostenstrukturen von Rundfunksendern beurteilt werden, die eine deutliche Degression der Durchschnittskosten mit steigenden Zuschauerzahlen erwarten lassen: Bei gleicher Versorgungsqualität sollte der Finanzierungsbeitrag pro Haushalt oder Einwohner tendenziell mit der Bevölkerungszahl sinken, da auch die Durchschnittskosten pro Zuschauer sinken. Unter diesem Aspekt ist es besonders bemerkenswert, dass Deutschland als eines der bevölkerungsreichsten und recht dicht besiedelten Länder eine Spitzenposition beim Rundfunkbeitrag einnimmt. Dies kann als Indikator für eine weit überdurchschnittliche Versorgung der Bevölkerung gewertet werden.28 Das ultimative Schreckensszenario für den öffentlich-rechtlichen Rundfunk ist ein hochqualitatives und anspruchsvolles privates Fernsehprogramm. Sobald dieses entsteht, wird die Legitimation eines mit Zwangsbeiträgen finanzierten Rundfunks noch dürftiger. Daher tut der öffentlich-rechtliche Rundfunk einiges dafür, genau dies zu verhindern. Langfristig wird es jedoch schwer sein, eine solche Entwicklung aufzuhalten.

6.4 Andere Branchen Die bisherigen Erörterungen können nur exemplarisch und illustrativ sein, denn die Digitalisierung erfasst alle Branchen, von digitaler Landwirtschaft und Industrie 4.0 über Logistik, Finanzdienstleistungen und Handel bis hin zu Gesundheit, Bildung und Unterhaltung sind alle Wirtschaftszweige von der Digitalisierung erfasst. Während in manchen Bereichen die Digitalisierung schon zu vollständigen

28 Eine detaillierte Analyse des Änderungsbedarfs für die Förderung gesellschaftlich erwünschter Fernsehinhalte (weg von der Förderung der Anstalten, hin zu einer Förderung von Programminhalten) bieten Haucap, Kehder und Loebert (2015).

Ordnungspolitik in der digitalen Welt

117

Umwälzungen geführt hat (wie etwa in der Musikindustrie), stehen diese Entwicklungen anderen Branchen – wenn auch vermutlich nicht mit gleicher Wucht – bevor. Über Machine-to-Machine-Kommunikation in den Bereichen Industrie 4.0 und digitaler Landwirtschaft, den Einsatz von Big Data zu Analysezwecken, neue Produktionsprozesse, andere Preisstrategien, autonomes Fahren (besonders relevant auch im Güterverkehr) oder neue Diagnose- und Behandlungsmöglichkeiten im Bereich der Gesundheit – die Herausforderungen sind vielfältig, und oftmals ist eine Änderung des Rechtsrahmens notwendig, um die Chancen nicht verstreichen zu lassen. Hier ist die neue Bundesregierung gefordert. Nach der Illustration der Konsequenzen der Digitalisierung für diverse Branchen soll nun noch ein kurzer Blick auf drei Querschnittsthemen geworfen werden, die in mehr oder minder starkem Ausmaß alle Sektoren betreffen: die Veränderung der Arbeitswelt, Herausforderungen für die Rechtsdurchsetzung und schließlich das soziale Zusammenleben.

7 Auswirkungen der Digitalisierung auf die Arbeitswelt, die Rechtsdurchsetzung und das soziale Zusammenleben 7.1 Auswirkungen der Digitalisierung auf die Arbeitswelt Die Digitalisierung wird nicht nur Produktmärkte beeinflussen, sondern auch Faktormärkte für Kapital (Stichworte: FinTech, Crowdfunding etc.) und Arbeit und somit die Arbeitswelt. Die Arbeitsteilung wird tendenziell noch einfacher, auch über Grenzen hinweg. Führt die Digitalisierung aber auch zu mehr prekären Arbeitsverhältnissen, wie teilweise befürchtet wird? Zunächst gilt festzuhalten, dass Märkte für gering qualifizierte Arbeitnehmer schon heute durch intensive Konkurrenz gekennzeichnet sind. Viele Arbeitnehmer konkurrieren um relativ wenig Jobs. Insbesondere im Taxigewerbe, bei Reinigungsdiensten, im Hotel- und Gastronomiebereich sind daher die Löhne traditionell schlecht, zugleich blühen dort traditionell Schwarzarbeit und Steuerhinterziehung. Dies ist keine Folge der Digitalisierung. Allerdings sind – wie schon in der Vergangenheit – die Tätigkeiten gering qualifizierter Arbeitnehmer diejenigen, die am ehesten durch Maschinen ersetzt werden und teilweise auch ins Ausland verlagert werden können. Die Verlagerung von Jobs ins Ausland könnte jedoch – so überraschend das sein mag – gerade durch die Digitalisierung gebremst und ggf. sogar umgekehrt (Stichwort: Reshoring) werden. Da Tätigkeiten mit hohem Routineanteil zunehmend automatisiert werden (vgl. etwa Weber 2016) und somit die Produktionsprozesse tendenziell noch kapitalintensiver werden, wird der Wettbewerbsvorteil von Niedriglohnländern immer geringer und das sog. Offshoring, also die Verla-

118

Justus Haucap und Ulrich Heimeshoff

gerung von Jobs ins Ausland, immer weniger attraktiv. Gleichwohl verbessert diese mögliche Trendumkehr nicht unbedingt die Situation gering qualifizierter Arbeitnehmer, da ihre Jobs nun zwar nicht mehr ins Ausland abwandern, aber durch Maschinen ersetzt werden. Bildung und Weiterbildung werden daher in Zukunft ein noch höherer Stellenwert beizumessen sein als schon bisher. Weber (2016) geht in der Tat davon aus, dass heutige Berufsbilder zwar verschwinden werden, wie es auch von anderen Autoren teils in etwas alarmistischen Tönen beschrieben wird (vgl. etwa Frey und Osborne 2013, 2015). Allerdings geht Weber (2016) auch davon aus, dass zahlreiche neue Jobs im Bereich IT, IT-Sicherheit und auch im Bereich Weiterbildung entstehen werden, sodass viele Ökonomen sogar mit positiven Effekten für die Beschäftigung rechnen, selbst wenn einzelne Berufsbilder verschwinden. Zugleich kann die Digitalisierung auf dem Arbeitsmarkt dazu führen, dass langfristige Arbeitsbeziehungen weniger bedeutsam werden als bisher, sowohl für Arbeitnehmer als auch Arbeitgeber. Leiharbeit mag als eine besondere Form der Sharing Economy betrachtet werden: das Teilen von Arbeitskräften. Aktuell gelten kurzfristige Beschäftigungsverhältnisse und Teilzeitbeschäftigungen in Deutschland weithin als Beschäftigungsverhältnisse zweiter und dritter Klasse. Dies muss jedoch keinesfalls so sein, wenn dies den individuellen Bedürfnissen der Arbeitnehmer entspricht. Die Digitalisierung erleichtert prinzipiell Beschäftigungen dieser Art.

7.2 Auswirkungen auf Gesetzestreue und Steuerhinterziehung Eine weitere Befürchtung besteht darin, dass die Digitalisierung zu einer stärkeren Umgehung von Gesetzen führt. Unternehmen wie Uber und auch Facebook mögen diese Befürchtung verstärkt haben. Im Allgemeinen sollte die Kontrolle, ob Gesetze eingehalten werden oder nicht, jedoch in vielen Bereichen auch einfacher werden. Die Online-Plattformen, die in Konkurrenz zu analogen Angeboten stehen, sei es Uber, MyTaxi, F, AirBnB oder andere, wickeln den Zahlungsverkehr bargeldlos ab, was Schwarzarbeit und Steuerhinterziehung tendenziell erschwert. Auch das EuGH-Urteil gegen Google, welches in Europa ein „Recht auf Vergessen“ etabliert, zeigt, dass die Rechtsdurchsetzung nach wie vor funktioniert, auch gegenüber ausländischen Konzernen. Allerdings kommen auch Herausforderungen auf die Rechtsdurchsetzung zu. Als z. B. Facebook im Jahr 2014 WhatsApp übernommen hat, waren bei WhatsApp etwa 50 Mitarbeiter beschäftigt, während WhatsApp weltweit rund 450 Millionen Nutzer hatte. Dass sich unter den 50 Mitarbeitern ausgewiesene Experten für deutsches Datenschutzrecht, Verbraucherschutzrecht oder selbst Telekommunikationsrecht befunden haben, dürfte fast ausgeschlossen sein. Dass es dort Experten für schwedisches, niederländisches oder bulgarisches Recht gab, erscheint noch unwahrscheinlicher. Dass die entsprechenden gesetzlichen Vorschriften allesamt

Ordnungspolitik in der digitalen Welt

119

eingehalten wurden, darf als ausgeschlossen gelten. Die Tatsache, dass jeder Internetnutzer sich Applikationen weltweit herunterladen kann, erschwert die Rechtsdurchsetzung jedoch. Gleichwohl dürfte ein etwaiger Versuch, deutsches Datenschutzrecht, Medienrecht oder anderes Recht auf alle Start-ups weltweit ausdehnen zu wollen, zum Scheitern verurteilt sein. Wenn zugleich nicht erwünscht ist, dass Netzbetreiber die Inhalte ihrer Nutzer inspizieren, bleibt nur verstärkt auf die Aufklärung der Nutzer zu setzen. Hierin wird auch für Verbraucherschützer eine wesentliche Aufgabe liegen. Möglicherweise ist der Übergang zu einer Missbrauchskontrolle auch im Bereich des Datenschutzes mittelfristig eine Option, um Durchsetzungsdefiziten zu begegnen. Einige Gedanken auch noch zur Steuervermeidung: Die betriebswirtschaftliche Steueroptimierung ist kein Symptom der Digitalisierung, sondern eine Folge der Globalisierung. Hier besteht durchaus politischer Handlungsbedarf, etwa was die Verrechnung von Lizenzgebühren angeht. Dies betrifft jedoch Starbucks und IKEA genauso wie Google und Apple – und der Betrieb von Cafés und der Verkauf von Möbeln ist nun kein besonders digitales Phänomen. Auslöser für die Steueroptimierung multinationaler Konzerne durch Gewinnverlagerungen zwischen Jurisdiktionen ist vielmehr die Globalisierung, nicht die Digitalisierung.

7.3 Auswirkungen auf das soziale Zusammenleben Schließlich soll noch ganz kurz die Frage angerissen werden, ob durch das Internet das Soziale verloren geht und die Menschen immer individualistischer werden. Doch auch hier gibt es Grund zum Optimismus: Natürlich sind Facebook-Freunde etwas Anderes als echte Freunde, aber das weiß auch (fast) jeder Facebook-Nutzer. Zugleich zeigt aber der ausgeprägte Wunsch vieler Menschen, sich in sozialen Netzen zu bewegen, auch das Soziale der Menschen. Natürlich findet sich auch „asoziales“ Verhalten im Internet (wie etwa Hate-Speech), und dies wird in der Regel schneller bemerkt als an anderen Stellen, es ist offensichtlicher. Aber gerade im Internet gibt es auch eine große Hilfsbereitschaft: Belege dafür sind Phänomene wie Crowdfunding, Open-Source-Produkte, diverse Ratgeber-Communities und vieles mehr, bei denen der Lohn für Hilfsbereitschaft nichts Anderes ist als soziale Anerkennung, auch wenn die Menschen dafür kein Ehrenamt haben und in keinem eingetragenen Verein Mitglied sind. Sozial sind sie dennoch. Der Versuch, das Sozialkapital einer Gesellschaft über eingetragene Mitgliedschaften und das Bekleiden von Ehrenämtern messen zu wollen, muss daher im Zeitalter der Digitalisierung fehlschlagen. Das Sozialverhalten der Menschen hat sich stets verändert und es verändert sich weiter. Weniger sozial scheinen mir die Menschen nicht zu werden. Freundeskreise und Interessengemeinschaften sind heute weniger an geographische Begrenzungen gebunden, die geographische Nachbarschaft, das Dorf, das Viertel werden tendenziell weniger wichtig. Aber dies ist nicht gleichzusetzen mit einem Verschwinden pro-sozialen Verhaltens.

120

Justus Haucap und Ulrich Heimeshoff

8 Fazit Zusammenfassend ist eines klar: Die Digitalisierung wird unser Leben in vielen Bereichen – viel mehr als in diesem Beitrag angesprochen werden kann – erheblich verändern. Es bieten sich dadurch erhebliche Chancen für die Individuen und somit auch die Gesellschaft als Ganzes. Wichtig ist aber, nicht starr an Rechtsnormen festzuhalten, sondern diese immer wieder ob ihrer Sinnhaftigkeit zu überprüfen. Dies sollte Teil einer wirklich umfassenden „Digitalen Agenda“ sein. Aktuell wird auf viele Veränderungen mit Verboten und Regulierung reagiert, ganz gleich ob es die Verbote von Uber und AirBnB sind, die Preisbindung für E-Books, das Leitungsschutzrecht für Presseverlage oder das Versandhandelsverbot für rezeptpflichtige Arzneimittel. Selbst Ladenöffnungszeiten für Online-Shops werden zumindest von Teilen der Grünen ernsthaft diskutiert. Zugleich hängt Deutschland im Bereich EGovernment und Open Data dem Digital Scoreboard der Europäischen Kommission (2016) zufolge international hinterher. Die Expertenkommission Forschung und Innovation (2016) spricht von einer digitalen „Service-Wüste in deutschen Amtsstuben“. Da aktuell zahlreiche Einzelmaßnahmen in verschiedenen Ressorts unkoordiniert verfolgt werden, fehlt offenbar der Blick für das große Ganze. Zudem wird es Interessengruppen einfach gemacht, sich mit politischen Maßnahmen gegen die Digitalisierung zu stemmen. Manchmal entsteht der Eindruck, Deutschland solle in ein analoges Museum verwandelt werden. Um dies zu verhindern, sollte die Bundesregierung nach der nächsten Wahl eine Digitalisierungskommission nach dem Vorbild der Deregulierungskommission der frühen 1990er-Jahre einsetzen. Die Kommission sollte dann Maßnahmenbündel vorschlagen, die weniger leicht von einzelnen Interessengruppen (Apothekern, Taxiunternehmen, Verleger, Hoteliers etc.) sabotiert werden können. Als Alternative bliebe wohl nur das, was Ronald Reagan einst wie folgt beschrieben hat: „Government’s view of the economy could be summed up in a few short phrases: If it moves, tax it. If it keeps moving, regulate it. And if it stops moving, subsidize it.” (Ronald Reagan)

Literatur Acquisti, A. und H. R. Varian. 2005. Conditioning Prices on Purchase History, Marketing Science 24, S. 367–381. Acquisti, A., C. R. Taylor und L. Wagman. 2016. The Economics of Privacy, Journal of Economic Literature 54, S. 442–492. Allen, D. und C. Berg. 2014. The Sharing Economy: How Over-regulation Could Destroy an Economic Revolution, Institute of Public Affairs. Ammori, M. und L. Pelican. 2012. Competitors’ Proposed Remedies for Search Bias: Search “Neutrality” and Other Proposals, Journal of Internet Law 15(11), S. 8–31.

Ordnungspolitik in der digitalen Welt

121

Argenton, C. und J. Prüfer. 2012. Search Engine Competition with Network Externalities, Journal of Competition Law and Economics 8, S. 73–105. Armstrong, M. 2006. Competition in Two‐Sided Markets, Rand Journal of Economics 37, S. 668– 691. Baake, P., J. Haucap, J. Kühling, S. Loetz und C. Wey. 2007. Effiziente Regulierung dynamischer Märkte, Law and Economics of International Telecommunications, Band 57, Baden-Baden: Nomos Verlag. Baake, P. und V. von Schlippenbach. 2014. Taximarkt: Kein Markt für vollständige Liberalisierung, DIW Wochenbericht Nr. 31/32, S. 751–755. Bakos, J. Y. 1997. Reducing Buyer Search Costs: Implications for Electronic Marketplaces, Management Science 43, S. 1676–1692. Balafoutas, L., A. Beck, R. Kerschbamer und M. Sutter. 2013. What Drives Taxi Drivers? A Field Experiment on Fraud in a Market for Credence Goods, Review of Economic Studies 80, S. 876–891. Bardhi, F. und G. M. Eckhardt. 2012. Access-Based Consumption: The Case for Car Sharing, Journal of Consumer Research 39, S. 881–898. Baye, M. , B. De los Santos und M. R. Wildenbeest. 2013. The Evolution of Product Search, Journal of Law, Economics und Policy 9, S. 201–221. Belk, R. 2014. You Are What You Can Access: Sharing and Collaborative Consumption Online, Journal of Business Research 67, S. 1595–1600. Benjafaar, S., D. Kong, X. Li und C. Courcoubetis. 2015. Peer-to-Peer Product Sharing: Implications for Ownership, Usage and Social Welfare in the Sharing Economy, verfügbar unter: http:// dx.doi.org/10.2139/ssrn.2669823 Benkler, Y. 2004. Sharing Nicely: On Shareable Goods and the Emergence of Sharing as a Modality of Economic Production, Yale Law Journal 114, S. 273–358. Benndorf, V. und H.-T. Normann. 2017. The Willingness to Sell Personal Data, erscheint in: Scandinavian Journal of Economics. Bolton, G., B. Greiner und A. Ockenfels. 2013. Engineering Trust: Reciprocity in the Production of Reputation Information, Management Science 59, S. 265–285. Bräuninger, M., J. Haucap, K. Stepping und T. Stühmeier. 2012. Cloud Computing als Instrument für effiziente IT-Lösungen: Betriebs- und volkswirtschaftliche Potenziale und Hemmnisse, List Forum für Wirtschafts- und Finanzpolitik 38, S. 172–202. Brynjolfsson, E. und A. McAfee. 2014. The Second Machine Age: Wie die nächste digitale Revolution unser aller Leben verändern wird. Plassen-Verlag. Bork, R.H. und J. G. Sidak. 2012. What does the Chicago School Teach about Internet Search and Antitrust Treatment of Google?, Journal of Competition Law and Economics 8, S. 663–700. Bracha, O. und F. Pasquale. 2008. Federal Search Commission? Access, Fairness, and Accountability in the Law of Search, Cornell Law Review 93, S. 1149–1209. Buccirossi, P. 2013. Background Note, in: Vertical Restraints for Online Sales, OECD Policy Roundtable, Document DAF/COMP(2013)13, OECD: Paris, S. 9–44. Budzinski, O. 2016. Wettbewerbsordnung online: Aktuelle Herausforderungen durch Marktplätze im Internet, ORDO: Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft, 67, S. 385– 409. Budzinski, O. und K. H. Köhler. 2015. Is Amazon the Next Google?, ORDO: Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft, 66, S. 263–288. Budzinski, O. und S. Schneider. 2017. Smart Fitness: Ökonomische Effekte einer Digitalisierung der Selbstvermessung, List Forum für Wirtschafts- und Finanzpolitik 43, S. 89–124. Bundeskartellamt. 2011. Beschluss vom 27. Juli 2011, B8–94/11, Bundeskartellamt: Bonn. Bundeskartellamt. 2013. Vertikale Beschränkungen in der Internetökonomie, Hintergrundpapier – Arbeitskreis Kartellrecht, Bundeskartellamt: Bonn.

122

Justus Haucap und Ulrich Heimeshoff

Bundeskartellamt. 2015. Digitale Ökonomie – Internetplattformen zwischen Wettbewerbsrecht, Privatsphäre und Verbraucherschutz, Hintergrundpapier – Arbeitskreis Kartellrecht, Bundeskartellamt: Bonn. Bundesministerium für Arbeit und Soziales. 2015. Grünbuch Arbeiten 4.0, BMAS: Berlin. Codagnone, C. und B. Martens. 2016. Scoping the Sharing Economy: Origins, Definitions, Impact and Regulatory Issues, Institute for Prospective Technological Studies Digital Economy Working Paper 2016/01. JRC100369, Brüssel. Cotter, T. F. 2008. The Essential Facilities Doctrine, in: K. N. Hylton (Hrsg.), Antitrust Law and Economics, Edward Elgar: Cheltenham, S. 157–182. Cramer, J. und A. B. Krueger. 2016. Disruptive Change in the Taxi Business: The Case of Uber, American Economic Review, 106, S. 177–182. Crane, D. A. 2012. Search Neutrality and Referral Dominance, Journal of Competition Law and Economics 8, S. 459–468. Czernich, N., O. Falck, T. Kretschmer und L. Woessmann. 2011. Broadband Infrastructure and Economic Growth, Economic Journal, 121, S. 505–532. De los Santos, B. und M. R. Wildenbeest. 2014. E-Book Pricing and Vertical Restraints, Working Paper 14–18, NET Institute. Demary, V. 2015. Competition in the Sharing Economy, IW Policy Paper No. 19, Köln. Demsetz, H. 1969. Information and Efficiency: Another Viewpoint, Journal of Law and Economics 12, S. 1–22. Dertwinkel-Kalt, M., J. Haucap und C. Wey. 2015. Raising Rivals’ Costs through Buyer Power, Economics Letters 126, S. 181–184. Dertwinkel-Kalt, M., J. Haucap und C. Wey. 2016. Procompetitive Dual Pricing, European Journal of Law and Economics 41, S. 527–557. Dewenter, R. 2006. Two-sided Markets, Medienwirtschaft 3, S. 57–64. Dewenter, R. und J. Haucap. 2009. Wettbewerb als Aufgabe und Probleme auf Medienmärkten: Fallstudien aus Sicht der „Theorie zweiseitiger Märkte“, in: D. Wentzel (Hrsg.), Medienökonomik: Theoretische Grundlagen und ordnungspolitische Gestaltungsalternativen, Stuttgart, S. 36–73. Dewenter, R. und J. Haucap. 2013. Ökonomische Auswirkungen der Einführung eines Leistungsschutzrechts für Presseinhalte im Internet (Leistungsschutzrecht für Presseverleger). Gutachten im Auftrag des Bundesverbandes der Deutschen Industrie e. V. (BDI), DICE Ordnungspolitische Perspektiven 36, Düsseldorf. Dewenter, R. und M Linder. 2017. Bestimmung von Marktmacht in Plattformmärkten, List Forum für Wirtschafts- und Finanzpolitik 43, S. 67–87. Dewenter, R. und H. Lüth. 2015. Eine alternative Definition von Suchneutralität, ORDO: Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft 66, S. 221–241. Dewenter, R. und H. Lüth. 2016. Big Data: Eine ökonomische Perspektive, in: U. Immenga und T. Körber (Hrsg.), Daten und Wettbewerb in der digitalen Ökonomie, Nomos Verlag: BadenBaden, S. 9–30. Dewenter, R., J. Rösch und A. Terschüren. 2014. Abgrenzung zweiseitiger Märkte am Beispiel von Internetsuchmaschinen, Neue Zeitschrift für Kartellrecht 2, S. 387–394. Dittmann, H. 2016. Der Streitfall Uber: Eine ökonomische Analyse der Probleme und Lösungsansätze, Wirtschaft und Wettbewerb 66, S. 466–472. Dittmann, H. und B. Kuchinke. 2015. Ordnungsökonomische Aspekte der Sharing Economy, ORDO: Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft 66, S. 243–262. Dolata, U. 2015. Volatile Monopole. Konzentration, Konkurrenz und Innovationsstrategien der Internetkonzerne, Berliner Journal für Soziologie 24, S. 505–529. Dolata, U. 2018. Internetkonzerne: Konzentration, Konkurrenz und Macht, in: U. Dolata und J.-F. Schrape (Hrsg.), Kollektivität und Macht im Internet: Soziale Bewegungen, Open Source Communities, Internetkonzerne, Springer Verlag: Berlin et al., S. 101–130.

Ordnungspolitik in der digitalen Welt

123

Dolmans, M. und A. Leyden. 2012. Internet und Antitrust: An Overview of EU and National Case Law, e-Competitions: Competition Laws Bulletin, No 45647. Dolmans, M. und Mostyn. 2015. Internet und Antitrust: An Overview of EU and National Case Law, e-Competitions: Competition Laws Bulletin, Döpfner, M. 2016. Offener Brief an Eric Schmidt: Warum wir Google fürchten, Frankfurter Allgemeine Zeitung vom 16. 4. 2016, online unter; www.faz.net/aktuell/feuilleton/medien/ mathias-doepfner-warum-wir-google-fuerchten-12897463.html Edelman, B. 2011. Bias in Search Results?: Diagnosis and Response, Indian Journal of Law and Technology 7, S. 16–32. Edelman, B.G. und D. Geradin. 2016. Efficiencies and Regulatory Shortcuts: How Should We Regulate Companies like Airbnb and Uber?, Stanford Technology Law Review 19, S. 293–328. Einav, L., C. Farronato und J. Levin. 2015. Peer-to-Peer Markets, Working Paper. Ellison, G. und S. Fisher Ellison. 2005. Lessons from the Internet, Journal of Economic Perspectives 19(2), S. 139–158. Evans, D.S. 2009. Two Sided Market Definition, in: ABA Section of Antitrust Law (Hrsg.), Market Definition in Antitrust: Theory and Case Studies, Chapter XII. Evans, D.S. & R. Schmalensee. 2007. The Industrial Organization of Markets with Two-sided Platforms, Competition Policy International 3(1), S. 151–179. Evans, D.S. & R. Schmalensee. 2015. The Antitrust Analysis of Multi-Sided-Platform Businesses, in: R. Blair and D. Sokol (Hrsg.), Oxford Handbook on International Antitrust Economics, Vol. 1, Oxford University Press: Oxford, S. 404–449. Europäische Kommission. 2015. Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen, Strategie für einen digitalen Binnenmarkt für Europa, COM/2015/0192 final, Brüssel. Europäische Kommission. 2016. Digital Scoreboard 2016: Strengthening the European Digital Economy and Society. Europäische Kommission: Brüssel. Expertenkommission für Forschung und Innovation. 2016. Digitale Service-Wüste in deutschen Amtsstuben, online verfügbar unter: www.e-fi.de/fileadmin/Pressemitteilungen/ Pressemitteilungen_2016/EFI_Pressemitteilung_E-Government.pdf. Falck, O., J. Haucap und J. Kühling. 2014. Wachstumsorientierte Telekommunikationspolitik, Handlungsbedarf und -optionen, Nomos Verlag, Baden-Baden. Filistrucchi, L., D. Geradin, E. Van Damme und P. Affeldt. 2014. Market Definition in Two-Sided Markets: Theory and Practice, Journnal of Competition Law and Economics 10, S. 293–339. Frey, C. B. und M. A. Osborne. 2013. The Future of Employment: How Susceptible are Jobs to Computerisation?, Oxford Martin School. Frey, C. B. und M. A. Osborne. 2015. Technology at Work: The Future of innovation and Employment, Oxford Martin School. Friedewald, M., J. Lamla und A. Roßnagel. 2017. Informationelle Selbstbestimmung im digitalen Wandel, Springer Fachmedien: Wiesbaden. Gaudin, G. und A. White. 2014. On the Antitrust Economics of the Electronic Books Industry, DICE Discussion Paper Nr. 147. Genth, S. 2016. Dynamische Preise: ein Gewinn für Handel und Verbraucher, Wirtschaftsdienst 96, S. 863–868. Grimmelmann, J. 2011. Some Skepticism about Search Neutrality, in: B. Szoka und A. Marcus (Hrsg.), The Next Digital Decade: Essays on the Future of the Internet, Washington, D.C.: TechFreedom, S. 435–459. Gruber, H., J. Hätönen und P. Koutroumpis. 2014. Broadband Access in the EU: An Assessment of Future Economic Benefits, Telecommunications Policy 38, S. 1046–1058. Hamelmann, L. und J. Haucap. 2016. Wettbewerb und Kartellrecht auf Online-Plattformmärkten, ORDO: Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft 67, S. 269–298.

124

Justus Haucap und Ulrich Heimeshoff

Hamelmann, L., J. Haucap und C. Wey. 2015. Die wettbewerbsrechtliche Zulässigkeit von Meistbegünstigungsklauseln auf Buchungsplattformen am Beispiel von HRS, Zeitschrift für Wettbewerbsrecht (ZWeR) 13, S. 245–264. Haucap, J. 2015. Ökonomie des Teilens – nachhaltig und innovativ? Die Chancen der Sharing Economy und ihre möglichen Risiken und Nebenwirkungen, Wirtschaftsdienst 95, S. 91–95. Haucap, J. 2016. „Warum erlahmt die Innovationsdynamik in Deutschland? Was ist zu tun?“, in: Walter-Raymond-Stiftung (Hrsg), Digitalisierung von Wirtschaft und Gesellschaft: Die technologische Zukunftsfähigkeit Deutschlands auf dem Prüfstand, Berlin: GDA Verlag, S. 7– 18. Haucap, J. und U. Heimeshoff. 2014. Google, Facebook, Amazon, eBay: Is the Internet Driving Competition or Market Monopolization?, International Economics and Economic Policy 11, S. 49–61. Haucap, J., U. Heimeshoff und M. Lange. 2016. The Impact of Tariff Diversity on Broadband Penetration – An Empirical Analysis, Telecommunications Policy 40, S. 743–754. Haucap, J. und C. Kehder. 2013. Suchmaschinen zwischen Wettbewerb und Monopol: Der Fall Google, in: R. Dewenter, J. Haucap und C. Kehder (Hrsg.), Wettbewerb und Regulierung in Medien, Politik und Märkten: Festschrift für Jörn Kruse zum 65. Geburtstag, Baden-Baden: Nomos-Verlag, S. 115–154. Haucap, J., C. Kehder und I. Loebert. 2015. Eine liberale Rundfunkordnung für die Zukunft, Gutachten m Auftrag von Prometheus – Das Freiheitsinstitut, Berlin. Haucap, J. und G. Klein. 2012. How Regulation Affects Network and Service Quality in Related Markets, Economics Letters 117, S. 521–524. Haucap, J., F. Pavel, R. Aigner, M. Arnold, M. Hottenrott und C. Kehder. 2017. Chancen der Digitalisierung auf Märkten für urbane Mobilität: Das Beispiel Uber, List Forum für Wirtschafts- und Finanzpolitik 43, S. 139–183. Haucap, J. und T. Wenzel. 2009. Ist eBay unbestreitbar ein nicht-bestreitbares Monopol? Monopolisierungsgefahren bei Online-Marktplätzen, in R. Dewenter und J. Kruse (Hrsg.), Wettbewerbsprobleme im Internet, Baden-Baden: Nomos Verlag, S. 7–34. Haucap, J. und T. Wenzel. 2011. Wettbewerb im Internet: Was ist online anders als offline?, Zeitschrift für Wirtschaftspolitik 60, S. 200–211. Heinichen, C. 2014. Kfz-Ersatzteile im Wettbewerb − Eine kartellrechtliche Analyse in: V. M. Jänich und P. T. Schrader (Hrsg.) Autorecht 2014: Ersatzteile und Märkte, Baden-Baden: Nomos Verlag, S. 15–34 Heinrichs, H. 2013. Sharing Economy: A Potential New Pathway to Sustainability, GAIA: Ecological Perspectives for Science & Society 22, S. 228–231. Horton, J. J. und R. J. Zeckhauser. 2016. Owning, Using and Renting: Some Simple Economics of the ‘Sharing Economy’, NBER Working Paper No. 22029. Hunold, M., R. Kesler, U. Laitenberger und F. Schlüter. 2017. Evaluation of Best Price Clauses in Hotel Booking, ZEW Discussion Paper No. 16–066, verfügbar unter: https://ideas.repec.org/ p/zbw/zewdip/16066.html Janssen, M. J.-L. Moraga-González und M. R. Wildenbeest. 2007. Consumer Search and Pricing Behavior in Internet Markets, in: E. Brousseau und N. Curien (Hrsg), Internet and Digital Economics, Cambridge University Press, S. 460–483. Kehder, C. 2013. Konzepte und Methoden der Marktabgrenzung und ihre Anwendung auf zweiseitige Märkte, Baden-Baden: Nomos Verlag. Kenning, P., und Pohst, M. 2016. Von der Customer Confusion zur Price Confusion? Die verbraucherwissenschaftliche Perspektive, Wirtschaftsdienst 96, S. 871–874. Kersting, C. und R. Podszun (Hrsg.). 2017. Die 9. GWB-Novelle, München: Verlag C. H. Beck. Köhler, K. H. 2016. Wettbewerbspolitische Aspekte des “Amazon-Falls”, Frankfurt am Main: Peter Lang.

Ordnungspolitik in der digitalen Welt

125

Kolko, J. 2012. Broadband and Local Growth, Journal of Urban Economics 71, S. 100–113. Koutroumpis, P. 2009. The Economic Impact of Broadband on Growth: A Simultaneous Approach, Telecommunications Policy 33, S. 471–485. Levering, B. und A. Icks. 2016. Sharing Economy und Mittelstand: Chancen und Herausforderungen, Institut für Mittelstandsforschung Bonn, Denkpapier 01/16, IfM: Bonn. Levin, J. 2013. The Economics of Internet Markets, in: D. Acemoglu, M. Arellano und E. Dekel (Hrsg.), Advances in Economics and Econometrics Lin, M-S. & F. S. Wu. 2013. Identifying the Determinants of Broadband Adoption by Diffusion Stage in OECD Countries, Telecommunications Policy 37, S. 241–251. Linne + Krause. 2016. Untersuchung zur Wirtschaftlichkeit des Taxigewerbes in der Bundeshauptstadt Berlin, Studie erstellt für die Berliner Senatsverwaltung für Stadtentwicklung und Umwelt. Lipsky, A. B. und G. J. Sidak. 1999. Essential Facilities, Stanford Law Review 51, S. 1187–1248. Mack, E., L. Anselin und T. Grubesic. 2011. The Importance of Broadband Provision to Knowledge Intensive Firm Location, Regional Science Policy und Practice 3, S. 17–35. Mack, E. und T. Grubesic. 2009. Broadband Provision and Firm Location in Ohio: An Exploratory Spatial Analysis, Tijdschrift voor Economische en Sociale Geografie 100, S. 298–315. Manne, G.A. und J. D. Wright. 2011. Google and the Limits of Antitrust: The Case against the Antitrust Case against Google, Harvard Journal of Law and Public Policy 34(1), S. 171–244. Manne, G.A. und J. D. Wright. 2012. If Search Neutrality is the Answer, What’s the Question?, Columbia Business Law Review 2, S. 151–239. Minges, M. 2015. Exploring the Relationship between Broadband and Economic Growth, Background Paper prepared for the World Development Report 2016: Digital Dividends, Weltbank: Washington, D.C. Monopolkommission. 2012. Stärkung des Wettbewerbs bei Handel und Dienstleistungen, 19. Hauptgutachten 2010/2011, Bonn. Monopolkommission. 2014. Eine Wettbewerbsordnung für die Finanzmärkte, 20. Hauptgutachten 2012/2013, Bonn. Monopolkommission 2015a. Wettbewerbspolitik: Herausforderung digitale Märkte, 68. Sondergutachten, Bonn. Monopolkommission 2015b. Telekommunikation 2015: Märkte im Wandel, 73. Sondergutachten, Bonn. Monopolkommission. 2016. Wettbewerb 2016, 21. Hauptgutachten 2014/2015, Bonn. Nelson, P. 1970. Information and Consumer Behavior, Journal of Political Economy 78, S. 311–329. Norberg P. A., D. R. Horne und D. A. Horne. 2007. The Privacy Paradox: Personal Information Disclosure Intentions versus Behaviors, Journal of Consumer Affairs 41, S. 100–126. Nosko, C. und S. Tadelis. 2015. The Limits of Reputation in Platform Markets: An Empirical Analysis and Field Experiment, NBER Working Paper No. 20830. OECD. 2013. Vertical Restraints for Online Sales, OECD Policy Roundtable, Document DAF/ COMP(2013)13, OECD: Paris. OECD. 2015. OECD Economic Outlook, Volume 2015, OECD: Paris. OECD. 2016. OECD Economic Outlook, Volume 2016, OECD: Paris. Pape, A. und T. Wein. 2015. Der deutsche Taximarkt: Das letzte (Kollektiv-)Monopol im Sturm der ‚neuen Zeit‘, Zeitschrift für Wirtschaftspolitik 64, 362–389. Pautke, S. & J. Billinger. 2016. Doppelpreissysteme: Ausgewählte Rechts- und Anwendungsfragen zur Entscheidungspraxis des Bundeskartellamtes, Zeitschrift für Wettbewerbsrecht (ZWeR) 14, S. 40–65. Podszun, R., und Franz, B. (2015). Was ist ein Markt? – Unentgeltliche Leistungsbeziehungen im Kartellrecht, Neue Zeitschrift für Kartellrecht (NZKart) 3(3), S. 121–127. Pollock, R. 2010. Is Google the Next Microsoft? Competition, Regulation in Internet Search, Review of Network Economics 9(4).

126

Justus Haucap und Ulrich Heimeshoff

Peitz, M. 2006. Marktplätze und indirekte Netzwerkeffekte, Perspektiven der Wirtschaftspolitik 7, S. 317–333. Peitz, M. und U. Schwalbe. 2016. Zwischen Sozialromantik und Neoliberalismus: Zur Ökonomie der Sharing-Economy, ZEW Discussion Paper No. 16–033. Remmel, J. 2016. Die verbraucherpolitische Perspektive: aktuelle Entwicklungen im OnlineHandel, Wirtschaftsdienst 96, S. 875–877. Richards, T. J., J. Liaukonyte und N.A. Streletskaya. 2016. Personalized Pricing and Price Fairness, International Journal of Industrial Organization, 44, S. 138–153. Rochet, J.-C. und J. Tirole. 2006. Two-Sided Markets: A Progress Report, RAND Journal of Economics 37, S. 645–667. Rochet, J.-C. und J. Tirole. 2003. Platform Competition in Two-sided Markets, Journal of the European Economic Association 1, S. 990–1029. Röller, L.-H. und L. Waverman. 2001. Telecommunications Infrastructure and Economic Development: A Simultaneous Approach, American Economic Review 91, S. 909–923. Rottenbiller, S. 2002. Essential Facilities als ordnungspolitisches Problem, Peter Lang, Frankfurt am Main. Santi P., G. Resta, M. Szell, S. Sobolevsky, S. H. Strogatz und C. Ratti. 2014. Quantifying the Benefits of Vehicle Pooling with Shareability Networks, Proceedings of the National Academy of Sciences (PNAS) 111(37), S. 13290–13294. Schirrmacher, F. (Hrsg.). 2015. Technologischer Totalitarismus: eine Debatte, Suhrkamp Verlag: Berlin. Schleusener, M. 2016. Dynamisch und personalisiert: Wie entwickelt sich die Preissetzung im Online-Handel?, Wirtschaftsdienst 96, S. 868–872. Schleusener, M. und S. Hosell, S. 2015. Personalisierte Preisdifferenzierung im Online-Handel, Untersuchung und Ausarbeitung im Auftrag des Sachverständigenrats für Verbraucherfragen beim Bundesminister der Justiz und für Verbraucherschutz, Berlin. Schmidt, S. 2016. Webtracker und Kartellrecht, Wirtschaft und Wettbewerb, S. 572–580. Sinn, H.-W. 2013. Das demographische Defizit − die Fakten, die Folgen, die Ursachen und die Politikimplikationen, ifo Schnelldienst 66 (21), S. 3–23. Stigler, G. 1961. The Economics of Information, Journal of Political Economy 69, S. 213–225. Theurl, T. 2015. Ökonomie des Teilens: Governance konsequent zu Ende gedacht, Wirtschaftsdienst 95, S. 87–91. Trkman, P., B. Blasic und T. Turk. 2008. Factors of Broadband Development and the Design of a Strategic Policy Framework, Telecommunications Policy 32, S. 101–115. Varian, H. 1980. A Model of Sales, American Economic Review 70, S. 651–659. Vezzoso, S. 2015. Internet Competition and E-Books: Challenging the Competition Policy Acquis?, in : G. Surblyté (Hrsg), Competition on the Internet, Heidelberg: Berlin et al, Springer: S. 25– 40. Vulkan, N. und Y. Shem-Tovb. 2015. A Note on Fairness and Personalised Pricing, Economics Letters 136, S. 79–183. Weber, E. 2016. Industrie 4.0: Wirkungen auf den Arbeitsmarkt und politische Herausforderungen, Zeitschrift für Wirtschaftspolitik 65, 66–74. Yaraghi, N. und S. Ravi. 2016. The Current and Future State of the Sharing Economy, Report, Brookings Institute, verfügbar unter: www.brookings.edu/research/the-current-and-futurestate-of-the-sharing-economy/ Zander-Hayat, H., I. Domurath und C. Groß. 2016. Personalisierte Preise, SVRV Working Paper Nr. 1, Sachverständigenrat für Verbraucherfragen beim Bundesministerium der Justiz und für Verbraucherschutz: Berlin.

Ordnungspolitik in der digitalen Welt

127

Anhang Korreferat zu Justus Haucap und Ulrich Heimeshoff Malte Krüger Die Verfasser haben ganze Arbeit geleistet und bieten einen hervorragenden Überblick der Thematik, der nicht zuletzt zeigt, wie vielschichtig das Thema ist. Insgesamt macht die Lektüre des Aufsatzes Mut. Den „Digital-Pessimisten“ wird noch einmal eindrucksvoll gezeigt, welche Vorteile in der gegenwärtigen Entwicklung stecken. Dabei werden „Risiken und Nebenwirkungen“ keineswegs unter den Tisch gekehrt. Die Autoren widmen sich ausgiebig den vielfältigen Befürchtungen, die es im Zusammenhang mit der Digitalisierung gibt: – Die Digitalisierung führe zu Monopolbildung. – Die Digitalisierung führe zu einer Aufgabe der Kontrolle über die eigene Privatsphäre. – Die Digitalisierung führe zu einer Umgehung von sinnvollen Standards und Regulierungen. – Die Digitalisierung führe zu prekären Arbeitsverhältnissen. – Die Digitalisierung führe zu einem Verlust des Sozialen und fördere die Individualisierung. In diesem Korreferat soll ein Aspekt noch einmal besonders hervorgehoben werden, das Problem einer möglichen Monopolisierung der Märkte. Diese Thematik wird eingehend beleuchtet. Insgesamt kommen die Verfasser zu einer sehr vorsichtigen Einschätzung. Pauschal lasse sich zwar nicht feststellen, dass im Internet besonders viele dauerhaft resistente Monopole anzutreffen wären und ein besonderer Regulierungsbedarf bestehe. Allerdings sehen sie das Problem, dass insbesondere dort wo Netzwerkeffekte wichtig sind, Unternehmen über eine gewisse Marktmacht verfügen. Auf einzelnen Märkten könne es jedoch möglicherweise Wettbewerbsprobleme geben. In diesen Fällen wären Eingriffe zu prüfen. Soweit Handlungsbedarf besteht, befürworten sie folgende Maßnahmen: – Erleichterung von Multihoming – Vorschriften zur Interoperabilität von Plattformen – Zugangsrechte zu bestimmten Datenbeständen. Eine generelle Tendenz zur Monopolisierung, die entschiedene Eingriffe auf breiter Front notwendig machen würde, können sie jedoch nicht erkennen. Diese verhalten optimistische Sicht bezieht allerdings den vielfältigen Einfluss der Regulierung nicht mit ein. Denn leider ist festzustellen, dass die Politik zurzeit eher konzentrationsfördernd wirkt.

128

Justus Haucap und Ulrich Heimeshoff

Vereinzelt gehen die Verfasser auch auf dieses Problem ein. So kritisieren sie zum Beispiel zu recht das Vorgehen der Wettbewerbspolitik gegen Preisspaltung. Letztlich verhindert die Politik des Bundeskartellamts, dass Produzenten mit Hilfe von Preisdifferenzierung den Wettbewerb auf der Handelsseite erhalten. Es nützt vor allem den großen Online-Händlern in ihrem Wettbewerb mit den – tendenziell kleineren – stationären Einzelhändlern. Das Thema „kontraproduktive Wirkung der Regulierung“ lässt sich noch erweitern, denn es gilt ganz allgemein, dass die bestehende Regulierung digitaler Märkte sowie in der Diskussion befindliche Maßnahmen in der Regel neben allen sonstigen Wirkungen häufig eine sehr unangenehme Nebenwirkung haben: die Förderung der Konzentration. Beispiele sind – der Gesetzentwurf zum Thema Verbot von „Fake News“, – das „Recht auf Vergessen“, – das geplante Verbot von Geo-Blocking im eCommerce, – die regulatorisch vorangetriebene Europäisierung des Zahlungsverkehrs, – die Regulierung von Interchange-Gebühren bei Kartenzahlungen, – die Vorschrift, im Zahlungsverkehr starke Authentifizierung zu nutzen und – Versuche, europäische Lösungen auf digitalen Märkten zu „fördern“. Unabhängig davon, wie man generell zu dem Recht auf Vergessen steht,29 bedeutet die gesetzliche Einführung eines solchen Rechts, dass der Aufwand für das Betreiben einer Suchmaschine im Internet zunimmt. Um die Anforderungen des Gesetzes erfüllen zu können,30 reicht es nicht, einfach ein paar neue Online-Formulare zu entwickeln. Ein Anbieter muss über eine ausreichende Zahl an Servicemitarbeitern verfügen, um die entsprechenden Anfragen zur Löschung entgegennehmen und bearbeiten zu können. Zudem müssen Richtlinien dafür geschaffen werden, nach welchen Kriterien einem Antrag stattzugeben ist. Beispielsweise hat Google ein Beratungsgremium geschaffen mit Experten aus verschiedenen europäischen Ländern (Powles und Chaparro 2015). Trotzdem verbleibt das Risiko, dass es zu teuren Auseinandersetzungen vor Gericht kommt. Für Google sind solche Belastungen sicherlich tragbar. Aber für kleinere Anbieter, insbesondere solche, die neu in den Markt eintreten, kann diese Regulierung eine schwer zu überwindende Hürde darstellen. In ähnlicher Weise würde sich ein gesetzliches Gebot auswirken, „Fake News“ zu löschen. Einen entsprechenden Gesetzentwurf hat der Bundesjustizminister am 5. April 2017 vorgelegt.31 Auch hier werden den Unternehmen erhebliche Lasten

29 Gerade wenn man soziale Netze und Suchmaschinen als Teil des öffentlichen Raums betrachtet, muss es verwundern, dass der Gesetzgeber anscheinend kein Problem darin sind, hier hoheitliche Aufgaben an die privaten Betreiber dieser Netze zu übertragen. 30 Siehe EU (2016). 31 Siehe Bundesregierung (2017). Ladeur und Gostomzyk (2017) äußern erhebliche verfassungsrechtliche Bedenken. Zur europarechtlichen Problematik siehe Spindler (2017).

Ordnungspolitik in der digitalen Welt

129

auferlegt und regulatorische Risiken geschaffen. Immerhin scheint sich der Gesetzgeber möglicher Gefahren für den Wettbewerb bewusst zu sein. Kleinere Netzwerke sind ausgenommen. Die Regeln des Gesetzes sollen für soziale Netzwerke mit mindestens 2 Millionen inländischen Nutzern gelten. Es steht zu befürchten, dass der Verbot von „Geo-Blocking“ ebenfalls konzentrationsfördernd wirken würde. Von „Geo-Blocking“ wird gesprochen wenn der Zugang zu einer Website für IP-Adressen aus bestimmten Ländern blockiert wird (EMOTA 2017). Die EU Kommission sieht hier eine Behinderung des Binnenmarktes und möchte diese Praktiken insoweit verbieten wie sie sich auf Lieferungen in andere EU-Länder beziehen.32 Anders ausgedrückt, die EU Kommission möchte eine Pflicht zur Lieferung innerhalb der gesamten EU. Eine solche Regulierung würde die kleineren Online-Händler schädigen – vermutlich in massiver Weise. Denn nach wie vor gibt es erhebliche rechtliche Unterschiede zwischen den Mitgliedsländern, die von Online-Händlern zu beachten sind – von der zusätzlichen Komplexität aufgrund von unterschiedlichen Sprachen ganz abgesehen. Verträge mit Kunden im Ausland implizieren daher ein erhöhtes Risiko. Genauso wie ein Verbot des Geo-Blocking einen europäischen Onlinehandel erzwingen soll − quasi „mit der Brechstange“, hat die EU Kommission zusammen mit der Europäischen Zentralbank darauf hingewirkt, einen europäischen Zahlungsmarkt zu schaffen. Im Bereich Überweisung und Lastschrift wurden neue Verfahren entwickelt und alte Verfahren per Verordnung abgestellt. Im Bereich Kartenzahlungen hat es die EU Kommission bei eher informellem Druck belassen. Ziel ist aber auch hier, dass Kartenzahlungssysteme europaweit nutzbar sein sollen. Dies hat schon dazu geführt, dass einige nationale Verfahren abgestellt wurden (etwa PIN in den Niederlanden oder Luottokunta in Finnland). Gewinner waren jeweils die internationalen Kartensysteme Visa und Mastercard. Trotzdem gibt es in vielen Ländern noch ein Nebeneinander nationaler und internationaler Verfahren. Allerdings ist es in der jüngeren Vergangenheit aufgrund der Interchange-Regulierung zu einer Nivellierung bei den Kosten der Kartenakzeptanz gekommen. Damit haben die nationalen Verfahren einen wichtigen Vorteil gegenüber den internationalen Verfahren Mastercard und Visa verloren. Es steht zu befürchten, dass die nationalen Verfahren über kurz oder lang eingestellt werden. Ein solches Ergebnis wäre nicht zuletzt regulatorisch bedingt – obwohl die europäischen Regulatoren sich immer für mindestens ein europäisches Verfahren ausgesprochen haben.33 Auch die bereits verabschiedete Zahlungsdiensterichtlinie 234 (PSD2) wird vermutlich ihr Ziel, den Wettbewerb im Zahlungsverkehr zu stärken, allenfalls teilweise erreichen. Zwar wird die Stellung von Nicht-Banken gestärkt, etwa durch das Recht auf einen Zugang zu den Kontoinformationen der Kunden. Aber gleichzeitig

32 Siehe European Commission (2016). 33 Siehe hierzu Judt und Krueger (2013). 34 Siehe EU (2015).

130

Justus Haucap und Ulrich Heimeshoff

hat der Gesetzgeber sich veranlasst gesehen, weitreichende Regulierungen zur Erhöhung der Sicherheit zu verabschieden. Insbesondere soll bei einer Zahlung eine sogenannte „starke Authentifizierung“ vorgenommen werden. Diese allgemein gehaltene Vorschrift wird zurzeit von der European Banking Authority (2017) konkretisiert. Auch hier ist wieder abzusehen, dass die Regeln komplexer werden und einfache, flexible Lösungen auf der Strecke bleiben werden. Zudem besteht die Gefahr, dass die Ausnahmen von der Vorschrift der starken Authentifizierung eher den großen Anbietern nützen werden. Spötter haben die PSD2 deshalb schon als „das PayPal- und Amazon-Stärkungsgesetz der EU“ bezeichnet (Bender 2017). Viele digitale Märkte sind durch Netzwerkeffekte gekennzeichnet. Dies erhöht zum einen die Gefahr monopolistischer Anbieterstrukturen und erhöht zum anderen die Bedeutung von Standards und Interoperabilität. Damit Netzwerkeffekte genutzt werden können und es trotzdem zu Wettbewerb kommen kann, versucht die EU Kommission vielfach die Anbieter dazu zu bewegen, gemeinsame Standards zu entwickeln. Gleichzeitig steht die Generaldirektion Wettbewerb der Europäischen Kommission solchen Kooperationen skeptisch gegenüber. Im Ergebnis erweist sich die Politik daher häufig als Innnovationsbremse. Ein Beispiel hierfür ist der Bereich „mobiles Bezahlen“ (oder „mPayment“). Zu diesem Bereich hat die EU Kommission 2011 ein wegweisendes Green Paper veröffentlicht,35 dessen wesentliche Punkte 2012 vom EU Parlament übernommen wurden. Das EU Parlament fordert gemeinsam entwickelte Standards und eine koordinierte Implementierung (European Parliament 2012, R18). Hierzu soll die EU Kommission ein Governance Modell vorschlagen, welches die Vertretung aller Stakeholder vorzusehen hat (European Parliament 2012, R28). Alle Betroffenen sollen also gemeinsam eine Lösung erarbeiten. Die Wettbewerbsbehörden haben aber de facto fast jeden gemeinschaftlichen Versuch, ein M-Payment System zu schaffen, erst einmal einer offiziellen Untersuchung unterworfen. Bereits in der ersten M-Payment-Welle provozierte im Jahr 2000 die Kooperation zwischen der spanischen Bank BBVA und Telefonica Moviles einen Eingriff der spanischen Wettbewerbsbehörden, der letztlich zur Aufgabe des Projekts führte (Krueger 2001). Ähnliches passierte 2011/12 mit dem „Project Oscar“, einem geplanten Joint Venture von Everything Everywhere, Orange und Vodafone. Die EU Kommission führte eine „in-depth investigation“ durch (European Commission 2012a and 2012b). Am Ende bekam das Joint Venture grünes Licht, aber der Zeitverzug hatte dazu geführt, dass die Kooperationspartner sich bereits für andere Projekte entschieden hatten (Meyer 2012). Apple, Square und M-Pesa, um nur einige prominente Beispiele zu nennen, haben gezeigt, dass es möglich ist, erfolgreiche M-Payment-Systeme am Markt zu etablieren. Diese Unternehmen haben den Erfolg im Alleingang geschafft. Dies

35 Green Paper on “an integrated European market for card, Internet and mobile payments” (European Commission 2011).

Ordnungspolitik in der digitalen Welt

131

spricht gegen einen Ansatz, der erst einmal alle Stakeholder an einen Tisch bringen will. Gleichzeitig kann es aber durchaus sinnvoll sein, dass einige Anbieter kooperieren, um mit solch großen Konkurrenten wie Apple oder PayPal konkurrieren zu können. Wenn es dann aber jedes Mal eine Untersuchung gibt, die ein Jahr oder länger dauert, dann ist das in diesen Zeiten extrem schnellen Wandels das Todesurteil für eine solche Kooperation. Unter diesen Bedingungen können europäische Wettbewerber nicht mit ihren amerikanischen Konkurrenten mithalten (Krueger 2016). Für sich genommen ist jedes dieser Beispiele vermutlich in seinen Auswirkungen begrenzt. Aber wenn man auf alle zusammen schaut, dann ergibt sich letztlich, dass die europäische Politik im Wesentlichen den großen Anbietern nützt und diese kommen oft aus Übersee. Auf diese Art und Weise schwächt man den Wettbewerb und bleibt in wichtigen Zukunftsmärkten zweitklassig. Ordnungspolitik, die diesen Namen verdient, sieht anders aus.

Literatur Bender, Hanno. 2017. Bargeld bleibt bestimmend, BargeldlosBlog. Unregelmäßige und unqualifizierte Unkenrufe rund um den unbaren Zahlungsverkehr, Veröffentlicht am 2. Mai 2017 (www.bargeldlosblog.de/bargeld-bleibt-bestimmend/). Bundesregierung. 2017. Entwurf eines Gesetzes zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG-E) vom 5. April 2017. EMOTA. 2017. Position Paper. EU Commission Geo-blocking Regulation, FINAL, January 2017. EU. 2015. DIRECTIVE (EU) 2015/2366 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of 25 November 2015 on payment services in the internal market, amending Directives 2002/65/ EC, 2009/110/EC and 2013/36/EU and Regulation (EU) No 1093/2010, and repealing Directive 2007/64/EC EU. 2016. VERORDNUNG (EU) 2016/679 DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (DatenschutzGrundverordnung). European Banking Authority. 2017. Final Report. Draft Regulatory Technical Standards on Strong Customer Authentication and common and secure communication under Article 98 of Directive 2015/2366 (PSD2), 23 February 2017. European Commission. 2011. Green Paper on “an integrated European market for card, Internet and mobile payments”. European Commission. 2012a. “Commission opens in-depth investigation into the creation of a mobile commerce joint venture by UK mobile operators Telefónica, Vodafone and Everything Everywhere”, Press release, Brussels, 13 April 2012. European Commission. 2012b. “Commission clears the creation of a mobile commerce joint venture by UK mobile operators Telefónica, Vodafone and Everything Everywhere”, Press release, Brussels, 5 September 2012. European Commission. 2016. Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on addressing geo-blocking and other forms of discrimination based on customers’ nationality, place of residence or place of establishment within the internal

132

Justus Haucap und Ulrich Heimeshoff

market and amending Regulation (EC) No 2006/2004 and Directive 2009/22/EC, Brussels, 25. 5. 2016, COM(2016) 289 final, 2016/0152 (COD). European Parliament. 2012. “Card, Internet and mobile payments. European Parliament resolution of 20 November 2012 on ‘Towards an integrated European market for card, Internet and mobile payments’”, (2012/2040(INI)). Judt, Ewald und Malte Krueger. 2013. A European Card Payments Scheme – forever a phantom?, Journal of Payment Strategy & Systems 7, S. 344‑358. Krueger, Malte. 2001. The Future of M-payments – Business Options and Policy Issues −, Background Paper No. 2, Electronic Payment Systems Observatory, Institute for Prospective Technological Studies, Sevilla 2001. http://ftp.jrc.es/EURdoc/eur19934en.pdf. Krueger, Malte. 2016. Mobile Payments: The Second Wave, in: Górka, Jakub (Hrsg.): Transforming Payment Systems in Europe, Palgrave Macmillan Studies in Banking and Financial Institutions, 2016, S. 214‑235. Ladeur, Karl-Heinz und Tobias Gostomzyk. 2017. Zur Verfassungsmäßigkeit des „Netzwerkdurchsetzungsgesetzes“, Zusammenfassung der Ergebnisse eines Gutachtens im Auftrag des Bitkom. (Die Vollversion des Gutachtens wird im Frühsommer 2017 erscheinen). Meyer, David. 2012. “Vodafone, O2, T-Mobile and Orange win EU thumbs-up for mobile wallet scheme”, www.zdnet.com, 5 September 2012, (www.zdnet.com/article/vodafone-o2-t-mobileand-orange-win-eu-thumbs-up-for-mobile-wallet-scheme/#!). Powles, Julia und Enrique Chaparro. How Google determined our right to be forgotten. The Guardian, 18. Februar 2015 (www.theguardian.com/technology/2015/feb/18/the-right-beforgotten-google-search). Aufgerufen am 17. 4. 2017. Spindler, Gerald. 2017. Legal Expertise commissioned by BITKOM concerning the notified German Act to Improve Enforcement of the Law in Social Networks (Netzwerkdurchsetzungsgesetz).

Carl Christian von Weizsäcker

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive 1 2 3 4 5 6 7 8

Vom Zinsverbot zum negativen Zins. Die erste Bilanz‐Befreiung und die zweite 133 Bilanz‐Befreiung 137 Warum der natürliche Zins negativ ist – ein kurzer Abriss 139 Leviathan: Der Primat des staatlichen Gewaltmonopols 140 Wohlstand und Demokratie 142 Das Erfordernis der privaten Eigenvorsorge, Preisstabilität 143 Die zwei Denkrichtungen Was tun gegen den Protektionismus? 144 Global‐Soziale Marktwirtschaft 147

1 Vom Zinsverbot zum negativen Zins. Die erste Bilanz‐Befreiung und die zweite Bilanz‐Befreiung Ich beginne mit einem Blick in die vormoderne Vergangenheit. Aristoteles und, ihm folgend, die mittelalterliche Philosophie Europas sprachen sich für ein Zinsverbot aus. Das Zinsverbot wurde seinerzeit damit begründet, dass der Zins eine „Ausbeutung“ des Schuldners darstelle. Aristoteles sagt: Geld gebärt keine Jungen. Daher kann der Schuldner für das geliehene Geld nicht mehr zurückzahlen als er bekommen hat. Der Gläubiger hat keinen Anspruch auf mehr als auf das, was er hergegeben hat. Die Marxsche Lehre vom Profit als „Mehrwert“ und „Exploitation“ hat auch den Zins als Erscheinungsform des Mehrwerts behandelt und somit ebenfalls dem Verdikt der kapitalistischen Ausbeutung unterstellt. Praktisch hat es in der Menschheitsgeschichte immer Kreditzinsen gegeben. Da die Kirche im Mittelalter das Zinsverbot erlassen hatte, mussten die Zinsen oft in einer verbrämten Form vereinbart werden. Die Moderne, die ein enormes Wachstum des Wohlstandes gebracht hat, beruht ganz wesentlich auf dem Prinzip der Arbeitsteilung. Der erste Satz von Adam Smiths „Wealth of Nations“ hat sich als eine große Prophetie erwiesen: die Hauptquelle des Wohlstands ist die Arbeitsteilung. Aber die arbeitsteilige Volkswirtschaft bedarf eines entwickelten Kreditsystems. Sie bedarf der Befreiung von dem für jeden Bürger geltenden Zwang der Gleichung „Reinvermögen = Realvermögen“. Die Abschaffung des Zinsverbots ist Begleiterscheinung des historischen Gangs in die Moderne. Der Zins ist Kumpan der drei Werte „Freiheit, Gleichheit, Brüderlichkeit“. Ich nenne die Befreiung von der Jedermann‐Bedingung „Reinvermögen = Realvermögen“ die erste Bilanz‐Befreiung. https://doi.org/10.1515/9783110554861-007

134

Carl Christian von Weizsäcker

Von Marx und Engels ist die Moderne in den folgenden klassischen Sätzen korrekt beschrieben worden: Die Bourgeoisie kann nicht existieren, ohne die Produktionsinstrumente, also die Produktionsverhältnisse, also sämtliche gesellschaftlichen Verhältnisse fortwährend zu revolutionieren. Unveränderte Beibehaltung der alten Produktionsweise war dagegen die erste Existenzbedingung aller früheren industriellen Klassen. Die fortwährende Umwälzung der Produktion, die ununterbrochene Erschütterung aller gesellschaftlichen Zustände, die ewige Unsicherheit und Bewegung zeichnet die Bourgeoisieepoche vor allen anderen aus. Alle festen, eingerosteten Verhältnisse mit ihrem Gefolge von altehrwürdigen Vorstellungen und Anschauungen werden aufgelöst, alle neugebildeten veralten, ehe sie verknöchern können. Alles Ständische und Stehende verdampft, alles Heilige wird entweiht, und die Menschen sind endlich gezwungen, ihre Lebensstellung, ihre gegenseitigen Beziehungen mit nüchternen Augen anzusehen.

Die moderne, arbeitsteilige Wirtschaftsweise wird von Marx als die Epoche der „Vergesellschaftung der Arbeit“ bezeichnet. Durch sie werden die Produktivkräfte der menschlichen Arbeit „entfesselt“. Teil dieser Entfesselung der Produktivkräfte ist die von mir so genannte erste Bilanz‐Befreiung von der Gleichung „Reinvermögen = Realvermögen“ für jedermann. Die neoklassische Theorie hat auf die Marxsche Ausbeutungsthese damit geantwortet, dass sie den Kapitalzins wie andere Preise auch als Knappheitssignal interpretiert hat. Hier ist insbesondere Eugen von Böhm‐Bawerk zu nennen (Böhm‐ Bawerk 1889). Er ist der eigentliche Begründer der Kapitaltheorie. Es gibt subjektive Faktoren, die zur Erklärung eines positiven Kapitalzinses beitragen. Sie können wir in moderner Sprache der Kapitalangebotsseite zurechnen. Sie bedurften der damals noch recht jungen subjektiven (nutzenorientierten) Wertlehre, wie sie in Wien von Carl Menger, dem akademischen Lehrer Böhm‐Bawerks, entwickelt worden war (parallel dazu bekanntlich von Walras im französischsprachigen Bereich und von Jevons in England – früher schon, jedoch nicht weiter beachtet, von Gossen in Deutschland). Für die Kapitalnachfrageseite entwickelte Böhm‐Bawerk die temporale Kapitaltheorie. Zentraler Begriff war die „Mehrergiebigkeit längerer Produktionsumwege“. Böhm‐Bawerk argumentiert nun, dass das Kapitalangebot der Menschen nicht ausreicht, um so viel Kapital zur Verfügung zu stellen, dass die Volkswirtschaft die Mehrergiebigkeit längerer Produktionsumwege voll ausschöpfen kann. In diesem Sinne ist Kapital knapp. Und der positive Zinssatz ist das Preissignal für die jeweils herrschende Mehrergiebigkeit längerer Produktionsumwege. Der Zinssatz sorgt dafür, dass das knappe Kapital optimal eingesetzt wird. Ich habe keinen Zweifel, dass Böhm‐Bawerk für seine Zeit mit dieser Aussage empirisch Recht hatte. Damals war – im dem Sinne, wie Böhm‐Bawerk das gemeint hat – Kapital knapp. Das Modell, mit dem Böhm‐Bawerk seine Analyse durchgeführt hat, war eines, in dem nur private Personen (Haushalte und Unternehmen) eine Rolle spielen. Weder das Ausland noch der Staat sind in dem Denkschema enthalten. Das ist auch methodisch richtig, wenn man die Frage untersuchen will, ob die spontanen Akti-

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive

135

vitäten der Bürger eines Landes zu einem positiven Realzins führen oder nicht. Damit aber bleibt die Gleichung „Reinvermögen = Realvermögen“ in der Form erhalten, dass sie für die summierten Vermögen aller Bürger gilt. Für die Volkswirtschaft als ganze gilt dann die Gleichung „privates Reinvermögen = privates Realvermögen.“ Den Gleichgewichtszinssatz, der sich in einem Gleichgewicht nach Böhm‐Bawerks Modell ergibt, nennt sein Zeitgenosse Knut Wicksell (Wicksell 1898) den „natürlichen Zins.“ Dieser ist wohlgemerkt ein Realzins. Er entspricht dem Nominalzins dann, wenn es weder Inflation noch Deflation gibt. Wicksell folgend definiere ich den natürlichen Zins als den realen Gleichgewichtszinssatz, der sich in einer geschlossenen Volkswirtschaft unter Bedingungen der Prosperität („Vollbeschäftigung“) und bei Staatsschulden von Null ergibt. Faktisch hat die Gleichung „Reinvermögen = Realvermögen“ für den privaten Sektor nie gegolten. Der Staat war immer verschuldet. Für ein Land mit dauerhaft ausgeglichener Leistungsbilanz galt daher immer: „privates Reinvermögen > privates Realvermögen.“ Herkömmlich war damit Kapital „knapper“ als es das gewesen wäre, wenn der Staat nicht verschuldet gewesen wäre. Faktisch lag daher der gleichgewichtige Prosperitäts‐Realzins immer höher als der natürliche Zins des Böhm‐Bawerkschen Denkmodells. Dennoch hat dieses Denkmodell die Gemüter so massiv erobert, wie dies, nach Keynes, das Denken Ricardos zumindest in Großbritannien getan hat: „... and Ricardo conquered England as completely as the Holy Inquisition conquered Spain“ (Keynes 1936, S. 32). Und so herrscht bis heute die Meinung vor, dass Staatschulden uns ärmer machen, dass sie eine Ausbeutung künftiger Generationen durch die heutige Generation bedeuten; und dass sie allenfalls zur Glättung des Konjunkturverlaufs jeweils vorübergehend eingesetzt oder geduldet werden sollten. Diesem Denken entspricht die Schuldenbremse, die im deutschen Grundgesetz steht und die mittels des Fiskalpakts (Artikel 3) die Mitgliedsstaaten der Europäischen Union bindet. Damit bleibt die Gleichung „privates Reinvermögen = privates Realvermögen“ offizielles Ideal der europäischen Politik. Ich nenne dieses Denken im Folgenden das traditionelle Denken. Ich habe an anderer Stelle meine These ausführlich begründet, dass der natürliche Zins inzwischen negativ ist. Ich gebe unten eine Kurzform meines Arguments. Wichtig ist, dass diese Aussage generell – und nicht nur für „schlechte Zeiten“ gilt. Diese These wird auch vielfach als die These der „säkularen Stagnation“ bezeichnet, eine Bezeichnung, die aus den dreißiger Jahren des 20. Jahrhunderts stammt, als man mit den Folgen der Großen Depression zu kämpfen hatte. Die These gilt für alle reichen Länder und für China, somit für den Wirtschaftsraum „OECD + China“. Dass der natürliche Zins heute negativ ist, ist Ergebnis des unglaublich starken Aufschwungs der Lebensbedingungen der Menschen als Folge der Moderne, mit der die erste Bilanzbefreiung einherging. Hier ist von besonderer Bedeu-

136

Carl Christian von Weizsäcker

tung die ständig gestiegene und offenkundig auch weiter steigende Lebenserwartung der Menschen. Wenn die These vom negativen natürlichen Zins richtig ist, kann das Ideal „privates Reinvermögen = privates Realvermögen“ nicht mehr gelten. Denn seine Verwirklichung wäre dann inkompatibel mit einem Zustand der Prosperität („Vollbeschäftigung“) bei gleichzeitiger Preisstabilität. Ich werde unten für Preisstabilität plädieren. Damit ist dann aber Prosperität nur unter Verletzung der Gleichung „privates Reinvermögen = privates Realvermögen“ zu erzielen. Daher plädiere ich für die „Zweite Bilanz‐Befreiung.“ Was heute faktisch schon gilt, wird damit auch zu einer wirtschaftspolitischen Norm: Der Staat soll Schulden als Dauerzustand haben. Es soll gelten: „privates Reinvermögen > privates Realvermögen“. Der Staat hat nach dieser Idealvorstellung ein negatives Reinvermögen. Dadurch ermöglicht er die zweite Bilanz‐Befreiung. Unter Einschluss des Staates bleibt die Gleichung „Reinvermögen = Realvermögen“ erhalten. Dass der Staat – und nur der Staat – dauerhaft ein negatives Reinvermögen ohne Insolvenz aufrechterhalten kann, liegt an seinem Gewaltmonopol, das jedem gut funktionierenden Staat zugrunde liegt. Ich werde dieses Gewaltmonopol unten ausführlich besprechen. Seinen Gläubigern kann er seine dauerhafte Zahlungsfähigkeit glaubhaft machen, indem er auf seine künftigen Steuereinnahmen verweist, die er auf Basis seines Gewaltmonopols einzutreiben in der Lage ist. Diese Zusicherung an die Gläubiger gelingt, solange sich der Staat auf dem aufsteigenden Ast der Laffer‐Kurve befindet: er kann darauf verweisen, dass er im Notfall durch Steuersatz‐Erhöhungen die Staatseinnahmen zwecks Bedienung seiner Schulden weiter erhöhen kann. In ganz ähnlicher Weise wie beim Zinsverbot wird im traditionellen Denken das Verbot der Staatsverschuldung damit begründet, dass das Schuldenmachen des Staates eine Ausbeutung künftiger Generationen durch die gegenwärtige sei. Die heutige Generation lebe besser durch das Schuldenmachen, wohingegen die künftigen Generationen diese Schulden wieder abtragen müssen, was ihren Lebensstandard mindert. Dieses Argument ist dann nicht richtig, wenn die Zinsen, die der Fiskus bezahlen muss, sehr niedrig sind. An anderer Stelle habe ich das ausführlich gezeigt (Weizsäcker 2014, 2015). Der Grundgedanke gegen das Ausbeutungsargument ist eng verwandt mit der Idee des Generationenvertrags, der zur Rechtfertigung des Umlageverfahrens bei der gesetzlichen Rentenversicherung in Anspruch genommen wird. Hierzu Schreiber (1955). Beim Umlageverfahren spricht man nicht davon, dass die nächste Generation von der heutigen ausgebeutet wird. Das Umlageverfahren kann aber gedanklich in zwei Teile zerlegt werden: 1. Eine Rentenversicherung mit Kapitaldeckungsverfahren und 2. das Fehlen des Deckungsstocks, den es beim Kapitaldeckungsverfahren gäbe. Und dieser fehlende Deckungsstock kann verstanden werden als eine Staatsschuld: zu jedem Zeitpunkt haben die künftigen Rentner in der Vergangenheit schon Ansprüche durch ihre Beiträge erworben, womit sie Gläubiger des Fiskus

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive

137

geworden sind. Somit generiert das Umlageverfahren eine Staatsschuld, die nicht als Belastung künftiger Generationen angesehen wird. Allerdings besteht in der ökonomischen Theorie Konsens darüber, dass das Umlageverfahren bei der dynamischen Rente problematisch ist, wenn die auf dem Kapitalmarkt herrschenden Zinsen höher liegen als die der dynamischen Rente inhärente Wachstumsrate der Rentenansprüche. Genau dann sollte man zumindest partiell zu einem Kapitaldeckungsverfahren übergehen. Genau dann stellt sich der sozialversicherungspflichtige Arbeitnehmer bei seiner Altersvorsorge schlechter als der Bezieher einer privaten Lebensversicherung. Es geht somit darum: die Köpfe der Ökonomen müssen befreit werden von der Denkbarriere, die ihnen die Gleichung „privates Reinvermögen = privates Realvermögen“ eingebaut hat. Ein neues Denken über Staatsschulden und über die aus dem staatlichen Gewaltmonopol abzuleitenden Staatsaufgaben ist erforderlich.

2 Warum der natürliche Zins negativ ist – ein kurzer Abriss An anderer Stelle habe ich ausführlich dargelegt, weshalb ich die These vertrete, dass der natürliche Zins im 21. Jahrhundert negativ ist. Vgl. Weizsäcker (2010, 2014, 2015). Wie schon oben formuliert, ist der natürliche Zins definiert als der von Risikozuschlägen bereinigte Realzins, der in einer hypothetischen Volkswirtschaft ohne Staatsschulden und mit ausgeglichener Leistungsbilanz für den Ausgleich von Angebot und Nachfrage auf dem Kapitalmarkt unter Bedingungen gesamtwirtschaftlicher Prosperität sorgt. Herkömmlich war dieser natürliche Realzins positiv. Die privaten Ersparnisse reichten nicht aus, um den Kapitalbedarf des Produktionssektors zu befriedigen, der sich bei einer vollen Ausschöpfung der Mehrergiebigkeit längerer Produktionsumwege ergeben hätte. Dass sich die Mehrergiebigkeit längerer Produktionsumwege bei einem endlichen Produktionsumweg (gemessen als das Verhältnis zwischen dem Wert des Produktivkapitals und dem Wert des jährlichen volkswirtschaftlichen Konsums) erschöpft, ist zentraler Bestandteil meiner Theorie. An anderer Stelle habe ich diese These ausführlich begründet. Hier referiere ich das zentrale Argument in einem Absatz: Als Maßstab für den volkswirtschaftlichen Produktionsumweg kann man in der Tradition von Eugen von Böhm‐Bawerk die durchschnittliche Produktionsperiode der Volkwirtschaft wählen. (Ich habe an anderer Stelle ausführlich dargelegt, weshalb die Kritik an der Böhm‐Bawerkschen temporalen Kapitaltheorie dann nicht mehr durchschlägt, wenn man sie mithilfe moderner Modellanalyse modifiziert, jedoch in ihrem Kerngehalt beibehält). Diese ist messbar als das Verhältnis des im Produktionsprozess gebundenen Realkapitals zum jährlichen Konsum, eine Größe,

138

Carl Christian von Weizsäcker

die verwandt ist mit dem häufig in der herkömmlichen Wachstumstheorie verwendeten Kapitalkoeffizienten. Sie kann also als modifizierter Kapitalkoeffizient verstanden werden, der wie die Produktionsperiode die Dimension „Zeit“ hat. Diese Produktionsperiode kann man als Gradmesser der „vertikalen“ Komplexität des Produktionsprozesses auffassen. Es gibt aber sicher einen volkswirtschaftlich optimalen Grad der Komplexität. Überkomplexität tut nicht gut. Daher ist jenseits dieses Optimums nicht mehr mit einer weiteren Mehrergiebigkeit längerer Produktionsumwege zu rechnen. (Daneben gibt es die „horizontale“ Komplexität, die man am Grad der Arbeitsteilung ablesen kann. Die Messung des Grads der Arbeitsteilung ist ein vernachlässigtes Forschungsgebiet, wenn man in der Nachfolge von Adam Smith die These vertritt, dass diese die fundamentale Quelle des Wohlstands ist.) Angesichts des seit längerem sehr niedrigen risikobereinigten Realzinses kann man schließen, dass die reichen Länder und China inzwischen den Punkt erreicht haben, von dem an eine weitere Ausdehnung der volkswirtschaftlichen Produktionsperiode gesamtwirtschaftlich kontraproduktiv ist. Demgegenüber ist wegen der steigenden Lebenserwartung und des damit zusammenhängenden Anstiegs der Alters‐Rentenbezugsdauer der Vorsorgebedarf der Menschen stark gestiegen. Er hat in den reichen Ländern und in China inzwischen eine „Vorsorgeperiode“ von mindestens 12 Jahren erreicht. Unter der Vorsorgeperiode oder der „Sparperiode“ verstehe ich das Verhältnis des Reinvermögens der privaten Haushalte zu ihrem laufenden Jahreskonsum. Die Komponente der Vorsorgeperiode, die man auf die Altersvorsorge zurückführen kann, entspricht bei einem Realzins in der Höhe der Wachstumsrate des durchschnittlichen Reallohns ungefähr der Hälfte der Altersperiode, d. h. der Hälfte der durchschnittlichen „Rentenbezugsdauer“. Diese Komponente beläuft sich damit heute auf rund 10 Jahre. Stark vereinfacht kann man sich diesen Wert folgendermaßen herleiten: Bei 40 Jahren Berufstätigkeit und 60 Jahren Konsumtätigkeit, die aus der Berufstätigkeit finanziert wird, ist der Schwerpunkt des Konsums (30 Jahre nach Beginn der Berufstätigkeit und der daraus finanzierten Konsumtätigkeit) zehn Jahre später als der Schwerpunkt der Berufstätigkeit (20 Jahre nach Beginn der Berufstätigkeit). Dieser Schwerpunkt‐Unterschied bestimmt die Höhe des mittleren im Lebenszyklus aufgebauten Vermögens bezogen auf den laufenden Jahreskonsum. Wenn man die Ansprüche aus der gesetzlichen Rentenversicherung, der gesetzlichen Krankenversicherung, der Sozialhilfe wegen Altersarmut und aus den Pensionen der Beamten diesem Reinvermögen der privaten Haushalte hinzurechnet, dann ergeben die empirischen Zahlen auch einen Wert, der dieser Abschätzung entspricht. Daneben wird Vermögen in großem Ausmaß vererbt. Gerechnet über den Durchschnitt der Bevölkerung ergibt sich hieraus ein weiterer Vorsorgebedarf in der Größenordnung von mindestens zwei Jahren laufenden Konsums. Die Abschätzung des Mankos zwischen der Vorsorgeperiode und der heute schon erreichten optimalen Produktionsperiode kommt auf rund 50 % des Werts der Vorsorgeperiode. Von diesem Manko wird durch den reinen Bodenwert allen-

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive

139

falls ein Drittel abgedeckt. (In einem Anhang gehe ich erneut und mit zusätzlichen Argumenten auf das Gegenargument ein, dass die aus der Bodenknappheit ableitbare Bodenrente verhindert, dass der natürliche Zins negativ werden kann.) Das Tobin‐Q macht ungefähr ein Sechstel dieses Mankos aus. Der verbleibende Rest von ungefähr der Hälfte des Mankos oder einem Viertel der Vorsorgeperiode besteht aus dem negativen Reinvermögen des Staats. Dieses liegt damit mindestens in der Größenordnung von drei Jahren laufenden Konsums. Die Brutto‐Staatsschulden kann man auf ungefähr vier Jahre laufenden Konsums abschätzen. Mindestens ein Drittel des privaten Reinvermögens besteht damit aus Netto‐Forderungen an den Staat. Da der risikolose Realzins heute schon ungefähr Null ist, ist der natürliche Zins sicherlich negativ. Denn zu einem nicht‐negativen Zins wäre das heute beim Staat angelegte private Vermögen bei privaten Personen und Unternehmen nicht zusätzlich unterzubringen.

3 Leviathan: Der Primat des staatlichen Gewaltmonopols Die Terrorismus‐ und Flüchtlingskrise ruft uns ein Grundpostulat der Moderne in Erinnerung: das Gewaltmonopol des Staates; genauer: das Monopol des Staates auf legitime Gewaltausübung. Quer durch alle Parteiungen erschallt der Ruf nach einer Personalverstärkung der Polizei. Man muss sich nur wenige Jahre zurückversetzen, um im Stimmengewirr der politischen Bühne auch ganz andere Voten zu vernehmen. Thomas Hobbes, einer der Urväter der politischen Theorie, formulierte den Primat dieses staatlichen Gewaltmonopols in seinen Schriften; am klarsten in seinem Buch über den Leviathan, erschienen 1651, kurz nach dem Ende des englischen Bürgerkriegs. In seinem höchst aufschlussreichen Buch „The Political Theory of Possessive Individualism“ stellt der kanadische Sozialphilosoph C. B. Macpherson überzeugend dar, wie schon Hobbes nachgewiesen hat, dass gerade auch das Privateigentum eine aus dem Gewaltmonopol des Staates abgeleitete Institution ist. Auch in einer Marktgesellschaft ruht die Prosperität der Bürger auf dem Gewaltmonopol des Staates. Durch die Geschichte der vergangenen Jahrhunderte entwickelt sich ein nie enden wollender Diskurs über die Frage, wie die aus diesem Gewaltmonopol abgeleiteten Funktionen des Staats mit einem Regime der bürgerlichen Freiheit vereinbar gemacht werden können. Bis heute lebt die Mehrheit der Menschheit in Staaten, in denen keine eigentliche Demokratie anzutreffen ist. Die Erwartung vieler, dass der Zusammenbruch des Sowjetsystems in einen weltweiten Siegeszug der freiheitlichen Demokratie münden werde, diese Erwartung wurde enttäuscht. Die-

140

Carl Christian von Weizsäcker

ses Ende der Geschichte ist nicht gekommen. Auch die „Arabellion“ vor wenigen Jahren, auch die US‐amerikanischen Interventionen im Nahen Osten haben nicht zu merklichen Fortschritten bei der „Demokratisierung“ der Welt geführt. Vielfach haben Bürgerkriege und ein gesunkener Lebensstandard das Erbe der Diktatoren angetreten. Es ergeben sich in zahlreichen Ländern sogar Abkehrbewegungen von den Institutionen einer freiheitlichen Demokratie. Die Meinungs‐ und Pressefreiheit ist heute vielerorts auf dem Rückschritt. Selbst in einigen Mitgliedsstaaten der Europäischen Union kann man Defizite bei der Meinungs‐ und Pressefreiheit konstatieren. Vor die Wahl gestellt zwischen Bürgerkrieg und Diktatur mit staatlichem Gewaltmonopol würde die überwältigende Mehrheit der Weltbevölkerung sich für die Diktatur entscheiden. In diesem Sinne gibt es einen Primat des staatlichen Gewaltmonopols.

4 Wohlstand und Demokratie Die Flüchtlinge und der Terrorismus sind internationale, ja globale Phänomene. Dort, wo es verwirklicht ist, ist das Gewaltmonopol des Staates nationalstaatlich verankert. Fast überall, wo souveräne Staaten mehr als eine Sprachregion („Ethnie“) umfassen, besteht eine zumindest latente Gefahr, dass sich das Gewaltmonopol des Staates nicht flächendeckend durchsetzen lässt. Außerhalb Europas ist es evident, dass vor allem solche Staaten der Gefahr des Bürgerkriegs ausgesetzt sind, in denen ethnische, sprachliche oder religiöse Heterogenität gegeben ist. Die Staatenbildung, die in der Dritten Welt mit dem allmählichen Ende der europäischen Kolonial‐Imperien verwirklicht wurde, hat nicht hinreichend darauf Rücksicht genommen, was die Voraussetzungen für ein stabiles, aber nicht‐diktatorisches Gewaltmonopol des Staates sind. Hier ganz wenige Beispiele: nach dem Ersten Weltkrieg sind bei der Neugründung von Staaten auf dem Boden des alten Osmanischen Reiches die Kurden „vergessen“ worden. Ihr Streben nach einer eigenen Staatlichkeit führt zu Dauerkonflikten in der Region. Die türkische Bevölkerung tut sich bis heute schwer in der Anerkennung des Massenmordes an Armeniern während des Ersten Weltkriegs. Der „Islamische Staat“ hat nicht zuletzt dem Konflikt zwischen Schiiten und Sunniten im Irak seine Anfangserfolge zu verdanken. Der Bürgerkrieg in Syrien ist weitgehend durch die Konflikte zwischen verschiedenen Religionsgruppen geprägt. Ähnliche Heterogenität ist seit Jahrzehnten ein Herd der Instabilität im Libanon. Zahlreiche Beispiele vergleichbarer Art lassen sich auf dem afrikanischen Kontinent ausmachen. Die große Anzahl an Flüchtlingen auf dieser Erde ist nicht zuletzt auf diese ethnische, sprachliche und religiöse Heterogenität in vielen Staaten zurückzuführen. Der quantitativ überwiegende Grund für die Flucht über die Landesgrenzen

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive

141

ist das Fehlen eines wirksam durchgesetzten staatlichen Gewaltmonopols. Erst in großem Abstand folgt die Flucht aus der Diktatur, auf die das Asylrecht primär zugeschnitten ist. Daneben gibt es internationale Wanderungen aus primär wirtschaftlichen Gründen, die man begrifflich von einer Flucht unterscheiden muss. Allerdings ist es in der Praxis häufig nicht möglich, den Grenzübertritt einer Person eindeutig zuzuordnen. Wenn Menschen aus Afrika südlich der Sahara ihr Leben aufs Spiel setzen, um über das Mittelmeer auf wenig tauglichen Schiffen nach Europa zu gelangen, so können die Motive für diese Wanderung sowohl wirtschaftliche Not als auch Flucht vor Unterdrückung in einer Diktatur oder in einem „Failing State“ sein. Die wirtschaftliche Not kann gerade auch durch ein Fehlen des wirksamen staatlichen Gewaltmonopols verursacht worden sein. Demokratie, so wie wir sie aus den reichen Ländern des „Nordens“ kennen, setzt ohne jeden Zweifel das Gewaltmonopol des Staates voraus. Aber es gilt nicht die Umkehrung: auch in Diktaturen kann es ein Gewaltmonopol des Staates geben. Mehr noch: vielfach sind Versuche zur Beseitigung der Diktatur und der Einführung der Demokratie daran gescheitert, dass das betreffende Staatsgebiet in Anarchie und Gewalt versank, weil die „Freiheiten“ nach der Beseitigung des Diktators zu einer Aushöhlung der staatlichen Gewalt überhaupt geführt haben. Die Beseitigung des Gewaltherrschers brachte in diesen Fällen auch die Beseitigung des staatlichen Gewaltmonopols mit sich. Welche zusätzlichen Voraussetzungen erfordert eine dauerhaft funktionsfähige Demokratie? Diese Frage kann ich nicht umfassend beantworten. Niemand kann dies heute. Vielmehr will ich mich auf einige Punkte beschränken, bei denen gerade der Ökonom seine spezifische Fachkompetenz einbringen kann. Immerhin erlaube ich mir einen Hinweis zum Thema „Religion“. Dies auch deshalb, weil wir in den letzten Jahrzehnten gerade auch außerhalb Europas eine „Re‐Politisierung“ der Religion beobachten mussten. Dies vor allem in der vom Islam geprägten Welt, aber nicht nur dort. Der Islamismus hat eine derartige Virulenz entwickelt, dass sich auch der Ökonom veranlasst sehen sollte, sich mit dem Thema „Religion“ näher zu beschäftigen. Hier sei angemerkt, dass schon Thomas Hobbes in seinem „Leviathan“ die Religion nicht ausgespart hat. Hierzu allein schon der Titel seines Buches: „LEVIATHAN, or The Matter, Forme and Power of a COMMON‐WEALTH ECCELSIATICALL AND CIVIL“. Hobbes argumentiert in diesem Buch, dass auch die Religion kompatibel mit dem Prinzip sein müsse, dass sich alles dem Herrscher im Staat (oder eben dem Staat) unterordnen müsse, damit dieser sein Gewaltmonopol effektiv durchsetzen könne. Daher sei eine Priesterherrschaft über die Seelen und Gemüter der Bürger nicht angängig. Die Macht des Priesters, dem Gläubigen durch Erteilung der Absolution die Aufenthaltsdauer im Fegefeuer zu verkürzen, sei nicht kompatibel mit der Durchsetzung des staatlichen Gewaltmonopols. In der staatskonformen Theologie gebe es keinen Platz für ein Fegefeuer. Hobbes denkt hier an die christliche Kirche; aber analoge Überlegungen

142

Carl Christian von Weizsäcker

können zum Islam angestellt werden. Ob allerdings eine „religionsfreie“ Gesellschaft die optimalen Voraussetzungen für eine funktionierende freiheitliche Demokratie darstellt, sei dahingestellt. Ich widme mich insbesondere dem Thema Wohlstand und Demokratie. In der heutigen Welt kann man ausschließen, dass die Bevölkerung eines Landes so vom Rest der Welt isoliert ist, dass sie keine Möglichkeit sähe, ihren Wohlstand mit dem Wohlstand in anderen Staaten zu vergleichen. Daher kann man als Axiom einführen: eine Staatsform – wie zum Beispiel die Demokratie – kann nur dann als stabil erachtet werden, wenn sie auch das glaubhafte Versprechen abgibt, dass sie in ähnlicher Weise wie die besseren, ausländischen Vorbilder Wohlstand generiert.

5 Das Erfordernis der privaten Eigenvorsorge, Preisstabilität Für eine funktionsfähige Demokratie wäre ein dauerhaft negativer Realzins keine gute Voraussetzung. Eine freiheitliche Demokratie erfordert, dass wir das Prinzip der Subsidiarität ernst nehmen. Der Bürger muss für sein Wohl und für das Wohl seiner Familie in erster Linie selbst sorgen. Der Staat ist hierfür nur subsidiär verantwortlich. Er muss mithin die Rahmenbedingungen privaten Handelns so gestalten, dass dieses private Handeln im Regelfall fruchtbare Ergebnisse zeitigt. Dazu gehört insbesondere ein System von Anreizen, die das Handeln der Wirtschaftsbürger in eine wohlstandsfördernde Richtung lenkt. Das ist nur dann der Fall, wenn der Beitrag des einzelnen Bürgers zum Sozialprodukt zu einem erheblichen Teil gerade auch ihm selbst zugutekommt. Das Steuersystem des modernen Staates ist weitgehend eine Steuer auf die marktvermittelte Arbeitsteilung. Die quantitativ weitaus ergiebigsten Steuern, die Einkommenssteuer (inclusive ihrer Nebensteuern wie Lohnsteuer und Unternehmens‐Gewinnsteuer) und die Umsatzsteuer sind beide Steuern auf Leistungen, die marktvermittelt angeboten und nachgefragt werden. Leistungen also, die arbeitsteilig erbracht werden. Wer seine Zeit und seine Arbeitskraft in das Wirtschaftsgeschehen einbringt, erzielt ein persönliches Einkommen, das wegen dieser Steuer auf die Arbeitsteilung in aller Regel ein ganzes Stück unterhalb seines Beitrages zum Sozialprodukt liegt. Wenn die Arbeitsteilung die Hauptquelle des Wohlstandes einer Bevölkerung ist, dann darf das Steuersystem nicht den Anreiz zerstören, sich durch das Einbringen der eigenen Zeit und des eigenen Vermögens am System der Arbeitsteilung zu beteiligen. Diese von der Ökonomik wohlverstandene Wohlstandsbedingung hat ihre Konsequenzen für das hier diskutierte Thema der risikofreien Verzinsung von Ersparnissen. Eine ganz wesentliche Motivation für die Erzielung von Arbeitseinkommen ist die Vorsorge für das künftige Leben, speziell für das Alter. Ist jedoch Sparen

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive

143

ohne Risiko nur möglich, wenn man dafür eine negative Rendite in Kauf nimmt, dann steigt die Bereitschaft, die ganze Zukunftsvorsorge, speziell die Altersvorsorge, dem Kollektiv zu überlassen und in den Tag zu leben. Wird dies zum Massenphänomen, so wird der Staat überfordert. Unter dieser Bedingung wird das Arbeitsangebot geringer sein als unter Bedingungen der Preisstabilität, zugleich steigen die sozialstaatlichen Verpflichtungen des Staates, sodass er einen höheren Anteil des Sozialprodukts auf dem Besteuerungswege für sich beansprucht. Dies ist dann ein Circulus Vitiosus: wegen der höheren Besteuerung sinkt der Anreiz, sich Einkommen durch Arbeit zu verschaffen, sodass die Staatsleistungen noch höhere Steuern erfordern usw. Ein zu breit ausgebauter Wohlfahrtsstaat ist auch ein Staat mit einer bis ins Kleinste gehenden Verhaltenskontrolle seiner Bürger. Wer schwarzarbeitet, vermeidet nicht nur Steuerzahlungen; er kann häufig sogar Sozialleistungen in Empfang nehmen, die ihm bei legaler Arbeit nicht zustünden. Der Anreiz zur Schwarzarbeit steigt quasi „mit dem Quadrat“ der umverteilenden Abgaben und Zuschüsse des Sozialstaats. Um die Staatsfinanzen noch einigermaßen in Ordnung zu halten, muss der Staat dem Bürger umso genauer und umfassender hinterher schnüffeln, je größer der umverteilende Teil seiner wohlfahrtstaatlichen Aktivitäten ist. Hier gibt es ein Spannungsverhältnis zwischen dem Umfang der Privatsphäre und dem Umfang der Umverteilung. Damit ist ein freiheitlicher Staat darauf angewiesen, dass die Eigenverantwortung des Bürgers für diesen nicht wie eine Zumutung erscheint, sondern von diesem quasi „verinnerlicht“ wird und mit Stolz wahrgenommen wird. Diese „Philosophie“ der Eigenverantwortlichkeit ist der wichtigste Pfeiler im Argumentationsgebäude zugunsten einer Politik der Preisstabilität. Anders ausgedrückt: der Inbegriff gelingender Preisstabilität ist es, dass sie es dem Bürger ermöglicht, ein risikofreies (oder doch: risikoarmes) Vorsorgeinstrument zu haben, indem er seine Ersparnisse zur Bank oder zur (Lebens‐ und Kranken‐) Versicherung trägt (oder als Bargeld hortet) und darauf zählen kann, diese im Bedarfsfalle mindestens in voller Höhe real zurück zu bekommen. Wenn dem Bürger diese Möglichkeit geboten wird, wird die große Mehrheit der Bürger auch akzeptieren, dass ihnen finanzielle Eigenvorsorge nicht nur möglich ist, sondern dass sie ihnen auch zugemutet werden kann. Daher ist die Preisstabilität für die Stabilität eines freiheitlichen Staatswesens von besonderer Bedeutung. Dies bedeutet zugleich, dass die Abschaffung des Bargelds mit dem Vorhaben, negative Zinsen durchzusetzen der falsche Weg zur Lösung der Probleme ist.

6 Die zwei Denkrichtungen In der heutigen makroökonomischen Theorie gibt es bezüglich der hier behandelten Probleme zwei Denkrichtungen: die traditionelle und die neue. Die traditionelle

144

Carl Christian von Weizsäcker

Denkrichtung geht ganz überwiegend davon aus, dass der natürliche Zins (so wie hier definiert) gar nicht auf die Dauer negativ werden kann, dass er der Tendenz nach sogar höher ist als die Wachstumsrate der Weltwirtschaft. Die neue Denkrichtung sieht in dem negativen natürlichen Zins eine Realität des 21. Jahrhunderts. Ich selbst gehöre zu dieser neuen Denkrichtung. Je nachdem, welcher der beiden Denkrichtungen man angehört, entwickelt man eine bestimmte Tendenz bei der Interpretation von Staatsschulden. In der traditionellen Denkrichtung werden Staatsschulden tendenziell negativ beurteilt. In der neuen Denkrichtung werden die positiven Aspekte der Staatsschulden hervorgehoben. In der traditionellen Denkrichtung betont man die Schuldnerseite des Phänomens der Staatsschulden. In der neuen Denkrichtung betont man dessen Gläubigerseite. Die Staatschulden haben, wie ich vor längerer Zeit schrieb, einen Januskopf, der zwei Gesichter hat (Weizsäcker 2010). Das eine Gesicht sieht auf die Schulden; das andere Gesicht sieht auf die Guthaben, die diesen Schulden entsprechen. Natürlich besteht auch in der traditionellen Denkrichtung das Anerkenntnis, dass Staatsschulden eine nützliche Funktion ausüben können. Aber diese nützliche „Glättungsfunktion“ (etwa in der Form des automatischen Stabilisators oder bei einer besseren intertemporalen Verteilung der Lasten, die die Finanzierung von Staatsausgaben mit sich bringen) führt in der traditionellen Denkrichtung nicht dazu, dass man für dauerhafte massive Staatsschuld als Bestandsgröße plädiert. Natürlich erkennt man auch in der neuen Denkrichtung an, dass es ein Übermaß an Staatsschulden geben kann, dass der Staat das Schuldeninstrument missbrauchen kann; jedoch sieht man in einer dauerhaften massiven Staatsschuld noch nicht per se einen Missbrauch. Und man ist bereit, das Staatsschuldeninstrument umfassender einzusetzen: als Beitrag zur Lösung von brennenden Problemen. Zwei Beispiele will ich nunmehr diskutieren. Die Stichworte sind „Protektionismus“ und „Global‐Soziale Marktwirtschaft“.

7 Was tun gegen den Protektionismus? Die neue Welle des Protektionismus hängt mit der Thematik der niedrigen Zinsen zusammen. Schon Keynes hat Anfang der dreißiger Jahre angesichts des krisenhaften Rückgangs der nationalen Wirtschaftsaktivität und angesichts eines Regimes (noch) fester Wechselkurse für britische Importzölle plädiert. Im Verlauf der Weltwirtschaftskrise der dreißiger Jahre ist dem internationalen Handel durch Abwertungswettläufe und Importbeschränkungen großer Schaden zugefügt worden. Damit derartiges nicht wieder passiert hat man nach dem Zweiten Weltkrieg das GATT gegründet, das dann in die heutige WTO weiterentwickelt wurde. Solange die Weltmeinung an der These festhält, dass „in normalen Zeiten“, sprich, nach Überwindung der Weltfinanzkrise, die Realzinsen wieder merklich

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive

145

über Null liegen werden, ist das politische Gelände abschüssig in Richtung Protektionismus. Denn im Rahmen dieser traditionellen Denkrichtung wird die Einschränkung von Staatsschulden als löbliche Tat verstanden, als antipopulistisch. Plädoyers für höhere staatliche Budgetdefizite gelten in diesem Denken als Teil einer populistischen Agenda. Wenn aber tatsächlich das „Neue Denken“ das richtige ist, wenn der prosperitätskonforme reale Gleichgewichtszins bei einem fiskalischen „Austerity‐Kurs“ negativ ist, dann führt der vermeintliche Antipopulismus zu einer tendenziellen Unternachfrage nach Waren und Dienstleistungen – und dies selbst bei Nominalzinsen von Null. Damit streut jedoch der vermeintliche Antipopulismus den Samen für eine andere Form des Populismus, nämlich für den Protektionismus. In diesen Monaten scheint diese Saat aufzugehen: Brexit, Trump. Spätestens dann, wenn der Protektionismus zu einer massiven Gefahr wird, stellt sich die Frage, ob eine Schuldenbremse wie die deutsche der politischen Vernunft entspricht – angesichts der Tatsache, dass diese Schuldenbremse offensichtlich nur dann prosperitätskonform ist, wenn man sich eines enorm hohen Leistungsbilanzüberschusses erfreuen kann. Natürlich hat auch im neuen Denken der Gedanke Platz, dass bei Prosperität in allen Ländern stabile Leistungsbilanzüberschüsse und -defizite vorhanden sein mögen. Problematisch sind derartige Leistungsbilanzüberschüsse dann, wenn nicht überall Prosperität herrscht. Denn dies bedeutet ja, dass die im Verhältnis zur Sparneigung zu geringe Investitionsneigung zu einem staatenübergreifenden Gesamtdefizit in der Gesamtnachfrage führt. Das I < S​ -Problem wird dann durch Rezession oder Depression gelöst, wodurch vielen Menschen ein ausreichendes Sparen unmöglich gemacht wird. Es entsteht dann der Eindruck, dass Länder mit hohem Leistungsbilanzüberschuss einen „unfair“ hohen Anteil an den Gewinnen des internationalen Austauschs erhalten. Dies ist der Vorwurf, dass man eine „beggar thy neighbour“‐Politik betreibt. Nun mag man einwenden, dass in einem System flexibler Wechselkurse die Selbstheilungskräfte des Marktes schon dafür sorgen werden, dass hohe Leistungsbilanzüberschüsse und -defizite von selbst verschwinden werden. Das ist jedoch dann nicht automatisch der Fall, wenn die Kurse durch Zentralbankinterventionen verfälscht werden. Bei einem weltweiten Defizit der Gesamtnachfrage muss man das künstliche Heruntermanipulieren des Wechselkurses der eigenen Währung als eine Spielart des Protektionismus ansehen. Etwas komplizierter liegt es beim Euro: dieser wird ja von Deutschland nicht direkt heruntermanipuliert. Indessen ist er „schwach“, weil er eben nicht nur die heimische Währung Deutschlands, sondern auch der mediterranen Mitglieder des Euro‐Gebietes ist. Diese schwächen den Euro – und sei es dadurch, dass die EZB seit längerer Zeit eine radikale Niedrigzinspolitik fahren muss. Deutschland, so könnte man sagen, betreibt eine Art versteckten Protektionismus, indem es als eine Art „Lender of Last Resort“ (Oder: „Giver of Last Resort“) für die anderen Euro‐ Staaten den Euro in seiner jetzigen Form am Leben hält und es damit seiner Wirt-

146

Carl Christian von Weizsäcker

schaft erlaubt, von einem vergleichsweise schwachen Euro zu profitieren. Die Alternative zu dieser Interpretation ist, dass Deutschland zwar eine Schuldenbremse in die Verfassung geschrieben hat, jedoch „hintenherum“ Schulden in der Form von Eventualverbindlichkeiten macht, die sich bei einem Staatskonkurs innerhalb des Euro‐Gebiets in manifeste Schulden verwandeln. Gleichgültig, welche Interpretation man wählt, so verletzt Deutschland eines von zwei Prinzipien: entweder das Prinzip, dass der Staat keine Schulden machen soll; oder das Prinzip, dass der internationale Handel ohne Protektionismus ablaufen soll. Protektionismus kann am besten vermieden werden, wenn die Weltwirtschaft prosperiert. Das ist gegenwärtig nicht der Fall. Es gibt zahlreiche Staaten, in denen hohe Arbeitslosigkeit und speziell hohe Jugendarbeitslosigkeit anzutreffen ist. Dies zusammen mit den niedrigen Zinssätzen und geringen Inflationsraten spricht dafür, dass der prosperitätskonforme reale Gleichgewichtszins gegenwärtig negativ ist. Eine vermehrte Staatsverschuldung mag in dieser Lage die richtige Antwort sein. Diese müsste allerdings in den Staaten stattfinden, in denen man dadurch keine Verminderung des Ratings hervorruft. Dafür wäre Deutschland ein gutes Beispiel. Diese vermehrte Staatsverschuldung Deutschlands mag ein Mittel im Kampf gegen den Protektionismus sein. Sie ist aber unabhängig davon von Vorteil für Deutschland. Denn die niedrigen Realzinsen, mit denen Deutschland auch für die Zukunft rechnen kann, zeigen, dass eine höhere Staatsschuld eines Landes zugleich für dieses Land als auch für alle anderen Länder von Vorteil ist. Genaueres zu diesem „Invisible-Hand-Theorem der Staatsverschuldung“ in von Weizsäcker (2014). Für Deutschland wäre auch die damit zusätzlich stimulierte Einwanderung von arbeitswilligen Fachkräften von Vorteil. So könnte zugleich etwas gegen die demographische Schieflage Deutschlands getan werden. Was den Euro betrifft, so kann er nur dann stabilisiert werden, wenn eine umfassende Prosperität des Euro‐Gebiets keine großen Leistungsbilanzüberschüsse mehr voraussetzt. Heute ist dies aber der Fall. Käme es unter Beibehaltung der jetzigen Fiskalpolitik im Euro‐Raum zu dieser umfassenden Prosperität, so würden die damit einhergehenden hohen Leistungsbilanzüberschüsse eine Euro‐Aufwertung zur Folge haben, die genau diese Prosperität wieder zunichtemacht. Vgl. von Weizsäcker (2013). Die fiskalischen Defizite müssen also im Euro‐Raum bis zu dem Punkt steigen, von dem an die umfassende Prosperität des Raums keine Leistungsbilanzüberschüsse mehr voraussetzt. Hierzu im Detail mein Vorschlag einer Leistungsbilanzbremse in Weizsäcker (2016). Seit der Wahl Donald Trumps zum amerikanischen Präsidenten ist die Rettung des Euro aus deutscher Sicht noch dringlicher geworden. Der offene Protektionismus Trumps befördert in vielen Ländern eine Mentalität, dass man Regeln, die gegen den Protektionismus in jahrzehntelanger internationaler Zusammenarbeit aufgebaut wurden, mehr oder weniger ungestraft verletzen kann. Dies ermutigt die politischen Kräfte des Protektionismus. Der Euro hat für die schwachen Euro‐

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive

147

Mitglieder den Vorteil, dass die Zinsen, die sie auf ihre Staatsschulden zahlen, niedrig sind, ohne dass dadurch Inflation entsteht. Nachteilig ist, dass durch die Gemeinschaft mit den starken Euro‐Mitgliedern die Währung stärker ist als ihnen lieb sein kann. Die politischen Kräfte, die sich in diesen Ländern gegen den Euro stellen, bekommen natürlich Auftrieb durch die Trump‐Politik. Ein Zusammenbruch des Euro in seiner heutigen Form gefährdet aus meiner Sicht inzwischen auch den Gemeinsamen Markt. Steigt ein bisher schwaches Euro‐Mitglied aus dem Euro aus, so ist die Versuchung groß, auf ganzer Linie protektionistisch zu werden und wieder nationale Importerschwerungen, z. B. Importzölle einzuführen, um so die heimische Wirtschaft anzukurbeln. Das bedeutet letztlich, nach britischem Vorbild, den Exit aus der europäischen Union. Die hier vorgetragenen Überlegungen zum Protektionismus basieren auf der Beobachtung, dass das Gewaltmonopol des Staates bisher nationalstaatlich verankert ist. Die daraus abgeleitete nationale Souveränität bewirkt, dass die Nationalstaaten in einem breiten politischen Feld unilateral handeln können – und dies ohne hinreichende Sanktionsdrohung seitens anderer Staaten oder seitens übernationaler Staatenverbünde. Ein Hauptgrund, dass derartige Sanktionsdrohungen nicht hinreichend sind, ist der, dass Demokratien nicht mehr bereit sind, mit Waffengewalt gegen andere Demokratien vorzugehen. Das 21. Jahrhundert ist nicht das 19. Jahrhundert. Damals haben zum Beispiel zwei Bürgerkriege in den USA stattgefunden, ehe endgültig geklärt war, dass Einzelstaaten keinen Ausweg ihrer Probleme durch einen Austritt aus der Union finden konnten. – Und das protektionistische Waffenarsenal kann ganz überwiegend unilateral eingesetzt werden. Die Quintessenz dieser Betrachtungen zum Protektionismus ist aus deutscher Sicht, dass Deutschland sich im eigenen Interesse von der Schuldenbremse verabschieden sollte, um die oben diskutierte „zweite Bilanz‐Befreiung“ zu nutzen in seinem Kampf gegen den Protektionismus. Ein von mir entwickelter Vorschlag in diese Richtung läuft darauf hinaus, dass die deutsche Schuldenbreme durch eine Leistungsbilanzbremse abgelöst wird (Weizsäcker 2016). Diese gedacht als eine Vorstufe für eine Leistungsbilanzbremse des Euro‐Gebiets zwecks Vermeidung einer massiven Euro‐Aufwertung im Falle der Prosperität.

8 Global‐Soziale Marktwirtschaft Das Ziel einer Global‐Sozialen Marktwirtschaft ist ein zweites Beispiel, wie die zweite Bilanz‐Befreiung genutzt werden könnte. An anderer Stelle habe ich darauf hingewiesen, dass die Flüchtlingskrise Symptom eines Wettlaufs zwischen dem Wohlstandszuwachs und dem Bevölkerungszuwachs in der Dritten Welt ist (Weizsäcker 2017). Will man die Flüchtlingsströme in die Richtung der reichen Länder auf humane Weise eindämmen, dann geht es um eine aktive Förderung von Arbeitsplätzen in der Dritten Welt. Hierfür ist insbesondere geeignet die Förderung

148

Carl Christian von Weizsäcker

des Exports von Industriewaren und Dienstleistungen aus der Dritten Welt in die reichen Länder. China hat es in den vergangenen Jahrzehnten vorgemacht, wie sich ein rasanter Zuwachs an Wohlstand mit hohen Exportüberschüssen verband, denen entsprechende Importüberschüsse der reichen Länder mit China entsprachen. Der neue, von Präsident Trump angeführte Protektionismus soll quasi die Wiederholung dieser Erfolgsgeschichte verhindern. Die Gefahren für den Weltfrieden, die hieraus resultieren können, sind für die Vertreter einer Politik des freien Handels offensichtlich. Das von mir propagierte Anti‐Trump‐Programm hat vorerst keine Chancen auf Verwirklichung. Dennoch halte ich an diesem Gedanken fest, der eng damit verknüpft ist, dass die künftigen Weltprobleme am besten durch eine Globalisierung des Gedankens der Sozialen Marktwirtschaft gelöst werden können. Die von mir propagierte Befreiung von dem Dogma schädlicher Wirkung von Staatschulden, die Befreiung von der Gleichung „privates Reinvermögen = privates Realvermögen“, ist Voraussetzung für diese Strategie des Aufbaus einer Global‐ Sozialen Marktwirtschaft. Denn, wie ich anderweitig unter Verwendung des China‐ Beispiels gezeigt habe, gehört zu einer optimalen Förderung des Wohlstandswachstums in der Dritten Welt, dass diese gegenüber den reichen Ländern einen hohen Exportüberschuss aufweist. Damit dieser Exportüberschuss jedoch kompatibel mit dem Wohlstand der Menschen in der reichen Welt ist, bedarf es der Staatsschulden als dem Thermostaten der Prosperität in den reichen Ländern. Natürlich wird man eine derart weitreichende Reform nicht sehr bald ins Werk setzen. Dafür sind die „vested interests“ in den reichen Ländern viel zu stark. Jedoch kann die Zweite Bilanz‐Befreiung einen Beitrag leisten, um das Bewusstsein der Wähler in den reichen Ländern etwas zu „modernisieren“. Zumindest der Abbau von Handelsschranken der reichen Welt gegenüber Importen aus den armen Ländern könnte im Rahmen einer klugen Fiskalpolitik erleichtert werden.

Literatur Aristoteles, Politik Reclam, Stuttgart, 2010. Richard Arnott and Joseph Stiglitz. 1979. Aggregate Land Rents, Expenditure on Public Goods and Optimal City Size, Quarterly Journal of Economics, 471–500. Böhm-Bawerk, E. 1889. Positive Theorie des Kapitales, Jena: G. Fischer. Hobbes, Thomas. 1651. LEVIATHAN, or The Matter, Forme and Power of a COMMON‐WEALTH ECCELSIATICALL AND CIVIL, London: Andrew Crooke. Homburg, Stefan. 1991. Interest and Growth in an Economy with Land, Canadian Journal of Economics, XXIV, 450–459. Homburg, Stefan. 2015. Overaccumulation, Public Debt, and the Importance of Land, German Economic Review, 15, S. 411–435. Keynes, John Maynard. 1936. The General Theory of Employment, Interest, and Money. London: MacMillan. McPherson, Crawford Brough. 1962. The Political Theory of Possessive Liberalism: From Hobbes to Locke, Oxford: Oxford University Press

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive

149

Schreiber, Wilfried. 1955. Existenzsicherheit in der industriellen Gesellschaft, Köln: Bachem. Smith, Adam. 1776/1976. The Wealth of Nations, Chicago, Chicago University Press. Weizsäcker, Carl Christian. 2017. Global-Soziale Marktwirtschaft und die Flüchtlingsfrage, wird erscheinen in Zeitschrift für Marktwirtschaft und Ethik, 2017; abrufbar unter www.coll.mpg.de/team/page/carl-christian_von-weizsaecker Weizsäcker, Carl Christian von. 2016. Europas Mitte – Mit einer Leistungsbilanzbremse könnte Deutschland für neuen Zusammenhalt unter den Partnern sorgen, erschienen in: Perspektiven der Wirtschaftspolitik, Band 17. Walter de Gruyter, Berlin/Boston, S. 383–392. Weizsäcker, Carl Christian von. 2015. Kapitalismus in der Krise? – Der negative natürliche Zins und seine Folgen für die Politik, Perspektiven der Wirtschaftspolitik 16, S. 189–212. Weizsäcker, Carl Christian von. 2014. Public Debt and Price Stability, German Economic Review, S. 42–61. Weizsäcker, Carl Christian von. 2013. Das Damokles-Schwert der Euro-Aufwertung, Frankfurter Allgemeine Zeitung, 10. Mai 2013, S. 12. Weizsäcker, Carl Christian von. 2010. Das Janusgesicht der Staatsschulden, Frankfurter Allgemeine Zeitung vom 4. Juni 2010, S.12. Wicksell, Knut. 1898. Geldzins und Güterpreise: Jena, G. Fischer.

Anhang Weitere Überlegungen zum Boden‐Gegenargument gegen den negativen natürlichen Zins Gegen die These, dass der Zinssatz kleiner als Null werden kann, ist in der theoretischen Literatur das Argument entwickelt worden, dass der kapitalisierte Wert künftiger Bodenrenten gegen Unendlich strebe, wenn der positive Zins gegen Null strebt. In einer späteren Variante hat Homburg die Aussage sogar dahin verschärft, dass der reale Gleichgewichtszins immer über der langfristig gültigen Wachstumsrate liegen müsse (Homburg 1991). Ich habe an anderen Stellen ausführlicher dargelegt, weshalb ich dieses Argument trotz seiner unbestreitbaren Eleganz für realitätsfremd halte (Weizsäcker 2015). Die zentralen Gegenargumente können unter den drei Stichworten „idiosynkratrisches Risiko“, „Principal‐Agent‐Probleme“ und „unsichere Eigentumsrechte“ zusammengefasst werden. Hier will ich sie nicht erneut ausbreiten. Vielmehr ergänze ich meine Gegenargumente unter dem Stichwort „Leviathan“ und „Soziale Marktwirtschaft“ mit zwei Beobachtungen. Erstens: „Henry-George-Theorem“. Die französische Vermögensstatistik zeigt sehr eindrucksvoll, dass die Bodenpreise (also der Immobilienpreis abzüglich der Opportunitätskosten [Wiederbeschaffungswert] der darauf errichteten Bauten) in den vergangenen rund zehn Jahren sehr stark gestiegen sind. Sie belaufen sich nunmehr auf das rund Zwei‐ bis Dreifache des volkswirtschaftlichen Jahreskonsums (vgl. Homburg 2015). Dieser Vermögenszuwachs ist primär darauf zurück zu führen, dass seit der Einführung des Euro und erst recht seit dem Ausbruch der Finanzkrise 2008 die Nominal‐ und Realzinsen sehr viel niedriger sind als sie es

150

Carl Christian von Weizsäcker

zuvor waren. Insofern kann dieser beobachtete Vermögenszuwachs auch von den Anhängern der These ins Feld geführt werden, die einen dauerhaften natürlichen Zins von unter null nicht für möglich halten. Indessen muss diese Beobachtung dahingehend präzisiert werden, dass es sich bei diesem Bodenwertzuwachs ganz überwiegend um den Wertzuwachs von urbanem Boden handelt. Der Anteil des landwirtschaftlichen Bodenvermögens am gesamten Bodenvermögen ist inzwischen recht klein. Das hängt auch damit zusammen, dass der technische Fortschritt in der landwirtschaftlichen Bodennutzung und bei den Transportkosten die Ricardoschen Landrenten gesenkt hat. Zudem hat es gewisse Liberalisierungsfortschritte im internationalen Handel mit landwirtschaftlichen Produkten gegeben, die die entsprechende Schutzzollrente für die europäische Landwirtschaft vermindert haben. Der Wert des Bodenbesitzes ist in den reichen Ländern ganz überwiegend auf urbane Lagerenten zurückzuführen. Wie von mir andernorts ausführlicher dargelegt, unterliegen derartige Lagerenten dem spezifischen Enteignungsrisiko durch Besteuerung (Weizsäcker 2015). Denn, im Gegensatz zu anderem Produktivvermögen, kann das urbane Bodenvermögen der Besteuerung nicht durch Abwanderung ins Ausland entgehen. Schon heute gibt es ja auch im deutschen Steuerrecht eine Privilegierung der Bausubstanz dadurch, dass die relativ großzügigen Abschreibungsregeln nur auf diese, nicht aber auf den nackten Bodenwert angewendet werden können. (Der Gegenwert dieser Abschreibungsprivilegien ist allerdings durch das gesunkene Zinsniveau ebenfalls kleiner geworden.) Aber man kann einen Schritt weitergehen, indem man auf das „Henry‐George‐ Theorem“ hinweist. Wie Arnott und Stiglitz (1979) schon in den siebziger Jahren gezeigt haben, ist es effizient, wenn die lokalen öffentlichen Güter, die die öffentliche Hand erstellt, zu hundert Prozent durch die steuerliche Abschöpfung von Lagerenten finanziert werden. Im Modell einer Stadt mit „optimaler“ Bevölkerung und optimaler Besteuerung sind die Ausgaben für die lokalen öffentlichen Güter genau gleich den Lagerenten des Bodens, die zu 100 % besteuert werden. Wir können hinzufügen: Eine Subventionierung des öffentlichen Nahverkehrs, die durch eine geschickte Besteuerung der urbanen Lagerenten finanziert wird, bewirkt eine Effizienzsteigerung im Kaldor‐Hicks‐Scitovsky’schen Sinne. Im Modellfall unter gewiss nicht ganz realitätsnahen Annahmen bewirkt sie sogar eine Pareto‐Verbesserung. Es gibt somit sogar eine akademisch seriöse Rechtfertigung für eine weitgehende Enteignung von urbanen Lagerenten auf dem Besteuerungswege. Diesem Argument kann auf der theoretischen Ebene vor allem entgegengehalten werden, dass in dieser rein statischen Analyse die quasi Schumpeter’sche Dynamik nicht berücksichtigt wird: Wenn Land, das bisher anderweitig – zum Beispiel landwirtschaftlich – genutzt wird, durch entsprechende Unternehmer einer höherwertigen urbanen Landnutzung zugeführt wird, so ist dies oft eine volkswirtschaftlich sinnvolle Aktivität. Der Anreiz, sich hier unternehmerisch zu betätigen, hängt aber ganz wesentlich davon ab, dass die so entstehenden zusätzlichen Einkommen in der Form

Leviathan – zum Gewaltmonopol des Staates – Die ökonomische Perspektive

151

von Lagerenten nicht vollständig fiskalisch abgeschöpft werden. Indessen führt unternehmerische Aktivität, deren privatwirtschaftlicher Ertrag für den Promotor sich aus zusätzlich entstehenden Lagerenten speist, zu einem vermehrten Angebot an Bauland. Das aber hat in der Regel einen senkenden Effekt auf die zuvor schon erzielten Lagerenten. Die Grundaussage, dass der Zins nicht negativ werden kann, hängt jedoch davon ab, dass das Angebot an rententragendem Boden konstant ist. Insofern entsteht genau durch die unternehmerische Aktivität der Baulandentwickler ein weiterer Grund dafür, dass der Bodenwert nicht gegen Unendlich strebt, wenn der Zinssatz gegen Null konvergiert. Man kann die folgende empirisch überprüfbare Hypothese formulieren: je höher die städtischen Bodenpreise sind, desto schneller steigt das Angebot an Lagerenten‐trächtigem Boden. Zweitens: Verteilungseffekte. Unabhängig davon, ob man meine These vom negativen natürlichen Zins akzeptiert oder nicht, sollte man der Frage nachgehen, welche Verteilungseffekte eine zinssteigernde Fiskalpolitik in der Form eines staatlichen Entsparens hat. Ich spitze die Frage auf folgendes Spannungsverhältnis zu: für die Bodenbesitzer ist ihr Vermögen umso höher, je niedriger das Zinsniveau ist. Obwohl per se ein niedrigerer Zins nicht automatisch zu einer gestiegenen Landrente (z. B. Lagerente) führt, können in einem unvollkommenen Kapitalmarkt für die Bodenbesitzer Vorteile entstehen: zum Beispiel, weil der Wert der Sicherheiten steigt, die man im Falle einer Kreditaufnahme zur Verfügung stellen muss. Für Sparer, die risikoscheu sind, ist ein geringerer risikofreier Kapitalmarktzins ein Nachteil. Der heutige große Klagechor darüber, dass die vorherrschenden niedrigen Zinsen vielen Menschen die Altersvorsorge erschweren oder gar unmöglich machen, ist ein Beleg für diese Aussage. Die Fiskalpolitik des Leviathan ist damit nicht verteilungsneutral. Solange die Fähigkeit des Fiskus, seine Schulden auch zu bedienen, nicht angetastet ist, bedeuten höhere fiskalische Defizite wegen ihres zinssteigernden Effekts eine Einbuße für die Bodenbesitzer und einen Vorteil für solche Sparer, die ihr Vermögen möglichst risikofrei anlegen wollen. Dies gilt jedenfalls solange, als der reale Zinssatz nicht höher liegt als die langfristig erzielbare Wachstumsrate der Volkswirtschaft, da solange eine Zinserhöhung auch den gesamtwirtschaftlichen Lebensstandard steigert („Golden Rule of Accumulation“). Nun können wir konstatieren, dass Landrenten, speziell urbane Lagerenten, eher den vermögenderen Schichten zufließen, während gerade die Menschen mit geringem Vermögen aus gut nachvollziehbaren Gründen eine starke Präferenz für risikofreie Formen des Finanzvermögens haben: Sparbücher, Lebensversicherungen etc. Eine Nebenwirkung der staatlichen Defizitpolitik ist – sofern die Tragfähigkeit des Fiskus für seine Schulden nicht überschritten wird –, dass ein höheres Defizit und damit ein höherer Gleichgewichtszins – von anderen Effekten abgesehen, die ich an anderen Stellen diskutiere – die Kleinsparer begünstigt und die bodenbesitzenden, vermögenden Schichten möglicherweise benachteiligt.

Norbert Berthold

Die Zukunft des Sozialstaates Stillstand, Evolution oder Revolution? Die reinste Form des Wahnsinns ist es, alles beim Alten zu lassen und gleichzeitig zu hoffen, dass sich etwas ändert. (Albert Einstein) 1 2 3

4

5

6

153 Einleitung 154 Das Ideal 157 Die Realität 157 3.1 Das Gesundheitswesen 158 3.2 Die Alterssicherung 3.3 Die Arbeitslosenversicherung 161 3.4 Die Grundsicherung 163 Die Reformen 164 165 4.1 Das Gesundheitswesen 4.2 Die Alterssicherung 166 4.3 Die Arbeitslosenversicherung 168 4.4 Die Grundsicherung 170 172 Die Revolution 5.1 Das Sozialstaatsversagen 172 5.2 Die Vorschläge 173 5.3 Die Wirkungen 174 5.4 Die Illusion 176 Fazit 178

1 Einleitung Die Welt ist voller Gefahren, gefühlten und tatsächlichen. Das Feuilleton singt täglich ein Lied davon. Die Zeiten scheinen lange vorbei, in denen es überall in Europa ökonomisch nur aufwärts ging. „Wohlstand für Alle“ ist für viele ein fränkischer Slogan aus einer längst versunkenen Welt. Das wirtschaftliche Wachstum dümpelt schon lange vor sich hin. Besserung ist nicht in Sicht. Massenhafte Arbeitslosigkeit ist in Europa weiter unbesiegt. Sie hinterlässt hässliche Narben in vielen Erwerbsbiografien, vor allem in denen der Jugend. Deutschland ist die Ausnahme, zumindest bisher. Auch das Gespenst der Armut geht weiter um. Es spukt in der Phase der Erwerbstätigkeit und in der Zeit des Ruhestandes. Einkommen und Vermögen sind ungleicher verteilt als je zuvor. Sie konzentrieren sich am oberen Ende der Verteilung. „Crony capitalism“ ist eine Wachstumsbranche. Die Gefahr wächst, dass die politische Ordnung destabilisiert wird. Aus der unbefriedigenden Lage hilft nur mehr wirtschaftliches Wachstum. Dann wächst auch die Chance wieder, dass die Flut alle Schiffe hebt, die großen https://doi.org/10.1515/9783110554861-008

154

Norbert Berthold

und die kleinen. Ein wichtiger Treiber des Wohlstandes sind weltweit offene Märkte. Das hat die Globalisierung der letzten Jahrzehnte eindrucksvoll gezeigt. Umsonst ist allerdings wachsender Wohlstand nicht. Offene Märkte beschleunigen den Prozess der „schöpferischen Zerstörung“. Den wirtschaftlichen Akteuren wird einiges an Anpassung abverlangt: „There is no gain without pain“. Die Menschen sind eher bereit, auch hohe Kosten der Veränderung auf sich zu nehmen, wenn sie sicher sein können, im Falle des wirtschaftlichen Scheiterns nicht ins Bodenlose zu fallen. Der Sozialstaat soll helfen, dass dies nicht geschieht. Wie sich die Menschen zur Marktwirtschaft stellen, hängt auch davon ab, was sie dem Sozialstaat zutrauen, sie vor ökonomischen Risiken und Nebenwirkungen zu schützen. Es ist unbestritten, der Sozialstaat muss sich anpassen. Wichtige evolutionäre Schritte hat die Politik in den Nullerjahren getan. Davon ist allerdings keine Rede mehr. Der Druck durch die Globalisierung wird aber nicht kleiner, er wächst weiter. Der strukturelle Wandel schürt die Angst vor einer Spaltung der Gesellschaft. Globalisierung, technischer Fortschritt und Digitalisierung meinen es unterschiedlich gut mit Arbeit und Kapital. Vor allem einfache Arbeit verliert. Einkommen, Beschäftigung und Vermögen werden ungleich verteilt. Das alles verstärkt die sozialen Spannungen. Der traditionelle, primär umlagefinanzierte Sozialstaat stößt an Grenzen. Im Kampf gegen Armut gerät er in die Defensive. Eine wenig effiziente und wenig treffsichere Bürokratie des Sozialstaates tut ein Übriges. Das ist der Humus, auf dem revolutionäre Ideen gedeihen. Das bedingungslose Grundeinkommen ist eine davon. Es stellt alte Glaubenssätze der Sozialpolitik in Frage.

2 Das Ideal Weltweit offene Märkte eröffnen viele Chancen. Sie bergen aber auch Risiken. Das wirtschaftliche Umfeld wird volatiler, die Struktur der Nachfrage nach Arbeit verschiebt sich regional, sektoral und beruflich. Es wird immer schwerer, steigende Arbeitskosten über die Preise abzuwälzen. Arbeitsplätze sind nicht mehr für die Ewigkeit geschaffen. Mehr individuelle Beweglichkeit ist notwendig. Und noch etwas ändert sich, teils wegen der Globalisierung, teils unabhängig von ihr. Die Wechselfälle des Lebens werden bedeutender. Individuen haben mehr als früher mit Arbeitslosigkeit zu kämpfen. Mit steigendem Wohlstand präferieren die Menschen mehr Gesundheitsgüter. Die Menschen leben erheblich länger, Frauen noch länger als Männer. Und sie sind im Alter noch lange gesünder als früher. Allerdings werden mehr von ihnen im hohen Alter pflegebedürftig. Kein Wunder, dass die Nachfrage nach „sozialer Sicherheit“ zunimmt. Damit aber nicht genug. Weltweit offenere Märkte verteilen die Einkommen anders. Weniger entwickelte Länder holen auf. Das Problem der Armut verringert sich. Die Einkommen konvergieren weltweit. Das ist auf nationaler Ebene nicht so. In reichen Ländern verteilt sich der Wohlstand ungleichmäßiger. Die personelle

Die Zukunft des Sozialstaates

155

Verteilung der Einkommen wird schiefer. Vor allem untere Einkommen haben es nach wie vor schwer. Die realen Einkommen wachsen zwar, wegen der Polarisierung der Arbeitsnachfrage sogar stärker als in der Mittelschicht. Dennoch nimmt die relative Armut zu. Die Mittelschicht gerät immer öfter in Schwierigkeiten. Ihre realen Einkommen wuchsen in der letzten Zeit kaum noch. Es droht sozialer Abstieg. Demgegenüber entwickeln sich die oberen Einkommen prächtig. Vor allem sie treiben die Ungleichheit der Einkommen. Diese distributive Entwicklung trägt dazu bei, dass die Nachfrage nach „sozialer Gerechtigkeit“ steigt. Deshalb stellt sich die Frage, wer die Güter „soziale Sicherheit“ und „soziale Gerechtigkeit“ anbieten soll: Die Familie, der Markt oder der Staat? Die ordnungspolitische Regel ist unstrittig: Wer es am besten kann, soll sie produzieren. Die Familie ist bei den großen Risiken längst aus dem Spiel. Mit dem Anstieg der Löhne der Frauen relativ zu den Männern hat sich die Allokation der Zeit und die Haushaltsstruktur von Grund auf verändert. Die Erwerbsquote der Frauen ist signifikant gestiegen, die Zahl der Kinder ist überall rückläufig. In manchen wohlhabenden Ländern mehr, in anderen weniger. Das bestandserhaltende Niveau wird nirgends mehr erreicht. Die Haushaltsgröße ist auf dem Rückzug. Damit ist die Familie zu klein, um einen effizienten Risikoausgleich zu bewerkstelligen. Ein wirksamer Schutz vor den Wechselfällen des Lebens ist schon lange nicht möglich. Das gilt für Krankheit, Arbeitslosigkeit, Pflegebedürftigkeit und Armut. Es bleiben Markt und Staat. In einer marktwirtschaftlichen Ordnung hat der Markt den ersten Aufschlag. Der Staat sollte nur dort tätig werden, wo er komparative Vorteile gegenüber dem Markt hat. Das trifft auch für den Bereich des Sozialen zu. Da hat sich einiges geändert. Der Markt produziert „soziale Sicherheit“ zumeist effizienter als der traditionelle Sozialstaat. Das gilt zumindest für die Wechselfälle des Lebens, wie etwa Krankheit und Pflegebedürftigkeit. Es trifft aber auch für die Absicherung im Alter zu. Es ist zwar richtig, dass „moral hazard“ und „adverse selection“ dem Markt zu schaffen machen. Er hat allerdings Mechanismen entwickelt, sie zu beherrschen. Das gelingt dem Sozialstaat weniger gut. Auch er hat mit dem Problem asymmetrisch verteilter Informationen zu kämpfen. Da er weniger auf Beitragsäquivalenz und Wettbewerb setzt, verzerrt er die Allokation noch mehr und schränkt die individuelle Wahlfreiheit ein. Im Vorteil ist der Sozialstaat allerdings, wenn es darum geht, Individuen gegen die materiellen Folgen des Risikos der Arbeitslosigkeit abzusichern. Arbeitslosigkeit ist für private Märkte ein sperriges Risiko. Das erkennt man auch daran, dass es faktisch keine privaten Arbeitslosenversicherungen gibt. Die Arbeitslosenversicherung braucht einen staatlichen Rahmen. Das Problem ist allerdings weder „moral hazard“ noch „adverse selection“. Die eigentliche Schwierigkeit tritt auf, weil Arbeitslosigkeit privat nur schwer versicherbar ist. Die individuellen Risiken, arbeitslos zu werden und es zu bleiben, sind hoch korreliert, zumindest bei zyklischer Arbeitslosigkeit. Ein effizienter Risikoausgleich ist auf privaten Versicherungsmärkten kaum möglich. Eine staatlich organisierte Arbeitslosenversicherung

156

Norbert Berthold

ist notwendig. Das gilt für das Kerngeschäft der passiven Arbeitsmarktpolitik, wie etwa das Arbeitslosengeld. Für das operative Geschäft der aktiven Arbeitsmarktpolitik, wie etwa Beratung, Vermittlung und Qualifizierung, trifft es aber nicht zu. Beim Angebot „sozialer Gerechtigkeit“ ist alles anders. Auf diesem Feld hat der Sozialstaat komparative Vorteile. Was sozial gerecht ist, ist umstritten. Das kann bei Werturteilen auch nicht anders sein. In entwickelten Ländern besteht Konsens, den Kampf gegen Armut aufzunehmen. Es ist unumstritten, ein Existenzminimum zu garantieren. Diesen Kampf können private Märkte allein nicht gewinnen. Staatliche Hilfe ist notwendig. Es ist zwar denkbar, dass reiche Individuen ihren Nutzen steigern, wenn sie sozial Schwächere materiell unterstützen. Ihr eigenes Wohlbefinden kann auch steigen, wenn sich durch diese Hilfe armutsbezogene negative externe Effekte verringern, wie etwa Kriminalität oder Ablehnung der marktwirtschaftlichen Ordnung. Die Erfahrung zeigt allerdings, dass bei marktlichen Lösungen individuelles „Trittbrettfahrerverhalten“ dominiert. Individuelle Anreize reichen meist nicht aus, Armut effizient zu bekämpfen. Allerdings: Der staatliche Kampf gegen Armut ist alles andere als effizient. Es werden zu viele Ressourcen eingesetzt. Tatsächlich Bedürftige werden oft nicht erreicht. Eine wirkliche Hilfe zur Selbsthilfe wird meist nicht geleistet. Allokative Risiken und Nebenwirkungen sind erheblich. Das ist kein Zufall. Es ist naiv zu glauben, die Politik verteilt von „reich“ zu „arm“ um. Die Realität ist eine andere. Umverteilung ist ein Instrument im Kampf um Wählerstimmen. Die Strategie ist denkbar einfach: Es sollen möglichst viele kleine Gruppen spürbar begünstigt werden. Die finanziellen Lasten sollen möglichst unfühlbar auf die breite Masse der Wähler verteilt werden. Kein Wunder, dass vorwiegend in der weniger bedürftigen, politisch aber ertragreichen Mittelklasse von den nicht ganz Reichen zu den nicht ganz Armen umverteilt wird. Das Ergebnis ist ein Wirrwarr an umverteilungspolitischen Aktivitäten mit teilweise völlig undurchsichtigen Verteilungswirkungen. Letztlich weiß niemand mehr, wer seine Hände in wessen Taschen hat. Die komparativen Vorteile des Sozialstaates haben sich verändert. Er ist gegenüber privaten Anbietern von „sozialer Sicherheit“ und „sozialer Gerechtigkeit“ nicht mehr überall wettbewerbsfähig. Im Vorteil ist er allerdings, wenn es darum geht, die steigende individuelle Nachfrage nach „sozialer Sicherheit“ bei Arbeitslosigkeit und „sozialer Gerechtigkeit“ im Falle materieller Not zu befriedigen. Das Prinzip der Subsidiarität verlangt in diesen Fällen, dass entschieden wird, auf welcher institutionellen Ebene die sozialstaatlichen Aktivitäten anzusiedeln sind. Grundsätzlich sind die Gemeinden die geborenen Träger staatlicher Aktivitäten. Ihnen sind die Probleme vor Ort am ehesten bekannt. Sie kennen die individuellen Präferenzen am besten. Erst wenn ihnen die Aufgabe wegen räumlicher externer Effekte oder steigender Skalenerträge über den Kopf wächst, sollten sich übergeordnete Gebietskörperschaften ihrer annehmen. Auf welcher Ebene eine staatlich organisierte Arbeitslosenversicherung anzusiedeln ist, ist nicht einfach zu entscheiden. Das Versicherungsgeschäft verbietet

Die Zukunft des Sozialstaates

157

dezentrale Lösungen. Ein effizienter Risikoausgleich ist auf dieser Ebene nicht möglich. Zentralere Lösungen sind notwendig. Das operative Geschäft der Beratung, Vermittlung und Qualifizierung ist zu privatisieren und dezentralisieren. Es verlangt nach mehr Wettbewerb von privaten und staatlichen Anbietern. Das spricht dafür, beide Aufgaben voneinander zu trennen. Aber auch in der Grundsicherung müssen die vertikalen Kompetenzen neu geregelt werden. Sie ist einigermaßen effizient, wenn es gelingt, dezentralere Wege einzuschlagen. Die Kommunen müssen mehr Verantwortung bei Aufgaben, Ausgaben und Einnahmen der „sozialen Gerechtigkeit“ erhalten. Eine auf lokaler Ebene organisierte Grundsicherung, die lokale Solidarität mit dezentraler Arbeitsmarktpolitik verbindet, trägt mit dazu bei, die Lage auf den regionalen Arbeitsmärkten zu entspannen.

3 Die Realität Tatsächlich ist der Sozialstaat aber anders organisiert. Er konzentriert sich nicht auf seine Kernkompetenzen. Und er erledigt die Aufgaben nicht auf der Ebene, auf der er sie am besten erfüllen kann. Nach wie vor ist er der wichtigste Anbieter, wenn es darum geht, die Nachfrage der Menschen nach „sozialer Sicherheit“ und „sozialer Gerechtigkeit“ zu befriedigen. Die inter-temporale Umschichtung von Lebenseinkommen ins Alter ist ebenso wenig eine staatliche Aufgabe wie die Versicherung gegen Krankheit und Pflegebedürftigkeit. Dennoch dominiert der Sozialstaat diese Angebote. Auch wenn er komparative Vorteile hat, die Nachfrage nach „sozialer Sicherheit“ bei Arbeitslosigkeit zu befriedigen, produziert er dieses Gut wenig effizient. Auch bei seiner originären Kernkompetenz, dem Angebot an „sozialer Gerechtigkeit“ im Kampf gegen Armut, produziert er wenig kostengünstig. Von einer wirklichen Hilfe zur Selbsthilfe kann nicht die Rede sein.

3.1 Das Gesundheitswesen Das Gesundheitswesen ist nach wie vor in einem fragilen finanziellen Zustand. Seit Januar 2009 soll der Gesundheitsfonds das Gesundheitswesen auf solidere Füße stellen. Gelungen ist das bisher nicht. Die wichtigsten Probleme sind weiter ungelöst. Noch immer sind die zentral vorgegebenen einheitlichen Beiträge alles andere als risikoäquivalent. Die teilweise Steuerfinanzierung verstärkt das Problem noch. Damit bleiben die Anreize der Versicherten weiter gering, Risiken zu vermeiden und nach kostengünstigeren Preis-Leistungs-Paketen zu suchen. Auch das Problem der Risikoselektion existiert weiter. Trotz Risikostrukturausgleich haben die Krankenkassen weiter Anreize, gute Risiken zu pflegen und schlechte zu vergraulen. Schließlich sind die lohnabhängigen Beiträge weiter an die Arbeitskosten gekoppelt. Sie verteuern die Arbeit und lösen einen Teufelskreismechanismus von

158

Norbert Berthold

steigenden Lohnnebenkosten, höherer Arbeitslosigkeit, rückläufigen Beitragseinnahmen in der umlagefinanzierten Gesetzlichen Krankenversicherung (GKV) und weiter steigenden Beiträgen aus. Trotz des Gesundheitsfonds mangelt es nach wie vor an Wettbewerb. Die Verhandlungen über Preis-Leistungspakete finden häufig nicht zwischen den vielen Kassen und unzähligen Leistungsanbietern statt. Vielmehr einigen sich regionale Kassenärztliche Vereinigungen und Verbände der Kassen auf Kollektivverträge für alle. In dem bilateralen Monopol wird der komparative Vorteil des Marktes minimiert, von den Besten zu lernen. Vielfach bleiben bessere und billigere medizinische Verfahren unentdeckt, Effizienzreserven werden nicht gehoben. Nur an zwei Stellen öffnet der Neokorporatismus dem Wettbewerb die Tür einen Spalt weit. Zum einen sind auf Teilgebieten auch Verträge mit Ärzten und Ärztegruppen möglich, und mit Krankenhäusern wird nach Fallpauschalen abgerechnet. Zum anderen eröffnet das neue Instrument der Zusatzbeiträge im Gesundheitsfonds die Möglichkeit eines eingeschränkten Preiswettbewerbs zwischen den Kassen. Die Gesetzliche Krankenversicherung ist nach § 1 SGB V eine Solidargemeinschaft. Der Gesundheitsfonds macht keine gute Figur, wenn es darum geht, die unklaren Verteilungsziele zu verwirklichen. In der GKV soll von reicheren zu ärmeren Mitgliedern, aber auch zugunsten bestimmter Gruppen, wie etwa Familien und Kindern, umverteilt werden. Lohnabhängige Beiträge sind kein effizientes Instrument, die angestrebten distributiven Ziele zu erreichen, da sie die tatsächliche Leistungsfähigkeit der Beitragszahler nur unzulänglich erfassen. Es werden allein die Arbeitseinkommen erfasst, alle anderen Arten von Einkommen bleiben außen vor. Daneben höhlen sowohl Beitragsbemessungs- als auch Versicherungspflichtgrenzen in der GKV das Prinzip der individuellen Leistungsfähigkeit weiter aus. Beide Grenzen verhindern, dass sich reichere Individuen angemessen an der Finanzierung der Umverteilung in der umlagefinanzierten GKV beteiligen.

3.2 Die Alterssicherung Vor allem zwei Entwicklungen bedrohen die finanzielle Stabilität der Gesetzlichen Rentenversicherung (GRV): Zum einen sind umlagefinanzierte Systeme der Alterssicherung inhärent instabil. Sie lösen selbstzerstörerische Tendenzen aus. Zum anderen sind solche Systeme sehr anfällig gegen exogene Schocks. Der demographische Wandel ist einer. Inhärent instabil sind umlagefinanzierte Systeme, weil sie Opfer der Tarifvertragsparteien, der Politik, der eigenen Mitglieder und ihrer Finanzierungsstruktur werden (Berthold 1997). Die Tarifpartner haben die GRV lange Jahre benutzt, um beschäftigungspolitische Lasten auf sie abzuladen. Vielfältige Formen der Frühverrentung haben den Arbeitsmarkt entlastet, die Rentenversicherung aber belastet. Das Resultat spiegelte sich in niedrigen Erwerbsquoten der 55bis 64-Jährigen in den 90er Jahren und zu Beginn der Nullerjahre wider. In dieser Zeit wurde die 50-Prozent-Marke durchgängig unterschritten. Obwohl die Schleu-

Die Zukunft des Sozialstaates

159

sen bei der Erwerbsminderungsrente notdürftig repariert wurden, sind sie immer noch nicht dicht. Auch die flexible Altersgrenze ist nach wie vor ein Kanal, über den beschäftigungspolitische Lasten auf die Rentenversicherung abgewälzt werden. Noch immer sind die Abschlagssätze nicht versicherungsadäquat. Damit bleibt der Anreiz groß, vorzeitig zu Lasten der Rentenversicherung in Ruhestand zu gehen. Mit der „Rente mit 63“ hat die Große Koalition ohne Not eine weitere Schleuse geöffnet. Die GRV ist auch ein Opfer der Politik. Politiker setzen im politischen Wettbewerb um Wählerstimmen das Instrument der Umverteilung ein. Die Kunst der Politik besteht darin, möglichst viele kleine Interessengruppen spürbar zu begünstigen und die Lasten möglichst unfühlbar auf die breite Masse der Bevölkerung zu verteilen. Dazu nutzt die Politik auch die umlagefinanzierte GRV. Dies ist in Anbetracht des voranschreitenden demographischen Wandels nicht verwunderlich. Schließlich lag bei der letzten Bundestagswahl das Medianalter der Wähler bei 53,2 Jahren (Wagschal und Simon 2013). Die inter-personelle Umverteilung ist Legion. Der größte Brocken ist die Hinterbliebenenrente. Ins Geld gehen auch weiter nicht versicherungsadäquate Regeln zur Frühverrentung und beitragsfreie Versicherungszeiten. Der neuste Coup der Politik ist die abschlagsfreie „Rente mit 63“ und die „Mütterrente“. Mit der „Lebensleistungsrente“ plant die Politik weiteren beitragsfinanzierten verteilungspolitischen Unfug. Umverteilt wird nach wie vor aber auch inter-regional. Die größten Lasten bestehen seit der Wiedervereinigung durch die höheren Rentenzahlungen in den neuen Bundesländern fort. Mit der Ankündigung der Ost-West-Angleichung der Renten wird ein neues verteilungspolitisches Fass aufgemacht. Dabei wird noch gestritten, wer die Lasten tragen soll: Die Mitglieder der GRV oder der Finanzminister. Die Gefahr ist groß, dass die staatlichen Zuschüsse die verteilungspolitisch motivierten Ausgaben in der GRV nicht kompensieren. Umlagefinanzierte Alterssicherungssysteme werden auch Opfer der eigenen Mitglieder. Asymmetrisch verteilte Informationen zwischen den Marktseiten begünstigen „moral hazard“. Diese Entwicklung wird verstärkt, wenn umverteilungspolitische Aktivitäten das Äquivalenzprinzip aushöhlen. Auf diesem Humus gedeiht „moral hazard“ besonders gut. Das beste Beispiel in der GRV ist die nach wie vor nicht versicherungsadäquat ausgestaltete flexible Altersgrenze. Frührentner fahren weiter Trittbrett auf Kosten der Versichertengemeinschaft. Eine spezifische Form von Trittbrettfahrerverhalten ist „demographisches moral hazard“. Umlagefinanzierte Alterssicherungssysteme verstärken die Anreize der erwerbstätigen Generation, weniger Kinder in die Welt zu setzen. Die Höhe der Renten aller Versicherten hängt aber in starkem Maße davon ab, wie viele Kinder eine Gesellschaft großzieht und wie stark sie in das Humankapital ihrer Nachkommen investiert. Der demographische Beitrag eines Versicherten zur GRV spiegelt sich nicht adäquat in der späteren eigenen Rente wider (Sinn 2013). Daran ändern auch die gewährten Kindererziehungszeiten wenig. „Moral hazard“ der eigenen Mitglieder destabilisiert die GRV finanziell.

160

Norbert Berthold

Die umlagefinanzierte Alterssicherung wird schließlich auch Opfer der gewählten Finanzierungsstruktur. Sie destabilisiert sich selbst, weil sie mit dazu beiträgt, ihre ökonomischen Wurzeln auf den Arbeitsmärkten abzuschneiden. Umlagefinanzierte Systeme der „Sozialen Sicherung“ finanzieren sich hierzulande vor allem über den Faktor Arbeit. Steigende Ausgaben schlagen sich über kurz oder lang in steigenden Beiträgen nieder. Damit erhöhen sich die Lohnnebenkosten. Die realen Lohnkosten für die Arbeitgeber nehmen zu. Höhere Beiträge verringern aber auch die realen Nettoeinkommen der Arbeitnehmer. Fast zwangsläufig erhöhen sich die Lohnforderungen der Gewerkschaften. So oder so steigen die realen Lohnkosten. Unternehmen fragen weniger Arbeit nach. Das lässt die Beitragseinnahmen der GRV nicht unberührt. Umlagefinanzierte Systeme der Alterssicherung erodieren somit ihre eigene ökonomische Grundlage auf den Arbeitsmärkten. Über den Faktor Arbeit finanzierte höhere Ausgaben lösen einen Teufelskreis aus. Die Beiträge steigen, die Arbeitslosigkeit nimmt zu, die Beitragseinnahmen gehen zurück, Finanzierungslücken entstehen, weitere Beitragserhöhungen sind eine teuflische Konsequenz. Umlagefinanzierte Alterssicherungssysteme haben nicht nur eine Tendenz, sich selbst zu zerstören. Sie sind auch anfällig gegen Störungen von außen. Vor allem drei Entwicklungen machen ihnen zu schaffen: Demographischer Wandel, globalisierte Märkte und wachsende Ungleichheit. Die demographischen Veränderungen sind zweifellos der härteste Schock, den sie verarbeiten müssen. Die Altersstruktur wird sich bis Mitte des Jahrhunderts auch in Deutschland spürbar verändern. Das hat nicht nur damit zu tun, dass die Geburtenrate weiter auf einem sehr niedrigen Niveau dümpelt. Daran ist das umlagefinanzierte Alterssicherungssystem selbst nicht ganz unschuldig. Es liegt aber auch am anderen wichtigen demographischen Treiber, der Lebenserwartung. Die ist in den letzten Jahrzehnten stark gestiegen, für Frauen noch stärker als für Männer. Und sie wird weiter steigen. Ab 2020 setzt dann die Attacke auf die umlagefinanzierte Alterssicherung voll ein. Die schlimmste Zeit werden die zwei Jahrzehnte bis 2040 sein. Aber auch danach entspannt sich die Lage nicht. Weder eine steigende Erwerbsquote der Frauen noch eine verstärkte Einwanderung werden diese demographische Attacke erfolgreich abwehren können. So schlimm muss es nicht kommen. Die allgemeine Altersgrenze wird sich mit dem demographischen Wandel erhöhen. Eine weiter steigende Lebenserwartung wird dafür sorgen. Wie schnell und stark sich das Erwerbsverhalten im „Alter“ verändern kann, hat die Erhöhung der allgemeinen Altersgrenze auf 67 Jahre gezeigt. Die demographischen Belastungen sind allerdings nicht das einzige Problem. Die Globalisierung verstärkt den Stress der Demographie, dem die Alterssicherung ausgesetzt ist. Weltweit offenere Güter- und Faktormärkte erhöhen die Waren-, Kapital- und Migrationsströme. Damit beschleunigen sie den inter- und intra-strukturellen Wandel. Es wird für alle Faktoren ungemütlicher. Vor allem einfache Arbeit leidet darunter. Groß sind die Schwierigkeiten, wenn sie Routinen bedient. Bei per-

Die Zukunft des Sozialstaates

161

sonennahen Dienstleistungen sind die Einbußen beim Arbeitseinkommen geringer. Aber auch mittlere Qualifikationen kommen nicht ungeschoren davon. Der Niedergang des industriellen Sektors macht ihnen schwer zu schaffen. Zu allem Übel wirkt auch noch der technische Fortschritt in die arbeitssparende Richtung. Der strukturelle Wandel gepaart mit einer bestimmten Art von technischem Fortschritt („skill biased“) nagt an der ökonomischen Basis umlagefinanzierter Systeme der Alterssicherung. Eine sinkende Lohnquote ist die andere Seite des strukturellen Wandels. Globalisierung und technischer Fortschritt verringern in reichen Ländern die Nachfrage nach einfacher Arbeit. Das vernichtet Arbeitsplätze und/oder drückt auf die Löhne. Die Lohnquote der Geringqualifizierten sinkt. Das spült weniger Geld in die Rentenkassen. Auf der anderen Seite stärken dieselben Kräfte die Nachfrage nach hoch qualifizierter Arbeit. Die Zahl der Arbeitsplätze in diesem Qualifikationssegment nimmt zu, die Löhne steigen. Das lässt die Lohnquote der Hochqualifizierten steigen. Die Beitragseinnahmen der Rentenversicherung müssten eigentlich sprudeln. Das tun sie allerdings nur bedingt. Mit der Beitragsbemessungsgrenze in der GRV werden die Beitragseinnahmen gedeckelt. Wie sich die nationale Lohnquote entwickelt hängt allerdings entscheidend davon ab, wie sich die Einkommen der Mittelschicht verändern. Der strukturelle Wandel, der vor allem den industriellen Sektor trifft, senkt die Lohnquote der Mittelschicht. Er schlägt sich hierzulande bisher noch kaum in den Beitragseinnahmen der GRV nieder, weil der industrielle Sektor weniger stark schrumpft als in vergleichbaren Ländern weltweit. Das dicke Ende steht der GRV noch bevor, wenn das „Geschäftsmodell Deutschland“ kollabiert.

3.3 Die Arbeitslosenversicherung Das wirtschaftliche Umfeld wird volatiler. Weltweit offene Märkte und technischer Fortschritt sind die wichtigsten Treiber. Die Erträge aus Arbeit und Kapital schwanken stärker. Das lässt auch die Arbeitseinkommen nicht unberührt. Arbeitnehmer sind in der Regel risikoscheu. Sie mögen stark schwankende Einkommen nicht. Ihnen ist ein stetiger Strom des Einkommens lieber. In Zeiten hoher wirtschaftlicher Volatilität steigt ihre Nachfrage nach „sozialer Sicherheit“. Auf privaten Versicherungsmärkten trifft diese Nachfrage allerdings auf kein adäquates Angebot. Arbeitslosigkeit ist ein schwer versicherbares Risiko. Befriedigt wird die individuelle Nachfrage mit einem staatlichen Angebot. Die Arbeitslosenversicherung ist ein Element der „sozialen Sicherheitsarchitektur“. Der Kündigungsschutz ist der andere Baustein. Beide sollen helfen, das Arbeitseinkommen über die Erwerbsphase hinweg zu stabilisieren. Mit dem Kündigungsschutz soll verhindert werden, dass Einkommen überhaupt ausfällt. Die Leistungen der Arbeitslosenversicherung sollen helfen, die materiellen Folgen eines Ausfalls von Einkommen zu kompensieren.

162

Norbert Berthold

Die Arbeitslosenversicherung wurde für zyklische Arbeitslosigkeit konzipiert. Arbeitnehmer werden im Abschwung in einem Sektor entlassen und im Aufschwung in diesem Sektor wieder eingestellt. Neues Humankapital spielt eine untergeordnete Rolle. Das hat sich erheblich verändert. Strukturelle Faktoren geben heute den Ton an. Das macht der Arbeitslosenversicherung das Leben noch schwerer. Es geht nicht mehr primär darum, Zeiten konjunktureller Arbeitslosigkeit finanziell zu überbrücken. Die wichtigere Aufgabe ist, Arbeitslosen marktverwertbare Fähigkeiten zu vermitteln, die sie in anderen Sektoren und neuen Berufen brauchen. Damit steht die Arbeitslosenversicherung vor einem zweifachen Problem: Die passive Arbeitsmarktpolitik (Arbeitslosengeld) muss darauf achten, lohnpolitisches „moral hazard“ zu begrenzen. Das macht Arbeit „billiger“, erhöht die Beschäftigung und das Humankapital „on the job“. Die aktive Arbeitsmarktpolitik (Beratung, Vermittlung, Qualifizierung) muss dafür sorgen, arbeitslose Arbeit „besser“ zu machen. Notwendig sind Anreize, neues marktverwertbares Humankapital zu vermitteln. Die Arbeitslosenversicherung hat bei der passiven und aktiven Arbeitsmarktpolitik erhebliche Defizite. Auf der „Passiv-Seite“ produziert sie Fehlanreize für Arbeitnehmer, Unternehmen und Tarifpartner. Es mangelt an individueller Beitragsäquivalenz. Sie führt nicht nur häufiger zum Versicherungsfall, sie verlängert auch die Suche nach einem neuen Arbeitsplatz („individuelles moral hazard“). Daneben bewirkt die fehlende Äquivalenz von Beiträgen und Leistungen, dass die Unternehmen in Phasen schlechter wirtschaftlicher Entwicklung nicht nur schneller und häufiger zum Mittel der Entlassungen greifen. Sie sind auch weniger bereit, Arbeitnehmer temporär zu „horten“ („externes moral hazard“). Schließlich fahren die Gewerkschaften ausgiebig lohnpolitisch Trittbrett, weil sie Teile der beschäftigungspolitischen Lasten ihres lohn- und tarifpolitischen Tuns über die Arbeitslosenversicherung auf Beitrags- und Steuerzahler externalisieren („kollektives moral hazard“). Die Arbeitslosenversicherung leidet auf der „Passiv-Seite“ an multiplem „moral hazard“ (Berthold und Berchem, 2002). Damit erodiert sie ihre finanzielle ökonomische Basis. Aber auch auf der „Aktiv-Seite“ ist die Bilanz der Arbeitslosenversicherung nach wie vor unbefriedigend. Die aktive Arbeitsmarktpolitik ist trotz eines riesigen Etats und vieler neuer Programme noch immer ihr Geld nicht wert. Bei Beratung, Vermittlung und Qualifizierung sind die Erfolge bescheiden (Heyer et al. 2012). Trotz einer seit langem stark rückläufigen Arbeitslosenquote ist die Bilanz der Bundesagentur für Arbeit durchwachsen. Ein Indikator ist der Anteil der Langzeitarbeitslosen. Er ist weiter anhaltend hoch. Daran hat auch die Agenda 2010 mit dem umstrittenen „Fördern und Fordern“ wenig geändert. Der Zauber der aktiven Arbeitsmarktpolitik ist allerdings überall verflogen. Das gilt auch für das skandinavische Eldorado dieser Politik. Dort stößt das Konzept der „Flexicurity“ an Grenzen. Die aktive Arbeitsmarktpolitik hat zwar die offizielle Arbeitslosenquote spürbar verringert. Allerdings ist die staatliche Beschäftigung stark angestiegen. Als die

Die Zukunft des Sozialstaates

163

finanziellen Lasten nicht mehr tragbar waren, hat man die aktive Arbeitsmarktpolitik verringert. Ein Anstieg der offiziellen Arbeitslosenquote war die unweigerliche Folge. Wie erfolgreich eine solche Politik ist, hängt stark davon ab, ob neue Arbeitsplätze geschaffen werden. Darüber entscheiden aber vor allem die Tarifpartner. Verhandeln sie stärker dezentral, am besten auf betrieblicher Ebene, sind die Erfolge auf dem Arbeitsmarkt schnell zu besichtigen. Dann gelingt es der aktiven Arbeitsmarktpolitik auch wieder, Arbeitnehmer erfolgreich zu beraten und zu vermitteln. An einer erfolgreichen Qualifizierung hapert es selbst dann noch. Aktive Arbeitsmarktpolitik ohne betriebliche Lohn- und Tarifpolitik ist wie Hamlet ohne den Prinzen von Dänemark. Der Erfolg der aktiven Arbeitsmarktpolitik hängt allerdings auch davon ab, wie wettbewerblich Beratung, Vermittlung und Qualifizierung organisiert ist. Daran scheitert die Arbeitsmarktpolitik in Deutschland. Noch immer hat die Bundesagentur eine monopolartige Stellung. In ihr spiegeln sich die wettbewerbsfeindlichen, korporatistischen Strukturen der Bundesrepublik wie in einem Brennglas. Der Wettbewerb mit Kommunen und Privaten hält sich in Grenzen, die Effizienz der Leistungen der aktiven Arbeitsmarktpolitik allerdings auch.

3.4 Die Grundsicherung Armut ist in allen Phasen des Lebens möglich. Tritt es in der Zeit der Erwerbstätigkeit auf, wird es mit dem Arbeitslosengeld II bekämpft. Armut in der Rentenphase wird mit der Grundsicherung im Alter angegangen. Der Kampf gegen Armut mit dem ALG II wird wenig zieladäquat und zu kostenintensiv geführt: Der Lohnabstand ist oft zu gering, die Transferentzugsrate ist zu hoch, die Leistungen sind regional zu wenig differenziert. Das hohe Existenzminimum legt faktisch den sozialen Mindestlohn fest, der für viele gering qualifizierte Arbeitnehmer eine unüberwindbare Hürde ist. Eine reguläre Beschäftigung rückt in weite Ferne. Das gilt vor allem dann, wenn sie Familie und Kinder haben. Alleinstehende sind weniger oft in der Mindestlohnfalle gefangen. Der mangelnde Lohnabstand wird durch die hohe Transferentzugsrate noch verschärft. Die hohe Grenzbelastung bestraft reguläre Arbeit. Sie belohnt das Nichtstun und die Schwarzarbeit. Hohe Transferentzugsraten begünstigen eine „ganz oder gar nicht“-Lösung beim Arbeitsangebot. Das trifft vor allem Frauen, die Beruf und Familie miteinander verbinden wollen (Berthold und Coban, 2014). Die Grundsicherung des ALG II leistet wenig Hilfe zur Selbsthilfe. Lohn- und Tarifpolitik werden aggressiver, räumliche und berufliche Mobilität behindert. Die Höhe, relativ zum möglichen Arbeitseinkommen und die unbegrenzte Dauer des Transferbezugs begünstigen ein aggressiveres Lohnsetzungsverhalten der Tarifpartner. Das trifft gering qualifizierte Arbeitnehmer besonders hart. Deren Position wird weiter geschwächt. Die relativ hohen Leistungen komprimieren die qualifikatorische Lohnstruktur und machen sie nach unten inflexibel. Und noch etwas ist

164

Norbert Berthold

problematisch. Mehr oder wenig bundeseinheitliche Leistungen scheren die regional unterschiedlichen Arbeitsmärkte über einen Kamm. Verzerrte regionale und qualifikatorische Lohnstrukturen sind ein Hemmschuh für die räumliche und berufliche Mobilität. Eine gestauchte qualifikatorische Lohnstruktur verringert die Anreize gering qualifizierter Arbeitnehmer, in Humankapital zu investieren. Eine regional zu wenig differenzierte Lohnstruktur macht es für Arbeitslose wenig attraktiv, in Regionen zu wandern, in denen Arbeitsplätze angeboten werden. Eine wirkliche Hilfe zur Selbsthilfe wird nicht geboten. Arbeitslose werden in der Armutsfalle gefangen gehalten. Die Grundsicherung in der Phase der Erwerbsfähigkeit strahlt auf die Grundsicherung in der Zeit der altersbedingten Nicht-Erwerbstätigkeit aus. Menschen mit geringer Ausbildung, Menschen mit Migrationshintergrund und Menschen mit unterbrochenen Erwerbsbiografien sind stärker als andere armutsgefährdet. Für viele von ihnen ist schon relativ früh klar, dass es ihnen nicht gelingen wird, genug Entgeltpunkte zu sammeln, um im Alter eine Rente zu erhalten, die über der Grundsicherung liegt. Mit der Regelung des ALG II, wonach Langzeitarbeitslose faktisch aus der GRV ausgeschlossen sind, wird diese Entwicklung verstärkt. Die durch Erwerbstätigkeit erworbenen Rentenansprüche werden auf die Grundsicherung angerechnet. Negative Anreizeffekte schon in der Phase der Erwerbstätigkeit sind die Folge. Den Beiträgen zur GRV steht keine Gegenleistung gegenüber. Sie wirken wie Steuern. Die Anreize zur Arbeit werden gemindert, die Anreize zur Schwarzarbeit nehmen zu. Die Sequenzen der Armut im Lebenszyklus liegen auf der Hand: Fehlende Bildung gestern, Arbeitslosigkeit heute, Altersarmut morgen.

4 Die Reformen Der Bedarf an Reformen im Bereich des Sozialen ist evident. Es spricht vieles dafür, den Sozialstaat stärker zu entflechten. Die entscheidende Frage ist: Was ist des Marktes, was ist des Staates? Das Kriterium für die Entscheidung sind die komparativen Vorteile. Danach müssten die Absicherung gegen die Risiken von Krankheit und Pflegebedürftigkeit, aber auch die Absicherung im Alter auf privaten Kapitalund Versicherungsmärkten erfolgen. Dem Sozialstaat bliebe die Aufgabe, die Nachfrage der Menschen nach Absicherung gegen das Risiko der Arbeitslosigkeit und den Kampf gegen die Armut zu organisieren. So einfach ist es allerdings nicht. Auch Institutionen sind pfadabhängig. Der Wechsel von einem (staatlichen) Pfad zu einem anderen (marktlichen) Pfad ist nicht so ohne weiteres möglich. Die hohen Kosten der Transformation machen ihn, wie etwa in der Alterssicherung, auch wenig sinnvoll und blockieren ihn politisch. Besser ist es, das bestehende institutionelle Arrangement des Sozialstaates auf mehr Effizienz zu trimmen. Das bedeutet in vielen Fällen, auf mehr Wettbewerb im Bereich des Sozialen zu setzen.

Die Zukunft des Sozialstaates

165

4.1 Das Gesundheitswesen Die Ursache der Probleme im Gesundheitswesen ist ein ineffizient organisiertes System der Absicherung gegen das Risiko der Krankheit. Dabei ist es eigentlich relativ einfach. Gesundheit ist ein fast normales privates Gut, sieht man von Epidemien oder Pandemien ab. Die Individuen wollen sich gegen die materiellen Risiken von Krankheiten absichern. Diese Nachfrage kann grundsätzlich auf privaten Versicherungsmärkten befriedigt werden. Dort bieten Versicherungen einen Versicherungsschutz an, allerdings nicht umsonst. Die Prämie, die Versicherte zu entrichten haben, orientiert sich am individuellen Krankheitsrisiko, den unterschiedlichen Risikopräferenzen und individuellen Vorlieben der Versicherten für Gesundheitsgüter. Die Versicherungen bieten deshalb differenzierte Preis-Leistungs-Pakete an. Dabei werden schlechte Risiken stärker zur Kasse gebeten als gute. Wer risikoscheuer ist und mehr Gesundheitsleistungen will, zahlt mehr als der, der risikofreudiger ist und sich mit weniger zufrieden gibt. Die notwendigen Eingriffe des Staates in einen solchen Versicherungsmarkt sind einfach und überschaubar. Unabdingbar ist eine Versicherungspflicht für alle. Diese Pflicht beginnt mit der Geburt. Sie ist notwendig, um soziales Trittbrettfahrerverhalten der Personen zu verhindern, die sich nicht versichern. Erforderlich ist auch, die Qualität der Gesundheitsgüter zu regulieren. Das gilt vor allem für die Güter, die den Charakter von Vertrauensgütern haben. Davon gibt es im Gesundheitsbereich allerdings viele. Man kommt deshalb nicht darum herum staatlich festzulegen, was anerkannte Heilmethoden sind. Notwendig ist allerdings auch, dass der Staat mögliche Kartelle und Absprachen der Leistungserbringer über die Preise verbietet. Nur so kann sich ein wirksamer Preiswettbewerb im Gesundheitssektor entwickeln. Ein solcher Wettbewerb entsteht, wenn alle Versicherungen ihre Prämien autonom festlegen können und die Versicherten freie Wahl haben, bei welcher Versicherung sie Verträge abschließen wollen. Trotz dieser staatlichen Spielregeln haben private Lösungen zwei Achillesfersen. Die eine besteht darin, dass Versicherungen immer Anreize haben, den Wettbewerb zu beschränken, indem sie transferierbare Altersrückstellungen verhindern. Das blockiert gegenwärtig die meisten Versicherten mit Bestandsverträgen. Können die Versicherten ihre Altersrückstellungen nicht oder nur teilweise mitnehmen, wenn sie die Versicherung wechseln, ist ein wirksamer Wettbewerb nicht möglich. Der Wettbewerb beschränkt sich dann auf die Neumitglieder. Die Alten werden in ihrer Versicherung gefangen gehalten. Private Versicherungen haben noch eine zweite, soziale Achillesferse. Die Beitragssätze für schlechte Risiken können Höhen erreichen, die vor allem für Geringverdiener unüberwindbar sind. Es ist Aufgabe des Sozialstaates, die Lücke zwischen individuell tragbarer und risikoäquivalenter Prämie durch finanzielle Transfers zu schließen. Diese Umverteilung muss aus allgemeinen Steuermitteln finanziert werden.

166

Norbert Berthold

4.2 Die Alterssicherung Die Politik hat in den Nullerjahren erstaunlich vieles richtig gemacht. Bis 2030 werden die gesteckten rentenpolitischen Ziele voraussichtlich erfüllt. Die Beiträge steigen nicht über 22 %. Das Rentenniveau bleibt sogar über dem angestrebten Wert von 43 %. Da fällt es nicht so stark ins Gewicht, dass die Riester-Rente die in sie gesetzten Erwartungen bisher nicht erfüllt hat. Einen wichtigen Anteil an der Erfüllung der rentenpolitischen Ziele hat die Erhöhung der in weiten Teilen der Bevölkerung ungeliebten Regelaltersgrenze auf 67 Jahre. Die Politik scheint den „Da Vinci Code“ (22-43-67-4) der deutschen Alterssicherung gefunden zu haben. Diese positiven Nachrichten gelten allerdings nur bis zum Jahr 2030 (Börsch-Supan et al. 2016). Danach müssen die rentenpolitischen Weichen neu gestellt werden. Die demographische Last geht nach 2030 nicht zurück. Sie steigt im Gegenteil weiter an. Damit lassen sich die beiden eingezogenen „Haltelinien“ beim Beitragssatz (22 %) und Rentenniveau (43 %) nicht mehr garantieren. Aber auch die beiden anderen Elemente der Reform von 2007 stehen zur Disposition: Die allgemeine Altersgrenze von 67 und der kapitalgedeckte Anteil der Alterssicherung (Riester-Rente, Betriebsrente). Beide müssen weiter erhöht werden. Die heutige Situation ist der zu Beginn des neuen Jahrtausends nicht unähnlich. Es ist wieder einmal höchste Zeit, sich Gedanken über eine Reform des Systems der Alterssicherung zu machen. Nur Reformen können verhindern, dass es nach 2030 gegen die Wand fährt. Die Herausforderungen sind die alten. Demographische Lasten dominieren weiter, umverteilungspolitische Lasten gewinnen aber an Gewicht. Die Leitlinien einer solchen Reform liegen auf der Hand: auslagern, verringern, tragen und tragbar machen. Der wichtigste Kandidat für Lasten, die aus der GRV ausgelagert werden müssen, sind die vielfältigen umverteilungspolitischen Aktivitäten. Damit werden bestimmte Gruppen in der GRV begünstigt. Umverteilungspolitik ist eine allgemeine Aufgabe des Staates. Sie muss über Steuern und darf nicht aus Beiträgen finanziert werden. Das gilt auch für alle Varianten einer politisch (rechts wie links) immer wieder ins Spiel gebrachten „Lebensleistungsrente“. Versicherungsfremde Leistungen sind grundsätzlich aus der GRV auszulagern, zumindest aber sind sie über Zuschüsse des Bundes zu finanzieren. Die Zuweisungen sollten nicht diskretionär, sondern regelgebunden erfolgen. Das erhöht die Chance, dass die GRV nicht auf den umverteilungspolitischen Lasten sitzen bleibt. Die finanzielle Situation der GRV bleibt, entgegen vielen Erwartungen, auch nach 2030 weiter prekär. Der Rentnerquotient wird weiter steigen, bis 2040 sogar signifikant. Danach stabilisiert er sich. Ein wichtiger Treiber dieser Entwicklung ist die steigende Lebenserwartung. Die adäquate Antwort ist eine längere, wenn möglich auch flexiblere Lebensarbeitszeit. Damit würden die Lasten verringert. Umstritten ist, nach welcher Regel sie festgelegt wird. In der Vergangenheit wurde die steigende Lebenserwartung im Verhältnis 2 : 1 auf die Zeit der Erwerbstätigkeit und die Zeit als Rentner aufgeteilt (BMWi, 2016). Einem 40-jährigen Erwerbsleben stand

Die Zukunft des Sozialstaates

167

eine 20-jährige Zeit des Rentenbezugs gegenüber. Das ermöglichte es, den Lebensstandard im Alter zu sichern, ohne die GRV finanziell gegen die Wand zu fahren. Wenn die Lebenserwartung um drei Jahre steigt, sollte die allgemeine Altersgrenze um zwei Jahre erhöht werden. Das geschah dann auch bei der Reform im Jahr 2007. Und trotzdem können die Rentner einen um ein Jahr längeren Ruhestand genießen. Die Regelaltersgrenze sollte automatisch an die Lebenserwartung gekoppelt werden. Andere Länder, wie die Niederlande, Schweden und Norwegen, haben eine solche Regel bereits installiert. Mit diesem zweiten Element des „Da Vinci Codes“ würde der Anstieg des Rentnerquotienten gebremst. Die finanziellen Lasten der GRV würden sinken. Es existieren allerdings weitere Lasten, demographische und arbeitsmarktpolitische, die nicht verringert werden können. Das gilt vor allem für die niedrige Geburtenrate. Daran lässt sich bis weit über 2030 hinaus nichts mehr ändern. Das Kind ist schon in den Brunnen gefallen. Diese demographische Last muss von Rentnern und Erwerbstätigen getragen werden. Das geschieht über den Nachhaltigkeitsfaktor beim Rentenwert. Dem liegt eine Verteilungsregel zugrunde. Sie wird von der Gesellschaft festgelegt. Allerdings begrenzen ökonomische Zwänge den Entscheidungsspielraum. Es existiert eine wirtschaftliche Grenze für die Höhe der Beiträge. Höhere Beiträge machen Arbeit teurer. Die unternehmerische Nachfrage nach Arbeit geht zurück, die Lohnsumme sinkt. Damit erodiert die ökonomische Basis der GRV. Es existiert aber auch eine wirtschaftliche Grenze für ein sinkendes Rentenniveau. Wird es zu stark abgesenkt, gerät die Rente für immer mehr Versicherte in die Nähe der staatlich garantierten Grundsicherung im Alter. Die Beiträge nehmen damit immer mehr den Charakter von Steuern an. Das Arbeitsangebot vor allem Geringqualifizierter wird verzerrt. Diese beiden „Leitplanken“ der Aufteilung der Lasten bestimmen über die Akzeptanz der umlagefinanzierten GRV. Ein Teil der Lasten lässt sich nicht wegreformieren. Sie müssen getragen werden. Ob sie getragen werden können, hängt davon ab, wie kräftig eine Volkswirtschaft ist. Ist sie wirtschaftlich schwach, wird sie von den Lasten erdrückt. Nur wenn sie kräftig genug ist, sind die Lasten auch nach 2030 tragbar. Notwendig sind mehr Investitionen in Human- und Realkapital. Beides setzt die Bereitschaft voraus, vermehrt Ersparnisse zu bilden. Die Last der Beiträge der jüngeren Generation sinkt, weil weniger Rentenleistungen der GRV notwendig sind. Gleichzeitig ist die ältere Generation eher bereit, sinkende Rentenniveaus zu akzeptieren, weil der reale Wert ihrer Renten weiter steigt. Die umlagefinanzierte muss verstärkt um eine kapitalfundierte Alterssicherung ergänzt werden. Mit der staatlich geförderten Riester-Rente und der betrieblichen Altersvorsorge geht man diesen Weg bereits. Sehr erfolgreich war er bisher allerdings nicht. Bei der Riester-Rente sind es Informationsmängel, die Marktmacht produzieren und eine weitere Ausbreitung behindern. Ein einfach strukturiertes Standardprodukt könnte für Abhilfe sorgen. Bei der betrieblichen Altersvorsorge sind es die Zusagen von festen Leistungen, die den Erfolg verhindern. Eine Umstellung auf die Garantie fester Beiträge könnte für weitere Verbreitung sorgen.

168

Norbert Berthold

4.3 Die Arbeitslosenversicherung Eine Arbeitslosenversicherung muss die individuellen Präferenzen der Versicherten stärker berücksichtigen, „moral hazard“-Verhalten so gut es geht vermeiden, den strukturellen Wandel fördern und Arbeitslose anhalten, in marktverwertbares Humankapital zu investieren. Deshalb ist die Bundesagentur für Arbeit zu entflechten. Das Versicherungsgeschäft wird vom operativen Geschäft der Beratung, Vermittlung und Qualifizierung getrennt. Die Arbeitslosenversicherung ist von der Bundesagentur für Arbeit unabhängig. Sie schließt Versicherungsverträge mit den Arbeitnehmern über Geld- und Sachleistungen ab. Das Arbeitslosengeld administriert die Versicherung selbst. Beratung und Vermittlung werden von privaten oder staatlichen Anbietern erbracht. Die Arbeitslosenversicherung erstattet die Kosten. Diese organisatorische Trennung von Versicherung und operativem Geschäft verringert „moral hazard“, die Effizienz steigt. Eine reformierte Arbeitslosenversicherung bietet ein für alle Arbeitnehmer verpflichtendes Grundpaket und zusätzliche Wahlpakete an. Kernelemente des Grundpakets sind das Arbeitslosengeld und ein Anspruch auf Beratung und Vermittlung. Die Höhe des Arbeitslosengeldes orientiert sich an der Grundsicherung des Haushaltes. Der Bezug wird auf zwölf Monate begrenzt. Wer länger arbeitslos und bedürftig ist, erhält ein kommunal festgelegtes und organisiertes ALG II. Das Grundpaket enthält auch Leistungen der Beratung und Vermittlung. Die Arbeitslosenversicherung berät und vermittelt allerdings nicht selbst, sie gibt Gutscheine aus, die von den Arbeitslosen bei Arbeitsämtern, Kommunen oder privaten Vermittlern eingereicht werden können. Die Vermittler können die Gutscheine nach erfolgreicher und nachhaltiger Vermittlung der Arbeitslosen in den ersten Arbeitsmarkt bei der Arbeitslosenversicherung einlösen. Zwischen Job-Centern, kommunalen und privaten Vermittlern wird ein intensiver Wettbewerb um den besten Weg entfacht. Ineffiziente Anbieter werden ihn nicht überleben. Orientieren sich die Erfolgshonorare an der Schwere der Fälle, werden auch Arbeitsuchende mit schlechten Vermittlungschancen nicht einfach wie bisher nach Hartz-IV durchgereicht. Qualifikation, Alter, Erwerbsbiografie, Dauer der Arbeitslosigkeit u. a. müssen sich in der Höhe der bezahlten Vermittlungsprämie wiederfinden. Nur dann ist der Wettbewerb effizient und der Vermittlungsprozess erfolgreich. Das Grundpaket wird auch weiter über Beiträge finanziert. Um auf den Arbeitsmärkten individuelles, unternehmerisches und gewerkschaftliches Fehlverhalten („moral hazard“) möglichst gering zu halten, das durch die Arbeitslosenversicherung ausgelöst wird, muss sich der Kreis der Beitragszahler ändern. Neben Arbeitnehmern und Unternehmen werden auch Gewerkschaften zur Kasse gebeten. Mit ihrer Lohn- und Tarifpolitik entscheiden sie über Wohl und Wehe auf den ersten Arbeitsmärkten. Eine finanzielle gewerkschaftliche Zuschusspflicht trägt mit dazu bei, dass sich die Gewerkschaften mit ihrer Politik stärker an der tatsächlichen

Die Zukunft des Sozialstaates

169

Lage auf den Arbeitsmärkten orientieren. Das alles spricht dafür, die Finanzierung des Grundpakets drittelparitätisch zu organisieren. Mögliches Fehlverhalten wird durch risikoäquivalentere Beiträge für alle drei Gruppen weiter begrenzt. Individuelle, sektorale und regionale Besonderheiten werden berücksichtigt. Die Beiträge der Arbeitnehmer werden stärker nach individuellen Risikomerkmalen wie Beruf, Branche, Region, Qualifikation etc. differenziert. Die Beiträge der Geringqualifizierten, die mehrere Risikomerkmale der Arbeitslosigkeit auf sich vereinen, können das Nettoeinkommen unterhalb des sozialen Existenzminimums drücken. Auch hier ist es die Aufgabe des Sozialstaates, die Lücke zwischen individuell tragbarer und risikoäquivalenter Prämie durch finanzielle Transfers zu schließen. Diese Umverteilung muss aus allgemeinen Steuermitteln finanziert werden. Eine stärkere Orientierung der Beiträge am individuellen Risiko setzt Anreize, stärker in Humankapital ‚on the job‘ zu investieren. Das individuelle Risiko der Arbeitslosigkeit sinkt und die Beiträge fallen geringer aus. Ein Unternehmen, das öfter als der Durchschnitt der Unternehmen seiner Branche entlässt, zahlt höhere Beiträge. Unternehmerisch „leichtfertigere“ Entlassungen verlieren an Bedeutung, schädliche Quersubventionierung und allokative Verzerrungen gehen zurück. Die Zuschüsse der Gewerkschaften orientieren sich daran, ob und wie die Arbeitslosigkeit in ihrer Branche vom sektoralen Durchschnitt abweicht. Das begünstigt sektoral stärker differenzierte Lohn- und Tarifabschlüsse. Die Versicherten können auch vom obligatorischen Grundpaket abweichende freiwillige Leistungen nachfragen, Leistungen des Grundpakets verändern und/ oder sich über das Grundpaket hinaus absichern. Es ist denkbar, individuell die Höhe und zeitlichen Profile (degressiv/progressiv) des Arbeitslosengeldes, den Beginn (etwaige Karenztage) und die Dauer des Bezugs oder die Zumutbarkeitskriterien zu verändern. Wer laxere Kriterien will, zahlt mehr, wer sich strengeren unterwirft, kommt finanziell günstiger weg. Bei allen Leistungen des Wahlpakets muss allerdings das Äquivalenzprinzip strikt eingehalten werden. Wer mehr Leistungen will, muss dafür bezahlen, wer sich mit weniger zufrieden gibt, erhält einen Rabatt. Das Grundpaket enthält außer Beratung und Vermittlung keine weiteren Maßnahmen der aktiven Arbeitsmarktpolitik. Arbeitnehmern sollte es aber möglich sein, sich gegen den Verlust an Qualifikation zu versichern. Mögliche Wahlleistungen können deshalb auch Maßnahmen der Aus- und Weiterbildung umfassen. Im Schadensfall kann der Versicherte die individuell versicherte Leistung mittels eines Gutscheins beim Anbieter seiner Wahl nachfragen. Das können Job-Center, Kommunen oder private Anbieter sein. Damit kämen die oft zweifelhaften Maßnahmen der aktiven Arbeitsmarktpolitik ebenso auf den Prüfstand, wie die kommunale Beschäftigungspolitik und die Bildungseinrichtungen der Tarifpartner. Der staatlich subventionierten Arbeitslosigkeitsindustrie und dem heimlichen Finanzausgleich der Arbeitsmarktpolitik würden Zügel angelegt. Eine so grundlegend reformierte Arbeitslosenversicherung mit staatlichem Rahmen macht institutionellen Wettbewerb in der Arbeitsmarktpolitik erst mög-

170

Norbert Berthold

lich. Das Äquivalenzprinzip wird stärker beachtet, „faulenzen“ lohnt weniger, effizienzverschlingende Kontrollen können verringert werden. Der intensivere Wettbewerb zwischen den verschiedenen Anbietern von Beratung, Vermittlung und Qualifizierung hilft, Arbeitnehmer besser zu beraten, zu vermitteln und adäquat zu qualifizieren. Das kann mit oder ohne die Bundesagentur für Arbeit geschehen. Die hat es selbst in der Hand, ob sie weiter auf dem Markt für Beratung, Vermittlung und Qualifizierung bleibt oder bei schlechten Leistungen verschwindet. Der gegenwärtige, begrenzte Wettbewerb zwischen Job-Centern, Kommunen und privaten Anbietern wird endlich funktionsfähig.

4.4 Die Grundsicherung Eine wirksame Hilfe zur Selbsthilfe muss das Ziel einer Reform sein. Arbeitsfähige Transferempfänger dürfen nicht noch länger in der Arbeitslosigkeits- und Armutsfalle gehalten werden. Ein reformiertes System muss die Empfänger zu mehr Unabhängigkeit vom Sozialstaat, mehr wirtschaftlicher Mündigkeit und mehr persönlicher Freiheit führen. Das macht es zunächst einmal notwendig, die organisatorische Effizienz zu stärken. Mehr Verantwortung für die Kommunen wäre ein erster Schritt. Aus Sozialämtern sollten flexible, erfolgsorientierte Qualifizierungsund Vermittlungsagenturen werden. Arbeitsmarkt- und Sozialpolitik gehören in eine Hand. Sozialämter können die Problemgruppen auf den Arbeitsmärkten besser als Arbeitsämter vermitteln. Sie sind näher am relevanten Arbeitsmarkt für personenbezogene, ortsnahe Dienstleistungen. Gerade das sind die Arbeitsplätze für Geringqualifizierte und Langzeitarbeitslose. Diese lassen sich nur in den ersten Arbeitsmarkt vermitteln, wenn ein ganzes Bündel von Maßnahmen eingesetzt wird. Dazu zählen Kinderbetreuung, Schuldner- und Suchtberatung, Gesundheitsdienst und anderes mehr. Die Kommunen besitzen die dafür notwendig soziale Infrastruktur. Die Effizienz steigt auch, wenn es gelingt, bestehende Fehlanreize und Missbräuche wirksam einzudämmen. Es ist notwendig, die Anreizstruktur der staatlich garantierten Grundsicherung so zu verändern, dass es für arbeitslose Transferempfänger wieder lohnend wird, einen angebotenen Arbeitsplatz anzunehmen. Eine geringere Transferentzugsrate ist ein erster wichtiger Schritt. Den Transferempfängern muss mehr von dem verbleiben, was sie mit ihrer Hände (Köpfe) Arbeit auf regulären Arbeitsmärkten verdienen. Von jedem verdienten Euro sollten es schon mindestens 50 Cents sein (Berthold und Coban, 2013). Der Anreiz, eine reguläre Beschäftigung aufzunehmen, nimmt zwar zu, mit ihm aber auch die finanzielle Belastung des Staates. Wenn man diese anreizverträgliche Reform möglichst finanzneutral ausgestalten will, bleibt nur der Weg, die Hilfeleistungen für uneingeschränkt Arbeitsfähige zu senken. Das würde die finanziellen Mehrbelastungen einer geringeren Transferentzugsrate in Grenzen halten. Die positiven Wirkungen

Die Zukunft des Sozialstaates

171

auf die Aufnahme einer regulären Arbeit würden steigen. Mit der Absenkung würde das Lohnabstandsgebot wieder eher eingehalten. Damit ist aber das bei Transfers unvermeidliche Missbrauchsproblem noch nicht beseitigt. Ein Einfallstor für eine missbräuchliche Nutzung auch der neuen Leistungen ist die Schwierigkeit, zwischen prinzipiell Arbeitsfähigen und Arbeitsunfähigen zu trennen. Der Missbrauch ließe sich verringern, wenn die Hilfe mehr über Sach- und weniger über Geldleistungen gewährt würde. Sachtransfers wirken wie ein Selbstselektionsmechanismus. Wer nicht bedürftig ist, wer arbeitsfähig ist, wird wenig Interesse daran haben. Er stellt sich besser, wenn er durch eigene Arbeit ein Einkommen erzielt, das er nach seinen Präferenzen ausgeben kann. Liegen zuverlässige Informationen über die Präferenzen von Bedürftigen und Nicht-Bedürftigen hinsichtlich Qualität und Menge der Güter vor, sind Sachtransfers monetären Leistungen überlegen. Ganz verhindern lässt sich aber auch auf diesem Weg möglicher Missbrauch nicht. Wird allerdings die Prüfung der Arbeitsfähigkeit dezentral auf der Ebene der Kommunen vorgenommen, lässt sich der Missbrauch weiter eindämmen. Auch eine so reformierte Grundsicherung kann nur wirksam Hilfe zur Selbsthilfe leisten, wenn sie die Lage auf den lokalen Arbeitsmärkten berücksichtigt. Der regionalen Höhe und Ausgestaltung der Leistungen kommt vor allem für gering qualifizierte Arbeitnehmer besondere Bedeutung zu. Die Chance eines arbeitslosen Transferempfängers, einen Arbeitsplatz zu finden, hängt entscheidend davon ab, wie hoch der faktische Mindestlohn auf den lokalen Arbeitsmarkt ist. Der wird vor allem von der Höhe der Grundsicherung, der Transferentzugsrate, den Sanktionen etc. bestimmt. Werden diese Parameter zentral festgelegt, haben Geringqualifizierte auf lokalen Arbeitsmärkten mit hoher Arbeitslosigkeit schlechte Karten, einen Arbeitsplatz zu ergattern. Den Kommunen müssen deshalb mehr Möglichkeiten eingeräumt werden, die Parameter der Grundsicherung, wie etwa die Höhe, Transferentzugsrate, Arbeitspflichten etc., in eigener Regie festzulegen. So können die tatsächlichen Gegebenheiten auf den lokalen Arbeitsmärkten vor Ort berücksichtigt werden. Das erhöht die Chancen einer Beschäftigung. Eine auf lokaler Ebene organisierte Grundsicherung, die lokale Solidarität mit dezentraler Arbeitsmarktpolitik verbindet, wird die Lage auf den regionalen Arbeitsmärkten spürbar entspannen. Lokal unterschiedliche Löhne und erfolgsorientierte Sozialämter, die als Vermittlungs- und Qualifizierungsagenturen agieren, sorgen für mehr Beschäftigung. Allerdings, ein Teil der Hilfeempfänger ist mehr oder weniger unfähig zur Arbeit. Ihnen muss mit Therapie-, Entzugs- und Einarbeitungsmaßnahmen geholfen werden. Es gibt auch arbeitsfähige Arbeitnehmer, die erst an eine volle Stelle herangeführt werden müssen. Das kann mit zeitlich befristeten Gemeinschaftsarbeiten bei privaten Unternehmen, karitativen Einrichtungen oder öffentlichen Betrieben geschehen. Dazu gehört auch die verpflichtende Teilnahme an weiterführender Qualifikation. Diese Aktivitäten müssen aber strikt begrenzt werden. Kleine und mittlere Unternehmen dürften durch solche arbeitsmarktpolitischen Aktivitäten nicht in großem Stil aus dem Markt gedrängt werden.

172

Norbert Berthold

5 Die Revolution Der Sozialstaat ist krank. Er hat Fieber, mal höheres, mal niedrigeres. Die finanziellen Defizite zeigen, wie hoch das Fieber ist. Eine ursachenadäquate Therapie findet kaum statt. Kuriert wird fast immer nur an Symptomen. Die finanziellen Ungleichgewichte sind allerdings nur vordergründig das Problem. Was den Sozialstaat wirklich krank macht, verbirgt sich hinter der brüchigen finanziellen Fassade. Er nimmt Aufgaben wahr, die andere besser erfüllen können. In vielen Bereichen hat er seine komparativen Vorteile verloren. Wo er sie noch hat, erbringt er das Angebot oft wenig effizient. Unzweifelhaft, er muss reformiert werden. Das Angebot an „sozialer Sicherheit“ und „sozialer Gerechtigkeit“ muss neu geordnet werden. Eine Reform an Haupt und Gliedern ist notwendig. Nur, sie ist schwierig. Der Sozialstaat ist ein Element eines gewachsenen institutionellen Arrangements. Das Tarifkartell auf dem Arbeitsmarkt und ein kooperativer fiskalischer Föderalismus sind die anderen Elemente des deutschen Korporatismus. Eine Reform des Sozialstaates kann nur erfolgreich sein, wenn auch Arbeitsmärkte und Föderalismus wettbewerblicher werden. Ein solcher „big bang“ kommt einem politischen Selbstmord gleich.

5.1 Das Sozialstaatsversagen Diese garstige Realität hält allerdings einige nicht davon ab, revolutionär zu denken. Sie stellen alte sozialpolitische Glaubenssätze in Frage. Manche träumen wieder einmal den schönen Traum eines bedingungslosen Grundeinkommens. Die Renaissance der Idee einer negativen Einkommenssteuer (Milton Friedman) kommt nicht von ungefähr. Globalisierung und technischer Fortschritt haben in den letzten Jahrzehnten weltweit nicht nur mehr Wohlstand gebracht. Sie haben auch mit dazu beigetragen, dass die Einkommen ungleicher verteilt werden. Vor allem am oberen Ende sind die Einkommen stark gewachsen. Zumeist stellen sich die Einkommensbezieher unten absolut nicht schlechter. Allerdings hat die relative Armut in wohlhabenden Ländern an Gewicht gewonnen. Und das zählt in einer Demokratie. Die Verfechter eines bedingungslosen Grundeinkommens kreiden dem traditionellen Sozialstaat an, dass er dieses Problem nicht in den Griff bekomme. Sie nehmen es ihm auch übel, dass er die Transferempfänger auf Bedürftigkeit überprüft. Das sei „entwürdigend“, unangemessen und mache die Menschen „unfrei“. Weitere Kritik zieht allenthalben eine wuchernde Sozialstaatsbürokratie auf sich. Sie sei ineffizient und wenig treffsicher. Tatsächlich ist die staatliche Umverteilung verworren, die Ziele oft inkompatibel. In Deutschland bieten fast 40 Stellen über 150 Sozialleistungen an. Dabei weiß oft die eine Hand nicht, was die andere macht. Die Abstimmung ist zeitintensiv und extrem bürokratisch. Das gilt auch für die Kontrolle. Oft gehen sie auf Kosten der Anspruchsberechtigten. Und noch etwas ärgert nicht nur die Verfechter eines bedingungslosen Grundeinkommens. Die vie-

Die Zukunft des Sozialstaates

173

len sozialen Leistungen produzieren „Umkippeffekte“. Oft nicht harmonisierte Einkommensgrenzen stellen Individuen bisweilen schlechter, wenn ihr Erwerbseinkommen nur leicht ansteigt. Die Anreize für das Arbeitsangebot sind verheerend. Ein bedingungsloses, existenzsicherndes Grundeinkommen würde mit einem Schlag alle diese Probleme lösen. Dieser Schritt würde allerdings die Grundsätze des Sozialstaates auf den Kopf stellen: Das Prinzip der Subsidiarität und der Leistungsgerechtigkeit. Eigenverantwortung steht an erster Stelle. Erst wenn der Einzelne überfordert ist und auch die Familie nicht helfen kann, springt der Sozialstaat hilfsweise ein. Allerdings ist eine ungleiche Verteilung der Einkommen akzeptabel. Es gilt das Prinzip der Leistungsgerechtigkeit. Der Sozialstaat garantiert nur ein Existenzminimum. Diese Garantie gilt unabhängig davon, ob jemand unverschuldet oder durch eigenes Zutun in Not geraten ist. Sie wird aber nur gewährt, wenn Individuen bedürftig sind. Die Hilfe des Staates ist nicht umsonst. Der Transferempfänger muss eine Gegenleistung erbringen. Bei Erwerbsfähigen wird erwartet, dass er eine angebotene Arbeit annimmt und der Gemeinschaft nicht weiter zur Last fällt. Ein nur schwer lösbares Problem der staatlichen Garantie eines Existenzminimums liegt in den allokativen Risiken und Nebenwirkungen. Das deutsche Arbeitslosengeld II ist ein Musterbeispiel. Es wird arbeitsfähigen Arbeitslosen gewährt, unabhängig davon, ob sie einer Arbeit nachgehen oder nicht. Der Anreiz, eine Arbeit aufzunehmen, ist gering. Eine effektive Transferentzugsrate zwischen 60 und 85 % vermindert die Anreize weiter. Der Konflikt zwischen Allokation und Verteilung ist ungelöst, es ist schwer, der Armutsfalle zu entkommen. Der amerikanische EITC ist weiter. Einkommen werden nur aufgestockt, wenn man einer Erwerbstätigkeit nachgeht. Andernfalls erhält man die weit weniger hohe Sozialhilfe und wird verpflichtet, gemeinnützige Tätigkeiten (workfare) auszuüben. Allerdings ist der Bezug der Sozialhilfe lebenszeitlich auf maximal fünf Jahre begrenzt.

5.2 Die Vorschläge Die Verfechter eines bedingungslosen Grundeinkommens glauben, dass es gelingt, zwei Fliegen mit einer Klappe zu schlagen: Das Problem der Armut soll endgültig gelöst, das Arbeitsangebot hingegen nicht negativ beeinflusst werden. Der Zielkonflikt zwischen Allokation und Verteilung, der Generationen von Ökonomen umtreibt, würde ein für alle Mal gelöst. Wie sieht nun diese sozialpolitische Wunderwaffe konkret aus? Sie hat einen harten Kern. Er besteht aus einem bestimmten Betrag, den alle Personen bedingungslos vom Staat erhalten. Die Vorschläge für Deutschland liegen zwischen 500 und 1.500 Euro pro Person, für die Schweiz sind höhere Beträge vorgesehen. Die finanziellen staatlichen Transfers können entweder als Sozialdividende oder als negative Einkommensteuer ausbezahlt werden. Ihre distributiven Wirkungen sind mehr oder weniger identisch.

174

Norbert Berthold

Mit diesem Betrag sollen die meisten steuer- und beitragsfinanzierten Leistungen des Sozialstaates abgegolten werden. Das gilt für die Gesetzliche Arbeitslosen-, Renten- und Pflegeversicherung. Es trifft aber auch für soziale Leistungen, wie etwa das ALG II, die Sozialhilfe, das Wohn- und Kindergeld, das BaföG, das Erziehungs- und Elterngeld zu. Bei den meisten Vorschlägen werden die Leistungen der Kranken- und Unfallversicherung nicht durch das bedingungslose Grundeinkommen ersetzt. Einige plädieren für eine Grundversicherungspflicht und pauschale Prämien, andere für ein steuerfinanziertes Gesundheitssystem. Manche sehen staatliche Leistungen bei besonderer Bedürftigkeit vor, wie etwa bei Behinderungen, besonderen Lebenslagen oder Kosten der Unterkunft. Das bedingungslose Grundeinkommen ersetzt den traditionellen Sozialstaat nicht vollständig. Neben dem harten Kern der staatlichen Transfers unterscheiden sich die Vorschläge darin, wie sie das steuerliche, soziale und arbeitsmarktpolitische Umfeld gestalten wollen. Die größte Hürde für ein bedingungsloses Grundeinkommen ist zweifellos die Finanzierung. Ein Teil der Mehrausgaben soll durch den Wegfall von staatlichen Sozialausgaben finanziert, der größere Rest soll über höhere Steuern aufgebracht werden. Bei der Einkommensteuer wird meist eine Flat Tax (einstufiger Einkommensteuertarif mit konstantem Grenzsteuersatz) befürwortet. Eine breitere Bemessungsgrundlage durch weniger steuerliche Ausnahmetatbestände soll den Anstieg der Steuersätze im Zaum halten. Die notwendigen Steuersätze hängen von der Höhe des bedingungslosen Grundeinkommens ab. Sie liegen für Deutschland zwischen 50 und 80 %. Höhere Konsumsteuern sind eine Alternative. Das würde es allerdings notwendig machen, die Sätze für die Mehrwertsteuer signifikant anzuheben. Im Gespräch sind Sätze von bis zu 50 %. Unklar ist, wie der Arbeitsmarkt in der neuen Welt eines bedingungslosen Grundeinkommens aussehen soll. Viele Befürworter eines bedingungslosen Grundeinkommens glauben, dass uns über kurz oder lang die Arbeit im gewerblichen Bereich ausgehen wird. Es sei notwendig, dass wir schon heute die Weichen stellen sollten, um andere Formen gesellschaftlich ebenfalls wertvoller Tätigkeiten in der Familie, im Ehrenamt oder in der Kunst den Weg zu bereiten. Erst ein bedingungsloses Grundeinkommen mache die Menschen frei vom Zwang zur Erwerbsarbeit. Wo allerdings Erwerbsarbeit notwendig sei, sollen hohe Mindestlöhne ein auskömmliches Einkommen garantieren. Andere Verfechter eines bedingungslosen Grundeinkommens sehen diese Vorschläge als weltfremd an. Sie plädieren für eine grundlegende Deregulierung des Arbeitsmarktes. Mit dieser Art der Arbeitsmarktpolitik wollen sie die auch künftig notwendige Erwerbsarbeit forcieren.

5.3 Die Wirkungen Die Verfechter eines bedingungslosen Grundeinkommens nehmen die Ökonomie ganz offensichtlich nicht ernst. Eine wichtige ökonomische Erkenntnis ist seit vielen Generationen: Institutionelle Arrangements setzen Anreize für menschliches

Die Zukunft des Sozialstaates

175

Verhalten. Das gilt auch für institutionelle Designs staatlich garantierter Einkommen. Alle distributiven Versuche, ein universelles soziales Existenzminimum zu garantieren, haben allokative Risiken und Nebenwirkungen. Es gibt keine institutionelle Lösung, die diesen Zielkonflikt vollständig ausräumen kann. Allerdings lassen sich die allokativen Fehlentwicklungen in Grenzen halten, wenn die begünstigten Individuen eine Gegenleistung für die staatlichen Transfers erbringen müssen. Ein bedingungsloses Grundeinkommen reißt diese Schranke mutwillig ein. Das „Tischlein-deck-dich-Spiel“ erodiert die wirtschaftliche Basis. Ein bedingungsloses Grundeinkommen zerstört sich selbst. Wirtschaftliches Wachstum fällt nicht wie Manna vom Himmel. Es erfordert zumindest dreierlei: Arbeiten, sparen und investieren. Ein bedingungsloses Grundeinkommen senkt die Anreize drastisch, einer gewerblichen Arbeit nachzugehen. Die Erfahrung zeigt, großzügige Leistungen der Arbeitslosenversicherung verringern die Bereitschaft zu arbeiten spürbar. In Deutschland sind viele Arbeitslose nur bereit, wieder eine angebotene Arbeit aufzunehmen, wenn sie spürbar besser bezahlt wird als die Arbeit, die sie vor der Arbeitslosigkeit hatten. Das gilt vor allem für Arbeitnehmer mit geringer Qualifikation. Der soziale Mindestlohn wirkt. Neue empirische Untersuchungen zeigen, dass in den USA ein Großteil des persistenten Anstiegs der Arbeitslosigkeit in der „Großen Rezession“ auf großzügigeren Leistungen der Arbeitslosenversicherung beruht. Schon die relativ geringen Leistungen des ALG I und ALG II verringern somit die Bereitschaft regulär zu arbeiten spürbar. Ein viel üppiger ausgestattetes bedingungsloses Grundeinkommen würde die Anreize zu arbeiten drastisch verringern. Dies trifft nicht nur auf bereits arbeitslose Personen, sondern auch auf Beschäftigte zu. Zweitverdiener werden angereizt den Arbeitsmarkt aufgrund der höheren Lohnsteuer zu verlassen. Erstverdiener, die auf der Kippe zwischen Nettozahler und Nettoempfänger stehen, werden ihre Arbeitszeit reduzieren, um Nettoempfänger zu werden. Vor allem im unteren Einkommenssegment einfacher Arbeit würden die Arbeitsanreize massiv zerstört. Eine solche Entwicklung wäre für die Entwicklung des Wohlstandes fatal. Schon heute klagen über 15 % der deutschen Unternehmen über einen Engpass an Fachkräften. Der demographische Wandel wird dieses Problem künftig noch weiter verschärfen. Vor allem gebildetes Personal in den MINT-Fächern fehlt an allen Ecken und Enden. Das IW Köln geht davon aus, dass sich für die Unternehmen bis zum Jahr 2030 eine Lücke von über 1,8 Millionen MINT-Absolventen auftun wird. Die Einführung eines bedingungslosen Grundeinkommens würde die negativen Anreize auf Bildung und Arbeitsangebot verstärken. Der Mangel an Fachkräften würde weiter zunehmen. Eine wichtige Grundlage der internationalen Wettbewerbsfähigkeit deutscher Unternehmen würde angegriffen. Das „Geschäftsmodell Deutschland“ käme ins Schleudern. Im Schlaraffenland eines bedingungslosen Grundeinkommens ändert sich auch das individuelle Sparverhalten. Sinken die Anreize zu arbeiten, geht auch die Fähigkeit zurück zu sparen. Ein bedingungsloses Grundeinkommen reduziert aber

176

Norbert Berthold

auch die Neigung für die Zukunft vorzusorgen. Der Staat nimmt den Individuen diese Aufgabe ab. Die „komfortable Stallfütterung“ (Wilhelm Röpke) erzieht zur Unselbständigkeit und führt zum Verlust der Freiheit. Das gilt für alle, vor allem aber für untere Einkommensschichten. Ist das bedingungslose Grundeinkommen allerdings so großzügig bemessen, dass es – wie in der Schweiz gefordert – über dem Median-Einkommen liegt, befällt das Virus der „Faulheit“ auch die Mittelschicht. Damit ändert sich das individuelle Sparverhalten flächendeckend. Ein bedingungsloses Grundeinkommen eicht die Gesellschaft auf Konsum. Die Anreize verkümmern, zu arbeiten, zu sparen und zu investieren. Ein bedingungsloses Grundeinkommen verändert das investive Verhalten. Vor allem junge Arbeitnehmer hätten kaum noch Anreize, in Humankapital zu investieren. Besser bezahlte Beschäftigungen rücken in weite Ferne. Damit fehlt Unternehmen die Humankapital-Basis für Innovationen. Explodierende Steuern legen sich wie Mehltau auf Wachstum und Beschäftigung. Höhere direkte Steuern drücken die individuelle Bereitschaft, in Humankapital zu investieren. Sie tragen auch mit dazu bei, dass Investoren in Realkapital das Land in Scharen verlassen. Der innovative Schwung erlahmt, produktive Arbeitsplätze gehen massenhaft verloren. Höhere Konsumsteuern sind kein Ausweg. Auch sie belasten das wirtschaftliche Wachstum. Die Anreize der Arbeitnehmer wachsen, in die Schattenwirtschaft abzuwandern. Nur am Rande sei erwähnt: Unerwünschte distributive Nebenwirkungen pflastern den Weg höherer Konsumsteuern.

5.4 Die Illusion Das alles wissen die Verfechter eines bedingungslosen Grundeinkommens natürlich, wenn sie ökonomisch nicht auf den Kopf gefallen sind. Das Argument, dass mit einem solchen Schritt der verteilende Sozialstaat transparenter würde, ist zweifellos richtig. Auch das Ärgernis nicht aufeinander abgestimmter Leistungen würde beseitigt. Ein Pluspunkt wäre sicher auch, dass kostspielige Kontrollen wegfallen würden. Die Kosten der Sozialbürokratie könnten sinken. Das alles gilt aber nur, wenn das bedingungslose Grundeinkommen den traditionellen Sozialstaat ersetzen würde. Tatsächlich zeigen die verschiedenen Vorschläge aber etwas anderes. Auch bei einem bedingungslosen Grundeinkommen sollen wesentliche Teile der Kranken- und Pflegeversicherung erhalten bleiben. Auch weitere individuell abgestimmte Leistungen in bestimmten Lebenslagen sind vorgesehen. Große finanzielle Entlastungseffekte aus der „Stilllegung“ weiter Teile des traditionellen Sozialstaates sind eine Illusion. Das gilt vor allem für die Systeme der sozialen Sicherung. Der Sozialstaat produziert „soziale Sicherheit“ und „soziale Gerechtigkeit“. Ein bedingungsloses Grundeinkommen soll helfen, „soziale Gerechtigkeit“ kostengünstiger herzustellen. Das Gegenteil ist der Fall. Es wäre ökonomisch dumm, die Lasten über eine Stilllegung der relativ effizienten Teile der Produktion von „sozialer Sicherheit“ zu finanzieren. Viel sinnvoller wäre es, beide

Die Zukunft des Sozialstaates

177

Güter strikt getrennt herzustellen. Die Allokationsverluste wären geringer. Wo es noch nicht der Fall ist, sollte in den Systemen der sozialen Sicherung das Prinzip der Äquivalenz konsequent umgesetzt werden. Die Produktion von „sozialer Gerechtigkeit“ muss dagegen aus dem allgemeinen Staatshaushalt über Steuern finanziert werden. Eine Quersubventionierung des bedingungslosen Grundeinkommens aus den Systemen der sozialen Sicherung ist ineffizient. Dieses hirnrissige Manöver wird allerdings nicht gelingen. Die Ansprüche der Beitragszahler in den Systemen der sozialen Sicherung sind eigentumsrechtlich geschützt. Das gilt zumindest für die Gesetzliche Rentenversicherung. Es ist in einer stark alternden Gesellschaft nicht möglich, die Rentner zu enteignen, um das Projekt eines bedingungslosen Grundeinkommens zu finanzieren. Die Kostenspirale eines bedingungslosen Grundeinkommens würde sich noch aus zwei anderen Gründen immer schneller drehen. Zum einen würde die Personenfreizügigkeit in der EU den Weg für Freizeitliebhaber aus ganz Europa nach Deutschland freimachen. Zum anderen würden die gewaltigen Unterschiede in den weltweiten Einkommen große Anreize zu Wohlfahrtswanderungen schaffen. Horst Siebert war der Meinung, ein bedingungsloses Grundeinkommen würde eine Völkerwanderung unerreichten Ausmaßes aus dem Nicht-Europäischen Ausland in Bewegung setzen. Es sei nämlich nicht zu erwarten, dass andere Länder so dumm sein werden, ebenfalls ein bedingungsloses Grundeinkommen zu installieren. Der grundlegende Irrtum der Verfechter eines bedingungslosen Grundeinkommens liegt darin, dass sie von einem festen realen Sozialprodukt ausgehen, das beliebig umverteilt werden kann. Das ist eine Milchmädchenrechnung einfachster Art. Tatsächlich haben alle verteilungspolitischen Maßnahmen in der Realität einen mehr oder weniger starken Einfluss auf die Höhe des Outputs. Der Zielkonflikt zwischen Allokation und Verteilung ist nicht tot zu kriegen. Intelligente institutionelle Arrangements können ihn allenfalls vermindern. Das gilt auch für ein Grundeinkommen, vor allem wenn es bedingungslos ist. Von ihm gehen starke negative Anreize auf die wichtigen Treiber des wirtschaftlichen Wachstums aus, das Arbeitsangebot, die Ersparnisse und die Investitionen. Das gilt für die Leistungs- und die Finanzierungsseite des bedingungslosen Grundeinkommens. Die Gefahr ist groß, dass ein bedingungsloses Grundeinkommen das Sozialprodukt drastisch schrumpft. Damit zerstört es sich und die freie Gesellschaft. Alles in allem: Die Idee eines bedingungslosen Grundeinkommens ist eine Schnapsidee. Mit ihm gelingt es nicht, die vielen Mängel des gegenwärtigen Sozialstaates in den Griff zu bekommen. Das Gegenteil ist der Fall. Eine solche sozialpolitische Revolution endet in einem wirtschaftlichen, politischen und persönlichen Desaster. Die Welt wird nicht gerechter, der Sozialstaat nicht effizienter, der Wohlstand schrumpft drastisch. Der Staat übernimmt immer mehr das Kommando. In der Gesellschaft setzt sich eine Anspruchsspirale in Gang. Ansprüche auf immer mehr staatliche Leistungen ohne individuelle Gegenleistungen schießen wie Pilze aus dem Boden. Der Staat erzieht die Menschen zur Unselbständigkeit. Am Ende

178

Norbert Berthold

verlieren sie ihre individuelle Freiheit. Der Illusion des distributiven „Tischleindeck-dich“ folgt in der Realität der „Knüppel aus dem Sack“. Wir sollten unbedingt die Finger von einem bedingungslosen Grundeinkommen lassen.

6 Fazit In einer wirtschaftlich volatileren Welt steigt die Nachfrage nach „sozialer Sicherheit“ und „sozialer Gerechtigkeit“. Auf der Angebotsseite konkurrieren Kapitalund Versicherungsmärkte einerseits und der Sozialstaat andererseits miteinander. Die Märkte sind im Vorteil, wenn es darum geht, die steigende Nachfrage nach sozialem Schutz bei Krankheit, im Alter und bei Pflegebedürftigkeit zu befriedigen. Bei der Absicherung gegen die Risiken der Arbeitslosigkeit und bei der Garantie eines Existenzminimums hat der Sozialstaat weiter die Nase vorn. Damit ist bei der Kranken-, Renten- und Pflegeversicherung der Weg vorgezeichnet, wenn ökonomische Effizienz das Maß ist. Langfristig setzt sich ökonomisches Gesetz gegen die (verbands-)politische Macht durch. Die Umlagefinanzierung wird Federn lassen, eine stärkere Kapitalfundierung ist sinnvoll. Der Druck wird steigen, umlagefinanzierte Systeme der sozialen Sicherung beitragsäquivalenter zu gestalten. Die Umverteilung sollte in das Steuer-Transfer-System ausgelagert werden. Es spricht zwar einiges dafür, dass die sich verschlechternde Altersstruktur darauf hinwirken wird. Ob dies tatsächlich eintritt, muss sich allerdings erst noch zeigen. Die Arbeitslosenversicherung braucht weiter einen staatlichen Rahmen. Um eine höhere Effizienz wird aber auch sie nicht herum kommen. Eine Entflechtung ist notwendig. Das Kerngeschäft der Versicherung sollte vom operativen Geschäft getrennt werden. Die Arbeitslosenversicherung wird sich stärker am Prinzip der Äquivalenz orientieren müssen. Bei der Finanzierung ist eine Drittelparität sinnvoll. Im operativen Geschäft der aktiven Arbeitsmarktpolitik sollte stärker auf den Wettbewerb zwischen staatlichen und privaten Leistungsanbietern gesetzt werden. Schließlich sollte der Kampf gegen die Armut mit einer reformierten Grundsicherung geführt werden. Eine moderne Grundsicherung sollte ein anreizkompatibleres ALG II (Höhe, Transferentzugsrate, Arbeitspflichten) haben. Die Entscheidungen über die Leistungen (Transfers, aktive Arbeitsmarktpolitik) sollten auf kommunaler Ebene getroffen und administriert werden. Eine solche Grundsicherung verbindet lokale Solidarität mit dezentraler, aktiver Arbeitsmarktpolitik. Ob es dazu kommt, ist allerdings unklar. Die Globalisierung steht in der Kritik. Staatliche Lösungen sind wieder en vogue. Der (Sozial-)Staat wird immer öfter als Retter in der Not gesehen. Und an Notfällen, echten und suggerierten, mangelt es in Demokratien nie. Dem Markt wird mit Misstrauen begegnet. Kapitalfundierte Versicherungslösungen stehen in der Kritik. Umlagefinanzierte Lösungen sind wieder auf dem Vormarsch. Die Politik stärkt die Umverteilung in den Systemen der sozialen Sicherung wieder. Auch von einer Entflechtung der Bundesagentur für

Die Zukunft des Sozialstaates

179

Arbeit ist keine Rede mehr. In Nürnberg haben sich die Korporatisten durchgesetzt. Zentrale Lösungen haben wieder Konjunktur. Auch von einer evolutionären Reform der Grundsicherung ist schon lange keine Rede mehr. Seit Hartz IV ist das Feld der Grundsicherung vermintes Gelände. Die zarten Ansätze einer anreizkompatiblen Reform des ALG II existieren nicht mehr. Von lokaler Solidarität und dezentraler Arbeitsmarktpolitik spricht niemand mehr. Der Sozialstaat traditioneller Prägung erlebt eine Renaissance. Zukunftsfähig ist das allerdings nicht.

Literatur Berthold, N. 1997. Der Sozialstaat im Zeitalter der Globalisierung, Tübingen: Mohr Siebeck. Berthold, N., M. Coban. 2013. Mini- und Midijobs in Deutschland: Lohnsubventionen ohne Beschäftigungseffekte, ORDO, Vol. 64, S. 289–323. Berthold, N., M. Coban. 2014. Kombilöhne gegen Erwerbsarmut. Warum die USA erfolgreicher sind als Deutschland, Wirtschaftsdienst, Vol. 94(2), S. 118–124. Berthold, N., S. von Berchem. 2002. Kampf gegen Arbeitslosigkeit und Armut: Markt, Staat und Föderalismus, Berlin. BMWi. 2016. Nachhaltigkeit in der sozialen Sicherung über 2030 heraus, Berlin. Börsch-Supan, A., T. Bucher-Koenen, J. Rausch. 2016. Szenarien für eine nachhaltige Finanzierung der Gesetzlichen Rentenversicherung, MEA Discussion Paper Nr. 03–2016. Heyer, G. / S. Koch, G. Stephan, J. Wolff. 2012. Evaluation der aktiven Arbeitsmarktpolitik. Ein Sachstandsbericht für die Instrumentenreform 2011, Journal for Labour Market Research, Vol. 45(1), S. 41–62. Sinn, H.-W. 2013. Das demographische Defizit – die Fakten, die Folgen, die Ursachen und die Politikimplikationen, ifo-Schnelldienst, 66(21). Wagschal, U., S. Simon. 2013. Die Steuerpolitik der neuen Legislaturperiode, ifst-Schrift Nr. 496.

Teil II Ausgewählte Ordnungsprobleme und Lösungsansätze

Albrecht Michler und Franz Seitz

Geldpolitik, Preisniveaustabilität und Finanzstabilität 1 2

3

4

Einleitung und Fragestellung 183 Inflation, Deflation und Preisstabilität 184 2.1 Definition und Messung 185 2.2 Deflation − Theorie und Empirie: The Good, the Bad and the Ugly 189 Finanzmarktentwicklungen und Finanzstabilität 196 3.1 Veränderte Rahmenbedingungen auf den Finanzmärkten 196 Technischer Fortschritt 196 Verändertes wirtschaftspolitisches Verhalten 197 Zunahme des weltweiten Finanzvermögens 198 3.2 Reaktionen des Finanzsektors auf die veränderten Rahmenbedingungen 3.3 Finanz(markt)stabilität und die aktuelle Situation auf den Finanzmärkten Fazit 203

199 201

1 Einleitung und Fragestellung Die Finanz-, Wirtschafts- und Staatsschuldenkrise der letzten 10 Jahre brachte es mit sich, dass speziell die Zentralbanken und ihre Politik verstärkt in den Mittelpunkt des wirtschaftspolitischen Interesses gerieten. Einerseits, da sie mit als Auslöser der Finanzkrisen betrachtet wurden (siehe etwa Borio und Zhu 2008; Taylor 2008; Issing 2011). Andererseits aber auch, weil sie durch eine Neuausrichtung zur Lösung der aktuellen und Verhinderung neuer Krisen beitragen sollten. In diesem Kontext wurde gefordert, die Zentralbanken sollten Finanzmarktentwicklungen und Finanzzyklen eine größere Aufmerksamkeit schenken (z. B. Borio, 2014). Eine Konzentration auf (Güter-)Preisstabilität alleine wäre nicht hinreichend für positive gesamtwirtschaftliche Ergebnisse. Stattdessen sollten sich die Zentralbanken aktiv gegen den Aufbau von Finanzkrisen und finanziellen Ungleichgewichten stellen. Begründet wird dieser Fokus auf Finanzmarktentwicklungen (neben dem Preisstabilitätsziel) mit der empirischen Beobachtung, dass in finanziellen Boomphasen Ressourcen in unproduktive Sektoren gelenkt werden mit der Konsequenz sinkender Produktivitätsraten. Und dieser negative Einfluss wird verstärkt, wenn auf die Boom- eine Krisenphase folgt (Borio, Kharroubi et al. 2015).1 Diese Ideen haben inzwischen auch eine breitere Öffentlichkeit erreicht. So forderte der Chefvolkswirt der Commerzbank, Jörg Krämer (2016), im Handelsblatt: „Die EZB braucht eine

1 Die Finanzkrisen führten auch dazu, dass der Modellierung des Finanzsektors in Makromodellen eine größere Beachtung geschenkt wurde, siehe z. B. Brunnermeier et al. (2011) und Adrian und Shin (2011). https://doi.org/10.1515/9783110554861-010

184

Albrecht Michler und Franz Seitz

neue geldpolitische Strategie, die nicht nur für langfristige Preisstabilität, sondern auch für Finanzstabilität sorgt“. Vor diesem Hintergrund wird im zweiten Kapitel zunächst auf die Rolle von Preisstabilität für die Geldpolitik näher eingegangen. Dabei stehen die Messung, der Unterschied zwischen Inflation und Deflation sowie die Wirkungen letzterer im Vordergrund. Daran anschließend werden Finanzmarktentwicklungen im Kapitel 3 kritisch analysiert. Entscheidend ist dabei die Beantwortung der Frage, ob diese Entwicklungen ein zusätzliches Finanzstabilitätsziel der Zentralbanken bzw. der Geldpolitik erfordern. Oder ob dies nicht besser durch eine von der Geldpolitik (und anderen Politikbereichen) unabhängige Bankenaufsichtsinstitution abgedeckt werden sollte. Die wesentlichen Aspekte und Schlussfolgerungen werden im letzten Abschnitt zusammengefasst.

2 Inflation, Deflation und Preisstabilität Seit den 80er Jahren des vergangenen Jahrhunderts und den negativen Erfahrungen mit hohen Preissteigerungsraten galt es eigentlich als Konsens, dass sich die Geldpolitik zuvorderst um Preis(niveau)stabilität kümmern sollte. Unterstützt wurde dies durch spätere Arbeiten mit Echtzeitdaten, die vor allem für den Fall der USA herausarbeiteten, dass die hohen Inflationsraten in den 70er Jahren hauptsächlich auf das Ergebnis einer Geldpolitik zurückzuführen waren, die sich zu sehr auf den nur unzuverlässig ermittelbaren Output Gap konzentrierte (Orphanides, 2001). Auf theoretischer Ebene wurde die Idee von Preisstabilität als primäres Ziel der Geldpolitik im Rahmen der neukeynesianischen Makromodelle neu begründet. Die Instabilität des allgemeinen Preisniveaus ist in diesen Modellen ein guter Indikator für die Ineffizienz der Ressourcenallokation (Woodford 2003).2 Durch Preisstabilität wird dann automatisch auch ein effizientes Outputniveau erreicht, sodass es keinen Zielkonflikt zwischen Preisstabilität und Outputstabilisierung gibt.3 Hinter der Fokussierung auf Preisstabilität als primäres Ziel der Geldpolitik steckt in diesen Modellen also nicht die Idee, dass Schwankungen der Inflationsrate keine realen Effekte nach sich ziehen. Vielmehr wird sie mit den durch die Instabilität des Preisniveaus ausgelösten realen Verzerrungen begründet. Mit der Finanz- und Wirtschaftskrise und vor dem Hintergrund der effektiven nominalen Zinsuntergrenze und propagierter Deflationsgefahren wird von einigen Ökonomen allerdings ge-

2 Zuvor wurde eher auf die Nachteile durch Inflation im Sinne von willkürlicher Vermögenumverteilung, Shoe Leather Costs, Menukosten, Interaktionen mit einem nicht-indexierten Steuersystem, höhere Variabilität relativer Preise etc. verwiesen. 3 Die Preise, die dabei stabilisiert werden sollten, sind vor allem jene, die nur selten angepasst werden, da sie sich mit höherer Wahrscheinlichkeit auf dem falschen (ineffizienten) Niveau befinden können.

Geldpolitik, Preisniveaustabilität und Finanzstabilität

185

fordert, die Zentralbanken sollen von dem Ziel abrücken, und höhere Inflationsraten anstreben (z. B. Blanchard et al. 2010). Daher bietet es sich an, sich mit dem Preisstabilitätsziel sowie den Phänomenen Inflation und Deflation näher auseinanderzusetzen.

2.1 Definition und Messung Unter Inflation versteht man einen kontinuierlichen Anstieg des gesamtwirtschaftlichen Preisniveaus bzw. einen anhaltenden Rückgang der Kaufkraft des Geldes. Dem entsprechend ist Deflation ein kontinuierlicher Rückgang des gesamtwirtschaftlichen Preisniveaus bzw. ein anhaltender Anstieg der Kaufkraft des Geldes. Und Preisstabilität bedeutet dann eben eine dauerhafte Konstanz des gesamtwirtschaftlichen Preisniveaus und der Kaufkraft des Geldes. Temporäre positive oder negative Preisveränderungsraten (z. B. aufgrund von Wechselkursbewegungen oder der Variation indirekter Steuern) stellen also keine Inflation oder Deflation dar. Was wird nun unter einer gesamtwirtschaftlichen Preisgröße verstanden? Relativ eindeutig ist, dass es sich dabei nicht um Einzelpreise handeln kann, sondern alle gesamtwirtschaftlich relevanten Preise eingehen sollten. Üblicherweise, so auch im Euro-Währungsgebiet, in Großbritannien oder den USA, werden dabei Verbraucherpreise zugrunde gelegt. Die Teuerung wird also gemessen auf Verbraucherebene, nicht an anderen Preisgrößen (z. B. den Erzeugerpreisen oder dem BIPDeflator). Dies ist konsistent mit der mikroökonomischen Theorie und marktwirtschaftlichen Grundlagen, nach denen es letztlich auf die Bedürfnisbefriedigung der Konsumenten ankommt. Als statistische Grundlage dient ein Verbraucherpreisindex, da die Öffentlichkeit mit diesem Index vertraut ist, der publizierte Wert nur selten revidiert wird, er hinreichend aktuell und auf Monatsbasis verfügbar ist. Der Verbraucherpreisindex wird in Deutschland vom Statistischen Bundesamt ermittelt und gibt an, wie sich die Ausgabensumme für einen repräsentativen „Warenkorb“ im Zeitverlauf ändert (intertemporale Preismessung). Da hierbei die Verbrauchsmengen über einen bestimmten Zeitraum konstant gehalten werden, zeigt ein solcher Index die reine Preisveränderung (Laspeyres-Preisindex). Aktuell werden 300.000 Einzelpreise erhoben, die zu 600 Güterarten zusammengefasst werden. Daraus wird über einen gewichteten Mittelwert die Inflationsrate errechnet. Im Unterschied zum Euro-Währungsgebiet orientiert sich die Fed in den USA nicht am Verbraucherpreisindex, sondern am Deflator der privaten Konsumausgaben. Dadurch wird das Problem der konstanten Konsummengen eines Warenkorbs umgangen. Er ist allerdings nur auf Quartalsbasis verfügbar, was auf der anderen Seite aber den Vorteil hätte, dass man sich unabhängig von kurzfristigen (monatlichen) Ausschlägen machen würde. Für das Euro-Währungsgebiet sind beide Zeitreihen in Abbildung 5 veranschaulicht. Die generelle Entwicklung ist zwar ähnlich. Es gibt aber immer wieder Perioden, in denen beide Reihen deutlicher voneinander

186

Albrecht Michler und Franz Seitz

4 3 2 1 0 –1

HVPI Konsumdeflator

2015

2016

2013

2014

2012

2011

2010

2009

2007

2008

2005

2006

2004

2003

2002

2001

1999

2000

–2

Abb. 5: EWU: Verbraucherpreisindex vs. Deflator der privaten Konsumausgaben (in %) Quelle: EZB.

5 Kerninflation VPI

4 3 2 1 0

2015

2016

2014

2013

2012

2011

2010

2009

2007

2008

2006

2005

2004

2003

2001

2002

2000

1999

–1

Abb. 6: EWU: Headline Inflation vs. Kerninflation (in %) (Quelle: EZB).

abweichen (2008/09, 2011/12). Eine allgemeine Tendenz der Über- oder Unterschätzung durch eine Preisgröße kann jedoch nicht festgestellt werden. In den letzten Jahren unterschied sich die Preisentwicklung gemäß dieser beiden Raten kaum. Man differenziert in einem nächsten Schritt zwischen der gesamten Preisentwicklung (Headline Inflation) und der Kerninflation, bei der bestimmte volatile Komponenten herausgerechnet werden (siehe Abb. 6).4 Die Kerninflationsrate im 4 Siehe zu unterschiedlichen Konzepten zur Berechnung von Kerninflationsraten Vega/Wynne (2003).

Geldpolitik, Preisniveaustabilität und Finanzstabilität

120

187

Ø2010 = 100

115 110 105 100 95 90 Vermögenspreise - alle Länder HVPI - alle Länder

85

Q1 2016

Q1 2015

Q1 2014

Q1 2013

Q1 2012

Q1 2011

Q1 2010

Q1 2009

Q1 2008

Q1 2007

Q1 2006

Q1 2005

80

Abb. 7a: Asset- und Verbraucherpreise in Europa.

120 115 110 105 100 95 90 85 80 75 70

Ø2014 = 100

FvS Vermögenspreisindex Verbraucherpreisindex Produzentenpreisindex 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016

Abb. 7b: Asset- und Güterpreise in Deutschland (Quelle: Immenkötter 2016a, b). Anmerkung: Der Vermögenspreisindex des Flossbach von Storch Research-Instituts erfasst (gewichtet) die Preisentwicklung des Sach- (z. B. Immobilien) und Finanzvermögens (z. B. Einlagen, Aktien und Rentenwerte). In den europäischen Index gehen die Länder Österreich, Belgien, Finnland, Frankreich, Deutschland, Griechenland, Italien, Niederlande, Portugal und Spanien ein.

Euro-Währungsgebiet verläuft definitionsgemäß „glatter“ und war seit 1999 nie negativ. Seit Ende 2013 schwankt sie um einen Wert von 1 %. Es stellt sich allerdings die Frage, warum die gesamtwirtschaftliche Preisentwicklung nur anhand der Preise von Gütern und Dienstleistungen gemessen werden soll. So sind in den letzten Jahren im Euro-Währungsgebiet vor allem die Vermögenspreise gestiegen, während die Verbraucherpreise eher stagnierten (siehe Abb. 7a). Besonders ausgeprägt waren die Preissteigerungen dabei in Deutschland (siehe Abb. 7b). Sollte die Orientierungsgröße für die Geldpolitik nicht umfassender definiert werden und auch Assetpreise, vor allem Aktien- und Rentenkurse sowie

188

Albrecht Michler und Franz Seitz

Immobilienpreise, enthalten? Diese Idee geht bereits auf Irving Fisher (1906) sowie Alchian und Klein (1973) zurück. Da Finanzmarktpreise in der Regel vor den Güterpreisen reagieren, wäre damit auch automatisch ein frühzeitiges geldpolitisches Gegensteuern verbunden. Bei der Konzentration auf Güterpreise wird Assetpreisen im Prinzip ein Gewicht von Null verliehen. Dadurch reflektiert der Index nur mehr die Preise aktueller Güterkäufe. Werden Zukunftsgüter (Assetpreise) nicht berücksichtigt, fallen die Begriffe Inflation (Deflation) und abnehmender (zunehmender) Geldwert auseinander. Rösl und Tödter (2015) haben in diesem Zusammenhang mit dem Konzept der effektiven Inflationsrate (πeff ) ein Maß entwickelt, um den bereits heute realisierten Anstieg der Preise für den Zukunftskonsum zu berücksichtigen. Die Autoren gehen von einem Haushalt mit einem Finanzvermögen aus, das er auf verzinsliche Anlageformen (mit Anteil β) und unverzinste Bestandteile (Bargeld und Sichteinlagen) aufteilt. Dann ergibt sich als ex-post Realzins nach Steuern (r)

r​ =

i​β​ (1 − τ​) − π​ , 1 + π​

(1)

wobei i der Nominalzins, π die Inflationsrate und τ der Steuersatz auf Kapitalerträge ist. Welchen zukünftigen Konsum kann man nun mit dem Finanzvermögen realisieren? Dies hängt sowohl von der aktuellen Inflationsrate als auch vom Ertrag des verzinslich angelegten Vermögens ab. Für die effektive Inflationsrate πeff ergibt sich dann (Rösl und Tödter, 2015, 46) π​ e​f​f​ = −

r​ π​ − i​β​ (1 − τ​) = ≈ π​ − θ​i​, mit θ = β(1 − τ) . 1 + r​ 1 + i​β​ (1 − τ​)

(2)

Die für den künftigen Konsum relevante effektive Inflationsrate ergibt sich also aus der aktuellen Inflationsrate minus einer „Warteprämie“ für aufgeschobenen Konsum. Bei sinkenden Nominalzinsen (und somit steigenden Kursen) wird die Warteprämie kleiner und die effektive Inflationsrate kann trotz unveränderter aktueller Inflationsrate ansteigen. Dabei ist der bereits heute realisierte Anstieg der Preise für den Zukunftskonsum mitberücksichtigt. Goodhart (2001) zeigt theoretisch, dass die Wohlfahrtsverluste durch Inflation reduziert werden können, wenn die Geldpolitik versucht, Preisstabilität anhand eines Index zu erreichen, der auch Finanzmarktpreise enthält. In der Praxis scheitert dieses Vorhaben allerdings an ungeklärten Gewichtungsfragen und des Problems der Definition einer gleichgewichtigen Preissteigerungsrate für Assets. Als Konsequenz wird deshalb in der Regel die Güter- und Finanzmarktseite getrennt betrachtet. Für die geldpolitische Praxis bedeutet dies eine fast ausschließliche Konzentration auf irgendeine Art von Verbraucherpreisindex. Dabei wird in der Regel nicht

Geldpolitik, Preisniveaustabilität und Finanzstabilität

189

eine gemessene Inflationsrate von Null angestrebt, sondern eine positive Toleranzschwelle von bis zu 2 % akzeptiert. So strebt das Eurosystem eine Inflationsrate – gemessen am harmonisierten Verbraucherpreisindex – von unter, aber nahe 2 % an.5 In diesem Sinne wurden die mit einer (geringen) Inflationierung verbundenen Kosten vom Eurosystem niedriger eingestuft als die Risiken, die in einem Niedriginflationsumfeld oder bei Deflation auftreten. Letztere basieren auf folgenden Argumenten: – Der Verbraucherpreisindex basiert auf einem festen Warenkorb, was die Berechnung der tatsächlichen Preisniveauentwicklung erschwert und tendenziell zum Ausweis überhöhter Inflationsraten führt. Eine Inflationsrate von Null würde de facto bereits eine deflationäre Entwicklung signalisieren und das Risiko der fehlerhaften Inflationsmessung bestünde darin, dass die Geldpolitik nicht ausreichend expansiv ausgerichtet wird. Während vor und in der Anfangszeit der Währungsunion dieses Argument berechtigt war, führten statistische Verbesserungen bei der Preismessung allerdings dazu, dass es im EuroWährungsgebiet nur mehr wenig stichhaltig ist. So werden inzwischen beispielsweise die Gewichtungsschemata jährlich angepasst und Qualitätsänderungen mit Hilfe hedonistischer Verfahren berücksichtigt. – Reallohnsenkungen als Anpassungsinstrument bei negativen Schocks werden in einem Umfeld niedriger Inflationsraten erschwert, da die Arbeitnehmervertreter Nominallohnsenkungen in der Vergangenheit nicht akzeptierten. Anpassungen im Verhalten von Tarifparteien auf ein verändertes Preisumfeld werden bei dieser Argumentation allerdings ausgeschlossen. – Durch den Puffer einer positiven Inflationsrate sollen Deflationsgefahren verhindert werden. Damit wären wir schon bei dem Problemkreis „Deflation“, der in den letzten Jahren nicht nur im Euro-Währungsgebiet, sondern z. B. auch in den USA, Großbritannien, Japan und der Schweiz die geldpolitische Diskussion stark prägte.

2.2 Deflation − Theorie und Empirie: The Good, the Bad and the Ugly Bei Deflation geht es, wie gesagt, um einen anhaltenden Rückgang des gesamtwirtschaftlichen Preisniveaus. Schauen wir uns dafür die Preisentwicklung über einen längeren Zeitraum in unterschiedlichen Währungsgebieten anhand der Verbraucherpreise (Abb. 8) und des BIP-Deflators (Abb. 9) an.

5 Die zunächst gewählte Formulierung einer Zunahme unter 2 % wurde im Rahmen der Strategieüberprüfung im Jahr 2003 vor dem Hintergrund der damaligen gedämpften wirtschaftlichen Entwicklung in dieser Hinsicht temporär abgeändert bzw. konkretisiert. Offiziell wurde aber die zuerst gewählte Spezifikation nie aufgegeben.

190

Albrecht Michler und Franz Seitz

25 D UK

20

CH US

J EWU

15 10 5 0 –5 –10 –15 1920 1930 1940 1950 1960 1970 1980 1990 2000 2010 Abb. 8: Verbraucherpreise international (in %) (Quelle: EZB; nationale Statistiken).

30

20

10

0 D J US

–10

–20 1930

1940

1950

1960

1970

1980

1990

2000

CH UK EWU 2010

Abb. 9: Preisentwicklung international anhand des BIP-Deflators (in %) (Quelle: EZB; IWF; nationale Statistiken).

Zunächst einmal zeigt die Verbraucherpreisentwicklung in Abbildung 8, dass anhaltende und deutliche Preisrückgänge nur in den 20er und 30er Jahren des letzten Jahrhunderts auszumachen sind. Die Preise sanken jahrelang und zum Teil mit zweistelligen Raten. Dies verbindet man üblicherweise mit den negativen Eigenschaften einer Deflation. Im 21. Jahrhundert kann man dagegen höchstens temporär und dann auch nur schwach ausgeprägte Preissenkungen feststellen. Nicht einmal während der weltweiten Rezession 2009 waren größere Preisrückgänge zu beobachten. Was man ausmachen kann, ist über alle Länder hinweg jedoch ein

Geldpolitik, Preisniveaustabilität und Finanzstabilität

Veränderung gegenüber Vorjahr in % +20

191

HVPI insgesamt HVPI insgesamt ohne Energie Energie

+15 +10 +5 0 –5 –10 –15 2007

2008

2009

2010

2011

2012

2013

2014

2015

2016

Abb. 10: Verbraucherpreise im Euroraum (in %) (Quelle: Deutsche Bundesbank).

rückläufiger Trend in den Inflationsraten. Beim BIP-Deflator sieht die Situation ähnlich aus. Nur im Falle Japans waren über eine Dekade lang rückläufige Preise im Ausmaß von bis zu –2 % feststellbar. Seit zwei Jahren sind allerdings auch dort wieder positive Preissteigerungsraten vorhanden. Bis auf das Jahr 2009 war das Wirtschaftswachstum in allen betrachteten Währungsgebieten allerdings auch bei sinkenden Preisen in der überwiegenden Mehrzahl der Fälle positiv. Wenden wir uns nun stellvertretend und für eine nähere Analyse dem Euroraum zu. Aus den Abbildungen 5 und 6 wissen wir bereits, dass es seit Bestehen der Währungsunion nur zwei Phasen geringfügig sinkender Preise gab: 2009 und 2015/16. Ansonsten herrschten positive Inflationsraten vor. Die Kerninflation, die den Inflationstrend abbilden soll, war seit 1999 noch nie im negativen Bereich. Um eine tiefer gehende Ursachenanalyse für die Preisrückgänge durchzuführen, bietet es sich an, den Verbraucherpreisindex in Unterkategorien zu zerlegen. Abbildung 10 zeigt, dass beide Phasen gekennzeichnet waren durch rückläufige Energiepreise. Die HVPI-Rate ohne Energie war dagegen stets positiv. Während dahinter 2009 der weltweite Konjunktureinbruch stand, durch den auch die Energienachfrage zurückging, dominierten 2015/16 eher die Ausweitung der Fördermengen an Öl und Gas (Angebotseffekt). Anhand Abbildung 11 ist zudem erkenntlich, dass seit 2014 eigentlich ausschließlich die Energiepreise zurückgingen. Sowohl die Nahrungsmittel- und Dienstleistungspreise als auch die Industrieerzeugnisse nahmen, wenn auch auf niedrigem Niveau, zu. Die Energiepreise sind geldpolitisch allerdings kaum, zumindest kurz- bis mittelfristig, zu beeinflussen. Dies bekräftigte

192

Albrecht Michler und Franz Seitz

(Veränderung gegen Vorjahr in %; Beiträge in Prozentpunkten) 3.5 3.0 2.5 2.0 1.5 1.0 0.5 0.0 –0.5 –1.0 –1.5 –2.0 2010

HVPI Nahrungsmittel Energie

2011

2012

2013

2014

2015

Industrieerzeugnisse ohne Energie Dienstleistungen

2016

Abb. 11: Beiträge ausgewählter Komponenten zu Gesamtinflation im Euroraum (in %) (Quelle: EZB).

im Vorfeld der Finanz- und Wirtschaftskrise die EZB auch immer wieder.6 Sie änderte jedoch ihre Meinung im Gefolge der Staatsschuldenkrise, indem sie fast mantrahaft in Pressekonferenzen, Reden und Veröffentlichungen auf die Gefahren einer Deflation verwies, die es zu bekämpfen gäbe. Durch die Heterogenität der Länder kommt in der EWU noch ein weiterer Aspekt hinzu. So wurden von den Krisenländern in Südeuropa und Irland Reformmaßnahmen sowohl politisch verlangt als auch durch die Marktkräfte zur Wiedergewinnung von internationaler Wettbewerbsfähigkeit ausgelöst. Innerhalb einer Währungsunion laufen diese Prozesse vor allem über Lohn- und Preissenkungen ab (siehe Abb. 12). Werden die Reformen umgesetzt, ist davon ein positiver Effekt für die einzelnen Länder, aber auch für die Währungsunion insgesamt zu erwarten. So bleibt insgesamt ein ambivalenter Eindruck zurück. Auf der einen Seite hat man die positiven Effekte einer Deflation durch angebotsgetriebene Energiepreissenkungen und umgesetzte Reformmaßnahmen zu konstatieren. Auf der anderen Seite stehen aber die negativen Effekte der weltweiten Rezession des Jahres 2009 bei fallenden Preisen zu Buche. Damit sind wir bei den eigentlichen Ursachen einer Deflation und der Unterscheidung zwischen einer „guten“ und einer „schlechten“ Deflation angelangt (Borio, Erdem et al. 2015). Die wirtschaftspolitische Diskussion wird dabei seit Jahrzehnten geprägt von der „schlechten“ Deflation, mit der negative gesamtwirtschaftliche Effekte verbunden sind. Diese ist nachfragegetrieben und führt durch die ausgelöste Rezession zu Outputverlusten. Typische Beispiele dafür sind die Weltwirtschaftskrise Ende der 20er / Anfang der 30er Jahre des letzten Jahrhunderts und die weltweite Rezes-

6 Siehe z. B. die Ausführungen im Editorial des Monatsberichts vom Februar 2005, in dem festgestellt wurde (EZB, 2005, 5): „Zwar unterliegen die kurzfristigen HVPI-Inflationsraten insbesondere im Hinblick auf die Ölpreise weiterhin gewissen Schwankungen, doch gibt es keine deutlichen Anzeichen dafür, dass sich im Euro-Währungsgebiet ein binnenwirtschaftlicher Preisdruck aufbaut. Daher hat der EZB-Rat die Leitzinsen unverändert auf ihrem historisch niedrigen Stand belassen.“

Geldpolitik, Preisniveaustabilität und Finanzstabilität

193

Inflationsraten*) im Vergleich in% +6 +5 +4 +3 +2 +1 0 –1 –2 –3

Spanien Italien Frankreich Irland Finnland Deutschland 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 *) Harmonisierte Verbraucherpreisindizes (HVPI), Veränderung gegenüber Vorjahr.

Abb. 12: Nationale Inflationsraten im Euroraum (Quelle: Deutsche Bundesbank).

sion des Jahres 2009. Sie führt zu einem Teufelskreis von Kaufzurückhaltung, Verfestigung und Entankerung der Deflationserwartungen, steigenden Realzinsen (die vor allem an der effektiven Zinsuntergrenze ein Problem darstellen), steigenden Reallöhnen und einer zunehmenden realen (privaten und öffentlichen) Schuldenlast. Es kommt in einer derartigen Situation im Allgemeinen zu verschärften Problemen für Unternehmen (rückläufiger Absatz und Gewinn, Insolvenzen), hoher Arbeitslosigkeit und ausgeprägten Lohnsenkungsrunden. Auf der anderen Seite gibt es aber auch eine „gute“ Deflation. Sie ist angebotsgetrieben, indem sich die Angebotsbedingungen für die Unternehmen durch Produktivitätssteigerungen oder günstige Kostenstrukturen verbessern. Typische Beispiele sind die Energiepreissenkungen (importierte Inputs) der letzten Jahre, die starken Produktivitätszuwächse der deutschen Wirtschaft in der zweiten Hälfte der 80er Jahre oder der Einfluss der Globalisierung und die Rolle des Internets. Die Folge sind nicht Outputverluste, sondern eine boomende Konjunktur bei sinkenden Preisen. Es bestehen also Interdependenzen zwischen den Ursachen und Wirkungen der Deflation. Die These, dass Deflation immer und überall mit Nachteilen für eine Volkswirtschaft verknüpft ist, ist zu undifferenziert und kann in dieser Form keine Allgemeingültigkeit beanspruchen. Vor diesem Hintergrund hat sich die Bank für Internationalen Zahlungsausgleich die Mühe gemacht, von 1880 bis 2013 für 38 Länder alle (temporären und persistenten) Deflationsperioden zu analysieren (Borio, Erdem et al. 2015). Als generelle Schlussfolgerungen ergaben sich aus der Studie

Albrecht Michler und Franz Seitz

Gesamter Zeitraum

Klassischer Goldstandard

Zwischenkriegszeit

Nachkriegszeit

20 10 0 –10 –20 –30 –30 –20 –10

–30 –20 –10

–30 –20 –10

–30 –20 –10

Deflation

Deflation

Deflation

Deflation

Reales BIP-Wachstum pro Kopf

194

Abb. 13: Korrelation zwischen BIP-Wachstum und Deflation (Quelle: Borio/Erdem/Filardo/Hofmann (2015), 35).

Gesamter Zeitraum 0.8 – 2.1 = –1.3*** (48)

Klassischer Goldstandard 110

1.1 – 1.7 = –0.6 (32)

Zwischenkriegszeit 110

–0.6 – 3.0 = –3.6*** (12)

Nachkriegszeit 110

2.9 – 2.6 = 0.3 (4)

110

100

100

100

100

90

90

90

90

80

80

80

80

70

70

70

70

–5–4–3–2–1 0 1 2 3 4 5 Jahre relativ zum Höchstpunkt

–5–4–3–2–1 0 1 2 3 4 5 Jahre relativ zum Höchstpunkt

–5–4–3–2–1 0 1 2 3 4 5 Jahre relativ zum Höchstpunkt

–5–4–3–2–1 0 1 2 3 4 5 Jahre relativ zum Höchstpunkt

CPI

Reales BIP pro Kopf

Abb. 14: Outputkosten persistenter Deflationen (Quelle: Borio (2016), 223). Anmerkung: Die Zahlen geben 5-Jahres-Durchschnitte des realen BIP pro Kopf vor und nach Preishöchstständen an; */**/***: Ablehnung der Nullhypothese gleicher Mittelwerte auf dem 10-, 5- bzw. 1-Prozentniveau.







Der Zusammenhang zwischen Wirtschaftswachstum und Deflation ist eher schwach. In der Nachkriegszeit geht Deflation in der Mehrzahl der Fälle mit einer positiven Wirtschaftsentwicklung einher (siehe Abb. 13). Die empirische Evidenz (und die Deflationsliteratur) wird vor allem durch eine Beobachtung dominiert, die Weltwirtschaftskrise Ende der 20er / Anfang der 30er Jahre des letzten Jahrhunderts, bei der es sich eindeutig um eine „schlechte“ Deflation handelte (siehe Abb. 14). Die negativen Effekte einer Deflation sind wahrscheinlicher, wenn Güterpreisdeflation mit Assetpreisdeflation (vor allem auf Immobilienmärkten) zusammenfällt. Kontrolliert man Assetpreisbewegungen, wird der Zusammenhang zwischen Deflation und Wachstum lockerer.

195

Geldpolitik, Preisniveaustabilität und Finanzstabilität

Marktbasierte und umfragebasierte langfristige Inflationserwartungen 3,1

% p.a.

2,6 2,1 1,6 1,1 0,6 2002 03

04

05

06 1

07

Break-even-Inflationsrate bereinigte Break-even-Inflationsrate3

08

09

10

11

12

13

14

15

2016

umfragebasierte Inflationserwartungen (SPF)2 implizite Inflationserwartungen4

Abb. 15: Inflationserwartungen im Euroraum (Quelle: Sachverständigenrat (2016), 203). 1 Zehnjährige Break-even-Inflationsrate. 2 SPF (Survey of Professional Forecasters), Erwartungen zur Inflation in fünf Jahren. 3 Von Hördahl und Tristani berechnete bereinigte 10-jährige Break-even-inflationsrate um Liquiditäts- und Inflationsrisikoprämien. 4 Implizierte Inflationserwartungen über die nächsten zehn Jahre aus dem Modell von Hördahl und Tristani. Diese würden mit den bereinigten Break-even-Inflationsraten übereinstimmen, wenn alle Messfehler der Renditen bei Null lägen.



Es gibt keine Evidenz für einen Negativspirale zwischen Deflation und den realen Schulden.

Im Detail unterteilen die Autoren ihr Sample in drei Phasen: den klassischen Goldstandard von 1870–1913, die Zwischenkriegszeit von 1920–1938 und die Nachkriegszeit von 1947–2013. Insgesamt identifizierten sie 3.014 Inflations- und 663 Deflationsperioden. Von ersteren fallen fast 80 %, von letzteren dagegen nur knapp 20 % in die Nachkriegszeit. Die durchschnittliche Deflationsdauer betrug 2,2 Jahre und die entsprechende Deflationsrate 3,9 %. Die größten Werte waren in der Zwischenkriegszeit feststellbar (2,9 Jahre; 5 %), die niedrigsten in der Nachkriegszeit (1,5 Jahre; 1,9 %). Persistente Deflationen gab es 66, davon nur 4 in der Nachkriegszeit.7 Während dabei in der Zwischenkriegszeit die durchschnittliche Deflationsrate noch bei 4 % lag, ging sie in der Nachkriegszeit auf 0,6 % zurück. Auch bei den persistenten Deflationen resultiert nur in der Depression der Weltwirtschaftskrise ein signifikant negativer Outputeffekt (siehe Abb. 14). Als vorläufiges Fazit gilt es somit festzuhalten: 1. Finanzmarktpreise sollten im Sinne einer gesamtwirtschaftlichen und intertemporalen (langfristigen) Betrachtungsweise bei der Beurteilung der Preisper-

7 Diese sind definiert als Deflationsperioden, in denen das Preisniveau kumuliert mindestens über einen 5-Jahres-Zeitraum sinkt.

196

2.

3.

Albrecht Michler und Franz Seitz

spektiven berücksichtigt werden. Der Aufnahme in einen Preisindex stehen allerdings in der Praxis schwierige Umsetzungsprobleme entgegen. Da weltweit vor jeder Finanzkrise das Geldmengen- und Kreditwachstum zu stark ausfiel (siehe z. B. Schularick & Taylor, 2012), bietet es sich an, auf diese Größen (wieder) größeres Augenmerk zu legen. Eine Deflation ist zuvorderst positiv zu beurteilen. Dies rechtfertigt eine asymmetrische Sichtweise, d. h. Deflation, vor allem bei geringen Raten, sollte geldpolitisch zunächst toleriert werden. Aufkommende Inflationsgefahren dagegen sollten wegen ihrer negativen Wirkungen stets bekämpft werden. Aktuell (2014–2016) ist im Euro-Währungsgebiet (und nicht nur dort), wenn überhaupt, von einer guten Deflation auszugehen. Von einer Verfestigung und Entankerung von Deflationserwartungen kann keine Rede sein (siehe Abb. 15). Sowohl die umfragebasierten als auch die aus Finanzmarktpreisen abgeleiteten langfristigen Inflationserwartungen liegen seit Jahren zwischen 1,5 und 2 %. Auch sind breit angelegte Lohnsenkungsrunden nirgendwo durchgesetzt worden. Unter Berücksichtigung von Assetpreisen und der extrem lockeren Geldpolitik ist langfristig eher von Inflationsgefahren auszugehen.

3 Finanzmarktentwicklungen und Finanzstabilität 3.1 Veränderte Rahmenbedingungen auf den Finanzmärkten In den letzten fünf Dekaden war die Finanzindustrie durch gravierende Transformationsprozesse geprägt: wurden die Intermediationsleistungen der Branche zuvor durch den Bankensektor dominiert, erfolgte die Bereitstellung von Finanzdienstleistungen nun zunehmend über eine Vielzahl unterschiedlicher Kanäle. Für diese Entwicklung lassen sich drei Kernfaktoren identifizieren, die sich einerseits gegenseitig bedingen, andererseits aber auch unabhängig voneinander wirken: (i) technischer Fortschritt, (ii) ein verändertes wirtschaftspolitisches Verhalten gegenüber den Finanzmärkten und (iii) ein deutlicher Anstieg des Einkommens sowie der Vermögen in vielen Ländern.

Technischer Fortschritt Der technische Fortschritt spiegelt sich nicht nur in verbesserten Kommunikationsmöglichkeiten und leistungsfähigeren Rechnersystemen wider, sondern auch in einer signifikanten Kostenreduktion für Kommunikationsdienste, für die Informationsbeschaffung, für Computerleistungen und Datenspeicherungen. Die sinkenden Transaktionskosten erhöhten den Integrationsgrad zwischen einzelnen Finanzmarktsegmenten, beseitigten bestehende Preisdivergenzen und beschleunigten Arbitrageprozesse. Eine weitere Folge des Fortschritts war die Etablierung innovativer

Geldpolitik, Preisniveaustabilität und Finanzstabilität

197

Finanzinstrumente, insbesondere derivativer Instrumente, deren Bewertung zuvor noch an fehlenden Rechnerleistungen gescheitert wäre. Schließlich hat die Nutzung des Internets das Wettbewerbsumfeld der Finanzmarktakteure nachhaltig verändert, indem beispielsweise traditionelle Intermediationsketten durch neue Absatzkanäle ergänzt oder ersetzt wurden. Disruptive Innovationen wie die BlockChain-Technologie gefährden verwaltende oder beglaubigende Instanzen (wie Kreditinstitute), da die Verifizierbarkeit und Nichtveränderlichkeit von beliebigen Informationen (Buchungen, Kaufverträge, Grundbucheinträge etc.) in der Technologie sowie der Systemarchitektur verankert und damit systemimmanent sind.8 Block Chain ist die technische Basis für sogenannte Kryptowährungen (z. B. Bitcoin, Ethereum oder Ripple), kann aber ggf. darüber hinaus in verteilten Systemen zur Verbesserung/Vereinfachung der Transaktionssicherheit im Vergleich zu zentralen Systemen beitragen.

Verändertes wirtschaftspolitisches Verhalten Seit Beginn der 1970er Jahre hat sich die Wirtschaftspolitik gegenüber dem Finanzsystem in vielfältiger Weise verändert, wobei die Anpassungen häufig als reine „Deregulierung“ wahrgenommen werden, wie die Aufhebung des Trennbankensystems in den USA, die Beseitigung von Kapitalverkehrsbeschränkungen oder die Zulassung neuer Finanzinstrumente. Die wirtschaftspolitischen Maßnahmen spiegelten allerdings vielfach lediglich die Reaktionen auf ein sich rasch veränderndes Marktumfeld wider und zielten nicht auf eine Stärkung der Marktkräfte ab. Regulierungsmaßnahmen mit unbeabsichtigten Auswirkungen waren häufig das Ergebnis kurzfristiger Stresssituationen auf den Finanzmärkten. Die veränderten wirtschaftspolitischen Rahmenbedingungen waren nicht nur durch ordnungspolitische Eingriffe, sondern auch durch eine Neuausrichtung der prozesspolitischen Maßnahmen gekennzeichnet. Die keynesianisch geprägte, nachfrageorientierte Wirtschaftspolitik konnte in den beiden ersten Dekaden nach dem zweiten Weltkrieg das Wirtschaftswachstum weitgehend inflationsfrei sicherstellen. Der internationale Güter- und Kapitalverkehr wurde durch das Fix-Kurssystem von Bretton Woods dominiert: die Ausgestaltung des Wechselkurs-Regimes ermöglichte lediglich den USA eine unabhängige Geldpolitik. Andere Notenbanken hatten aufgrund der Interventionsverpflichtungen erheblich weniger Freiheitsgrade. Nach dem Zusammenbruch des Fixkurssystems im März 1973 – der durch die steigenden Inflationsdivergenzen zwischen den USA und den anderen Ländern

8 Eine einheitliche, durch kryptographische Verfahren nachträglich nicht veränderbare Datenbasis (Ledger) ist auf einer Vielzahl von Rechnern verteilt und dezentral gespeichert. Sie dient als zentrale, verifizierende Auskunftsquelle für den Nachweis gespeicherter Informationen und ist durch die Kombination aus Verschlüsselung und ihrem massiv verteilten Charakter nachträglich nicht modifizierbar.

198

Albrecht Michler und Franz Seitz

ausgelöst wurde – erhöhte sich der Spielraum vieler Notenbanken, einen stabilitätsorientierteren Kurs monetaristischer Provenienz umzusetzen. Mithilfe einer verbindlichen und glaubwürdigen Geldpolitik sollte ein inflationsfreies Umfeld geschaffen werden, ohne dass es zu gravierenden realwirtschaftlichen Folgen kommt. Der Fokus der Notenbanken lag nun auf der Absicherung der Preisniveaustabilität. Die Neuausrichtung der Geldpolitik führte zu nachhaltigen Disinflationsprozessen in den wichtigsten Industrieländern und zu sinkenden Nominalzinssätzen, insbesondere am langen Ende der Laufzeitstruktur (Michler und Smeets 2013). Parallel war aber auch ein Rückgang des Realzinsniveaus zu beobachten. Hierfür lässt sich eine Reihe von Faktoren (Group of Ten 1995) – wie der sukzessive Rückgang des Wirtschaftswachstums in den Industrieländern – anführen. Aber auch der Rückgang der Unsicherheiten über den künftigen Anpassungspfad der Inflationsraten (sinkende Inflationsvolatilitäten infolge sinkender Inflationsraten) kann als Begründung für das sinkende (Real-)Zinsniveau – aufgrund rückläufiger Inflationsrisikoprämien – herangezogen werden. Da in einem Umfeld moderater Preisniveauänderungsraten ein Inflationsausgleich nur in den langen Laufzeitbereichen vollständig eingepreist ist, führten die Disinflationsprozesse zu einem asymmetrischen Absinken der Zinssätze entlang des Laufzeitenbandes und – bedingt durch die Fristentransformation – zugleich zwischen den Zinssätzen auf der Aktiv- und der Passivseite der Kreditinstitute. Der stärkere Zinsrückgang in den längeren Laufzeiten bzw. auf der Aktivseite der Bankbilanzen führte zu einer Abflachung der zeitlichen Zinsstruktur sowie der Zinsspannen bei den Kreditinstituten. Der stabilitätsorientiertere Kurs vieler Zentralbanken darf allerdings nicht darüber hinwegtäuschen, dass die Geldpolitik – insbesondere in Ländern, deren Notenbank eine Mehrzielorientierung aufwies (siehe Görgens, Ruckriegel und Seitz 2008) bzw. nicht hinreichend unabhängig war – weiterhin einem diskretionären und damit unstetigen Kurs folgte.

Zunahme des weltweiten Finanzvermögens Bis Anfang der 1980er Jahre des letzten Jahrhunderts stieg das weltweite Finanzvermögen mit der gleichen Geschwindigkeit wie die reale Wirtschaft. Ausnahmen bildeten lediglich die Kriegsphasen mit dem erhöhten Finanzierungbedarf der Staaten. Seitdem ist eine deutliche Abkoppelung von der realwirtschaftlichen Entwicklung zu beobachten. Wesentliche Determinanten bis zum Beginn der Finanzkrise 2007/2008 war die Entwicklung auf den Aktienmärkten und die private Verschuldung. Die nicht-finanziellen Unternehmen und Kreditinstitute waren verstärkt zur Außenfinanzierung ihrer Geschäftsaktivitäten übergegangen. Mit dem steigenden Finanzvermögen nahm die Bedeutung großer Kapitalsammelstellen zu. Neben traditionellen Pensions- und Investmentfonds tauchten neue institutionelle Teilnehmer auf den Märkten auf. Hedge Funds existierten zwar seit Ende der

Geldpolitik, Preisniveaustabilität und Finanzstabilität

199

1940er Jahre, dennoch nahm ihre Bedeutung erst in den achtziger Jahren zu. Diese Entwicklung wurde in vielen Ländern durch Deregulierungen begünstigt. Ähnliches lässt sich auch für Private-Equity-Unternehmen formulieren. Die zunehmende Bedeutung von Staatsfonds auf den internationalen Finanzmärkten ist hingegen das Nebenprodukt der globalen Ungleichgewichte bzw. der hohen internationalen Kapitalströme.

3.2 Reaktionen des Finanzsektors auf die veränderten Rahmenbedingungen Alle Anpassungsprozesse auf den Finanzmärkten führten zu einem verschärften Wettbewerbsumfeld und zu einer nachhaltigen Veränderung der Risikostrukturen von Finanzinstituten, respektive im Bereich der traditionellen Intermediationsleistungen von Banken. Die Intermediationsleistungen in Form der Fristen-, Größenund Risikotransformation spiegelte sich in den Spreads zwischen den Kredit- und den Einlagenzinsen wider. Das Absinken der langfristigen Real- und Nominalzinsen führte zu einer trendmäßigen Einengung der Zinsspanne, die insbesondere bei einer phasenweisen Straffung der Geldpolitik noch verschärft wurde. Insgesamt stieg die Sensibilität der Finanzmärkte gegenüber geldpolitischen Eingriffen an. Die Finanzinstitute sahen sich zunehmend gezwungen, ihre traditionellen Wettbewerbsstrategien zu überdenken und ihre Geschäftsmodelle nicht mehr allein an den Zinseinnahmen auszurichten. Wie in anderen Branchen sind auch in der Finanzindustrie unterschiedliche Anpassungsstrategien denkbar; neben einer allgemeinen oder segmentspezifischen Verbesserung der Preis/Kosten-Relationen boten sich Differenzierungsstrategien an (siehe Darstellung bei Michler und Smeets 2013). Eine reine Qualitätsführerschaft lässt sich hingegen in der Finanzindustrie in vielen Bereichen nur bedingt realisieren. Sicherlich gestatten spezielle Expertisen eine temporäre Monopolstellung bei der Bereitstellung neuer Produkte. Andererseits ist die Imitationsgeschwindigkeit im Finanzsektor extrem hoch. Ein erfolgreich im Markt platziertes Finanzprodukt lässt sich durch Wettbewerber vergleichsweise einfach und kostengünstig nachbilden und kurzfristig auf den Markt bringen. Folgerichtig konzentrierten sich die meisten Finanzinstitute auf eine Verbesserung ihrer Preis/Kosten-Relationen: (i) durch die Beseitigung vorhandener X-Ineffizienzen, (ii) durch die Nutzung von Skaleneffekten und Verbundvorteilen, (iii) durch die Nutzung der Regulierungsarbitrage, (iv) durch die Übernahme neuer Risiken sowie (v) durch die (gezielte) Ausnutzung von Informationsasymmetrien. Für eine nachhaltige Verbesserung der Ertragssituation waren in vielen Kreditinstituten eine systematische Ausnutzung der unterschiedlichen „Regulierungsdichte“ und der Aufbau von Schattenbanksystemen erforderlich. In der Abbildung 16 ist die zeitliche Entwicklung des internationalen Schattenbankensystems (das 21 Jurisdiktionen sowie die Eurozone umfasst) anhand der OFIs (Other Finan-

200

Albrecht Michler und Franz Seitz

Prozent

Wachstum der OFIs, %

Bio. USD

linke Seite in Bio. USD

Assets von OFIs

rechte Seite in Prozent des BIPs

BIP-Wachstum, % Industrieländer

Schwellenländer

Wachstumsraten im Jahr 2015

Abb. 16: Entwicklung des internationalen Schattenbankensektors (Quelle: Financial Stability Board 2017: 16).

cial Intermediaries) ab 2002 abgebildet.9 Nach einem zwischenzeitlichen Einbruch während der Finanzkrise 2007/2008 und einer Schwächeperiode in 2011 wächst der Sektor weiter an und hat im Jahr 2016 mit ca. 150 v. H. des BIPs das Vorkrisenniveau deutlich überschritten. In den Zeiten stark schwankender Inflationsraten mit entsprechend stark ausgeprägten Zinsstrukturen und -spannen bei den Banken konnten sich die Kreditinstitute auf die Ausnutzung der Inflations- und Zinszyklen konzentrieren. Asymmetrische Anpassungsreaktionen bei geldpolitischen Maßnahmen (Aktivzinsen werden bei Leitzinserhöhungen schneller angepasst als Passivsätze; Passivzinsen werden bei Leitzinssenkungen schneller reduziert als Aktivsätze) konnten die Ertragslage weiter verbessern. Mithilfe eines professionellen Eigendepot-Managements waren die Banken zudem in der Lage, von Kursgewinnen bei Anleihen in Zinssenkungsphasen zu profitieren. In einem anhaltenden Niedriginflationsumfeld mit einhergehenden Niedrigzinsen entfallen diese Renditekomponenten. Eine Verbesserung der Renditeaussichten ist nur dann möglich, wenn die Akteure auf den Finanzmärkten bereit sind mehr Risiken einzugehen. Anstatt der Bepreisung des Inflationsrisikos stehen künftig Bonitäts-, Liquiditäts-, Länder- oder Laufzeitprämien im Fokus. Das Risikomanagement ist in einem solchen Anlageumfeld deutlich schwieriger als in der Vergangenheit, in der man sich auf das makroökonomische Inflationsrisiko konzentrieren konnte.

9 Unter den OFIs werden alle Finanzintermediäre zusammengefasst, die nicht als Bank, Versicherungsunternehmen, Pensionsfonds, öffentliche Finanzinstitution, Zentralbank oder unterstützende Institution klassifiziert sind. Die OFIs lassen sich als konservative Approximation für eine breite Abgrenzung des Schattenbankensektors heranziehen (Financial Stability Board 2017, Box 0–1, S. 2).

Geldpolitik, Preisniveaustabilität und Finanzstabilität

201

3.3 Finanz(markt)stabilität und die aktuelle Situation auf den Finanzmärkten Es gibt in der Literatur keine allgemein akzeptierte Definition von Finanz(markt)stabilität. Im einfachsten Fall könnte man eine fehlende Stabilität an jenen Zeiträumen festmachen, die durch eine Finanzkrise gekennzeichnet sind. Dabei sind Finanzkrisen geprägt durch (i) scharfe Kurskorrekturen bei Vermögenspreisen, (ii) durch deutliche Korrekturen bei den Renditemomenten (steigende Volatilitäten), (iii) durch einen signifikanten Rückgang des aggregierten Kreditvolumens, (iv) durch verschärfte Liquiditätsbedingungen auf den Märkten, (v) durch eine reduzierte Integrität der Zahlungssysteme, (vi) durch verstärkte Ansteckungsgefahren zwischen den Märkten (Contagion), (vii) durch eingeschränkte Marktfunktionen und (viii) durch Spillover-Effekten, die sich im realen Sektor (Output und Beschäftigung) niederschlagen. Das Fehlen von Finanzkrisen als ausreichendes Kriterium für Finanz(markt)stabilität zu verwenden, erscheint nicht zielführend. Vielmehr sollte der Stabilitätsbegriff darauf abstellen, dass das Finanzsystem seine Schlüsselfunktionen (insbesondere seine Allokationsaufgaben) weitgehend friktionsfrei wahrnehmen und es auftretende finanzielle und realwirtschaftliche Störungen ausreichend absorbieren kann; d. h. das System ist in der Lage exogene und endogene Schocks rasch zu verarbeiten. Die EZB (2006) definiert Finanzstabilität deshalb wie folgt: „Therefore, we can define financial stability as a condition in which the financial system […] is capable of withstanding shocks and the unravelling of financial imbalances, thereby mitigating the likelihood of disruptions in the financial intermediation process which are severe enough to significantly impair the allocation of savings to profitable investment opportunities.” Betrachtet man die aktuelle Situation auf den Finanzmärkten, befinden sich viele Marktteilnehmer insbesondere in der Eurozone gegenwärtig in einem „perfekten Sturm“, der entweder bereits über ihnen ausgebrochen ist (z. B. Banca Monte dei Paschi di Siena) bzw. sich mehr und mehr über ihnen zusammenbraut (siehe Abbildung 17). Im Zuge der Finanz- und Staatsschuldenkrise hat sich die Qualität von Kreditpositionen in den Bankbilanzen sukzessive verschlechtert. Der verstärkte Aufbau von Aktiva-Positionen in Staatsanleihen – der durch die regulatorischen Rahmenbedingungen und die monetären Impulse der EZB begünstigt wurde – birgt im Fall einer sich abzeichnenden Zinswende ein erhebliches Risikopotenzial. Die Finanzmarktteilnehmer müssen sich bei einer sukzessiv einsetzenden geldpolitischen Straffung (z. B. in Form eines Taperings) aber nicht nur auf eine Korrektur auf den Rentenmärkten, sondern auch auf unerwünschte Kursrückgänge auf anderen Märkten (Aktien-, Rohstoff- und Immobilienmärkte etc.) einstellen. Die regulatorischen Vorgaben (Basel III, MIFID II etc.) beschränken nicht nur die traditionellen Geschäftsmodelle, sondern sind bei ihrer Umsetzung mit erheblichen Kosten ver-

202

Albrecht Michler und Franz Seitz

Disruptive Technologien Internet, Blockchain es entstehen neue Intermediationsketten mit neuen Wettbewerbern (FinTechs)

Kreditqualität privater und staatlicher Schuldner verhindert Kreditvegabe; Wiederaufkeimen der Staatsschuldenkrise in den Südländern

Zinsänderungsrisiko Straffung der Geldpolitik (Einleitung des Tapering) erhöht die Risiken von Kursverlusten insbes. bei hohen Beständen und Sovereigns

Banken

Regulatorik Basel III, Mifid II, ... schwächt Ertragslage aufgrund hoher Implementierungskosten und Einschränkung der Geschäftsaktivitäten (Gefahr von Fehlallokationen)

Niedrigzinsumfeld verursacht durch die expansive Geldpolitik belastet die Zinsspannen und schwächt die Ertragslage

Überbewertung Asset Price Inflation verursacht durch die expansive Geldpolitik führt zu fundamental nicht gerechtfertigten Bewertungen

Abb. 17: Banken in einem perfekten Sturm.

bunden, die sich nicht nur vorübergehend auf die Ertragslage der betroffenen Marktteilnehmer auswirken. Die umfassende Regulatorik behindert zudem zunehmend die Übernahme eines echten unternehmerischen Risikos durch den Bankensektor. Die zunehmenden Vorschriften zur Gestaltung von Konditionen und Geschäftsprozessen lassen sich vielmehr als eine „kalte“ Verstaatlichung (ohne Übernahme von unternehmerischer Verantwortung durch den Staat) interpretieren. Zugleich gefährdet der technologische Fortschritt die traditionellen Absatzkanäle und begünstigt das Eindringen neuer Wettbewerber (z. B. FinTechs) auf die angestammten Märkte. Durch die ultralockere Geldpolitik der letzten Jahre und das damit einhergehende Niedrigzinsumfeld verschlechtern sich die Ergebnisse der Finanzinstitute (z. B. aufgrund hoher Liquiditätspositionen) von Jahr zu Jahr. Die Möglichkeiten zur Erzielung auskömmlicher Renditen lassen sich mit zunehmender Dauer des Niedrigzinsumfelds nur noch durch den sukzessiven Aufbau von risikobehafteten Positionen realisieren. Zugleich bewirkt das Niedrigzinsumfeld eine Fehlallokation von Ressourcen. Unternehmen die Corporate Bonds mit einer Niedrig-, Null- oder sogar Negativverzinsung platzieren können, reduzieren ihre Eigenkapitalquote und schwächen ihre künftige Widerstandskraft. Das Niedrigzinsumfeld begünstigt die Durchführung von Investitionsprojekten (z. B. verstärkte Immobiliennachfrage), die unter „normalen“ Finanzierungskonditionen nicht realisiert würden. Im Ergebnis bewirkt die gegenwärtige Geldpolitik eine nachhaltige Schwächung der Finanz(markt)stabilität durch die Fehlallokation von Ressourcen und den verstärkten Aufbau von Risikopositionen. Das eigentliche Ziel der Geldpolitik, die Folgen der

Geldpolitik, Preisniveaustabilität und Finanzstabilität

203

Finanzkrise von 2007/2008 abzufedern und hinreichend Zeit für die erforderlichen strukturellen Anpassungen der europäischen Volkswirtschaften zu schaffen, wurde im Ergebnis verfehlt. Dies ist nicht verwunderlich, da die geldpolitischen Maßnahmen der EZB nicht von der Erfüllung bestimmter Voraussetzungen (Fiskalziele in den Ländern der Eurozone etc.) abhängig gemacht wurden. Eine konsequente Abkehr von der im Nachgang der Finanzkrise eingeleiteten Geldpolitik verbietet sich ebenfalls, würde sie doch zu gravierenden Korrekturen bei den Vermögenspreisen führen und erneut das Aufflammen der Finanz- und Staatsschuldenkrise bewirken. Im Ergebnis kann die EZB nur einen sehr langsamen und vorsichtigen Ausstiegsprozess einleiten, der zumindest mittelfristig eine weitere Fehlallokation von Ressourcen begünstigt. Ein zusätzlicher Exit-Kanal eröffnet sich möglicherweise durch gezielte Korrekturen bei identifizierbaren Überregulierungen bzw. durch eine Verlangsamung geplanter Regulierungsmaßnahmen. Die Debatte über das geeignete Ausmaß von Finanzmarktregulierungen dürfte – vor dem Hintergrund der geplanten Deregulierungsmaßnahmen der Trump-Administration in den USA – in den kommenden Jahren an Intensität zunehmen.

4 Fazit Wie die jüngsten Finanzkrisen zeigen, sind es finanz- und geldpolitische Eingriffe, die durch mehr oder weniger ausgeprägte „stop and go“-Strategien Fehlanreize auslösen und zyklische Schwankungen der gesamtwirtschaftlichen Aktivitäten (mit-)verursachen. Die Strategie- und Politikwechsel der Geldpolitik in einigen Ländern hin zu einem modifizierten „inflation targeting“ haben die Stabilität der Finanzmärkte in den letzten Dekaden geschwächt und das Krisengeschehen begünstigt (Michler und Thieme 2009). Diese stabilitätspolitischen Aspekte der Sicherung von Finanzmarktstabilität wurden in der Wirtschaftspolitik und hauptsächlich in der makroökonomischen Mainstream-Diskussion der vergangenen Jahre vernachlässigt. Ein umfassender Lernprozess ist bei den wirtschaftspolitischen Entscheidungsträgern angesichts der jüngsten Entwicklungen in der Eurozone allerdings nicht erkennbar. So übernimmt die EZB mit ihrem Ankaufprogramm zunehmend Aufgaben, für die sie weder über ein Mandat noch über das geeignete Instrumentarium verfügt. Die unkonventionelle Ausweitung der Geldbasis ist nicht in der Lage, die Realwirtschaft in der Eurozone – respektive die Konjunktur den Programmländern anzukurbeln – im Sinne des traditionellen Transmissionsprozesses monetärer Impulse. Die realwirtschaftlichen Impulse bleiben ebenso aus wie der erhoffte Anstieg der Konsumentenpreisinflation. Im Ergebnis führt das QE-Programm zu einem fundamental immer schwieriger zu begründenden Anstieg der Vermögenspreise, zu einer verstärkten Fehlallokation von Ressourcen sowie zur Verschärfung der jahrelang bestehenden strukturellen Probleme in vielen Ländern der Eurozone. Die zu-

204

Albrecht Michler und Franz Seitz

nehmende Dauer der unkonventionellen Geldpolitik erschwert zugleich einen konsequenten Ausstieg aus dieser Strategie, da mit heftigen Turbulenzen auf den Finanzmärkten zu rechnen ist. Als im September 2016 für wenige Stunden das Gerücht entstand, dass die EZB in absehbarer Zeit einen Tapering-Prozess (die sukzessive Rückführung der monatlichen Ankaufprogramme) einleiten würde, kam es zu heftigen Reaktionen auf den Finanzmärkten. Im Sinne der Finanz(markt)stabilität müsste die Notenbank einen zu rasch eingeleiteten geldpolitischen Kurswechsel sehr schnell revidieren. Im Ergebnis sollte Preisniveaustabilität weiterhin das Hauptziel der Geldpolitik sein, das durch eine weitgehende Verstetigung geldpolitischer Maßnahmen realisiert werden kann. Eine glaubwürdige, stabilitätsorientierte Geldpolitik führt nicht nur zu einer Stabilisierung der realwirtschaftlichen Entwicklung bzw. zur Vermeidung konjunktureller Schwankungen sondern auch zu einer Stabilisierung der Erwartungen auf den Finanzmärkten. In diesem Sinne trägt eine an der Preisniveaustabilität ausgerichtete Geldpolitik auch zu einer Stärkung der Finanz(markt)stabilität bei.

Literatur Adrian, T. und H. S. Shin. 2011. Financial Intermediaries and Monetary Economics, in: B. Friedman und M. Woodford (Hg.), Handbook of Monetary Economics, Vol. 3A, North-Holland, S. 601– 650. Alchian, A. A. und B. Klein. 1973. On a correct measure of inflation, Journal of Money, Credit and Banking, 5, S. 173–191. Blanchard, O., G. Dell’Ariccia und P. Mauro. 2010. Rethinking Macroeconomic Policy, IMF Staff Position Note SPN/10/03, February 12, 2010. Borio, C. 2014. Monetary policy and financial stability: what role in prevention and recovery? BIS Working Papers No 440, January. Borio, C. 2016. Revisiting three Intellectual Pillars of Monetary Policy, Cato Journal, 36, S. 213– 238. Borio, C., E. Kharroubi, C. Upper, und F. Zampolli. 2015. Labour Reallocation and Productivity Dynamics: Financial Causes, Real Consequences, BIS Working Paper No. 534, December. Borio, C., M. Erdem, A. Filardo, und B. Hofmann. 2015. The Costs of Deflations: A Historical Perspective, BIS Quarterly Review (March), S. 31–54. Borio, C.L. und H. Zhu. 2008. Capital, Regulation, Risk-taking and Monetary Policy: A missing link in the transmission mechanism, Bis Working Paper Nr. 268. Brunnermeier, M. K., T. M. Eisenbach und Y. Sannikov. 2011. Macroeconomics with Financial Frictions: A Survey, July. EZB. 2005. Monatsbericht, Februar 2005. EZB. 2006. Financial Stability Review, December 2006. Financial Stability Board. 2017. Global Shadow Banking Monitoring Report 2016, Basel. Fisher, I. 1906. Nature of capital and income, New York: Macmillan. Görgens, E., K. Ruckriegel und F. Seitz. 2008. Europäische Geldpolitik. Theorie, Empirie, Praxis, 5. A., Stuttgart.

Geldpolitik, Preisniveaustabilität und Finanzstabilität

205

Goodhart, C. 2001. What Weight Should be Given to Asset Prices in the Measurement of Inflation?, The Economic Journal, 111, S. 335–356. Group of Ten. 1995. Saving, investment and real interest rates. A study for the ministers and governors by the group of deputies, Rome. Immenkötter, P. 2016a. The Disparity of Wealth Prices across the Euro Area, Flossbach von Storch Research Institute, Economic Policy Note 28/11/2016. Immenkötter, P. 2016b. Vermögenspreise auf Jahreshoch, Flossbach von Storch Research Institute. Issing, O. 2011. Lessons for monetary policy: What should be consensus? paper presented at the IMF conference „Macro and growth policies: A post-crisis conversation“, Washington, D.C., March 7–8. Krämer, J. 2016. Neue Strategie für die EZB, Handelsblatt Wirtschafts- und Finanzzeitung vom 2. 12. 2016. Michler, A. F. und H.-D. Smeets. 2013. Banksteuerung und Aufsichtstätigkeit vor dem Hintergrund gesamtwirtschaftlicher Rahmenbedingungen, in: Reinhold Hölscher. 2013. Hg., Handbuch Aufsichts- und Verwaltungsräte in Kreditinstituten. Michler, A. F. und H. J. Thieme. 2009. Finanzmarktkrise: Marktversagen oder Staatsversagen?, in: Ordo. Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft, Bd. 60, S. 185 − 221. Michler, A. F. und H. J. Thieme. 2013. Regulierung von Finanzmärkten: Ziele, Methoden und Reformerfordernisse, in: D. Wentzel, Hg., International Organisationen: Ordnungspolitische Grundlagen, Perspektiven und Anwendungsbereiche, Stuttgart, S. 79–102. Orphanides, A. 2001. Monetary policy rules based on real-time data, American Economic Review, 91, S. 964–985. Rösl, G. und K.-H. Tödter. 2015. The Costs and Welfare Effects of ECB’s Financial Repression Policy: Consequences for German Savers, Review of Economics & Finance, 5(4), S. 42–59. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung. 2016. Jahresgutachten 2016/17: Zeit für Reformen. Schularick, M. und A. Taylor. 2012. Credit Booms Gone Bust: Monetary Policy, Leverage Cycles, and Financial Crises, 1870–2008, American Economic Review, 102, S. 1029–1061. Taylor, J. 2008. Getting off track: How government actions and interventions caused, prolonged, and worsened the financial crisis, Stanford, Hoover Institution Press. Vega, J.-L. und M.A. Wynne. 2003. An Evaluation of Some Measures of Core Inflation for the EuroArea, German Economic Review, 4, S. 269–306. Woodford, M. 2003. Interest and Prices: Foundations of a Theory of Monetary Policy, Princeton University Press.

Anhang Korreferat zu Albrecht Michler und Franz Seitz Thomas Jost Albrecht Michler und Franz Seitz beschäftigen sich in ihrem Beitrag mit der Frage, ob Zentralbanken angesichts der Finanz-, Wirtschafts- und Staatsschuldenkrisen der letzten 10 Jahre ihr Mandat neu ausrichten sollten, um neben dem traditionellen Ziel der Preisniveaustabilität auch Finanzstabilität zu erreichen. Die Darstel-

206

Albrecht Michler und Franz Seitz

lung der Vor- und Nachteile einer erweiterten geldpolitischen Strategie bezieht sich in ihrem Beitrag vor allem auf die Europäische Zentralbank. Wichtige Fragen und die überzeugenden Antworten der Autoren seien im Folgenden noch einmal kurz zusammengefasst, kritisch beleuchtet und in einigen Punkten ergänzt. (1) Macht Preisniveaustabilität als Hauptziel der Geldpolitik theoretisch und empirisch noch Sinn? Michler und Seitz beantworten diese Frage mit einem klaren Ja! Die Notenbank muss einen Rückgang der Kaufkraft des Geldes vermeiden und sie ist die einzige Institution, die dazu die erforderlichen Instrumente besitzt. Der Verbraucherpreisindex ist auf Konsumenten- und Haushaltsebene das beste Maß zur Messung der realen Kaufkraft. Der Übergang zu einem anderen Preisindex (BIP-Deflator, Deflator der privaten Konsumausgaben, Preisindex einschließlich Vermögenspreise oder Preise für Zukunftskonsum) ist aus mehreren Gründen nicht zu empfehlen. Wie Michler und Seitz beschreiben, wäre ein Wechsel mit methodischen Problemen verbunden. Zudem sind Konsumenten, Haushalte und Tarifpartner in der Eurozone mit diesem Preisindex vertraut. Ergänzend kann man anmerken, dass ein Wechsel des Preisindex zu unerwarteten Verhaltensänderungen, veränderten Inflationserwartungen und möglicherweise zu zusätzlichem Misstrauen gegenüber der EZB führen könnte, insbesondere in einer Zeit von Nullzinsen für Sparer. (2) Macht das Inflationsziel von unter, aber nahe 2 % Inflation als striktes Inflationsziel der EZB Sinn? Die Autoren beschäftigen sich kritisch mit der in den letzten Jahren so bedeutsamen Frage des konkreten Inflationsziels der EZB. Die EZB hat ihre extrem expansive Geldpolitik, und vor allem das Programm des „Quantitative Easing“, neben wechselnden anderen Argumenten vor allem auch mit der ihrer Ansicht nach zu geringen Inflationsrate im Euroraum begründet, die in den letzten Jahren unter dem angestrebten Ziel von „unter, aber nahe 2 %“ lag. Wie Michler und Seitz treffend schreiben und sich dabei vor allem auf umfangreiche Studien der BIZ beziehen, ist eine niedrigere Inflationsrate, von beispielsweise 1 %, für eine Volkswirtschaft nicht schädlich, sondern häufig nützlich. Die niedrige Inflationsrate in der Eurozone kann vor allem mit der Entwicklung der Energiepreise erklärt werden, auf die die EZB keinen Einfluss hat. Die niedrigen Einfuhrpreise für Energie in den Jahren 2015 und 2016 entfalteten in der Eurozone ein kostenloses Konjunkturprogramm und trieben angesichts der Entlastung der Verbraucher den Binnenkonsum in der Eurozone an und waren daher vorteilhaft. Geringe Preissteigerungen im Durchschnitt der Eurozone sind zudem zu erwarten und notwendig um die preisliche Wettbewerbsfähigkeit der südlichen Länder der Eurozone wiederherzustellen. Die drohende Gefahr einer Deflation wurde von der EZB überbewertet. Man könnte sogar noch weiter als Michler und Seitz gehen und die „drohende Deflation“ als vorgeschobenes Argument für die „Euro-Rettungspolitik“ der EZB ansehen,

Geldpolitik, Preisniveaustabilität und Finanzstabilität

207

zu der sich die Notenbank angesichts der bekannten Äußerungen ihres Präsidenten in London im Sommer 2012 verpflichtet fühlt.10 Zuvor hatte die EZB ihre extrem expansive Geldpolitik mit einer „Störung des monetären Transmissionsmechanismus“ in der Eurozone begründet, ein Argument was sowohl theoretisch schwach fundiert war, als auch in der Öffentlichkeit kaum verstanden wurde.11 Obwohl die EZB nie ihr offizielles Inflationsziel einer Rate von „unter 2 %“ geändert hat, scheint nun ein Ziel von „unter, aber nahe 2 %“ − also 1,8 % oder 1,9 % − in der Öffentlichkeit als konkreteres Inflationsziel verankert zu sein. Mit dieser extrem engen Festlegung (im Vergleich zu einem Korridor von 0 % bis 2 %) ergibt sich ein weiteres Problem. Makroökonomische Variablen unterliegen Zufallsschwankungen und lassen sich im Allgemeinen nicht punktgenau steuern. Die EZB verliert damit Flexibilität und Handlungsspielraum. Zielverfehlungen werden bei einem Punktziel sehr viel wahrscheinlicher als bei einem Zielkorridor und könnten daher das Vertrauen und die Glaubwürdigkeit der EZB untergraben. (3) Sollte die EZB noch weiter gehen und ihr Inflationsziel auf drei oder vier Prozent anheben? Diese Frage wird in dem vorliegenden Beitrag nicht direkt diskutiert, sie hängt aber mit der Frage nach dem optimalen Mandat der EZB angesichts der Dauerkrise in den südlichen Ländern der Eurozone zusammen. Eine Anhebung des Inflationsziels auf bis zu vier Prozent wird von einflussreichen amerikanischen Ökonomen für die EZB gefordert. Dieses Ziel käme der EZB sicher nicht ungelegen, da ihr Präsident Draghi den Zusammenhalt der Eurozone innerhalb des Mandats als Ziel ausgegeben hat. Durch eine stärkere Inflationierung könnte der Realwert der ausstehenden Staatsschulden der südlichen Länder der Eurozone gemindert werden. Wegen des wahrscheinlichen Widerstands Deutschlands hat die EZB jedoch noch keinen Vorstoß in diese Richtung gemacht. Es bleibt zu hoffen, dass eine weitere Abkehr von einem strikten Stabilitätsziel (durch den beschriebenen Wechsel von einem Korridor zu einem Punktziel hat man sich ja schon „nach oben“ bewegt) mit erheblichen unerwarteten und negativen Umverteilungswirkungen innerhalb der Eurozone ausbleibt. Die Rolle als Retter der Eurozone, die die EZB durch ihre Niedrigzinspolitik und das QE-Programm faktisch allein übernommen hat, birgt jedoch große Probleme. Die EZB steckt dadurch in einem Dilemma. Sie kann ihre Geldpolitik, auch bei einem Anstieg der Inflation auf über 2 %, kaum mehr eigenständig von ihrem eigentlichen und vorrangigen Preisstabilitätsziel geleitet verfolgen. Als selbsternanntem Retter der Eurozone droht der EZB die große Gefahr, dass sie die Zinswende zu spät und nicht ausreichend einleitet und keinen rechtzeitigen Ausstieg aus dem

10 „Within our mandate, the ECB is ready to do whatever it takes to preserve the Euro. And believe me it will be enough.“ Mario Draghi (2012). 11 Vgl. Fuest (2013).

208

Albrecht Michler und Franz Seitz

QE-Programm findet. Sollte gar ein Land aus der Eurozone austreten, würde die Glaubwürdigkeit der EZB extrem beschädigt und die in einem solchen Fall aufgelaufenen negativen Targetsalden des austretenden Landes dürften zu einer Zerreißprobe für den Zusammenhalt der Eurozone der verbliebenen Länder führen. Der positive deutsche Targetsaldo, hauptsächlicher Gegenposten der negativen Targetsalden der südlichen Länder der Eurozone und wichtiger Gradmesser für deren anhaltende Schuldenprobleme sowie die Kapitalflucht Richtung Deutschland, ist bis Februar 2017 auf 814 Mrd. Euro gestiegen,12 ein Wert der den Rekordwert auf dem Höhepunkt der Schuldenkrise im Euroraum im Sommer 2012 übersteigt (d. h. vor der bekannten Rede von Mario Draghi, die angeblich die Schulden- und Eurokrise beendete oder zumindest deutlich abschwächte). (4) Sollte die EZB ein Mandat für Finanzstabilität haben? Auch hier antworten Michler und Seitz mit einem klaren Nein. Ihrer Ansicht nach haben die Strategie- und Politikwechsel der Geldpolitik in einer Reihe von Ländern eher die Stabilität der Finanzmärkte geschwächt. Eine glaubwürdige, auf Preisstabilität ausgerichtete Geldpolitik führt nicht nur zu einer Stabilisierung der gesamtwirtschaftlichen Entwicklung, sondern auch zu einer Stabilisierung der Finanzmärkte. Zentralbanken haben schon in der Vergangenheit die Finanzmärkte beobachtet und die Entwicklung der Finanzmarktpreise bei der Beurteilung der allgemeinen Preisperspektiven berücksichtigt. Die Krisen auf den Finanzmärkten in den letzten 25 Jahren wechselten jedoch, mal betraf es die Aktienmärkte oder einzelne ihrer Segmente, mal die Immobilienmärkte, mal die Märkte für Staatsund Unternehmensanleihen. Die Notenbanken sind nicht in der Lage, anhand einer oder weniger Zielvariablen diese Entwicklungen an den Finanzmärkten zu kontrollieren und immer und ausreichend in stabile Bahnen zu lenken. Sie wären damit überfordert und würden damit unglaubwürdig. Die Glaubwürdigkeit bei einer effektiven Bekämpfung einer drohenden Inflation der Verbraucherpreise ist ein Asset, das die Zentralbanken nicht verspielen sollten. Bei einem übermäßigen kreditgetriebenen Immobilienboom kann die Zentralbank allerdings einer starken blasenhaften Entwicklung − mit Folgen auch für die Verbraucherpreise − entgegentreten, wie es z. B. die Deutsche Bundesbank bei der Immobilienpreisblase nach der Deutschen Vereinigung gemacht hat. In den USA hat dagegen die FED durch eine sehr expansive Geldpolitik den Boom und den Zusammenbruch des amerikanischen Häusermarktes mit verursacht. In Europa steht die EZB vor dem Problem der regional sehr unterschiedlichen Entwicklung der Finanz- und Immobilienmärkte. Die EZB konnte auf den übertriebenen Anstieg der Immobilienpreise in Irland und Spanien, der die Finanz- und Wirtschaftskrisen in diesen Ländern auslöste, nicht reagieren, obwohl sie mehrmals vor deren Entwicklungen und Folgen warnte.13 12 Vgl. Frankfurter Allgemeine Zeitung (2017). 13 Vgl. Issing (2011).

Geldpolitik, Preisniveaustabilität und Finanzstabilität

209

Literatur Draghi, Mario. 2012. Speech of the President of the ECB at the Global Investment Conference in London, 26. Juli 2012, verfügbar unter: www.ecb.europa.eu/press/key/date/2012/html/ sp120726.en.html. Frankfurter Allgemeine Zeitung. 2017. Deutscher Target-Saldo steigt auf mehr als 800 Mrd. Euro, 7. März 2017, verfügbar unter: www.faz.net/aktuell/wirtschaft/wirtschaftspolitik/f-a-zexklusiv-deutscher-target-saldo-steigt-auf-mehr-als-800-milliarden-euro-14913439.html Fuest, Clemens. 2013. Stellungnahme gegenüber dem Bundesverfassungsgericht anlässlich der mündlichen Verhandlung zu den Verfahren 2 BvR 1390/12, 2 BvR 1421/12, 2 BvR 1438/12, 2 BvR 1439/12, 2 BvR 1440/12, 2 BvR 1824/12 und 2 BvR 6/12, am 11. und 12. Juni 2013, verfügbar unter: ftp://zinc.zew.de/pub/zew-docs/stellungnahmen/Stellungnahme_BVerfG_ Fuest_Juni_2013.pdf Issing, Otmar. 2011. Der Euro ist immer noch eine Erfolgsgeschichte, Wirtschaftliche Freiheit, 25. Januar 2011, verfügbar unter: http://wirtschaftlichefreiheit.de/wordpress/?p=5175

Uwe Vollmer

Geldpolitik und Bankenaufsicht in Europa: Ordnungsdefizite und Reformoptionen Control over monetary and banking arrangements is a particularly dangerous power to entrust to government because of its far reaching effects on economic activity at large … (Milton Friedman 1960, S. 4) 1 2

3

4

5

Bedeutungswandel von Zentralbanken seit Beginn der Finanzkrise 211 Abortive Reformvorschläge für die Geldverfassung 214 2.1 Initiativen zur Bargeldbegrenzung 214 2.2 Vollgeld-Initiativen 217 Kontroverse Vorschläge zur Reform der Geldpolitik 219 3.1 Finanzmarktstabilität als Mandat für die Geldpolitik? 219 3.2 „Leaning against the wind“? 221 3.3 Anhebung des Inflationsziels? 222 3.4 Herausgabe von „Helikoptergeld“? 224 Ordnungsdefizite und Reformoptionen 225 4.1 Reform des geldpolitischen Handlungsrahmens: Ausbau der Offenmarktpolitik 4.2 Primat für eine mengenorientierte Geldpolitik 228 4.3 Regelbindung für die Geldpolitik 230 4.4 Trennung von Geldpolitik und Bankenaufsicht 231 Zur künftigen Rolle von Zentralbanken: Ist „weniger“ vielleicht „mehr“? 232

225

1 Bedeutungswandel von Zentralbanken seit Beginn der Finanzkrise Seit Ausbruch der Finanzkrise haben sich Aufgabenbereiche und Arbeitsumfeld von Notenbanken erheblich gewandelt. Traditionell besteht die Aufgabe von Zentralbanken vor allem in der Durchführung der Geldpolitik, d. h. in der Steuerung der gesamtwirtschaftlichen Kredit- und Geldversorgung mit dem Ziel, für eine stabile gesamtwirtschaftliche Entwicklung zu sorgen. Zumeist (wie im Falle des Eurosystems) ist damit die Garantie von Preis(niveau)stabilität gemeint. Seit Ausbruch der Finanzkrise haben Notenbanken aber auch in der mikro- und makro-prudenziellen Bankenaufsicht erheblich an Bedeutung gewonnen, d. h. sie sind verstärkt mit der Aufsicht über einzelne Banken befasst und versuchen, die Stabilität des gesamten Finanzsektors zu garantieren. Neben diesen Kompetenzerweiterungen hat sich das makroökonomische Umfeld verändert, in dem Zentralbanken Geldpolitik betreiben. In Reaktion auf die Finanzkrise und vor allem als Antwort auf die auftretenden Funktionsstörungen an den Interbankenmärkten hatten alle bedeutenden Notenbanken die Liquiditätshttps://doi.org/10.1515/9783110554861-011

212

Uwe Vollmer

versorgung der Volkswirtschaft ausgeweitet und die Leitzinsen stark gesenkt. Dennoch sind die Inflationsraten erheblich gefallen und es gibt Anzeichen, dass auch die längerfristigen Inflationserwartungen der Marktteilnehmer nicht mehr bei dem mit Preisstabilität als vereinbar angesehenen Wert von 2 % p. a. verankert waren. Deshalb wuchsen auf Seiten der Notenbanken Befürchtungen vor einer sich selbst verstärkenden Deflationsspirale, auf die die Geldpolitik bei Erreichen der Nullzinsgrenze nicht mehr mit weiteren Nominalzinssenkungen reagieren kann. Angesichts dieser Entwicklungen werden aktuell verschiedene Stimmen laut, die einschneidende geldpolitische Reformen wünschen und fundamentale ordnungspolitische Eingriffe in das Währungssystem einfordern. Solche Reformen sollen die Stabilität des Bankensektors nachhaltig verbessern und zugleich die Zentralbank auch nach Erreichen der Nullzinsgrenze wieder in die Lage versetzen, als Träger der Geldpolitik mithilfe der traditionellen Instrumente Einfluss auf die makroökonomische Entwicklung zu nehmen. Häufig knüpfen diese Reformvorschläge an ältere Arbeiten an, die aus der ersten Hälfte des 20. Jahrhunderts stammen und eine stärkere Regulierung des Bankensektors anmahnen oder die Wahlmöglichkeiten von Geldnutzern einschränken wollen.1 Diese Vorschläge galten zu der damaligen Zeit teilweise als utopisch, werden aber heute wegen technologischer Veränderungen inzwischen als realisierbar und wünschenswert angesehen. Vor dem Hintergrund dieser Diskussion ist Anliegen des vorliegenden Beitrags, die wichtigsten derzeit auf dem akademischen „Markt der Ideen“ verfügbaren Reformvorschläge für die Geldpolitik und die Bankenaufsicht kritisch zu hinterfragen und sie als „undurchführbar“, „diskussionswürdig“ und als „notwendig“ zu einzuteilen. Die Bankenaufsicht wird zusammen mit der Geldpolitik behandelt, weil beide Bereiche inzwischen zu gleichmäßig bedeutsamen Aufgaben von Notenbanken geworden sind. Da die Perspektive eine ordnungspolitische ist, wird nicht auf das operative Geschäft von Zentralbanken abgestellt, das diskretionär getroffene geldpolitische und aufsichtsrechtliche Entscheidungen betrifft. Vielmehr wird abgezielt auf die längerfristig geltenden Verfahren und Regeln, die der Zentralbank von außen (d. h. vom Gesetzgeber) vorgegeben werden („heteronome Regeln“) oder die sie sich selber vorgibt und der Öffentlichkeit gegenüber kommuniziert („autonome Regeln“). Dabei erfolgt die Analyse des Zusammenhangs zwischen Ordnungsdefiziten und Reformoptionen in beide Richtungen, d. h. es werden Ordnungsdefizite erkannt und Reformvorschläge gemacht, aber auch derzeit auf dem akademischen „Markt der Ideen“ verfügbare Reformvorschläge aufgegriffen und auf ihre ordnungspolitischen Konsequenzen hin überprüft.

1 Interessanterweise sind ältere Vorschläge zum Währungspluralismus, wonach die Primärgeldproduktion dem Wettbewerb zu unterwerfen sei (Hayek 1977), derzeit nicht wieder in der Diskussion.

Geldpolitik und Bankenaufsicht in Europa: Ordnungsdefizite und Reformoptionen

213

Tab. 4: Heteronome und autonome Regeln für Geldpolitik und Bankenaufsicht. Heteronome Regeln

Autonome Regeln

Abgrenzung des gesetzlichen Zahlungsmittels – Bargeldabschaffung – Vollgeldreform Finanzmarktstabilität als geldpolitisches Mandat

Festlegung des numerischen Inflationsziels

Anpassungen am geldpolitischen Instrumentarium – Ausbau der Offenmarktpolitik – Mengen- versus zinsorientierte Geldpolitik – Ausgabe von „Helikoptergeld“

Institutionelle Zuordnung der Bankenaufsicht – auf den Träger der Geldpolitik – auf nationale oder supranationale Ebene Regelbindung der Geldpolitik Quelle: eigene Darstellung

Tabelle 4 gibt einen Überblick über die hier betrachteten heteronomen und autonomen Regeln für die Geldpolitik und die Bankenaufsicht und die dazu derzeit vorliegenden Reformvorschläge. Die heteronomen Regeln betreffen zuerst die Rolle des Geldes als gesetzliches Zahlungsmittel und umfassen Vorschläge zur Bargeldabschaffung oder zur Umsetzung eines „Vollgeldstandards“. Sie betreffen zudem die Frage, ob die Geldpolitik regelgebunden erfolgen und inwieweit „Finanzmarktstabilität“ ein Ziel der Geldpolitik sein sollte, sowie die Frage, ob Geldpolitik und Bankenaufsicht gemeinsam von derselben Institution durchgeführt werden sollte. Die autonomen Regeln betreffen das numerische Inflationsziel, das die Notenbank derzeit verfolgen sollte, sowie die Frage, welche Rolle künftig Offenmarktoperationen spielen sollen und ob die Geldpolitik zins- oder mengenorientiert durchgeführt werden sollte. Der Rest des Beitrags ist wie folgt organisiert. Abschnitt 2 präsentiert Reformvorschläge, die hier als weitgehend (wenn auch nicht vollständig) diskussionsunwürdig eingestuft und deshalb als „abortiv“ bezeichnet werden. Dazu zählen der Vorschlag einer Bargeldabschaffung und die so genannte Vollgeldreform, die auf ein faktisches Verbot der Sekundärgeldproduktion durch Geschäftsbanken abzielt. Abschnitt 3 thematisiert anschließend verschiedene als diskussionsfähig eingestufte Reformvorschläge, deren Pros und Cons noch nicht endgültig ausdiskutiert sind. Schließlich benennt Abschnitt 4 abschließend Reformvorschläge, die (aus Sicht des Verfassers) als notwendig und als geeignet angesehen werden, die Stabilität des Bankensektors zu erhöhen und die Durchgriffsmöglichkeiten der Geldpolitik auf die längerfristige Inflationsentwicklung zu verbessern. Abschnitt 5 resümiert.

214

Uwe Vollmer

2 Abortive Reformvorschläge für die Geldverfassung Die radikalsten derzeit diskutierten Vorschläge zur Reform der Geldverfassung sehen die eingeschränkte Nutzung (bis hin zur Abschaffung) von Bargeld vor oder beabsichtigen die vollständige Kontrolle der Sekundärgeldproduktion durch Geschäftsbanken im Rahmen von „Vollgeldinitiativen“. Beide Vorschläge widersprechen sich, denn sie beinhalten einerseits ein Verbot der Primärgeldverwendung und schreiben andererseits die alleinige Verwendung von Primärgeld vor.

2.1 Initiativen zur Bargeldbegrenzung Praktische Initiativen zur Bargeldbegrenzung umfassen einerseits die Einführung von Obergrenzen für Barzahlung, beispielsweise in Italien (3.000 EUR) und Frankreich (1.000 EUR).2 Zudem erwägt die EU-Kommission die Abschaffung von EinCent- und Zwei-Cent-Münzen (EU Commission 2013), während die EZB beschlossen hat, die Produktion und Ausgabe der 500-Euro-Banknote bis zum Ende 2018 einzustellen (Vollmer 2016a). Akademische Initiativen zur Bargeldabschaffung (besser: Papiergeldabschaffung) wollen darüber hinaus graduell auch alle anderen Banknoten einziehen, mit Ausnahme der sehr kleinen Denominationen, die allerdings langfristig auch durch Münzen ersetzt werden sollen.3 Begründet werden diese Vorschläge mit dem Hinweis auf illegale Wirtschaftsaktivitäten, wie Schwarzarbeit und Drogenhandel, illegales Glückspiel, Geldwäsche und Terrorismus, bei denen Bargeld verstärkt verwendet wird, mit Kosteneinsparungen im Zahlungsverkehr und mit einer verbesserten Effektivität der Geldpolitik an der Nullzinsgrenze (Draghi 2016a; Rogoff 2014, Ders. 2016). Indiz für einen möglichen Zusammenhang zwischen Bargeldverwendung bzw. Bargeldhaltung und illegaler Wirtschaftsaktivität ist die Tatsache, dass die Bargeldhaltung in Relation zum BIP seit einigen Jahren fast überall zunimmt. Der Bargeldbestand pro Kopf beträgt inzwischen in der Eurozone 3.200 EUR und liegt in den USA bei etwa 4.000 USD. Dabei machen Banknoten mit hohen Denominationen

2 Vgl. Beretta (2014). Auch für Deutschland gibt es Gedankenspiele, eine Barzahlungsgrenze von beispielsweise 5.000 EUR einzuführen. Siehe auch www.bundesfinanzministerium.de/ Content/ DE/FAQ/2016-02-22-Bargeld.html. In Indien wurde jüngst die Mehrzahl der Geldscheine (500- und 1000-Rupien-Scheine) für ungültig erklärt. Südkorea prüft die Abschaffung der Münzen. 3 Aus Gründen der finanziellen Inklusion sollen alle Bürger Zugang zu Girokonten mit DebitorenKarten erhalten; was sich wie eine soziale Wohltat anhört, erweist sich als Nachteil, wenn man berücksichtigt, dass die Bargeldabschaffung der Durchsetzung negativer Zinssätze dient. Deshalb fordert Rogoff (2016, S. 99) eine Staatsgarantie, die sicherstellt, dass „… deposits at the universal accounts up to a certain amount (say, $1,000–$2,000) would always receive a nonnegative interest rate“.

215

Geldpolitik und Bankenaufsicht in Europa: Ordnungsdefizite und Reformoptionen

1.200.000.000 Total 50€

1.000.000.000

500€ 20€

200€ 10€

100€

800.000.000 600.000.000 400.000.000

2017

2016

2015

2014

2013

2012

2011

2010

2009

2008

2007

2006

2005

2004

2003

2002

200.000.000

Abb. 18: Wertmäßiger Banknotenumlauf in der Eurozone (in Tsd. Euro) (Quelle: www.ecb.europa.eu; siehe auch Vollmer 2016b).

in allen entwickelten Ländern wertmäßig etwa 90 % des gesamten umlaufenden Bargeldbestandes aus (Rogoff 2016). Dies verdeutlicht Abbildung 18 beispielhaft für die Eurozone, die den starken Zuwachs im Gebrauch an 500-Euro-Banknoten (punktierte Linie) in Relation zu den anderen Denominationen skizziert. Der Zuwachs ist nachfragebedingt, da die Geldnutzer über die Stückelung der umlaufenden Banknoten entscheiden. Zwar fließt ein erheblicher Teil dieser Bargeldbestände im Ausland um, und von dem Rest wird nur ein kleiner Teil für legale Aktivitäten im Inland verwendet, wobei hierbei kleinere Stückelungen dominieren.4 Damit verbleibt eine erhebliche Verwendungslücke, die im Wesentlichen mit dem Gebrauch dieser Geldbeträge in der Schattenwirtschaft erklärt werden kann (Buiter 2009; Rogoff 2016). Dennoch ist gegen eine Bargeldabschaffung kritisch einzuwenden, dass die Zirkulation fortbestehen dürfte, auch wenn Bargeld nicht mehr als gesetzliches Zahlungsmittel fungiert; als Beispiel lässt sich der Fall Somalia nach dem Zusammenbruch staatlicher Ordnung in 1991 anführen, wo genau dies geschah (Luther and White 2011; Luther 2015). Zudem ist bei nationalen Alleingängen ein Ausweichen auf Ersatzwährungen möglich, sodass Interventionsspiralen drohen, wie ein Bargeldeinfuhrverbot aus dem Ausland. Zudem sind Zweifel angebracht, ob illegale Geschäfte mit Abschaffen großer Bankstückelungen tatsächlich nachhaltig behindert werden. Erfolge werden hier auf sich warten lassen, solange die Noten im

4 Schätzungen für die USA und die Bundesrepublik Deutschland bzw. die Eurozone kommen zu dem Ergebnis, dass etwa 50 % des Bargeldvolumens im Ausland umlaufen. Siehe Seitz (1995) für die Bundesrepublik Deutschland sowie Porter und Judson (1996) für die USA.

216

Uwe Vollmer

Umlauf bleiben und nicht auf Betreiben der Notenbank dem Geldkreislauf entzogen werden können. Da die Nachfrage nach großen Denominationen wie der 500Euro-Note hoch ist, dürften sie den nationalen Zentralbanken kaum zum Eintausch angeboten werden, zumal in der Eurozone der 500-Euro-Schein nach Erkenntnissen von Europol offenbar bereits jetzt mit einem Agio oberhalb des Nennwerts gehandelt wird (European Police Office 2015). Hinzu kommt, dass große Stückelungen auch für legale Geschäfte durchaus notwendig sind. Laut einer Umfrage der Europäischen Zentralbank unter privaten Haushalten und Unternehmen aus dem Jahre 2008 gaben 25 % der befragten Haushalte an, mehr als einmal jährlich eine 200-Euro- oder eine 500-Euro-Banknote in Händen gehalten zu haben; weitere 33 % hatten zumindest bis zu einmal jährlich Kontakt mit diesen großen Geldscheinen. Die private Nachfrage nach solchen Noten ist darin begründet, dass Großbetragszahlungen per Karte nur eingeschränkt möglich sind. Zudem erfordern Bargeldzahlungen keine Kenntnisse über die Bonität des Käufers, denn Bargeld ist das einzige Zahlungsmittel, mit dem sich eine Transaktion sofort abschließen lässt (Europäische Zentralbank 2011). Bargeld ermöglicht damit Geschäfte, wie beispielsweise den Kauf von Gebrauchtwagen, die anders kaum durchführbar wären. Insofern behindert das verhängte Ende für große Stückelungen nicht nur illegale Aktivitäten, sondern erschwert als Kollateralschaden auch manche legale Transaktion (Vollmer 2016a). Das zweite Argument zugunsten einer Bargeldabschaffung basiert auf der Vermutung, dass der natürliche Realzinssatz, der Investition und Ersparnis zum Ausgleich bringt und ein Gütermarktgleichgewicht herstellt, dauerhaft gesunken sei und inzwischen negativ geworden ist (zum Folgenden siehe wiederum Rogoff 2016). Ursächlich hierfür sind steigende Ersparnisse in einigen alternden Industriegesellschaften und in einigen Schwellenländern, die auf eine nur gering wachsende Investitionsnachfrage in entwickelten Ländern treffen. Die Folge ist ein wachsender Sparüberhang, der zu einer deflatorischen Lücke führt, sofern es nicht gelingt, auch den realen Marktzinssatz auf das Niveau des natürlichen Zinssatzes abzusenken. Nominalzinssenkungen sind allerdings nach Erreichen der Nullzinsgrenze schwierig durchzusetzen, denn Wirtschaftssubjekte können stets auf die zinslose Bargeldhaltung ausweichen. Um das zu verhindern, fordern Vertreter einer Bargeldabschaffung fundamentale institutionelle und legale Reformen, die Nominalzinssenkungen unter die Nullzinsgrenze ermöglichen.5 Eine denkbare Alternative zur Bargeldabschaffung bestünde darin, der Schwundgeldidee von Gesell (1916) folgend, einen Strafzins auf die Bargeldhaltung zu verlangen. Solche Strafzinszahlungen wären umsetzbar, indem man beispielsweise ein Verfallsdatum für Banknoten verhängt und diese nur gültig bleiben,

5 Die Bargeldabschaffung ist nicht zwangsläufig gleichbedeutend mit einer Abschaffung der Geldbasis, weil Basisgeld auch Guthaben auf Konten bei der Zentralbank umfasst, die weiterverwendet würden.

Geldpolitik und Bankenaufsicht in Europa: Ordnungsdefizite und Reformoptionen

217

wenn sie abgestempelt oder anderweitig gekennzeichnet werden; das Abstempeln der Noten kann gegen eine Gebühr erfolgen (Buiter 2009, der auch die Probleme dieses Vorschlags diskutiert; siehe auch Fisher 1933a). Alternativ könnten „Lotterien“ durchgeführt werden, bei denen Banknoten mit zufällig gezogener Seriennummer für wertlos erklärt werden (Mankiw 2009). Obwohl einige Notenbanken, darunter auch die EZB, inzwischen damit begonnen haben, negative Zinssätze zu setzen, liegen keine empirischen Ergebnisse über ihre Wirksamkeit für die Bargeldsubstitution vor; mit Ausnahme Japans in den 1990er Jahren, hatte bislang noch keine Notenbank negative Zinssätze gesetzt, auch nicht während der Großen Depression (Rogoff 2016). Damit ist keineswegs sichergestellt, dass Wirtschaftssubjekte bei negativen Zinssätzen massenhaft auf die Bargeldhaltung ausweichen, zumal ein Umtausch erhebliche Transportkosten und eine Kassenhaltung nicht unbeträchtliche Lagerhaltungskosten verursacht, deren Höhe auch von der betrachteten Währung abhängt.6 Hinzu kommt, dass die Bargeldabschaffung irreversibel wäre, d. h. man verzichtete dauerhaft auf die Vorteile eines beliebten Zahlungsmittels, um eine Nachfrageschwäche auszugleichen, die möglicherweise nur temporär ist. Angemerkt sei auch, dass es nach Abschaffung des Bargelds eigentlich keinen Grund mehr für Geschäftsbanken gibt, Reservekonten bei der Notenbank zu unterhalten. Auch für eine Mindestreservepflicht gibt es keinen Grund mehr, jedenfalls keinen, der auf die Sicherstellung der Zahlungsfähigkeit der Banken abstellt. Damit würde aber eine Bargeldabschaffung die Abschaffung der monetären Geldbasis implizieren und damit auch die Notenbank als Trägerin der Geldpolitik obsolet machen. Dies verhinderte aber nicht, dass zeitgleich neue, private Geldkreisläufe entstehen, weil private Anbieter Geldscheine produzieren, die Grundlage für Zahlungssysteme werden (Buiter 2009). Wollte man solche privaten Kreisläufe unterbinden, müsste man nicht nur das bestehende Bargeld abschaffen, sondern den Bargeldgebrauch generell verbieten.

2.2 Vollgeld-Initiativen Anliegen verschiedener Initiativen zur „Vollgeldreform“ ist es, die Sekundärgeldschöpfung durch den Geschäftsbankensektor vollständig der Kontrolle durch eine staatliche Autorität zu unterwerfen, die häufig als „Monetative“ bezeichnet wird

6 Die NZZ hat ausgerechtet, wie viel Lagerkapazität in m3 eine Bargeldmenge im Wert von umgerechnet 1 Mrd. USD in verschiedenen Währungen (Euro, Yen, US-Dollar, Britisches Pfund) verbraucht. Von den betrachteten Währungen erfordert der Yen den meisten Platz (15 m3) und der SFR den geringsten (ca. 1,5 m3). Siehe Fuster (2016).

218

Uwe Vollmer

(Huber 2016).7 Die „Monetative“ ist eine unabhängige öffentliche Institution und gleichrangig mit den übrigen staatlichen Gewalten, nämlich der Legislativen, der Judikativen und der Exekutiven. Sie darf von niemandem Weisungen entgegennehmen. Die „Monetative“ stellt dem Banken- und Nichtbankensektor Primärgeld zur Verfügung, entweder in Form von Bargeld, d. h. Münzen und Banknoten, oder als Guthaben der Geschäftsbanken bei der „Monetativen“. Nur das von der „Monetativen“ geschaffene Geld ist im Endzustand der Vollgeldreform gesetzliches Zahlungsmittel.8 Dessen Ausgabe erfolgt entweder per Tilgung öffentlicher Schulden oder per Transfer oder schuldfreie Übergabe an den Staat, der die Mittel in den öffentlichen Haushalt einstellt – entweder zweckgebunden oder ohne Zweckbindung. Die Gegenbuchung der Vollgeldausgabe erfolgt bspw. durch Abschreibung des Eigenkapitals der „Monetativen“, das auch negativ werden kann. Über die Verwendung der nicht zweckgebundenen Mittel entscheidet das Parlament; mögliche Gründe für eine Zweckbindung sind ein Ausbau der öffentlichen Infrastruktur oder die Finanzierung sozialpolitischer Maßnahmen (Huber 1998; Ders. 2016; Mayer 2016). Neben der „Monetativen“ existieren weiterhin (private oder öffentliche) Geschäftsbanken, die Sekundärgeld produzieren, das ebenfalls zu Zahlungszwecken verwendet werden kann, aber kein gesetzliches Zahlungsmittel ist. Die Geschäftsbanken dürfen Sekundärgeld nur passiv schöpfen, indem sie Einlagen gegen Primärgeld aufnehmen, und müssen für jede Geldeinheit an Sekundärgeld, die sie ausgeben, ebenfalls eine Geldeinheit an Primärgeld bei der „Monetativen“ hinterlegen. Damit liegt eine 100 %ige Mindestreservepflicht vor. Die Banken unterliegen zudem dem Trennbankenprinzip, d. h. die Sekundärgeldproduktion erfolgt außerhalb der Bankbilanz, und Sichteinlagen von Nichtbanken werden wie Wertpapierdepots geführt. Eine aktive Sekundärgeldschöpfung durch Kreditvergabe an die Nichtbanken ist untersagt. Zwar ist eine Kreditvergabe möglich, allerdings nur durch die Investment-Abteilung der Geschäftsbank und nur gegen Ausgabe von Bankschuldverschreibungen oder anderen Schuldtiteln, die nicht zu Zahlungszwecken verwendet werden können. Vertreter der Vollgeldinitiativen erhoffen sich durch den Reformvorschlag, dass monetäre Konjunkturzyklen vermieden werden. Sie erwarten eine höhere Stabilität des Bankensystems, dessen Einlagen vollständig durch Primärgeld gedeckt sind

7 Initiativen zur Vollgeldreform gibt es derzeit auch in anderen Ländern, wie beispielsweise in Deutschland, Kanada oder Großbritannien. In der Schweiz ist die Vollgeldreform Gegenstand einer Volksinitiative, über die voraussichtlich 2018 abgestimmt wird. Siehe auch www.admin.ch/ch/d/ pore/vi/vis453t.html. 8 Die Schweizer Vollgeldinitiative sieht vor, dass „am Stichtag ihres Inkrafttretens alles Buchgeld auf Zahlungsverkehrskonten zu einem gesetzlichen Zahlungsmittel wird. Damit werden entsprechende Verbindlichkeiten der Finanzdienstleister gegenüber der Schweizerischen Nationalbank begründet. Diese sorgt dafür, dass die Verbindlichkeiten aus der Buchgeld-Umstellung innerhalb einer zumutbaren Übergangsphase getilgt werden“ (Mayer 2016).

Geldpolitik und Bankenaufsicht in Europa: Ordnungsdefizite und Reformoptionen

219

und das nicht mehr mit öffentlichen Mittel gerettet werden muss.9 Darüber hinaus können die Gewinne aus der Geldproduktion (die so genannte Zinsseigniorage) in den Staatshaushalt eingestellt werden. Mit diesen Bestandteilen ähnelt die Vollgeldreform geldpolitischen Reformvorschlägen aus den 1930er und 40er Jahren (Fisher 1935; Hart 1935; Simons 1948; Mints 1950) und weist eine besondere Nähe zu Milton Friedman’s „A Program for Monetary Stability“ (Friedman 1960) auf. Auch Friedman schlägt vor, die Geschäftsbanken einer 100 %igen Mindestreserve zu unterwerfen, wobei die Reservehaltung verzinst wird. Die Primärgeldproduktion erfolgt durch die Notenbank und ausschließlich über Offenmarktoperationen, wobei An- und Verkäufe von Wertpapieren auch am Primärmarkt zugelassen sind; Refinanzierungsoperationen der Zentralbank mit Geschäftsbanken sind hingegen ausgeschlossen. Wichtiger Unterschied zum Vollgeldvorschlag ist, dass die Notenbank als Primärgeldproduzent nicht unabhängig ist, sondern einer geldpolitischen Regel unterworfen wird. Die Geldmenge soll um einen konstanten Prozentsatz jährlich ausgeweitet werden, der geeignet ist, ein im Durchschnitt stabiles Preisniveau für Endprodukte zu garantieren. Im Wesentlichen beinhaltet die Vollgeldreform damit die Kombination aus einem Trennbankensystem und einer 100 %igen Mindestreservepflicht für Geschäftsbanken. Dies sorgt für eine maximale Stabilität des Bankensystems, das keinem Run mehr ausgesetzt sein kann; zugleich beseitigt es auch die Funktion einer Bank als Versicherer gegen Liquiditätsrisiken (Freixas und Rochet 2008). Dies bedeutet nicht das völlige Verschwinden von Geschäftsbanken, die als Depotbanken Gebühren einnehmen und als Investmentbanken mit Wertpapieren handeln dürfen; allerdings verlieren sie in ihrem Kerngeschäft, dem kombinierten Kredit- und Einlagengeschäft, ihre komparativen Vorteile.

3 Kontroverse Vorschläge zur Reform der Geldpolitik Neben der Vollgeld-Initiative und den Vorschlägen zur Bargeldabschaffung existieren derzeit weitere gemäßigte Reformvorschläge, vor allem zur Rolle der Geldpolitik. Sie sind weniger umstritten und sollen nachfolgend vorgestellt werden.

3.1 Finanzmarktstabilität als Mandat für die Geldpolitik? Weil die Inflationsentwicklung bis Mitte der 2000er Jahre eher moderat verlief, hatten die führenden Notenbanken in der Periode vor Ausbruch der Finanzkrise ihren 9 Anhänger der Vollgeldinitiative in Deutschland kritisieren die Vorschläge zur Bargeldabschaffung. Siehe www.vollgeld.de/bargeld-abschaffen/.

220

Uwe Vollmer

geldpolitischen Kurs kaum korrigiert, obwohl es zu erheblichen Preissteigerungen auf wichtigen Vermögensmärkten gekommen war. Solche Vermögenspreisänderungen sind für eine auf Preisstabilität ausgerichtete Geldpolitik bedeutungslos, weil die Geldpolitik allein auf die Preisentwicklung für Endprodukte achtet, worin die Vermögenspreisentwicklung nicht eingeht. Diese Beobachtungen führen zu Vorschlägen, dass Notenbanken bei ihrer Geldpolitik die Entwicklung auf den Finanzmärkten stärker berücksichtigen sollten und Finanzmarkstabilität sogar als gleichrangiges Ziel (neben der Preisstabilität) der Geldpolitik behandelt werden sollte (Smets 2014). Kern des Vorschlags ist damit weder, dass die Zentralbank als Aufsichtsbehörde über die Geschäftsbanken die makro-prudenzielle Stabilität überwacht, noch dass sie über einen eigenständigen makro-prudenziellen „Instrumentenkasten“ verfügt und bei Anzeichen von Instabilitäten daraus regulatorische Maßnahmen ergreift – beispielsweise, indem sie höhere Mindesteigenkapitalanforderungen für Banken festlegt.10 Gefordert wird vielmehr, dass die Zentralbank bei erkannten Gefahren für die Finanzmarktstabilität entsprechend ihrem erweiterten Mandat mit ihrem geldpolitischen Instrumentarium eingreift und beispielsweise auf Vermögenspreissteigerungen mit Anhebungen des Leitzinssatzes reagiert. Gegen solch ein erweitertes geldpolitisches Mandat lassen sich folgende Einwände anführen (Deutsche Bundesbank 2015): – Erstens setzt dieses Mandat voraus, dass die Zentralbank in der Lage ist, Vermögenspreisblasen schnell und verlässlich zu identifizieren. Sie müsste imstande sein, spekulative von fundamental begründeten Vermögenspreisänderungen zu unterscheiden und deshalb nur auf erstere mit ihrem geldpolitischen Instrumentarium reagieren. Andernfalls besteht die Gefahr, dass fundamental begründete Preisänderungen korrigiert werden.11 – Zweitens ist die Vermögenspreisdynamik Teil des geldpolitischen Transmissionsprozesses, denn expansive monetäre Impulse erzeugen einen Kassenhaltungsüberschuss, den die Marktteilnehmer wegen niedrigerer Transaktionskosten zunächst auf anderen Vermögensmärkten abzubauen versuchen, bevor sie ihre Nachfrage nach Faktorleistungen und nach neu zu produzierenden Gütern erhöhen. Insofern verwundert es nicht, dass die Inflationsrate weltweit derzeit trotz der Wertpapierankaufprogramme immer noch gering ist, während die Aktienkurse und Immobilienpreise inzwischen historische Höchststände erreicht (oder überschritten) haben.

10 Davon unbenommen ist die Frage, ob die mikro- und makro-prudenzielle Aufsicht bei der Zentralbank oder einer eigenständigen Behörde liegen sollen. Siehe dazu unten Abschnitt 4.4. 11 Dies ist ein Argument, das die Mehrheitsposition bis vor Auftreten der Finanzmarktkrise wiedergibt. Danach sollte die Geldpolitik das Entstehen einer Vermögenspreisblase weder verhindern noch diese zum „Platzen“ bringen. Die Geldpolitik sollte danach allenfalls mittels Liquiditätshilfen die Auswirkungen einer platzenden Blase abfedern. Vgl. Deutsche Bundebank (2015).

Geldpolitik und Bankenaufsicht in Europa: Ordnungsdefizite und Reformoptionen







221

Drittens drohen Zielkonflikte, wenn die Zentralbank mittels ihres geldpolitischen Instrumentariums zugleich den Konsumgüterpreisindex und einen Vermögenspreisindex kontrollieren soll. Es sind Situationen denkbar, in denen gemäß dem Ziel der Preisstabilität ein lockerer (strafferer) geldpolitischer Kurs erforderlich wird, während die Finanzstabilität einen strafferen (lockereren) Kurs verlangt (Deutsche Bundesbank 2015). Viertens kann ein Ziel der Finanzmarktstabilität zu einem Zeitinkonsistenzproblem für die Geldpolitik führen, wenn die Finanzmarktstabilität beispielsweise durch die Schuldenlast des privaten Sektors determiniert wird. Dann kann es sein, dass die Geldpolitik eine niedrige Inflationsrate ankündigt, aber nach Auftreten eines Schocks auf die Schuldenlast die Inflationsrate erhöht, um die Schuldenlast ex post zu vermindern. Dies kann zu einer im Gleichgewicht höheren Inflationsrate führen (Ueda und Valencia 2014). Schließlich gefährdet ein Mandat der Finanzmarktstabilität die Unabhängigkeit der Notenbank, beispielsweise wenn Solvenzprobleme im Finanzsektor auftreten, die die Notenbank lösen muss. Innerhalb der Eurozone ist diese Gefahr zwar durch den ESM tendenziell gebannt, allerdings ist auch dessen finanzielle Schlagkraft nicht unbegrenzt. Wenn dann die Notenbank als quasi-fiskalischer Akteur eingreift und Aufgaben übernimmt, die eigentlich eine parlamentarische Legitimation benötigen, würde schnell der politische Druck wachsen, die Notenbankunabhängigkeit einzugrenzen.

3.2 „Leaning against the wind“? Ein spezieller Aspekt der Mandatsausweitung für die Geldpolitik betrifft die Frage, ob die Notenbank eine Politik des „leaning against the wind“ (LATW) betreiben und auf Kreditzyklen reagieren soll, auch wenn dies für die Erreichung des Ziels der Preisstabilität nicht notwendig wäre.12 Hintergrund ist die Beobachtung, dass die Kreditvergabe durch Banken zentral sowohl für die geldpolitische Transmission als auch für die Finanzmarktstabilität bedeutsam ist, sodass Anknüpfungspunkte sowohl für die Geldpolitik als auch für die makro-prudenzielle Politik bestehen. Anliegen einer Politik des LATW ist, dass die Geldpolitik mit Blick auf die Kreditvergabe eingesetzt wird, d. h. im Abschwung etwas weniger expansiv und im Aufschwung dafür etwas restriktiver ausgerichtet wird, als das zur Garantie von Preisstabilität erforderlich wäre. Im Ergebnis bedeutete dies, dass die Geldpolitik

12 Die Schwedische Reichsbank betreibt seit Sommer 2010 eine Politik des LATW, indem sie die Geldpolitik auch am Verschuldungsgrad der privaten Haushalte (debt-to-income ratio) ausrichtet. Sie vermutet, dass ein hoher Verschuldungsgrad Gefahren für die Finanzmarktstabilität erzeugt (Sverige Riksbank 2013; vgl. auch Svensson 2014). Auch die EZB betreibt die Variante einer LATWPolitik, wenn sie die Vergabe ihrer gezielten längerfristigen Refinanzierungsgeschäfte (GLRGs) an die Bedingung knüpft, dass Geschäftsbanken keine zusätzlichen Immobilienkredite vergeben.

222

Uwe Vollmer

einen „bias“ zugunsten einer im Durchschnitt restriktiveren Geldpolitik aufweist, als dies zum Erreichen beispielsweise eines Inflationsziels von 2 % p.a. erforderlich wäre, um Gefahren für die Finanzmarktstabilität zu vermeiden (Svensson 2014; Deutsche Bundesbank 2015). Allerdings impliziert diese Sicht, dass ein Einsatz der übrigen Instrumente aus dem makro-prudenziellen „Instrumentenkasten“, die nicht der Geldpolitik zuzurechnen sind, nicht ausreichen, um Finanzmarktstabilität zu gewährleisten. Darüber hinaus setzt sie voraus, dass die Risiken einer tendenziell (gemessen am Inflationsziel) restriktiveren Geldpolitik gering sind im Vergleich zu dem Nutzen, der für die Finanzmarktstabilität entstehen. Beide Prämissen sind nicht unumstritten. In Bezug auf die zweite Prämisse findet beispielsweise Svensson (2013) für Schweden, dass die dort betriebene Politik des LATW den Verschuldungsgrad der privaten Haushalte (der von der schwedischen Reichsbank als wichtigster Indikator für die Finanzmarktstabilität betrachtet wird) eher erhöht, anstatt gesenkt hat. Damit hätte die Politik des LATW mehr Schaden als Nutzen angerichtet.

3.3 Anhebung des Inflationsziels? Befürworter eines LATW streben die bewusste systematische Untererfüllung eines vorgegebenen Inflationsziels an. Im Gegensatz hierzu fordern andere Beobachter angesichts der aktuell niedrigen Nominalzinssätze, dass Notenbanken im Rahmen ihrer Politik eines „inflation targeting“ die Zielinflationsrate deutlich anheben. Derzeit versuchen die meisten Notenbanken, die Inflationsrate (mittelfristig) bei etwa 2 % p. a. zu halten; nur in den Schwellenländern sind die numerischen Inflationsziele etwas höher (Tabelle 5). Gefordert wird, die Zielinflationsrate beispielsweise auf 4 % p. a. anzuheben und die Politik der quantitativen Lockerung so lange fortzusetzen, bis dieses Ziel erreicht ist (Blanchard, Dell’Ariccia und Mauro 2010; siehe auch Summers 1991 sowie Fischer 1996). Auf diese Weise sollen die Möglichkeiten der Zentralbank verbessert werden, auf gesamtwirtschaftliche Angebotsschocks mit Nominalzinssenkungen zu reagieren, um die gesamtwirtschaftliche Entwicklung zu stabilisieren. Ausgangspunkt ist die Fisher-Hypothese, wonach der Nominalzinssatz langfristig approximativ mit der Summe aus Realzinssatz und erwarteter Inflationsrate übereinstimmt. Deshalb weisen Länder mit niedrigen Inflationsraten häufig auch niedrige Nominalzinsen auf und verfügen über geringe Zinssenkungsspielräume, weil sie bald an die Untergrenze von null Prozent stoßen. Weitere Zinssenkungen unter die Null-Zins-Grenze sind zwar denkbar, jedoch (wie dargestellt) schwierig durchzusetzen, weil die Möglichkeit besteht, auf die Bargeldhaltung auszuweichen, deren „Verzinsung“ auf null Prozent festgeschrieben ist. Umgekehrt haben Länder, die ein höheres Inflationsniveau anstreben, bessere Möglichkeiten, mit Zinssenkungen auf Angebotsschocks zu reagieren und die Volkswirtschaft zu stabi-

Geldpolitik und Bankenaufsicht in Europa: Ordnungsdefizite und Reformoptionen

223

Tab. 5: Inflationsziele von Notenbanken in Industrie- und Schwellenländern 2016. Land Industrieländer Australien Eurozone Großbritannien Island Japan Kanada Neuseeland Norwegen Schwellenländer Brasilien China Indonesien Kenia Mexiko

Inflationsziel

Land

Inflationsziel

2–3 % unter, aber nahe bei 2 % 2% 2,50 % 2% 2 % ±1 % 2 % ±1 % 2,50 %

Polen Rumänien Schweden Schweiz Südkorea Tschechien Ungarn USA

2 % ±1 % 2,50 % ±1 % 2%