ORDO 64: Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft 9783828260207, 9783828205918

Das Jahrbuch ORDO ist seit über 50 Jahren ein Zentralort der wissenschaftlichen und politischen Diskussion aus dem Konze

215 94 47MB

German Pages 584 [600] Year 2013

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Inhalt
James M. Buchanan: Nachruf
James M. Buchanan zum Gedächtnis
James M. Buchanan (1919-2013)
Theoretische Grundlagen
John Maynard Keynes als Verhaltensökonom - illustriert anhand seiner Analyse des Versailler Vertrags
Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten
Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit in Hayeks Klassifikation der Formen menschlicher Ordnung
„Soziale Gerechtigkeit" als Befahigungsgerechtigkeit - Subsidiarität, Verantwortungsfähigkeit und Eigenverantwortung im Rahmen liberaler Ordnungspolitik und christlicher Gesellschaftsethik
Wirtschaftspolitik und Governance
Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?
Komplexität im Steuerrecht - Zentrale politökonomische Theorien im Lichte einer empirischen Ursachenforschung mit Hilfe von Process Tracing
Corporate Governance-Systeme und Unternehmensfinanzierung - Empirische Befunde für deutsche Großunternehmen
Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen
Ordnungspolitische und Sachprobleme der Energiewende
Irrwege der Klimapolitik - Anmerkungen aus volkswirtschaftlicher Sicht
Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte?
Ordnung der Märkte
Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem
Die Trennung von Wertpapier- und sonstigem Bankgeschäft: Trennbankensystem, ring-fencing und Volcker-Rule als Mittel zur Eindämmung systemischer Gefahren für das Finanzsystem
Durchsetzung von Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken?
Explosive Preisentwicklung und spekulative Blasen auf Rohstoffmärkten
Betreiben Indexfonds Agrarspekulation? Erläuterungen zum Geschäftsmodell und zum weiteren Forschungsbedarf
Vorträge und Stellungnahmen zur Ordnung der Wirtschaft und Gesellschaft
Das Elend mit den zu kurzen politischen Zeithorizonten
Politikversagen aus Unwissenheit - Zur Krise der europäischen Währungsunion
Ordnungspolitik heute
Die Finanzkrise und der Ruf nach mehr Europa
Alternative für Europa: Vertrauen Sozialethische Bemerkungen zur Target-Diskussion
Buchbesprechungen
Inhalt
Alles eine Frage der Perspektive
Recht, Ordnung und Wettbewerb
Die rechtliche Abgrenzung zwischen Lebensmittel und Arzneimittel
Gleichgewicht und Koordination
Freiheit oder Knechtschaft? Ein Handlexikon für liberale Streiter
Selektion und Kombination von Gesellschaftsrechtsformen im institutionellen Wettbewerb. Typenvermischung und hybride Rechtsformen im europäischen und US-amerikanischen Wettbewerb der Gesellschaftsrechte
Wirtschaftsethik ohne Illusionen. Ordnungstheoretische Reflexionen
Nachhaltig verschuldet?
Ökonomische Bildung und Wirtschaftsordnung
The Moral Limits of Communitarianism: What Michael Sandel Can't Buy
Sinn und Nicht Sinn. Das Verstehen des Menschen
Gewalt und Gesellschaftsordnungen
Bürgerzentriertes Gesundheitswesen
Kurzbesprechungen
Personenregister
Sachregister
Anschriften der Autoren
Recommend Papers

ORDO 64: Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft
 9783828260207, 9783828205918

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

ORDO Band 64

ORDO Jahrbuch

für die Ordnung

von Wirtschaft

und

Gesellschaft

Band 64 Begründet von

Herausgegeben von

Walter Eucken

Hans Otto Lenel

Josef Molsberger

und

Thomas Apolte

Christian Müller

Franz Böhm

Norbert Berthold

Peter Oberender

Clemens Fuest

Ingo Pies

Walter Hamm

Razeen Sally

Wolfgang Kerber

Alfred Schüller

Martin Leschke

Viktor Vanberg

Ernst-Joachim Mestmäcker

Christian Watrin

Wernhard Möschel

Lucius & Lucius • Stuttgart

Schriftleitung Professor Dr. Thomas Apolte Westfälische Wilhelms-Universität Münster Institut für Ökonomische Bildung Scharnhorststraße 100,48151 Münster Professor Dr. Martin Leschke Universität Bayreuth Lehrstuhl für Volkswirtschaftslehre 5, insb. Institutionenökonomik Universitätsstraße 30, 95447 Bayreuth Professor Dr. Dr. h.c. Josef Mols berger Ammertalstraße 5, 72108 Rottenburg Professor Dr. Christian Müller Westfälische Wilhelms-Universität Münster Institut für Ökonomische Bildung Schamhorststraße 100,48151 Münster Professor Dr. Dr. h.c. Peter Oberender Universität Bayreuth Forschungsstelle für Sozialrecht und Gesundheitsökonomie Universitätsstraße 30, 95447 Bayreuth Professor Dr. Ingo Pies Martin-Luther-Universität Halle-Wittenberg Lehrstuhl für Wirtschaftsethik Große Steinstraße 73, 06108 Halle (Saale) Professor Dr. Alfred Schüller Feldbergstraße 57, 35043 Marburg

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Lucius & Lucius Verlagsgesellschaft mbH Stuttgart -2013 Gerokstraße 51, D-70184 Stuttgart www.luciusverlag.com Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmung und die Einspeicherung und Verarbeitung in elektronischen Systemen. Alle Rechte vorbehalten Druck und Einband: Beltz Bad Langensalza GmbH, Bad Langensalza ISBN 978-3-8282-0591-8 ISSN 0048-2129

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Vorwort In diesem Jahr starben zwei Protagonisten der Institutionenökonomik: Ronald Coase am 2. September 2013 im Alter von 102 Jahren und James Buchanan am 9. Januar 2013 im Alter von 93 Jahren. Beide sind Nobelpreisträger im Fach Wirtschaftswissenschaften. Das Werk Buchanans und seinen Beitrag zur Ordnungsökonomik würdigen wir in diesem vorliegenden 64. Band des ORDO-Jahrbuchs einleitend im ersten Teil mit zwei Beiträgen. Ronald Coase' Beitrag zur Wirtschaftspolitik sowie zur Ökonomischen Analyse des Rechts werden wir im ORDO-Band des nächsten Jahres einleitend thematisieren. Im zweiten Teil werden theoretische Grundlagenprobleme analysiert. Die Spannbreite reicht hier von Keynes' verhaltensökonomischen Interpretationen über Probleme der theoretischen Abstraktion bis hin zu Fragen der Nachhaltigkeit und sozialen Gerechtigkeit. Gegenstand des dritten Teils sind Probleme der Wirtschaftspolitik und der Ausgestaltung von Goveraancestrukturen. Im Detail werden Fragen der Besteuerung und des Steuerrechts, des Zusammenhangs von Corporate Governance und Unternehmensfinanzierung, der Krise des öffentlichen Rundfunks sowie aktuelle ordnungsökonomische Aspekte der Energiewende, der Klimapolitik sowie des Mini- und MidijobMarktes diskutiert. Verschiedene Ordnungs- und Regulierungsfragen der Finanz- und Bankenmärkte sowie der Rohstoffmärkte stehen im Zentrum des vierten Teils. Die Beiträge dieses Themenbereichs sollten intensiv auf einem ORDO-Symposium im Frühjahr in der Lutherstadt Wittenberg diskutiert werden. Das Symposium fiel jedoch der Elbeflutwelle zum Opfer. Alle Beiträge der angesprochenen vier Teile wurden einem anonymen Gutachterverfahren unterzogen. Unser ganz besonderer Dank gilt daher den zahlreichen Gutachtern, die mit ihren Stellungnahmen wieder maßgeblich zu Verbesserungen der angenommenen Papiere beigetragen haben. Die Rubrik „Vorträge und Stellungnahmen zur Ordnung der Wirtschaft und Gesellschaft" ist der fünfte Teil des ORDO-Jahrbuchs. Hier stehen Probleme des Politikversagens, Fragen aktuellen ordnungsökonomischen Denkens sowie Probleme der Finanzkrise und sozialethische Aspekte zur Target-Diskussion im Mittelpunkt. Auch dieser ORDO-Band enthält wieder eine größere Zahl von Buchbesprechungen zu wirtschafts- und gesellschaftspolitisch relevanten Themen. Den Autoren sei für die Besprechungen herzlich gedankt. Die Schriftleitung dankt Herrn Stefan Hähnel für hilfreiche redaktionelle Arbeiten sowie Frau Nadine Blätterlein für das Management des Rezensionsteils. Die Schriftleitung

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Inhalt

I. James M. Buchanan: Nachruf.

1

Hans Albert James M. Buchanan zum Gedächtnis

3

Viktor Vanberg James M. Buchanan (1919-2013)

11

II. Theoretische Grundlagen

25

Thomas Döring John Maynard Keynes als Verhaltensökonom - illustriert anhand seiner Analyse des Versailler Vertrages

27

Jörg Dötsch Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

53

Peter Deegen Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit in Hayeks Klassifikation der Formen menschlicher Ordnung

79

Christian Hecker „Soziale Gerechtigkeit" als Befahigungsgerechtigkeit - Subsidiarität, Verantwortungsfahigkeit und Eigenverantwortung im Rahmen liberaler Ordnungspolitik und christlicher Gesellschaftsethik

99

III. Wirtschaftspolitik und Governance

135

Ute Schmiel Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

137

Markus Grottke und Maximilian Kittl Komplexität im Steuerrecht - Zentrale politökonomische Theorien im Lichte einer empirischen Ursachenforschung mit Hilfe von Process Tracing

163

Elmar Gerum und Sascha H. Mölls Corporate Governance-Systeme und Unternehmensfinanzierung Empirische Befunde für deutsche Großunternehmen

195

Hanno Beck und Andrea Beyer ÖfFentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen... 221

VIII

Inhalt

Wolfgang Ströbele Ordnungspolitische und Sachprobleme der Energiewende

253

Klaus Schöler Irrwege der Klimapolitik - Anmerkungen aus volkswirtschaftlicher Sicht

275

Norbert Berthold und Mustafa Coban Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte

289

IV. Ordnung der Märkte

325

Matthias Lehmann Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem

327

Florian Möslein Die Trennung von Wertpapier- und sonstigem Bankgeschäft: Trennbankensystem, „ring-fencing" und Volcker-Rule als Mittel zur Eindämmung systemischer Gefahren für das Finanzsystem

349

Jens-Hinrich Binder Durchsetzung von Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

377

Oliver Holtemöller Explosive Preisentwicklung und spekulative Blasen auf Rohstoffmärkten

405

Sören Prehn, Thomas Glauben, Ingo Pies, Matthias Will und Jens-Peter Loy Betreiben Indexfonds Agrarspekulation? Erläuterungen zum Geschäftsmodell und zum weiteren Forschungsbedarf.

421

V. Vorträge und Stellungnahmen zur Ordnung der Wirtschaft und Gesellschaft

443

Walter Hamm Das Elend mit den zu kurzen politischen Zeithorizonten

445

Manfred Streit Politikversagen aus Unwissenheit - Zur Krise der europäischen Währungsunion

459

Peter Bernholz Ordnungspolitik heute

465

Wernhard Möschel Die Finanzkrise und der Ruf nach mehr Europa

475

Elmar Nass Alternative für Europa: Vertrauen - Sozialethische Bemerkungen zur Target-Diskussion

487

Inhalt

• IX

Buchbesprechungen

493

Personenregister

565

Sachregister

571

Anschriften der Autoren

579

James M. Buchanan: Nachruf

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Hans Albert

James M. Buchanan zum Gedächtnis James Buchanan war sicherlich einer der bedeutendsten Ökonomen des 20. Jahrhunderts. Er hat den Nobelpreis zu Recht erhalten. Er war nicht nur Ökonom, sondern er war darüber hinaus Politologe und Sozialphilosoph. Die üblichen Abgrenzungen zwischen den sozialwissenschaftlichen und den philosophischen Disziplinen spielten für sein Werk keine Rolle. Was die Ökonomik angeht, so darf man wohl sagen, dass er ein Außenseiter dieser Disziplin war, der mit dem üblichen ökonomischen Denken wenig zu tun hatte. Aus diesem Grunde hat er wohl den Nobelpreis so spät, erst im Jahre 1986, erhalten. Ich habe Buchanan auf den Konferenzen zur Analyse ökonomischer Probleme kennengelernt, die der Schweitzer Ökonom Karl Brunner in den 1970er Jahren in der Pfingstwoche in Interlaken veranstaltete.1 Brunner hatte wie Buchanan Interesse an philosophischen Problemen. Er hat mich nach Interlaken eingeladen, weil ich mich mit wissenschaftstheoretischen und anderen philosophischen Problemen befasst habe. Dort hat Buchanan auch Viktor Vanberg kennen gelernt, den er im Jahre 1983 zum Professor der Ökonomik an der George Mason-Universität in Fairfax (Virginia) gemacht hat und der dann dort eine Zeitschrift für institutionelle Ökonomik - „Constitutional Political Economy" - herausgegeben hat. Ich durfte 1988 auch ein Jahr an dieser Universität verbringen und lernte dort eine Reihe interessanter Leute kennen. Vanberg hat später einen Lehrstuhl für Ökonomik an der Universität Freiburg erhalten und die Leitung des dortigen Walther-Eucken-Instituts übernommen. Walther Eucken war übrigens einer der deutschen Ökonomen, die wie Buchanan das institutionelle Denken in der Ökonomik praktiziert und gefordert haben. Er ist leider bald nach Ende des Zweiten Weltkriegs gestorben. James Buchanan hat in einem seiner Bücher sein Leben und die Entwicklung seines Denkens geschildert.2 Er stammt, wie er dort sagt, aus einer armen Bauernfamilie, die in dem Gebiet, in dem sie lebte, großes Ansehen genoss. Sein Großvater John P. Buchanan war der einzige Gouverneur von Tennessee, der aus diesem Gebiet stammte. Er war von der Bauernpartei gewählt worden. Die öffentliche Schule, die James Buchanan zehn Jahre lang besuchte, wurde nach seinem Großvater „Buchanan-Schule" benannt. Buchanans Vater war der Jüngste einer großen Familie, der die Bewirtschaftung des familiären Bauernhofes übernehmen musste. Er war Lokalpolitiker und Friedensrichter der Gemeinde während der ganzen Kindheit seines Sohnes.3 Im Gegensatz zu seiner Mutter hatte er keinerlei geistige Interessen. Seine Mutter ging auf die Hochschule, 1

2 3

Vgl. Karl Brunner (ed.) Economics and Social Institutions. Insights from the Conferences on Analysis & Ideology, Boston/The Hague/London 1979. Vgl. James M. Buchanan, Better than Plowing and other personal Essays, Chicago/London 1992. a.a.O., S. 2.

4

Hans Albert

wurde Lehrerin und lehrte zehn Jahre lang, bevor sie seinen Vater traf. Sie übernahm eine Führungsrolle in der Gemeinde, organisierte die Eltemassoziation für die Schule und widmete sich regionalen Aufgaben. Sie war Buchanans Lehrerin und half ihm in seinen Collegejahren.4 In den Jahren 1928/1929, als er neun oder zehn Jahre alt wurde, beteiligte sich Buchanan an der Bauernarbeit.5 Damals wurde nicht mit Hilfe eines Traktors gepflügt, sondern mit einem Esel oder einem Pferd. Gemolken wurde mit der Hand. Buchanan sollte zum Studium der Rechtswissenschaft auf die Vanderbilt-Universität gehen. Aber die Depression zerstörte diesen Traum. Er ging auf das „Middle Tenessee State Teachers College", wohnte weiter zu Hause und verdiente genug, um die Gebühren und Bücher zu zahlen, indem er vier Jahre lang morgens und abends Kühe molk. Am Ende des Zweiten Jahres war er der Beste im College.6 Nachdem er im Jahre 1940 graduiert worden war, studierte er Ökonomik an der Universität von Tennessee. Er lernte dort zwar keine Ökonomik, aber er lernte mehr über Frauen und Whisky, was, wie er in seinem Buch feststellte, wichtige Teile der Erziehung sind. Bevor er eine Stelle bekommen konnte, wurde er zum Militärdienst eingezogen, und zwar zur amerikanischen Marine. Nach der Offiziersausbildung wurde er in den Stab des Admirals Nimitz versetzt, des Oberbefehlshabers der amerikanischen PazifikFlotte.7 Im vierten Kapitel seines Buches erzählt Buchanan von der Midway-Schlacht, die er auf dem Schiff des Admirals erlebt hat. Die Stunden der Schlacht waren, wie er sagt, dramatisch für die Mitglieder des Hauptquartiers. Es habe eine Atmosphäre der Konfusion geherrscht. Aber es sei bald klar gewesen, dass die Japaner die Schlacht verloren hatten. Buchanan selbst hatte den offiziellen Bericht über die Schlacht auszuarbeiten, den Admiral Nimitz dann nach Washington schickte. Nach dem Krieg musste Buchanan entscheiden, ob er Marineoffizier bleiben oder die akademische Laufbahn einschlagen wollte. Diese Entscheidung fiel ihm nicht leicht, denn er hatte seinen Militärdienst in der Flotte genossen. Die Marineoffiziere waren die sympathischste Gruppe von Personen, die er kennen gelernt hatte - im Gegensatz zu den Journalisten, die für ihn die unsympathischste Gruppe waren. Aber er hatte den Eindruck, dass seine Aussichten, in der Marine Erfolg zu haben, relativ gering waren. Daher entschloss er sich dazu, Akademiker zu werden. Aber er würde, wie er sagt, auch heute noch die Gruppe der Marineoffiziere der der Akademiker vorziehen. Im Winter 1946 begann er sein Studium der Ökonomik an der Universität von Chicago, wo unter anderem Frank Knight einen Lehrstuhl hatte.8 Frank Knight war, wie er sagt, kein systematischer Lehrer. Er sei z. B. nicht imstande gewesen, das AllokationsMaximierungs-Paradigma vom Koordinations-Paradigma loszulösen, das Buchanan als zentral für die Ökonomik ansah. 4 5 6 7 8

a.a.O., a.a.O., a.a.O., a.a.O., a.a.O.,

S. 2. S. 21. S. 3. S. 54-59. S. 70 ff.

James M. Buchanan zum Gedächtnis

5

Knights Ökonomik war nach Buchanan ein merkwürdiges Amalgam dieser unvereinbaren Visionen. Buchanan war, als er sein Studium begann, ein Sozialist - wenn auch ein „libertärer" Sozialist - , der das Prinzip der Markt-Koordination nicht verstand. Unter dem Einfluss der Ökonomik Frank Knights gab er seine sozialistische Auffassung auf. Knights Ansatz, so sagt er, wurde dann institutionalistisch. Buchanans Aufenthalt in Italien in den Jahren 1955 und 1956, der die Entwicklung seines Interesses an politischen Entscheidungsstrukturen und der Beteiligung von Individuen an diesen Strukturen beeinflusst hat, übergehe ich und verweise dafür auf das betreffende Kapitel seines Buches.9 Im Jahre 1957 gründete Buchanan zusammen mit Warren Nutter das „Thomas Jefferson Center for Studies in Political Economy and Social Philosophy" in Charlottesville. Die beiden waren der Auffassung, dass die Ökonomik, wie sie von den meisten betrieben wurde, von ihrer klassischen Tradition abwich. Die Vertreter der Ökonomik schienen das Verständnis der Marktordnung und ihrer politischen Funktion zu verlieren, die darin bestünde, die Notwendigkeit einer politischen Kontrolle des Gebrauchs aller Hilfsquellen zu minimieren.10 Die politische Ökonomik von Virginia legte von Anfang an ihren Nachdruck auf die Grenzen des politischen Prozesses und nicht auf die Korrektur des Marktversagens durch die Politik. Für Buchanan war die Regierung, wie er sagt, immer eine Instanz, vor der er Schutz suchte. Er versuchte nie, sie für seine eigenen Zwecke zu benutzen oder dazu, Ziele für die Gemeinschaft zu erreichen. 1958 kam Gordon Tullock an das Thomas-Jefferson-Zentrum. Er brachte, wie Buchanan feststellt, seine Kenntnisse in den Wissenschaften und in der Geschichte mit, zusammen mit seiner Fähigkeit, dramatische Sprünge über geistige Brücken zu machen." Tullocks Beitrag zur politischen Ökonomik Virginias sieht Buchanan darin, das mit ihr verbundene Verhaltensmodell zu festigen und den individualistischen Ansatz einer präzisen Analyse zugänglich zu machen. Buchanan und Tullock schrieben in den Jahren 1959 und 1960 zusammen ein wichtiges Buch, das, wie Buchanan sagt, die beiden Zweige der Forschung, die Analyse der Regeln, innerhalb deren Entscheidungen getroffen werden, und das ökonomische Modell des Verhaltens politischer Akteure, miteinander kombinierte.12 Das Buch war, wie Buchanan sagt, sowohl politische Philosophie als auch Ökonomik oder politische Wissenschaft, und sie hätten niemals geleugnet oder sich dafür entschuldigt, dass es seinen Platz innerhalb der Madisonschen Vision der amerikanischen Erfahrung hatte.13 Tullock und er selbst hätten in diesem Buch versucht, eine logisch konsistente Basis für eine demokratische politische Ordnung und Verfassung zu erstellen, die viele Ähnlichkeiten mit dem politischen Gemeinwesen aufweisen sollte, wie es sich die

9 10 11 12

13

a.aO., S. 82-92. a.a.O., S. 97. a.a.O., S. 98. Vgl. dazu: James M.Buchanan/Gordon Tullock, The Calculus of Consent: Logical Foundations of Constitutional Democracy, Ann Arbor 1962. a.a.O, S. 98.

6

Hans Albert

Gründungsväter vorgestellt hatten. Ihre Interpretation der in den USA entstandenen Institutionen unterschied sich, wie er meinte, in entscheidenden Punkten von Interpretationen, wie sie in der modernen Politikwissenschaft üblich sind. Den „Calculus of Consent" könne man, so meinte er, als einen Versuch interpretieren, in der Realität beobachtete Institutionen und Verhaltensweisen als „Vision einer Ordnung" zu verstehen. Dieses Buch ist das erste Buch dieser beiden Autoren, das ich gelesen habe. Es hat mich außerordentlich beeindruckt. Später habe ich dann die beiden kennen gelernt und andere Bücher und Aufsätze von ihnen gelesen. Ich habe dafür gesorgt, dass beide zum „Europäischen Forum Alpbach", das seit 1945 in jedem Sommer im Tiroler Dorf Alpbach stattfindet, eingeladen wurden, um dort Seminare zu leiten oder Plenarvorträge zu halten. Buchanan wurde später Vorsitzender der „American Alpbach Foundation", durch die die Alpbacher Veranstaltungen tatkräftig unterstützt wurden.14 In Alpbach hat Buchanan übrigens auch Hartmut Kliemt kennen gelernt, der im Jahre 1975 die Alpbacher Hochschulwochen nur deshalb besucht hat, weil er ihn kennenlernen wollte. Ich habe dann im Jahre 1984 in Alpbach ein Seminar arrangiert, das von Buchanan und Kliemt gemeinsam geleitet wurde. Kliemt war stets ein Kritiker der Vertragstheorie, die von Buchanan vertreten wurde. Daher haben beide in diesem Seminar die Vertragstheorie nicht diskutiert, was ich sehr bedauert habe. Trotz ihrer unterschiedlichen Auffassungen haben die beiden dann eine lebenslange Freundschaft geschlossen. Immer wieder hat Kliemt Buchanan in den USA besucht und hat ihn zu Vorträgen nach Deutschland eingeladen. Tullock war ein seltsamer Mann. Er konnte ununterbrochen sprechen, um ein Problem zu erörtern oder seine Auffassung über bestimmte Tatsachen darzustellen. Man musste sich außerordentlich konzentrieren, um ihm folgen zu können. In Alpbach war es im Sommer meist sehr heiß und alle Teilnehmer des Forums zogen sich entsprechend an. Aber Tullock ging dort in einem schwarzen Anzug und weißem Hemd mit geschlossenem Kragen und Schlips spazieren. Wir fragten uns, wie man das bei dieser Hitze aushalten kann. Wie Buchanan feststellt, wurde in der theoretischen Wohlfahrtsökonomik der 1950er und 1960er Jahre der Nachdruck auf die Identifikation des Marktversagens gelegt, verbunden mit dem normativen Argument für seine Korrektur mit politischen Mitteln. Der wichtige Beitrag der „public-choice theory" war seiner Meinung nach, dass sie diesen offenkundigen Mangel korrigierte. Jeder institutionelle Vergleich müsse, so meint er, relevante Alternativen vergleichen. Wenn die MarktOrganisation durch eine politische Ordnung ersetzt werden solle oder umgekehrt, dann müssten diese zwei institutionellen Strukturen auf der Basis von Vorhersagen darüber, wie sie tatsächlich funktionieren, bewertet werden. Thomas Hobbes hatte für die Entwicklung des Forschungsprogramms der VirginiaÖkonomik bisher keine Rolle gespielt. Das änderte sich aber in der Zeit der Studentenunruhen in den 1960er und 1970er Jahren, einer Zeit, in der im akademischen Bereich die Ordnung durch Anarchie ersetzt wurde.15 In dieser Zeit stieß für zwei Jahre Winston

14

15

Zu Buchanan vgl. mein autobiographisches Buch: In Kontroversen verstrickt - Vom Kulturpessimismus zum kritischen Rationalismus, 2.Auflage, Berlin 2010, S. 71, S. 151, S. 153, S. 181 und S. 190. Vgl, dazu James M. Buchanan/Nicos Devletoglou; Academia in Anarchy: An Economic Diagnosis, New York 1970.

James M. Buchanan zum Gedächtnis

7

Bush zur politischen Ökonomik von Virginia. Bush formalisierte, wie Buchanan feststellt, das Modell der sozialen Interaktion in der Anarchie.16 Er nahm dabei Hobbes als Grundlage und benutzte alle Werkzeuge der modernen ökonomischen Theorie. Das inspirierte Buchanan und Tullock, Bücher zu schreiben, die sich mit ähnlichen Themen befassten.17 Man hat mit Recht gesagt, dass drei Bücher in den 1970er Jahren eine Renaissance der Theorie des Gesellschaftsvertrags herbeigeführt haben, nämlich: „A Theory of Justice" von John Rawls, „Anarchy, State and Utopia" von Robert Nozick, und „The Limits of Liberty" von James M. Buchanan. Die drei Autoren hätten die Absicht gehabt, eine ordnungspolitische Alternative zum Utilitarismus zu entwickeln. Der Utilitarismus, den vor allem Jeremy Bentham vertreten hatte, war bekanntlich eine sozialphilosophische Strömung, die das ökonomische Denken seit dem Beginn des 19. Jahrhunderts stark beeinflusst hat. Er hat am Ende dieses Jahrhunderts zur „marginalistischen Revolution" gefuhrt, die die neoklassische Ökonomik - die „Grenznutzenlehre" - geprägt hat. In meiner Dissertation, die im Jahre 1954 erschienen ist, habe ich die neoklassische Ökonomik attackiert.18 Ich habe dabei nicht nur liberale Ökonomen kritisiert, sondern auch diejenigen sozialistischen Theoretiker, die sich an den für das ökonomische Denken typischen Rationalitätsannahmen orientierten und nur andere ordnungspolitische Konsequenzen daraus zogen. Buchanan war ein Vertreter des „methodologischen Individualismus", wie er im deutschen Sprachbereich zum Beispiel von Josef Schumpeter und Max Weber vertreten wurde. In seinem Buch „Die Grenzen der Freiheit" sagt er, man könne, wie man aus den Arbeiten von Thomas Hobbes und anderer Vertragstheoretiker wisse, die Entstehung des Staates „zumindest begrifflich" aus einem individualistische Kalkül herleiten, sodass damit viele Aspekte der politischen Realität erklärt werden können. Ich selbst wollte in meiner Dissertation die Idee kollektiver Rationalität ad absurdum fuhren, wie sie dann in der wohlfahrtstheoretischen Debatte weiterentwickelt wurde, und die ordnungspolitischen Konsequenzen, die sich daraus ergaben. Diese Idee stand offenbar im Widerspruch zu den individualistischen Voraussetzungen des ökonomischen Denkens. Später stellte ich dann fest, dass James Buchanan in seiner Kritik an Kenneth Arrows Argumentation in dessen Buch „Social Choice and Individual Vahles",

16

17

18

Vgl Gordon Tullock (ed.), Explorations in the Theory of Anarchy, Blacksburg 1972, und: Gordon Tullock (ed.), Further explorations in the theory of anarchy, Blacksburg 1974. Vgl. Gordon Tullock, The Social Dilemma: The Economics of War and Revolution, Blacksburg 1974 und James Buchanan; The Limits of Liberty: Between Anarchy and Leviathan, Chicago 1975 deutsche Ausgabe: James M.Buchanan, Die Grenzen der Freiheit. Zwischen Anarchie und Leviathan, Tübingen 1984. Vgl. dazu Hans Albert, Ökonomische Ideologie und politische Theorie. Das ökonomische Argument in der ordnungspolitischen Debatte (1954), 2. erweiterte Auflage Göttingen 1972, 3. Auflage: Ökonomische Theorie als politische Ideologie. Das ökonomische Argument in der ordnungspolitischen Debatte, Tübingen 2009.

8

Hans Albert

die im gleichen Jahr erschien wie meine Dissertation, dieselbe Konsequenz gezogen hatte.19 Das Kapitel über die politische Ökonomik von Virginia schließt Buchanan mit der Feststellung ab, dass eine konstitutionelle Reform erforderlich sei. Das Forschungsprogramm von Virginia habe unser Verständnis der sozialen Interaktion verbessert, aber die Wissenschaft sei auch konsequent auf die normativ gewählte Frage angewandt worden, wie Individuen in einer sozialen Ordnung leben und dabei ihre Freiheiten bewahren könnten. Diejenigen Wissenschaftler, die sich mit den Interessen „des Staates" identifizieren, hätten die politische Ökonomik von Virginia niemals akzeptiert. Dieser Unterschied in normativer Hinsicht sei ein Wesensmerkmal der politischen Ökonomik von Virginia, die er selbst positiv bewerte. Im zehnten Kapitel seines Buches geht Buchanan im Anschluss an die Frage, ob es seine Aufgabe sei, die Welt zu retten, darauf ein, wie er seine Aufgabe als Vertreter der politischen Ökonomik auffasst. 20 Er habe stets die Auffassung gehabt, sagt er da, seine Aufgabe bestehe darin, Ideen zu entwickeln und sie zur Diskussion zu stellen. Er sehe es aber nicht als seine Pflicht an, seine eigenen Ideen oder die anderer zu verkünden. Darin unterscheide er sich scharf von vielen seiner Kollegen in der Ökonomik. Er sei nie didaktisch motiviert gewesen. Es genüge ihm, Ideen mit ausreichender Klarheit auszuarbeiten, sodass er in der Lage sei, ein kohärentes und ästhetisch befriedigendes Argument zu präsentieren. Wenn seine Ideen andere überzeugten, sodass sie die soziale Realität in ähnlicher Weise sähen wie er, wäre er damit ebenfalls zufrieden. Aber wenn sie andere nicht überzeugten und die entsprechenden Reformen im sozialen Bereich nicht zustande kämen, dann wären seine privaten Nutzenverluste nicht größer als die von Personen, die sich nicht an der Diskussion beteiligt hätten. Er übernähme keine Verantwortung für die Resultate des Interaktionsprozesses, in dem er nur einer von vielen Teilnehmern sei. Respekt für das Individuum als einem von vielen Teilnehmern am sozialen Netzwerk der Interaktion zwinge den Sozialwissenschaftler zu einer notwendigen Demut. Wenn man ihn frage, wann er weiter arbeite, statt sich auf seinen Landsitz in Virginia zurückzuziehen, so sei seine Antwort einfach: er arbeite, weil es ihm Freude mache, weil er aus Ideen, aus dem Denken, aus der Gestaltung seiner Gedanken Nutzen ziehe, sowie aus ihrer Niederschrift in einem kohärenten Argument und darin, dass er sie in einem Manuskript und dann im Druck sehe. Es habe ihn nie gereizt, so stellt er fest, sich mit den schwierigen Problemen der Wissenschaftsphilosophie zu befassen, insbesondere mit der Diskussion der „Ökonomik als Wissenschaft". Allerdings habe er sich nicht gescheut, seine eigene methodologische Position darzustellen, die tatsächlich zeige, dass er ein Außenseiter in diesem wie in vielen anderen Aspekten seiner Bemühungen sei. Aber in der wissenschaftsphilosophischen Diskussion wurden seinem Eindruck nach stets die Naturwissenschaften als

19

20

Vgl. James M. Buchanan, Social Choice, Democracy, and Free Markets, Journal of Political Economy LXII, 1954, auch in seinem Aufsatzband: Fiscal Theory and Political Economy, Chapel Hill 1960, S. 75-89. Vgl James M. Buchanan, Better than Plowing and other Personal Essays, a.a.O., S. 148 f.

James M. Buchanan zum Gedächtnis

9

Modell gebraucht, sodass in ihr die Besonderheiten der Sozialwissenschaft nicht gewürdigt werden konnten. Der Sozialwissenschaftler müsse, so meint er, die Leistungsmerkmale von Alternativen erforschen, die er im Gegensatz zu den von ihm beobachteten Alternativen erdacht habe. Er sei dabei nur eingeschränkt durch die natürlichen Grenzen des Materials, mit dem er arbeitet. Das individualistische Element in seiner Vision der tatsächlichen oder möglichen sozialen Wirklichkeit, so stellt Buchanan fest, sei stets eine wichtige Komponente seiner Kritik an den Auffassungen anderer politischer Ökonomen gewesen. Er sei nicht in der Lage, den Enthusiasmus der formalen Wohlfahrtsökonomik für die soziale Wohlfahrtsfunktion zu teilen oder sich daran zu beteiligen, einer angeblich wohlwollenddespotischen Regierung Ratschläge zu erteilen. Seine Kritik an der orthodoxen politischen Ökonomik habe zumindest drei unterscheidbare Quellen. Erstens sei er durch die Auffassung von Frank Knight und Friedrich August von Hayek beeinflusst worden, dass das Problem der sozialen Ordnung kein wissenschaftliches Problem im üblichen Sinne des Wortes sei. Zweitens habe Knut Wicksells Mahnung großen Einfluss auf ihn gehabt, die Ökonomen sollten aufhören, sich so zu verhalten, als ob die Regierung eine wohlwollende Despotie sei. Und drittens habe er schon sehr früh in seinem Denken die Erhebung der allokativen Effizienz zu einem unabhängigen Wertstandard zurückgewiesen, die von den orthodoxen Ökonomen praktiziert wurde. Diese drei Quellen hätten ihm, so meint er, sein eigenes Fenster zur politischen Ökonomik geliefert. Von daher habe er es relativ leicht gefunden, das konventionelle ökonomische Denken seiner Kritik zu unterwerfen. Nachdem ich das Leben und das Werk James Buchanans geschildert habe, möchte ich nun zu seinen Auffassungen Stellung nehmen. Seine Versuche, institutionelle Alternativen und soziale Ordnungen zu analysieren und aufgrund ihrer Leistungsmerkmale zu beurteilen, halte ich für durchaus gelungen und vorbildlich für das ökonomische Denken. Aber seine Auffassungen über die Eigenart der wissenschaftlichen Aktivität halte ich für falsch. Ich bin der Auffassung, dass es in methodologischer Hinsicht keinen wesentlichen Unterschied zwischen den Naturwissenschaften und den Sozialwissenschaften gibt. In beiden Bereichen des wissenschaftlichen Denkens werden Gesetzmäßigkeiten gesucht, die bei der Erklärung der untersuchten Zusammenhänge verwendet werden können. Die Suche nach nomologischen Erklärungen ist in beiden Bereichen möglich und notwendig, um zur Erkenntnis dieser Zusammenhänge zu kommen.21 Es gibt keinen Grund, den Sozialwissenschaften in dieser Hinsicht eine Ausnahmestellung einzuräumen.

21

Vgl. dazu mein Buch: Traktat über kritische Vernunft, 5. Aufl., Tübingen 1991, S. 21 ff. undpassim.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Viktor J. Vanberg

James M. Buchanan (1919-2013)1 Der am 3. Oktober 1919 in Murfreesboro, Tennessee, geborene und am 9. Januar 2013 in Blacksburg, Virginia, verstorbene James M. Buchanan hat in seinem Lebenswerk ein Forschungsprogramm entwickelt, das - wenn auch ohne direkte Beeinflussung - eine so nahe Geistesverwandtschaft mit der deutschen ordo-liberalen Denktradition, insbesondere in ihrer Freiburger Ausprägung, aufweist, dass man ihn mit einigem Recht als „amerikanischen Ordo-Liberalen" bezeichnen kann. Im vorliegenden Beitrag soll zunächst sein Lebensweg in Kürze nachgezeichnet und im Hauptteil sein Werk, insbesondere im Hinblick auf die Parallelen zur Forschungstradition der Freiburger Schule, gewürdigt werden. Mit dem Titel seiner autobiographischen Schrift „Better than plowing" (Buchanan 1992a) spielt der auf einer Farm aufgewachsene Buchanan auf seine Erfahrungen mit den Bürden bäuerlichen Lebens an, die ihn die Vorzüge eines akademischen Lebens zu schätzen lehrten. Kurz nach dem Abschluss seines wirtschaftswissenschaftlichen Studiums an der University of Tennessee 1941 zur U.S. Navy einberufen, diente Buchanan bis Ende 1945 im Stabe des Oberkommandierenden der Pazifikflotte, Admiral C. W. Nimitz. Das anschließend an der University of Chicago aufgenommene Ph.D. Studium schloss er 1948 ab. Seine akademische Laufbahn begann er mit Professuren an der University of Tennessee (1948-1951) und der Florida State University (1951-1956), bevor er (abgesehen von einen kurzen Intermezzo an der University of California 1968/69) die verbleibenden Jahrzehnte seiner Lehr- und Forschungstätigkeit an Universitäten des Staates Virginia verbringen sollte, ein Umstand, dem das von ihm entwickelte Forschungsprogramm den Beinamen Virginia Political Economy verdankt. In Virginia übernahm Buchanan zunächst Professuren an der University of Virginia (1956-1968) in Charlottsville, an der er mit seinem Kollegen Warren Nutter das Thomas Jefferson Center for Studies in Political Economy gründete, und an der Virginia Polytechnic Institute & State University (1969-1983) in Blacksburg, an der er mit Gordon Tullock das Center for Study of Public Choice gründete, bevor er 1983 mit dem gesamten Public Choice Center an die George Mason University in Fairfax (in unmittelbarer Nachbarschaft zu Washington D.C. gelegen) übersiedelte, an der er bis zu seiner Emeritierung im Jahre 1999 lehrte. 1986 wurde Buchanan mit dem Nobelpreis für Wirtschaftswissenschaft ausgezeichnet. Eine zwanzigbändige Ausgabe seiner Schriften liegt mit den vom Liberty Fund, Indianapolis, veröffentlichten Collected Works of James M. Buchanan (1999-2002) vor.

Erweiterte Fassung des in den Orientierungen zur Wirtschafts- und Gesellschaftspolitik, 135, März 2013, S. 57-61, erschienenen Beitrags „James M. Buchanan und der Ordoliberalismus."

12

Viktor J. Vanberg

Die Konturen des mit seinem Namen verbundenen Forschungsprogramms ließ Buchanan bereits in seiner zweiten Publikation, dem 1949 erschienenen Aufsatz „The Pure Theory of Government Finance: A Suggested Approach"2, erkennen, in dem er sich gegen einen finanzwissenschaftlichen Theorieansatz wendet, der den Staat als „single organic entity" betrachtet und der Politik Anleitungen zur Maximierung sozialer Wohlfahrt geben zu können glaubt. Einem solchen Denkansatz stellt Buchanan die Forderung nach einer konsistent individualistischen Theorie staatlichen Handelns entgegen, die fiskalische Entscheidungen als kollektive Entscheidungen von Individuen erklärt3 und das staatliche Finanzwesen als Austausch von öffentlichen Leistungen und Steuerbeiträgen der Bürger interpretiert.4 Die Unabhängigkeit und das Selbstvertrauen, sich als junger Nachwuchsökonom gegen die in seinem fachlichen Umfeld, der Finanzwissenschaft und der Wohlfahrtsökonomik, gängige Sicht des Staates als wohlfahrtsmaximierenden Akteur zu stellen, schöpfte Buchanan nach eigenen Angaben vor allem aus zwei Quellen. Dies war zum einen die Prägung, die er als Doktorand in Chicago durch Frank Knight erfahren hatte Buchanan sprach von ihm stets als „mein Professor" - , den er in vielerlei Hinsicht als sein Vorbild betrachtete, gerade auch, was dessen undogmatische Offenheit fur Ideen und Argumente und kritisch-prüfende Einstellung gegenüber Autoritätsansprüchen jeglicher Art anbetraf. Zum anderen war es die Lektüre von Knut Wickseils 1896 in deutscher Sprache erschienener und bis dahin in der amerikanischen Finanzwissenschaft gänzlich unbeachtet gebliebener Dissertation Finanztheoretische Untersuchungen, auf die Buchanan, der des Deutschen mächtig war, eher zufallig stieß, als er die Zeit nach Abschluss seiner Promotion und vor dem Antritt seiner ersten Professur zum Stöbern in der Chicagoer Universitätsbibliothek nutzte. In Wicksells Analyse des fiskalischen Prozesses fand Buchanan eine Bestätigung der Überlegungen, zu denen ihn seine kritische Auseinandersetzung mit der finanzwissenschaftlichen Orthodoxie seiner Zeit hatten kommen lassen.5 Wie schon bei Wicksell galt seine Kritik einer ökonomischen Theorie staatlichen Handelns, die so tut, als habe sie einem wohlwollenden Diktator Ratschläge für die Maximierung der gesellschaftlichen Wohlfahrt zu geben,6 und der er eine analytische Sicht entgegenstellte, die den poli2

3

4

5

6

Wiederabgedruckt in Buchanan (1980, S. 8-23). Diesem im Dezember 1949 im Journal of Political Economy erschienenen Beitrag ging lediglich ein im Juli im Southern Economic Journal veröffentlichter Aufsatz über „Regional Implications of Marginal Cost Rate Making" voraus. Buchanan (1960, S. 79): „The whole problem seems best considered as one of the 'either-or' variety. We may adopt the philosophical basis of individualism in which the individual is the only entity possessing ends or values ... A social value scale as such simply does not exist. Alternatively, we may adopt some variant of the organic philosophical assumptions in which the collectivity is an independent entity possessing its own value ordering." Buchanan (1960, S. 11 f.): „The focus is completely shifted in the individualistic theory. The individual replaces the state as the basic structural unit. ... The state has no ends other than those of its individual members and is not a separate decision-making unit. State decisions are, in the final analysis, the collective decisions of individuals. The income of the state represents payments made by individuals out of their economic resources in exchange for services provided." Buchanan (in: Buchanan und Musgrave 1999, S. 18): „Wickseil sharply criticized his fellow economists for their unchallenged presumption that government is best modeled as a benevolent despot, simply waiting for the economists' advice. Wicksell's dissertation was indeed music to my mind." Buchanan (1979, S. 145): „Most economists and, I suspect, most political scientists, view government as a potentially benevolent despot, making decisions in the 'general' or the 'public' interest, and they

James M. Buchanan (1919-2013)

13

tischen Prozess auf seine Tauglichkeit hin untersucht, die Aufgabe wahrzunehmen, die ihm in einer freien, demokratischen Gesellschaft zukommt: die gemeinsamen Interessen aller Mitglieder des Gemeinwesens zur Geltung zu bringen. Für Wickseil bedeutete dies, dass Einstimmigkeit als Letzttest für Interessengemeinsamkeit und damit als letztendliche Legitimationsquelle fiskalischer Entscheidungen betrachtet werden muss. Eine weitere Bestärkung seiner eigenen Vorstellungen fand Buchanan schließlich in der Theorie des „genossenschaftlichen Staates," wie sie in der italienischen Schule der Finanzwissenschaft um Antonio de Viti de Marco entwickelt worden war.7 Dem eingehenderen Studium der Schriften dieser Schule, die den fiskalischen Prozess ebenfalls als Austausch zwischen Regierung und Bürgern betrachtet, widmete Buchanan sich bei einem Forschungsaufenthalt in Italien 1955/56. 8 Der finanzwissenschaftlichen und wohlfahrtsökonomischen Orthodoxie warf Buchanan vor, dass sie mit der ihr zugrundeliegenden Sicht des Staates stillschweigend den methodologischen Individualismus aufgibt, der seit Adam Smith das Markenzeichen der Ökonomik als Sozialwissenschaft darstellt und ihre Analyse marktlicher Prozesse auszeichnet. Mit ihrem „Maximierungsparadigma" stifte sie „methodologische Konfusion", indem sie die ansonsten auf das Handeln des Einzelnen bezogene Vorstellung von rationaler Wahl als Nutzenmaximierung auf soziale Kollektive wie den Staat übertrage.9 Analytische Konsistenz erfordere, so folgerte er, den politischen Prozess auf der Grundlage derselben theoretischen Annahmen zu untersuchen, die auch die ökonomische Theorie des Marktes leiten. Es gelte, eine individualistische ökonomische Theorie der Politik zu entwickeln, die politische Prozesse und ihre Ergebnisse ebenso aus dem Zusammenwirken des eigeninteressierten Bestrebens der beteiligten Individuen erklärt, wie dies die Ökonomik ansonsten für das Marktgeschehen unternimmt.10

7

8

9

10

deem it their own special function to advise and counsel this despot on, first, the definition of the general interest and, second, the means to furthering it." Buchanan (in: Buchanan und Musgrave 1999, S. 17): „My specialization within economics was, by prior interest, public finance. ... Very early in my graduate study, I was struck by the naivete of the textbook commonplace about political reality. ... At about this time, I discovered the English translation of de Viti de Marco's First Principles of Public Finance (de Viti 1936), which stimulated my interest in looking further into the Italian sources." Buchanan (in: Buchanan and Musgrave 1999, S. 19): „The Italian year (1955-1956) was a necessary element in finally sweeping away the romantic cobwebs about democratic processes." - „I came away with a healthy dose of Italian realism about politicians, politics, and bureaucracy." Buchanan (1977, S. 237): „Economists crossed the bridge from individual to social maximization because they wanted to be able to say something about policy alternatives." - Buchanan (1979, S. 22): „The definition of our subject makes it all too easy to slip across the bridge between personal or individual units of decision and 'social' aggregates. ... And, in one sense, my whole plea here is summarized by saying to economists, 'get back to stay on the side of the bridge where you belong'." Buchanan (1989, S. 37 f.): „Only individuals choose; only individuals act. An understanding of any social interaction process must be based on an analysis of the choice behavior of persons who participate in the process. Results that are predicted or that may be observed in social interaction must be factored down into the separate choices made by individuals." - Rutledge Vining, Buchanans Kollege an der University of Virginia (auf ihn wird zurückzukommen sein) äußerte sich ähnlich kritisch zur Wohlfahrtsökonomik: „This then seems to be the confusion in the work of welfare economists: these analysts presuppose that there exists a decision-making agent which chooses a particular distribution ... or a particular allocation ... But there exists no such choosing agent which selects an allocation ... or a distribution of a national product. These latter result from millions of individual choices each under a given system of constraints which apply to all individuals; and it is the system of constraints, and

14

Viktor J. Vanberg

Buchanans Bemühungen, eben dieses Projekt in Angriff zu nehmen, fanden bereits in den 1950er Jahren in zahlreichen Publikationen ihren Niederschlag, die ihn zu einem Hauptbegründer der Public Choice Theorie werden ließen, in der sein gemeinsam mit Gordon Tullock verfasstes Buch The Calculus of Consent - Logical Foundations of Constitutional Democracy (1962) den Rang eines Klassikers einnimmt.11 Gemeinsam mit Gordon Tullock organisierte Buchanan denn auch 1963 am Thomas Jefferson Center in Charlottsville ein Treffen mit gleichgesinnten Fachkollegen, das die Geburtsstunde der - später so genannten - Public Choice Society markiert. Aus der als Ergebnis des Treffens gegründeten Zeitschrift Papers in Non-Market Decision-Making ging die seit 1969 als Organ der Public Choice Society erscheinende Zeitschrift Public Choice hervor. Ganz im Sinne des Buchananschen Denkansatzes galt die Kritik der Public Choice Theorie vor allem einer Wohlfahrtsökonomik, die aus der Diagnose von - die Realisierung eines hypothetischen Wohlfahrtsmaximums verhindernden - Marktmängeln die Empfehlung staatlicher Eingriffe ableiten zu können glaubte, ohne weiter danach zu fragen, ob angesichts der Bedingungen des realen politischen Prozesses die Erwartung gerechtfertigt ist, der Akteur „Staat" werde die empfohlenen Eingriffe als wohlfahrtsmaximierender „wohlwollender Diktator" getreu umsetzen. In Verfolgung der von ihr geforderten analytischen Symmetrie zwischen Marktökonomik und politischer Ökonomik zeigte die Public Choice Theorie auf, dass der reale politische Prozess keineswegs weniger anfallig für „Mängel" ist als der Marktprozess, dass man also auch mit „Politikversagen" rechnen muss. Das bedeutet, dass eine verantwortliche Empfehlung, die Lösung bestimmter Probleme dem Markt zu entziehen und staatlichem Handeln zu überantworten, nur auf der Grundlage einer vergleichenden Analyse der Lösungstauglichkeit marktlicher und politischer Verfahren unter den jeweils gegebenen - insbesondere institutionellen - Rahmenbedingungen erfolgen kann. Nicht die unterschiedliche Motivation, mit der Menschen im Markt und in der Politik agieren, sondern die Unterschiede im institutionellen Regelrahmen, die ihren eigeninteressierten Bestrebungen unterschiedliche Beschränkungen auferlegen, sind - so die zentrale These der Public Choice Theorie - für die unterschiedliche Funktionsweise marktlicher und politischer Prozesse verantwortlich, und innerhalb der jeweiligen Bereiche hängt es wiederum von der spezifischen Ausgestaltung des Regelrahmens ab, welches Problemlösungspotential marktliche und politische Prozesse aufweisen werden. Allein mit dem Hinweis auf Buchanans Rolle als Begründer der Public Choice Theorie wäre die Bedeutung seines Werkes freilich nur unzureichend gewürdigt, liegt doch die weitergehende Wirkung seines Forschungsprogramms gerade in dessen besonderer Ausrichtung begründet, auf die das Nobelpreis-Komitee 1986 mit der Formulierung Bezug nahm, Buchanan werde ausgezeichnet für seinen Beitrag zur Erforschung „der kontrakttheoretischen und konstitutionellen Grundlagen ökonomischer und politischer Entscheidungsprozesse". not the resulting allocation or distribution, which is chosen by the joint action of the individuals constituting the society" (Vining 1956, S. 35). " Buchanan (in: Buchanan und Musgrave 1999, S. 20): "Gordon Tullock, who brought to the enterprise a hard-nosed emphasis on the predictive and explanatory power of Homo economicus models in politics and bureaucracy ... was critical for me both as a means of bolstering my confidence in mounting a challenge to much of the conventional wisdom in political science and as a source of genuinely creative and original ideas."

James M. Buchanan (1919-2013)

15

Es ist ihre vertragstheoretisch-konstitutionelle Perspektive, die die Besonderheit der von Buchanan geprägten Virginia-Variante der Public Choice Theorie und der aus ihr hervorgegangenen Forschungsrichtung der Konstitutionenökonomik (constitutional economics) oder konstitutionellen politischen Ökonomie (constitutional political economy) ausmacht, als deren Organ seit 1990 die von Buchanan begründete Zeitschrift Constitutional Political Economy erscheint. Die vertragstheoretisch-konstitutionelle Perspektive ist es auch, die dem Buchananschen Forschungsprogramm seine besondere Bedeutung für die Entwicklung der modernen Ordnungsökonomik verleiht. Auf ihr beruht die eingangs angesprochene Geistesverwandtschaft zur ordnungsökonomischen Forschungstradition der Freiburger Schule, und aus ihr hat diese Tradition wichtige Impulse für ihre Weiterentwicklung gewinnen können. Der in der Public Choice Theorie bereits betonte Gedanke, dass die Funktionseigenschaften marktlicher und politischer Prozesse von den in Markt und Politik jeweils vorherrschenden institutionellen Rahmenbedingungen abhängen, wird in der konstitutionellen Ökonomik nicht nur zum zentralen Forschungsgegenstand, er wird dort vor allem mit dem Gedanken verbunden, dass ein „gegebener" Regelrahmen von den darunter Lebenden nicht als unveränderlich hingenommen werden muss, sondern durch kollektive Entscheidung umgestaltet werden kann. Zum forschungsleitenden Denkmuster wird damit die Unterscheidung zweier Ebenen, auf denen Entscheidungen getroffen werden können, der sub-konstitutionellen Ebene, auf der es um Entscheidungen im Rahmen gegebener Regeln geht, und der konstitutionellen Ebene, auf der Entscheidungen über Regeln getroffen werden. Zur Veranschaulichung der Bedeutung dieser Unterscheidung bedient sich Buchanan gerne der Spielmetapher, nicht zuletzt angeregt von „seinem Professor" Frank Knight12 und von seinem Kollegen an der University of Virginia in Charlottsville, Rutledge Vining13, ebenfalls einem Studenten Knights, die beide in ihren Schriften auf die Parallelität zwischen unter Regeln ablaufenden üblichen Spielen und dem unter - expliziten und impliziten - „Spielregeln" ablaufenden gesellschaftlichen Leben hingewiesen haben.14 12

13

14

In seinem 1946 erschienenen Aufsatz „The Sickness of Liberal Society" (wieder abgedruckt in Knight 1982) spricht Frank Knight von dem „extensive parallelism between play and political and economic life" und stellt dazu fest: „All problems of social ethics are like those of play in that they have two components of obeying the rules and improving the rules, in the interest of a better ,game' - or associative activity. ... It is a vitally important fact that capacity to play intelligently, from the standpoint of winning, is much more highly and more commonly developed among human beings than is the capacity to improve or invent better games" (Knight 1982, S. 466). In einem „The Game Analogy" überschriebenen Abschnitt seines Aufsatzes „On Two Foundation Concepts of the Theory of Political Economy" stellt R. Vining (1969, S. 203) - unter Verweis auf Frank Knights Vorliebe für diese Analogie - fest: „The modifiable entity that men refer to as the economic system is analogous to a game in that it consists, as does a game, of a system of constraining and prescriptive rules and definitions that condition and set limits upon the prudential and means-end choices and decisions exercised by individual members of a population." - Vining (1956, S. 14): „We are using the term 'economic system' to mean a system of legislative constraints upon individual actions. In the sense that laws and regulations are rules, an economic system is a system of rules, and legislators are confronted always with the problem of finding a better-working system of rules." Buchanan (2001a): „Stimulated by Frank Knight and, more directly, by Rutledge Vining ..., I sensed the possible extensions in the explanatory descriptive power of models for 'rules of games', derived in accordance with some criteria of 'fairness'." - Buchanan (1992a, S. 13): „Rutledge Vining ... ham-

16

Viktor J. Vanberg

Ebenso, wie die an einem Spiel beteiligten Personen einerseits im Rahmen gegebener Regeln die Wahl ihrer Spielzüge von ihren individuellen Erfolgsinteressen leiten lassen, sich andererseits aber auch gemeinsam darüber verständigen können, ob sie nicht durch geeignete Änderungen in den Spielregeln ein „besseres", für alle vorteilhafteres Spiel spielen können, so kann man auch, dies soll die Spielmetapher ausdrücken, im gesellschaftlichen Zusammenleben der Menschen zwischen der Ebene der eigeninteressierten Strategiewahlen im Rahmen gegebener Regeln und der Ebene gemeinsamer Verständigung über mögliche Regeländerungen unterscheiden. Man kann im Hinblick auf Probleme in Wirtschaft, Gesellschaft und Politik einerseits danach fragen, welche Ergebnismuster die eigeninteressierten Handlungsentscheidungen der Beteiligten unter den jeweils gegebenen institutionellen Rahmenbedingungen hervorzubringen tendieren - und welche Vorzüge und Nachteile diese Ergebnismuster aufweisen - , und man kann andererseits danach fragen, durch welche Änderungen im jeweiligen Regelrahmen den Beteiligten zu einem besseren, für alle vorteilhafteren Spiel verholfen werden könnte. Indem sie die Frage der Regel- oder Verfassungswahl in den Mittelpunkt ihrer Forschungsbemühungen rückt, greift Buchanans konstitutionelle Ökonomik genau die Fragestellung auf, die die ordo-liberale Forschungstradition als das Problem einer angemessenen Wirtschaftsverfassung in das Zentrum ihres Erkenntnisinteresses gestellt hat,15 und es ist insofern kein Zufall, dass auch die Begründer der Freiburger Schule, Walter Eucken und Franz Böhm, in ihren Schriften wiederholt das Konzept der Wirtschafitsverfassung mit der Analogie zu Spielregeln veranschaulichen.16 Buchanan und die Freiburger Ordnungsökonomen gehen gleichermaßen davon aus, dass das wirtschaftswissenschaftliche Erkenntnisinteresse sich nicht in der Erklärung dessen, was ist, erschöpfen darf, sondern einen Beitrag zum Bemühen um die Schaffung einer besseren Ordnung menschlichen Zusammenlebens leisten sollte.17 Dort, wo Buchanan von der Aufgabe der Ökonomik spricht, darüber aufzuklären, welche Regeln des Zusammenlebens dem wechselseitigen Vorteil aller Beteiligten zu dienen geeignet sind, sprechen die Freiburger von der Aufgabe der Wirtschaftswissenschaft, der Frage nachzugehen, „wie muss die Wirtschafts- und Sozialordnung beschaffen sein, in der sich ein menschenwürdiges und wirtschaftlich erfolgreiches Leben entwickeln kann?"18 Und bei Eucken (1989, S. 240) ist vom Auftrag ordnungstheoretischer Analyse die Rede, Orientierungshilfe in der Frage zu geben, wie „eine funktionsfähige und menschenwürdige Ordnung der Wirtschaft" (Eucken 1989, S. 240) beschaffen sein sollte, „wie die wirt-

15

16 17

18

mered home to all who would listen that economic-policy choices are not among allocations or distributions, but are, necessarily, among rules or institutions that generate patterns of allocations and distributions. ... Vining took from Knight, and passed along to me, a fully sympathetic listener, the analogy with the choice of rules in ordinary games, from poker to basketball." Als Ausdruck dieser Gemeinsamkeit in den Forschungsinteressen kann man nicht zuletzt den Umstand werten, dass Buchanan eine Reihe seiner Beiträge im Jahrbuch ORDO veröffentlicht hat. Siehe dazu die Verweise in Vanberg (2001, S. 39 f.). Eine wichtige Motivation theoretischer Analyse sieht Buchanan (in: Buchanan und Musgrave 1999, S. 13) in "the prospect that this reality may be reconstructed or reformed so as to make for a 'better' world". So der Einleitungssatz im „Die Aufgabe des Jahrbuchs" überschriebenen Vorwort zum ersten Band von ORDO - Jahrbuch fir die Ordnung von Wirtschaft und Gesellschaft, 1948, S. VII.

James M. Buchanan (1919-2013)

17

schaftliche Gesamtordnung, und zwar die nationale und die internationale Ordnung und ihre Spielregeln zu gestalten sind" (ebd.).19 Wenn auch, wie eingangs erwähnt, von einer Beeinflussung des Buchananschen Forschungsprogramms durch die ältere Freiburger Forschungstradition nicht die Rede sein kann, so ist doch erwähnenswert, dass es mit dem Werk von Henry C. Simons, dem 1946 verstorbenen Vertreter der frühen Chicago Schule, ein indirektes Verbindungsglied zwischen beiden gibt. In seinen Grundsätze der Wirtschaftspolitik verweist Eucken (1990, S. 255) auf Simons' Buch Economic Policy for a Free Society als - neben Franz Böhms Wettbewerb und Monopolkampf (1933) und Leonhard Mikschs Wettbewerb als Aufgabe (2. Aufl. 1947) - einem der drei Werke, die „vor allem" für das „große Problem" der Wettbewerbsordnung „von Bedeutung" sind. Buchanan wiederum betont, dass er sich zu den „Chicago economists" zählt, die durch Frank Knight und Henry Simons geprägt wurden (Buchanan 2001c, S. 40), und erläutert dazu: „Several generations of students at the University of Chicago obtained their , vision' of the whole economic process only after encountering Henry Simons' syllabus (for Economics 201, his course in introductory economic theory) and Frank Knight's monograph Economic Organization (1933)."20 Man fühlt sich denn auch sowohl an den Freiburger OrdoLiberalismus wie an den konstitutionellen Liberalismus Buchanans erinnert, wenn man etwa bei Simons (1948, S. 160) liest: „The liberal creed demands the organization of our economic life largely through individual participation in a game with definite rules. It calls upon the state to provide a stable framework of rules within which enterprise and competition may effectively control and direct the provision and distribution of goods." In der Presidential Address, die er 1963 beim Jahrestreffen der Southern Economic Association unter dem Titel „What Should Economists Do?" (Buchanan 1979, S. 17-37) hielt, forderte Buchanan seine Fachkollegen auf, ihre Aufmerksamkeit auf die Erforschung „symbiotischer", allen Beteiligten zum Vorteil gereichender sozialer Beziehungen und Arrangements zu konzentrieren, fur die der freiwillige Markttausch das paradigmatische Beispiel sei. Das Paradigma wechselseitig vorteilhaften Tauschs, der „mutual gains from trade" sei, so betonte er, „the one important truth in our discipline" (Buchanan 1979, S. 28),21 und nur die Übertragung dieses Paradigmas von der Arena des Marktes auf die Arena der Politik biete eine angemessene theoretische Grundlage für die Politikberatung in einer freien demokratischen Gesellschaft, im Kontrast zu einer am „Maximierungsparadigma" der Wohlfahrtsökonomik orientierten Politikberatung.22 Hier liegt auch der Grund für die von Buchanan betonte Verwandtschaft seiner konstitutionellen Perspektive mit Gesellschaftsvertragstheorien, die die Legitimation einer Verfassungsordnung in der freiwilligen Zustimmung der darunter Lebenden begründet sehen. Wenn, so argumentiert Buchanan, die in der Ökonomik gängige Annahme der 19

20

21

22

Die Leitfrage ist für Eucken, wie eine „funktionsfähige und menschenwürdige Ordnung der Wirtschaft, der Gesellschaft, des Rechts und des Staates" (Eucken 1990, S. 373) gestaltet werden kann. Buchanan (2001, S. 88). Siehe auch Vanberg und Buchanan (1991, S. 179): „One of us (Buchanan) learned price theory at the University of Chicago in the 1940s, when all students, undergraduate and graduate, were required to master the Syllabus written by Henry Simons." Buchanan (1987, S. 305): „The eighteenth century discovery that, in an institutional framework that facilitates voluntary exchanges among individuals, this process generates results that might be evaluated positively, produced 'economics' as an independent academic discipline or science." Ausfuhrlicher dazu Vanberg (2005, S. 26 ff.).

18

Viktor J. Vanberg

„Effizienz" marktlicher Transaktionen ihre letztendliche Begründung nur aus dem Verweis auf die freiwillige Zustimmung der Tauschparteien schöpfen kann, dann ist es ein Erfordernis analytischer Konsistenz, dasselbe normative Kriterium, nämlich die freiwillige Zustimmung der Beteiligten, auch auf die Bewertung politischer und allgemein kollektiver Entscheidungsprozesse anzuwenden. In diesem Sinne bemerkt er: „Contractarianism is the one generalized philosophical position consistent with the classical liberal defense of freedom of exchange. Indeed, contractarianism can be interpreted as little more than an extension of the paradigm of free exchange to the broader setting. ... By shifting 'voluntary exchange' upward to the constitutional level of choices among rules, the consensual or general agreement test may be applied" (Buchanan 1991, S. 121 f.).

Die entscheidende methodologische Konsequenz, die sich ergibt, wenn das Kriterium der freiwilligen Zustimmung - als Test fur wechselseitigen Vorteil - den normativen Maßstab für die Beurteilung des sozialen Geschehens abgibt, liegt darin, dass die Aufmerksamkeit auf die Eigenschaften des Verfahrens gelenkt wird, durch das soziale Ergebnisse - sei es im Markt, sei es in der Politik - hervorgebracht werden.23 Die forschungsleitende Frage wird dann, inwieweit die institutionellen Rahmenbedingungen, unter denen die Beteiligten ihre Handlungsentscheidungen treffen, die Vermutung rechtfertigen, dass sie der Realisierung wechselseitiger Vorteile forderlich und in diesem Sinne für alle zustimmungsfähig sind.24 Entsprechend gilt dann das politische Gestaltungsinteresse der Frage nach den Möglichkeiten, durch Änderungen im jeweiligen Regelrahmen mögliche diagnostizierte Mängel in den Ergebnismustern zu korrigieren, die Chancen der Förderung gemeinsamer Interessen zu verbessern und die Risiken, ausgebeutet zu werden, zu verringern.25 Galt die Aufmerksamkeit der Freiburger Forschungstradition vornehmlich der Frage nach der angemessenen Ordnung des Marktes als dem - so Buchanan (1979, S. 31) „institutional embodiment of the voluntary exchange processes that are entered into by individuals in their several capacities",26 so liegt das Schwergewicht der konstitutionellen Überlegungen Buchanans bei der Frage, wie der Regelrahmen der Politik gestaltet sein sollte, um dort das zu erreichen, was Eucken (1990, S. 360) als die 23

24

25

26

Brennan und Buchanan (1985, S. 45) charakterisieren die „contractarian-constitutionalist position" mit den Worten: „As such, there is no means of evaluating any end state, because there is no external standard or scale through which end states can be 'valued'. End states must be evaluated only through the processes that generate them. ... If the process is such that individuals seem to be allowed to give due and unbiased expression to their own values, however these may be formed and influenced, the results must be deemed acceptable." - Buchanan (ebd., S. 83): „The 'good society' is that which best furthers the interests of its individual members, as expressed by these members, rather than that society that best furthers some independently defined criterion for the 'good'." Das Kriterium zur Beurteilung von Regelsystemen wird in diesem Sinne „the comparative ease or facility with which voluntary exhanges, contracts, or trades may be arranged between and among members of the community" (Buchanan 1991, S. 81). Buchanan (in Buchanan und Musgrave 1999, S. 18): „But how is it possible for persons to organize themselves collectively or politically so as to secure the genuine benefits from collective action without, at the same time, leaving open the prospects of exploitation?." Im ganz ähnlichem Sinne heißt es bei F. Böhm (1937), der „Grundgedanke der freien Wirtschaftsverfassung" bestehe darin, dass der Staat „nur den Tausch (bzw. den freiwilligen Vertragsschluss) als Mittel, die wirtschaftliche Mitwirkung anderer zu erlangen, zulässt, d.h., dass er Gewalt (Raub, Erpressung, Nötigung), Eigenmacht (Diebstahl, Unterschlagung) und List (Betrug) als Wirkungsmethoden ausschließt." Ergänzend betont Böhm die Sicherung von Wettbewerb als ordnungspolitische Aufgabe des Staates.

James M. Buchanan (1919-2013)

19

große Aufgabe der Wirtschaftspolitik bezeichnet hat: „die Kräfte, die aus dem Eigeninteresse entstehen, in solche Bahnen zu lenken, dass hierdurch das Gesamtinteresse gefordert wird." In The Calculus of Consent (Buchanan und Tullock 1961, S. 23) ist dieses Ziel mit den Worten umschrieben: „Adam Smith and those associated with the movement he represented were partially successful in convincing the public at large that, within the limits of certain general rules of action, the self-seeking activities of the merchant and the moneylender tend to further the general interests of everyone in the community. An acceptable theory of collective choice can perhaps do something similar in pointing the way toward those rules of collective choice-making, the constitution, under which the activities of the political tradesmen can be similarly reconciled with the interests of all members of the social group."

Mit Worten, die an die Public Choice Kritik der Wohlfahrtsökonomik erinnern, hatte auch Walter Eucken Vorstellungen als naiv gebrandmarkt, die "im vorhandenen Staat einen allweisen und allmächtigen Betreuer allen wirtschaftlichen Geschehens" (Eucken 1990, S. 338) erblicken, der, wenn „die freie Wirtschaft versage, ... die Lenkung des Wirtschaftsprozesses übernehmen" (ebd., S. 331) solle. Ebenso wie Buchanan, der nicht bei der Staatsversagens-Diagnose der Public Choice Theorie stehen blieb, sondern mit seinem konstitutionellen Ansatz den Blick auf die Frage nach einer „besseren" Staatsverfassung richtete, so betonte auch Eucken, dass es verfehlt wäre, „den faktisch vorhandenen Staat als Datum hinzunehmen" (ebd., S. 338), sei doch die Ordnung des Staates für die ordnungstheoretische Forschung „ebenso eine Aufgabe, wie die Ordnung der Wirtschaft" (ebd., S. 331). In der Tat sah Eucken in der Frage der Staatsordnung das vorrangige Problem, da, so stellte er fest, „ohne die ordnende Potenz des Staates eine zureichende Wirtschaftsordnung nicht aufgebaut werden kann" (ebd., S. 327). Sein früher Tod ließ Eucken nicht mehr dazu kommen, sein Vorhaben einer Abhandlung über die Ordnung des Staates zu verwirklichen. Seine häufig fehlverstandenen Formel vom starken Staat" weist jedoch deutlich auf ein Problem hin, das eine Verfassungsordnung, die die „ordnende Potenz" des Staates stärken soll, vordringlich lösen muss, ein Problem, auf das Buchanan mit gleichem Nachdruck verweist, wenn er die Notwendigkeit einer politics by principle" betont. 27 Es ist das Problem, das die Public Choice Theorie diagnostiziert, wenn sie im „rent-seeking" von Interessengruppen und im „rent-granting" eines Sonderinteressen bedienenden Staates die wesentliche Quelle von „Staatsversagen" sieht, und das die Vertreter der Freiburger Schule ausfuhrlich unter dem Stichwort der „Refeudalisierung" erörtert haben. Die „rent-seeking society" (Buchanan u.a„ Hrsg., 1980) der Public Choice Theorie erkannten die Freiburger in einer Gesellschaft, in der privilegiensuchende Interessengruppen und ein deren Forderungen bedienender, privilegienvergebender Staat einer quasi-feudalen Privilegienordnung den Weg bereiten, indem sie das untergraben, was Franz Böhm (1980, S. 164) als die „verfassungsmäßige Grundentscheidung ... für das marktwirtschaftliche System und die privilegienfreie Zivilrechtsgesellschaft" bezeichnet hat.

27

J. M. Buchanan und R. D. Congleton (1998, S. xii): „Politics by principle constrains agents and agencies of government to act nondiscriminatorily, to treat all persons and groups of persons alike, and to refrain from behavior that is, in its nature, selective. Within the limits of such constraints, politics may do much or little, and it may do what it does in varying ways."

20

Viktor J. Vanberg

Ebenso wie die Buchanansche Formel einer „prinzipiengeleiteten Politik" zielte die Freiburger Formel vom „starken Staat" darauf ab, dass ein Sonderinteressen bedienender Staat in Wirklichkeit ein schwacher Staat ist, der - wie Böhm (1980: 258) es formuliert - „zum Spielball rivalisierender Gruppeninteressen wird." Bei beiden Formeln geht es darum, dass die Fähigkeit des Staates als „ordnende Potenz" eine den gemeinsamen Interessen aller dienende Ordnung zu sichern, nur dadurch gestärkt werden kann, dass man ihn an Prinzipien bindet, die seine Befugnis, bestimmten Gruppen eine Sonderbehandlung zukommen zu lassen, beschneiden. Indem sie der Frage nachgeht, wie eine politische Verfassung aussehen sollte, die dies zu leisten vermag, hat die konstitutionelle Ökonomik Buchanans das Projekt aufgegriffen, das Walter Eucken als unerledigtes Erbe hinterlassen hat. 28 In ihrer Verbindung miteinander bieten das von Buchanan begründete Forschungsprogramm und die Forschungstradition der Freiburger Schule eine tragfahige Grundlage, auf der eine moderne Ordnungsökonomik aufbauen kann. Die Freiburger Tradition kann in diese Verbindung eine reiche Literatur zu Fragen der Wirtschaftsverfassung einbringen. Der wichtige Beitrag der konstitutionellen Ökonomik Buchanans liegt in ihrer stärkeren Konzentration auf Fragen der politischen Verfassung und in ihrer vertragstheoretischen Fundierung, mit der sie Wesentliches zur Klärung der normativen Grundlagen der Ordnungsökonomik leistet (Vanberg 1997). Ein persönliches

Nachwort

Neben F.A. Hayek ist James M. Buchanan ohne Zweifel der Autor, durch den meine eigenen Arbeiten am stärksten geprägt worden sind. Nachdem ich im kritischen Rationalismus Hans Alberts eine Orientierungshilfe in der verwirrenden Vielfalt sozialtheoretischer Denkansätze gefunden hatte, war es vor allem Hayeks Werk, das mich mit seiner Verbindung von sozialtheoretischem Individualismus und politischem Liberalismus überzeugte. Als ich dann mit dem Werk Buchanans vertraut wurde, sah ich darin eine bedeutsame Ergänzung des Hayekschen Ansatzes, zeigte es doch auf, wie ein sozialtheoretischer Individualismus und politischer Liberalismus konsistent auf den Bereich kollektiven, insbesondere politischen Handelns ausgeweitet werden kann, einen Bereich, der im - auf die „Zwillingsideen von spontaner Ordnung und Evolution" konzentrierten - Werk Hayeks unterbelichtet bleibt. Persönlich begegnete ich James Buchanan erstmals 1976 im Rahmen des von Karl Brunner organisierten jährlichen „Interlaken Seminars" und nochmals im selben Jahr im Rahmen der Europäischen Hochschulwochen in Alpbach. In den folgenden Jahren traf ich ihn wiederholt in Brunners Interlaken Seminar sowie, besonders folgenreich, 1981 bei einer Tagung in Freiburg. Für diese Tagung, an der auch Hayek teilnahm, hatte ich einen Beitrag vorbereitet, in dem ich einen Vergleich zwischen Hayeks „liberalem Evolutionismus" und Buchanans „vertragstheoretischem Konstitutionalismus" anstellte und argumentierte, dass und in welchem Sinne die beiden Varianten liberaler Sozial28

An Buchanans politicians who regeln für eine auch Buchanan

(1992b) programmatischen Aufsatz „How can constitutions be designed so that seek to serve 'Public Interest' can survive" knüpfte eine 2004 unter dem Titel „Spielbessere Politik" veranstaltete Vortragsreihe des Walter Eucken Instituts an, für die als Redner gewonnen werden konnte (Wohlgemuth, Hg., 2005).

James M. Buchanan (1919-2013)

21

philosophie nicht nur miteinander vereinbar sind sondern sich in fruchtbarer Weise ergänzen (Vanberg 1981). Die Tagung, bei der sowohl Buchanan wie auch Hayek meinem Versuch der Verknüpfung ihrer Ansätze zustimmten, 29 sollte sich als für meine eigene akademische Karriere besonders folgenreich herausstellen, erhielt ich doch im Anschluss von Buchanan eine Einladung zu einem zweimonatigen Forschungsaufenthalt an das von ihm geleitete Center for the Study of Public Choice an der Virginia Polytechnic Institute and State University in Blacksburg, Virginia. Dem Forschungsaufenthalt, den ich im Sommer 1982 am Center in Blacksburg verbrachte, folgte eine Einladung für das akademische Jahr 1983/84 an das mittlerweile an die George Mason University in Fairfax, Virginia, umgezogene Center, aus der dann, nach einem weiteren Jahr als Visiting Professor und der Berufung zum Professor of Economics im Jahre 1985 ein bis 1995 dauernder zwölfjähriger Aufenthalt wurde. Die Jahre der engen Zusammenarbeit mit James Buchanan am Public Choice Center, die in einer Reihe von gemeinsamen Veröffentlichungen ihren Niederschlag gefunden haben, waren für mich nicht nur eine ganz besonders anregende und bereichernde Erfahrung, sie haben mir auch das Rüstzeug gegeben, mit dem ich 1995 dem Ruf auf die wirtschaftspolitische Professur an der Universität Freiburg folgen konnte, auf der Hayek von 1962 bis 1969 gelehrt hatte. Die Übernahme dieser Professur und die im Jahre 2001 folgende Übernahme der Leitung des Walter Eucken verstand ich als Auftrag, in Lehre und Forschung einen Beitrag zur Integration der drei bedeutsamen Stränge ordnungsökonomischen Denkens - der Hayekschen Theorie spontaner Ordnung und kultureller Evolution, der konstitutionellen Ökonomik Buchanans und der Tradition der Freiburger Schule - zu leisten. Die geistige Verwandtschaft des Buchananschen Forschungsprogramms mit der Freiburger Forschungstradition fand ihre symbolische Anerkennung mit der Wahl James Buchanans zum - nach F.A. Hayek zweiten - Ehrenpräsidenten des Walter Eucken Instituts im Jahre 2004. Nach meinem Wechsel auf den Freiburger Lehrstuhl konnte ich Buchanan einige Male für Besuche an der Universität Freiburg und am Walter Eucken Institut gewinnen. Auch seine letzte Auslandreise führte ihn im April 2012 nach Freiburg, zu einer Tagung am Walter Eucken Institut. Anfang Oktober 2012, wenige Monate vor seinem Tod, traf ich Buchanan zum letzten Mal bei einer dem 50. Erscheinungsjahr von The Calculus of Consent gewidmeten Konferenz an der University of Virginia in Charlottsville.

Literatur Böhm, Franz 1937: Die Ordnung der Wirtschaft als geschichtliche Aufgabe und rechtsschöpferische Leistung, Stuttgart and Berlin: W. Kohlhammer (Ordnung der Wirtschaft, Bd. 1, hrsg. von F. Böhm, W. Eucken und H. Großmann-Doerth). Böhm, Franz 1980. Freiheit und Ordnung in der Marktwirtschaft. Baden-Baden: Nomos.

29

In einem ergänzenden Beitrag zur Veröffentlichung meines damaligen Beitrages stellte Buchanan (1981, S. 46) fest: „Dr. Vanberg hat, so denke ich, mit Erfolg meine eigene Position mit der von Professor Hayek in Einklang gebracht, und bei der interessanten Diskussion, die sich im Februar 1981 in Freiburg an den damaligen Vortrag von Dr. Vanberg anschloss, haben sowohl Professor Hayek wie auch ich seiner Interpretation zugestimmt."

22

Viktor J. Vanberg

Brennan, Geoffrey und James M. Buchanan 1985: The Reason of Rules - Constitutional Political Economy, Cambridge: Cambridge University Press. Buchanan, James M. 1960: Fiscal Theory and Political Economy - Selected Essays, Chapel Hill: The University of North Carolina Press. Buchanan, James M. 1977: Freedom in Constitutional Contract - Perspectives of a Political Economist, College Station and London: Texas A&M University Press. Buchanan, James M. 1979: What Should Economists Do?, Indianapolis: Liberty Fund. Buchanan, James M. 1981: „Möglichkeiten institutioneller Reformen im Rahmen kulturell geformter abstrakter Verhaltensregeln", in: V. Vanberg 1981,45-48. Buchanan, James M. 1987: „The Constitution of Economic Policy", in: J.M. Buchanan, Economics Between Predictive Science and Moral Philosophy, Compiled and with a Preface by Robert D. Tollison and Viktor J. Vanberg, College Station and London: Texas A&M University Press, 303-314. Buchanan, James M. 1989: „Rational Choice Models in the Social Sciences", in: J.M. Buchanan, Explorations into Constitutional Economics, Compiled and with a Preface by Robert D. Tollison and Viktor J. Vanberg, College Station and London: Texas A&M University Press, 37-50. Buchanan, James M. 1991: The Economics and Ethics of Constitutional Order, Ann Arbor: The University of Michigan Press. Buchanan, James M. 1992a: Better then Plowing and Other Personal Essays, Chicago und London: The University of Chicago Press. Buchanan, James M. 1992b: „How Can Constitutions Be Designed So That Politicians Who Seek To Serve 'Public Interest' Can Survive", Constitutional Political Economy 4, 1-6. Buchanan, James M. 2001a: „Rawls on Justice as Fairness", in: Moral Science and Moral Order, The Collected Works of James M. Buchanan, Vol. 17, Indianapolis: Liberty Fund, 353-359. Buchanan, James M. 2001b: „Knight, Frank H.", in: Ideas, Persons, and Events, The Collected Works of James M. Buchanan, Vol. 19, Indianapolis: Liberty Fund, 86-94. Buchanan, James M. 2001c: „Political Economy: 1957-82",in: Ideas, Persons, and Events, The Collected Works of James M. Buchanan, Vol. 19, Indianapolis: Liberty Fund, 38-49. Buchanan, James M. und Gordon Tullock 1962: The Calculus of Consent - Logical Foundations of Constitutional Democracy, Ann Arbor: The University of Michigan Press. Buchanan, James M., Robert D. Tollison und Gordon Tullock (Hrsg.) 1980: Toward a Theory of the Rent-Seeking-Society, College Station: Texas A&M University. Buchanan, James M. und Roger D. Congleton 1998: Politics by Principle, not Interest - Towards Nondiscriminatory Democracy, Cambridge und New York: Cambridge University Press. Buchanan, James M. und Richard A. Musgrave 1999: Public Finance and Public Choice - Two Contrasting Visions of the State, Cambridge, Mass.,und London: The MIT Press. Buchanan, James M. und Viktor J. Vanberg 1991: „The Market as a Creative Process", Economics and Philosophy 7, 167-186. De Viti De Marco 1936: First Principles of Public Finance, New York: Harcourt, Brace & Co. Eucken, Walter 1989 [1939]: Die Grundlagen der Nationalökonomie (Neunte, unveränderte Auflage), Berlin u.a.O.: Springer. Eucken, Walter 1990 [1952]: Grundsätze der Wirtschaftspolitik, 6. Aufl., Tübingen: J.C.B. Mohr (Paul Siebeck). Knight, Frank H. 1982 [1947]: Freedom and Reform - Essays in Economics and Social Philosophy, Indianapolis: Liberty Press. Simons, Henry C. 1948: Economic Policy for a Free Society, Chicago: The University of Chicago Press. Vanberg, Viktor 1981: Liberaler Evolutionismus oder vertragstheoretischer Konstitutionalismus? Zum Problem institutioneller Reformen bei F.A. von Hayek und J.M. Buchanan, Tübingen: J.C.B. Mohr. Vanberg, Viktor 1988: „'Ordnungstheorie' as Constitutional Economics - The German Conceptionof a ,Social Market Economy'", ORDO - Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft 39, 17-31.

James M. Buchanan (1919-2013)

23

Vanberg, Viktor 1990: ,James M. Buchanan: Eine Einführung in Person und Werk," in: J. M. Buchanan, Politische Ökonomie als Verfassungstheorie, Zürich (Bank Hofmann), 9-22. Vanberg, Viktor 1997: „Die normativen Grundlagen von Ordnungspolitik", ORDO - Jahrbuch fur die Ordnung von Wirtschaft und Gesellschaft 48, 707-726. Vanberg, Viktor 1999: „Der konstitutionenökonomische Ansatz bei J.M. Buchanan", in: W. Korff u.a. (Hrsg.), Handbuch der Wirtschaftsethik, Bd. 1: Verhältnisbestimmung von Wirtschaft und Ethik, Gütersloh, 504-509. Vanberg, Viktor 2000: „Der konsensorientierte Ansatz der konstitutionellen Ökonomik", in: Helmut Leipold und Ingo Pies (Hrsg.), Ordnungstheorie und Ordnungspoltik - Konzeptionen und Entwicklungsperspektiven, Schriften zu Ordnungsfragen der Wirtschaft, Bd. 64, Stuttgart, 252-276. Vanberg, Viktor 2001: "The Freiburg School of Law and Economics: Predecessor of Constitutional Economics", in: The Constitution of Markets - Essays in Political Economy, London und New York: Routledge, 17-36. Vanberg, Viktor 2005: „Market and state: the perspective of constitutional political economy", Journal of InstitutionalEconomicsX, 23-49. Vanberg, Viktor 2012: "Methodological and normative individualism in The Calculus", Public Choice 152,381-388. Vanberg, Georg und Viktor Vanberg 2012: "Towards a (re-)integration of the social sciences: The Calculus of Consent at 50", Public Choice 152, 245-252. Vining, Rutledge 1956: Economics in the United States of America - A Review and Interpretation of Research, Paris: Unesco. Vining, Rutledge 1969: "On Two Foundation Concepts of the Theory of Political Economy", Journal of Political Economy 77, 199-218. Wicksell, Knut 1896: Finanztheoretische Untersuchungen nebst Darstellung und Kritik des Steuerwesens Schwedens, Jena: Gustav Fischer. Wohlgemuth, Michael (Hg.) 2005: Spielregeln für eine bessere Politik. Reformblockaden überwinden - Leistungswettbewerb fordern, Freiburg: Herder. Zusammenfassung Der Beitrag blickt zurück auf die bedeutsamen Stationen im akademischen Lebenslauf des am 9. Januar 2013 verstorbenen Nobelpreisträgers James M. Buchanan und bietet einen Überblick über die zentralen Gedanken seines wissenschaftlichen Werkes. Hervorgehoben wird die Gedankenverwandtschaft mit dem Ordo-Liberalismus der Freiburger Schule.

Summary: The Nobel laureate James M. Buchanan died on January 9, 2013. The article lists the main stations of his academic career and reviews the central thoughts of his scientific work, emphasizing its affinities to the Ordo-liberalism of the Freiburg School.

Theoretische Grundlagen

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Thomas Döring

John Maynard Keynes als Verhaltensökonom - illustriert anhand seiner Analyse des Versailler Vertrags Inhalt I. II. 1. 2. III. 1. 2. 3. 4. IV.

Einleitung und Ausgangsthese Zentrale Erkenntnisse des verhaltensökonomischen Ansatzes Entscheidungsanomalien und kontextabhängige Präferenzen Fairnessnormen und divergierende Fairnesseinschätzungen Keynes' Analyse des Versailler Vertrages als angewandte Verhaltensökonomik Situationskomplexität, zeitinkonsistentes Verhalten und die Kumulation von Fehleinschätzungen Festhalten an der Status-quo-Situation und die Auswirkung von Ankereffekten Heuristiken und Stereotypen sowie die Wirkung eines übermäßigen Selbstvertrauens Verlustaversion, Kontexteffekte und die Eigendynamik der Verhandlungssituation Ordnungsökonomische Implikationen fiir die Gestaltung politischer Verhandlungsprozesse

27 30 31 34 36 36 39 41 42 45

Literatur

48

Zusammenfassung

51

Summary: John Maynard Keynes as Behavioral Economist - Represented by his Analysis of the Treaty of Versailles

51

I. Einleitung und Ausgangsthese Auch wenn die mit dem Friedensvertrag von Versailles verknüpfte Hoffnung auf eine stabile Nachkriegsordnung bereits in den Folgejahre nach Ende des Ersten Weltkrieges zunächst schleichend und dann immer offensichtlicher als grundlegend gescheitert gelten konnte, reichen seine fiskalischen Auswirkungen noch bis in die Gegenwart. Nachdem bereits durch Inkrafttreten des sogenannten Hoover-Moratoriums am 6. Juli 1931 die Reparationszahlungen aufgrund der Weltwirtschaftskrise fiir ein Jahr ausgesetzt wurden, annullierten die Siegermächte von Versailles auf der Konferenz von Lausanne zwar bereits 1932 die bestehenden deutschen Reparationsverpflichtungen vollständig. Deren bis dahin erfolgte Bedienung auf der Grundlage von seinerzeit am

28

Thomas Döring

Kapitalmarkt aufgenommenen Krediten sorgte jedoch dafür, dass die Bundesrepublik Deutschland als Rechtsnachfolgerin der Weimarer Republik noch bis 2020 einen Betrag in Höhe von jährlich 10 Mio. Euro an Zins- und Tilgungszahlungen gegenüber den bestehenden Gläubigern zu leisten hat (vgl. Hauser 2006, S. 32). Gerade das von den Siegermächten festgelegte Reparationsregime war seinerzeit ein wesentlicher Grund, warum John Maynard Keynes, der als Chefunterhändler des britischen Finanzministeriums an den Friedensverhandlungen teilgenommen hatte, am 7. Juni 1919 von seinem Posten zurücktrat. Neben den Reparationsverpflichtungen, die nach Ansicht von Keynes (1920, 2006) eher dazu dienten, die deutsche Wirtschaft mit überzogenen finanziellen Forderungen zu belasten, anstatt diese für den wirtschaftlichen Wiederaufbau Europas zu nutzen, war er zudem vom alliierten Wortbruch enttäuscht, der sich darin ausdrückt, dass Deutschland zunächst mit der Unterzeichnung des Waffenstillstandsvertrages von Compiegne am 11. November 1918 ein maßvoller Frieden ohne größere Gebietsabtretungen und Reparationsverpflichtungen zugesichert wurde, um dann aber im Versailler Vertrag beides umfassend festzuschreiben (vgl. Zank 1993, S. 65 f.; Baumgart 1970, S. 589). Nach seinem Rücktritt schrieb Keynes in weniger als einem Jahr seine Erfahrungen aus den Vertragsverhandlungen unter dem Titel „Die wirtschaftlichen Folgen des Friedensvertrages" nieder. Es folgte noch ein weiteres Werk, in dem Keynes (1922) sich mit den Auswirkungen des Friedensvertrages und der Möglichkeit zu seiner Aufhebung auseinandersetzt. Beide Werke, vor allem jedoch das zuerst genannte, sorgten quasi über Nacht dafür, dass Keynes weltweit zu einem der bekanntesten Ökonomen der damaligen Zeit wurde. In seiner Breitenwirkung gelten die Ausführungen zu den „wirtschaftlichen Folgen" dabei als mindestens ebenso folgenreich, wie dies mit Blick auf Keynes' (1936, 2009) spätere „Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes" gesagt werden kann. Dies betrifft nicht allein die prognostische Qualität des Buches, wenngleich hier schon in besonderer Klarheit die Katastrophe des Zweiten Weltkriegs als Folge eines Festhaltens an den Bestimmungen des Versailler Vertrages vorausgesagt wird (vgl. Keynes 1920, 2006, S. 131). Vielmehr wird Keynes' ökonomische Analyse des Versailler Vertrages als maßgeblich prägend für die gänzlich andere Politik der Westalliierten am Ende des Zweiten Weltkrieges bezeichnet, womit seinem Werk ein wesentlicher Beitrag für den Wiederaufbau und den wirtschaftlichen Aufstieg Westeuropas nach 1945 zugesprochen wird. Sucht man nach den intellektuellen Einflüssen auf seine Analyse des Versailler Vertrages, ist vor allem auf zwei Punkte zu verweisen (vgl. Bortis 2006, Kapitel 7): •

Zum einen betrachtet Keynes wirtschaftliche Phänomene nicht isoliert, sondern in einem weiteren Kontext, was neben gesellschaftspolitischen und historischen Aspekten auch ethische Überlegungen mit einschließt. Die ethische Perspektive seines Denkens drückt sich vor allem darin aus, dass Keynes die Sozialwissenschaften, zu denen er auch die Ökonomik rechnet, als moralische Wissenschaften definiert, deren jeweilige Vertreter die Aufgabe haben, konzeptionell an der Verbesserung von bestehenden gesellschaftlichen Zuständen zu arbeiten. Eine ähnlich grundlegende Aufgabe weist er auch den Regierungen zu, namentlich die zentrale Funktion der Sicherung des Gemeinwohls im Sinne einer Überwindung der drängendsten sozioökonomischen Probleme der jeweiligen Gegenwart. Als

John Maynard Keynes als Verhaltensökonom

29

für Keynes prägend gilt hierbei vor allem die Beschäftigung mit dem politischen Philosophen Edmund Burke, zu dem er bereits 1904 ein frühes Manuskript verfasste und dessen Ablehnung revolutionärer gesellschaftlicher Veränderungen er teilte. Um der Gefahr zu begegnen, bewährte gesellschaftliche Strukturen nicht vorschnell aufzugeben, sollten Reformen vielmehr moderat gestaltet und mit einem eindeutigen Gewinn gegenüber den Gegebenheiten des Status quo versehen sein (vgl. Muchlinski 2011). •

Zum anderen interessiert sich Keynes (1920, 2007) schon früh für erkenntnistheoretische Überlegungen (vgl. auch Bords 2006, Kapitel 7). Dies fuhrt nicht nur zu der grundlegenden Einsicht, dass das Wissen von Akteuren nie absolut, sondern lediglich mehr oder weniger wahrscheinlich sein kann, wobei ständige Anstrengungen erforderlich sind, um die Qualität des Wissens der handelnden Akteure zu verbessern. Danach kann die per se komplexe Wirklichkeit individuell nur unvollständig erfasst werden, wodurch einem umfassend rationalen Entscheidungsverhalten enge Grenzen gesetzt sind (vgl. Keynes 1936, 2009, Kapitel 12). Zugleich wird er schon früh von anti-rationalistischen Denkströmungen beeinflusst, zu denen auch alternative ökonomische Konzepte wie der vom englischen Politologen Leonard T. Hobhouse propagierte „Neue Liberalismus" gehören, mit dem eine positive Sicht auf Staatseingriffe in die Wirtschaft verbunden ist, und der sich dadurch vom sogenannten „Alten Liberalismus" unterscheiden soll, dem die Idee einer uneingeschränkten Freiheit der handelnden Akteure auf wirtschaftlichem Gebiet zugrunde liegt (vgl. Mini 1991). Mit der Rezeption dieser Ideen und Sichtweisen entfernt sich Keynes nicht nur von der Vorstellung eines unbeschränkt wirksamen kapitalistischen Wirtschaftssystems. Vielmehr gewinnt für ihn diesbezüglich vor allem die Frage an Bedeutung, wie das Verständnis von wirtschaftlichen Zusammenhängen dazu genutzt werden kann, um wirtschaftspolitische Maßnahmen des Staates so zu gestalten, dass auch auf wirtschaftlichem Gebiet die Freiheit der Individuen erhalten bleibt und nicht eine sozialistische oder totalitäre Gesellschaft die Folge ist.

Nicht weniger von Bedeutung für das Denken von Keynes dürfte sein Vater John Neville Keynes gewesen sein, der in seinem Hauptwerk „The Scope and Method of Political Economy" darauf verweist, dass mit Blick auf die theoretischen Grundlagen wirtschaftspolitischen Handelns den psychologischen Einflussfaktoren menschlichen Verhaltens ein hinreichendes Gewicht beigemessen werden sollte (vgl. Keynes 1891, 2011, S 84 ff.). Dies gelte zum einen für die normative Dimension mit Blick auf die Abwägung zwischen alternativen Politikzielen sowie deren ökonomische Rechtfertigung und Operationalisierung unter Rückgriff auf empirische Befunde zum tatsächlichen Verhalten wirtschaftlich relevanter Akteure. Dies gelte zum anderen für die instrumentelle Dimension wirtschaftspolitischen Handelns, die auf die unterschiedliche Wirkungsweise zur Auswahl stehender politischer Institutionen und Maßnahmen abzielt und bei der somit die konkrete Anreizwirkung bei den Adressaten von Politikinstrumenten im Mittelpunkt steht. Schließlich kann auch in der positiven Dimension staatlicher Wirtschaftspolitik die Berücksichtigung psychologischer Erkenntnisse das Verständnis dafür verbessern helfen, wie politische Entscheidungsprozesse unter realen Bedingungen de facto ablaufen. Im Rahmen seiner Ausführungen zum Zustande-

30

Thomas Döring

kommen sowie den möglichen Folgewirkungen des Versailler Vertrages räumt Keynes - wie noch zu zeigen sein wird - vor allem der zuletzt genannten Dimension der Einbindung psychologischer Faktoren breiten Raum ein. Dies gilt ebenso - wenn auch unter Abstrichen - für die zweitgenannte Dimension und damit die Analyse der zu erwartenden Wirkungsweise von im Vertragswerk festgeschriebener Regelungen. In Anbetracht dessen wird hier die These vertreten, dass Keynes seiner Untersuchung des Versailler Vertrages eine Betrachtungseise zugrunde legt, die sich auch in heutigen Ansätzen der Verhaltensökonomik findet. Entsprechend zielen die nachfolgenden Ausführungen darauf ab, die Logik der Argumentation von Keynes im Licht der modernen verhaltensökonomischen Forschung zu rekonstruieren. Es wird zu diesem Zweck an Studien aus dem Bereich der empirischen Verhaltensforschung ebenso wie der experimentellen Ökonomik angeknüpft, um das - spieltheoretisch formuliert - Negativsummenspiel in den Auswirkungen des Versailler Vertrages zu plausibilisieren. Zu diesem Zweck erfolgt zunächst eine Darstellung zentraler Erkenntnisse der Verhaltensökonomik (Kapitel 2), wobei neben den Ursachen einer begrenzten Rationalität individuellen Entscheidungsverhaltens auch auf die Bedeutung von Fairnessnormen für die Effizienz von Verhandlungsergebnissen näher eingegangen wird. Auf der Grundlage dieser allgemeinen Ausführungen wird anschließend die von Keynes vorgelegte Analyse des Versailler Vertrages eingehend untersucht, um die vielfaltigen Übereinstimmungen zwischen beiden Betrachtungsperspektiven herauszuarbeiten (Kapitel 3). Der Hinweis auf das Vorliegen von Präferenzinkonsistenzen, das Auftreten von sogenannten Ankereffekten, der Wirksamkeit von Stereotypen oder der Situationsgebundenheit des Verhaltens - um nur einige der von Keynes benannten Effekte zu nennen - lassen ihn als einen vergleichsweise „modernen" Ökonomen erscheinen. Der Beitrag schließt mit einigen ordnungsökonomischen Schlussfolgerungen, die sich aus Keynes' Analyse der Versailler Friedenskonferenz für das institutionelle Setting vergleichbarer politischer Verhandlungsprozesse ableiten lassen (Kapitel 4).

II. Zentrale Erkenntnisse des verhaltensökonomischen Ansatzes Die von Keynes vorgenommene Analyse des Versailler Vertrages lässt sich als eine Fallstudie konfligierenden menschlichen Verhaltens in komplexen Handlungssituationen interpretieren, deren Ergebnisse zugleich auf die Grenzen der Anwendbarkeit des in der Ökonomik gängigen Rational-Wahl-Modells verweisen. Dies steht im Einklang mit neueren psychologischen Untersuchungen, welche - ausgehend von Simons (1957) Modell der begrenzten Rationalität - das regelmäßige Auftreten von mentalen Beschränkungen im Entscheidungsverhalten von Akteuren in komplexen Verhandlungsprozessen belegen. Von zentraler Bedeutung ist hierbei, dass solche kognitiven Restriktionen nachweislich nicht nur situativ zur Konfliktverschärfung beitragen, sondern auch zu Misserfolgen bei der Verhandlungsführung sowie Ineffizienzen im Verhandlungsergebnis führen können. Auch gibt es Hinweise darauf, dass in weiterer Folge die Interaktionsbeziehungen zwischen Verhandlungspartnern nicht selten auf Dauer beschädigt werden können, was die Realisierung zukünftiger Kooperationsgewinne entweder einschränkt oder sogar gänzlich unmöglich macht (vgl. Bazeman et

John Maynard Keynes als Verhaltensökonom

31

al. 2000; De Dreu et al. 2000; Camerer und Hogarth 1999; Camerer et al. 1997; Northcraft und Neale 1988).

1. Entscheidungsanomalien und kontextabhängige Präferenzen Mit der Einbeziehung von Ergebnissen der kognitiven Psychologie verbindet sich aus Sicht verhaltensökonomischer Ansätze das Ziel, den Erklärungsgehalt individuellen Entscheidungsverhaltens zu steigern (vgl. DellaVigna 2009; Camerer und Loewenstein 2004; Rabin 1998; Conlisk 1996). Dabei wird abweichend vom neoklassischen Standardmodell - wie dies etwa bei Günther Schmölders, Hans Albert oder Wilhelm Röpke auch schon der Fall war - in Frage gestellt, dass die handelnden Akteure selbst für den Fall vollständiger Information in der Lage sind, zutreffende Erwartungen über künftige Ereignisse zu bilden. Auch wird bezweifelt, dass diese ausschließlich am eigenen Nutzen sowie an gegebenen stabilen Präferenzen orientiert sind (vgl. Kahneman 2003; Kahneman et al. 1991; Bettman et al. 1998). Die in einer Vielzahl von empirischen Studien gewonnenen Ergebnisse deuten vielmehr darauf hin, dass es sich hierbei um systematische Abweichungen von einem als rational unterstellten Verhalten handelt, die auch langfristig nicht durch eine Verbesserung der Anreizbedingungen zur Steigerung der kognitiven Fähigkeiten oder durch entsprechende Lernprozesse korrigiert werden können (vgl. Smith 2005; Miljkovic 2005). Die Ursache für diese kognitiven Fehlleistungen wird aus psychologischer Sicht mit Hilfe der Konstruktion eines dualen Handlungsmodells zu erfassen versucht, welches dem menschlichen Entscheidungsverhalten zugrunde liegen soll. Dabei wird konzeptionell zwischen einem intuitiv-automatischen und einem reflexiv-rationalen System unterschieden, wobei ersteres permanent und unangestrengt auf der Grundlage unbewusster und erlernter Verhaltensmuster funktionieren und letzteres selektiv und mühevoll mittels eines deduzierenden, kontrollierenden sowie regelgeleiteten Denkens arbeiten soll (vgl. Kahneman 2011, S. 28; Thaler und Sunstein 2012, S. 33ff). Die daraus resultierenden „ A n o m a l i e n " im Verhalten lassen sich grob in die folgenden vier Gruppen unterteilen: •

Verzerrungen in der Wahrnehmung - Aufgrund von „kognitiven Biases" gelingt es den Akteuren nicht, die gegebenen Randbedingungen und Merkmale einer Entscheidungssituation angemessen zu erfassen. Solche Wahrnehmungsverzerrungen fuhren dazu, dass individuelle Entscheidungen unter der Annahme falscher Voraussetzungen getroffen werden. So neigen beispielsweise Akteure bei der Bewältigung komplexer Handlungssituationen zu einem überzogenen Optimismus, was sich darin ausdrückt, dass die Wahrscheinlichkeit, Opfer von negativen Ereignissen zu sein, geringer eingeschätzt wird als die Möglichkeit, Nutznießer positiver Ereignisse zu sein (overconfidence bias). Im Hinblick auf ihr Können und Wissen neigen die Akteure zu einem übersteigerten Selbstvertrauen, d.h. sie überschätzen nicht selten ihre eigenen Fähigkeiten oder vertrauen zu stark auf ihr zukünftiges Glück. Damit verbunden ist das Phänomen, dass Informationen häufig dem eigenen Interessen entsprechend interpretiert werden (self-serving bias). Dies kann zu subjektiven Resistenzen führen, etwa dergestalt, dass nur solche Informationen berücksichtigt werden, die eine bereits bestehende

32

Thomas Döring

Entscheidlingsdisposition legitimieren. Auch kann dies bewirken, dass Akteure nur sehr zögerlich den Wechsel zwischen zwei Handlungsalternativen vollziehen, obwohl bei genauerer Betrachtung ein solcher Wechsel vorteilhaft wäre (vgl. Kahneman und Tversky 1984). Verantwortlich hierfür ist sowohl die Tendenz an der gegenwärtigen Situation festzuhalten (status quo bias), als auch der Sachverhalt, dass man Dingen, die man bereits besitzt, einen zu hohen Wert beimisst (endowment effect). Darüber hinaus werden innerhalb von Entscheidungsprozessen nicht selten Ereignisse, die als sicher gelten, mit einem zu hohen Gewicht belegt (certainty effect). Auch neigen Akteure zu der Einschätzung, dass das, woran sie gerade denken, besonders wichtig sei. Werden durch diese Konzentration auf nur wenige Aspekte weitere entscheidungsrelevante Informationen ausgeblendet, sind Fehlurteile nicht selten (focus illusion). Schließlich gilt es zu berücksichtigen, dass Akteure sich gegenüber unsicheren Zukunftsereignissen oft übertrieben Risikoavers verhalten, d.h. Verluste werden deutlich stärker gewichtet als gleich große Gewinne (vgl. Kahneman 2003). •

Verwendung von Heuristiken - Grundsätzlich übt jede Form von Heuristik mit Blick auf das individuelle Entscheidungsverhalten eine strukturierende und damit zunächst hilfreiche Funktion aus. Neben den genannten Wahrnehmungsverzerrungen kann aber auch die Verwendung von Heuristiken ein „irrationales" Verhalten bewirken. Ein Beispiel hierfür ist der Gebrauch von mentalen Ankern, die dazu führen können, dass Entscheidungen zwischen Handlungsalternativen nicht frei von vorgefertigten Urteilen gefallt werden (Anker-Heuristik). Demzufolge neigen Akteure dazu, Entscheidungen nicht rein sachbezogen, sondern in Anlehnung an vorgegebene Orientierungsgrößen zu treffen. Ein solcher Anker muss dabei nicht zwingend etwas mit dem entscheidungsrelevanten Sachverhalt zu tun haben. Die Anwendung mentaler Anker kann jedoch zu Lock-In-Effekten führen, wenn bestehende Vorurteile im Rahmen der Bewertung von Handlungsalternativen eine potenziell verbesserte Bedürfnisbefriedigung verhindern. Ebenfalls von signifikanter Bedeutung ist die sogenannte Verfügbarkeits-Heuristik. Mit ihr verbindet sich das Phänomen, dass Akteure ihre Entscheidungen nicht zwingend auf die als relevant anzusehenden Informationen stützen, sondern auf solche, an die sie sich am leichtesten erinnern können. Es ist leicht nachvollziehbar, dass auch damit die Wahrscheinlichkeit steigt, falsche Entscheidungen zu treffen. Schließlich ist zu berücksichtigen, dass Menschen im Regelfall dazu neigen, gemachte Beobachtungen einem bekannten Verhaltensmuster zuzuordnen. Dieses Denken in Stereotypen wird auch als Repräsentations-Heuristik bezeichnet. Allgemein muss aus verhaltensökonomischer Sicht davon ausgegangen werden, dass die Verwendung der genannten Heuristiken insbesondere in neuen oder schlecht strukturierten Entscheidungssituationen zu negativen Konsequenzen im Hinblick auf die „Güte" von Entscheidungen fuhrt (vgl. Camerer und Loewenstein 2004; Elster 1998).



Emotionale Entscheidungsirrtümer - Solche Irrtümer kommen dadurch zustande, dass es Akteuren oft nicht gelingt, einmal entworfene und als subjektiv optimal bewertete Pläne über einen längeren Zeitraum auch in die Tat umzusetzen (vgl. Gigerenzer 2008; Laibson 1997). Die Ursachen für diese Art von Willens-

John Maynard Keynes als Verhaltensökonom

33

schwäche sind durchaus unterschiedlich. So kann zum einen das frühere Verhalten eines Akteurs dessen jeweils gegenwärtige Entscheidung beeinflussen. Gewohnheiten oder auch Traditionen sind hier als relevante Bestimmungsfaktoren zu nennen, die dazu fuhren können, dass vergangene Handlungen, die sachlich und zeitlich unabhängig von aktuellen Problemen sind, negativ auf das gegenwärtige Entscheidungsverhalten einwirken (Beispiel: Suchtphänomene). Ein Mangel an Selbstkontrolle gegenüber diesen zeitlich zurückliegenden Ereignissen kann dazu beitragen, dass Akteure sich nicht in der Lage sehen, an ihren einmal gefassten Plänen auch entsprechend festzuhalten („problem of conditional preferences"). Ein weiterer Grund für entsprechende Willensschwächen ist, dass Akteure zwar problemlos in der Lage sind, für die Zukunft Handlungspläne zu entwickeln, sie jedoch nicht hinreichend antizipieren können, dass es zu einem späteren Zeitpunkt zu emotionalen Nivellierungen der ursprünglichen Pläne aufgrund von hedonistischen Anpassungen kommen kann. Ausgelöst werden diese Anpassungen dadurch, dass zum Zeitpunkt der Planung in der Zukunft liegende Kosten zugunsten der Minimierung gegenwärtiger Kosten vernachlässigt werden. Nahe und entfernte Ereignisse unterliegen somit einer unterschiedlichen Bewertung, wobei die Kosten eines Ereignisses umso geringer erscheinen, je weiter entfernt dieses vom aktuellen Zeitpunkt ist. Im Ergebnis fuhrt dies zum Phänomen zeitinkonsistenter Präferenzen, welches sich aus Sicht der Verhaltensökonomik auch als ein „multiple-selves" Problem charakterisieren lässt, da der betroffene Akteur - entgegen dem ökonomischen Standardmodell - keine einheitliche Präferenzordnung aufweist. •

Situationsabhängiges Verhalten - Das situative Entscheidungsverhalten von Akteuren gilt aus verhaltensökonomischer Sicht nicht allein als durch gegebene Restriktionen wie Güterpreise oder Einkommen bestimmt. Vielmehr wird dieses auch durch die Entscheidungssituation, wie sie sich für den Akteur präsentiert, beeinflusst. Entscheidungen erweisen sich deshalb in hohem Maße als kontextabhängig (framing effect). Von Relevanz ist dabei zum einen, wie Handlungsalternativen präsentiert bzw. beschrieben werden (vgl. Thaler 1980; Kahneman und Tversky 1984). Danach führen nicht selten unterschiedliche Dekompositionen ein und derselben Handlungsalternative zu unterschiedlichen Präferenzen gegenüber den verschiedenen Formulierungsvarianten, auch wenn es sich jeweils um denselben Sachverhalt handelt (isolation effect). Einen weiteren Bestimmungsfaktor benennt das sogenannte Konzept der konstruktiven Präferenzen (vgl. Bettman und Park 1980; Payne et al. 1992). Es wird dabei davon ausgegangen, dass ein Akteur seine spezifischen Präferenzen erst während des Entscheidungsprozesses „on the spot when needed" und damit abhängig vom Kontext des Entscheidungsvorgangs bildet (vgl. Bettman et al. 1998). Erklärt wird dieses Phänomen damit, dass kognitive Kompetenzen zur Bildung wohl definierter und stabiler Präferenzen häufig fehlen. Auch wird unterstellt, dass aus subjektiver Sicht im Regelfall verschiedene Ziele in eine Entscheidungssituation eingebracht werden, deren Abwägung erst im Laufe des Entscheidungsprozesses erfolgt. Schließlich ist ebenso von Bedeutung, dass sich Akteure leicht durch das, was andere kommunizieren und entscheiden, beeinflussen lassen (Herden-

34

Thomas Döring

Effekt). Dies gilt sowohl für die (sozial konforme) Übernahme von Verhaltensmustern, die auch bei (vielen) anderen zu beobachten sind, als auch für die Angewohnheit, bestehenden Gruppenzwängen nachzugeben. Dieses Verhalten wird zusätzlich dadurch begünstigt, dass die handelnden Akteure davon ausgehen, von ihrem sozialen Umfeld beobachtet zu werden, wodurch sie sich an das anzupassen versuchen, was sie für die Erwartungen der anderen halten (SpotlightEffekt). Wenngleich sich in Keynes' Analyse der Versailler Friedenskonferenz nicht die gesamte hier aufgeführte Palette an psychologischen Verzerrungen und Effekten auf das subjektive Entscheidungsverhalten findet, deutet sich in seinen späteren Schriften dennoch ein Bewusstsein dafür an, dass diese Mechanismen für ökonomische Analysen von nicht unerheblicher Bedeutung sind. Deutlich wird dies beispielsweise dort, wo er zur Erklärung des Investitionsverhaltens von Unternehmen sowohl auf den Einfluss der Verfügbarkeits-Heuristik als auch die Status-quo-Gebundenheit der Erwartungsbildung verweist (vgl. Keynes 1936, 2009, S. 126). Auch finden sich bei ihm Hinweise auf die Irrationalität des Herden-Verhaltens, welches auf Märkten beobachtet werden kann und ein wesentlicher Grund für konjunkturelle Schwankungen ist (vgl. Keynes 1936, 2009, S. 131).

2. Fairnessnormen und divergierende Fairnesseinschätzungen Nicht allein die bislang vorgestellten Ergebnisse verhaltensökonomischer Studien, sondern auch empirische Studien der experimentellen Ökonomik deuten darauf hin, dass das im ökonomischen Standardmodell unterstellte Rational-Verhalten zumindest in Konkurrenz zu weiteren handlungsleitenden Motiven steht. Im Zentrum dieser Studien steht die Frage, welche Regelmäßigkeiten sich im tatsächlichen Verhalten von Akteuren in Entscheidungs- bzw. Verhandlungssituationen zeigen, in denen ein Konflikt zwischen individueller und kollektiver Rationalität besteht (vgl. Plott und Smith 2008; Kagel und Roth 1995). Dabei hat sich bislang unter anderem gezeigt, dass für den erfolgreichen Ausgang von Verhandlungen (also für die Realisierung wechselseitiger Kooperationsgewinne) Einflussgrößen wie die Kommunikation zwischen den Verhandlungsparteien, der kulturelle Hintergrund der Akteure oder auch die Bereitschaft zu einseitigen Vorleistungen wichtige Voraussetzungen für ein gelungenes Kooperationsverhalten darstellen. Darüber hinaus wurde die bereits erwähnte Situationsgebundenheit des individuellen Entscheidungsverhaltens, zudem aber auch die Relevanz von relativen (im Unterschied zu absoluten) Verhandlungspositionen nachweislich bestätigt (vgl. für einen Überblick Weimann et al. 2012; Englerth 2004). Mit Blick auf Keynes' Analyse des Versailler Vertrages sind dabei vor allem die beiden folgenden Punkte von besonderer Relevanz: •

Bedeutung von Fairnessnormen - Die durchgeführten Experimente zeigen, dass in genau bestimmbaren Situationen die meisten Akteure hinsichtlich ihres Entscheidungsverhaltens durch eine „Ungleichheitsaversion" geprägt sind. Dies führt zu einem altruistischen Verhalten, wenn der andere relativ zur eigenen Position schlechter gestellt ist, und zu einem neidgesteuerten Verhalten, wenn der

John Maynard Keynes als Verhaltensökonom

35

andere über eine bessere als die eigene Position verfügt. Diese Präferenz für Gleichheit schlägt sich in der Bevorzugung von Normen der Fairness und Reziprozität nieder (vgl. Akerlof und Shiller 2009). Dies gilt insbesondere dann, wenn abgeschlossene Verträge hinsichtlich der damit verbundenen Rechte und Pflichten der Vertragspartner als unbestimmt gelten und damit deren Durchsetzung in möglichen zukünftigen Situationen ungewiss ist. In Experimenten wie dem sogenannten Ultimatum-, dem Diktator- oder auch dem Vertrauensspiel wird dabei deutlich, dass die Verhandlungspartner keine grob ungleichen Aufteilungsvorschläge mit Blick auf die realisierbaren Kooperationsgewinne machen, um Fairness und Reziprozität zu gewährleisten (vgl. Güth et al. 1982; Thaler 1988; Fehr und Schmidt 1999; Henrich et al. 2004). Vertrauen und Vertrauenswürdigkeit zahlen sich aus, wobei letzteres bedeutet, dass die Akteure bereit sind, gewisse Nachteile in Kauf zu nehmen, um bestehende Fairnessnormen nicht zu verletzten. Begründet wird dieses Verhalten damit, dass die Akteure neben materiellen Präferenzen auch solche für die Bestätigung oder die Erzeugung eines bestimmten (sozialen) Rufs und eines sympathischen Selbstbildes in Abhängigkeit davon haben, wie sie zuvor von den anderen Verhandlungspartnern behandelt wurden (vgl. Rabin 1993; Jolls et al. 1998). •

Verzerrte Fairnesswahrnehmungen - Die Bedeutung von Fairnessnormen im Rahmen von Verhandlungsprozessen schließt per se noch kein eigeninteressiertes Verhalten der Verhandlungsparteien aus. Vielmehr ist davon auszugehen, dass eine Interdependenz zwischen Fairness-Erwägungen und Eigeninteresse besteht. So wird nicht nur das eigeninteressierte Verhalten von Akteuren durch die Präferenz nach einer gerechten Behandlung beeinflusst, sondern auch die subjektive Einschätzung dessen, was als fair zu bewerten ist, steht unter dem Einfluss des Eigeninteresses der Akteure und wird nicht selten durch dieses verzerrt. Im Ergebnis kann dies zu Verhandlungshindernissen führen, die entweder eine Einigung zwischen den Verhandlungspartnern scheitern lassen oder die zu Durchsetzungsproblemen von Verträgen fuhren, ohne dass dies durch die ökonomische Standardtheorie (vollständig) erklärt werden kann. Aus verhaltensökonomischer Sicht wird dieses Phänomen demgegenüber durch Verweis auf einen bestehenden „Self-serving Bias" plausibilisiert (vgl. Babcock et al. 1993; Babcock et al. 1995; Sunstein 1999). Dabei handelt es sich um die wechselseitige Überzeugung der Akteure, dass ihnen mit Blick auf das angestrebte Verhandlungsergebnis mehr zusteht, als aus einer neutralen Perspektive als angemessen gilt. Liegen solche verzerrten Fairnesseinschätzungen vor, kann dies dazu führen, dass es zu keiner Einigung zwischen den Vertragsparteien kommt oder die Bindungswirkung an die Verhandlungsergebnisse zumindest bei einem Teil der Akteure vergleichsweise gering ausfallt.

Sowohl die Ausfuhrungen zu den Anomalien im Entscheidungsverhalten als auch die Überlegungen zur Relevanz von Fairness-Erwägungen in Verhandlungsprozessen sollten deutlich gemacht haben, dass der psychologisch fundierte Ansatz der Verhaltensökonomik ein differenzierteres Bild vom individuellen Entscheidungsverhalten als der ökonomische Standardansatz mit seiner Annahme vollständiger Rationalität liefert.

36

Thomas Döring

III. Keynes' Analyse des Versailler Vertrages als angewandte Verhaltensökonomik Selbst aus heutiger Sicht stellt die Pariser Friedenskonferenz gemessen an der Zahl der beteiligten Nationen (27 Länder) und des Umfangs der Verhandlungsgegenstände ein historisch einzigartiges Ereignis dar. So wurde nicht nur im Verlauf der Verhandlungen die Gründung des Völkerbunds, der Internationalen Arbeitsorganisation sowie des Internationalen Gerichtshofs beschlossen, die zu den integralen Bestandteilen des Versailler Vertrages zählen. Darüber hinaus war der im Rahmen der Konferenz erarbeitete Friedensvertrag mit Deutschland nur einer neben einer Reihe weiterer Friedensverträge, die mit anderen Ländern (Österreich, Bulgarien, Ungarn, Osmanisches Reich) zur Beendigung des Ersten Weltkriegs geschlossen wurden. Zur Komplexität der Agenda der Pariser Friedenskonferenz trug schließlich auch bei, dass neben territorialen, militärischen und wirtschaftlichen Fragen, die unmittelbar Deutschland betrafen, ebenso die Neuregelung von Grenzverläufen bezogen auf China, Südostasien, den pazifischen Raum, den Mittleren Osten sowie Afrika zu den Verhandlungsgegenständen zählten. Beeinflusst wurden die Versailler Konferenz zudem durch die revolutionären Ereignisse in Russland ebenso wie die aufkommenden nationalistischen Strömungen auf dem Balkan, im arabischen Raum oder auch in Irland.

1. Situationskomplexität, zeitinkonsistentes Verhalten und die Kumulation von Fehleinschätzungen Diese genannte Liste der Verhandlungsgegenstände gepaart mit der großen Zahl an Verhandlungspartnern, dem engen zeitlichen Rahmen und nicht zuletzt der Novität des Problems dürften für die Konferenzteilnehmer mit einem Bedarf an Informationsverarbeitung verbunden gewesen sein, der auch noch aus heutiger Sicht als beispiellos gelten kann. Es ist daher nachvollziehbar, wenn das ambitionierte Konferenzprogramm im Nachhinein als ein solches bewertet wurde, das die verhandelnden Akteure an die kognitiven Grenzen ihrer rationalen Entscheidungsfahigkeit fuhren musste (vgl. Bottom 2003; Baumgart 1970). Auch Keynes (1920, 2006, S. 57) betont, dass es für das Verständnis der im Versailler Vertrag festgeschriebenen Bestimmungen notwendig ist, „einige der persönlichen Faktoren [zu - T.D.] betrachten, die ihre Ausarbeitung beeinflussten". Und mit Blick auf die Frage, wie es zu einem Vertragswerk kommen konnte, dem es an rationaler Weitsicht mit Blick auf die zu erwartenden wirtschaftlichen und politischen Folgen fehlte, stellt Keynes (1920, 2006, S. 64) fest: „Die Antwort darauf ist schwierig und hängt von Elementen des Charakters und der Seele, von den feinen Einflüssen der Umgebung ab, die alle schwer zu beobachten und noch schwerer zu beschreiben sind". An anderer Stelle spricht Keynes (1922, S. 5) daher auch von der „Psychologie der Aktoren", die es zu berücksichtigen gilt, um Zustandekommen und Wirkungen des Versailler Vertrages angemessen zu verstehen. Aus verhaltensökonomischer Sicht verweisen diese Aussagen sowohl auf die Bedeutung kognitiver Restriktionen als auch den Einfluss situationsgebundener Faktoren, die beide im Zusammenspiel die Rationalität individuellen Verhaltens negativ beeinträchtigen können. Mit Blick auf die Pariser Friedensverhandlungen kann mit beiden

John Maynard Keynes als Verhaltensökonom

37

Einflussgrößen zum einen das zeitinkonsistente Verhalten der Alliierten (vorrangig das des amerikanischen Präsidenten Wilson) im Umgang mit den Kriegsverlierern und zum anderen die Kumulation an Fehleinschätzungen begründet werden, welche die Dynamik und damit auch das Ergebnis des Verhandlungsprozesses entscheidend geprägt haben. Das Phänomen der Zeitinkonsistenz im Sinne des mangelnden Durchhaltens eines einmal gefassten Plans für einen längeren Zeitraum und die sich darin ausdrückende Uneinheitlichkeit der Präferenzordnung der handelnden Akteure dokumentiert sich für Keynes (1920, 2006, S. 78 ff.) vor allem im Abweichen von den sogenannten „14 Punkten" des amerikanischen Präsidenten, deren Annahme durch die Deutschen im Waffenstillstand von Compiegne am 11. November 1918 die maßgebliche Grundlage für die späteren Friedensverhandlungen in Paris war. Die deutsche Bereitschaft zur Akzeptanz der 14-Punkte-Doktrin liegt dabei für Keynes (1920, 2006, S. 65) nicht zuletzt in deren normativer Orientierung, die auf einen fairen und gerechten Umgang mit den Verlierern des Krieges ausgelegt war: „Der Feind hatte im Vertrauen auf ein feierliches Abkommen über den allgemeinen Charakter des Friedens die Waffen niedergelegt, und die Bedingungen dieses Abkommens schienen einen Frieden der Gerechtigkeit und Großmut [...] zu verbürgen". Verantwortlich für die deutsche Ablehnung des als „Karthagofriede Clemenceaus" bezeichneten Versailler Vertrages, der im Rahmen der Vertragsverhandlungen an die Stelle eines auf Fairness-Prinzipien aufbauenden Friedensschlusses getreten war, ist nach Keynes (1920, 2006, S. 84) vor allem „seine Unaufrichtigkeit" und der darin enthaltene Vertrauensbruch, der nicht zuletzt auch im für die damalige Zeit beispiellosen Ausschluss der deutschen Delegation von den Verhandlungen seinen Niederschlag fand (vgl. Baumgart 1970, S. 584). Dies steht in Einklang mit Ergebnissen der experimentellen Ökonomik, die in der Berücksichtigung von Gerechtigkeitsnormen eine zentrale Bedingung für die wechselseitige Akzeptanz von Verhandlungsergebnissen sehen. Als Gründe für das zeitinkonsistente Verhalten des amerikanischen Präsidenten verweist Keynes (1920, 2006, S. 68 f.) auf eine Mischung aus individueller Selbstüberschätzung, kognitiv beschränkter Informationsverarbeitung, einer selbsttäuschenden Wahrnehmung realer Gegebenheiten, dem Fehlen von korrigierend wirkenden Lernprozessen sowie einer - was die Details des Friedensvertrages betrifft - situativen Präferenzausformung in Abhängigkeit vom Gang des Verhandlungsprozesses. Die genannten Faktoren sind zugleich auch für eine Kumulation von Fehleinschätzungen und damit verbundenen Lock-In-Effekten verantwortlich, die sich nach Ansicht von Keynes ebenfalls negativ auf das Verhandlungsergebnis ausgewirkt haben, von denen nachfolgend nur die gravierendsten benannt werden sollen. Als eine erste und in seinen Auswirkungen besonders weitreichende Fehleinschätzung gilt die Entscheidung des amerikanischen Präsidenten, persönlich an den Friedensverhandlungen in Paris und damit an der (letztlich fehlgeschlagenen) Umsetzung seiner 14-PuntkeDoktrin mitzuwirken. Während bei einem Verbleib in Washington seine strategische Position aufgrund der räumlichen Distanz zum Verhandlungsort und der damit verbundenen Veto-Macht außerordentlich günstig gewesen wäre, trug die unmittelbare Teilnahme an der Konferenz entscheidend zu einer Selbstdestruktion seiner Verhandlungsmacht bei. Keynes (1920, 2006, S. 65) schreibt hierzu: „Niemals betrat ein Mensch ein Zimmer, der in höherem Grade zum vollkommenen Opfer der vollendeten

38

Thomas Döring

Künste des Ministerpräsidenten [gemeint ist der britische Premierminister Lloyd Georges - T.D.] vorausbestimmt war. Zwar war die alte Welt ohnehin in ihrer Schlechtigkeit verhärtet, und ihr steinernes Herz hätte die schärfste Klinge des tapfersten fahrenden Ritters stumpf machen müssen, aber dieser blinde und taube Don Quixote trat in eine Höhle, wo die schnelle blitzende Klinge in der Hand seines Gegners war". Der Grund für diese Fehleinschätzung auf Seiten des amerikanischen Präsidenten wird von Keynes (1920, 2006, S. 65) in der Überbewertung seiner weltweit hohen Reputation im Vorfeld der Friedensverhandlungen gesehen (overconfidence bias), durch die weitere entscheidungsrelevante Aspekte ausgeblendet blieben (focus illusion), so dass die komplexen Folgewirkungen der Teilnahmeentscheidung nicht hinreichend reflektiert wurden. Nach Dörner (2011, S. 160) tritt diese Form der kognitiven Fehlleistung vor allem in komplexen Handlungszusammenhängen auf. Mit der Fixierung der Aufmerksamkeit auf das Augenblickliche und dessen linear monotoner Fortschreibung in die Zukunft ist jedoch die Gefahr verbunden, dass den gegenwärtigen Umständen eine zu große Bedeutung beigemessen wird, was in der Folge zu (gravierenden) Fehlurteilen fuhren kann. Als eine weitere Fehleinschätzung kann die Wahl des Konferenzortes gelten, die von den alliierten Siegermächten zugunsten von Paris entschieden wurde. Damit hatte man für einen Konferenzort votiert, der noch vor kurzem von den deutschen Truppen belagert wurde und dessen Bevölkerung gegenüber dem vormaligen Kriegsgegner immer noch aufgebracht war. Die Folge waren ständige Versuche der Einflussnahme seitens der Presse auf den Konferenzverlauf, was nach Keynes (1920, 2006, S. 72f.) wiederum vor allem die amerikanische Position eines an allgemeinen Prinzipien und Fairnessnormen ausgerichteten Friedensvertrages untergrub. Diese mit der Entscheidung für den Konferenzort verbundenen Situationseinflüsse (framing effect), auf die später noch genauer eingegangen wird (Kapitel III.4), wirkten sich nicht zuletzt auf die vertraglichen Regelungen zur Höhe der deutschen Reparationszahlungen, den Umfang der deutschen Gebietsabtretungen oder auch die Art und Weise aus, wie der Vertrag den Deutschen am Ende der Friedensverhandlungen zur Unterzeichnung übermittelt wurde. Aus Sicht der empirischen Verhaltensforschung kennzeichnet dabei der ultimative Charakter, mit dem Deutschland zur Unterzeichnung des Versailler Vertrages aufgefordert wurde, schließlich eine weitere Fehleinschätzung. Während die Alliierten darin ein angemessenes Mittel sahen, um die auf Nachverhandlungen drängende deutsche Delegation zur Akzeptanz des Friedensvertrags zu veranlassen, wurden damit aus Sicht der experimentellen Ökonomik grundlegende Reziprozitätsempfindungen verletzt, was im Ergebnis lediglich den Widerstand der negativ Betroffenen gegenüber dem Verhandlungsergebnis steigerte (vgl. Bottom 2003; Pillutla und Mumighan 1996). Die in der Folgezeit in Deutschland aufkeimende massive Ablehnung des Versailler Vertrag scheint diese empirischen Befunde nur zu bestätigen.

John Maynard Keynes als Verhaltensökonom

39

2. Festhalten an der Status-quo-Situation und die Auswirkung von Ankereffekten Aus verhaltensökonomischer Sicht ziehen Akteure nur sehr zögerlich neue bereits bekannten Handlungsalternativen vor, auch wenn ein solcher Wechsel langfristig von Vorteil wäre. Dieser auch als Status-quo-Bias bekannte kognitive Mechanismus führt dazu, dass man gegebenen Sachverhalten eine übergroße Wertschätzung zukommen lässt. Der Besitzstandseffekt erschwert die Durchsetzung neuer Denk- und Handlungsoptionen nachhaltig und trägt - folgt man Dörner (2011, S. 267) - zu einem „ballistischen Verhalten" bei, um sich nicht der Konfrontation mit den möglicherweise negativen Folgen eines innovativen Verhaltens aussetzen zu müssen. Der Verweis auf die negativen Folgen eines solchen Status-Quo-Denkens findet sich auch bei Keynes (1920, 2006, S. 78), wenn er mit Blick auf die Pariser Verhandlungen feststellt: „Die Zukunft Europas interessierte dort nicht, um seinen Lebensunterhalt machte man sich keine Sorgen. Alle Gedanken, gute wie schlechte, waren auf Grenzen und Völker, auf das Gleichgewicht der Macht, auf die Ausdehnung der Reiche, auf die künftige Schwächung eines starken und gefahrlichen Feindes, auf Rache und auf Abwälzung unerträglicher Finanzlasten von den Schultern der Sieger auf die Besiegten gerichtet". Mit dem Fokus auf die genannten Sachverhalte bewegten sich die alliierten Siegermächte - folgt man Keynes (1920, 2006, S. 93) - jedoch einzig in den Denkschablonen der Vorkriegszeit, welche die militärischen Konflikte und politischen Interaktionsbeziehungen zwischen den seinerzeit fuhrenden Weltmächten bis dahin bestimmt hatten und denen auch während der Friedensverhandlungen nach Ansicht von Keynes ein übermäßiges Gewicht zulasten neuer (besserer) Handlungsalternativen beigemessen wurde. Diese Status-quo-Orientierung und der damit verbundene Besitzstandseffekt wird in den Ausfuhrungen von Keynes (1920, 2006, S. 132) aber auch mit Blick auf die für den wirtschaftlichen Wiederaufbau Europas hilfreiche Option einer ,,völlige[n] Streichung der Schulden der Verbündeten untereinander" deutlich, zu der sich die amerikanische Delegation nicht durchringen konnte. Die kurzfristigen finanziellen Vorteile des Festhaltens an diesen Forderungen - so Keynes (1920, 2006, S. 96) weiter - wurden offenkundig entschieden höher bewertet, als die möglichen Gewinne, die mit einem Forderungsverzicht als ökonomischer Investition in die zukünftige wirtschaftliche Entwicklung Europas verbunden gewesen wären. Bezogen auf Frankreich kam noch hinzu, dass es - anders als Großbritannien, vor allem aber die Vereinigten Staaten - maßgeblich die Kriegslasten im Sinne von militärischen wie zivilen Schäden und Verlusten zu tragen hatte. Interpretiert man diese Kriegslasten als notwendige Investition in den Sieg über den Kriegsgegner, begünstigt auch dies nach Dörner (2011, S. 286) entsprechende Beharrungstendenzen: „Je größer die Investitionen, desto größer die Tendenz, die Opfer nicht vergeblich sein zu lassen. Solche Beharrungstendenzen sind wichtige Kräfte und Determinanten des wirtschaftlichen, aber auch des militärischen und politischen Handelns". Folgt man Keynes (1920, 2006, S. 63), war dabei für das Status-quo-Denken des französischen Ministerpräsidenten Clemenceau nicht die Situation vor Ausbruch des Ersten Weltkrieges der Bezugspunkt, sondern vielmehr die Wiederherstellung der wirtschaftlichen und politischen Konstellation vor dem deutsch-französischen Krieg von 1870/71.

40

Thomas Döring

Neben dem Status-quo-Bias und dem Besitzstandseffekt besteht ein weiterer bedeutsamer Mechanismus im sogenannten Ankereffekt. Dieser wurde in einer Reihe von Studien der empirischen Verhaltensforschung als bedeutsam für komplexe Verhandlungsprozesse nachgewiesen (vgl. Kahneman und Tversky 1972; Northcraft und Neale 1988; Chapman und Bornstein 1996; Bottom und Paese 1999; Pogarsky und Babcock 2001). Danach hat sich gezeigt, dass sich unabhängig von den Eigenschaften des betrachteten Gegenstands dessen quantitative Bewertungen durch die Verhandlungspartner danach bemisst, wie hoch die zuerst erfolgte Bewertung ausfiel. Ein besonders überzogenes Bewertungs- bzw. Forderungsverhalten erweist sich folglich als lohnend. Dies gilt insbesondere dann, wenn die Akteure über keine festen Präferenzen verfügen, die ihnen eine kontextunabhängige Werteinschätzung erlauben. Dies bedeutet zugleich, dass immer dann, wenn fundierte statistische Daten fehlen, ein vorgegebener Zahlenanker die individuelle Schätzung häufig maßgeblich beeinflusst. Der Ankereffekt wirkt damit ähnlich wie die Verfügbarkeits-Heuristik, der zufolge in Entscheidungssituationen den aktuell verfügbaren Informationen ein prägendes Gewicht beigemessen wird. Nach Keynes (1920, 2006, S. 57 f.) haben es vor allem die Franzosen verstanden, sich diesen psychologischen Effekt zur Stärkung ihrer eigenen Verhandlungsposition zunutze zu machen. Dies gilt zum einen allgemein mit Blick auf den Tatbestand, dass die meisten Verhandlungseingaben und Vertragsentwürfe von der französischen Delegation vorgeschlagen wurden und dass diese in aller Regel durch Extrempositionen oder Maximalforderungen gekennzeichnet waren, von denen nicht wenige vollständig oder in lediglich abgeschwächter Form später übernommen wurden. Dies gilt zum anderen aber auch speziell im Hinblick auf die Auseinandersetzung um die deutschen Reparationszahlungen, bei der die gleich zu Beginn von französischer Seite eingebrachte und nach Ansicht von Keynes (1920, 2006, S.95 ff.) um ein Vielfaches überzogene Schätzung der finanziellen Leistungsfähigkeit Deutschlands den weiteren Verhandlungsprozess entscheidend geprägt hat (vgl. Bottom 2003, S. 383). Die strategische Nutzung von Ankereffekten vornehmlich durch die französische Seite hatte laut Keynes (1920, 2006, S. 58) schließlich auch noch eine weitere Implikation: Dadurch, dass die alliierten Verhandlungspartner nur schrittweise und ohne grundlegende Vorgaben die Einzelheiten des Vertrages im Zuge von wechselseitigen Kompromissen verbindlich aushandelten, blieb am Ende kein Spielraum mehr für eine Berücksichtigung deutscher Interessen. Dies hatte zur Folge, dass angesichts des ultimativen Charakters, mit dem die deutsche Delegation den Friedensvertrag präsentiert bekam, eine Vielzahl an Extrempositionen im Vertragswerk festgeschrieben wurde (vgl. Keynes 1920, 2006, S. 58). Im Rahmen des ökonomischen Standardansatzes werden solche Verhandlungsergebnisse zumeist mit einer asymmetrischen Informationsverteilung oder auch taktischem Verhalten auf Seiten der Verhandlungspartner begründet. Dies ist zwar nicht unzutreffend, jedoch lässt sich erst aus verhaltensökonomischer Sicht - wie hier mit Hilfe des Anker-Effekts - begründen, warum bestehende Informationsasymmetrien nicht abgebaut werden bzw. wie strategisches Verhalten überhaupt erst seine Wirksamkeit im Verhandlungsprozess entfalten kann.

John Maynard Keynes als Verhaltensökonom

41

3. Heuristiken und Stereotypen sowie die Wirkung eines übermäßigen Selbstvertrauens Nach Simon (1972, S. 176) findet sich bei Akteuren im Umgang mit komplexen Situationen anstelle eines optimierenden Rationalverhaltens häufig ein lediglich an bestimmten Zufriedenheitsmaßstäben (Satisfying) ausgerichtetes Verhalten. Dies bedeutet, dass handelnde Subjekte oft mit Vereinfachungsstrategien operieren, die zwar zu keinen optimalen (oder maximalen) Ergebnissen fuhren, die aber mit Resultaten verbunden sind, die in Anbetracht der individuellen Zielsetzungen subjektiv als ausreichend bewertet werden. Aus verhaltensökonomischer Sicht ist davon auszugehen, dass Akteure bei der Anwendung solcher Vereinfachungsstrategien auf ganz ähnliche Heuristiken zurückgreifen. Als bekannte Beispiele für solche kognitiven Simplifizierungsverfahren innerhalb von Prozessen der Gewinnung und Verarbeitung von Informationen wurde bereits an früherer Stelle sowohl auf die Verfügbarkeits- als auch die RepräsentationsHeuristik verwiesen. Auch wenn Keynes selbst nicht den Begriff der Heuristik verwendet, war er dennoch der erste, der im Zuge der Pariser Friedenskonferenz auftretende Fehleinschätzungen und „irrationale" Entscheidungen auf die Verwendung solcher Vereinfachungsstrategien zurückführte. Vor allem der Repräsentations-Heuristik wird dabei ein besonderes Gewicht beigemessen, der zufolge der Umgang mit neuen Informationen auf dem Wege einer Einordnung in bereits vorhandene Denkkategorien erfolgt. Dabei wird sich überwiegend auf die Ähnlichkeit verlassen, welche die verfugbaren Informationen mit dem bereits bekannten Merkmal dieser Kategorie haben und zwar unabhängig davon, ob diese Kategorie eine zutreffende Beschreibung des zu bewertenden realen Ereignisses darstellt (self-serving bias). Folgt man Kahneman und Tversky (1972) machen Individuen dabei regelmäßig Voraussagen über die Wahrscheinlichkeit des Verhaltens von anderen Individuen oder Gruppen auf der Grundlage des Ausmaßes, in dem ein solches Individuum oder eine entsprechende Gruppe sich mit vorhandenen Stereotypen deckt. In ähnlicher Weise stellt auch Keynes (1920, 2006, S. 61) fest, dass das Denken und Urteilen der überwiegenden Zahl der Konferenzteilnehmer durch stereotype Annahmen bezüglich des Verhaltens von „Hunnen" und „Bolschewiken" geprägt war, wobei er exemplarisch auf Clemenceaus Begründung für einen „Karthagofrieden" verweist: „Seine Grundsätze für den Frieden lassen sich einfach ausdrücken. Zunächst glaubte er fest, daß der Deutsche nichts als Einschüchterung versteht und verstehen kann, daß er bei Verhandlungen weder Edelmut noch Gewissensbisse kennt, daß es keinen Vorteil gibt, den er nicht über seinen Gegner wahrnimmt, und keinen Grad, bis zu dem er sich nicht des Vorteils wegen erniedrigt, daß er keine Ehre, keinen Stolz und kein Mitleid besitzt. Deshalb darf man niemals mit einem Deutschen verhandeln oder ihn zu gewinnen suchen. Man muß ihm diktieren; unter keiner anderen Bedingung wird er einen achten; nur so wird man ihn hindern, einen zu betrügen". Auch von anderen Autoren wurde diese Sichtweise bestätigt, nicht zuletzt von Lippmann (1922), der als einer der Begründer der Kognitionspsychologie in seinem Buch „Public Opinion" als Erklärung für das Entscheidungsverhalten der alliierten Siegermächte bei den Pariser Verhandlungen das Analysekonzept des „Stereotypen" („a stereotype" - „the picture in our head") überhaupt erst eingeführt hat. In seinen Betrachtungen der Konferenz wird zugleich der enge Bezug zwischen der Verwendung von solchen Stereotypen und der

42

Thomas Döring

Repräsentations-Heuristik deutlich. Während für Keynes der Hinweis auf die Verwendung von kognitiven Vereinfachungsstrategien in Form von Stereotypen vor allem dazu diente, um die Unzulänglichkeit des Versailler Vertrages unter der Zielsetzung einer raschen Revision zu begründen, ging es Lippmann in seiner Untersuchung um die Gewinnung allgemeingültiger Aussagen zu Inhalt und Verfügbarkeit von ethnischen oder nationalen Stereotypen, die sich aus der Pariser Konferenz ableiten lassen und die für das Entscheidungsverhalten in demokratisch verfassten Gesellschaften unter dem Einfluss von Massenmedien als repräsentativ gelten können. Der Rückgriff auf Heuristiken und Stereotypen ist aus verhaltensökonomischer Sicht nicht per se negativ zu bewerten, da - folgt man Ariely (2008, S. 230 f.) - solchen Vereinfachungsmechanismen insbesondere in komplexen Verhandlungssituationen, in denen zuverlässige Informationen ein „knappes Gut" darstellen, eine nicht unbedeutende Strukturierungsfunktion für das individuelle Entscheidungsverhalten zukommt. Ein Problem entsteht allerdings dann, wenn auf diese Mechanismen in allzu großer Leichtgläubigkeit vertraut wird. Ein solch überzogenes Selbstvertrauen in die eigene Urteilsfähigkeit bezüglich der Abschätzung zukünftiger Ereignisse (overconfidence bias) findet sich bei den Pariser Konferenzteilnehmern in vielfaltiger Form. Die aus heutiger Sicht wohl größte Fehleinschätzung betrifft dabei die zentrale Frage, ob der Friedensvertrag von den alliierten Verhandlungspartnern am Ende auch einmütig ratifiziert werden wird. Bekanntermaßen ist dies mit Blick auf die Vereinigten Staaten nicht der Fall gewesen, die nach dem Scheitern des Ratifizierungsverfahrens im US-Senat erst im Oktober 1921 separate Friedensverträge mit Deutschland und Österreich schlössen. Während des gesamten Verhandlungsprozesses wurde jedoch die Wahrscheinlichkeit, dass es zu diesem negativen Ereignis kommen könnte, von den Konferenzteilnehmern praktisch mit Null bewertet. Vielmehr wurden zentrale Bestandteile des Versailler Vertrages - so nicht zuletzt die unbestimmt gebliebene Höhe der deutschen Reparationszahlungen - im Vertrauen darauf formuliert, dass die Vereinigten Staaten ebenso wie Frankreich, Großbritannien und Italien zu den offiziellen Vertragspartnern zählen werden (certainty bias). Folglich wurde auch für den Fall, dass es zu keiner Ratifizierung des Friedensvertrages durch die Vereinigten Staaten kommt, keinerlei Vorsorge getroffen. Der Grund hierfür wird aus zeitgenössischer wie auch aus heutiger Sicht vor allem im Verhalten des amerikanischen Präsidenten gesehen, der scheinbar zu keinem Zeitpunkt der Verhandlungen die Möglichkeit mit in Betracht zog, dass dieses Ereignis eintreten könnte (vgl. Bottom 2003, S. 389). Nach Keynes (1920, 2006, S. 65) kann dieses vollständige Ausblenden der Option einer Nicht-Ratifizierung des Vertrages auf eine verzerrte Wahrnehmung des amerikanischen Präsidenten bezüglich seiner eigenen Überzeugungskraft und Handlungsmöglichkeiten zurückgeführt werden.

4. Verlustaversion, Kontexteffekte und die Eigendynamik der Verhandlungssituation Bereits an früherer Stelle wurde auf die Wirksamkeit von Kontexteffekten im Zuge der Pariser Friedenskonferenz verwiesen (Kapitel III. 1), die es hier noch genauer auszuführen gilt. Zu diesem Zweck soll erneut an die Frage angeknüpft werden, wie die in strategischer Hinsicht überragende Verhandlungsposition des amerikanischen Präsiden-

John Maynard Keynes als Verhaltensökonom

43

Präsidenten zu Beginn der Konferenz erodieren konnte, deren Machtfulle von Keynes (1920, 2006, S. 65) wie folgt beschrieben wird: „Die Feindvölker trauten ihm zu, er werde das Abkommen ausfuhren, das er mit ihnen geschlossen hatte, und die Verbündeten erkannten ihn nicht allein als Sieger, sondern fast als Propheten an. Außer diesem sittlichen Einfluss war die wirkliche Macht in seiner Hand. Die amerikanischen Heere standen auf der Höhe ihrer Ergänzung, Manneszucht und Ausrüstung. Europa war von den Lebensmittelzufuhren der Vereinigten Staaten völlig abhängig, und finanziell war es fast noch vollkommener in ihrer Hand. Europa schuldete den Vereinigten Staaten nicht allein mehr, als es bezahlen konnte, sondern es war vor Hungertod und Zusammenbruch nur zu retten, wenn sie ihm in Zukunft in großem Umfang beistanden. Niemals hatte ein Philosoph solche Waffen in der Hand, um die Fürsten dieser Welt damit zu zwingen". Dass es Franzosen, Briten und Italienern dennoch gelang, diese Asymmetrie in den Verhandlungspositionen - hier der machtvolle Gewinner des Krieges, dort die unter den massiven Kriegsverlusten leidenden Alliierten - in einen Vorteil zu verwandeln, deutet nach Keynes (1920, 2006, S. 57) auf den gewichtigen Einfluss psychologischer Kontexteffekte hin. Folgt man vor diesem Hintergrund der von Kahneman und Tversky (1979) formulierten „prospect theory of choices", bewerten Akteure die Ergebnisse von Entscheidungsprozessen in Abhängigkeit von einem Referenzpunkt, bei dem es sich in aller Regel um den Status-quo Zustand handelt (vgl. Kahneman und Tversky 1984; Kahneman und Tversky 1992). Empirisch belegt und abweichend von der ökonomischen Standardtheorie sind dabei vor allem zwei Erkenntnisse bemerkenswert, die auch für die Analyse des Versailler Vertrages von Bedeutung sind. Zum einen wird festgestellt, dass die untersuchten Akteure regelmäßig mögliche Verluste annähernd doppelt so hoch gewichten wie etwaige Gewinne in der gleichen Größe, was auf die bereits an früherer Stelle genannte Verlustaversion hindeutet. Zum anderen gilt als nachgewiesen, dass Akteure kontextabhängig ein unterschiedliches Risikoverhalten bezogen auf potentielle Gewinne und Verluste praktizieren. So agiert die überwiegende Zahl der Akteure risikofreudig bezogen auf solche Entscheidungsoptionen, die relativ zum Referenzpunkt als Verluste bewertet werden, während sie sich im Fall von entsprechenden Gewinnoptionen risikoavers verhalten (vgl. Rachlinsky und Forest 1998). Weitere Studien aus dem Bereich der experimentellen Ökonomik deuten darauf hin, dass die genannten Framing-Effekte auch das Risiko-Verhalten in Verhandlungssituationen maßgeblich bestimmen (vgl. Bottom 1990; Bottom und Studt 1993; De Dreu et al. 1994; Schweizer und DeChurch 2001). Danach neigen Akteure, die um eine Minimierung bzw. Vermeidung von Verlusten bemüht sind (negatively framed), häufig zu extremen Verhandlungspositionen sowie konfrontativen Verhandlungstaktiken, die nicht selten in ultimative Forderungen und „eine Politik des äußersten Risikos" einmünden. Sie setzen sich mit diesem Verhalten in Verhandlungen oft gegenüber solchen Akteuren durch, die auf eine Maximierung ihrer Gewinne ausgerichtet sind (positively framed). Bezogen auf die Pariser Friedenskonferenz und die alliierten Siegermächte lässt sich einzig die Position der Vereinigten Staaten zu Beginn der Verhandlungen als eine solche beschreiben, die auf die Realisierung von zusätzlichen Vorteilen (Gewinnen) ausgerichtet war. Unter Vermeidung aktiver Kampfhandlungen hatte das Land nicht nur

44

Thomas Döring

durch die materielle und finanzielle Unterstützung der europäischen Alliierten bereits während des Krieges einen wirtschaftlichen Boom erfahren. Auch mit Blick auf die Nachkriegszeit stellte sich der anstehende Wiederaufbau Europas für die Vereinigten Staaten als eine außerordentliche Chance auf weitere ökonomische Vorteile dar. Im Unterschied dazu war nach Keynes (1920, 2006, S. 78) die Ausgangslage von Franzosen, Briten und Italienern durch eine Perspektive geprägt, die vorrangig auf die Kompensation kriegsbedingter Schäden und damit eine Wiedergutmachung für erlittene Verluste ausgerichtet war. Aus verhaltensökonomischer Sicht erklärt diese Asymmetrie in den Ausgangspositionen zugleich die höhere Risiko- und Konfrontationsbereitschaft, mit der die zuletzt genannten Akteure auf eine Durchsetzung der eigenen Verhandlungsposition drängten, während die Vereinigten Staaten weitgehend risikoavers und damit übermäßig kompromissorientiert agierten (vgl. Bottom 2003, S. 393). Die Aushöhlung der amerikanischen Verhandlungsposition kann noch durch einen weiteren Kontext-Effekt erklärt werden. So war die Eigendynamik der Verhandlungssituation zusätzlich durch das Auftreten von Gruppenzwängen, das Bemühen um ein sozial konformes Verhalten sowie ein sich daraus ergebendes „Herdenverhalten" geprägt. Verantwortlich hierfür war nicht nur das Agieren der Konferenzteilnehmer selbst, sondern auch die Presse, die durch eine kritische (aber nicht zwingend objektive) Berichterstattung ebenfalls Einfluss auf die Pariser Konferenz ausübte. Nach Keynes (1920, 2006, S. 73) erwies sich dabei wiederum vor allem der amerikanische Präsident als besonders anfallig für diese situativen Effekte. Wörtlich schreibt er hierzu: ,,[B]egraben in der Konferenz, erstickend in der heißen giftigen Luft von Paris, vernahm er keinen Widerhall von der Außenwelt, und keine Welle der Leidenschaft, des Mitgefühls oder der Ermutigung von seinen schweigenden Anhängern in allen Landen drang zu ihm. Er fühlte, daß die hell auflodernde Volkstümlichkeit, die ihn bei seiner Ankunft in Europa begrüßt hatte, schon verblaßt war. Die Presse machte sich öffentlich über ihn lustig, seine politischen Gegner zu Hause benutzen seine Abwesenheit, um Mißstimmung gegen ihn zu erzeugen. [...] Und in dieser Dürre verwelkte und vertrocknete die Blüte seines Glaubens". An anderer Stelle wird die Situationsanalyse mit Blick auf den Präsidenten von Keynes (1920, 2006, S. 72) noch wie folgt ergänzt: „Überdies hätte sicherlich der offene Bruch mit seinen Genossen die blinde Leidenschaft der deutschfeindlichen' Stimmung über sein Haupt kommen lassen, die noch immer die Öffentlichkeit aller verbündeten Länder erfüllte.[...] Das Feldgeschrei wäre einfach gewesen, daß der Präsident aus verschiedenen verborgenen und selbstischen Gründen ,die Hunnen gut davon kommen lassen' wolle. Die fast einmütige Stimme der französischen und britischen Presse konnte man voraussehen". Im Ergebnis führte dieser Spotlight-Effekt mit zu der bereits an früherer Stelle benannten Zeitinkonsistenz im Verhalten des amerikanischen Präsidenten in Form eines sukzessiven Abrückens von seiner im Vorfeld der Pariser Konferenz präferierten Position eines prinzipiengeleiteten Friedensvertrages. Den Endpunkt dieser schrittweisen Deformation der amerikanischen Ausgangsposition im Zuge des Verhandlungsprozesses markiert für Keynes (1920, 2006, S. 74 ff.) schließlich die Zustimmung des Präsidenten zu einem Vertragstext, der bezogen auf eine Vielzahl an Einzelregelungen im klaren Widerspruch zu seiner 14-Punkte-Doktrin stand. Als Begründung hierfür wird auf das in der Verhaltensökonomik bekannte

John Maynard Keynes als Verhaltensökonom

45

Phänomen verwiesen, dass je nach Art der Formulierung einer Regelungsvariante die Zustimmung zu selbiger unterschiedlich ausfallen kann, obwohl es sich um denselben Sachverhalt handelt. Danach fuhrt aus subjektiver Sicht weniger der Inhalt als vielmehr dessen Präsentation zu einer positiven oder negativen Präferenz gegenüber dem jeweiligen Regelungsgegenstand. Für Keynes (1920, 2006, S. 74) besteht kein Zweifel, dass sich die europäischen Alliierten - vorrangig Frankreich - diesen sogenannten Isolations-Effekt zunutze machten, um den amerikanischen Präsidenten im Sinne ihrer eigenen Interessen und Forderungen entsprechend zu beeinflussen: „Und es begann das Weben jenes Netzes von Sophismen und jesuitischen Auslegungen, das am Ende die Sprache und den Inhalt des ganzen Friedensvertrages mit Unaufrichtigkeit färben sollte. [...] Die feinsten Sophismen und die heuchlerischsten Stilisten machten sich an die Arbeit und brachten manche erfinderische Stilübung hervor, die auch einigen Klügeren als den Präsidenten länger als eine Stunde hätten täuschen können".

IV. Ordnungsökonomische Implikationen für die Gestaltung politischer Verhandlungsprozesse Die Rekonstruktion der von Keynes vorgenommenen Analyse des Versailler Vertrages aus Sicht neuerer verhaltensökonomischer Ansätze dokumentiert seinen breit angelegten Zugang zur Untersuchung individuellen Entscheidungsverhaltens. Folgt man diesbezüglich Akerlof und Shiller (2009, S. 10), zählt Keynes zu jenen Ökonomen, die ein rationales Akteursverhalten im Sinne einer Maximierung des eigenen Nutzens zwar nicht prinzipiell ausschließen. Das von ihm verwendete Verhaltensmodell ist jedoch so weit gefasst, dass auch andere Facetten und Motive des menschlichen Verhaltens problemlos in die Betrachtung mit einbezogen werden können. Man kann daher auch im Vergleich zum neoklassischen Standardansatz bei Keynes von einem um psychologische Erklärungselemente erweiterten Verhaltensmodell sprechen. Die prominente Rolle, die diese psychologischen Elemente des individuellen Verhaltens im Denkansatz von Keynes einnehmen, wird nicht zuletzt in seiner späteren Konjunktur- und Stagnationstheorie besonders offenkundig. So kommt bei der Erklärung von Wirtschaftskrisen in Marktsystemen bekanntermaßen dem Verweis auf „unsere Unwissenheit über die Zukunft" (Keynes 1936, 2009, S. 133), welche die Möglichkeit zu rationalem Verhalten entscheidend beschränkt, dem „Einfluß der Massenpsychologie" auf das Marktgeschehen in Gestalt auftretender „Wellen von Optimismus und Pessimismus" (ebenda, S. 131) sowie den „animalischen Instinkte[n]" (ebenda, S. 137) als Triebfeder unternehmerischen Handelns ein zentraler Stellenwert zu. Nach Akerlof und Shiller (2009, S. 11 f.) hat erst die Adaption seiner Konjunkturund Stagnationstheorie durch den ökonomischen Mainstream dazu gefuhrt, dass sein verhaltenswissenschaftlicher Zugang zum Erklärungsgegenstand zugunsten einer vorrangig modelltheoretischen Betrachtung auf der Basis rein rationalen Verhaltens ausgeblendet wurde. Dass dies eine ungerechtfertigte Verkürzung der umfassenderen analytischen Perspektive von Keynes darstellt, tritt jedoch dann klar hervor, wenn man wie hier geschehen - jene frühe Schrift in den Fokus nimmt, mit der er quasi über Nacht weltbekannt wurde. Dabei erweist sich seine Bewertung des Versailler Vertrages aufgrund seiner verhaltensökonomischen Überlegungen aus heutiger Sicht nicht nur als

46

Thomas Döring

außerordentlich „modern". Zugleich dokumentiert sich darin eine konzeptionelle Kontinuität zwischen dieser frühen Schrift und seiner späteren Konjunktur- und Stagnationstheorie, die bislang noch nicht hinreichend gewürdigt wurde. Es bleibt dem Nachweis zukünftiger Untersuchungen überlassen, inwieweit sich diese verhaltensökonomische Analyseperspektive auch jenseits der Bewertung des Versailler Vertrages in anderen Schriften von Keynes findet und in welchem Umfang sie damit sein wissenschaftliches Gesamtwerk beeinflusst hat. Jenseits dieser eher grundlegenden Einschätzung von Keynes' Analyse der Versailler Friedenskonferenz lassen sich aus seinen diesbezüglichen Untersuchungsergebnissen aber auch konkrete ordnungsökonomische Implikationen für die Gestaltung von politischen Verhandlungsprozessen vergleichbarer Art ableiten. Ohne Anspruch auf Vollständigkeit kann dabei auf die folgenden Bausteine eines aus verhaltensökonomischer Sicht wünschenswerten „institutionellen Settings" von entsprechenden Verhandlungen verwiesen werden: •

Komplexität des Verhandlungsgegenstands - Um den verzerrenden Einfluss von kognitiven Wahrnehmungsfiltern und mentalen Heuristiken und daraus sich ergebenden Fehlurteilen bei der Aufnahme und Verarbeitung von Informationen im Zuge des individuellen Entscheidungsverhaltens möglichst gering zu halten, sollte bereits im Vorfeld von Verhandlungsprozessen eine (übermäßige) Komplexität der Verhandlungsagenda vermieden werden. Zweckdienlich ist vielmehr eine Beschränkung auf wenige zentrale Verhandlungsgegenstände, für deren Auswahl gelten sollte, dass diese innerhalb eines überschaubaren Zeitrahmens problemadäquat abgearbeitet werden können. Die Begründung hierfür liefert die Einsicht, dass mit einem steigenden Grad an Komplexität die individuellen Anforderungen an einen rationalen Umgang mit dem Verhandlungsgegenstand steigen. Je komplexer der Verhandlungsgegenstand, umso größer ist die Wahrscheinlichkeit, dass die Verhandlungsparteien im Hinblick auf die Realisierung einer effizienten Lösung des Verhandlungsproblems kognitiv überfordert sind. Dies gilt insbesondere dann, wenn der Verhandlungsgegenstand - wie auch im Fall der Versailler Friedenskonferenz - einen Neuigkeitsgrad aufweist, der einen unmittelbaren Rückgriff auf Erfahrungen und damit verknüpfte Lernprozesse aus früheren Verhandlungssituationen nicht zulässt (vgl. Bottom 2003).



Einbindung aller Betroffenen - Um zu gewährleisten, dass die Verhandlungsergebnisse bei den betroffenen Akteuren auf eine möglichst breite Zustimmung stoßen, ist deren Einbindung in den Verhandlungsprozess eine zentrale Voraussetzung. Das darin angelegte Konsensprinzip als grundlegendes Orientierungskriterium für die (effiziente) Gestaltung von Verhandlungsprozessen gewährleistet dabei nicht allein die Rückbindung der Gültigkeit von Verhandlungsergebnissen an die Interessen der beteiligten Verhandlungspartner und sorgt damit für die notwendige kollektive Selbstbindung (vgl. Brennan und Buchanan 1985). Aus verhaltensökonomischer Sicht kann durch die damit verbundene „Nicht-Ausgrenzungs-Strategie" zugleich gewährleistet werden, dass es - anders als im Fall der deutschen Delegation im Rahmen der Versailler Friedensverhandlungen - zu keiner Verletzung von Fairnesserwägungen und Gerechtigkeits-

John Maynard Keynes als Verhaltensökonom

47

empfmdungen auf Seiten einzelner Akteure als notwendiger Voraussetzung für die Akzeptanzbereitschaft von Verhandlungsergebnissen kommt. •

Ermöglichung verhaltenskorrigierender Lernprozesse — Die Erfahrung zeigt, dass sich vorhandene Defizite im individuellen Entscheidungsverhalten, die aus Wahrnehmungsverzerrungen und kognitiven Beschränkungen in der Informationsverarbeitung resultieren, durch Organisationsstrukturen und deren Gestaltung in einem nicht geringen Maße kompensieren lassen (vgl. Williamson 1985). Ein solches Element der organisatorischen Gestaltung von Verhandlungsprozessen stellt die systematische Einbindung des Wissens von Fachreferenten und sonstigen Sachverständigen dar, die aufgrund ihrer Spezialkenntnisse im Hinblick auf einzelne Facetten des Verhandlungsgegenstands über komparative Vorteile verfugen. Anders als dies bei den Versailler Friedensverhandlungen der Fall war, bei denen in entscheidenden Momenten des Verhandlungsprozesses auf die Hinzuziehung fachkompetenter Delegationsmitglieder durch die Verhandlungsführer verzichtet wurde, ermöglicht eine solche Einbeziehung externen Wissens verhaltenskorrigierende Feedback-Schleifen. Die daraus sich ergebenden Lernprozesse liefern zugleich die Grundlage dafür, dass der Verhandlungsprozess zu Ergebnissen fuhrt, die in ihrer Qualität solchen Verhandlungsergebnissen überlegen sind, die ohne die Einbindung des Sachverstands spezialisierter Dritter zustande gekommen sind.



Wahl des Verhandlungsorts und Öffentlichkeitsgrad - Eine weitere wichtige Erkenntnis, die sich aus dem Verlauf der Versailler Friedensverhandlungen ableiten lässt, betrifft die Wahl des Verhandlungsortes. So kann aus verhaltensökonomischer Sicht ein Teil der inhaltlichen Unzulänglichkeit des Versailler Vertrages darauf zurückgeführt werden, dass die Verhandlungsparteien und damit auch die Ergebnisse des Verhandlungsprozesses in keinem geringen Maße durch die Presseberichterstattung und öffentliche Meinung am Verhandlungsort beeinflusst wurde. Um solche (negativen) Kontext- bzw. Framing-Effekte zu vermeiden, sollten Verhandlungen nicht an einem Ort durchgeführt werden, der sich unmittelbar innerhalb der Konfliktregion befindet (vgl. Bottom 2003). Aus dem gleichen Grund sollte zudem der Öffentlichkeitsgrad von Verhandlungen vergleichsweise restriktiv gestaltet werden, um zu verhindern, dass während des laufenden Verhandlungsprozesses Informationen über bereits erreichte (Teil-) Ergebnisse nach außen dringen. Damit kann gewährleistet werden, dass die Realisierung möglichst sachgerechter Verhandlungsergebnisse nicht durch eine einseitig interessengeleitete bzw. ideologisch-moralisch verzerrte Berichterstattung ausgehebelt wird. Auf dieses grundsätzliche Problem des Einsatzes von Ideologie und Moral zur Durchsetzung von Partikularinteressen haben auch schon Eucken (1952) und Hayek (1988) hingewiesen, wobei bei beiden bekanntermaßen der Fokus weniger auf der Gestaltung des Ordnungsrahmens von Verhandlungsprozessen als vielmehr der Gesellschaftsordnung insgesamt lag.



Abschätzung der Langfristfolgen — Um schließlich zu vermeiden, dass sich mit Verhandlungsergebnissen nicht-intendierte Effekte verbinden, wie sie von Keynes mit Blick auf die wirtschaftlichen Folgen des Versailler Vertrages prognostiziert wurden, sollte für politische Verhandlungen auf nationaler wie auf

Thomas Döring

48

internationaler Ebene standardmäßig eine Abschätzung der Langfristfolgen eingefordert werden, deren Ergebnisse - etwa in Analogie zur rechtlich vorgeschriebenen Kostenfolgenabschätzung im Rahmen des Gesetzgebungsprozesses in Deutschland - zusätzlich zum Vertragstext selbst entsprechend zu dokumentieren und damit der Öffentlichkeit nach Abschluss der Verhandlungen zugänglich zu machen sind. Auch wenn mit einer solchen Regelung nicht gewährleistet werden kann, dass sämtliche vertragsrelevanten Folgeeffekte berücksichtigt werden, würden sich die Verhandlungsparteien jedoch zumindest mit dem Erfordernis konfrontiert sehen, entsprechende Langfristwirkungen in den Blick nehmen zu müssen.

Literatur Akerlof, G.A. und R.J. Shiller (2009): Animal Spirits - Wie Wirtschaft wirklich funktioniert, Frankfurt am Main. Ariely, D. (2008): Denken hilft zwar, nützt aber nichts - Warum wir immer wieder unvernünftige Entscheidungen treffen, München. Babcock, L., Camerer, C., Loewenstein, G. und S. Issacharoff (1993): Self-Serving Assessments of Fairness and Pretrial Bargaining, Journal of Legal Studies, Vol. 22, S. 135-159. Babcock, L., Camerer, C., Loewenstein, G. und S. Issacharoff (1995): Biased Judgments of Fairness in Bargaining, American Economic Review, Vol. 85, S. 1337-1343. Baumgart, W. (1970): Brest-Litovsk und Versailles - Ein Vergleich zweier Friedensschlüsse, Historische Zeitschrift, Jg. 210, S. 583-619. Bazerman, M.H., Curhan, J.R., Moore, D.A. und K.L. Valley (2000): Negotiation, Annual Review of Psychology, Vol. 51, S. 279-314. Bettman, J.R. und W. Park (1980): Effects of Prior Knowledge and Experience and Phase of the Choice Process on Consumer Decision Processes: A Protocol Analysis, Journal of Consumer Research, Vol. 7, S. 234-248. Bettman, J.R., Luce, M.F. und J.W. Payne (1998): Constructive Consumer Choice Processes, Journal of Consumer Research, Vol. 25, S. 187-217. Bortis, H. (2006): Institutions, Behaviour and Economic Theory - A Contribution to Classical Keynesian Political Economy, Cambridge et al. Bottom, W. und P.W. Pease (1999): The Asymmetric Cost of Judgment Errors in Distributive Bargaining, Group Decision and Negotiation, Vol. 8, S. 349-364. Bottom, W.P. (1990): Adaptive Reference Points in Integrative Bargaining, in: Borcherding, K., Larichev, O.I. und D.M. Messik (Hrsg.), Contemporary Issues in Decision Making, Amsterdam, S. 429-447. Bottom, W.P. (2003): Keynes' Attack on the Versailles Treaty - An Early Investigation of the Consequences of Bounded Rationality, Framing, and Cognitive Illusions, International Negotiation, Vol. 8, S. 367-402. Bottom, W.P. und A. Studt (1993): Framing Effects and the Distributive Aspect of Integrative Bargaining, Organizational Behavior and Human Decision Processes, Vol. 56, S. 459-474. Brennan, G. und J.M. Buchanan (1985): The Reason of Rules, Cambridge (MA) et al. Camerer, C.F. und G.F. Loewenstein (2004): Behavioral Economics: Past, Present, Future, in: Camerer, C.F., Loewenstein, G.F. und M. Rabin (Hrsg.), Advances in Behavioral Economics, Princeton, S. 3-51. Camerer, C.F. und R.M. Hogarth (1999): The Effects of Financial Incentives in Experiments A Review and Capital-Labour-Production Framework, Journal of Risk and Uncertainty, Vol. 19, S. 7-42. Camerer, C.F., Babcock, L., Loewenstein, G. und R. Thaler (1997): Labor Supply of New York City Cab Drivers - One Day at a Time, Quarterly Journal of Economics, Vol. 112, S. 407-441.

John Maynard Keynes als Verhaltensökonom

49

Chapman, G.B. und B.H. Bornstein (1996): The More You Ask For, The More You Get: Anchoring in Personal Injury Verdicts, Applied Cognitive Psychology, Vol. 10, S. 519-540. Conlisk, J. (1996): Why Bounded Rationality?, Journal of Economic Literature, Vol. 34, S. 669-700. De Dreu, C.K.W., Koole, S.L. und W. Steinet (2000): Unfixing the Fixed Pie - A Motivated Information-Processing Approach to Integrative Negotiation, Journal of Personality and Social Psychology, Vol. 76, S. 975-987. DeliaVigna, S. (2009): Psychology and Economics, Journal of Economic Literature, Vol. 47, S. 315-372. Dörner, D. (2011): Die Logik des Misslingens - Strategisches Denken in komplexen Situationen, 10. Auflage, Hamburg. Elster, J. (1998): Emotions and Economic Theory, Journal of Economic Literature, Vol. 36, S. 47-74. Englerth, M. (2004): Behavioral Law and Economics - eine kritische Einfuhrung, Preprints of the Max Planck Institute for Research on Collective Goods, Nr. 2004-11, Bonn. Eucken, W. (1952): Grundsätze der Wirtschaftspolitik, Tübingen. Fehr, E. und K.M. Schmidt (1999): A Theory of Fairness, Competition and Cooperation, Quarterly Journal of Economics, Vol. 114, S. 817-868. Gigerenzer, G. (2008): Bauchentscheidungen - Die Intelligenz des Unbewussten und die Macht der Intuition, München. Güth, W., Schmittberger, R. und B. Schwarze (1982): An Experimental Analysis of Ultimatum Bargaining, Journal of Economic Behavior and Organization, Vol. 3, S. 367-388. Hauser, D. (2006): Geld und Moral, in: Keynes, J.M. (1920, 2006): Krieg und Frieden - Die wirtschaftlichen Folgen des Vertrages von Versailles, 3. Auflage, Berlin, S. 7-33. Hayek, F.A.v. (1988): The Fatal Conceit, London und New York. Henrich, J., Boyd, R., Bowles, S., Camerer, C., Fehr, E. und H. Gintis (2004): Economic Experiments and Ethnographie Evidence from Fifteen Small-Scale Societies, Oxford. Jolls, Ch., Sunstein, C.R. und R. Thaler (1998), A Behavioral Approach to Law and Economics, Stanford Law Review, Vol. 50, S. 1471-1550. Kagel, J.H. und A.E. Roth (Hrsg.) (1995): The Handbook of Experimental Economics, Princeton. Kahneman, D. (2003): Maps of Bounded Rationality: Psychology for Behavioral Economics, American Economic Review, Vol. 93, S. 1449-1475. Kahneman, D. (2011): Thinking, Fast and Slow, London. Kahneman, D. und A. Tversky (1972): Subjective Probability - A Judgment of Representativeness, Cognitive Psychology, Vol. 3, S. 430-454. Kahneman, D. und A. Tversky (1979): Prospect Theory - An Analysis of Decision under Risk, Econometrica, Vol. 47, S. 263-291. Kahneman, D. und A. Tversky (1984): Choices, Values and Frames, American Psychologist, Vol. 39, S. 341-350. Kahneman, D. und A. Tversky (1992): Advances in Prospect Theory - Cumulative Representation of Uncertainty, Journal of Risk and Uncertainty, Vol. 5, S. 297-323. Kahneman, D., Knetsch, J.L. und R. Thaler (1991), Anomalies - The Endowment Effect, Loss Aversion and Status Quo Bias, Journal of Economic Perspectives, Vol. 5, S. 193-206. Keynes, J.M. (1920): The Economic Consequences of the Peace, London. Keynes, J.M. (1920, 2006): Krieg und Frieden - Die wirtschaftlichen Folgen des Vertrages von Versailles, 3. Auflage, Berlin. Keynes, J.M. (1921, 2007): Treatise on Probability, New York. Keynes, J.M. (1922): Revision des Friedensvertrages, München und Leipzig. Keynes, J.M. (1936, 2009): Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes, 11. Auflage, Berlin. Keynes, J.N. (1891, 2011): The Scope and Method of Political Economy, London. Laibson, D.I. (1997): Golden Eggs and Hyperbolic Discounting, Quarterly Journal of Economics, Vol. 112, S. 443-477. Lippmann, W. (1922): Public Opinion, New York.

50

Thomas Döring

Miljkovic, D. (2005): Rational Choice and Irrational Individuals or Simply an Irrational Theory - A Critical Review of the Hypothesis of Perfect Rationality, Journal of Socio-Economics, Vol. 34, S. 621-634. Mini, P. (1991): Keynes, Bloomsbuty and the General Theory, London. Muchlinski, E. (2011): Die Rezeption der John Maynard Keynes Manuskripte von 1904-1911, Freie Universität Berlin, Fachbereich Wirtschaftswissenschaften, Diskussionsbeiträge, Nr. 2011-7, Berlin. Northcraft, G.B. und M.A. Neale (1987): Experts, Amateurs, and Real Estate - An Anchoring and Adjustment Perspective on Property Pricing Decisions, Organizational Behavior and Human Decision Processes, Vol. 39, S. 84-97. Payne, J.W., Bettman, J.R. und E.J. Johnson (1992): Behavioral Decision Research: A Constructive Processing Perspective, Annual Review of Psychology, Vol. 43, S. 87-131. Pillutla, M. und J.K. Murnighan (1996): Unfairness, Anger, and Spite - Emotional Rejections of Ultimatum Offers, Organizational Behavior and Human Decision Processes, Vol. 68, S. 208-224. Plott, C. und V. Smith (Hrsg.) (2008): Handbook of Experimental Economics Results, North Holland. Pogarsky, G. und L. Babcock (2001): Damage Caps, Motivated Anchoring, and Bargaining Impasses, Journal of Legal Studies, Vol. 30, S. 143-159. Rabin, M. (1993): Incorporating Fairness into Game Theory and Economics, American Economic Review, Vol. 83, S. 1281-1302. Rabin, M. (1998): Psychology and Economics, Journal of Economic Literature, Vol. 36, S. 1146. Rachlinsky, J. und J. Forest (1998): Remedies and the Psychology of Ownership, Vanderbilt Law Review, Vol. 51, S. 1541-1582. Schweizer, M.E. und L.A. DeChurch (2001): Linking Frames in Negotiations - Gains, Losses and Conflict Frame Adoption, The International Journal of Conflict Management, Vol. 12, S. 100-113. Simon, H.A. (1957): Models of Man - Social and Rational, New York et al. Simon, H.A. (1972): Theories of Bounded Rationality, in: McGuire, C.B. und R. Radner (Hrsg.), Decision and Organization, North-Holland, S. 161-176. Smith, V.L. (2005): Behavioral Economics Research and the Foundations of Economics, Journal of Socio-Economics, Vol. 34, S. 35-150. Sunstein, C.S. (1999): Behavioral Law and Economics - A Progress Report, American Law and Economics Review, Vol. 1, S. 115-157. Thaler, R. (1985): Toward A Positive Theory of Consumer Choice, Journal of Economic Behavior and Organization, Vol. 1, S. 39-60. Thaler, R. (1988): Anomalies - The Ultimatum Game, Journal of Economic Perspectives, Vol. 2, S. 195-206. Thaler, R.H. und C.R. Sunstein (2012): Nudge - Wie man kluge Entscheidungen anstößt, 2. Auflage, Berlin. Weimann, J., Knabe, A. und R. Schob (2012): Geld macht doch glücklich - Wo die ökonomische Glücksforschung irrt, Stuttgart. Williamson, O.E. (1985): The Economic Institutions of Capitalism, New York. Zank, W. (1993): John Maynard Keynes - Der Staat als Hebel, Zeit-Punkte - Zeit der Ökonomen: eine kritische Bilanz volkswirtschaftlichen Denkens, Nr. 3-1993, S. 65-67.

John Maynard Keynes als Verhaltensökonom

51

Zusammenfassung Mit seiner Bewertung des Versailler Vertrages wurde John Maynard Keynes zu einem der bekanntesten Ökonomen seiner Zeit. Als Mitglied der britischen Verhandlungsdelegation und damit Teilnehmer an den Pariser Friedensverhandlungen kritisierte er schon unmittelbar nach Beendigung der Konferenz den Versailler Vertrag als fehlerhafte Grundlage für eine stabile Nachkriegsordnung. Den Grund hierfür sah Keynes vor allem in den kognitiven Fehlleistungen der verhandelnden Akteure. Daran anknüpfend wird die Logik der Analyse von Keynes aus Sicht der Verhaltensökonomik rekonstruiert. Dabei zeigt sich, dass seine Perspektive in vielfacher Hinsicht im Einklang steht mit den Ergebnissen aktueller verhaltensökonomischer Studien zu den Wahrnehmungsverzerrungen, den Entscheidungsirrtümern sowie der Kontextgebundenheit des Verhaltens von Akteuren in komplexen Handlungssituationen.

Summary: John Maynard Keynes as Behavioral Economist - Represented by his Analysis of the Treaty of Versailles With his analysis of the Treaty of Versailles John Maynard Keynes became one of celebrated Economists of his time. As a member of the British delegation and therefore participant in the Paris Peace Conference he predicted that the principal product of the conference, the Treaty of Versailles, will fail to realize any of the major goals of its framers. Concerning this matter Keynes points to the cognitive errors and oversights of the negotiators as a primary cause. Against this background the logic of his reasoning is re-examined in light of recent research of behavioral economics. It reveals that Keynes' approach is actually very consistent with and anticipating the results of recent economic works on cognitive heuristics, illusions and biases with respect to human information processing, judgment und choice in complex situations.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Jörg Dötsch

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten1 Inhalt I. 1. 2. 3. 4. II. 1. 2. 3. 4. III. 1. 2. 3. IV.

Über ein methodologisches Grundproblem Zur Differenzierung und Immunisierung der Theorielage Hayeks Erweiterung .klassischer' Postulate Hergebrachte Defizite Der Gang der Überlegungen Voraussetzungen von Markt: einige grundsätzliche Annahmen Diversität und Abstraktheit von Nutzen Monetäre Generalisierung als Lösung für das Problem abstrakter Diversität Zur Unterscheidung des Ökonomischen vom nicht-Ökonomischen: abstrakter Nutzen konzipiert als systemrelevantes Wissen Schließung durch Selbstreferenz Das Abstrakte als Ursache und Wirkung - und die Folgen Marktrelevantes Wissen Handeln in einem abstrakten Markt Selbstreferentielle Prädikation und Koordination Ausblick

54 55 56 57 60 60 60 61 62 64 65 66 67 70 72

Literatur

72

Zusammenfassung

76

Summary: The Primacy of the Abstract. Considerations concerning processes of self-reference on markets

77

1

Die Forschung wurde im Rahmen des Prioritätsprojekts TÄMOP 4.2.4 A/l-11-1-2012-0001 „Nationales Exzellenzprogramm - Landesprogramm zum Aufbau und Betrieb eines Systems zur Förderung von Studierenden und Forschern" verwirklicht. Das Projekt wird durch die Förderung der Europäischen Union und die Kofinanzierung durch den Europäischen Sozialfonds verwirklicht. Für zahlreiche Anregungen danke ich herzlich Martin Nyhuis.

54

Jörg Dötsch

I. Über ein methodologisches Grundproblem Friedrich August von Hayek formulierte in seinem 1968 gehaltenen Vortrag die als „Primat des Abstrakten" bekannte These, dass „(...) alle Empfindungen, Wahrnehmungen und bildlichen Vorstellungen das Produkt einer Überlagerung von vielen Klassifikationen' darstellen, durch die die wahrgenommenen Vorgänge entsprechend ihrer Bedeutung in dieser oder jener Hinsicht geordnet werden" (HAYEK 1996, S. 115). Damit gab Hayek einen theoriegeschichtlich entscheidenden Impuls für Integrationsbemühungen hinsichtlich der Dimension des Subjektiven und ihrer Bedeutung für Gedeih und Verderb marktwirtschaftlicher Ordnung. Die These blieb im Grunde unwidersprochen: „Economic choice is no exception" 2011, S. 3). Entsprechend wurde und wird dieser Aspekt auch immer wieder im Rahmen ökonomischer Überlegungen aufgegriffen. Freilich mit unterschiedlichem Akzent. Am nachhaltigsten war der theoretische Niederschlag dieses Problemfeldes, so lässt sich vereinfachend vorwegnehmen, in den heterodoxen Strömungen. Die Aufarbeitung des Subjektivitätsproblems ist nach wie vor ein stechendes Argument für die größere Erklärungskapazität heterodoxer Ökonomik gegenüber der Neoklassik. Es belegt die Realitätsorientierung des methodologischen Arsenals. (FEHR/RANGEL

Nicht zuletzt sollte diese Perspektive dazu anleiten, das Phänomen wirtschaftlicher Ordnung, mit Hayek der „Katallaxie", besser zu verstehen. Menschliches, planvolles Handeln gerät ebenso zum Untersuchungsgegenstand wie dessen ungeplantes, emergentes Ergebnis. Überdies ermöglichte dieser Ansatz, Wettbewerb als entscheidendes Prinzip ökonomischer Wirklichkeit theoretisch zu integrieren. Diesen Zielen verpflichtete Forschung hat sich stets auf die „Klassik" und nicht zuletzt auch auf den einstweilen selbst zum Klassiker gewordenen Hayek berufen. Ohne an dieser Stelle näher auf den spezifischen Prozess theoretischer Differenzierung eingehen zu können (zu einzelnen Aspekten siehe weiter unten), sollen hier Theorien in ökonomischer Absicht, die im angesprochenen Sinne eine Integration von Individuellem und Ganzen erstreben, als ,klassisch' orientierte Ansätze zusammengefasst werden (vgl. auch W O H L G E M U T H 2008, S. 32).2 Dass die .klassischen Ansätze' sich nicht zu einem einheitlichen Paradigma als Alternative zur Neoklassik entwickelten, ist gewiss zum Teil dem Gegenstand selbst geschuldet. Gleichwohl ergibt sich nicht nur ein gemeinsamer Bezugspunkt aus dem Ursprung der Klassik. Es bleibt auch ein verbindendes Erbe offener Fragen oder blinder Flecke. Um eine zumindest teilweise Erhellung derselben bemühen sich die folgenden Überlegungen. Dabei soll es in erster Linie um die Fragen gehen, auf welche Weise wettbewerblich organisierte Märkte als emergente Phänomene begreifbar und inwieweit sie als evolutionär superior bewertbar sind. Der Ansatz Hayeks kann dazu nach wie vor als fruchtbarer Ausgangspunkt dienen. Eine Befragung heterodoxer Ansätze aus der Perspektive der allgemeinen Systemtheorie scheint hier vielversprechend. 2

RÖPKE, dessen Arbeit von Hayek lobend erwähnt wird (vgl. HAYEK 1978, S. 55, Fußnote 46), hat diese Konstellation prägnant erfasst. Vgl. RÖPKE (1977, 1980). Allgemeiner trifft auf diesen Zusammenhang auch die Diagnose LUHMANNs (mit Bezug auf DÜRKHEIM) zu: „Klassisch ist eine Theorie, wenn sie einen Aussagenzusammenhang herstellt, der in dieser Form später nicht mehr möglich ist, aber als Desiderat oder als Problem fortlebt" (LUHMANN 1992, S. 19).

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

• 55

Freilich gibt es nicht „die" Systemtheorie. Systemtheoretische Ansätze verbindet aber ein Gemeingut grundsätzlicher Annahmen. Ein besonderes Augenmerk soll hier dem Phänomen der Selbstreferenz gelten. Die beiden folgenden Unterabschnitte umreißen zunächst methodologische Herausforderungen heterodoxer Ökonomik und leiten daraus einige offene Fragen ab. Teil zwei dieses Beitrags entwickelt die aufgeworfenen Probleme weiter und bemüht sich interdisziplinär um eine Integration derselben in einen systemtheoretischen Bezugsrahmen. Der dritte Teil ergänzt die Befunde um die Ergebnisse verhaltensökonomischer Forschung und grenzt den Bereich theoretischer Konsequenzen konkreter ein.

1. Zur Differenzierung und Immunisierung der Theorielage Anhand des neoklassischen Paradigmas lässt sich das Verhalten von Wirtschaftssubjekten oft nicht einordnen (vgl. etwa CAPLAN 2007). Weder lassen sich ohne weiteres realwirtschaftliche Entwicklungen abbilden, noch lässt sich das Verhalten der Wirtschaftssubjekte kalkulieren. Insofern sind theoretische Erweiterungen notwendig. Hier gewinnt der „Primat des Abstrakten" seine theoretische Bedeutung. Im Großen und Ganzen bestimmen nach wie vor drei Perspektiven den ökonomischen Diskurs zu dem sich hier auftuenden Problemfeld. Erstens die Frage nach dem Einfluss von Institutionen, Kultur oder .Gesellschaft' auf das Verhalten der Wirtschaftssubjekte (etwa DIMAGGIO 1997, BENJAMIN/CHOI/ STRICK-

LAND 2007, FEHR/HOFF 2011). Oft werden solche Überlegungen als bewusste Abgrenzung vom neoklassischen Paradigma angestellt (vgl. AKERLOF/SHILLER 2009). Zweitens die Frage nach der psychologischen Disposition der Akteure und nach deren Bedeutung für den Markt (etwa CAMERER 1995, FREY 2002). Beide Fragestellungen werden auch bisweilen kombiniert (etwa bei WITT 2008b oder FREY/STUTZER 2007). Letztlich weist der Zusammenhang von individueller Psyche und Verhalten am Markt auch auf den allgemeineren, nämlich gesellschaftlichen Zusammenhang zurück. Insofern wird auch versucht, die Motivation von Wirtschaftsteilnehmern sozialpsychologisch zu erklären (vgl. schon SCITOVSKY 1976 oder HIRSCHMAN 1974). Inwieweit sich modelltheoretisch psychologische und ökonomische Zugänge kombinieren lassen, ist ein traditioneller Streit (vgl. LEWIN 1996). Drittens, den Kreis schließend, bietet auch die Frage nach dem Einfluss ökonomischer Wirklichkeit auf Kultur und Individuen ein Feld umfangreicher Forschung (etwa BOWLES 1998). Diese Stoßrichtung verfolgt freilich in erster Linie die Soziologie (vgl. die einschlägigen Arbeiten von BECKERT 1997, 2007 sowie BECKERT/DIAZBONE/GAUBMANN 2 0 0 7 ) .

Für alle diese Ansätze ist der Angelpunkt des Subjektiven charakteristisch. Sie bemühen sich um eine feinkörnigere Theoretisierung eines bestimmten Problemfeldes und sind im Rahmen des ökonomischen Paradigmas orientiert. Sie verfolgen insofern einen ,klassischen' Anspruch weiter, als der Methodologische Individualismus als Ausgangspunkt für eine realitätsnähere Ökonomik dienen soll.

Jörg Dötsch

56

Gleichzeitig jedoch vermeiden diese Ansätze den Bezug auf das Postulat des klassischen' ökonomischen Ansatzes, aus der individuellen Perspektive den Tatbestand von Marktwirtschaft als Phänomen eigener Ordnung beschreiben zu können. Ein stringenter Bezug zur Ursprungsfrage nach der „Katallaxie" fehlt. Nur selten wird der Versuch unternommen, die für die Mikroebene gewonnenen Erkenntnisse in Fragestellungen der Makroebene (etwa: ist Markt ein homöostatisches Phänomen?) zu integrieren (wie etwa FETCHENHAUER/HAFERKAMP 2 0 0 7 ) .

Dies fuhrt nicht nur seit jeher zu Irritationen des Selbstverständnisses der Ökonomik, sondern auch zu disziplinaren Abgrenzungsschwierigkeiten. So ist es für Soziologen auch bis heute „(...) schwierig, zu erkennen, was Ökonomen meinen, wenn sie von ,Markt' sprechen" (LUHMANN 1 9 9 4 , S. 9 1 ) . 3 In diesem Sinne bleiben, auch bei unterschiedlichen Versuchen horizontaler Integration (vgl. etwa FREY/STUTZER 2007), Erkenntnisse ökonomischer Art oft unverbunden. Das ursprüngliche klassische Problem, nämlich die Beschreibung des charakteristischen Emergenzsprunges („Ergebnisse menschlichen Handelns, nicht menschlichen Entwurfs") tritt in den Hintergrund. Von eben daher gewinnt das diesem Beitrag vorangestellte Zitat Hayeks auch heute noch seine Aktualität. Aus seiner Diagnose anthropologischer Befindlichkeit sind hinsichtlich der Stabilität wettbewerblicher Ordnung als ein Ganzes bislang nicht eigentlich stringente Konsequenzen gezogen worden. Diese werden indes durch ein höheres Maß an Genauigkeit in Teilbereichen substituiert. Der Vollzug theoretischer Differenzierung erscheint insofern (auch) als ein Immunisierungsprozess. Innerhalb der Disziplin bilden sich aufgrund der Irritationen, die die Ursprungsfrage verursacht, in fortschreitender Differenzierung Teilbereiche höherer Konsistenz aus (siehe Beispiele oben). Eine Rektifikation des Kreises ist von der Position emergenz- oder komplexitätstheoretischer Überlegungen aus jedoch keineswegs gefordert. Denn solange das Phänomen des Marktes als emergente Realie angenommen wird, und dies setzt selbst der Mainstream implizit voraus (vgl. CABALLERO 2 0 1 0 , S. 87), bleibt auch die vertikale Integration der Teilerkenntnisse nichts weniger als konsequentes Desiderat ökonomischer Wissenschaft. 2. Hayeks Erweiterung ,klassischer' Postulate Klassisch orientierte Ansätze teilen ein Gemeingut an Grundannahmen, die nicht zuletzt durch Hayek wiederbelebt und in bewusster Abgrenzung zur Neoklassik zur Diskussion gestellt wurden. Dazu zählt jene Annahme, dass es sich bei dem Phänomen des Marktes um eine soziale Erscheinung emergenter Ordnung handelt. Diese Erscheinung wird fortlaufend neu initiiert, indem Individuen auf Märkten ihre eigenen Interessen verfolgen. Durch dieses menschliche Handeln kommt eine negative Rückkopplung zustande, so dass von einer selbstorganisierten Ordnung gesprochen werden kann. Hierbei handelt es sich um die wesentlich auf Smith zurückführbare Auffassung des Marktes als ein invisible hand-Phänomen (vgl. WOHLGEMUTH 2 0 0 8 , S. 3 2 ) . 3

Freilich besteht auch unter Sozilogen keine Einigkeit darüber, was Markt sei. Dies scheint insofern unproblematisch, als die Soziologie sich andere Fragen stellt (vgl. HILLMANN 1993, S. 821) und das Marktphänomen perspektivisch anschneidet.

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

57

Hayek nahm diesen Faden wieder auf und entwickelte das Konzept komplexitätstheoretisch weiter: Menschliches Handeln ist die Grundlage der emergenten Ordnung des Marktes, ihre emergenten Eigenschaften sind gleichwohl nicht Ergebnisse „menschlichen Entwurfs". Theoretisch entscheidend für den Hayek'schen Ansatz sind in diesem Zusammenhang zwei Gesichtspunkte: Einmal wird emergente soziale Wirklichkeit auf Wissen abgestellt, und zwar differenziert in die Dimensionen impliziten und expliziten Wissens. Menschen richten sich in ihrem Handeln nicht nur nach dem eigenen Willen oder rationalem Kalkül, sondern auch nach Regeln, die implizites, über Generationen angereichertes Wissen enthalten. Dieser Zusammenhang wurde von der institutionenökonomischen sowie der psychologisch orientierten Forschung fruchtbar aufgegriffen (vgl. GIGERENZER 2007). 4 Entscheidend ist die Vorstellung, dass soziale Interaktion aus Prozessen besteht, die individuelles und überindividuelles Wissen gleichermaßen nutzen. Dies wird dann mit Blick auf das Phänomen der „Katallaxie" auf wettbewerbliche Prozesse bezogen. Diese Verbindung führte Hayek zu seinem bekannten Standpunkt: Die sich durch den Markt und aufgrund des Marktes ausbildende soziale Ordnung wird als evolutionär superior bewertet, da sie mehr Wissen als andere Ordnungsformen generieren und verarbeiten kann (vgl. BOYKIN 2010, S. 19; SUGDEN 1993, S. 396; auch HEATH 2007). In ökonomischer Perspektive ist dies daher so bedeutend, als es Hayek gelang, seine These vom „Wettbewerb als Entdeckungsverfahren" preistheoretisch abzusichern, indem er die Preise als entscheidende Verhaltenssignale identifizierte. Die Vorstellung von Wissen als eine Art Substrat gesellschaftlicher Wirklichkeit wurde durch die Idee der Preissignale für die ökonomische Theorie operationalisierbar. In prozessualer Perspektive ist also der Wettbewerb entscheidend. Denn Wettbewerb vermittelt über die pekuniären externen Effekte des Austauschprozesses Zwänge, damit Unternehmen im Parallelprozess um die Gunst der Nachfrager konkurrieren (vgl. WOHLGEMUTH 2008, S. 38). Die damit entstehende Vielfalt ist der evolutionäre Niederschlag des Marktes. Die evolutionäre Überlegenheit des Marktverfahrens erklärt sich so über das Entdeckungsverfahren als Suche nach dem besseren Wissen. Preise als Verhaltenssignale wurden so wettbewerbstheoretisch nicht nur als Mechanismus für die Lösung des wirtschaftlichen Koordinationsproblems identifiziert. Gleichzeitig leitete Hayek aus diesem Zusammenhang die entscheidenden emergenten Wirkungen ab. Diese Rekombination ist theoriegeschichtlich überaus bemerkenswert.

3. Hergebrachte Defizite Die Erweiterung klassischer Postulate durch ein neues Wissenskonzept einerseits und eine preistheoretische Operationalisierung andererseits bedeutete einen fruchtbaren Ausgangspunkt für die heterodoxe Ökonomik „nach Hayek". Bemerkenswerter Weise wurde die Frage danach, inwiefern Märkte oder ökonomische Realität emergent seien, gar nicht weiterverfolgt. Dies verschob sich in den Grenzbereich zur Soziologie. Damit gerieten auch andere systemtheoretisch relevante Fragen - etwa nach der Umwelt des 4

Zu Hayek liegt ein überreiches Schrifttum vor. Vgl. insbes. die Arbeiten von VANBERG (1981, 1986, 1995, 2003, 2008).

58

Jörg Dötsch

Marktsystems, nach der Frage der Komplexität, nach Selbstreferenz - aus dem Blickfeld. Es scheint jedoch lohnend, darüber genauere Überlegungen anzustellen. Fokussiert man auf die Frage nach dem Emergenzsprung, zeigt sich bei genauerem Hinsehen eine argumentative Asymmetrie im Hayek'schen Ansatz. Das evolutionär superiore Ergebnis - „Markt", „Ordnung", „Katallaxie" usf. - wird anhand eines wissenstheoretischen Arguments erklärt: Die Katallaxie ist evolutiv so durchsetzungsfahig, weil sie alternativlos mehr Wissen entdecken und verarbeiten kann. Im entscheidenden Prozess, dem Wettbewerb, geht es aber nicht um mehr oder weniger Wissen. Wettbewerb ergibt sich aus Akten, denen Bewertungen zugrunde legen. Wettbewerb beruht also auf Konzepten der Vergleichbarkeit und Steigerbarkeit. Diese Konzepte lassen sich aber nicht an die Kategorien von mehr oder weniger Wissen zurückbinden. Sie lassen sich letztlich nur normativ erklären. Für Hayek war der Ansatz des methodologischen Individualismus entscheidend. Er versuchte daher beiden Perspektiven durch die Vorstellung des Wettbewerbs als „Entdeckungsverfahren" miteinander zu verbinden. Diese überaus elegante und theoriegeschichtlich nachhaltige Erweiterung des klassischen Ansatzes ist sein Verdienst und zumal von entscheidender Bedeutung für die Entwicklung der deutschen Wettbewerbstheorie (vgl. dazu etwa MANTZAVINOS 1993, S. 70). a. Wissen und Emergenz Die Verbindung der Emergenzthese mit dem Postulat des methodologischen Individualismus birgt allerdings modelltheoretischen Sprengstoff. Dies zeigt sich dann, wenn die oben nur in Ansätzen eingebrachte Kategorie des Wissens genauer beleuchtet wird. Nimmt man die handelnden Individuen zum Ausgangspunkt, dann muss man mit dem „Primat des Abstrakten" beginnen. Mit dem Verfahren des Wettbewerbs wird dann zwar Wissen entdeckt, aber ein Mehr an Wissen als ein Ergebnis aktiver Suche nach günstigeren Preis-Leistungs-Kombinationen erscheint als zunächst vordergründiger Befund. Die treibenden Kräfte des Marktgeschehens sind das Streben nach subjektiver Verbesserung einerseits und nach monetärer Steigerung andererseits. Ergebnisse des Marktes (etwa verschiedene Güter, deren Preise und Verteilung, Gewinne von Unternehmungen) können daher allenfalls als Symptom der für den Markt relevanten Tatbestände gelesen werden. Diese lassen sich schließlich sämtlich auf Individuen zurückführen. Diesen Zusammenhang beleuchten dann die oben kurz genannten Forschungsrichtungen sehr wohl. Sie binden aber nicht mehr an das klassische Emergenzproblem an. Die oben angesprochene argumentative Asymmetrie bereitet in Hinsicht darauf, wie noch näher zu behandeln sein wird, Schwierigkeiten. Wenn es keinen ontischen Gegenhalt individuellen Strebens oder von „Sinn" gibt (vgl. LUHMANN 1 9 8 4 , S. 142), „Wissen" als Argument für die evolutive Superiorität des Marktes sich also nicht theoretisch mit seinen Triebkräften verbinden lässt, wodurch gewinnt dann das emergente Phänomen des Marktes in evolutionärer Perspektive Stabilität? Denn wenn sich eine gesellschaftliche Ordnung aufgrund ihrer Kapazität zur Verarbeitung von Wissen durchsetzt, scheint diese Überlegenheit mit dem Verfahren des Wettbewerbs an und für sich nicht sichergestellt.

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

59

Inwiefern kann von einem Mehr an „Wissen" überhaupt die Rede sein, wenn doch der Primat des Abstrakten vorausgesetzt wird? In Komparativen ließe sich der fragliche Zusammenhang gar nicht formulieren. Jenseits einer superioren Koordination individueller Ziele aufgrund des Preissystems bleibt letztlich offen, wie das für den Markt relevante Wissen zu modellieren ist. b. Wettbewerb Auf welche Weise, so drängt sich die nächste Frage auf, lässt sich dann in dieses Konzept das Phänomen des Wettbewerbs integrieren? Denn wenn der entscheidende Prozess und sein Ergebnis mit unterschiedlichen Kategorien erfasst werden, fuhrt dies wettbewerbstheoretisch zu einer argumentativen Schieflage. Hier besteht offensichtlich Klärungsbedarf. In den Mittelpunkt rückt dabei zwangsläufig die methodologische Gretchenfrage, welcher Gestalt sich das relevante Wissen theoretisch abbilden lässt. Oder, bescheidener, inwieweit die zugänglichen Ergebnisse Rückschlüsse auf Prozesse der Integration des emergenten Phänomens ,Markt' zulassen. In Hinsicht auf das für den Emergenzsprung relevante Wissen sind Konzepte der Vergleichbarkeit und Steigerbarkeit offenbar inadäquat. Dementsprechend wurden mögliche Folgen jener „Abstraktheit" in Hinsicht auf das emergente Phänomen des Marktes bislang offenbar daher nicht hinlänglich diskutiert, da sie sich nur bedingt ins ökonomische Paradigma fugen. Hier besteht mit Blick auf die .klassische' Frage eine grundlegende Irritation, also eine der wesentlichen Quellen des oben erwähnten Immunisierungsprozesses. Sie speist sich aus dem emergenztheoretisch nach wie vor nicht angemessen erfassten Zusammenhang von Teil und Ganzem, Individuum und „Katallaxie" (vgl. LUHMANN 1994, S. 91). c. Knappheit und Selbstorganisation Ein aus Prozessen anonymer Interaktion entstehendes Ganzes innerhalb des ökonomischen Paradigmas zu beschreiben, bedeutet die Formulierung eines Doppelbezugs: Einerseits der Bezug aller relevanten Handlungen auf das Problem der Knappheit. Andererseits werden diese Handlungen gleichzeitig auf ein billiger/besser-Schema bezogen. Anhand dieses Schemas lassen sich dann Handlungen analysieren. Gemäß BECKER ( 1 9 9 3 , S. 3 ) ist der Ansatz, nicht der Gegenstand entscheidend. Diese Position hat sich zur Durchdringung komplexer Handelnsordnungen als äußerst fruchtbar erwiesen. Sie wird dann problematisch, wenn das ökonomische Koordinationsproblem auf die selbstorganisierten Eigenschaften des Marktsystems bezogen werden soll. Dann werden emergenz- oder komplexitätstheoretische Anleihen unvermeidlich. Denn für ein emergentes, in den Worten Hayeks „selbstorganisiertes" System des Marktes ist das billiger/besser-Schema unterkomplex, da es sich auf die subveniente Ebene bezieht. Das Wissen, das für die Entstehung des emergenten Phänomens Markt relevant ist, muss mit anderen Kategorien behandelt werden. Das vorherrschende billiger/besser-Schema scheint einem impliziten Marktoptimismus geschuldet. Dies, dem widmet sich die folgende Untersuchung, bedeutet jedoch aus methodologischer Sicht, dass „das als gegeben behandelt (wird), was erklärt werden sollte" (HAYEK 1996, S. 116). Anstrengungen der Ökonomik laufen damit in Gefahr, ihre anthropologische beziehungsweise soziologische Plausibilität einzubüßen (vgl. OKRUCH 2 0 1 0 ) . Dies ist umso erstaunlicher, als dass gerade dieser Anspruch einen Kernpunkt des heterodoxen

60

Jörg Dötsch

Forderungskataloges in Abgrenzung zur Neoklassik bildet. Die folgenden Ausführungen sind ein Versuch, an diesen im Rahmen eines konsistenten Modells der Selbstreferenz anzuknüpfen.

4. Der Gang der Überlegungen Der zweite Teil legt zunächst einige grundsätzliche Annahmen dar, die sich in weiten Teilen mit denen des heterodoxen Forschungsprogramms decken. Als Ausgangspunkt soll hier der oben von Hayek gesetzte Rahmen (Primat des Abstrakten, Wissen als Grundlage sozialer Interaktion, Wettbewerb, Preissteuerung, Emergenz) dienen. Genauer beleuchtet werden sollen dabei der Zusammenhang zwischen Nutzen, Knappheit, Preisen und dem „System" des Marktes sowie der Aspekt der Selbstreferenz als Voraussetzung für die Schließung als emergentes System.5 In einem nächsten Schritt wird der Primat des Abstrakten in Hinsicht auf das Handeln der Marktakteure behandelt. Dabei muss ein besonderes Augenmerk den Güterqualitäten, den Ergebnissen der verhaltensökonomischen Forschung sowie Asymmetrien von Wissen und Motivation auf Märkten gelten. Die gewonnenen Einsichten werden dann auf das Problem der Emergenz und Selbstreferenz im Besonderen rückbezogen. Dies führt dann zu einigen Überlegungen hinsichtlich der Fragilität von Märkten.

II. Voraussetzungen von Markt: einige grundsätzliche Annahmen 1. Diversität und Abstraktheit von Nutzen Anschließend an die Tradition des methodologischen Individualismus wird hier davon ausgegangen, dass Nutzen eine subjektive Kategorie darstellt. Nutzenorientiertes Verhalten, soviel ist grundsätzlich festzuhalten, entzieht sich daher eindeutigen Vergleichen: „Ein solches Modell, dass es erlauben würde, menschliches Verhalten intersubjektiv eindeutig als rationales oder irrationales Verhalten zu beurteilen, lässt sich (...) weder mit der Hilfe der Ökonomik noch mit irgendeiner anderen Wissenschaft entwickeln." (SCHRÖDER 2007, S. 49). Nutzen ist also einerseits abstrakt und andererseits immer unterschiedlich, divers. Dies ist zum einen mit Blick auf die Wettbewerblichkeit entscheidend. Ein wettbewerbliches Marktsystem im Sinne eines emergenten Phänomens, das sich als Lösung zum universellen Problem der Knappheit etabliert, ergäbe gar keinen Sinn, wäre der Nutzen seiner Teilnehmer nicht inkommensurabel (vgl. WITT 1997a, S. 53). Diese Individualität des Nutzens ist auf der einen Seite individuellen psychologischen Dispositionen der Akteure geschuldet, die sich z.B. in unterschiedlichen Präferenzen, Fähigkeits- und Anspruchsniveaus ausdrücken (vgl. RÖPKE 1980, S. 126f.,

5

Mit der Allgemeinen Systemtheorie wird hier davon ausgegangen, dass sich selbst produzierende Systeme operational geschlossen sind, siehe dazu Abschnitt 11.4.

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

• 61

auch WITT 1997b, S. 497), hier aber nicht weiter vertieft werden müssen.6 Diese Dispositionen sind gleichzeitig geprägt von der Teilhabe der Akteure am System des Marktes einerseits (vgl. BOWLES 1998) und an der Teilhabe an einer Vielzahl von sozialen Systemen andererseits. Mit einem zusammenfassenden Begriff lässt sich auch, um die Fülle der interdependenten Einflussfaktoren zu benennen, von individuellen „Wahrnehmungsgeschichten" sprechen (STREIT 2003, S. 6; vgl. FEHR/HOFF 2011, S. 7). Der individuelle Nutzen, so lässt sich rückbindend an das diesem Aufsatz vorangestellte Zitat zusammenfassen, ist eine an Individuen gekoppelte, abstrakte Kategorie. Diese bestimmt das Bewertungs- und Entscheidungsverhalten der Akteure, die Art und Weise, wie sie Dinge prädizieren. Gleichzeitig aber ist der jeweilige Nutzen auch plastisch mit Bezug auf die Wahrnehmungsgeschichten, sie sich im Zusammenhang kontinuierlicher Interaktion ausbilden. Dies bedeutet zum einen, dass unterschiedliche Sozialsysteme auf die individuellen Dispositionen einwirken. Diesem Zusammenhang widmet sich anhand der Begriffe der Institution, Kultur usf. ein reiches Schrifttum (vgl. etwa DIMAGGIO 1997, BENJAMIN/ CHOI/STRICKLAND 2007, FEHR/HOFF 2011). Wie oben erwähnt, wird auch der Einfluss

psychologischer Disposition auf Märkte und vice versa untersucht. Mit Fokus auf die emergente Qualität des Phänomens Markt muss aber auch die Frage danach gestellt werden, wo selbstreferentielle Prozesse ablaufen und inwiefern diese stabilisierend - „selbstorganisierend" - oder gar destabilisierend wirken können. Mit anderen Worten: Werden bestimmte Prozesse als Voraussetzung für das emergente Phänomen des Marktes angenommen und sind diese Prozesse selbstreferentiell, erhalten sie auch gleichzeitig das Phänomen des Marktes? Oder kommt es etwa zu gegenteiligen Prozessen? Auf diesen Zusammenhang soll unten näher eingegangen werden. Als Zwischenfazit kann zunächst festgehalten werden, dass sowohl die Abstraktheit als auch die Diversität von Nutzen gleichermaßen eine anthropologisch konstante Grundvoraussetzung dafür bilden, dass gewirtschaftet wird. Sei dies nun wettbewerblich oder nicht.

2. Monetäre Generalisierung als Lösung für das Problem abstrakter Diversität Wirtschaftssubjekte sind also einerseits durch die abstrakte Kategorie des Nutzens in ihrem individuellen Streben (vor)disponiert. Andererseits müssen sie innerhalb von Sphären sozialer Interaktion - Systemen - ihr Verhalten an jenem der Anderen ausrichten. Die Aufgabe von Märkten ist es, diese Diversität des Nutzens zu koordinieren. Insofern scheint es sinnvoll, hier die Hayek'sche Konzeption aufzugreifen. Am Markt wird für den Einzelnen eine Orientierung durch die Signale der Preise möglich. Diese Orientierung wird so unabhängig von Unterschieden hinsichtlich der jeweiligen Disposition. Jeder einzelne orientiert sich innerhalb eines Prozesses anonymer Interaktion.

6

V g l . d a z u e t w a d i e A r b e i t e n v o n FREY/STUTZER ( 2 0 0 7 ) u n d FREY/JEGEN ( 2 0 0 1 ) .

62

Jörg Dötsch

Durch die Funktion der Preise als Handlungssignale im Sinne Hayeks lässt sich der Emergenzsprung des Marktsystems festlegen. Hier eröffnet sich eine Lösung für das wirtschaftliche Koordinationsproblem. Gleichzeitig entsteht damit die „Katallaxie" als Phänomen eigener Ordnung. Was für die Anbieter- wie Abnehmerseite zählt, ist nun nicht mehr die unmittelbare Beziehung untereinander oder die gemeinsame Beziehung zu ein und demselben (Tausch-)Objekt. Als neue Dimension entsteht nun die jeweils individuell oder unternehmerisch hergestellte Beziehung zwischen individuellem Nutzen und dem Preis. Diese Beziehung stellt das marktrelevante Wissen im weitesten Sinne dar (vgl. H A Y E K 1976b, S. 198f.). Die Differenz zwischen Marktsystem und allen anderen Systemen (vielmehr: allem anderen) erfolgt also durch die Leistung einer monetären Generalisierung, die ein System eigener Art entstehen lässt. Soweit der Anschluss an den Hayek'sehen Ansatz zur Lösung des wirtschaftlichen Koordinationsproblems auf der Grundlage von Wissen.7 Im Umkehrschluss heißt dies gleichzeitig, dass nicht nur Güter und Leistungen, sondern entsprechend auch Preise für jedes Wirtschaftssubjekt etwas anderes bedeuten (vgl. L U H M A N N 1994, S. 110). Diese individuelle Bedeutung des Preises in seinem Bezug zu Knappheit untersteht, auf beiden Seiten, dem Primat des Abstrakten. Die durch die Preise bewerkstelligte Generalisierung der Verhaltensoptionen innerhalb des Systems ist, dies ist die Pointe, nur mit Bezug auf individuelle Motive sinnvoll. Besonders mit Blick auf die Wettbewerblichkeit des Systems „Markt" ist dieses initiale Verhältnis entscheidend. Ein wettbewerbliches System des Marktes hätte keinen Sinn, wenn sich Nutzenrelationen unter Teilnehmern optimieren ließen (vgl. H A Y E K 1967b, S. 121).8 Monetäre Generalisierung ist der Mechanismus für das Koordinationsproblem einer auf anonymer Arbeitsteilung beruhenden Wirtschaft. In diesem Zusammenhang muss also eine neue Art von Doppelbezug formuliert werden, der zu den grundlegenden Paradoxa industrieller Existenz zählen dürfte: Durch die Generalisierungsleistung der Preise wird das Problem der Knappheit und abstrakten Diversität von Nutzen .gelöst'. Konkret wird ihm ein Orientierungs- und Interaktionsangebot gegenübergestellt. Gleichzeitig bleibt aber jene Diversität dessen Voraussetzung. Ohne diese Voraussetzung lassen sich Märkte nicht ohne weiteres als emergente Phänomene begreifen. Der dritte Teil dieses Beitrages beleuchtet, inwiefern dieser Zusammenhang in Hinsicht auf unterschiedliche Güter und Anbieter/NachfragerBeziehungen übertragbar ist.

3. Zur Unterscheidung des Ökonomischen vom nicht-Ökonomischen: abstrakter Nutzen konzipiert als systemrelevantes Wissen Anhand des spezifischen Koordinationsverfahrens lässt sich Ökonomisches von Nicht-Ökonomischem unterscheiden. Preise bilden einen kommunizierbaren Bezugspunkt für individuellen Nutzen und erfüllen damit die Funktion von Signalen zur Orien-

7

8

Dieser Zusammenhang wird in soziologischer Stoßrichtung feinkörnig behandelt bei LUHMANN (1994, S. 110). Hayek stellt die Unmöglichkeit einer Optimierung im Sinne formaler ökonomischer Kalküle auf das konstitutionelle Unwissen der Akteure ab. Vgl. OKRUCH (2010, S. 43).

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

63

Orientierung am Markt. 9 In diesem Sinne kann auch davon gesprochen werden, dass sie eine Form von Wissen kodieren (vgl. HAYEK 1976b, S. 198 f.). Preise ermöglichen so die Entdeckung, Beeinflussung und Kommunikation von Wissen für die Koordination der individuellen Pläne von Wirtschaftssubjekten (vgl. HAYEK 1984, S. 196; FOLEY 2010, S. 419; BOYKIN 2010, S. 20; BOETTKE 2002, S. 344). Auf diesem wissenstheoretischen Argument fußt Hayeks Vorstellung der sich durch den Preismechanismus bildenden Katallaxie als Lösung des wirtschaftlichen Koordinationsproblems. Letztlich lässt sich jede Theorie, die von einem Phänomen des Ökonomischen als Realie eigener Ordnung handelt, auf diesen Zusammenhang zurückfuhren. Dabei scheint bemerkenswert, dass gerade die Unterschiede hinsichtlich dessen, was jeweils für ein Subjekt Nutzen stiftet, eine Katallaxie oder emergentes soziales System in Gestalt eines monetär integrierten Marktes überhaupt als Lösung entstehen lassen. Denn jeweils individuelle Motivationen bilden die Ursache für eine wie auch immer geartete Teilnahme (vgl. FREY/JEGEN 2001). Auch wenn sich Güterströme und Preise zahlenmäßig gut erfassen lassen, hat Hayek in bemerkenswerter Weise darauf hingewiesen, dass das für die Katallaxie relevante Wissen an und für sich statistisch nicht erfassbar ist (vgl. HAYEK 1967a, S. 288f f.; 1968b, S. 135; 1979a, S. 273; 1982, S. 46 f.; BARRY 1979, S. 43; CALDWELL 2005, S. 71 f.). Wie Motivation - etwa als Grundlage einer „willingness to pay" (KAHNEMANN/KNETSCH/THALER 1991, S. 194) - innerhalb des Systems in Handlung übersetzt wird, d.h. in Form der ,Rolle' des Wirtschaftssubjekts Gestalt annimmt, schreibt das System dann selbst durch seine charakteristische Generalisierung vor (vgl. KÜPPERS 1994, S. 129; DREPPER 2003, S. 197). An Preisen orientierte Handlungen bilden gewissermaßen die Innenseite des Marktes als soziales System. Die statistisch nicht erfassbaren Motivationen lassen sich als Außenseite verstehen. Ökonomisch relevant werden individuelle Dispositionen dann, wenn Knappheit als Kategorie der Orientierung relevant und auf Preise bezogen wird. Von daher kann die Verhaltensorientierung innerhalb des Marktsystems über Preissignale als ein „kreativer Akt" (KERBER 1989, S. 47, 68; vgl. auch HINTERBERGER 1994, S. 335) verstanden werden. Liest man die hier aufscheinende Differenz von System und Umwelt als eine Form der Komplexitätsreduktion, dann bilden individuelle Präferenzen einen Teil der Umwelt des Marktsystems oder der Katallaxie. Diese stellt jedoch gleichzeitig eine Voraussetzung für die Ausbildung des Marktsystems dar. Unterschiedliche, parallel existierende soziale Systeme wirken zweifellos darauf ein, wie Knappheit jeweils individuell interpretiert wird und was Nutzen jeweils bedeutet. Individuelle Disposition und individuelle Wahrnehmungen stellen dementsprechend eine „(...) Überlagerung von vielen Klassifikationen' (...)" (HAYEK 1996, S. 115) dar. Nimmt man das oben formulierte Paradoxon zum Ausgangspunkt und fokussiert die Differenz von System und Umwelt, dann kann vorausgesetzt werden, dass die Umwelt das System ermöglicht. Genauer: „Jeder interne Zustand verlangt, daß bestimmte Bedingungen (Interaktion mit der Umwelt) erfüllt sein müssen, damit der nächste Zustand herbeigeführt werden kann" (MATURANA 2 0 0 0 , S. 28).

Auch von daher scheint LUHMANNS Konzept des Geldes als „symbolisch generalisiertes Kommunikationsmedium" schlüssig.

64

Jörg Dötsch

Um von dieser Position aus Ökonomisches und Nicht-Ökonomisches zu trennen, kann hier einerseits auf die Auffassung BECKERS zurückgegriffen werden, der Phänomene der individuellen Nutzensteigerung fokussiert. Andererseits soll die monetäre Integration von Märkten im Sinne Hayeks als Bezugspunkt dienen. Sind beide Bedingungen erfüllt, dann handelt es sich um die emergente Realie der Katallaxie. In anderen Worten: Entstehen Phänomenbereiche des Sozialen „(...) aus der Kopplung psychischer Gesetzmäßigkeiten" (KÜPPERS 1994, S. 131), dann entsteht das Phänomen des Marktes durch die Kopplung von Effekten monetärer Integration mit dem Primat des Abstrakten. Abstrakter Nutzen ist die systembedingende Umwelt. Durch das Preissystem verwirklicht sich das Phänomen der Katallaxie zu einem selbstreferentiellen System. Durch das Wechselspiel von Auswirkungen von Sachverhalten auf Preise und vice versa scheidet sich so das Ökonomische vom Nicht-Ökonomischen.

4. Schließung durch Selbstreferenz Mit dem Ziel einer gründlicheren systemtheoretischen Absicherung sei hier kurz auf das Konzept Maturanas zur Selbstreferenz verwiesen. Diesem gemäß bilden sich emergente soziale Systeme „indem die Mitglieder (...) durch ihre Verhaltensweisen ein Netzwerk von Interaktionen ausbilden, das für sie wie ein Medium wirkt, in dem sie sich als Lebewesen verwirklichen und in dem sie dementsprechend auch ihre Organisation und Angepaßtheit aufrechterhalten" (MATURANA 1 9 8 7 , S. 2 9 2 ) . Wirtschaftssubjekte bilden durch ihr an Preisen orientiertes Verhalten gegenseitig einen solchen Bedingungszusammenhang aus, der sich selbst zugleich Wirkung und Ursache ist (vgl. allgemein KÜPPERS 1 9 9 4 , S. 1 2 9 ) . Denn Preise erhalten, dies die systeminterne Perspektive, nur aufgrund der Relation zu anderen Preisen Sinn. Diese Preise kommen jedoch allein dadurch zustande, dass sie Knappheitsverhältnisse, also Bewertungen durch Individuen, in ein Verhaltenssignal übersetzen. Individuen „bedienen" sich nutzstrebend des Marktsystems als Lösung für das Problem der Knappheit (HOPPMANN 1993, S. 16; vgl. auch ders. 1988, S. 125). Preissignale werden dadurch verhaltensrelevant, und gleichzeitig wird Verhalten preisrelevant. Preise stellen daher den entscheidenden Kopplungsmechanismus dar, indem er die Abhängigkeit unter Teilprozessen des Systems gestaltet (vgl. KÜPPERS 1 9 9 4 , S. 121 und 119). Dies ist jedoch nur aufgrund individuellen Nutzens möglich. Durch die individuelle Orientierung an Knappheit einerseits und an Preisen als chiffrierte Signale iür Knappheit andererseits integriert die Interaktion synchron einen Prozess der Klassifizierung von internen und externen Stimuli. Hayek hat diesen Zusammenhang mit Bezug auf den Bereich des Psychischen in The Sensory Order beschrieben (vgl. HAYEK 1 9 5 2 ; dazu MACQUADE/BUTOS 2 0 0 5 , S. 3 4 1 ) . 1 0 Die hier aufscheinende Problematik von Teil und Ganzem lässt sich systemtheoretisch in die Beziehung von Element und System überführen. Im betrachteten Zusammenhang wirkt das rekursiv erzeugte Wissen um die Umwelt der Elemente einer10

Auch MACQUADE/BUTOS (2005, S. 341) differenzieren hier explizit: „Social Orders are not brains but are brain-like, in certain very specific and circumscribed respects". Vgl. zur sozialtheoretischen Diskussion von Hayeks The Sensory Order ausführlich die in BUTOS (2010) versammelten Beiträge.

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

65

seits und die Umwelt des Systems andererseits gleichzeitig auf das Verhalten der Elemente zurück. Dieses Verhalten konstituiert dann die adaptiven Reaktionen des Systems auf Wandel in seiner Umwelt (MACQUADE/BUTOS 2 0 0 5 , S. 3 4 1 ) . Das emergente Phänomen des Marktes wird also durch die Gesamtheit von Handlungen gebildet, die sich gegenseitig handlungsrelevante Umwelten schaffen (vgl. KERBER 1 9 8 9 , S. 6 2 ) und sich darin wechselseitig aneinander anpassen (vgl. HOPPMANN 1 9 8 8 , S. 6 2 ) . Zurückkommend auf die oben zitierte Auffassung Maturanas: In einem monetär integrierten System des Marktes bilden Individuen und Unternehmen ein Netzwerk von Interaktionen aus, das als ein emergentes Phänomen als Medium für alle weiteren Handlungen dient. Der Markt stellt in diesem Sinne ein Phänomen eigener Ordnung zur Bewältigung des Problems der Knappheit dar. Für dieses Phänomen sind selbstreferentielle Prozesse insofern charakteristisch, als dass sich Individuen an Preisen orientieren und eben dieses Handeln die Möglichkeit für die Orientierung anderer eröffnet. Die Einheit des Systems wird durch das Zusammenspiel der Eigenschaften seiner Bestandteile in einer Art und Weise erzeugt, die diese Eigenschaften hinwiederum determiniert. Damit schließt sich das System. Von einem geschlossenen System muss auch dann gesprochen werden, wenn davon ausgegangen wird, dass zwischen dem Streben nach wirtschaftlicher Knappheitsminderung und der außerwirtschaftlichen Lebensgestaltung ein unlösbarer Zusammenhang besteht. Denn innerhalb des Systems ist die Orientierung über Preise exklusiv. Die Allgemeine Systemtheorie stellt dafür den Terminus der „operationalen Geschlossenheit" zur Verfügung. Die Zustände des Systems sind durch seine eigene Struktur bestimmt (vgl. KRIEGER 1998,38f.)."

III. Das Abstrakte als Ursache und Wirkung - und die Folgen In den voraufgehenden Abschnitten wurde grob nachgezeichnet, inwiefern sich ein Setting klassischer ökonomischer Grundannahmen in einer emergenz- beziehungsweise systemtheoretischen Perspektive mit besonderem Fokus auf das Problem des Wissens plausibel integrieren lässt. Damit wurde die zu Beginn formulierte, vom Ergebnis her orientierte Grundannahme der Ökonomik wiedergegeben, dass es sich beim Markt um ein emergentes Phänomen handle. Dabei muss ins Auge fallen, dass sich dasjenige Wissen, das für die Integration des Phänomens Markt relevant ist, aus Vorgängen der Selbstreferenz oder Schließung ergeben muss. Denn wenn es sich um ein emergentes Phänomen handelt, das durch monetäre Generalisierung entsteht, muss es operational geschlossen sein. Darüber hinaus erscheint dieses Wissen durch die Bindung an individuelles Urteil zunächst relational. Gilt das Ergebnis, das Phänomen des Marktes, auch als unbestrittene Tatsache, scheint zunächst fragwürdig, inwieweit ein auf ein billiger/besser-Schema abgestellter Mechanismus dessen evolutionäre Superiorität sicherstellen kann. Es scheint von daher nicht wunder zu nehmen, wenn Niklas Luhmann als Skeptiker (und Nicht"

Diese Auffassung ist gerade von daher notwendig, als der Markt keine Sollzustände kennt und seine Ergebnisse offen sind. Entscheidend ist ja die Funktionsweise des Marktes über Preise, die Wettbewerb ermöglichen.

66

Jörg Dötsch

Ökonom) in diesem Zusammenhang von einer äußerst unwahrscheinlichen Form operationaler Kohärenz gesprochen hat (vgl. LUHMANN 1994, S. 67).12 Hayek als Initiator eines Integrationsversuchs durch das Konzept des „Wettbewerbs als Entdeckungsverfahren" mit wissenstheoretischer Begründung war in diesem Sinne klar Ökonom und (daher) orientiert am schon vorliegenden Ergebnis - und blieb bei der bekannten Diagnose eines „marvel" (!) (HAYEK 1945, S. 427) stehen. Für die an seine Bemühungen anbindende heterodoxe Ökonomik war das folgenreich. Es scheint daher umso mehr geboten, sich der Prozessseite dieses „Wunders" zuzuwenden. An diesem Grat drängt sich vor allem die Frage auf, welche Rolle der Wettbewerb bei den oben angesprochenen Prozessen Schließung spielt. In diesem Zusammenhang wird die These vom „Primat des Abstrakten" im Folgenden erneut aufgegriffen werden.

1. Marktrelevantes Wissen An diesem Ort soll keine begrifflich höhere Auflösung der Frage angestrebt werden, was Wissen sei.13 Der folgende Abschnitt behandelt das für das Phänomen des Marktes relevante Wissen. Um es vom Irrelevanten zu trennen, lassen sich die folgenden Einschränkungen formulieren: Für die Beschreibung der Differenz zwischen dem Phänomenbereich monetärer Integration und seiner Umwelt (1) scheint der Doppelbezug zur Knappheit und zum Preis für einen ersten Schritt hinreichend komplex. Dies bedeutet: Nur solches Wissen, dass im Zusammenhang mit diesem Doppelbezug steht, kann relevant für den Markt sein. Diese Unterscheidung impliziert entsprechend mehrere, in den vorangehenden Abschnitten entwickelte Aspekte. Im Einzelnen, dass a) das Phänomen des Marktes auf Wissen beruht, b) seine Selbstorganisation auf dem Preismechanismus abgestellt ist, c) es als Ganzes unabhängig ist von individuellen Befindlichkeiten, gleichzeitig aber durch deren Zusammenwirken existiert und d) das Gesamtphänomen eine Lösung des wirtschaftlichen Koordinationsproblems darstellt. Der Ansatz Luhmanns von sozialen Systemen als aus binär kodierten Kommunikationen bestehenden Sinn-Systemen bietet für diese Sichtweise eine Orientierung.14 Betont sei, dass das Interesse des Soziologen Luhmann dem Sinn sozialer Systeme galt.15 Die ökonomische Perspektive fokussiert auf die Realität des monetär integrierten „Systems" Wirtschaft im Sinne einer Lösung für das wirtschaftliche Koordinationsproblem.

12

13

14

15

LUHMANN (1994, S. 64) thematisiert die „historischen und gesellschaftlichen Ausgangsbedingungen und deren Nebenfolgen." An kritischen Nebenbemerkungen gegenüber den Bemühungen der Ökonomik mangelt es bei LUHMANN nicht. Vgl. etwa ders. (1994, S. 110 oder ebd., S. 113). Vgl. dazu etwa die Ausführungen von HERRMANN-PILLATH (2008a, 2008b) und WITT (2008a, 2008b, 2010). Luhmanns Position ist konsistent, Hayeks systemtheoretische Überlegungen sind es nicht. Eine bemerkenswerte Analogie zwischen den Ansätzen bildet jedoch die Funktion der Preise am Markt. Von daher ist eine Orientierung an Luhmanns Theorie hier sinnvoll. Vgl. dazu SCHÜTZEICHEL (2003).

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

• 67

Mit Fokus auf die einzelnen Akteure lässt sich (2) ein fundamentaler Unterschied zwischen einem objektiven Wissen über Tatsachen und „(...) jenen Tatsachen, die der Kenntnis der handelnden Person gegeben sind (...)" (HAYEK 1976a, S. 56) voraussetzen. Diese Unterscheidung lässt sich (3) mit dem Phänomen des „Primat des Abstrakten" näher charakterisieren. Unwissenheit der Akteure besteht in diesem Sinne gewissermaßen zu zwei Seiten hin. Einmal in Richtung auf die Tatsachen des Marktes und dann mit Bezug auf die nicht-marktlichen Tatsachen. Letztere lassen sich definitorisch durch den Bezug auf den in Abschnitt II.4 behandelten Schließungsprozess separieren.

2. Handeln in einem abstrakten Markt a. Zu Asymmetrien des Wissens und der Rolle des Wettbewerbs Noch einmal kurz zusammenfassend beruht die Annahme eines evolutionär superioren Marktsystems auf vier Voraussetzungen: (1) dem Wettbewerb als Funktionsprinzip, (2) abstraktem und diversen Nutzen und (3) monetärer Integration als Schlüssel zu mehr Wissensverarbeitung. Gleichzeitig ist monetäre Integration die Voraussetzung für die (4) emergente Qualität des Phänomens Markt. Wenn wettbewerbliche Prozesse als „ontologische Universalie" (HERRMANNPLLLATH 1997) vorausgesetzt werden und Nutzen abstrakt ist, scheint es alles andere als wahrscheinlich, dass sich Unternehmen aus der Fülle strategischer Handlungsoptionen für „kontinuierlich verbesserte Leistungen" (RÖPKE 1988, S. 134) entscheiden. Hier ist zunächst die Frage zu stellen, für wen und warum etwas als besser oder schlechter bewertbar ist und welche Bedeutung dies für das Marktsystem als emergentes Phänomen hat. Wettbewerb wird hier mit Hayek verstanden als das Bemühen „(...) zu gewinnen, was ein anderer sich zur gleichen Zeit zu gewinnen bemüht" (HAYEK 1946, S. 111). Die monetäre Integration des Marktes kann hier zu weiteren kritischen Überlegungen hinsichtlich des relevanten Wissens anleiten. Handlungsorientierung am Markt bieten einerseits die Preise. Ausschlaggebend sind darüber hinaus alle jene „(...) Tatsachen, die der Kenntnis der handelnden Person gegeben sind" (HAYEK 1976a, S. 56), nicht die „objektiven Tatsachen". Hier scheint es lohnend, auf grundlegende Asymmetrien sowohl von Wissen wie Interessen zwischen Anbietern und Nachfragern aufmerksam zu machen. Anbieterseitig bemühen sich zwar sehr wohl alle das Gleiche - Geld - zu gewinnen, jedoch die unbegrenzte (!) Menge davon ist das entscheidende Motiv. Dass dies aufgrund von Wissensasymmetrien zu suboptimalen Ergebnissen führen kann - z.B. AKERLOFS Lemmon Markets, moral hazard usf. - , wurde bereits grundlegend untersucht. Eine Konsequenz dieser informationsökonomischen Einsichten ist die Angewiesenheit von Märkten auf einen angemessenen Regelrahmen. Durch Regeln können Anbieter gezwungen werden, Nachfragern möglichst gewünschte Preis-LeistungsKombinationen zu bieten. Ist dies aber gewährleistet, führt dies generell auch in einem evolutorischen Sinne zu mehr Wissen? Hier lohnt ein genauerer Blick auf das Verhalten der Nachfrager.

68

Jörg Dötsch

Die Frage lautet, inwiefern sich Unterschiede qualifizieren lassen, was Anbieter und Nachfrager wünschen. CARMON/ARIELY (2000) widmen sich unter dem Begriff des „Endowment-Effekts" dem Phänomen unterschiedlicher Bewertung derselben Güter durch Anbieter und Nachfrager. Ohne im Einzelnen darauf eingehen zu können, wird plausibel eine unterschiedliche „Konstruktion" der Bewertung durch die jeweilige Marktseite vorausgesetzt (ebd., S. 361). Im hier geschilderten Zusammenhang scheint es wenig zielführend, den entscheidenden Unterschied darin zu sehen, dass die käuferseitige Konstruktion der Bewertung durch Ausgabenaspekt und Referenzpreise, die verkäuferseitige Konstruktion durch Verlustaspekt bestimmt wird (ebd.). Die Referenzpunkte der jeweiligen Konstruktionen - Marktinnenseite vs. Marktaußenseite des Abschnitts II.3 - sind offenbar noch wesentlich verschiedener. Sie gehören nämlich zwei verschiedenen Seinskategorien an: Die fiir die Anbieterseite relevante Seinskategorie ist Vergleichbarkeit und Steigerbarkeit, formulierbar ausschließlich in Geldeinheiten. Nachfragerseitig gelten Preise zwar sehr wohl als Orientierung im Marktsystem. Was als Referenz für die Konstruktion von Bewertung gilt, ist jedoch ein ungleich komplexerer Zusammenhang. Anhand der in der Verhaltensökonomik formulierten Effektkategorien wird den Nachfragern in diesem Sinne ein motivationales Konstruktionsprinzip zugeschrieben, das die Ziele der Anbieterseite als Bezugspunkt hat. Das für marktliche Prozesse relevante Wissen ist anbieter- und nachfragerseitig aber offenbar gänzlich unterschiedlich. Im Kontext der systemspezifischen Koordination über Preissignale gerät die Seite der Nachfrager in ein anderes Licht. Nachfrager wollen etwas anderes als Anbieter, zunächst Güter und Leistungen gegen Geld. Die Anbieter stehen dadurch zwar unter dem Zwang „stetig nach - aus Nachfragersicht - günstigeren Preis-Leistungs-Kombinationen zu suchen" (LESCHKE 2003, S. 168). Eine wissensorientierte Perspektive lenkt den Blick hier auf das Phänomen der „Sicht" der Nachfrager. Ausgehend vom „Primat des Abstrakten" bemüht sich jeder Nachfrager im Rahmen seiner geldlichen Möglichkeiten offenbar jeweils um anderes. An diesem Zusammenhang scheint auf, was eingangs als „hergebrachtes Defizit" bezeichnet wurde. Der Erfolg des Entdeckungsverfahrens Wettbewerb ist von den Nachfragern abhängig. Die Behavioural Economics können in Hinsicht auf das Wissen und Verhalten bereits umfängliche Forschungsergebnisse vorweisen. Diese werden aber nicht mehr an die klassische' Emergenzproblematik rückgebunden. KAHNEMANN/KNETSCH/THALER (1991,

S. 193) reflektieren explizit die für die Disziplin der Ökonomik konstitutionelle Position, dass Individualverhalten rational stabilen Präferenzen folgt. Denn nur dann lassen sich Konzepte der Vergleichbarkeit und Steigerbarkeit sowohl anbieter- als auch nachfragerseitig auf die Vorstellung eines Marktes als emergentes Phänomen gleichzeitig anwenden. Die Fülle an begrifflich kategorisierten Phänomenen wird daher auch als „Anomalien" zusammengefasst. Dass bereits etwa hundert Anomalien oder „kognitive Verzerrungen" kategorisiert wurden (vgl. CAMERER/LOEWENSTEIN/RABIN 2004) scheint allerdings ein Hinweis darauf, dass Vergleichbarkeit und Steigerbarkeit nur bedingt das zugrundeliegende Prinzip darstellen kann. Dies bezieht sich auch auf Lgncasters Versuch, das Problem von Vielfalt und Effizienz durch Gütercharakteristiken beherrschbar zu machen (vgl. etwa ders. 1979, 1991).

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

69

Die von Hayek mit dem Konzept des Entdeckungsverfahrens initiierte und später wettbewerbstheoretisch weitergetragene Auffassung von kontinuierlich verbesserten Leistungen als gewissermaßen zwangsläufiger Effekt wettbewerblicher Prozesse (vgl. etwa K E R B E R 2006) fußt offenbar, so wird nun deutlich, auf einem asymmetrischen Wissenskonzept. Dieses setzt, auf der Ebene der Akteure, abnehmerseitig nutzenorientiertes Entscheiden als hinreichend für ein von Unternehmen bestrittenes „Entdeckungsverfahren" nach „besseren" Lösungen voraus. Nur so lässt sich auf der emergenten Ebene die Superioritätsthese wettbewerblicher Ordnung aufrechterhalten. Diese Auffassung von Wissen lässt außer Acht - wenngleich auch Herzstück der Smith'schen These der invisible hand -, dass eine kontinuierliche Steigerung des Gewinns auf der Anbieterseite eine von Befindlichkeiten der Abnehmerseite zunächst völlig unabhängiger Existenzzwang ist.16 Dieser Zwang ergibt sich schon allein aus der Voraussetzung monetärer Generalisierung. Ist das relevante Wissen der Akteure primär abstrakt, dann scheint es allerdings offen, inwiefern der Austauschprozess eben jener Impuls ist, der Anbieter zu ontisch besseren Leistungen veranlasst. b. Zur Bedeutung des „ Primat des Abstrakten " im Besonderen Eine Erhöhung oder Verringerung des Preises stellt nur bei homogenen Gütern eine Verbesserung beziehungsweise Verschlechterung für die Nachfrager dar. Hinsichtlich der Frage nach der Verarbeitung von (mehr) Wissen im Marktsystem wird die Bedeutung des Abstrakten also mit der Heterogenität von Gütern steigen. Vor allem aber wird die Bedeutung des Abstrakten umso größer sein, je weniger sich objektivierbare Standards zur Beurteilung anwenden lassen. Dies ist etwa für zahlreiche Produktionsgüter möglich, da Produktion aus nahezu vollständig durch „Tatsachenwissen" organisierten Prozessen besteht. Die Funktion des Wettbewerbs als Entdeckungsverfahren, das zu einem emergenten, evolutionär superioren Phänomen fuhrt, muss also in erster Linie auf Verbrauchs- und Gebrauchsgütermärkten entwickelter Volkswirtschaften kritisch gesehen werden. Nicht von ungefähr stellte auch LANCESTER (1974) gerade hier die Frage nach der Effizienz. Dies leuchtet allein von daher ein, als Konsum nicht allein der Deckung objektivierter Bedürfnisse gilt, sondern auch eine sozial instrumentelle Funktion erfüllen kann (vgl. W I T T 2008, S. 2). Käuferverhalten ist insofern kontingent. Dieser Tatbestand lässt sich auch etwa an der Zunahme von Gewinnmargen durch den ,Markencharakter' bestimmter Güter ablesen. Letztlich ist der Anbieter das .Wissen' darüber zu entdecken bemüht, wo die Zahlungsbereitschaft von Abnehmern für abstrakte Eigenschaften von Gütern und Leistungen besonders groß ist - und nicht für ontisch verifizierbare Verbesserungen. Aufgrund dieser Abstraktheit scheint es auch angemessen, von Prädikaten der Güter zu sprechen. Sie werden durch den potenziellen Nachfrager jeweils zugeschrieben. 16

Theoriegeschichtlich verknappt ausgedrückt wurde die Annahme der Emergenz durch wirtschaftliche Interaktion von Smith übernommen. Dabei wurden jedoch die normativen Bedingungen, die Smith in seiner Theorie der ethischen Gefiihle formulierte, außer Acht gelassen. Vgl. die instruktive Untersuchung von LEIPOLD (2002, S. 19). Hier liegt die Wurzel der in Abschnitt 1.3 bezeichneten argumentativen Schieflage.

70

Jörg Dötsch

Produktverbesserung ist daher nur eine Strategie von vielen. Denn da für die Bewertung einer Vielzahl von immer komplexer werdenden Gütern und Leistungen keine objektivierbaren Standards existieren (vgl. BECKERT 2007, S. 53f.), muss auch der Prozess der Produktverbesserung immer vor dem Hintergrund gelesen werden, dass die Kategorien von , besser' oder schlechter' aus einem abstrakten Zusammenhang entstehen (vgl. WITT 2008, S. 2). Notwendiges Implikat des „Primat des Abstrakten" ist ja, dass eben der Vorgang der Bewertung, also der Prädikation von Gütern und Leistungen, ein abstrakter ist. Er ist bestimmt durch die Wahrnehmungsgeschichten der Akteure sowohl innerhalb als auch außerhalb marktlicher Zusammenhänge. Was bedeutet dies in Hinsicht auf .klassisch' orientierte Ansätze? Das für sie charakteristische Konzept von Wissen ist offenbar asymmetrisch. Die unterschiedlichen Seinsbereiche, die sich auf „Tatsachenwissen" und den „Primat des Abstrakten" beziehen, werden integriert. Dadurch entsteht ein unverbrüchlicher Markt- oder Wettbewerbsoptimismus, der auf Verbrauchs- und Gebrauchsgütermärkte so nicht anwendbar ist. In Bezug auf die sich durch monetäre Generalisierung ergebende Differenz zwischen „Katallaxie" und ihrer Umwelt ist dies so zu deuten, dass in tendenziell marktoptimistischen Ansätzen systemspezifisches Wissen zu „Tatsachenwissen" umgewertet wird. Verwendet man das Postulat der Selbstreferenz des Marktsystems jedoch stringent (siehe Prozesse der Schließung oben), dann schließt sich hier der Kreis: Kern der Superioritätsthese wettbewerblicher Ordnung ist die höhere Kapazität wie inhärente Tendenz zur Entdeckung und Generierung neuen Wissens. Davon abgeleitet wird, mit Bezug auf alternative Lösungen zum Knappheitsproblem, die möglichst weitgehende Erfüllung der Erwartungen der Wirtschaftssubjekte bei der Realisierung ihrer Pläne (vgl. HAYEK 1968, S. 138; dazu KERBER 1997, S. 36; vgl. auch WITT 2008a, S. 4 ) . Die Möglichkeiten dieser Erfüllung werden aber in einem selbstorganisierten System durch das System selbst vorgegeben. Der „Primat des Abstrakten" gewinnt daher zunehmend an Bedeutung. „Tatsachenwissen" im Sinne Hayeks wird hingegen systematisch da ausgeschlossen, wo objektierbare Standards keine Voraussetzung der Bedürfnisbefriedigung bilden. Dieses Phänomen beleuchtet der folgende Absatz.

3. Selbstreferentielle Prädikation und Koordination Was kann das doppelte Problem einer sich selbst verstärkenden Exklusion von „Tatsachenwissen" durch abstrakte Prädikation und monetäre Integration in Hinsicht auf die Stabilität wettbewerblicher Wirtschaft bedeuten? Auf den entscheidenden Zusammenhang von Selbstreferenz des Marktsystems und dem Primat des Abstrakten spielt Ulrich Witt an, indem er luzide zwischen „intrinsischen" und „symbolischen" Eigenschaften von Gütern unterscheidet (vgl. WITT 2008b; vgl. auch schon ders. 2001). Bei intrinsischen Gutseigenschaften lassen sich die Konsummotive anhand der jeweiligen technischen Gütercharakteristika herleiten. Dies ist bei den symbolischen Eigenschaften allerdings nicht der Fall: „What really matters instead is the capacity of goods and services to serve as symbols for conspicuous consumption, conformist consumption, or non-conformist consumption, and this capacity is

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

71

not intrinsic to the products" ( W I T T 2 0 0 8 , S. 4). Der symbolische Wert von Gütern ist vom „Tatsachenwissen" gewissermaßen abgekoppelt. Er lässt sich unter der Kategorie des Abstrakten fassen. Entscheidend ist, dass er eine Form sich spontan bildender sozialer Konvention darstellt (vgl. ebd.). Individuen müssen sich im Sinne eines Lernprozesses das spezifische Wissen über diese Konventionen erst aneignen - „learn to consume" ( W I T T 2 0 0 1 ) . Wie oben bereits umrissen, versucht die Anbieterseite diesen abstrakten Prozess der Prädikation von Gütern und Leistungen zu ihren Gunsten zu steuern (vgl. W I T T 2 0 0 8 , S. 5, auch 17 FEHR/HOFF 2011). Insofern ist hier nicht allein der Unterschied zwischen dem „Primat des Abstrakten" und dem „Tatsachenwissen" entscheidend. Darüber hinaus ist bemerkenswert, dass die symbolische Prädikation das Ergebnis einer komplexen Rückkopplung zwischen Anbieter- und Nachfragerhandeln darstellt. Wie oben erwähnt: der abstrakte Nutzen bildet die systemrelevante Umwelt. Sind innerhalb der Katallaxie Preise handlungsrelevant und Handlungen preisrelevant, dann lassen sich Prozesse der Prädikation von Gütern und Leistungen nicht nur als abstrakt, sondern auch als selbstreferentiell verstehen. Stellt Wettbewerb also sicher, dass das emergente Phänomen des Marktes mehr Wissen verarbeitet und dadurch evolutionär überlegen ist? Das Entdeckungsverfahren des Wettbewerbs lässt sich aus der hier formulierten Perspektive anders bewerten. Anbieter sind in dieser Perspektive auf der Suche nach dem Verständnis von abstrakten Prädikaten. Zweifellos wird auch in einem solchen Kontext allein durch Wettbewerb den Wünschen der Nachfrager möglichst weit entsprochen werden. Es darf aber nicht übersehen werden, dass die Anstrengungen der Anbieterseite sowohl der Entdeckung abstrakter Prädikate als auch deren Generierung gelten: „Der ,relevante Markt', auf dem sich Wettbewerbshandlungen vollziehen, ist (...) kein gegebener Möglichkeitsraum (...). Seine Grenzen werden vielmehr immer wieder im Marktprozess verändert und sind somit einer der Umstände, die durch Wettbewerb entdeckt werden sollen" ( W O H L G E M U T H 2008, S. 37). Die motivationale Asymmetrie zwischen Anbieter- und Nachfragerseite fuhrt den Markt dann nicht mehr zu einem Mehr an insgesamt verarbeitetem Wissen. Der Markt koppelt sich vom Tatsachenwissen zunehmend ab. In diesem Sinne ist die Funktion von Märkten, Wissen zu Entdecken und Bedürfnisse zu befriedigen, fragil. Auch wenn Wettbewerb herrscht, können die symbolischen Werte wichtiger werden als die intrinsischen Eigenschaften von Gütern ( W I T T 2008b, S. 4f.). In dieser Perspektive ist Wettbewerb zwar durchaus immer „Hypothesentest" (KERBER), aber eben nicht zwingender Weise „(...) über die möglichst gute bzw. kostengünstige Lösung von Problemen anderer Wirtschaftssubjekte" ( K E R B E R 1996, S. 308), sondern, da der Preis sich auf eine zumindest teilweise abstrakte Eigenschaft des Gutes oder der Leistung bezieht allein - ganz Adam Smith - über möglichst hohe Gewinne. Bereits das zu lösende Problem ist ja abstrakt! Insofern ist die evolutionäre Superiorität wettbewerblicher Märkte an und für sich fraglich.

17

Dies ist ein in der (zumal mit der Wirkung von Werbung befassten) Psychologie differenziert bearbeitetes Feld. V g l . in d i e s e m Z u s a m m e n h a n g e t w a GASS/SEITER ( 2 0 1 1 , S. 34-40), KAIKATI/KAIKATI ( 2 0 0 4 ) s o w i e DIJKSTERHUIS/AARTS/SMITH (2005).

72

Jörg Dötsch

In Hinsicht auf die evolutorische Superiorität des Gesamtsystems bleibt unausgesprochen, dass intrinsisch inferiore und gleichzeitig relativ teure Leistungen von den Nachfragern durchaus als günstigere Preis-Leistungs-Kombinationen bewertet werden können und genau dies ein plausibles Ziel der Anbieterseite sein kann. Aus anthropologisch plausiblen Gründen: „Denn um dessentwillen, was ihnen ein Gut zu sein scheint, tun alle alles" (ARISTOTELES 1995, S. 1). Scheint dieser, im betriebswirtschaftlichen Schrifttum schon länger behandelte Befund zunächst unproblematisch, ist es vor dem Hintergrund der oben umrissenen Funktionsweise von Märkten bemerkenswert, dass diese „symbolischen" Eigenschaften auf dem Markt eine größere Bedeutung als die intrinsischen annehmen können. Ist dies hinwiederum das Ergebnis eines abstrakten und selbstreferentiellen Prozesses, dann führt das Entdeckungsverfahren des Wettbewerbs auf einem abstrakten Markt zu Exklusion, d.h. der Abkopplung vom „Tatsachenwissen.". Diese Tendenz ist im Prinzip monetärer Generalisierung angelegt. Die operationale Geschlossenheit des Systems wird so zu seiner Achillesferse.

IV. Ausblick Die Frage danach, inwieweit sich Märkte als emergente Phänomene beschreiben lassen, die auf individuellen Befindlichkeiten aufruhen, scheint einmal mehr in den Grenzbereich üblicher ökonomischer Modellbildung zu weisen. In den derzeitigen Bemühungen heterodoxer Ökonomik wird diese Frage mit kritischem Seitenblick auf die Bereiche der Psychologie (wie bei FEHR), der Wissenstheorie (wie bei H E R R M A N N PILLATH, WITT) und Soziologie (wie bei O K R U C H ) immer wieder angeschnitten. Zusammengeführt werden die Ergebnisse aus den jeweiligen Nischen dann allerdings nicht mit Blick auf ein entscheidendes Prämissenset klassisch orientierter Ökonomik: Emergenz, Selbstorganisation und methodologischer Individualismus. Ist das Phänomen des „Primat des Abstrakten" dementsprechend auch in Teilbereichen integriert, bildet es aus einer emergenz- oder systemtheoretischen Perspektive eine Herausforderung. Unter diesem Aspekt lässt sich, die eingangs erwähnten Stoßrichtungen heterodoxer Forschung verfolgend, auch weitere Erkenntnis gewinnen. Epistemischen Mehrwert gewönnen dieselben, indem sie sich auf dem Prüfstand des klassischen Anspruchs einerseits auf konsistente Wissenskonzepte und andererseits auf einen eindeutigen emergenztheoretischen Rahmen bezögen. Zu differenzieren wären dann weitere Schritte vor allem im Hinblick auf das Problem der Güterqualitäten. Dadurch ließe sich über das „Wunder" der Märkte noch viel lernen.

Literatur Akerlof, George A., Shiller, Robert J. (2009), Animal Spirits. Wie Wirtschaft wirklich funktioniert. Frankfurt am Main. Aristoteles (1995), Philosophische Schriften in sechs Bänden, Bd. 4: Politik. Übersetzt von Eugen Rolfes. Hamburg. Barry, Norman P. (1979), Hayek's social an economic philosophy. London, Basingstoke. Beckert, Jens (1997), Die Grenzen des Marktes. Die sozialen Grundlagen wirtschaftlicher Effizienz. Frankfurt a.M.

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

73

Beckert, Jens (2007), Die soziale Ordnung von Märkten, in: Jens Beckert, Rainer Diaz-Bone, Heiner Gaußmann (Hg.), Märkte als soziale Strukturen. Frankfurt a.M./New York, S. 43-62. Benjamin, Daniel J., Choi, James J., Strickland Joshua A. (2007), Social Identity and Preferences. NBE Working Paper Series 1309, http://www.nber.org/papers/wl3309 Boettke, Peter J. (2002), Information, Knowledge and the Close of Friedrich Hayek's System: A Comment, in: Eastern Economic Journal 26, S. 343-350. Bowles, Samuel (1998), Endogenous Preferences: The Cultural Consequences of Markets and other economic Institutions, in: Journal of Economic Literature XXXVI, S. 75-111. Boykin, Scott A. (2010), Hayek on Spontaneous Order and Constitutional Design, in: The Independent Review 15, 1, S. 19-34. Caballero, Ricardo J. (2010), Macroeconomics after the Crisis: Time to Deal with the Pretenseof-Knowledge Syndrome, in: Journal of Economic Perspectives 24,4, S. 85-102. Caldwell, Bruce (2005), Information, the Tip of the Tacit Iceberg, in: Economic Journal Watch 2, 1, S. 70-74. Camerer, Colin F. (1995), Individual Decision Making, in: A. E. Roth, J. H. Kagel (Hg.): Handbook of Experimental Economics. Princeton, S. 587-703. Camerer, Colin F., Loewenstein, George, Rabin, Matthew (2004), Advances in Behavioural Economics. New York. Caplan, Bryan (2007), The myth of the rational voter. Why democracies choose bad policies. Oxford. Dijksterhuis, Ap, Aarts, Henk, Smith, Pamela K. (2005), The Power of the Subliminal: On Subliminal Persuasion and Other Potential Applications, in: R. Hassin, J. Uleman, J. A. Bargh (Hg.): The new unconscious. New York, S. 77-105. Dimaggio, Paul (1997), Culture and Cognition. Annual Review Sociology 23, S. 263-287. Drepper, Thomas (2003), Organisationen der Gesellschaft. Wiesbaden. Fehr, Emst, Hoff, Karla (2011), Tastes, Castes, and Culture: The Influence of Society on Preferences, in: The Economic Journal 121, 556, F396-F412. Fehr, Ernst, Rangel, Antonio (2011), Neuroeconomic Foundations of Economic Choice Recent Advances, in: Journal of Economic Perspectives 25,4, S. 3-30. Fetchenhauer, Detlef, Haferkamp, Alexandra (2007), Viel zu tun. Umrisse einer Psychologie des Wohlfahrtsstaats, in: Detlef Fetchenhauer, Lorenz Fischer (Hg.): Zur Psychologie des Wohlfahrtsstaats. Sonderheft der Zeitschrift Wirtschaftspsychologie 9, S. 5.24. Foley, Duncan K. (2010), Lineages of Crisis Economics in the 1930's: Keynes, Hayek and Schumpeter, in: Eastern Economic Journal 36, S. 413-422. Frey, Bruno S. (Hg.) (2002), Inspiring Economics. Human Motivation in Political Economy. Frey, Bruno S., Jegen, Reto (2001), Motivational interactions: effects on behavior, in: Annales d'economie et de statistique 63-64 2001, S. 131-153. Frey, Bruno S., Stutzer, Alois (2007), Economics and Psychology: Developments and Issues, in: Brunos S. Frey, Alois Stutzer (Hg.), Economics and Psychology. A Promising New CrossDisciplinary Field. Cesinfo Seminar Series. Cambridge, MA, London 2007, S. 3-15. Gass, Robert H., Seiter, John S. (2011), Persuasion, Social Influence and Compliance Gaining. Boston u.a. Gigerenzer, Gerd (2007), Bauchentscheidungen. Die Intelligenz des Unbewussten und die Macht der Intuition. München. Hayek, Friedrich August von (1945), The Use of Knowledge in Society, in: American Economic Review 35, S. 519-530. Hayek, Friedrich August von (1946), Der Sinn des Wettbewerbs, in: Ders.: Rechtsordnung und Handelnsordnung. Aufsätze zur Ordnungsökonomik, hrsg. von Manfred E. Streit. Tübingen (2003), S. 107-120. Hayek, Friedrich August von (1952), The Sensory Order. An Inquiry into the Foundations of Theoretical Psychology. London. Hayek, Friedrich August von (1967a), Die Theorie komplexer Phänomene, in: Ders.: Die Anmaßung von Wissen. Neue Freiburger Studien, hrsg. von Wolfgang Kerber. Tübingen (1996), S. 281-306. Hayek, Friedrich August von (1967b), Grundsätze einer liberalen Gesellschaftsordnung, in: Ders.: Freiburger Studien. Tübingen (1969), S. 108-125.

74

Jörg Dötsch

Hayek, Friedrich August von (1968b), Der Wettbewerb als Entdeckungsverfahren, in: Ders.: Rechtsordnung und Handelnsordnung. Aufsätze zur Ordnungsökonomik, hrsg. von Manfred E. Streit. Tübingen (2003), S. 132-149. Hayek, Friedrich August von (1968), Der Wettbewerb als Entdeckungsverfahren, in: Ders.: Rechtsordnung und Handelnsordnung. Aufsätze zur Ordnungsökonomik, hrsg. von Manfred E. Streit. Tübingen (2003), S. 132-149. Hayek, Friedrich August von (1976a), Wirtschaftstheorie und Wissen, in: Ders.: Individualismus und wirtschaftliche Ordnung. Salzburg, S. 49-77. Hayek, Friedrich August von (1976b), Die Illusion der sozialen Gerechtigkeit, in: Die Anmaßung von Wissen. Neue Freiburger Studien, hrsg. von Wolfgang Kerber. Tübingen (1996), S. 193-203. Hayek, Friedrich August von (1978), Die drei Quellen der menschlichen Werte, in: Ders.: Die Anmaßung von Wissen. Neue Freiburger Studien, hrsg. von Wolfgang Kerber. Tübingen (1996), S. 37-75. Hayek, Friedrich August von (1982), Die überschätzte Vernunft, in: Ders.: Die Anmaßung von Wissen. Neue Freiburger Studien, hrsg. von Wolfgang Kerber. Tübingen (1996), S. 76-101. Hayek, Friedrich August von (1984), Einzelwissen und Gesamtordnung, in: Ders.: Rechtsordnung und Handelnsordnung. Aufsätze zur Ordnungsökonomik, hrsg. von Manfred E. Streit. Tübingen (2003), S. 190-198. Hayek, Friedrich August von (1996), Der Primat des Abstrakten, in: Ders.: Die Anmaßung von Wissen. Neue Freiburger Studien, hrsg. von Wolfgang Kerber. Tübingen, S. 114-129. Heath, Will C. (2007), Hayek Revisited. Planning, Diversity, and the Vox Populi, in: The Independent Review 12, S. 47-70. Herrmann-Pillath, Carsten (1997), Wettbewerb als ontologische Universalie: Natürliche Arten, wettbewerbliche Interaktionen und Internalisierung, in: Delhaes, Karl von, Fehl, Ulrich (Hg.): Dimensionen des Wettbewerbs. Seine Rolle bei der Entstehung und Ausgestaltung von Wirtschaftsordnungen. Stuttgart, S. 321- 355. Herrmann-Pillath, Carsten (2001), How to Research Complex Systems: A Methodological Comparison of Ordoliberalism and Regulation Theory, in: Agnes Labrousse, Jean-Daniel Weisz (Hg.): Institutional Economics in France and Germany: German Ordoliberalismus versus the French Regulation school. Heidelberg, New York, S. 272-301. Herrmann-Pillath, Carsten (2002), Grundriß der Evolutionsökonomik. Neue Ökonomische Bibliothek. München. Herrmann-Pillath, Carsten (2008a), Consilience and the Naturalistic Foundations of Evolutionary Economics, in: Evolutionary and Institutional Economics Review 5, 1, S. 129-162. Herrann-Pillath, Carsten (2008b), Deducing Principles of Economics from Ontological Constraints on Information, in: Journal of Econoic Issues 42, 2, S. 317-325. Herrmann-Pillath, Carsten (2010), The Evolutionary Approach to Entropy: Reconciling Georgescu-Roegen's Natural Philosophy with the Maximum Entropy Framework. Frankfurt School - Working Paper Series 140. Hillmann, Karl-Heinz (1993), Wörterbuch der Soziologie. Stuttgart. Hinterberger, Friedrich (1994), (Ko-?) Evolution in Natur, Kultur und Wirtschaft - einige modelltheoretische Überlegungen, in: Frank Beckenbach, Hans Diefenbacher (Hg): Zwischen Entropie und Selbstorganisation - Perspektiven einer Ökologischen Ökonomie. Marburg, S. 317-347. Hirschman, Albert O. (1974), Abwanderung und Widerspruch. Reaktionen auf Leistungsabfall bei Unternehmen, Organisationen und Staaten. Tübingen. Hoppmann, Erich (1993) Hoppmann: Prinzipien freiheitlicher Wirtschaftspolitik (= Walter Eucken Institut, Vorträge und Aufsätze 139), Tübingen. Hoppmann, Erich (1988),Wirtschaftsordnung und Wettbewerb, Baden-Baden. Kaikati, Andrew M., Kaikati, Jack G. (2004), Stealth Marketing: How to Reach Consumers Surreptitiously, in: California Management Review 46,4, S. 6-22. Kerber, Wolfgang: Evolutionäre Marktprozesse und Nachfragemacht. Das Nachfragemachtproblem im Rahmen einer evolutionären Spielraumanalyse und Kritik seiner bisherigen wettbewerbspolitischen Behandlung. Baden-Baden.

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

75

Kerber, Wolfgang (1996), Recht als Selektionsumgebung für evolutorische Wettbewerbsprozesse, in: Birger P. Priddat und Gerhard Wegner (Hg): Zwischen Evolution und Institution. Neue Ansätze in der ökonomischen Theorie (= Institutionelle und Eolutorische Ökonomik 1). Marburg 1996, S. 301-330. Küppers, Günther (1994), Experimentelle Steuerung: Kalkulierbare Eingriffe in die Selbstorganisation? In: Frank Beckenbach, Hans Diefenbacher (Hg): Zwischen Entropie und Selbstorganisation - Perspektiven einer Ökologischen Ökonomie. Marburg, S. 119-141. Leipold, Helmut (2002), Kulturspezifische Zusammenhänge zwischen gesellschaftlicher Regelteilung und marktwirtschaftlicher Arbeitsteilung, in: Thomas Eger (Hg.): Kulturelle Prägungen wirtschaftlicher Institutionen und wirtschaftspolitischer Reformen. Berlin, S. 17-49. Lancester, Kelvin (1979), Variety, Equity and Efficiency. Product Varitey in an Industrial Society. New York. Lancester, Kelvin (1991), Modern Consumer Theory.Aldershot. Leschke, Martin (2003), F.A. von Hayek und die Verfassung der Freiheit, in: Ingo Pies, Martin Leschke: F.A. von Hayeks konstitutioneller Liberalismus (= Konzepte der Gesellschaftstheorie 9). Tübingen, S. 167-189. Lewin, Shira B. (1996), Economics and psychology. Lessons for our own day from the early twentieth century, in: Jornal of Economic Literature 34, 3, S. 1293-1323. Luhmann, Niklas (1984), Vorstudien und Ergänzungen zur Theorie des kommunikativen Handelns. Frankfurt a.M. Luhmann, Niklas (1992), Arbeitsteilung und Moral. Dürkheims Theorie, in: Emile Dürkheim: Physik der Sitten und des Rechts. Vorlesungen zur Soziologie der Moral. Frankfurt a.M., S. 19-38. Luhmann, Niklas (1994), Die Wirtschaft der Gesellschaft. Frankfurt a.M. Macquade, Thomas J., Butos, William N. (2005), The Sensory Order and Other Adaptive Classifying Systems, in: Journal of Bioeconomics 7, S. 333-358. Mantzavinos, Chrysostomos (1993), Positive und normative Wettbewerbstheorie: der Versuch einer Systematisierung, in: Alfred E. Ott (Hg.): Probleme der unvollkommenen Konkurrenz. Tübingen, S. 65-73. Maturana, Humberto R. (2000), Biologie der Kognition, in: Biologie der Realität. Frankfurt a.M., S. 22-92. Maturana, Humberto R. (1987), Biologie der Sozialität, in: Siegfried J. Schmidt (Hg.): Der Diskurs des Radikalen Konstruktivismus. Frankfurt a.M., S. 287- 302. Okruch, Stefan (2010), Ordnungsökonomik und Soziologie - zwischen „soziologischem Liberalismus" und „Soziologieblindheit", in: Klaus Beckmann, Christian Müller, Katrin Röpke (Hg.): Politikberatung für Marktwirtschaft in Transformationsstaaten: Grundlagen, Visionen und Anwendungen. Policy Advice on the Social Market Economy for Transformation Economies: Principles, Vision, and Applications (= Schriften zur Wirtschaftstheorie und Wirtschaftspolitik 43). Frankfurt a.M., S. 35-54. Röpke, Jochen (1977), Die Strategie der Innovation. Tübingen. Röpke, Jochen (1980), Zur Stabilität und Evolution marktwirtschaftlicher Systeme aus klassischer Sicht, in: Erich Streißler, Christian Watrin (Hg.): Zur Theorie marktwirtschaftlicher Ordnungen. Tübingen, S. S. 125-154. Saarn, Nicole J., Kerber, Wolfgang (2006), Knwoledge Accumulation in Hayekian Market Process Theory, in: Rennard, Jean-Philippe (Hg.): Handbook of Research in Nature Inspired Computing for Economy and Management I. Hershey u.a., S. 325-366. Schröder, Guido (2007), De Gustibus Disputandum est? Thomas Schellings transdisziplinärer und meritorikfreier Ansatz zur Analyse konkreter Gesellschaftsprobleme, in: Ingo Pies, Martin Leschke (Hg.): Konzepte der Gesellschaftstheorie 13. Tübingen, S. 39-61. Schützeichel, Rainer (2003): Sinn als Grundbegriff bei Niklas Luhmann. Frankfurt a. M. Scitovsky, Tibor (1976), The joyless economy. An inquiry into human satisfaction and consumer dissatisfaction. Oxford. Streit, Manfred E. (2003), Von der Ordnungspolitik zur Systemtheorie - Bemerkungen zu zentralen Forschungsparadigmen. Max-Planck-Institut zur Erforschung von Wirtschaftssystemen Jena. Diskussionsbeitrag 02-2003.

76

Jörg Dötsch

Sugden, Robert (1993), Normative Judgements and Spontaneous Order: The Contractarian Element in Hayek's Thought, in: Constitutional Political Economy 4, 3, S. 393-424. Vanberg, Viktor J. (1981), Liberaler Evolutionismus oder vertragstheoretischer KonstutitutionaIismus? Zum Problem institutioneller Reformen bei F.A. von Hayek und J.M. Buchanan. Tübingen. Vanberg, Viktor J. (1986), Spontaneous Market Order and Social Rules. Economics and Philosophy 2. Rules and Choice in Economics, London. Vanberg, Viktor J. (1995), Ordnungspolitik und die Unvermeidbarkeit des Wettbewerbs, in: Hans-Hermann Francke (Hg.): Ökonomischer Individualismus und freiheitliche Verfassung. Gedenkakademie fur Friedrich August von Hayek. Freiburg im Breisgau, S. 187-211. Vanberg, Viktor J. (2003), Evolutorische Ökonomik: Homo Oeconomicus, Markt und Institutionen, in: Andreas Diekmann, Rupert Moser (Hg.): Evolution in den Natur-, Sozial- und Geisteswissenschaften. Bern, Stuttgart, Wien, S. 117-137. Vanberg, Viktor J. (2005), Das Paradoxon der Marktwirtschaft: Die Verfassung des Marktes und das Problem der „sozialen Sicherheit", in: Helmut Leipold, Dirk Wentzel: Ordnungsökonomik als aktuelle Herausforderung (= Schriften zu Ordnungsfragen der Wirtschaft 78). Stuttgart, S. 51-81. Vanberg, Viktor J. (1008), Wettbewerb und Regelordnung. Hrsg. von Nils Goldschmidt und Michael Wohlgemuth. Tübingen. Vanberg, Viktor J. (2010), Die Ethik der Wettbewerbsordnung und die Versuchungen der Sozialen Marktwirtschaft, in: Viktor J. Vanberg, Thomas Gehrig, Dieter K. Tscheulin (Hrsg.): Freiburger Schule und die Zukunft der sozialen Marktwirtschaft. Berlin, S. 33-51. Witt, Ulrich (1997a), The Hayekian Puzzle: Spontaneous Order and the Business Cycle, in: Scottish Journal of Political Philosophy 44, 1, S. 44-58. Witt, Ulrich (1997b), Self-organization and economics - what is new? In: Structural Change and Economic Dynamics 8, S. 489-507. Witt, Ulrich (2001), Learning to consume - A theory of wants and the growth of demand, in: Journal of Evolutionary Economics 11, S. 23-36. Witt, Ulrich (2008a), Observational learning, group selection, and societal evolution, in: Journal of Institutional Economics 4, 1, S. 1-24. Witt, Ulrich (2008b), Symbolic consumption and the social construction of product characteristics, Papers on economics and evolution 0815. http://hdl.handle.net/10419/32641 (20.04.2012). Wohlgemut, Michael (2008), Neuheit und Wettbewerb. Über das Neue in Hayeks Entdeckungsverfahren, in: Birger P. Priddat, Peter Seele (Hg.): Das Neue in Ökonomie und Management. Wiesbaden, S. 27-47. Zusammenfassung Ordnungstheoretische Überlegungen zur wettbewerblicher Ordnung finden ihren gemeinsamen Bezugspunkt nicht zuletzt im Ursprung der Klassik. Sie verbindet damit auch ein Katalog offener Fragen. Dementsprechend bildet die Integration psychologischer, wissenstheoretischer und soziologischer Einsichten nach wie vor eine zentrale Herausforderung der heterodoxen Ökonomik. Der vorliegende Beitrag behandelt die Frage, wie wettbewerblich organisierte Märkte als emergente Phänomene begreifbar und inwieweit sie als evolutionär superior bewertbar sind. Das Hayek'sche Postulat vom Primat des Abstrakten bildet dazu den Ausgangspunkt. Problematisiert werden das Phänomen der Selbstreferenz sowie der Zusammenhang zwischen Nutzen, Knappheit und Preisen. Ein besonderes Augenmerk gilt dabei den Asymmetrien von Wissen und Motivation. Die gewonnenen Einsichten werden dann auf das Problem der Emergenz zurückbezogen.

Der Primat des Abstrakten. Überlegungen zu Prozessen der Selbstreferenz auf Märkten

77

Summary: The Primacy of the Abstract. Considerations concerning processes of self-reference on markets Considerations concerning the order of markets and competition in many cases refer to their "classical" origin. In this manner they are united by a couple of common questions. The integration of findings from psychological and sociological research, as well as from theory of knowledge is still an essential challenge of heterodox economics. This paper discusses how to describe competitive markets as emergent phenomena and how to interpret them as evolutionarily superior. The starting point of these considerations is F.A. Hayek's posit of the "Primacy of the Abstract". The problem of self-reference has to be expounded, as well as the interrelation between utility, scarcity and prices. The discussion focuses on the asymmetries between knowledge and motivation. The drawn conclusions are then referred to the problem of emergence

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Peter Deegen

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit in Hayeks Klassifikation der Formen menschlicher Ordnung Inhalt I. 1. 2. 3. II. III. 1. 2. 3. IV.

Regelordnung und forstliche Nachhaltigkeit Ausgangspunkt Untersuchungsgegenstand Problemskizze und Vorgehensweise Externe und erweiterte Ordnung Die beiden Tharandter Nachhaltigkeitstheorien Heinrich Cotta und die Nachhaltigkeit in der externen Ordnung Max Robert Pressler und die Nachhaltigkeit in der erweiterten Ordnung Johann Friedrich Judeich: Versuch einer Synthese Die Schulen der forstlichen Nachhaltigkeit

79 79 80 81 83 86 86 88 90 92

Literatur

93

Zusammenfassung

97

Summary: The relation among the Tharandt-based theories of forest sustainability and Hayek's classification of the forms of human order

97

I. Regelordnung und forstliche Nachhaltigkeit 1. Ausgangspunkt Die Erstauflage der „Sylviculture oeconomica" von Carlowitz (2000/1713) wird von Forstleuten und Experten der nachhaltigen Entwicklung zum Anlass genommen, im Jahre 2013 ein Jubiläum „300 Jahre Nachhaltigkeit" zu begehen. Diese Gelegenheit nutzend, möchte ich im vorliegenden Beitrag meine Überlegungen zu den Regelordnungen der Theorien über die forstliche Nachhaltigkeit veröffentlichen und sie der kritischen Diskussion aussetzen. Um Missverständnissen vorzubeugen, will ich gleich zu Beginn betonen, dass ich mich auf die nachhaltige Bewirtschaftung von Wald (forstliche Nachhaltigkeit) konzentrieren werde, nicht aber auf das viel weiter gefasste Konzept der nachhaltigen Entwicklung der Gesellschaft.

80

Peter Deegen

Die nachhaltige Nutzung von Wäldern ist ein sehr altes Wirtschaftsprinzip: Köpf (1995/1996) verweist auf dendrochronologische Untersuchungen, aus denen hervorgeht, dass Menschen der Jungsteinzeit um 4000 v. Chr. und die Etrusker um 700 v. Chr. Wald offenkundig in gleichmäßigen Nutzungszyklen bewirtschafteten. Ostrom (1999) fuhrt die Gemeinde Törbel (Schweiz, spätestens seit 1483), sowie die Dörfer Hirano, Nagaike und Yamanoka (Japan) als Beispiele für langlebige nachhaltige Waldnutzung an. Auch die Menschen mittelalterlicher Städte deckten ihren Brennholzbedarf mancherorts aus nachhaltiger Waldnutzung (Schubert 1996, S. 264 ff.). Bertsch (1951) berichtet von einer geregelten Schlageinteilung für den Erfurter Stadtwald im Jahre 1359. Durch die Holzordnung von 1560 des Kurfürsten August von Sachsen erhielt die nachhaltige Waldnutzung in Kursachsen Gesetzeskraft (Thomasius 2013). Demgegenüber ist die Forstfachliteratur mit Beispielen über Raubbau, Devastierung und Entwaldung gefüllt. Offenkundig existieren Bedingungen, die zu nachhaltiger Waldbewirtschaftung führen, währenddessen andere Bedingungen nachhaltige Waldbewirtschaftung scheitern lassen (vgl. auch Ostrom 2010, S. 641). Deshalb ist die forstwissenschaftliche Nachhaltigkeitsforschung an der Erarbeitung und Systematisierung so genannter Nachhaltigkeitsbedingungen bzw. -prinzipien interessiert.

2. Untersuchungsgegenstand Untersuchungsgegenstand des vorliegenden Beitrages ist die forstwissenschaftliche Nachhaltigkeitsforschung, nicht aber die Nachhaltigkeit der Forstwirtschaft. In Analogie zur mikroökonomischen Markttheorie geht es im Folgenden also nicht darum, wie Individuen ihre Nachfrage nach und ihr Angebot von Gütern durch Kaufen und Verkaufen koordinieren, sondern wie MikroÖkonomik derartige Marktkoordination theoretisiert. Obwohl durch die klassische Forstwissenschaft die Nachhaltigkeitsprinzipien präzisiert und verfeinert wurden (vgl. Hundeshagen 1826), lässt sich deren Systematisierung bereits in den kameralistischen Forstlehrbüchern wie z.B. Moser (1757), Pfeiffer (1781) oder Paprica (1789) gut nachweisen. Die Wiederbegründung von Wald nach dessen Abtrieb, die Einteilung der Wälder in Schläge und die Ermittlung eines Etats nach Menge und Geldeinkommen werden in der genannten Literatur als die Prinzipien nachhaltiger Waldnutzung herausgestellt. Sie bilden noch heute wesentliche Bestandteile der forstlichen Nachhaltigkeitstheorie (z.B. Kurth 1994, S. 45 ff.; Knoke (Hsg.) 2012, S. 123 ff.). Die genannten Nachhaltigkeitsprinzipien sind zunächst erst einmal Zielvorstellungen (Wiederbegründung von Wald, Hiebssatz) und Verfahrensvorschläge (Einteilung in Schlägen, Etatbildung). Um Realität werden zu können, bedürfen sie Regeln des menschlichen Zusammenlebens. Willkürliche Bestrafung der Untertanen, die keinen Wald neu begründen, Gehorsam gegenüber Gott und Liebe zu den eigenen Kindern, wie Carlowitz1 (2000/1713, S. 107) noch glaubte, reichen bei weitem nicht. Indem Regeln 1

Diese interessante Passage verdanke ich dem Manuskript „Wilhelm Roscher über Hans Karl von Carlowitz. Eine Anmerkung" von Bruno Schönfelder, 14.04.2009: http://fak6.tu-freiberg.de/en/ volkswirtschaftslehre/natural-resource-economics/.

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit

81

zur Berechenbarkeit menschlicher Handlungen führen, verhelfen sie den Interaktionen zwischen den Individuen zu längerfristiger Kontinuität. Und das genau ist das Thema forstlicher Nachhaltigkeitstheorie.

3. Problemskizze und Vorgehensweise Bei den ökonomischen Untersuchungen der forstlichen Nachhaltigkeitstheorien, also der Erforschung der zugrunde liegenden Regeln, stieß ich auf eine Merkwürdigkeit: Offenkundig wurde an der Königlich Sächsischen Forstakademie zu Tharandt2, die 1816 gegründet wurde, über zwei verschiedene forstliche Nachhaltigkeiten gelehrt und geforscht, die offenbar überhaupt nicht zusammenpassen und die sich gegenseitig sogar auszuschließen scheinen. Das ist einerseits die kameralistisch-forstwissenschaftliche Entwicklungsrichtung, zu der Heinrich Cotta3 zählte, und das sind andererseits die Forschungen, die sich mit Max Robert Pressler4 verbinden. Bis heute werden diese beiden Richtungen geradezu als antagonistische, sich ausschließende Theorien wahrgenommen, wobei die Richtung um Pressler bis heute von vielen nicht einmal als eine Theorie der forstlichen Nachhaltigkeit angesehen wird (z.B. Zürcher 1993; Hahn, Knoke 2010). Lange Zeit war ich mir überhaupt nicht im Klaren, wie ich mit dem offensichtlichen Weglassen einer ganzen Theorierichtung verfahren sollte. In einer früheren Untersuchung wurde zunächst herausgearbeitet, dass die so genannte klassische forstwissenschaftliche Nachhaltigkeitstheorie (Cotta) wesentlich auf der kameralistischen Lehre der immerwährenden Herrschaft der herrschaftlichen Familie (Wagner 2012, S. 127) beruhte und Presslers Ansatz auf der „schottisch-englischen klassischen Nationalökonomie" basiert (Deegen, Seegers 2011). Anerkennt man den kameralistischen Ursprung heutiger Finanzwissenschaft (Backhaus, Wagner 2004), ist es auch nicht überraschend, dass hauptsächlich die kameralistisch-forstwissenschaftliche Nachhaltigkeitstheorie zur dominierenden theoretischen Grundlage heutiger Staatsforstverwaltungen wurde. Alles in allem waren die Untersuchungsergebnisse jedoch höchst unbefriedigend. Denn sie lieferten höchstens ein weiteres Beispiel bekannter Zusammenhänge. Also suchte ich nach einer anderen Möglichkeit, das offenkundige Weglassen einer Theorierichtung zu verstehen. Den ersten wesentlichen Gedankenanstoß erhielt ich beim Lesen von Douglass North: 2 3

4

Die Königlich Sächsische Forstakademie zu Tharandt ist heute Bestandteil der TU Dresden, Fakultät Umweltwissenschaften. Heinrich Cotta (1763-1844) war der erste Direktor der Königl. Sächs. Forstakademie in Tharandt bei Dresden. Nach seiner forstpraktischen Ausbildung in Zillbach (Thüringen) bei seinem Vater, studierte er in Jena Kameralwissenschaften und Mathematik. Obwohl Heinrich Cotta vor allem mit der „Anweisung zum Waldbau" (1817) und dem „Grundriß der Forstwissenschaft" (1836) wesentliche Gedanken der klassischen Forstwissenschaft formulierte und zusammentrug, sieht Schuster (2001, S. 757) Cottas Beitrag zur Herausbildung des wissenschaftlichen Prinzips der Nachhaltigkeit nicht in diesen beiden Werken, sondern in der Schrift „Systematische Anleitung zur Taxation der Waldungen" (1804). Max Robert Pressler (1815-1886) war von 1840 - 1883 in Tharandt Professor für alle mathematischen Fächer inklusive Bauzeichnen. Er war einer der Hauptvertreter der Bodenreinertragslehre, die die Maximierung des Bodenertragswertes aus der Waldwirtschaft untersuchte.

82

Peter Deegen

„Geschichte schreiben heißt, eine zusammenhängende Geschichte eines Teilbereichs menschlicher Befindlichkeit im Zeitverlauf zu konstruieren. Solch eine Konstruktion existiert nur im Kopf des Menschen. Wir lassen nicht die Vergangenheit wiedererstehen; wir konstruieren Geschichten über die Vergangenheit. Aber damit es gute Geschichte ist, muss die Darstellung in sich geschlossen und logisch sein und sich im Rahmen von verfugbarem Belegmaterial und verfügbarer Theorie halten" (North 1998, S. 157).

Natürlich ist auch die Geschichte der forstlichen Nachhaltigkeit und die Geschichte deren Theorie konstruiert. Denn die Fakten der Vergangenheit sind nahezu unendlich. Und es ist der Verstand des Geschichte Schreibenden, der aus der Vielzahl historischer Fakten diejenigen auswählt, die seine Geschichte als in sich geschlossen und logisch erscheinen lässt. In diesem Sinn ist die bei Schuster (2001) dargestellte Geschichte der forstlichen Nachhaltigkeit eine gute Geschichte. Stellt man die Frage, warum diese und jene Fakten gewählt und andere weggelassen wurden, so gelangt man zur Frage der zugrunde liegenden Theorie. Sie bestimmt das Auswahlverfahren. Sie kann durch den Geschichte Schreibenden explizit dargestellt werden oder implizit im Verstand vorhanden sein. Manchmal ist sie dem Schreibenden selbst nicht einmal bewusst. Und doch muss es in seinem Verstand ein hypothetisches Muster geben, nachdem die Daten ausgewählt und geordnet werden. Also suchte ich, Douglass North folgend, nach einem hypothetischen Muster, einer Theorie, mit deren Hilfe die oben genannte Merkwürdigkeit im Belegmaterial verständlich wird. Den entscheidenden Anstoß erhielt ich während der Vorlesung „Hayek and Experimental Economics" von Vernon Smith, die er 2008 in Freiburg i. Br. hielt, sowie bei den Vorbereitungen und Nachbereitungen dazu, vgl. V. Smith (1998, 2005, 2008). V. Smith tat nichts anderes, als mit Hilfe der experimentellen Methode die Hayeksche Ordnungstheorie auf ganz faszinierende Art und Weise aus einem neuen Blickwinkel zu betrachten. Unter anderem berichtete V. Smith über die Trust-Game-Experimente. Er interpretiert die Ergebnisse der Experimente, dass ca. 50 % der Spieler 1 nicht die spieltheoretisch dominante Strategie wählen, als Folge unbewusster Anwendung der Regeln der externen Ordnung, obwohl sie sich in einer Situation, in der die Regeln aus der erweiterten Ordnung gelten, befinden (V. Smith 2005, S. 142). Im Grunde genommen dienen die Ergebnisse aus den Trust-Game-Experimenten als Beispiel für Hayeks Feststellung, dass es uns Menschen unerhört schwer fallt, zwischen den Situationen der externen und der erweiterten Ordnung zu unterscheiden (Hayek 1996, S. 14 ff.): „Unsere gegenwärtige Schwierigkeit besteht zum Teil darin, dass wir unser Leben, unsere Gedanken und Gefühle unentwegt anpassen müssen, um gleichzeitig in verschiedenen Arten von Ordnungen und nach verschiedenen Regeln leben zu können" (Hayek 1996, S. 15). Oft genug handeln Individuen unbewusst nach Regeln, die in der jeweiligen Interaktionssituation nicht gelten: „Wir müssen also lernen, gleichzeitig in zwei Welten zu leben" (Hayek 1996, S. 15). Meine Vermutung zur parallelen Existenz zweier Nachhaltigkeitstheorien innerhalb der Tharandter Forstwissenschaft ist nun, dass es sich bei der Richtung, zu der Heinrich Cotta gezählt werden kann, um eine Theorie der forstlichen Nachhaltigkeit innerhalb der externen Ordnung handelt. Dagegen wurde in der Richtung um Max Robert Pressler diejenige Nachhaltigkeit erforscht, deren Handlungsbedingungen die der erweiterten Ordnung sind: Das Pflanzen von Wald für die eigenen Kinder und das Pflanzen von

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit

83

Wald für irgendjemand in der nächsten Generation irgendwo auf diesem Planeten, sind durch völlig verschiedene Handlungsbedingungen gekennzeichnet. In der vorliegenden Publikation möchte ich meine o.g. Vermutung mithilfe von „Indizien" zu belegen versuchen, wobei die herangezogenen „Indizien" zu erheblichen Teilen aus Deegen und Seegers (2011) stammen. Der Unterschied zu Deegen und Seegers (2011) besteht darin, die Beiträge von Heinrich Cotta, Max Robert Pressler und schließlich auch von Friedrich Judeich mit einer anderen „Theoriebrille", der Hayekschen Klassifikation der Formen menschlicher Ordnung, zu betrachten. Deshalb wird im 2. Abschnitt zunächst dieser Teil der Hayekschen Klassifikation kurz dargestellt. Die Führung eines „Indizienbeweises" zur Existenz von zwei verschiedenen Theorien forstlicher Nachhaltigkeit ist kein Selbstzweck. Sollte sich nämlich herausstellen, dass die gegenwärtig dominierende Theorie der forstlichen Nachhaltigkeit eine Theorie der externen Ordnung ist, würde ihre Verallgemeinerung als Nachhaltigkeitstheorie einer Forstwirtschaft in der erweiterten Ordnung zu folgenschweren Fehleinschätzungen fuhren. Die Schwere der Folgen würde sich potenzieren, wenn man darüber hinaus versucht, eine Theorie der forstlichen Nachhaltigkeit in der externen Ordnung als Grundlage für eine Theorie der nachhaltigen Entwicklung menschlicher Gesellschaft in der erweiterten Ordnung zu verwenden. Den letzten Anstoß, meine Gedanken außerhalb der Forstwissenschaft zur Diskussion zu stellen, erhielt ich durch den Beitrag „Können wir nachhaltig leben?" (Köpf 2009/2010), in welchem m. E. die gesamte Dramatik zwischen externer und erweiterter Ordnung zum Ausdruck kommt.

II. Externe und erweiterte Ordnung Vernon Smith (2008, S. 9) bezeichnet die von Hayek im Verlaufe seiner Forschung identifizierten drei komplexen Ordnungsformen in der biologischen und kulturellen Evolution der Menschen als die ,interne Ordnung des menschlichen Geistes', als die ,externe Ordnung persönlicher Tausche' und als die .erweiterte Ordnung des Marktes'. Unter der zuerst genannten versteht V. Smith Hayeks „Sensorische Ordnung" (Hayek 2006). Die von Hayek beschriebenen Tauschbeziehungen der „kleinen Horde oder Gruppe oder beispielsweise unserer Familien" (Hayek 1996, S. 15), die auf „alte instinktive Reaktionen wie Solidarität und Altruismus" (Hayek 1996, S. 15) beruhen, bezeichnet V. Smith als die ,externe Ordnung' (V. Smith 2008, S. 9). Die Bezeichnung .erweiterte Ordnung' hat V. Smith (2008, S. 10) direkt von Hayek übernommen (vgl. Hayek 1996, 2003). Im vorliegenden Beitrag werden die von Smith (2008, S. 9) verwendeten Bezeichnungen für die drei Hayekschen Ordnungsformen übernommen. Obwohl die drei Hayekschen Ordnungsformen eng miteinander verknüpft sind sowie die externe und die erweiterte Ordnung durch die interne Ordnung geprägt werden (vgl. auch Kant 1997, S. 181, Hayek 2006, North 2005), interessieren mich an dieser Stelle nur die beiden gesellschaftlichen Ordnungsformen, die externe und die erweiterte Ordnung. Das hat mit der hier gestellten Aufgabe zu tun, forstliche Nachhaltigkeit als menschliche Kooperation zu verstehen.

84

Peter Deegen

Die externe Ordnung beruht auf den Regeln einer „Gesellschaft einander von Angesicht zu Angesicht bekannter Personen" (Hayek 2003, S. 469), wie z.B. die Horde, die Sippe, die Familie usw. Die Mitglieder einer derartig geschlossenen Gesellschaft werden durch „halbbiologische Bande, durch Verwandtschaft, Zusammenleben, durch die Teilnahme an gemeinsamen Anstrengungen, gemeinsamen Gefahren, gemeinsamen Freuden und gemeinsamen Unglück zusammengehalten ... Sie ist noch immer eine konkrete Gruppe konkreter Individuen, die ... durch konkrete physische Beziehungen, wie Berührung, Geruch, Sicht, miteinander verbunden sind" (Popper 2003, S. 207). Die Interaktionen werden durch bekannte Bedürfnisse für bekannte Personen bestimmt (Hayek 2003, S. 469), wobei angeborene Instinkte eine wesentliche Rolle spielen (Hayek 2003, S. 467). Solidarität und Altruismus werden darin auf vielfaltige Arten und Weisen bekundet, z. B. sich gegenseitig zu beschenken, sich gegenseitig zu helfen, anderen einen Gefallen tun. Also all die Dinge, die Adam Smith in seinem Buch „Die Theorie der moralischen Gefühle" sehr ausführlich beschreibt (A. Smith 2004: z.B. S. 52 ff.). Das Interaktionsmuster der externen Ordnung ist die lose Bezogenheit auf den Anderen: Individuum A erweist Individuum B einen Dienst oder „schenkt" ihm einen nützlichen Gegenstand in der Hoffnung bzw. in der Erwartung, dass B ähnliches in einer nicht genau definierten Zukunft tut, wenn A einen Dienst oder einen Gegenstand von B benötigt. A tut nützliche Dinge für B und erwartet implizit, dass B „irgendwann" ähnlich förderlich handelt. Wir kennen diese Art loser Interaktion aus dem täglichen Leben, wenn wir jemand zum Abendessen einladen und wir zwei Monate später selbst zum Abendessen eingeladen werden. Oder wenn wir einem Nachbarn bei Umzugsarbeiten in der losen Erwartung helfen, dass er uns zu einem späteren Zeitpunkt ebenfalls helfend zur Stelle ist. (vgl. V. Smith 1998, S. 4 f.) Die Anreize zu derartigen Interaktionen entstehen durch eine eher lose Reziprozität mit einer vagen Zeitbindung (V. Smith 2008, S. 16; 1998, S. 3). Demgegenüber ist die erweiterte Ordnung die Ordnung der Großen Gesellschaft (A. Smith 1993) oder Offenen Gesellschaft (Popper 2003). Die lose Reziprozität mit vager Zeitbindung schlägt infolge des hohen Grades an Anonymität fehl. Sie wird durch simultanen Tausch Gut gegen Gut, Geld inbegriffen, ersetzt. (V. Smith 2008, S. 16). In den Gesellschaften der Gegenwart existieren die beiden Ordnungen nebeneinander. Das heißt, wir Menschen leben gleichzeitig in zwei parallelen Ordnungen, der externen Ordnung der persönlichen Tausche und der erweiterten Ordnung des Markttauschs. Wie o.g. sind wir uns längst nicht immer klar darüber, in welcher Ordnung wir uns gerade befinden. In beiden beschriebenen Ordnungen sind Regeln zur intergenerationalen Kooperation und zur Übertragung von Eigentum von einer Generation auf die andere, zwei Hauptbestandteile von forstlicher Nachhaltigkeit, zu finden. Allerdings unterscheiden sich auch diese Regeln in beiden Ordnungsformen deutlich voneinander. In der externen Ordnung geht es um die Übertragung von Eigentum bei loser Reziprozität mit vager Zeitbindung. Beispielsweise treten die Eltern im ersten bzw. den ersten Jahrzehnten des Lebens ihres Kindes in Vorleistung. Innerhalb der verschiedenen Kulturen existieren dann aber Verhaltensregeln und moralische Kodexe, um den zweiten Akt der Reziprozität zu gewährleisten: Das Sorgen der Kinder fiir ihre ge-

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit

85

alterten Eltern (Cigno 1994, Voland 1993, Eibl-Eibesfeld 1997). Folgt man Arendt (2010, S. 73 ff.), war Eigentum ursprünglich mit der Familie identisch. Es war ein räumlicher Bezirk des Herds, des Grabs, des Bodens, das keiner fortnehmen kann. Da die Familie ein „echter" Generationenverband ist (vgl. Vanberg 2009, S. 1), wird dann verständlich, dass Eigentum nur darin vererbt werden kann. Insbesondere lässt sich das privatrechtliche Erbrecht als Verbalisierung von Regeln über die Nachfolge des Eigentums in der externen Ordnung auffassen. Das ist eine analytische These, weder ein wertendes Urteil noch ein normativer Satz. Bestärkt wurde ich beim Aufstellen der These wenigstens durch folgende Untersuchungen, die Aussagen über die Herkunft des privatrechtlichen Erbrechts von den Regeln in der externen Ordnung beinhalten: a) Hayek (2005, S. 117) bezieht sich bei der Beurteilung der Vererbung auf den „natürlichen Instinkt der Eltern für eine möglichst gute Vorbereitung der nachkommenden Generation". b) Goldschmidt (2009, S. 128) führt Rechtfertigungen der Weitergabe großer Vermögen an die eigenen Nachkommen als emotional nachzuvollziehende Affekte der kleinen Gruppe (in der die Regeln der externen Ordnung gelten) an. c) Reil-Held (2009) untersucht das Austauschmotiv als ein wesentliches Erbschaftsmotiv in der heutigen Gesellschaft: „Austauschmotivierte Erbschaften werden von den Eltern an ihre Kinder als Gegenleistung für von ihnen erbrachte Dienste gewährt, wie beispielsweise Pflegetätigkeiten oder Aufmerksamkeit in Form von Besuchen oder Telefonaten (z.B. Bernheim et al. 1985). Diese Tauschbeziehungen zwischen den Generationen waren bereits in den traditionellen Gesellschaften der vergangenen Jahrhunderte üblich" (Reil-Held 2009, S. 140). Ich erkenne darin eine Form von V. Smiths loser Reziprozität mit vager Zeitbindung, die die Regeln der externen Ordnung charakterisieren. In der erweiterten Ordnung des Marktes wird das Eigentum auf eine ganz andere Art und Weise von einer an die nächste Generation übertragen: durch Verkaufen und Kaufen. Natürlich sind Markttausche unabhängig vom Alter des Käufers und des Verkäufers. Der Käufer von Wald kann älter oder jünger als der Verkäufer von Wald sein. Damit beinhalten Waldkäufe/-verkäufe Transfers sowohl zwischen Generationen als auch innerhalb derselben Generation. Jeder Waldkauf/-verkauf von einem älteren an ein jüngeres Individuum und umgekehrt repräsentiert dadurch einen intergenerationalen Tausch. Dabei ist zu beachten, dass es außerhalb der Familie keine eindeutig voneinander abgrenzbaren Generationen gibt und deshalb der Begriff „Generation" nur in einem abstrakten Sinn verwendet wird (vgl. Vanberg 2009, S. 1). Da es in einer Marktwirtschaft möglich ist, jederzeit Waldbestände zu verkaufen/ zu kaufen, die noch nicht hiebsreif sind, wird das Anreizproblem sowohl beim Verkäufer als auch beim Käufer gelöst, wie dies bei allen intertemporalen Wahlhandlungen der Fall ist. Denn ein Individuum erhält durch den Verkaufserlös einen Anreiz, Bäume zu pflanzen, deren „Früchte" es niemals selbst ernten wird. Oder besser gesagt, die Früchte des Pflanzers sind die Erlöse aus dem Verkauf eines nicht hiebsreifen Waldbestandes. Umgekehrt hat auch der Käufer einen Anreiz, bereits vorhandene, jedoch noch nicht

86

Peter Deegen

hiebsreife Waldbestände zu kaufen. Samuelson (1976, S. 474) formulierte das in seiner berühmten Metapher: „Selbst wenn mir mein Doktor erzählen würde, dass ich übermorgen sterben werde, so würde ich noch heute einen langlebigen Olivenbaum in der Gewissheit pflanzen, dass ich das Bäumchen morgen verkaufen könnte, um mir aus dem Erlös einen letzten schönen Tag zu finanzieren" (Übers, vom V). Die Metapher gilt natürlich für jede Vermögensbildung. Mit ihr entmythologisierte Samuelson jedoch die heroische Annahme etlicher Forstpraktiker, dass das Pflanzen von Generationen überdauernden Bäumen ein Akt von intergenerationalem Altruismus wäre. Natürlich existieren die Regeln zur intergenerationalen Übertragung von Waldeigentum in der externen Ordnung und in der erweiterten Ordnung in der Gesellschaft gleichermaßen nebeneinander und beeinflussen sich gegenseitig, wie Amacher et al. (2002) am Beispiel der Wahl der Umtriebszeit von Waldbeständen zeigten. Dennoch ist die analytische Separation, ob man Bäume für die eigenen Kinder oder Enkel oder zum Zweck eines späteren Verkaufs hiebsunreifer Bäume pflanzt, für das Verständnis der forstlichen Nachhaltigkeit von erheblicher Bedeutung.

III. Die beiden Tharandter Nachhaltigkeitstheorien 1. Heinrich Cotta und die Nachhaltigkeit in der externen Ordnung Um nachvollziehen zu können, dass es sich bei der Richtung, zu der Heinrich Cotta gezählt werden kann, um eine Theorie der Nachhaltigkeit in der externen Ordnung handelt, bedarf es zwei Gedanken: Erstens, Heinrich Cottas Nachhaltigkeitsforschung basierte auf einer Tradition, die eng mit dem Kameralismus verflochten war (Backhaus 2011; Deegen, Seegers 2011). Und zweitens, im Kameralismus als der ökonomischen Lehre und Praxis herrschaftlicher Familienwirtschaften, wurden zur intergenerationalen Übertragung von Eigentum vor allem die Regeln loser Reziprozität mit vager Zeitbindung der externen Ordnung des persönlichen Tauschs angewendet und weniger die der erweiterten Ordnung des Markttauschs. Im Folgenden sollen die beiden Gedanken erläutert werden: Die enge Verflechtung von Forst- und Kameralwissenschaft ist nicht verwunderlich, war doch der Kameralismus die am meisten verbreitete ökonomische Lehre für die herrschaftlichen Familienhaushalte und -betriebe auf den Territorien der deutschen Kleinstaaten. Im Gegensatz zu ihren merkantilistischen Kollegen in den großen europäischen Flächenstaaten waren die Kameralisten weniger Steuerspezialisten, sondern auch „Manager" und Berater großer herrschaftlicher Familienhaushalte mit vielen einzelnen Betriebsteilen (Backhaus, Wagner 1987; Wagner 2012). Die Forstwirtschaften waren darin voll und ganz eingeordnet (vgl. z.B. Backhaus 2011). Das essenzielle Ziel der kameralistischen Haushalt- und Betriebsführung war die immerwährende Herrschaft der herrschaftlichen Familie (Wagner 2012, S. 127). Die forstliche Nachhaltigkeit war mit dem herrschaftlichen Familienziel nicht nur kongruent, sondern dem Familienziel gänzlich untergeordnet. Jedenfalls war die „immerwährende Nutzung" eine damals übliche Beschreibung von Nachhaltigkeit und allgemeines Ideengut in den kameralistisch-forstlichen Lehrbüchern. Zum Beispiel: „... da ein fester

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit

87

Grundsatz der Kameralwissenschaft ist, aus den Waldungen den höchstmöglichen immerwährenden Nutzen zu ziehen" (Paprica 1789, S. 27). Oder: „Der eigentliche und vornehmste Endzweck der Forstwissenschaft, besteht in immerwährender, höchstmöglicher Nutzung der Wälder" (Pfeiffer, 1781, S. 15). Es ist nur allzu verständlich, dass die „immerwährende Herrschaft" in eine „immerwährende Nutzung" „transzendiert" wurde (vgl. z.B. Tullock 2004, S. 70). Obwohl die kameralistischen Staaten infolge ihrer Kleinflächigkeit erheblichem Steuerwettbewerb ausgesetzt waren und ihre „Familienbetriebe" privatwirtschaftlichem Wettbewerb, besonders auf den Arbeitsmärkten, unterlagen (Wagner 2012), unterscheiden sie sich von heutigen unternehmerischen Familienbetrieben erheblich: Während die zuerst genannten keine oder doch nur sehr beschränkte Zugangsmöglichkeiten kennen, ist bei heutigen unternehmerischen Familienbetrieben Zugangsfreiheit typisch. Die meisten Beziehungen kameralistischer „Familienbetriebe" spielen sich innerhalb des Adels als dominante Gruppe ab, die vor allem durch Familienbeziehungen geprägt wurden (North et al. 2011, S. 34 ff.). Der Erhalt der Herrschaft erfolgte zu erheblichen Teilen durch Privilegienschutz (North et al. 2011, z.B. S. 34 ff.). Die forstliche Nachhaltigkeit wurde durch eben diesen Privilegienschutz zu gewährleisten versucht. Die immerwährende Erhaltung der Familienherrschaft setzte die Generationen übergreifende intrafamiliäre Eigentumsübertragung voraus, die in der herrschaftlichen Familie gewährleistet sein musste. Die dafür zugrunde liegenden Regeln waren die der kleinen Gruppe, hier der Familie, und nicht der Großen Gesellschaft. Dazu gehörige analytische Kalküle existierten offenbar nicht (Wagner 2012, S. 126 f.). Stattdessen waren Bildung auf der Basis eines umfangreichen Moralkodexes, umfassende Ausbildung in der Familientradition und -geschichte u.a.m. die Säulen für die intrafamiliäre Reziprozität im Zeitverlauf (z.B. Neipperg 1998). Um die Unterscheidung besser zu veranschaulichen, ist es hilfreich, auf die von Vanberg (2011) vorgeschlagene Gliederung von „pre-defined" und „self-selected" Gruppen zurückzugreifen: Die auf Verwandtschaft basierende herrschaftliche Familie war gegeben und primär. Sie ist „pre-defined". Die darin enthaltenen kameralistischen Betriebsteile waren der Erhaltung der Herrschaft völlig untergeordnet, Ein- und Austritt war nahezu unmöglich. Daher findet man dann auch die typischen sozialen Dilemmas der „pre-defined" Gruppe in den herrschaftlichen Familienstrukturen wieder , wie z.B. den vermögensverzehrenden Überkonsum durch eine einzelne Generation, der eine ständige, die weitere Herrschaft infrage stellende familieninteme Gefahr darstellte. Beispielsweise beklagt sich Paprica (1789, S. 43), dass angeblich aus Geldmangel nicht mit einer ordnungsgemäßen Forstwirtschaft begonnen wird: „ so wenig kann ich begreifen, wie es möglich sei, dass man nicht einige hundert Gulden jährlich dazu bestimmen könnte. Man findet doch Geld nach Tausenden ... Geldmangel ist nur ein Vorwand, damit das nicht geschehe, was dem Interesse einiger Personen zuwider läuft." Die heutigen unternehmerischen Familienunternehmen können dagegen eher als ein Beispiel für „self-selected" Gruppen angesehen werden: Rentable Teamproduktion ist nicht auf die Mitglieder der Familie begrenzt. Vielmehr können Individuen, die gewillt sind, in die Korporation einzutreten, aus einem offenen Pool potentieller Kandidaten rekrutiert werden (Vanberg 2011, S. 70). Die Verfolgung forstlicher Nachhaltigkeit

88

Peter Deegen

erfolgt mit anderen Zielen und mit anderen Mitteln. Sie ist gänzlich dem Leistungswettbewerb ausgesetzt und wird innerhalb der Regeln der erweiterten Ordnung des Marktes zu realisieren versucht. Mein Befund lautet nun: Die forstliche Nachhaltigkeit der kameralistisch-forstwissenschaftlichen Tradition, auf der die Forstwissenschaft Heinrich Cottas basiert, beruht größtenteils auf der intrafamiliären, intergenerationalen Reziprozität mit mehr oder weniger vager Zeitbindung, die sich den Regeln der externen Ordnung der persönlichen Tausche zuordnen lassen.

2. Max Robert Pressler und die Nachhaltigkeit in der erweiterten Ordnung Nun zur Erforschung der forstlichen Nachhaltigkeit in der erweiterten Ordnung des Marktes und des Beitrags aus Tharandt dazu: Die Erforschung der forstlichen Nachhaltigkeit in der erweiterten Ordnung des Marktes scheint bereits im „Wohlstand der Nationen" von Adam Smith (1993) auf: „In den Anfangen bestehen weite Teile eines Landes aus Wäldern, für den Besitzer ein wertloser Bewuchs, den er jeden gerne überlassen würde, der ihn rodet. Wird die Landwirtschaft weiter entwickelt, werden die Wälder nach und nach abgeholzt oder sie verfallen als Folge des zunehmenden Viehbestandes ... Holz würde knapp und im Preis steigen, die Wälder würden nie mehr eine gute Rente abwerfen, so dass der Grundherr gelegentlich meinen könnte, er könne seine besten Böden kaum günstiger nützen, als sie für Bauholz aufzuforsten, dessen hoher Gewinn oft den späten Ertrag aufwiegt. Eine solche Situation scheint gegenwärtig in einigen Teilen Großbritanniens vorzuliegen, wo man findet, der Wald werfe den gleichen Gewinn ab wie Getreidefelder oder Weideland" (A. Smith 1993, S. 144 f.). Doch war es Johann Heinrich von Thünen (1990), der den Wettbewerb als Institution der forstlichen Nachhaltigkeit umfassend erkannte. Indem im Isolierten Staat eine auf Preisen beruhende Volkswirtschaft im totalen Gleichgewicht konstruiert wird (Samuelson 1983, S. 1482), zeigt Thünen nicht nur, wie die Preise die Ökonomie, oder besser Katallaxie, seiner isolierten Welt bestimmen, sondern zugleich, dass sie eine Holz produzierende Forstwirtschaft hervorbringen können („Kreis der Forstwirtschaft"). Und zwar im Wettbewerb zu den anderen Formen der Landnutzung. Max Robert Presslers Forschungen schließen inhaltlich unmittelbar daran an. Er sah in der fortschreitenden Entwaldung Sachsens, die während seiner Schaffensphase massiv voranschritt (vgl. Ueberfuhr, Miethke 2003), eine erhebliche Gefahr für Wirtschaft und Umwelt. Er setzte dem mit seinem neunbändigen Hauptwerk „Der rationelle Forstwirt und sein Waldbau des höchsten Ertrags" (Pressler 1858-1885) ein Konzept einer Forstwirtschaft entgegen, die wenigstens genauso rentabel wie die konkurrierenden Landnutzungen sein sollte. Seine Begründung gleich im ersten Buch war, von mir zusammengefasst, wie folgt: Obwohl wir die klimatischen und wirtschaftlichen Vorteile der Wälder so hoch schätzen, beobachten wir gleichzeitig, dass mit wachsendem Wohlstand eines Landes dessen Waldfläche mehr und mehr schwindet. Deshalb rufen die Lehrer der Staatsforstwirtschaft nach einer Forstpolizei und nach strengen Polizeigesetzen, um die Bodeneigen-

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit

89

eigentümer zu maßregeln und das Recht auf Eigentum zu beschränken. Jedoch fuhren stärkere Kontrollen und schärfere Strafen nur zu Anreizen, die Bestimmungen auf raffiniertere Weise als bisher zu umgehen. Sie lenken das Engagement der Waldeigentümer in falsche Richtungen. Ein alternativer Weg besteht in der Entwicklung der Forstwirtschaft zu einem wettbewerbsfähigen Teil der gesamten Wirtschaft. Eine wettbewerbliche Forstwirtschaft wird Waldbausysteme finden, die genügend Kapitalertrag abwerfen, so dass Walderhaltung im eigenen Interesse des Bodeneigentümers liegt (vgl. Pressler 1858, S. 1 ff.). Wie bereits erwähnt, bilden diese Arbeiten von Max Robert Pressler im Grunde genommen die forstwirtschaftlichen Anschlussuntersuchungen zum Isolierten Staat Thünens. Indem er sich bei der Überwindung des Entwaldungs- und Devastierungsproblems auf die Erreichung einer konkurrenzfähigen Forstwirtschaft konzentrierte, kann „Der Rationelle Waldwirth" bereits als Beitrag zur Erforschung der Nachhaltigkeit der externen Ordnung des Marktes gewertet werden. Deutlicher wird diese Ausrichtung seiner Untersuchungen, wenn man sich mit seiner wissenschaftlichen Hauptleistung befasst, die nach Ansicht vieler Forstökonomen in der Welt in der Aufstellung seines Weiserprozentes bestand (vgl. Löfgren 1983). Das heute nach ihm benannte Presslersche Weiserprozent wurde in der Maiausgabe von 1860 der „ A l l g e m e i n e n Forst- und Jagd-Zeitung" publiziert (Pressler 1860). Erst im 20. Jahrhundert wurde durch eine grundlegende Arbeit von Bertil Ohlin (1921) allmählich klar, dass Presslers Weiserprozent nichts anderes als die linke Seite der Gleichgewichtsbedingung der Faustmannformel (Faustmann 1849) ist. Deshalb wird die vollständige Gleichgewichtsbedingung spätestens seit Johansson & Löfgren (1985, S. 80) das Faustmann-Pressler-Ohlin-Theorem genannt5. Die Faustmannformel mit der dazugehörigen Gleichgewichtsbedingung und dem in ihr enthaltenen Presslerschen Weiserprozent gilt als das grundlegende Modell zum Verständnis einer nachhaltigen Forstwirtschaft, die allein auf Markttausch beruht und deshalb auch als Modell einer „Forstwirtschaft der Preise" bezeichnet wird (Deegen, Hostettler & Navarro 2011). Chang und Deegen (2011) zeigen darüber hinaus, dass das Weiserprozent von Pressler als Hilfsmittel zur systematischen Preisbeobachtung in einer Welt voller unvorhergesehener Änderungen dienen kann.

5

Die Faustmannformel ist ein frühes Investitionsmodell zur Bestimmung der wirtschaftlichen Lebensdauer einer unendlich periodischen Investition, vgl. z.B. Lutz (1968, S. 262 ff.), Hirshleifer (1974, S. 82 ff.), besonders aber Samuelson (1976). Es ist das heute weltweit am meisten verwendete Modell zur Untersuchung forstlicher Investitionsprobleme, vgl. Amacher et al. (2009) und Amacher et al. (2011). Die theoretische Fundierung der ca. 160 Jahre alten Faustmannformel als ökonomisches Modell kann in Deegen (2000) nachgelesen werden. Die Gleichgewichtsbedingung der Faustmannformel heißt Faustmann-Pressler-Ohlin-Theorem. Das Theorem besagt: Das optimale Erntealter eines Waldbestandes befindet sich in dem Alter, in dem der Wertzuwachs des Waldbestandes gleich den Zinskosten aus der Summe aus Abtriebswert des Waldbestandes und Waldbodenwert ist (vgl. Johansson, Löfgren 1985, S. 80). Das Presslersche Weiserprozent ist die linke Seite des FaustmannPressler-Ohlin-Theorems, wenn es nach dem Zinssatz umgestellt und der Wertzuwachs des Waldbestandes in die Bestandteile „Holzvolumenzuwachs", „Qualitätszuwachs der Holzsortimente" und „Preiszuwachs" zerlegt ist (vgl. Chang, Deegen 2011).

90

Peter Deegen

In der Sprache dieses Aufsatzes formuliert: Presslers Weiserprozent ist Bestandteil eines grundlegenden Modells zur Erklärung einer Forstwirtschaft in der erweiterten Ordnung des Markttauschs.

3. Johann Friedrich Judeich: Versuch einer Synthese Bereits frühzeitig wurde die parallele Existenz von zwei Theorien zur Nachhaltigkeit, zumal am selben akademischen Ort, bemerkt. Viele Forstwirtschaftler und -Wissenschaftler verstanden die Botschaft Max Robert Presslers über die Sorge um die Rentabilität der Forstwirtschaft als Angriff auf die Nachhaltigkeit selbst. Offenbar galten Nachhaltigkeit und das Streben nach Rentabilität als unvereinbar. Der Showdown dazu fand im Sommer 1865 auf der XXV. Versammlung der Deutschen Land- und Forstwirte in Dresden statt (vgl. Kurth 1986, S. 371). Die missliche Lage erkennend, versuchte Johann Friedrich Judeich6 eine Synthese. In seinen Forschungen, die in seinem Werk „Die Forsteinrichtung" (Judeich 1871) zusammenflössen, versuchte er, die kameralistisch-forstwissenschaftliche Vorgehensweise mit den auf Preisen beruhenden Marktwettbewerb Presslers in einem überarbeiteten Nachhaltigkeitskonzept zu verbinden: Wie die forstlichen Klassiker und die Kameralisten gliederte er den Wald in Schläge. Die Anzahl der Schläge ergab sich aus der Umtriebszeit, indem man die Gesamtfläche des Waldes durch die Umtriebszeit dividierte. Der Unterschied sowohl zur Kameralistik als auch zu den forstlichen Klassikern bestand in der Ermittlung der Umtriebszeit. Weder verwendete Judeich eine Etatabschätzung auf der Basis gesamtökonomischer Details wie das von einigen Kameralisten vorgeschlagen wurde, z.B. Paprica (1789, S. 277): „Die Festsetzung eines Forstetats erfordert tiefe Einsichten in die Forstwirtschaft, ausgebreitete Kenntnisse von den Manufakturen, Fabriken, ... der ganzen wirklichen und zukünftig möglichen Bevölkerung des Landes, der Zahl der Handwerker ... einen richtigen Überschlag des jährlichen Verbrauchs an Bau- und Brennholz und zuversichtliche Berechnungen alles Holzes, welches aus den herrschaftlichen und übrigen Waldungen im ganzen Land jährlich geschlagen werden kann." Noch gebrauchte Judeich eine Ertragsermittlung allein auf der Basis von Walddaten wie Holzzuwachs und Holzvorrat und dadurch ohne Bezug zur Nachfrage, wie dies die Forstklassiker Hartig (1795) oder Cotta (1804) vorschlugen und praktizierten. Vielmehr arbeitete Judeich mit dem finanziellen Weiser seines Kollegen Pressler. Darin wird häufig die Kombination von kameralistisch-forstwirtschaftlicher Nachhaltigkeit mit dem sich durch Preise vollziehenden Marktwettbewerb gesehen. Indem Judeich die Preise allerdings als starre Planungsgröße verwendete, nivellierte er ihre Funktion bei der Überwindung der Ungewissheit der Zukunft, so, wie sie viel später Hayek (2003b, S. 142) beschreibt: „Es ist nützlich, hier daran zu erinnern, dass alle

6

Johann Friedrich Judeich war von 1866-1874 Direktor der Königlich Sächsischen Akademie für Forst- und Landwirte zu Tharandt. Er verteidigte M.R. Pressler, der wegen seines konsequenten Eintretens für die Bodenertragslehre auf der „XXV. Versammlung Deutscher Land- und Forstwirte" 1865 in Dresden schärfsten Angriffen ausgesetzt war, mit einer spontanen, mutigen und überzeugenden Rede (vgl. Kurth 1986, S. 371).

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit

91

wirtschaftlichen Entscheidungen durch unvorhergesehene Veränderungen notwendig gemacht werden und dass die Rechtfertigung der Benützung des Preismechanismus allein darin besteht, dass er den Einzelnen zeigt, dass das, was sie bisher getan haben oder tun können, aus Gründen, mit denen sie nichts zu tun haben, mehr oder weniger wichtig geworden ist. Die Anpassung der ganzen Ordnung menschlichen Handelns an die sich verändernden Umstände beruht darauf, dass sich die Entlohnung der verschiedenen Leistungen ändert, ohne auf die Verdienste oder Mängel der Betroffenen Rücksicht zu nehmen." Die genannte Interpretation, dass das Judeichsche Verfahren eine Kombination von kameralistisch-forstwirtschafitlicher Nachhaltigkeit mit dem Marktwettbewerb darstellt, hinterließ eine Abneigung für den Wettbewerb als Institution der Nachhaltigkeit, die bis in die Gegenwart reicht. Denn die Sächsische Schmalkahlschlagwirtschaft, die von 1838 bis 1934 in den sächsischen Staatsforsten üblich wurde, galt als Inbegriff einer kapitalistisch orientierten Forstwirtschaft Judeichscher Schule. Dabei wurde völlig übersehen, dass der Sächsischen Schmalkahlschlagwirtschaft das wichtigste Merkmal einer marktwirtschaftlichen Forstwirtschaft fehlte: Die Orientierung an den Preisen. Vielmehr war diese Kahlschlagwirtschaft ein technisch ausgefeiltes System kameralistisch-forstwissenschaftlicher Denkweise ohne unmittelbaren Bezug zu den Preisen der Produkte und der Produktionsfaktoren und dadurch ohne Bezug zu den Knappheiten in der Gesellschaft. Eine Orientierung an den zahlreichen kurzfristigen Preisfluktuationen und den langfristigen Preisänderungen hätte im Laufe der Zeit zu einem recht inhomogenen Waldaussehen gefuhrt. Wie wir aus den komparativen Analysen des Faustmann-Pressler-Ohlin-Theorems wissen (vgl. z.B. Chang 1984; Johansson, Löfgren 1985; Amacher, Ollikainen, Koskela 2009), wäre bei der Verwendung der Preise erstens eine ständige Veränderung der Größen der Kahlschläge zu beobachten gewesen. Zeiten hoher Holzpreise und hoher Zinskosten hätten zu größeren Kahlflächen gefuhrt als Zeiten geringer Holzpreise und geringer Zinskosten. Überhaupt wäre zweitens eine viel größere Variabilität in den Betriebsformen eingetreten. In Zeiten geringer Holzpreisdifferenzen zwischen den Stärkeklassen wäre eine Trift zur homogenen, bestandesweisen Bewirtschaftung erfolgt. In Zeiten starker Holzpreisdifferenzen hätte es Bewegungen hin zur einzelbaumweisen Bewirtschaftung gegeben. Schließlich wäre drittens infolge des hohen spekulativen Charakters der waldbaulichen Investitionen auch eine größere Vielfalt der Baumarten und der waldbaulichen Behandlungskonzepte insgesamt entstanden. Denn hohe Unsicherheiten über die Preise der Sortimente und der Nachfrage nach den Sortimenten selbst, und zwar am Ende der Umtriebszeit, lassen viel Raum für gut begründete, jedoch stärker voneinander abweichende Spekulationen über zukünftige Zustände zu (Chang 1998, Chang & von Gadow 2010). Alles in allem ist die hohe Homogenität der Sächsischen Schmalkahlschlagwirtschaft kein Beleg für eine wettbewerbliche Forstwirtschaft auf der Basis von Preisen, sondern ein Beleg für das genaue Gegenteil.

92

Peter Deegen

IV. Die Schulen der forstlichen Nachhaltigkeit Es sieht so aus, als ob die hier vorgetragene Auswahl und Reihung der Fakten über die Tharandter Theorien zur forstlichen Nachhaltigkeit nach der Hayekschen Klassifikation menschlicher Ordnungen zu einer logischen und in sich geschlossenen Erklärung fuhrt. Jedenfalls stimmt mich der hier vorgelegte Entwurf hoffnungsvoll. Jedoch ist mein Konstruktionsversuch ein Vorschlag. Obwohl ich mich nach besten Kräften bemühe, Fakten konsistent entsprechend einer theoretischen Leitlinie zu ordnen und zu interpretieren, glaube ich überhaupt nicht, dass meine Konstruktion die Richtige ist, schon gar nicht die einzig Richtige. Vielmehr möchte ich zum Denken anregen, indem ich die gewohnten Wege forstwissenschaftlicher Erklärung verlasse. Gleichzeitig hoffe ich damit, den einen oder anderen Leser zu ermuntern, selbst eine bessere Konstruktion zu ersinnen (Rawls 2004, S. 47). Auf der Grundlage der hier vorgetragenen Skizze schlage ich vor, von einer Theorie der forstlichen Nachhaltigkeit in der externen Ordnung und von einer Theorie der forstlichen Nachhaltigkeit in der erweiterten Ordnung zu sprechen. Tharandt nahm bei der Erforschung der forstlichen Nachhaltigkeit eine beachtenswerte Stellung ein, indem hier ein wissenschaftliches Klima herrschte, über die Nachhaltigkeiten in der externen und in der erweiterten Ordnung mehr oder weniger gleichzeitig nachzudenken und sogar eine erste Synthese zu wagen. Ein solches offenes wissenschaftliches Klima, das den Wettstreit zwischen Theorien fordert, ist offenbar notwendig, damit ernst zu nehmende Anschlussuntersuchungen gelingen. Die Herausbildung der Theorien der forstlichen Nachhaltigkeit führt eindrucksvoll vor Augen, dass die Existenz der beiden gleichzeitig existierenden Regelordnungen nicht wahrgenommen wurde bzw. wird. Die theoretischen Ansätze der Nachhaltigkeit in der erweiterten Ordnung fanden keinen Eingang in die Nachhaltigkeitstheorie der klassischen Forstwissenschaft. So schrieb Heinrich Cotta in seinem Vorlesungsskript zur Staatsforstwirtschaftslehre: „Aus diesen Untersuchungen und Betrachtungen erhellet, dass es am besten sein muss, wenn der Staat im Besitz so vieler Waldungen ist, als zur Entfernung des absoluten und dem Staate wirklich gefährlichen Holzmangels erforderlich ist, wodurch dann von selbst alle Beschränkungen der Privatwälder unnötig werden. Das Land, dem es an hinlänglichen Staatswaldungen für den obigen Zweck mangelt, muss durch Kauf oder Tausch so vieler Waldungen zu erlangen suchen, als für jenen Zweck nötig sind" (Cotta o. J., zit. in Köpf 1991). Thünen war über solche Aussagen natürlich verwundert, so dass er bei der Aufzählung zukünftiger Forschungsfragen am Ende seines dritten Teils des Isolierten Staats an erster Stelle nennt: „Beurteilung der Ansicht des Herrn Cotta, nach welcher die PrivatWaldbesitzer stets ein Interesse haben, ihre Wälder zu devastieren" (Thünen 1875, S. 124). Doch diesen Einwänden wurde mit Ausnahme der Presslerschen Forschungsrichtung kein Gehör geschenkt. Es entstand eine Schule der forstlichen Nachhaltigkeit, die die konnotative Verwendung des Nachhaltigkeitsbegriffes allein mit den kameralistischforstwissenschafitlichen Auffassungen darüber verband. Und diese interne Nachhaltig-

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit

93

keitskultur in der Forstwirtschaft lässt sich als formlose Institution bis in die Gegenwart verfolgen (Schanz 2001). Beispielsweise zeigt Schanz (1996) mittels Befragung von Forstamts-, Revier- und Büroleitem in staatlichen Forstverwaltungen der Bundesrepublik Deutschland, dass die Begriffe „Markt" und „Wettbewerb" weder als Instrumente noch als Kriterien der forstlichen Nachhaltigkeit eine Rolle spielen. Wie Hayek (1996, S. 14 f.) vermutet, sind offenbar unsere Gefühle und Gedanken biologisch und kulturell weitestgehend durch die externe Ordnung der kleinen Gruppe tradiert. Häufig sind wir deshalb geneigt, die Regeln in dieser externen Ordnung für generelle Regeln zu halten und sie kritiklos auf die erweiterte Ordnung der Großen, Offenen Gesellschaft anzuwenden. Aber, wie uns Hayek zu denken gibt, führt die unveränderte, uneingeschränkte Übertragung der Regeln der externen Ordnung der kleinen Gruppe, wie z.B. der Familie, zur Zerstörung der Großen, Offenen Gesellschaft. Und umgekehrt, die Anwendung der Regeln der erweiterten Ordnung des Markttauschs auf die kleineren Gruppierungen führt zu deren Zerrüttung (vgl. Hayek 1996, S. 15). Die heute üblichen Nachhaltigkeitsinstrumente der Forstwirtschaft als Regelwerk einer nachhaltigen Forstwirtschaft in der erweiterten Ordnung des Marktes anzusehen, ist ein schwerwiegendes Missverständnis, das auf der Gleichsetzung von externer und erweiterter Ordnung beruht. Die Anpassung der Forstwirtschaft an die unvorhergesehenen Änderungen, mit der die Individuen der Gesellschaft ständig konfrontiert werden, die dafür notwendige Nutzung des auf viele Millionen Köpfe verstreuten Wissens und die Mobilisierung der Kreativität der Menschheit lässt sich damit nicht organisieren. Stattdessen können die Ordnungstheorien von Eucken, Hayek, Buchanan u.a. als Ausgangspunkte verstanden werden, Regelordnungen systematisch darauf zu untersuchen, ob sie zu nachhaltiger Waldbewirtschaftung führen oder nachhaltige Waldbewirtschaftung scheitern lassen. Das Missverständnis potenziert sich geradewegs, wenn die Theorie der forstlichen Nachhaltigkeit in der externen Ordnung als Grundlage einer Theorie der nachhaltigen Entwicklung menschlicher Gesellschaft in der erweiterten Ordnung angesehen wird. Jedenfalls entsteht beim Lesen des dritten Teils „Von Sachsen nach Rio - und zurück" des Buches „Die Erfindung der Nachhaltigkeit" (Sächs. Carlowitz-Gesellschaft 2013) der Eindruck eines derartigen Verallgemeinerungsversuchs. Die o.g. Ordnungstheorien bieten weitaus geeignetere positive Ansatzpunkte für das Verständnis des normativen Konzepts der nachhaltigen Entwicklung. Jedenfalls lässt sich z.B. aus Brennan, Buchanan (1993) eine Menge darüber lernen.

Literatur Amacher, Gregory S.; Koskela, Erkki; Ollikainen, Markku (2002): Optimal Forest Policies in an Overlapping Generations Economy with Timber and Money Bequests. In: J. of Environm. Econom. and Management, 44: 346-369. Amacher, Gregory S.; Ollikainen, Markku; Koskela, Erkki (2009): Economics of Forest Ressources. MIT Press. Cambridge (Mass.), London. Amacher, Gregory S.; Brazee, Richard J.; Deegen, Peter (2011): Faustmann continues to yield. J. of Forest Econ., 17, 3: 231-234. Arendt, Hannah (2010): Vita activa oder Vom tätigen Leben. Piper V. München, Zürich.

94

Peter Deegen

Backhaus, Jürgen G.; Wagner, Richard E. (1987): The cameralists: A public choice perspective. In: Public choice 53: 3-20. Backhaus, Jürgen G.; Wagner, Richard E. (2004): Society, State, and Public Finance: Setting the Analytical Stage. In: Backhaus, Jürgen G.; Wagner, Richard E. (eds.): Handbook of Public Finance. Kluwer Academic Publishers. Boston, Dortrecht, New York, London. 1-19. Backhaus, Jürgen G. (2011): Pfeiffer and the Foundation of the Science of Forestry. The European Heritage in Economics and the Social Sciences, Vol. 10: Backhaus, Jürgen G. (Hsg.): Physiocracy, Antiphysiocracy and Pfeiffer. 149-153. Springer. Bertsch, Karl (1951): Geschichte des deutschen Waldes. Verlag M. und H. Schaper GmbH. Hannover. Brennan, Geoffrey; Buchanan, James M. (1993): Die Begründung von Regeln. Konstitutionelle Politische Ökonomie. J.C.B. Mohr (Paul Siebeck) Tübingen. Carlowitz, Hannß C. von (2000): Sylviculture oeconomica. Anweisung zur wilden Baum-Zucht. Preprint der Ausgabe Leipzig: Braun, 1713. Veröffentlichungen der Bibliothek „Georgius Agricola" der TU Bergakademie Freiberg Nr. 135. Freiberg. Cigno, Alessandro (1994): Economics of the family. Oxford. Chang, Sun Joseph (1984): Determination of the optimal rotation age: a theoretical analysis. Forest Ecology and Management, 8, 137-147. Chang, Sun Joseph (1998): A generalized Faustmann model for the determination of optimal harvest age. Can. J. For. Res.: 652-659. Chang, Sun Joseph.; Gadow, Klaus von (2010): Application of the generalized Faustmann model to uneven-aged forest management. J. For. Econ. 16,4: 313-325. Chang, Sun Joseph; Deegen, Peter (2011): Pressler's Indicator Rate Formula as a Guide for Forest Management. J. of Forest Econ., 17, 3: 258-266. Cotta, Heinrich (1804): Systematische Anleitung zur Taxation der Waldungen. Sander. Berlin. Cotta, Heinrich (1817): Anweisung zum Waldbau. Arnoldische Buchhandlung. Dresden. Cotta, Heinrich (1836): Grundriß der Forstwissenschaft. Herausgegeben von seinen Söhnen. Arnoldische Buchhandlung. Dresden, Leipzig. Deegen, Peter (2000): Zur Interpretation der FAUSTMANNschen Formel als ein komplexes forstökonomisches Verhaltensmodell. In: Allg. Forst- und Jagdzeitung, 171. Jg. H 5-6, 88-96, Frankfurt/M. Deegen, Peter; Hostettler, Martin; Navarro, Guillermo A. (2011): The Faustmann model as a model for a forestry of prices, in: Eur J Forest Res, 130, 353-368. Deegen, Peter; Seegers, Cornelia (2011): Establishing Sustainability Theory within Classical Forest Science - the Role of Cameralism and Classical Political Economy. In: The European Heritage in Economics and the Social Sciences, Vol. 10: Backhaus, Jürgen G. (Hsg.): Physiocracy, Antiphysiocracy and Pfeiffer. 155-168. Springer. Eibl-Eibesfeldt, Irenäus (1997): Die Biologie des menschlichen Verhaltens. Grundriß der Humanethologie. Seehamer V. Weyarn. Faustmann, Martin (1849): Berechnung des Wertes, welchen Waldboden, sowie noch nicht haubare Holzbestände für die Waldwirtschaft besitzen. Allg. Forst- und Jagdzeitung (Dezember): 441-455. Goldschmidt, Nils (2009): Ist erben ungerecht? Die Begründung von Erbschaftsregeln im Spannungsfeld von individueller Souveränität und sozialer Privilegierung. In: Goldschmidt, Nils (Hsg.): Generationengerechtigkeit. Ordnungsökonomische Konzepte. Mohr Siebeck Tübingen: 101-136. Hahn, Andreas W.; Knoke, Thomas (2010): Sustainable development and sustainable forestry: Analogies, differences, and the role of flexibility. Europ. J. of Forest Research. 129: 787-801. Hartig, Georg L. (1795): Anweisung zur Taxation und Beschreibung der Forste, oder zur Bestimmung des Holzertrags der Wälder. Gießen. Hayek, Friedrich A. von (1996): Die verhängnisvolle Anmaßung: Die Irrtümer des Sozialismus. J.C.B. Mohr (Paul Siebeck) Tübingen. Hayek, Friedrich A. von (2003a): Recht, Gesetz und Freiheit. Eine Neufassung der liberalen Grundsätze der Gerechtigkeit und der politischen Ökonomie. J.C.B. Mohr (Paul Siebeck) Tübingen.

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit

95

Hayek, Friedrich A. von (2003b): Der Wettbewerb als Entdeckungsverfahren. Rechtsordnung und Handelnsordnung. Aufsätze zur Ordnungsökonomik. Mohr Siebeck Tübingen, 132-149. Hayek, Friedrich A. von (2005): Die Verfassung der Freiheit. Mohr Siebeck. Tübingen. Hayek, Friedrich A. von (2006): Die sensorische Ordnung. Eine Untersuchung der Grundlagen der theoretischen Psychologie. Mohr Siebeck. Tübingen. Hirshleifer, Jack (1974): Kapitaltheorie. V. Kiepenheuer & Witsch Köln. Hundeshagen, Johann Ch. (1826): Die Forstabschätzung auf neuen wissenschaftlichen Grundlagen, nebst einer Charakteristik und Vergleichung aller bisher bestandenen ForsttaxationsMethoden. Lauppsche Buchh. Tübingen. Johannson, Per-Olov; Löfgren, Karl-Gustaf (1985): The Economics of Forestry and Natural Resources. Oxford: Blackwell. Judeich, Johann Friedrich. (1871): Die Forsteinrichtung. Schönfelds Verlagsbuchhandlung. Dresden. Kant, Immanuel (1997): Kritik der reinen Vernunft. Suhrkamp. Frankfurt a. M. Knoke, Thomas (Hsg.) (2012): Forstbetriebsplanung als Entscheidungshilfe. Eugen Ulmer KG. Stuttgart. Köpf, Ernst U. (1991): Tharandter Lehren - Zum forstpolitischen Beitrag Heinrich Cottas. Forstarchiv Vol. 62: 94-95 Köpf, Ernst U. (1995/1996): Nachhaltigkeit: Prinzip der Waldwirtschaft - Hoffnung der Menschheit? In: Scheidewege - Jahresschrift für skeptisches Denken. Sonderausgabe. 307-317. S. Hirzel V. Stuttgart. Köpf, Ernst U. (2009/210): Können wir nachhaltig leben? In: Scheidewege. Jahresschrift fiir skeptisches Denken. 191-201. S. Hirzel V. Stuttgart. Kurth, Horst (1986): Max Robert Pressier - ein Pionier intensiver Bestandeswirtschaft. Sozialistische Forstwirtschaft, 36, Nr. 12: 366-374. Kurth, Horst (1994): Forsteinrichtung. Nachhaltige Regelung des Waldes. Berlin: Deutscher Landwirtschaftsverlag. Löfgren, Karl-Gustaf (1983): The Faustmann-Ohlin Theorem: A Historical Note. History of Political Economy, 15: 261-264. Lutz, Friedrich A. (1968): The theory of interest. D. Reidel Publishing Comp., Dortrecht. Aldine Publishing Comp., Chicago. Moser, W.G. von (1757): Grundsaetze der Forst-Oeconomie. Frankfurt und Leipzig. Neipperg, Joseph H. von (1998): Forstwirtschaft in dreihundertjähriger Familientradition. Vortrag am 04.02.1998 in Tharandt (pers. Aufzeichnungen des Verf.). North, Douglass C. (1998): Institutionen, institutioneller Wandel und Wirtschaftsleistung. J.C.B. Mohr (Paul Siebeck) Tübingen. North, Douglass C. (2005): Understanding the process of economic change. Princeton Univ. Press. Princeton, Oxford. North, Douglass C.; Wallis, John J.; Weingast, Barry R. (2011): Gewalt und Gesellschaftsordnung. Eine Neudeutung der Staats- und Wirtschaftsgeschichte. Mohr Siebeck. Tübingen. Ohlin, Bertil (1921): Till fragan om skogarnas omloppstid. Economisk Tidskrift, vol. 22. Translated into contemporary English by Hudson, C. (1995): Concerning the question of the rotation period in forestry. J. of Forest Economics 1,1: 89-114. Ostrom, Elinor (1999): Die Verfassung der Allmende. Jenseits von Staat und Markt. J.C.B. Mohr (Paul Siebeck) Tübingen. Ostrom, Elinor (2010): Beyond Markets and States: Polycentric Governance of Complex Economic Systems. In: Am. Econ. Rev. 100 (June): 641-672. Paprica, Constanze di (1789): Gedanken über verschiedene Gegenstände der ForstCameralwissenschaft nebst eines Forst-Catechismus für Jünglinge, die sich dem Forstwesen zu widmen gedenken. Nürnberg. Pfeiffer, Johann F. von (1781): Grundriss der Forstwissenschaft. Zum Gebrauch dirigierender Forst- und Kameralbedienten, auch Privatguthsbesitzem. Mannheim. Popper, Karl R. (2003): Die offene Gesellschaft und ihre Feinde. Bd. I: Der Zauber Piatons. J.C.B. Mohr (Paul Siebeck) Tübingen. Pressler, Max R. (1858): Der rationelle Waldwirt und sein Waldbau des höchsten Ertrags. Dresden.

96

Peter Deegen

Pressler, Max R. (1860): Zur Verständigung über den Reinertragswaldbau und dessen Betriebsideal. Allg. Forst- und Jagdzeitung (Mai): 173-191. Rawls, John (2004): Geschichte der Moralphilosophie. Hume - Leibniz - Kant - Hegel. Suhrkamp. Frankfurt a.M. Reil-Held, Anette (2009): Erbschaften und (Generationen-)Gerechtigkeit: Die Rolle der Erbschaftsmotive. In: Goldschmidt, Nils (Hsg.): Generationengerechtigkeit. Ordnungsökonomische Konzepte. Mohr Siebeck Tübingen: 137-147. Sächs. Carlowitz-Gesellschaft (Hsg.) (2013): Die Erfindung der Nachhaltigkeit, oekom verlag München. Samuelson Paul A. (1976): Economics of forestry in an evolving society. Econ. Inquiry, vol. XIV, Dec: 466-492 Samuelson, Paul A. (1983): Thünen at Two Hundred. Journal of Economic Literature Vol. 21 (December): 1468-1488. Schanz, Heiner (1996): Forstliche Nachhaltigkeit - Sozialwissenschaftliche Analyse der Begriffsinhalte und -funktionen. Schriften aus dem Institut für Forstökonomie, Vol. 4. Freiburg im Breisgau. Schanz, Heiner (2001): Forstliche Nachhaltigkeit. Schriften aus dem Inst, fiir Forstökonomie der Univ. Freiburg, Bd. 4. Verlag Dr. Kessel. Remagen-Oberwinter. Schubert, Ernst (1996): Der Wald: wirtschaftliche Grundlage der spätmittelalterlichen Stadt. In: Herrmann, Bernd (Hsg.): Mensch und Umwelt im Mittelalter. Fourier Verlag. Wiesbaden: 257-274. Schuster, Erhard (2001): Einige Bemerkungen zur Geschichte der forstlichen Nachhaltigkeit. Forst und Holz, Nr. 23/24: 754-757. Schaper. Alfeld. Smith, Adam (1993): Der Wohlstand der Nationen. Eine Untersuchung seiner Natur und seiner Ursachen. Deutscher Taschenbuch V. München. Smith, Adam (2004): Theorie der ethischen Gefühle. F. Meiner V. Hamburg. Smith, Vernon L. (1998): The two faces of Adam Smith. Southern Econ. J., 65,1: 1-19. Smith, Vernon L. (2005): Hayek and Experimental Economics. In: Rev. of Austrian Econ., 18,2: 135-144. Smith, Vernon L. (2008): Rationality in Economics. Constructivist and Ecological Forms. Cambridge Univ. Press. Cambridge u.a. Thomasius, Harald (2013): Die Sylviculture oeconomica - eine Rezension aus heutiger Sicht. In: Sächsische Carlowitz-Gesellschaft (Hrsg.): Die Erfindung der Nachhaltigkeit. Leben, Werk und Wirkung des Hans Carl von Carlowitz. oekom V., München: 61-82. Thünen, Johann H. von (1875): Der isolierte Staat in Beziehung auf Landwirtschaft und Nationalökonomie. Dritter Teil: Grundsätze zur Bestimmung der Bodenrente, der vorteilhaftesten Umtriebszeit und des Werts der Holzbestände von verschiedenem Alter für Kieferwaldungen. V. von Wiegandt, Hempel & Parey. Berlin. Thünen, Johann H. von (1990): Der Isolierte Staat in Beziehung auf Landwirtschaft und Nationalökonomie. Scientia V. Aalen. Tullock, Gordon (2004): The Economics of Politics. The Selected Works of Gordon Tullock, vol. 4. Liberty Fund. Indianapolis. Ueberfuhr, Frank; Miethke, Anka (2003): Die Waldflächenentwicklung im Freistaat Sachsen von 1800 bis 2000 - Vergleichende Betrachtungen sächsischer Wälder in sächsischen Naturräumen. In: Beiträge für Forstwirtschaft und Landschaftsökologie, Heft 2/2003. Eberswalde. Vanberg, Viktor J. (2009): Generationengerechtigkeit im demokratischen Staat. In: Goldschmidt, Nils (Hsg.): Generationengerechtigkeit. Ordnungsökonomische Konzepte. Mohr Siebeck Tübingen: 1-9. Vanberg, Viktor J. (2011): Social Dilemmas and Self-Organization in Pre-Defined and in SelfSelected Groups. In: The Good Society, 20, 1: 67-72. Voland, Eckart (1993): Grundriß der Soziobiologie. Stuttgart, Jena. Wagner, Richard E. (2012): The Cameralists: Fertile Sources for a New Science of Public Finance. In: Backhaus, Jürgen G. (ed.): Handbook of the History of Economic Thought. Insights on the Founders of Modern Economics. The European heritage in Economics and the Social Sciences: 122-135. Springer. Zürcher, Ulrich (1993): Die Waldwirtschaft wird nachhaltig sein oder sie wird nicht sein! In: Schweiz. Z. Forstwesen, 144,4: 253-267.

Die Stellung der Tharandter Theorien der forstlichen Nachhaltigkeit

97

Zusammenfassung Offenkundig wurde an der Königlich Sächsischen Forstakademie zu Tharandt über zwei verschiedene forstliche Nachhaltigkeiten gelehrt und geforscht, die sich gegenseitig auszuschließen scheinen. Das ist einerseits die Entwicklungsrichtung, zu der Cotta zählte, und das sind andererseits die Forschungen, die sich mit Pressler verbinden. Mit Hilfe der Hayekschen Theorie der Formen menschlicher Ordnung wird versucht, die Tharandter Ansätze als zusammenhängend zu verstehen. Als Ergebnis wird vorgeschlagen, von einer forstlichen Nachhaltigkeit in der externen Ordnung und von einer forstlichen Nachhaltigkeit in der erweiterten Ordnung zu sprechen. Von Bedeutung ist dabei, dass allein die forstliche Nachhaltigkeit der externen Ordnung die Nachhaltigkeitskultur in der heutigen Forstwirtschaft prägt. Die heute üblichen Nachhaltigkeitsinstrumente als Regelvorlage fur eine nachhaltige Forstwirtschaft in der erweiterten Ordnung des Marktes anzusehen, ist ein schwerwiegendes Missverständnis, das auf der Gleichsetzung von externer und erweiterter Ordnung beruht. Stattdessen können die Ordnungstheorien als Ausgangspunkte verstanden werden, Regelordnungen systematisch zu untersuchen, ob sie zu nachhaltiger Waldbewirtschaftung fuhren oder nachhaltige Waldbewirtschaftung scheitern lassen.

Summary: The relation among the Tharandt-based theories of forest sustainability and Hayek's classification of the forms of human order Apparently, at the royal forest academy of Tharandt (Germany), two different theories on forest sustainability have been taught and investigated. These are the two directions which are related to Cotta and Pressler. At first, these two approaches do not seem to be compatible, they even appear mutually exclusive. In the article, the attempt is made to understand these two approaches as interrelated. This will be realized by using Hayek's theory of the forms of human orders. As a result, it is proposed to separate between forest sustainability in an external and in an extended order. For forestry today, solely the influence of forest sustainability of the external order seems to be of particular importance as a kind of informal institution. To interpret the common forest regulation as a guideline for a sustainable forestry in the extended order of market exchange is a fatal misunderstanding. Instead, the theories of human order might be applied as commencements for systematic studies of how the order of rules improves sustainable forestry and which order of rules prevents sustainable forestry from evolving.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Christian Hecker

„Soziale Gerechtigkeit" als Befahigungsgerechtigkeit Subsidiarität, Verantwortungsfähigkeit und Eigenverantwortung im Rahmen liberaler Ordnungspolitik und christlicher Gesellschaftsethik Inhalt I. Einleitung 100 II. Die Verbindung von „sozialer Gerechtigkeit" und Subsidiarität in der christlichen Gesellschaftsethik 101 1. Die „Erfindung" der „sozialen Gerechtigkeit" in der katholischen Soziallehre 101 2. Die Bedeutung des Subsidiaritätsprinzips in der katholischen Soziallehre . 102 3. Zum Vergleich: Die Tradition des Subsidiaritätsprinzips in der evangelischen Sozialethik 104 III. „Soziale Gerechtigkeit" und Subsidiarität aus (ordo-)liberaler Perspektive 105 1. Die Perspektive des Liberalismus: Begrenzung der Staatstätigkeit, Freiheit, (Eigen-)Verantwortung und Subsidiarität 105 2. Die Grenzen des klassischen Liberalismus als normatives Fundament der Gesellschaft 107 3. Die Integration der „sozialen Gerechtigkeit" in liberales Denken im Rahmen des Ordoliberalismus 108 4. Das Verhältnis von Subsidiarität und „sozialer Gerechtigkeit" im Ordoliberalismus 111 IV. Von der „sozialen Gerechtigkeit" zur Befahigungsgerechtigkeit 112 V. Befahigungsgerechtigkeit als zeitgemäßer Weg zur Verfolgung eines subsidiaritätsfundierten Ansatzes „sozialer Gerechtigkeit" 115 1. Keine Befahigungsgerechtigkeit ohne Subsidiarität! 115 2. Befahigungsgerechtigkeit als Weg zur Verwirklichung der Menschenwürde 116 3. Befähigungsgerechtigkeit aus christlicher und liberaler Sicht: Konsenspunkte und Kontroversen 117 4. Befahigungsgerechtigkeit und Verantwortung 119 5. Befähigungsgerechtigkeit als umfassendes Ordnungsprinzip für natürliche und juristische Personen 121 6. Befahigungsgerechtigkeit aus Sicht der Wohlfahrtsökonomik 123 7. Befahigungsgerechtigkeit in der wirtschaftspolitischen Praxis 125

100

Christian Hecker

VI. Die Grenzen der Befähigungsgerechtigkeit VII. Fazit

127 128

Literatur

129

Zusammenfassung

133

Summary: "Social justice" and capabilities: Subsidiarity and individual responsibility in liberalism and Christian moral theology

133

I. Einleitung Der Begriff der „sozialen Gerechtigkeit" ist nicht nur in politischen Debatten, sondern auch in ökonomischen Fachdiskursen höchst umstritten. Dass dies bereits seit vielen Jahrzehnten gilt, zeigt ein Rückblick in die Theoriegeschichte. So sprach bereits Wilhelm Röpke (1958, S. 177 f.) vom „vielmißbrauchten Wort der sozialen Gerechtigkeit". Auch Ludwig Erhard (1988, S. 862) beklagte sich in einer Gedenkrede auf seinen akademischen Lehrer Franz Oppenheimer im Jahr 1964: „Ich habe es mir angewöhnt, das Wort Gerechtigkeit fast immer nur in Anführungszeichen auszusprechen, weil ich erfahren habe, dass mit keinem Wort mehr Missbrauch getrieben wird, als gerade mit diesem höchsten Wert." Gleichwohl haben sich sowohl Röpke als auch Erhard und mit ihnen zahlreiche andere Ökonomen aus der Tradition des Ordoliberalismus ausdrücklich zu dieser Norm bekannt, wobei jedoch immer wieder die Notwendigkeit einer eindeutigen Handhabung dieses Begriffs betont wurde. Daher bietet ein Rückgriff auf die historischen Grundlagen dieser Norm sinnvolle Möglichkeiten zur Versachlichung aktueller wirtschaftspolitischer Diskussionen. Dies gilt umso mehr, als dabei deutlich wird, dass die Idee der „sozialen Gerechtigkeit" in ihrem Ursprung eng an eine andere Norm geknüpft war: das ordnungspolitische Grundprinzip der Subsidiarität. Eine Trennung dieser beiden Normen führt unweigerlich zu Konflikten zwischen ethisch motivierten Forderungen und grundlegenden liberalen Freiheitsrechten, die auch die Norm der „sozialen Gerechtigkeit" wesentlicher Inhalte berauben. Gerade im Ordoliberalismus zeigt sich ein Verständnis „sozialer Gerechtigkeit", das der Freiheitsprämisse einer liberalen Gesellschaft Rechnung trägt, grundlegende ökonomische Zusammenhänge einbezieht und an moderne normative Ansätze, wie den Capabilities-Approach von Amartya K. Sen, anschlussfahig ist. Vor diesem Hintergrund sollte „soziale Gerechtigkeit" in einer modernen Gesellschaft als Befahigungsgerechtigkeit interpretiert werden, die sämtlichen Bürgern auf der Grundlage des Subsidiaritätsprinzips eine eigenverantwortliche und selbst bestimmte Lebensführung ermöglicht. Zur Verdeutlichung dieser Kernthese soll in dem vorliegenden Beitrag zum einen durch eine ideengeschichtliche Analyse herausgearbeitet werden, dass die von den Vordenkern des Ordoliberalismus - auf der Grundlage von Überlegungen aus der katholischen Soziallehre - zugrunde gelegte Idee der „sozialen Gerechtigkeit" untrennbar mit dem Subsidiaritätsprinzip verbunden ist. Darauf aufbauend wird dargestellt, warum ein konsistentes Konzept „sozialer Gerechtigkeit" in der heutigen Zeit nur dann realisierbar

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

101

erscheint, wenn es an diese Tradition anknüpft und primär auf eine subsidiaritätsfundierte Erweiterung individueller Befähigungen abzielt. Dabei wird vor allem auf den Befähigungsansatz von Sen Bezug genommen. Durch die historisch orientierte Untersuchungsmethodik soll deutlich gemacht werden, wie die verschiedenen Denkansätze durch den ökonomischen und gesellschaftlichen Wandel an ihre Grenzen gerieten und wie eine Überwindung derartiger Grenzen möglich war und ist. Auf diese Weise soll zugleich demonstriert werden, wie sich ökonomische Erkenntnisse und moralphilosophische Überlegungen gegenseitig inspirieren und befruchten können. Dabei werden die untersuchten Ansätze aus der Ideengeschichte zugleich dahingehend analysiert, inwiefern sie Beiträge zu aktuellen Diskussionen leisten können.

II. Die Verbindung von „sozialer Gerechtigkeit" und Subsidiarität in der christlichen Gesellschaftsethik 1. Die „Erfindung" der „sozialen Gerechtigkeit" in der katholischen Soziallehre Seine ursprüngliche Prägung erfuhr der Begriff der „sozialen Gerechtigkeit" im 19. und frühen 20. Jahrhundert durch die katholische Soziallehre. Das wohl früheste Beispiel dafür findet sich in einer Abhandlung des italienischen Jesuiten Luigi Taparelli zum Naturrecht aus den vierziger Jahren des 19. Jahrhunderts (vgl. Taparelli 1845, S. 142-148). Auch wenn bei Taparelli keine konkrete Anwendung dieser Norm auf ökonomisch bedingte gesellschaftliche Herausforderungen erfolgte, so wurde hier gleichwohl bereits auf ein Spannungsverhältnis verwiesen, das auch für spätere Diskussionen maßgeblich war, nämlich auf den Konflikt zwischen der aus der Gottesgeschöpflichkeit des Menschen abgeleiteten Gleichheit aller Menschen einerseits und der in konkreten zwischenmenschlichen Konstellationen bestehenden Ungleichheit andererseits. Da die im Konkreten bestehende Ungleichheit als Konsequenz der Gleichheit im Allgemeinen betrachtet wurde, sah Taparelli beide Prinzipien als gemeinsame Basis der „sozialen Gerechtigkeit" an und verwies auf die Notwendigkeit, Regeln für den Umgang mit daraus entstehenden Kollisionen zu entwickeln. In den Fokus ökonomischer und sozialwissenschaftlicher Analysen gelangte die „soziale Gerechtigkeit" jedoch erst etliche Jahrzehnte später, als die sich entwickelnde katholische Soziallehre begann, zunächst auf naturrechtlicher, neo-scholastischer Basis Antworten auf die im Zuge der Industriellen Revolution entstandene „soziale Frage" zu formulieren. Das erklärte Ziel, zu dem sich seit der Enzyklika Kerum novarum (1891) auch die Päpste bekannten, war eine Integration der zumeist am Rande des Existenzminimums lebenden Industriearbeiter in die Gesellschaft. In diesem Zusammenhang gerieten die bis dahin in der katholischen Moraltheologie vorherrschenden - auf Aristoteles zurückgehenden - Gerechtigkeitskonzeptionen der (Neo-)Scholastik, d.h. die gesetzliche (iustitia legalis), verteilende (iustitia distributiva) und die ausgleichende Gerechtigkeit (iustitia commutativa), zunehmend an die Grenzen ihrer Anwendbarkeit,

102

Christian Hecker

da sie sich noch an dem vormodernen Leitbild einer wohlgeordneten, weitgehend statischen Gesellschaft orientierten.1 Aus diesem Grund propagierten insbesondere die deutschen Jesuiten Gustav Gundlach und Oswald von Nell-Breuning die Idee der „sozialen Gerechtigkeit" als ethische Norm, die unter den Bedingungen einer dynamischen, durch Wettbewerbsprozesse gesteuerten Wirtschaft eine Teilhabe sämtlicher Bürger an der wirtschaftlichen Entwicklung gewährleisten sollte. Durch die Enzyklika Quadragesimo anno (1931), die NellBreuning maßgeblich mitgestaltet hatte, fand der Terminus „soziale Gerechtigkeit" dann auch Eingang in den lehramtlichen Sprachgebrauch der katholischen Kirche. Nell-Breuning beschrieb die Norm der „sozialen Gerechtigkeit" die Verpflichtung sämtlicher Wirtschaftssubjekte, sich im Rahmen ihrer jeweiligen Möglichkeiten eigenverantwortlich für eine Orientierung der Wirtschaft am Prinzip der Lebensdienlichkeit einzusetzen (vgl. Nell-Breuning 1985, S. 358-363). Dabei betonte Nell-Breuning die Notwendigkeit, die Verpflichtungen der iustitia legalis zur Einhaltung gesetzlicher Vorschriften durch die selbst initiierte Befolgung weiterer Regeln des Gemeinwohls zu ergänzen. Dazu zählte er insbesondere die Pflicht, im Falle unzureichender gesetzlicher Regelungen - beispielsweise durch eine konstruktive Mitwirkung am Gesetzgebungsprozess - auf eine angemessene Regulierung hinzuwirken. Insgesamt lässt sich die Forderung nach „sozialer Gerechtigkeit" im Rahmen der katholischen Soziallehre als Postulat beschreiben, die Möglichkeiten der Bürger und ihrer Familien zur eigenverantwortlichen Gestaltung ihres Lebens zu schützen und so weit wie möglich zu erweitern. „Soziale Gerechtigkeit" zielt dabei darauf ab, den einzelnen Bürgern durch ein geordnetes Zusammenleben in der Gesellschaft die Möglichkeit zu sichern, ihre menschliche Natur in höherem Maße zu entfalten (vgl. Pieper 1994, S. 39). Als Minimalforderung erscheint die Schaffung einer gesellschaftlichen Ordnung, in der jeder Einzelne ein menschenwürdiges Dasein fuhren kann. Dabei werden die aristotelisch-(neo-)scholastischen Gerechtigkeitskonzeptionen im Sinne einer dynamischen Wirtschafts- und Gesellschaftsordnung erweitert, in der neben dem Staat auch Unternehmen, Institutionen der Zivilgesellschaft sowie letztendlich sämtliche Bürgerinnen und Bürger Träger von Verantwortung sind.

2. Die Bedeutung des Subsidiaritätsprinzips in der katholischen Soziallehre Da eine pauschale Verantwortung jedes Unternehmens oder gar Bürgers für das gesamte Wirtschaftsleben weder ethisch vertretbar noch praktikabel wäre, erhält das Subsidiaritätsprinzip im Rahmen der katholischen Soziallehre eine entscheidende Bedeutung. So dient dieses Prinzip zum einen der Abgrenzung von Verantwortungsbereichen zwischen den verschiedenen Akteuren. Darüber hinaus enthält es Vorgaben zur inhaltlichen Wahrnehmung dieser Verantwortung, und zwar im Sinne einer Gewährung von Hilfe zur Selbsthilfe.

Zur darauf aufbauenden Herleitung des Begriffs „soziale Gerechtigkeit" vgl. Gundlach (1964, S. 174). Vgl. dazu auch EKD/DBK (1997, Tzn. 110-112).

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

103

So nennt bereits die maßgeblich auf Nell-Breuning zurückgehende Enzyklika Quadragesimo anno (1931) sowohl die „soziale Gerechtigkeit" als auch das Subsidiaritätsprinzip als Grundprinzipien einer gerechten Wirtschaftsordnung. Dabei wird das Subsidiaritätsprinzip in Quadragesimo anno sowohl als Postulat der Gerechtigkeit als auch als Ausdruck der Vernunft dargestellt und wie folgt charakterisiert: „wie dasjenige, was der Einzelmensch aus eigener Initiative und mit seinen eigenen Kräften leisten kann, ihm nicht entzogen und der Gesellschaftstätigkeit zugewiesen werden darf, so verstößt es gegen die Gerechtigkeit, das, was die kleineren und untergeordneten Gemeinwesen leisten und zum guten Ende fuhren können, für die weitere und übergeordnete Gemeinschaft in Anspruch zu nehmen; zugleich ist es überaus nachteilig und verwirrt die ganze Gesellschaftsordnung. Jedwede Gesellschaftstätigkeit ist ja ihrem Wesen und Begriff nach subsidiär; sie soll die Glieder des Sozialkörpers unterstützen, darf sie aber niemals zerschlagen oder aufsaugen" (Pius XI. 1931, Tz. 79). Der theologische Hintergrund des Subsidiaritätsprinzips liegt darin, dass der einzelne Christ im Sinne einer Mitwirkung am Schöpfungswerk Gottes gefordert ist, seine Fähigkeiten bzw. Gaben für die Gestaltung der Welt einzusetzen und dadurch in den Dienst seiner Mitmenschen zu stellen. Dabei wird die primäre Eigenverantwortung jedes Einzelnen für den Einsatz seiner Gaben als Ausdruck von dessen Menschenwürde als Geschöpf und Ebenbild Gottes gesehen (vgl. Losinger 1999). In diesem Sinne basiert das Subsidiaritätsprinzip auf drei Säulen: •

dem aus der Menschenwürde jedes Einzelnen abgeleiteten Prinzip der Eigenverantwortung als Grundlage für die Übernahme weitergehender Verantwortung,



einem Hilfestellungsgebot als Ausdruck der christlichen Nächstenliebe,



einem Kompetenzanmaßungsverbot als Ausdruck des Respekts vor der Eigenverantwortung und Würde des Anderen (vgl. Anzenbacher 1998, S. 210-215).

So wies u.a. Nell-Breuning darauf hin, dass es der Menschenwürde jedes Einzelnen entspreche und auch zur Stärkung des Individuums beitrage, sich für die Gestaltung seines Lebens an erster Stelle selbst einzusetzen, und dass die Pflichten der Gemeinschaft dort beginnen, wo die Voraussetzungen für eine erfolgreiche Bewährung des Individuums zu schaffen sind (vgl. Nell-Breuning 1984, S. 226-234). Als theologische Begründung verwies Nell-Breuning (1955, S. 3) auf das ermöglichende und befähigende Schöpfungshandeln Gottes: „Gott ermöglicht uns, was wir als bloße Geschöpfe und erst recht als Sünder schlechterdings nicht vermöchten; er ermöglicht es uns, aber er nimmt es uns nicht ab, erspart uns das Bemühen und die Leistung nicht." In diesem Sinne hebt auch die Enzyklika Maler et magistra (1961) den Zusammenhang eines subsidiären Aufbaus der Gesellschaft mit der Eigenverantwortung jedes Individuums für die Gestaltung seines Lebens hervor: „Die Sorge des Staates für die Wirtschaft, so weit und so tief sie auch in das Gemeinschaftsleben eingreift, muss dergestalt sein, dass sie den Raum der Privatinitiative der einzelnen Bürger nicht nur nicht einschränkt, sondern vielmehr ausweitet, allerdings so, dass die wesentlichen Rechte jeder menschlichen Person gewahrt bleiben. Zu diesen ist zunächst das Recht und die Pflicht der einzelnen zu zählen, in der Regel sich und ihre Angehörigen selbst mit dem Lebensunterhalt zu versorgen. Das besagt: dass es überall in der Wirtschaft einem jeden nicht nur möglich, sondern leicht gemacht werden muss, erwerbstätig zu sein"

104

Christian Hecker

(Johannes XXIII. 1961, Tz. 55). Als grundlegende Forderang „sozialer Gerechtigkeit" erscheint hier die Verpflichtung der Gesellschaft, jedem Bürger ein hinreichendes Maß an Lebensgestaltungsmöglichkeiten zu eröffnen, für deren Nutzung gleichwohl jeder Einzelne selbst verantwortlich ist. Bei der Entwicklung des Subsidiaritätsprinzips konnte die katholische Moraltheologie an eine lange naturrechtliche Tradition anknüpfen, die bis zu Aristoteles zurückreicht.2 Von grundlegender Bedeutung war dabei die Erfahrung, dass Verantwortung dann am zuverlässigsten wahrgenommen wird, wenn eine klare Abgrenzung individueller Verantwortungsbereiche gewährleistet ist und zudem sichergestellt wird, dass jeder Akteur die Punkte, die seiner Verantwortung obliegen, auch tatsächlich wirksam steuern und kontrollieren kann. Unter diesem Gesichtspunkt hatte bereits Thomas von Aquin das Privateigentum damit gerechtfertigt, dass durch die Verantwortung jedes Einzelnen für sein individuelles Eigentum, dessen Nutzung sich an den Ordnungen Gottes zu orientieren habe, mehr Sorgfalt geübt werde als im Falle einer undifferenzierten Gesamtverantwortung aller (vgl. Thomas von Aquin o.J., q. 66, a. 2). In dieser Tradition sieht auch die moderne katholische Soziallehre bei der Verwirklichung „sozialer Gerechtigkeit" nicht nur den Staat, sondern jedes einzelne Wirtschaftssubjekt in der Verantwortung. Daraus folgt - auf der untersten Ebene der Subsidiarität - die primäre Eigenverantwortung des Individuums für die Sicherang seiner Existenz, die nur dann auf andere übergehen darf, wenn der einzelne aus Gründen, die von ihm nicht zu vertreten sind, dazu nicht in der Lage ist. Vor diesem Hintergrund übt die Enzyklika Centesimus annus eine deutliche Kritik an Auswüchsen des Wohlfahrtsstaates, die auf eine Überdehnung staatlicher Kompetenzen zurückgeführt werden (vgl. Johannes Paul II. 1991, Tz. 48). „Soziale Gerechtigkeit", Eigenverantwortung und Subsidiarität stellen hier keine Gegensätze dar, sondern ergänzen einander.

3. Zum Vergleich: Die Tradition des Subsidiaritätsprinzips in der evangelischen Sozialethik Für die evangelische Sozialethik fallt die Herausarbeitung eines einheitlichen Ansatzes - zumindest im Rahmen einer rückblickenden historischen Betrachtung - deutlich schwerer als im Bereich der katholischen Soziallehre. Dies liegt vor allem daran, dass aufgrund des Fehlens einer mit den Stellungnahmen der Päpste vergleichbaren lehramtlichen Tradition das Bild der Lehrmeinungen aus der evangelischen Moraltheologie deutlich heterogener ausfallt. Hinzu kommt die weitgehende Ablehnung der naturrechtlichen Grundlagen, die für die Herausbildung der katholischen Soziallehre maßgeblich waren und nach wie vor Bedeutung besitzen. So stieß insbesondere die Vorstellung einer nach naturrechtlich begründeten Gerechtigkeitsprinzipien geordneten Gesellschaft im Protestantismus auf weitgehende Ablehnung. Vor diesem Hintergrund wurden auch in Auseinandersetzungen katholischer und evangelischer Moraltheologen

2

So hatte bereits Aristoteles in seiner Politik die Forderung Piatons nach einer Erziehung der Kinder aus dem Wächter- und Philosophenstand durch den Staat unter anderem mit dem Einwand zurückgewiesen, dass sich in diesem Falle niemand fiir das einzelne Kind verantwortlich fühlen würde (vgl. Aristoteles 1995, Buch 2, Kapitel 3 und 4, S. 34-38).

.Soziale Gerechtigkeit" als Befahigungsgerechtigkeit

105

mit der jeweils anderen Konfession bis in die sechziger Jahre des 20. Jahrhunderts eher die Unterschiede betont, bevor es zu immer deutlicheren Annäherungen kam. So wurde im Evangelischen Soziallexikon von 1954 der „Subsidiarismus" als „katholisches Ordnungsprinzip" eingestuft und entsprechend distanziert dargestellt. Dabei waren die Grundlagen des Subsidiaritätsprinzips auch der protestantischen Theologie nicht fremd, zumal insbesondere der Gemeindeaufbau der reformierten Kirchen seit dem 16. Jahrhundert auf diesem Prinzip gründete. Auch Dietrich Bonhoeffer betonte in seinen Schriften zur Ethik die Bedeutung abgegrenzter Verantwortungsbereiche für die Gestaltung des eigenen Lebens und der Gesellschaft in Verantwortung vor Gott (vgl. Bonhoeffer 2006, S. 268 f.). Auf diesen Prämissen aufbauend, kam es dann während der Nachkriegszeit auch zu einer Übernahme des Subsidiaritätsprinzips ins sozialethische Denken des Protestantismus. Eine wichtige Rolle spielte dabei der evangelische Sozialethiker und Unternehmer Friedrich Karrenberg, der im Subsidiaritätsprinzip vor allem ein Instrument zur Abwehr totalitärer Machtansprüche des Staates sowie einen Ansatz zur Überwindung der von ihm kritisierten Staats- bzw. Obrigkeitsfixiertheit im protestantischen Denken sah (vgl. Karrenberg 1959, S. 58-60). Inzwischen lässt sich trotz fortbestehender theologischer Differenzen in vielen praktischen Grundfragen ein hohes Maß an Übereinstimmung zwischen den Konfessionen konstatieren, das auch die Prinzipien der „sozialen Gerechtigkeit" und der Subsidiarität umfasst. So spielt das Subsidiaritätsprinzip auch in der Sozialethik des Protestantismus inzwischen eine zentrale Rolle bei der Durchsetzung ethischer Postulate, wenngleich es hier eher als pragmatische Regel, nicht aber als ontologisches Prinzip aufgefasst wird (vgl. Schöpsdau 1996).

III. „Soziale Gerechtigkeit" und Subsidiarität aus (ordo-)liberaler Perspektive Neben der christlichen Gesellschaftsethik sind für das Verständnis „sozialer Gerechtigkeit" auch liberale Gesellschaftstheorien von entscheidender Bedeutung.

1. Die Perspektive des Liberalismus: Begrenzung der Staatstätigkeit, Freiheit, (Eigen-)Verantwortung und Subsidiarität Ein zentrales Charakteristikum des Liberalismus ist die Forderung nach einer grundsätzlichen Begrenzung der Staatstätigkeit, um die Freiheiten der Bürger zu sichern. Die staatstheoretischen Grundlagen dafür wurden unter anderem in den Schriften von Immanuel Kant und Adam Smith, aber auch Wilhelm von Humboldt (1995), entfaltet.3 So postulierte Kant in seiner Kritik eines paternalistischen Staatsverständnisses eine Beschränkung der Regelungskompetenz des Staates auf bestimmte Bereiche, wie insbesondere die Gewährleistung der öffentlichen Sicherheit und der Landesverteidigung (vgl. Kant 1977a). Diese Begrenzung der staatlichen Funktionen ging bei Kant mit der 3

Vgl. zum Folgenden auch Hecker (2012, S. 27 f.).

106

Christian Hecker

Formulierung weitergehender sittlicher Verpflichtungen für sämtliche Bürger einher, deren bekanntester Ausdruck der Kategorische Imperativ ist (vgl. Kant 1968, S. 428430). Dadurch wurde klar zum Ausdruck gebracht, dass ein liberaler Rechtsstaat nur dann funktionieren kann, wenn er durch sittlich fundiertes Verhalten der Bürger getragen wird. Als Kontrollinstanz für die Einhaltung sittlicher Normen verwies Kant auf das Gewissen als „inneren Gerichtshof im Menschen" (vgl. Kant 1977b, S. 572-576). Auch Adam Smith ergänzte seine Forderung nach einer Beschränkung der Staatstätigkeit im Sinne eines system of natural liberty (vgl. Smith 1961, Buch IV, Kapitel IX, S. 208 f.) durch moralphilosophische Überlegungen zum sittlichen Verhalten der Bürger, die er in seinem Werk The Theory of Moral Sentiments darlegte.4 Eine entscheidende Rolle bei der Verwirklichung einer zivilisierten und auch im ökonomischen Sinne erfolgreichen Gesellschaft maß Smith dabei der sympathy, d.h. der Fähigkeit zum Mitempfinden, bei, die er als Quelle der persönlichen Tugenden ansah (vgl. Smith 2009, S. 13-33). Im Rahmen einer detaillierten Betrachtung der verschiedenen Tugenden grenzte Smith die Gerechtigkeit {justice) von den übrigen Tugenden ab, da nur diese durch gesetzliche Regelungen eindeutig definiert sei und daher durch staatlichen Zwang durchgesetzt werden könne. Als Postulate der Gerechtigkeit erwähnte Smith primär die Vertragstreue sowie die Unverletzlichkeit der Person und des Eigentums. Andere Tugenden, wie Wohltätigkeit, können nach Ansicht von Smith nicht durch staatlichen Zwang durchgesetzt werden, daher sah er deren Verwirklichung als unmittelbare Aufgabe der Bürger an (vgl. Smith 2009, S. 95-99). Als imaginäre moralische Instanz zur Beurteilung von Handlungen griff Smith in Analogie zu Kants „innerem Gerichtshof auf die Vorstellung zurück, dass jeder Einzelne dazu befähigt sei, seine eigenen Handlungen mit den Augen seiner Mitmenschen zu reflektieren und daher unabhängig von seiner persönlichen Interessenlage moralisch zu beurteilen (vgl. Smith 2009, S. 133136). Smith gebrauchte dafür auch das Bild eines impartial spectator, der eine Art überindividuelles Gewissen verkörpert (vgl. u.a. Smith 2009, S. 31). Vor diesem Hintergrund spielte auch in liberalen Gesellschaftskonzeptionen seit dem 19. Jahrhundert das Subsidiaritätsprinzip eine zentrale Rolle. Ein Beispiel dafür findet sich bei Carl von Rotteck in dem von ihm herausgegebenen Staatslexikon. So bekannte sich Rotteck zu einem freiheitlichen Staatsverständnis, das auf der Autonomie von Privatpersonen, Familien und Gemeinden aufbaute (vgl. Rotteck 1838, S. 391-394). Der Staat hatte demnach für Rotteck primär die Funktion, bürgerliches Engagement dort zu ergänzen, wo dieses zur Bewältigung öffentlicher Aufgaben nicht ausreichte. Aus soziologischer Sicht stand die Entwicklung liberaler Gesellschaftstheorien in enger Verbindung mit der Herausbildung des sog. „bürgerlichen Wertekanons". Hierbei handelte es sich um ein Gerüst von Werten, das den Bürgern in einer Welt, die aufgrund der allmählichen Überwindung standesbezogener Ordnungsstrukturen durch neue Formen der Unsicherheit gekennzeichnet war, eine Orientierung ermöglichte. Charakteristisch für den „bürgerlichen Wertekanon" waren vor allem folgende Normen (vgl. u.a. Roth 2005, S. 96 f., Heuling 2005 sowie Ulrich 2005, S. 230-241): 4

Die Tatsache, dass Smith sein Buch The Theory of Moral Sentiments auch nach der Fertigstellung seines ökonomischen Hauptwerkes An Inquiry into the Nature and Causes of the Wealth of Nations weiterentwickelte, belegt eindeutig, dass Smith seine moralphilosophischen Überlegungen parallel und komplementär zu seinen ökonomischen Betrachtungen entfaltete (vgl. Sen 2009a, S. VIII f.).

.Soziale Gerechtigkeit" als Befahigungsgerechtigkeit

107



Ideal einer selbständigen Lebensführung sowie eine dementsprechende Leistungsorientierung, die durch persönliche Tugenden wie Fleiß, Ordnung und Sparsamkeit unterstützt wurde.



Leistung als einziger anerkannter Maßstab sozialer Unterschiede, damit einher ging auch die Forderung nach Chancengleichheit im Sinne der Freiheit eines gesellschaftlichen Aufstiegs durch eigene Leistungen (vgl. Gall 1989, S. 158).



Streben nach selbständiger Gestaltung gemeinschaftlicher Aufgaben (vgl. Kocka 1995, S. 18).



Familienbewusstsein, d.h. der einzelne Bürger agierte nicht ausschließlich als Individuum, sondern sah sich in familiäre Bindungen eingebettet, die zugleich die Grundlage für alle weiteren Formen bürgerlicher Verantwortung bildeten.



Mitverantwortung für die Gesellschaft, der man seine Existenzmöglichkeiten und seinen wirtschaftlichen Erfolg verdankte; hierzu zählten ursprünglich in erster Linie Mäzenatentum sowie die Übernahme öffentlicher Ämter.

Dabei brachte die Verantwortung des Bürgers für das Gemeinwesen primär den Anspruch auf eine selbst bestimmte Organisation der Gesellschaft zum Ausdruck, der sich ohne aktive Mitwirkung der Bürger nicht durchsetzen ließ. Auf diese Weise diente bürgerliches Engagement auch dazu, Regulierungsansprüche der Obrigkeit abzuwehren und die politische Handlungsfähigkeit des aufstrebenden Bürgertums zu demonstrieren (vgl. Mettele 2003 sowie Heuling 2010). In diesem Rahmen wurde die Selbstverantwortung des Individuums als Grundlage der Übernahme von Verantwortung für die Gesellschaft angesehen, wobei für die Zuordnung dieser Verantwortung das Subsidiaritätsprinzip zugrunde gelegt wurde. Damit wurde deutlich gemacht, dass aufgeklärte, selbständige und selbstbewusste Bürger für ihre Familien, Gemeinden und auch im Staatswesen insgesamt Verantwortung übernehmen konnten.

2. Die Grenzen des klassischen Liberalismus als normatives Fundament der Gesellschaft Die aus dem „bürgerlichen Wertekanon" abgeleitete Verantwortung fand ihre Grenzen lange Zeit dadurch, dass die bürgerliche Gesellschaft des 19. und frühen 20. Jahrhunderts - trotz der vor allem in liberalen Kreisen gehegten Emanzipations- und Aufstiegsversprechungen - weite Bevölkerungsschichten de facto ausschloss, was durch die „soziale Frage" zum Ausdruck kam. So stellte das Bürgertum innerhalb der Gesamtbevölkerung nur eine kleine Minderheit dar, die sich je nach Abgrenzung auf 5 bis 15 % beziffern ließ.5 Die Mehrheit der Bevölkerung fand sich in einer Situation wieder, die durch ein Leben am Rande des Existenzminimums und die Abhängigkeit von der Marktmacht ihrer Arbeitgeber gekennzeichnet war. Eine Folge davon war, dass der „bürgerliche Wertekanon" in der Praxis vor allem den besitzenden Schichten diente, da Werte wie die Anerkennung rechtmäßig erworbenen Eigentums oder Leistungsbereitschaft ohne wirklichen Nutzen für diejenigen waren, die weder über Eigentum 5

Vgl. Kocka (1995, S. 9-11). Dieser Umstand ist umso bezeichnender, als gerade das 19. Jahrhundert in der Geschichtswissenschaft oft als das „bürgerliche Jahrhundert" bezeichnet wird.

108

Christian Hecker

verfügten noch eine Chance sahen, ihren Lebensstandard durch eigene Leistungen zu verbessern (vgl. Kocka 2001, S. 129-138). Deutlich wurde dadurch auch, dass die Gewährleistung gleicher individueller Freiheitsrechte durchaus mit einer eklatanten Ungleichheit der tatsächlich bestehenden Lebensgestaltungsmöglichkeiten einhergehen konnte. Diese de facto bestehende Exklusivität der bürgerlichen Gesellschaft spiegelte sich auch in der politischen Theorie wider. So forderte beispielsweise Kant (1977b, § 46, S. 433) eine Beschränkung der aktiven Bürgerrechte, d.h. insbesondere des Wahlrechtes, auf diejenigen, die sich durch „bürgerliche Selbständigkeit" auszeichnen. Dabei schloss er verschiedene Gruppen, wie Handwerksgesellen, Dienstboten und Frauen, expressis verbis aus. Chancengleichheit aller Bürger forderte selbst Kant nur insoweit, als die Gesetze einen Aufstieg in den Status eines mit aktiven Bürgerrechten ausgestatteten Bürgers nicht erschweren sollten. Nachdem die Exklusivität der traditionellen bürgerlichen Gesellschaft bereits früh von marxistischen Kritikern angeprangert worden war, setzte sich nach den schweren sozialen und politischen Verwerfungen während der ersten Hälfte des 20. Jahrhunderts auch in bürgerlich geprägten und liberal denkenden Kreisen die Gewissheit durch, dass an dieser Stelle Handlungsbedarf bestand. Geleitet von dieser Überzeugung, bemühten sich in Deutschland vor allem die Vordenker des Ordoliberalismus um eine Erneuerung des liberalen Denkens.

3. Die Integration der „sozialen Gerechtigkeit" in liberales Denken im Rahmen des Ordoliberalismus Kennzeichnend für die Entwürfe der Vordenker des Ordoliberalismus war die Überzeugung, dass eine liberale, auf bürgerlichen Freiheiten basierende Wirtschafts- und Gesellschaftsordnung nur durch eine Integration sämtlicher Bevölkerungsschichten verwirklicht werden konnte. So bekannten sich Walter Eucken, Alexander Rüstow und Wilhelm Röpke gerade aus diesem Grund zur Norm der „sozialen Gerechtigkeit", die sie als Ansatz zur Universalisierung bürgerlicher Werte verfochten. Walter Eucken (1952, S. 347-350) berief sich ausdrücklich auf diese Norm und verwies dabei auf wesentliche Affinitäten zu den Gerechtigkeits- und Ordnungskonzeptionen der christlichen Kirchen. Bei seiner Auseinandersetzung mit der katholischen Soziallehre würdigte er insbesondere das Subsidiaritätsprinzip, das er als wichtiges Bindeglied zu der von ihm postulierten Wettbewerbsordnung ansah. Die Idee der „sozialen Gerechtigkeit" sah Eucken in enger Verbindung mit einer freiheitlichen und freiheitssichernden Wirtschafts- und Sozialordnung, wobei er Freiheit nicht nur im Sinne von Abwehrrechten gegenüber staatlicher Bevormundung, sondern zugleich als Unterbindung privater, durch Marktkonstellationen vermittelter Abhängigkeiten deutete.6 Daher betonte Eucken, der sich oft auf Kant bezog und auch aus philosophischer Sicht als Kantianer bezeichnet werden kann (vgl. Schumann/Nutzinger 6

Daher kritisierte Eucken neben staatlicher Machtanmaßung auch private Machtkonzentrationen: „Private Vermachtung beengte die Freiheit vieler und führte zu Abhängigkeit. Hierin bestand die soziale Frage des 19. Jahrhunderts zu einem wesentlichen Teil" (Eucken 1948, S. 74).

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

109

2009), nachdrücklich die Ergänzungsbedürftigkeit der Rechtslehre Kants im Sinne einer Ordnungspolitik, die eine Verwirklichung „sozialer Gerechtigkeit" - v.a. durch die Bekämpfung von Marktmacht - ermöglicht.7 So sah Eucken (1952, S. 317) in der Schaffung einer funktionierenden Wettbewerbsordnung durch angemessene Rahmenbedingungen das beste Mittel zur Umsetzung „sozialer Gerechtigkeit".8 Zudem war die Ordnungspolitik für Eucken ein wichtiges Instrument, um den Einzelnen in die Lage zu versetzen, seine wirtschaftlichen Interessen in Übereinstimmung mit den Erfordernissen des Gemeinwohls zu verfolgen. Durch eine Orientierung der Ordnungspolitik an der Vermeidung von Interessenkonflikten zwischen der Sorge für die eigenen Bedürfnisse und den Interessen der Mitmenschen, beispielsweise mithilfe einer weitestmöglichen Internalisierung externer Effekte, sollte zugleich der einzelne Bürger zu moralischem Handeln befähigt werden (vgl. Eucken 1952, S. 355-368).9 Alexander Rüstow vertrat gemeinsam mit Wilhelm Röpke eine weitere Ausprägungsform des Ordoliberalismus, die deutliche Parallelen zur „Freiburger Schule" um Eucken aufwies und vor allem durch eine stärker soziologisch fundierte Argumentation gekennzeichnet war. So forderten diese beiden Ökonomen unter anderem eine Überwindung der proletarischen Lebensweise der Industriearbeiter und deren Integration in die bürgerliche Gesellschaft. Zu diesem Zweck postulierte Rüstow (1950) unter dem Begriff der „Vitalpolitik" eine Orientierung der Wirtschaftspolitik an der Lebenswirklichkeit der Menschen. Das Ziel der „sozialen Gerechtigkeit" lag für Rüstow (1950, S. 97) darin, jeden Bürger zu „seines Glückes Schmied" zu machen. In diesem Zusammenhang betonte er in erster Linie die Notwendigkeit einer Verbindung der Wettbewerbsfreiheit mit einer Angleichung der Startchancen innerhalb der Gesellschaft, wobei er unter anderem eine radikale Begrenzung des Erbrechtes sowie staatliche Maßnahmen zur Ausbildungsforderung forderte. Dabei legitimierte Rüstow auch den Marktmechanismus vor allem aus ethischer Sicht, indem er dessen freiheitssichernde Funktionen hervorhob. So verwies er unter ausdrücklicher Bezugnahme auf die Enzyklika Quadragesimo anno darauf, dass nur die Marktwirtschaft den Erfordernissen des Subsidiaritätsprinzips genüge, da sie auf der Eigeninitiative des Menschen und dessen naturgegebener Sorge für sich selbst und seine Angehörigen aufbaue (vgl. Rüstow 1955, S. 57).

7

8 9

Eucken (1952, S. 52) äußerte sich dazu folgendermaßen: „Kant sah es als Aufgabe des Staates an, die absolute Freiheit des Naturzustandes (status naturalis) durch Gesetze einzuschränken, in deren Rahmen der Einzelne gegen Willkür von anderen gesichert sei; so werde ein friedliches Zusammenleben möglich, ein status civilis, in dem alle ihre Fähigkeiten entfalten könnten. Dieses Ziel wurde im 19. und beginnenden 20. Jahrhundert trotz aller Bemühungen um einen Rechtsstaat nicht erreicht eben wegen der privaten wirtschaftlichen Machtkörper. [...] Wenn es also dem Rechtsstaat gelang, seine Bürger gegen die Willkür des Staates selbst zu schützen, so gelang es ihm nicht, ihn (sie!) vor den Willkürakten anderer Bürger zu bewahren." Vgl. zum Gerechtigkeitsverständnis Euckens auch Nutzinger/Hecker (2008, S. 557-560). In diesem Sinne wurde auch in einem von Eucken gemeinsam mit Constantin von Dietze und Adolf Lampe während des Zweiten Weltkriegs verfassten Anhang der Denkschrift des Freiburger Bonhoeffer-Kreises darauf verwiesen, dass die Wirtschaftsordnung so gestaltet werden müsse, dass sie es dem einzelnen Bürger ermögliche, ein Leben als Christ zu führen (vgl. Dietze/Eucken/Lampe 1943, S. 100 undS. 113 f.).

110

Christian Hecker

Wilhelm Röpke äußerte sich in ähnlicher Weise, wenngleich er hinsichtlich der Beschränkung des Erbrechtes weniger radikal argumentierte als Rüstow (vgl. Röpke 1950, S. 65-75). Von zentraler Bedeutung für Röpke war die Wahrnehmung von Verantwortung für die Verwirklichung einer lebenswerten, durch bürgerliche Werte gekennzeichneten Gesellschaft innerhalb überschaubarer Lebenskreise. In diesem Zusammenhang betonte er insbesondere die Bedeutung von Familien, Kirchengemeinden und regionalen Gemeinschaften (vgl. Röpke 1958, S. 168-171, sowie Röpke 1964, S. 151-153). Einer scharfen Kritik unterzog Röpke alle Ansätze zur Ausdehnung der staatlichen Aktivität im Bereich der Sozialpolitik, wobei er stattdessen eine Befähigung der einzelnen Bürger zu einer selbständigen und eigenverantwortlichen Existenz postulierte. Dabei berief sich Röpke in seinen Schriften regelmäßig auf die zentralen Inhalte des „bürgerlichen Wertekanons", mit denen er seine ökonomische Argumentation ethisch untermauerte.10 Röpke setzte sich auch wiederholt mit zentralen Dokumenten der katholischen Soziallehre, wie den Enzykliken Quadragesimo anno und Mater et magistra, auseinander, denen er - bei aller Kritik an einzelnen Positionen - grundsätzlich positiv gegenüberstand (vgl. Röpke 1944 sowie Röpke 1964). In diesem Zusammenhang würdigte er mit Blick auf Mater et magistra insbesondere deren „Dezentraiismus", wobei sich dieser Terminus in Röpkes Text direkt mit dem Subsidiaritätsprinzip identifizieren lässt." Zu den zentralen wirtschaftspolitischen und normativen Grundlagen des Ordoliberalismus bekannte sich auch der langjährige Bundeswirtschaftsminister Ludwig Erhard, der sich in seinen Schriften insbesondere auf Eucken berief (vgl. beispielsweise Erhard 1976, S. 17). So war es ein zentrales Anliegen Erhards, die Bürger dazu zu befähigen, ihre Interessen soweit wie möglich selbständig zu verfolgen, wozu er beispielsweise auch eine eigenverantwortliche Vorsorge für zentrale Lebensrisiken rechnete. Die primäre Aufgabe des Staates sah Erhard darin, die Voraussetzungen dafür zu gewährleisten: „Das mir vorschwebende Ideal beruht auf der Stärke, daß der einzelne sagen kann: ,Ich will mich aus eigener Kraft bewähren, ich will das Risiko des Lebens selbst tragen, will für mein Schicksal selbst verantwortlich sein. Sorge du, Staat, dafür, daß ich dazu in der Lage bin'" (Erhard 1964, S. 251).

10

Röpke (1955, S. 281) äußerte sich dazu wie folgt: „Jene eigentlich ,bürgerliche' Philosophie, die man in einem sorgfaltig zu definierenden Sinne auch die .liberale' nennen kann, hat uns dazu erzogen, den Selbstentfaltungs- und Selbstbehauptungsdrang des für sich und seine Familie sorgenden Individuums ehrlich anzuerkennen und den ihm entspringenden Tugenden der Arbeitsamkeit, der Rührigkeit, der Sparsamkeit, des Pflichtgefühls, der Zuverlässigkeit, Pünktlichkeit und Vernünftigkeit den gebührenden Rang zu geben." " So heißt es bei Röpke (1964, S. 319): „Dieser Dezentraiismus sucht hier, beim Menschen und seiner natürlichen Gemeinschaft [d.h. der Familie, Einfügung hinzugefugt], den Schwerpunkt der Gesellschaft und gesteht den übergeordneten Gebilden, bis hinauf zum Staate oder gar zu internationalen Quasi-Staaten wie etwa der EWG, Rechte und Befugnisse nur widerstrebend zu, so dass sie die Beweislast dafür zu tragen haben, wenn sie sie beanspruchen."

.Soziale Gerechtigkeit" als Befahigungsgerechtigkeit

111

4. Das Verhältnis von Subsidiarität und „sozialer Gerechtigkeit" im Ordoliberalismus Fasst man die Interpretation „sozialer Gerechtigkeit" durch die Vordenker des Ordoliberalismus zusammen, so ergibt sich an erster Stelle die Forderung nach einer Integration sämtlicher Bevölkerungsschichten in eine auf der Grundlage bürgerlicher Werte geordnete Gesellschaft. Die Verantwortung dafür wird einerseits dem Staat, darüber hinaus jedoch letztendlich sämtlichen Wirtschaftssubjekten zugewiesen. Eine zentrale Aufgabe des Staates wird darin gesehen, die übrigen Wirtschaftssubjekte, d.h. vor allem Unternehmen und Bürger, zur Wahrnehmung ihrer jeweiligen Verantwortung anzuhalten und zu befähigen. Was die praktischen Maßnahmen zur Umsetzung „sozialer Gerechtigkeit" anbelangt, so zielen die Vordenker des Ordoliberalismus auf zwei Handlungsebenen ab: •

einerseits Ordnungspolitik zur Sicherung eines fairen Marktwettbewerbs,



andererseits Maßnahmen zur Sicherung von Mitgestaltungsmöglichkeiten für sämtliche Bürger durch (begrenzte!) Umverteilung, Ausbildungsforderung etc.

Wie im vorangegangenen Abschnitt deutlich wurde, basiert das von den Vordenkern des Ordoliberalismus vertretene Konzept der „sozialen Gerechtigkeit" auf dem Subsidiaritätsprinzip. So verfolgten Eucken, Rüstow, Röpke und auch Erhard das Ziel, alle Bürger soweit wie möglich dazu zu befähigen, ihr Leben eigenverantwortlich zu gestalten.12 Abhängigkeiten jeder Art, d.h. sowohl gegenüber staatlicher als auch privater Macht, sollten dadurch vermieden werden. In diesem Sinne sollten auch Hilfeleistungen des Staates so organisiert werden, dass sie die Fähigkeiten der Individuen zur selbständigen Wahrnehmung ihrer Interessen stärken und erweitern. Im Gegensatz zur Herangehensweise des klassischen Liberalismus wurde das Subsidiaritätsprinzip jedoch in dem Sinne ausgelegt, dass nicht nur Kompetenzüberschreitungen übergeordneter (d.h. vor allem staatlicher) Instanzen abgelehnt, sondern auch aktive Hilfestellungen zur Befähigung jedes Bürgers zur Eigenverantwortung eingefordert wurden, wobei diese Unterstützung nach dem Prinzip „Hilfe zur Selbsthilfe" gestaltet werden sollte. In diesem Rahmen sollte das Risiko einer Machtkonzentration in den Händen des Staates vor allem dadurch begrenzt werden, dass mittels staatlicher Maßnahmen in erster Linie die Kompetenzen der einzelnen Bürger, und nicht die Macht staatlicher Instanzen, erhöht werden sollten. Von der Stärkung der Handlungskompetenz des einzelnen Bürgers versprachen sich die Ordoliberalen wiederum eine Erweiterung der Handlungsfähigkeit intermediärer, d.h. nicht-staatlicher Institutionen, wie Kirchengemeinden sowie lokaler Gemeinschaften und Verbände. Betrachtet man die Aussagekraft der ordoliberalen Denkansätze in der heutigen Zeit, so stößt man auf normative Postúlate von bleibender Bedeutung. Hierbei ist an erster Stelle das Ziel einer Stärkung der Handlungsfähigkeit der Individuen zu nennen. So liegt die zentrale Leistung des Ordoliberalismus aus wirtschaftsethischer Sicht in der Entwicklung eines freiheitskompatiblen Ansatzes „sozialer Gerechtigkeit", der an grundlegende moralphilosophische Reflexionen seiner Zeit, insbesondere aus der 12

Zur Interpretation der Norm der „sozialen Gerechtigkeit" durch die Vordenker des Ordoliberalismus vgl. auch Hecker (2011, S. 274-276).

112

Christian Hecker

katholischen Soziallehre, anschloss und deswegen auch eine hohe wirtschafte- und gesellschaftspolitische Relevanz entfalten konnte. Auf diese Weise wurde es möglich, Gerechtigkeitsüberlegungen und ökonomische Erkenntnisse zu verbinden und dadurch vielfaltige Impulse für die Ausgestaltung der Sozialen Marktwirtschaft in Deutschland zu geben, die zugleich aus lebensweltlicher Sicht praktikabel waren, auch wenn von einer exakten Umsetzung der Postulate des Ordoliberalismus durch die Wirtschaftspolitik nicht die Rede sein kann (vgl. Hecker 2011). Andererseits zeigt sich, dass die Positionen der Vordenker des Ordoliberalismus in erheblichem Umfang in vormodernen Gesellschaftsbildern verankert waren, die in der heutigen Zeit nicht mehr überzeugen können.13 Offen bleibt insbesondere, wie in einer Gesellschaft, in der traditionelle Integrationsmechanismen, wie sie für vormoderne Gemeinschaften typisch waren, nicht mehr zur Verfügung stehen, eine laufende gesellschaftliche Inklusion sämtlicher Bürger gewährleistet werden kann. Dieser Einwand wiegt umso schwerer, als eine dynamische ökonomische Entwicklung laufend auch Verlierer entstehen lässt, beispielsweise durch den Abbau von Arbeitsplätzen in nicht mehr wettbewerbsfähigen Unternehmen, die nicht ohne Weiteres dazu in der Lage sind, aus eigener Kraft den Anschluss wieder zu gewinnen. Gerade vor diesem Hintergrund zeigt sich die Herausforderung, den von den Vordenkern des Ordoliberalismus zugrunde gelegten Ansatz „sozialer Gerechtigkeit" im Sinne einer modernen Befähigungsgerechtigkeit weiterzuentwickeln.

IV. Von der „sozialen Gerechtigkeit" zur Befahigungsgerechtigkeit Eine Weiterentwicklung des normativen Gedankengutes der ordoliberalen Tradition ist insbesondere unter der Zielsetzung angebracht, möglichst viele Bürger laufend zur eigenverantwortlichen Teilnahme am gesellschaftlichen und ökonomischen Leben zu befähigen. Notwendig erscheint eine solche aktive Befahigungspolitik vor allem deswegen, weil die zunehmende Komplexität moderner Gesellschafts- und Wirtschaftsstrukturen dazu geführt hat, dass die Voraussetzungen für eine erfolgreiche Mitwirkung nicht nur größer werden, sondern darüber hinaus einem beständigen Wandel unterliegen, da beispielsweise erworbenes Humankapital schnell veraltet. Damit steigt auch die Abhängigkeit zahlreicher Menschen von Entwicklungen, die sich ihrem Einfluss weitgehend entziehen. Als Folge ergibt sich, dass - trotz einer insgesamt stark angestiegenen ökonomischen Leistungsfähigkeit der Gesellschaft - auch die Phasen zunehmen können, in denen Menschen auf Unterstützung bei der Weiterentwicklung ihrer Befähigungen angewiesen sind. Andernfalls drohen Exklusionsrisiken, die sowohl durch ökonomische Prozesse als auch durch soziale Dynamiken ausgelöst werden können. Diese wiederum können durch Wechselwirkungen zu Exklusionsverstärkungen führen, die die Betroffenen mit einem weitgehenden Ausschluss aus dem wirtschaftlichen und gesellschaftlichen Leben konfrontieren (vgl. Dabrock 2012, S. 197-215). Luhmann (1995) spricht in diesem Zusammenhang von einem wechselseitig bedingten Ausschluss aus verschiedenen gesellschaftlichen Funktionssystemen. So besteht, um ein 13

Vor allem in den Schriften Röpkes wird die Orientierung an einem (vermeintlichen) vormodemen Idyllzustand sehr deutlich, vgl. beispielsweise Röpke (1948, S. 213 f.).

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

113

Beispiel zu nennen, die Gefahr, dass ein Ausschluss vom Zugang zum Arbeitsmarkt auch zu einem Verlust an sozialen Kontakten, einer Erosion sozialer Kompetenzen, Verlusten an (körperlicher und psychischer) Gesundheit einschließlich weiter Folgewirkungen fuhrt. Vor diesem Hintergrund äußert sich die Norm der „sozialen Gerechtigkeit" als Verpflichtung, Exklusionstendenzen und -dynamiken laufend entgegenzuwirken und Exklusionsverstärkungen wirksam zu unterbinden. „Soziale Gerechtigkeit" realisiert sich dabei als Befahigungsgerechtigkeit, die die Voraussetzungen für eine eigenverantwortliche Mitwirkung in Wirtschaft und Gesellschaft gewährleistet und aktuelle Herausforderungen, wie globalisierungsbedingte Veränderungen der Wirtschaftsstruktur, Migrationsprozesse oder den demographischen Wandel, kontinuierlich einbezieht. In diesem Rahmen erweist sich der Grundsatz der Eigenverantwortung nicht mehr primär als normative Voraussetzung, sondern zugleich als Ziel der gesellschaftlichen Ordnung. Wichtige theoretische Grundüberlegungen dazu, die ökonomische und moralphilosophische Denkansätze verbinden, liefert der Capabilities-Approach von Amartya K. Sen. Der Ansatz von Sen zeichnet sich dadurch aus, dass hier die Befähigung von Menschen zur Verwirklichung selbst gewählter Lebensentwürfe ins Zentrum des Gerechtigkeitsdiskurses gestellt wird (vgl. bspw. Sen 1993 sowie 2009, S. 231-251). Sen orientiert sich dabei an den Fähigkeiten (capabilities) von Menschen, auf der Basis vernünftiger Erwägungen zwischen verschiedenen Verwirklichungsformen (functionings) eines guten Lebens zu wählen.14 Sen entwickelt diesen Ansatz in kritischer Auseinandersetzung mit der Gerechtigkeitstheorie von John Rawls, die sich auf die Verfugung über Grundgüter konzentriert (vgl. Rawls 1973, S. 90-95). Sen nimmt demgegenüber die Fähigkeit von Menschen in den Blick, die für sie verfügbaren Ressourcen zur Verwirklichung eigener Lebensziele einzusetzen. Große Bedeutung hat dabei für Sen, dass die Fähigkeiten zur Nutzung dieser Ressourcen oftmals sehr ungleich verteilt sind, da beispielsweise ein Mensch mit Behinderungen größere Mittel für die selbständige Gestaltung seines Lebens benötigt als ein Mensch ohne derartige Einschränkungen. Aus diesem Grund fordert Sen, dass sich normative Ansätze möglichst direkt an der Frage orientieren sollten, welche Lebensführung den Menschen, um die es dabei geht, tatsächlich ermöglicht wird (vgl. Sen 2009, S. 18 f.).15 Armut wird von Sen daher in erster Linie als Mangel an Verwirklichungschancen definiert (vgl. Sen 1999, S. 87-11 sowie Sen 2009, S. 254-257). Demgemäß fordert Sen eine Ausrichtung der staatlichen Politik am Ziel einer Überwindung von Unfreiheiten im Sinne fehlender Verwirklichungschancen. Da Sen wiederholt den Zusammenhang von Freiheit und Verantwortung betont, ergibt sich aus der Erweiterung von Freiheiten auch eine Erhöhung der Verantwortungsfahigkeit der Bürger (vgl. Sen 1999, S. 283-289).

14

15

So heißt es bei Sen (2009, S. 233): „The capability that we are concerned with is our ability to achieve various combinations of functionings that we can compare and judge against each other in terms of what we have reason to value." Vgl. zu den verschiedenen fiinctionings auch Sen (1992, S. 39-55). Diese Forderung Sens weist ganz offensichtlich deutliche Parallelen zu Riistows Konzeption einer Vitalpolitik auf, vgl. Abschnitt III.3.

114

Christian Hecker

In diesem Zusammenhang erkennt Sen an, dass sich hinsichtlich der exakten Verteilung von Verwirklichungschancen, ebenso wie für anderweitige Verteilungsfragen, kaum ein gesellschaftlicher Konsens finden lässt, an dem sich die Politik orientieren könnte. Auch die Postulierung einer absoluten Gleichheit der Verwirklichungschancen lehnt er sowohl aus ethischen Gründen als auch aufgrund der fehlenden Praktikabilität ab (vgl. Sen 2009, S. 291-317). Stattdessen präferiert Sen eine komparative Herangehensweise, die ohne das Idealbild einer gerechten Gesamtverteilung oder perfekter gesellschaftlicher Institutionen auskommt (vgl. Sen 2009, S. 15-27).16 Dabei verweist er darauf, dass ungeachtet aller Meinungsverschiedenheiten oftmals ein Konsens darüber besteht, dass bestimmte gesellschaftliche Strukturen bzw. Institutionen eindeutig ungerecht sind, da sie Menschen grundlegende Verwirklichungschancen vorenthalten. Aus diesem Grund empfiehlt Sen für die praktische Wirtschaftspolitik anstelle oftmals fruchtloser Diskussionen über absolute Gerechtigkeitsideale eine Konzentration auf den Abbau offensichtlicher Ungerechtigkeiten. In diesem Zusammenhang nennt er beispielsweise die Gewährleistung eines Gesundheitssystems, das allen Bürgern Schutz vor vermeidbaren Krankheiten bietet, sowie eines Bildungssystems mit offenem Zugang zu Ausbildungsmöglichkeiten. In den vergangenen Jahren ist das Konzept der Befähigungsgerechtigkeit insbesondere von Martha C. Nussbaum weiterentwickelt worden, die zentrale Überlegungen Sens aufgreift und im Rahmen eines aristotelisch geprägten, von der Idee eines „guten Lebens" geleiteten umfassenden Gerechtigkeitsansatzes weiter ausbaut. 17 Ihr Hauptanliegen ist die Gewährleistung von Grundfahigkeiten, die für eine effektive Sicherung der Menschenwürde aller Bürger als unverzichtbar angesehen werden. Dazu zählt Nussbaum neben dem Recht auf Leben und Gesundheit unter anderem die Möglichkeit zur Ausbildung von Sinneseindrücken und Gefühlen sowie die Befähigung zur Selbstreflexion (vgl. Nussbaum 2003, S. 40-42).18 Nussbaum bezeichnet die von ihr vorgelegte Liste der Grundfahigkeiten ausdrücklich als unabgeschlossen, um eine Offenheit ihres Befahigungsansatzes für konkrete Ausgestaltungen im Rahmen nationaler politischer Diskurse sowie für künftige Weiterentwicklungen hervorzuheben (vgl. Nussbaum 2010, S. 114-119). Eine Anwendung des Konzeptes der Befähigungsgerechtigkeit auf die aktuellen Herausforderungen in Deutschland, beispielsweise im Bereich des Gesundheitswesens oder bei der Gestaltung des demographischen Wandels, bietet der evangelische Sozialethiker Peter Dabrock, der die Ansätze von Sen und vor allem Nussbaum aufgreift und mit theologischen Begründungsdiskursen verbindet. In diesem Sinne definiert Dabrock Befahigungsgerechtigkeit als Postulat, „Menschen zur realen Teilhabe am gesellschaftlichen Leben zu befähigen" (Dabrock 2012, S. 13). 16

17

18

Auch in diesem Zusammenhang kritisiert Sen den Ansatz von Rawls, der auf die Begründung idealer Gerechtigkeitsprinzipien durch einen unter dem „Schleier der Unwissenheit" („veil of ignorance") konzipierten Gesellschaftsvertrag abzielt (vgl. dazu auch Rawls 1973, S. 3-192). Sen verweist hingegen darauf, dass es anstelle der Ableitung vollkommen gerechter Institutionen bzw. Regeln auf die Möglichkeit relativer Vergleiche ankomme, um eine Entscheidungsunfahigkeit im Bereich der Social Choice zu vermeiden (vgl. dazu Sen 2009, S. 87-113). Vgl. zu den Unterschieden zwischen den Ansätzen von Sen und Nussbaum beispielsweise Nussbaum (2000, S. 11-15). Vgl. zur Herleitung der Grundfahigkeiten auch Nussbaum (1995).

.Soziale Gerechtigkeit" als Befahigungsgerechtigkeit

115

Wie unter anderem durch die Darstellung von Dabrock (2012, S. 13 f.) deutlich wird, erfährt auch die Idee der Befähigungsgerechtigkeit inzwischen durchaus unterschiedliche Deutungen. Meinungsverschiedenheiten können insbesondere hinsichtlich der Art und des Umfangs der zu gewährleistenden Grundbefahigungen bestehen. Auch die Frage, welche Verantwortung dem Staat, privaten Unternehmen, der Zivilgesellschaft oder auch dem einzelnen Bürger in diesem Rahmen zukommt, kann zu erheblichen Kontroversen führen. Daher bedarf auch dieses Konzept einer inhaltlichen Konkretisierung, zu der die in den Abschnitten 2 und 3 dargestellten Denktraditionen beitragen können.

V. Befähigungsgerechtigkeit als zeitgemäßer Weg zur Verfolgung eines subsidiaritätsfundierten Ansatzes „sozialer Gerechtigkeit" 1. Keine Befahigungsgerechtigkeit ohne Subsidiarität! Bei der Konkretisierung der Befahigungsgerechtigkeit kommt dem Subsidiaritätsprinzip eine wichtige Rolle zu, da dieses Prinzip pateraalistischen Tendenzen, die gerade auch mit aristotelisch geprägten Gerechtigkeitskonzepten einher gehen können, entgegen wirkt und zudem für eine adäquate Verteilung von Verantwortung innerhalb der Gesellschaft Sorge trägt. So ermöglicht es eine Identifikation freiheitsfördernder Ansätze zur Verbesserung der Verwirklichungschancen von Bürgern, die dadurch gekennzeichnet sind, dass sie zur Stärkung der Handlungsfähigkeit des Individuums sowohl im Wirtschaftsleben als auch gegenüber staatlichen Instanzen - beitragen. Dadurch zeigt sich zugleich eine Möglichkeit, dem inflationären Gebrauch von Gerechtigkeitspostulaten und den damit verbundenen Missbrauchsgefahren entgegenzutreten. So läuft es der freiheitssichernden Intention, die sowohl die Vordenker des Ordoliberalismus als auch maßgebliche Protagonisten der katholischen und evangelischen Gesellschaftsethik mit dem Begriff der „sozialen Gerechtigkeit" verbanden, zuwider, wenn unter Berufung auf diese Norm primär eine Stärkung staatlicher Macht im Wirtschaftsleben gefordert wird. Mit diesem Problem sahen sich bereits ordoliberale Denker wie Röpke und Erhard konfrontiert, als nach dem Zweiten Weltkrieg beispielsweise die Forderung nach umfassenden Verstaatlichungen mit dem Prinzip der „sozialen Gerechtigkeit" begründet wurde.19 Besondere Kritik erscheint vor allem dann angebracht, wenn Gerechtigkeitspostulate dazu herangezogen werden, Handlungs- und Entscheidungskompetenzen von Bürgern auf staatliche Instanzen zu verlagern und das Prinzip der Eigenverantwortung auszuhebein. Auch Eingriffe zur Sicherung von Besitzständen einzelner Interessengruppen lassen sich dadurch nicht legitimieren, da auf diese Weise die Lenkung der Produktion

19

Als Beispiel dafür mag eine Rede des damaligen SPD-Vorsitzenden Erich Ollenhauer aus dem Jahr 1952 genügen, in der unter Berufung auf das Ziel der „sozialen Gerechtigkeit" u.a. die Überfuhrung der Schlüsselindustrien in Gemeineigentum gefordert wurde, vgl. DER SPIEGEL, 01.10.1952, S. 6-9. Vor diesem Hintergrund erklärt sich unmittelbar, warum insbesondere Röpke und Erhard auf die Missbrauchsanfälligkeit des Begriffs „soziale Gerechtigkeit" hinwiesen, siehe dazu die Zitate in Abschnitt I.

116

Christian Hecker

zumindest teilweise der Entscheidungskompetenz der Konsumenten entzogen und auf den Staat übertragen wird. Hierbei handelt es sich um eine Verletzung der Konsumentensouveränität, ohne dass ein unter Allokationsgesichtspunkten stichhaltiger Rechtfertigungsgrund, wie Marktversagen oder externe Effekte, vorliegt.20 Auch die dabei in der Regel zugrunde gelegten verteilungspolitischen Motive können als ethisch fundierter Begründungsansatz nicht überzeugen, da es sich hierbei um eine Privilegierung einzelner Gruppen von Bürgern durch den Staat handelt, die mit einer Einschränkung der Handlungsmöglichkeiten anderer Bürger einhergeht. Vor diesem Hintergrund lässt sich auch die Fundamentalkritik Friedrich A. von Hayeks, der das Wort „soziale Gerechtigkeit" ausschließlich als Instrument zur Verbrämung von Gruppenegoismen ansah (vgl. u.a. Hayek 1968, S. 258), zumindest bis zu einem gewissen Grade als Resultat des inflationären Ge-/Missbrauchs dieser Norm deuten.21 Auch in aktuellen wirtschafts- und sozialpolitischen Diskursen lässt sich eine derartige begriffliche Unscharfe vielfach feststellen, wobei selbst die Verwendung des Begriffs der Befahigungsgerechtigkeit vielfach nicht vor Missdeutungsgefahren schützt (vgl. Dabrock 2012). Daher bedarf auch dieser Gerechtigkeitsbegriff der Rückbindung an das Subsidiaritätsprinzip.

2. Befahigungsgerechtigkeit als Weg zur Verwirklichung der Menschenwürde Besondere ethische Relevanz gewinnt die Idee der Befahigungsgerechtigkeit als Ansatz zur Verwirklichung der Menschenwürde (vgl. dazu auch Nussbaum 2010, S. 104 f.). So zielt die Befahigungsgerechtigkeit darauf ab, möglichst jeden Menschen dazu in die Lage zu versetzen, eigenverantwortlich am ökonomischen und gesellschaftlichen Leben teilzunehmen und dadurch auch die Gesellschaft mitzugestalten. Dazu gehört unter anderem die Möglichkeit einer Lebensführung ohne Erleidung von Demütigungen oder entwürdigende Formen der Abhängigkeit, woraus individuelle Freiheits- bzw. Abwehrrechte, politische Mitwirkungsrechte und soziale Anspruchsrechte abgeleitet werden können, welche in ihrer Gesamtheit die notwendigen Bedingungen eines würdigen Lebens garantieren (vgl. Korff 1999, S. 217-219 sowie Dabrock 2012, S. 28-32). Ihren Ausdruck findet diese Kombination von Abwehr- und Anspruchsrechten in der Forderung, jedem Menschen eine Lebensführung zu ermöglichen, die ihm die Verfolgung eigener Zielsetzungen erlaubt. Damit intendiert diese Norm letztendlich, dass jeder Einzelne durch Interaktion mit seinen Mitmenschen bzw. der Gesellschaft sein Menschsein in vielfaltigerer Form entwickeln kann. Eine entscheidende Rolle spielt dabei die Gewährleistung grundlegender Freiheitsrechte, die eine freie Entfaltung der Persönlichkeit garantieren, wie sie auch in Artikel 2, Abs. 1 des Grundgesetzes gefordert wird. In diesem Zusammenhang sind

20

21

Die Steuerung der Produktion nach dem Prinzip der Konsumentensouveränität wurde bereits von Adam Smith postuliert (vgl. Smith 1961, Buch IV, Kapitel 8, S. 179). Auf die Auseinandersetzungen zwischen Hayek und den Vordenkern des Ordoliberalismus zum Begriff der „sozialen Gerechtigkeit" kann an dieser Stelle nicht näher eingegangen werden, vgl. dazu beispielsweise Nutzinger/Hecker (2008, S. 557-561).

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

117

neben formaler Entscheidungsfreiheit auch die tatsächlich vorliegenden Lebensgestaltungsmöglichkeiten relevant. Dazu zählt einerseits die Freiheit von staatlicher Bevormundung als Basis eines selbst bestimmten Lebens. Andererseits muss sichergestellt sein, dass jeder tatsächlich dazu in der Lage ist, für sein eigenes Wohlergehen zu sorgen, d.h., sich diejenigen Güter zu verschaffen und Fähigkeiten anzueignen, die für eine selbst bestimmte Lebensgestaltung erforderlich sind. In diesem Sinne dürfen auch die Machtunterschiede im privaten Bereich nicht so groß werden, dass Teilen der Bevölkerung grundlegende Handlungsmöglichkeiten vorenthalten werden.22 Mit der je einmaligen Würde jedes Menschen geht dementsprechend auch eine individuelle Verantwortungsfahigkeit und damit Verantwortung einher (vgl. EKD/DBK 1997, Tz. 120). Daher umfasst auch die Befähigungsgerechtigkeit das Postulat der Eigenverantwortung, das der Handlungs- und Entscheidungsfahigkeit des Individuums Rechnung trägt und damit der Gefahr einer Entmündigung bzw. Degradierung von Menschen zu passiven Adressaten von Hilfeleistungen entgegenwirkt. In diesem Sinne hat auch Benedikt XVI. in seiner Enzyklika Caritas in veritate darauf verwiesen, dass Solidarität ohne Subsidiarität zu einer Erniedrigung der Bedürftigen führen würde (vgl. Benedikt XVI. 2009, Tz. 57 f.). Demgemäß ist die Ermöglichung von Handlungsfreiheit untrennbar damit verbunden, dass jeder Handelnde auch die Folgen der Nutzung seiner Freiheitsrechte zu tragen hat und eine nachträgliche Nivellierung für den Regelfall ausgeschlossen wird. Eine Konsequenz dieses Postulates ist die möglichst umfassende Koppelung von Unterstützungsleistungen an die Mitwirkung der Empfänger, da zunächst jeder Einzelne selbst für die Gestaltung seines Lebens sowie die Schaffung der dafür erforderlichen Voraussetzungen verantwortlich ist. Die Verwirklichung von Befahigungsgerechtigkeit stellt damit nicht nur eine Bringschuld der Gesellschaft, sondern zugleich eine Holschuld des einzelnen Bürgers dar.

3. Befahigungsgerechtigkeit aus christlicher und liberaler Sicht: Konsenspunkte und Kontroversen Bereits in den letzten Abschnitten ist deutlich geworden, dass ein Gerechtigkeitsbegriff, der auf die Befähigung zu einer eigenverantwortlichen Lebensführung abzielt, zentrale Elemente christlich geprägter und liberaler Ordnungsvorstellungen aufgreift und weiterentwickelt. Das Postulat einer aktiven Befahigungspolitik zur Verbesserung von Lebensgestaltungsmöglichkeiten lässt sich im Rahmen des christlichen Denkens unmittelbar aus dem Gebot der Nächstenliebe bzw. der „vorrangigen Option für die Armen" ableiten, die als zentrale Folgerung der ethischen Maximen des Alten und Neuen Testamentes gilt (vgl. dazu u.a. EKD 2006, S. 45-47). Eine aus liberaler Sicht tragfähige Begründung ergibt sich, wenn man im Sinne Isaiah Berlins zwischen negativer und positiver Freiheit unterscheidet, wobei letztere mit dem Vorhandensein von Möglichkeiten zur aktiven Gestaltung des eigenen Lebens verbunden ist (vgl. Berlin 1969, 22

Unter diesem Gesichtspunkt hatte schon Euchen vor einer Dominanz der Wirtschaft durch private Machtpositionen gewarnt, siehe Abschnitt III.3.

118

Christian Hecker

S. 118-134). Auf der Unterscheidung zwischen diesen beiden Freiheitsbegriffen („freedom to act" vs. „freedom to achieve") baut auch der Capabilities-Approach von Sen auf (vgl. Sen 1994). Im Rahmen eines derartigen Ansatzes lässt sich die Befahigungsgerechtigkeit als zentrale Norm zur Verwirklichung positiver Freiheit identifizieren, da sie darauf abzielt, die einzelnen Bürger mit Möglichkeiten zur Gestaltung ihres Lebens auszustatten. Eine fundamentale Rolle nimmt auch in diesem Zusammenhang das Subsidiaritätsprinzip ein, das die Forderung nach einer Gewährleistung von Lebensgestaltungsmöglichkeiten bzw. Verwirklichung der „vorrangigen Option für die Armen" konkret mit Inhalt füllt, und zwar sowohl hinsichtlich der Erbringer notwendiger Hilfeleistungen als auch mit Blick auf die Art der zu gewährenden Unterstützung, nämlich als „Hilfe zur Selbsthilfe". Dabei erscheint dieses Prinzip aufgrund des darin zum Ausdruck kommenden Kompetenzanmaßungsverbots für staatliche Institutionen vor allem als Garant grundlegender Freiheitsrechte, die aus liberaler Sicht Ausdruck der Würde jedes Menschen sind, da sie einen essentiellen Bestandteil der menschlichen Natur darstellen. In der katholischen Soziallehre wird dieser Anspruch aus der Gottesebenbildlichkeit bzw. Gottesgeschöpflichkeit des Menschen abgeleitet. Aus protestantischer Sicht ist der Begriff der Gottesebenbildlichkeit mitunter kritisiert worden, da er die Gefahr in sich trage, von der Erlösungsbedürftigkeit des Menschen abzulenken. Daher wird die Menschenwürde in der evangelischen Theologie traditionell stärker mit der durch Christus zugesprochenen Gotteskindschafit begründet (vgl. Koch 1993, Sp. 701). In den letzten Jahrzehnten haben sich jedoch die Begründungsdiskurse hierzu auch konfessionsübergreifend deutlich angenähert.23 Kontroversen entzünden sich regelmäßig vor allem an der Frage, was im konkreten Falle zur Verwirklichung eines menschenwürdigen Lebens gehört bzw. wie die Relation von „Fördern" und „Fordern" im Einzelfall aussehen sollte. Umstritten ist dabei insbesondere, wie weit die Pflicht zur Unterstützung geht, wenn Chancen ganz offensichtlich nicht genutzt werden, beispielsweise indem Arbeitslose Arbeitsmöglichkeiten ausschlagen. Hier neigen theologisch begründete Stellungnahmen tendenziell dazu, die Unterstützungsbedürftigkeit gegenüber der Eigenverantwortung zu betonen (vgl. Dabrock 2012, S. 192-195). Diese Tendenz lässt sich zum einen auf die von kirchlicher Seite postulierte „vorrangige Option für die Armen" zurückführen. Zum anderen spielt dabei eine Rolle, dass auch der Begriff der Freiheit nach liberalem Verständnis und im Rahmen der christlichen Moraltheologie jeweils unterschiedliche Interpretationen erfahrt. So wird Freiheit aus liberaler Sicht als Vorliegen von Entscheidungs- bzw. Handlungsmöglichkeiten unabhängig von der Art ihrer Ausübung verstanden. Demgegenüber kann sowohl nach katholischem als auch nach evangelischem Verständnis Freiheit in letzter Konsequenz nur durch Bindung an Gott realisiert werden. Somit besteht Freiheit aus Sicht der Moraltheologie darin, das tun zu können, was der Verantwortung des Menschen vor Gott gerecht wird.24 Dies gilt auch für den Umgang mit privatem Eigentum, welches als 23

Vgl. dazu auch die gemeinsame Stellungnahme der EKD und der (katholischen) Deutschen Bischofs-

konferenz (EKD/DBK 1997, Tz. 93). 24

In diesem Sinne heißt es in der Enzyklika Centesimus annus: „Der Gehorsam gegenüber der Wahrheit über Gott und über den Menschen ist die erste Voraussetzung der Freiheit, da er ihm erlaubt, seine

.Soziale Gerechtigkeit" als Befahigungsgerechtigkeit

119

Gabe Gottes verstanden wird, die mit einer entsprechenden Verantwortung einhergeht. Dieses verschiedenartige Freiheitsverständnis beeinflusst auch das von Moraltheologen postulierte Verhältnis zwischen Individuum und Gesellschaft in dem Sinne, dass Beschränkungen liberaler Freiheits- und Eigentumsrechte zugunsten sozialer Institutionen bereitwilliger akzeptiert werden. Damit wird auch bei der in zahlreichen Fällen erforderlichen Abwägung zwischen den Zielen der Hilfeleistung und der Sicherung individueller Freiheitsrechte tendenziell leichter der Unterstützung der Vorzug gegeben, als es nach liberalem Verständnis angebracht wäre. Problematisch erscheint diese Tendenz insbesondere dann, wenn dabei ausgeblendet wird, dass Unterstützungsleistungen stets mit einer Belastung anderer einhergehen, so dass eine Vernachlässigung der Eigenverantwortung dazu führt, dass Verantwortungsträger über Gebühr in Anspruch genommen werden. Zudem besteht die Gefahr, dass dadurch die Schaffung von Wohlstand gegenüber der Verteilung in den Hintergrund tritt und aufgrund von Fehlanreizen Wohlstandseinbußen für die Gesellschaft insgesamt entstehen. Die Folge davon ist, dass anderen Menschen Verwirklichungschancen vorenthalten werden, die eigentlich verfugbar wären, und zusätzliche Unterstützungsbedürftigkeit bei Bevölkerungsgruppen entsteht, die sonst nicht hilfsbedürftig wären. Vor diesem Hintergrund erscheint es umso bedenklicher, wenn unter Berufung auf die „Option für die Armen" das Prinzip der Eigenverantwortung vernachlässigt wird oder anders ausgedrückt - die komplementären Ordnungsprinzipien der Subsidiarität und der Solidarität gegeneinander ausgespielt werden. Vielmehr ist eine Ausblendung des Grundsatzes der Eigenverantwortung nur bei Personen(-gruppen) mit besonderen Einschränkungen gerechtfertigt (siehe Abschnitt VI).

4. Befahigungsgerechtigkeit und Verantwortung Das Konzept der Befähigungsgerechtigkeit ist zudem eine grundlegende Voraussetzung dafür, dass die für liberale Gesellschaften konstitutive Verbindung von Freiheit und Verantwortung in der Praxis tatsächlich gelebt werden kann. Dabei liegt die zentrale Aufgabe des Staates darin, Menschen durch die Ausweitung der für sie realisierbaren Freiheiten auch in zunehmendem Maße verantwortungsfähig zu machen und konkret in die Verantwortung zu nehmen (vgl. auch Sen 1999, S. 283-285). Auch hierbei spielt das Subsidiaritätsprinzip eine entscheidende Rolle, denn erst Subsidiarität macht Freiheit in geordneter Form lebbar und Verantwortung in einer freiheitlichen Gesellschaft mit einer dynamischen Wirtschafts- und Sozialordnung umsetzbar. Dabei werden die notwendigen Einschränkungen individueller Freiheitsrechte, die sich aus der Verantwortung für die Aufrechterhaltung einer für alle Gesellschaftsmitglieder akzeptanzfahigen sozialen Ordnung - als Grundlage für die Verwirklichung persönlicher Freiheit - ergeben, auf ein möglichst niedriges Niveau beschränkt. Dies geschieht, indem staatliche Eingriffe an der Maxime ausgerichtet werden, Individuen in

Bedürfnisse, seine Wünsche und die Art und Weise ihrer Befriedigung einer rechten Hierarchie entsprechend zu ordnen, so dass der Besitz der Dinge für ihn ein Mittel zum Wachstum ist" (vgl. Johannes Paul II. 1991, Tz. 41).

120

Christian Hecker

ihrer Eigenständigkeit zu fordern, und dadurch zugleich unterstützend und freiheitssichemd wirken. In diesem Zusammenhang wird deutlich, dass die Übernahme jeglicher Verantwortung für die (Mit-)Gestaltung der Gesellschaft anhand ethischer Normen nur auf der Grundlage des Prinzips der Eigenverantwortung erfolgen kann. So erscheint der Grundsatz der Eigenverantwortung für die persönliche Lebensgestaltung und deren Konsequenzen als notwendige Voraussetzung dafür, dass weitergehende Verantwortung in konsistenter Form wahrgenommen werden kann. Ohne Eigenverantwortung jedes Einzelnen greifen auch weitergehende Verpflichtungen innerhalb einer Gesellschaft letztendlich ins Leere, mit der Folge, dass schließlich nur der Staat als Verantwortungsträger übrig bleibt. Da die Gesamtverantwortung des Staates für alle Aspekte des gesellschaftlichen Lebens in letzter Konsequenz nur zu einer Überforderung desselben fuhren kann, stellen die Prinzipien der Eigenverantwortung und der Subsidiarität eine notwendige Voraussetzung dafür dar, dass Verantwortung innerhalb einer Gesellschaft breit gestreut und damit effektiv wahrgenommen werden kann.25 So hat bereits Aristoteles verdeutlicht, dass für die konkrete Wahrnehmung von Verantwortung nichts schädlicher ist als die undifferenzierte Gesamtverantwortung einer zentralen Instanz (siehe Fußnote 2). Im Rahmen einer wirksamen Zuordnung von Verantwortung nach dem Subsidiaritätsprinzip liegt die zentrale Aufgabe staatlicher Instanzen in der Gewährleistung der Voraussetzungen dafür, dass alle übrigen Entscheidungsträger, d.h. vor allem Unternehmen und Bürger, ihre individuelle Verantwortung wahrnehmen können. Diese ordnungspolitische Grundregel gilt sowohl auf regionaler und nationaler als auch auf suprabzw. internationaler Ebene. Hierbei kommt die unter anderem von der kantianischen Ethik zu Grunde gelegte Feststellung zum Tragen, dass das konkrete Bestehen einer Pflicht in der Praxis an das Vorliegen der entsprechenden Handlungsfähigkeit gekoppelt ist.26 Von diesem Grundsatz ausgehend, hat bereits Euchen (1952, S. 368) darauf verwiesen, dass „von den Menschen nicht gefordert werden (darf), was allein die Wirtschaftsordnung leisten kann." In diesem Sinne macht auch die EKD-Denkschrift „Unternehmerisches Handeln in evangelischer Perspektive" unter ausdrücklicher Bezugnahme auf Eucken deutlich, wie wichtig es ist, Unternehmen durch Ordnungspolitik zur Wahrnehmung ihrer Verantwortung zu befähigen (vgl. EKD 2008, S. 53 f.). Innerhalb eines solchen subsidiaritätsfundierten Ordnungsgefüges werden die staatlichen Instanzen zu Verantwortungsträgern zweiter Stufe, denen die Aufgabe zukommt, alle anderen Akteure zur Wahrnehmung ihrer Verantwortung anzuhalten und zu befähigen (vgl. Fischer et al. 2008, S. 437). Das dafür erforderliche Instrumentarium um-

25

26

So hat bereits die Enzyklika Quadragesimo anno ihre Forderung nach einer Selbstbeschränkung des Staates im Sinne des Subsidiaritätsprinzips unter anderem damit begründet, dass der Staat dadurch diejenigen Aufgaben, die in seine Verantwortung fallen, wesentlich energischer angehen könne (vgl. Pius XI. 1931, Tz. 80). Ein dezidiert protestantisches Plädoyer für die Durchsetzung einer zwischen Staat, Privatpersonen und Zivilgesellschaft geteilten „Verantwortung für den Raum des Öffentlichen" auf der Grundlage des Subsidiaritätsprinzips bietet u.a. Schnabel (2011). Vgl. dazu Kant (2004, B835/A807, S. 781 f. sowie 2008, 1. Teil, 1. Buch, 1. Hauptstück, §§6 + 7, S. 47-51).

.Soziale Gerechtigkeit" als Befahigungsgerechtigkeit

121

fasst einerseits Sanktionen, um die Wahrnehmung von Verantwortung sicherzustellen. Die dazu komplementäre Aufgabe liegt in der Befähigung zur Übernahme der jeweiligen Verantwortung, wobei in erster Linie „Hilfe zur Selbsthilfe" mit dem Ziel der Durchsetzung des Prinzips der Eigenverantwortung von Bedeutung ist. Dass die Befähigung zur Verantwortungsübernahme nicht ohne die Durchsetzung von Verantwortung mittels Sanktionen praktikabel ist, ergibt sich daraus, dass andernfalls diejenigen Wirtschaftssubjekte, die sich so verantwortungslos wie möglich verhalten würden, im Vorteil wären und - wie bereits von Goetz Briefs (1957) als Gefahr eines Absinkens des Moralniveaus auf die sog. „Grenzmoral" dargelegt - eine Erosion der Verantwortungswahrnehmung drohen würde.27 Auch bei der Delegation von Kompetenzen auf eine übergeordnete, d.h. oftmals supra- oder internationale Ebene muss der Grundsatz der Eigenverantwortung vor allem in dem Sinne gewahrt bleiben, dass nur diejenigen Aufgaben verlagert werden, die aus objektiven Gründen, beispielsweise aufgrund von global relevantem Marktversagen, anders nicht gelöst werden können. Ein Versagen bei der nationalen politischen Entscheidungsfindung hingegen darf kein Motiv für eine Verlagerung von Entscheidungskompetenzen sein, da hierdurch die relevanten Probleme nicht gelöst würden und auch auf der übergeordneten politischen Ebene das Risiko eines Politikversagens - mit tendenziell noch höheren Kosten - besteht (vgl. Frieden 2012). Befahigungsgerechtigkeit, Eigenverantwortung und Subsidiarität erweisen sich daher als Ordnungsprinzipien, die sich gegenseitig ergänzen und in ihrer Gesamtheit für die Wahrnehmung der Verantwortung zur Verwirklichung einer menschenwürdigen Wirtschaftsordnung unabdingbar sind (vgl. auch Hecker 2012).

5. Befahigungsgerechtigkeit als umfassendes Ordnungsprinzip für natürliche und juristische Personen Wie bereits deutlich wurde, lassen sich komplementär zur wirtschaftspolitischen Verantwortung des Staates und zur Eigenverantwortung von Bürgern auch Verantwortungsbereiche von Unternehmen, Verbänden und anderen Wirtschaftssubjekten identifizieren, die eine befahigungsorientierte staatliche Ordnungspolitik voraussetzen und ergänzen. So erstreckt sich die Verantwortung von Unternehmen neben der Pflicht zur Einhaltung gesetzlicher Vorschriften unter anderem auf die konstruktive Mitwirkung bei Regulierungsvorhaben und die Gewährleistung menschenwürdiger Arbeitsverhältnisse. Hierbei handelt es sich um die Verpflichtung, im Sinne einer Corporate Citizenship an der Gestaltung des Gemeinwesens mitzuwirken und auf der Grundlage des Subsidiaritätsprinzips nur diejenigen Probleme der Verantwortung des Staates zu überlassen, die anderweitig nicht bewältigt werden können. Begründen lässt sich eine derartige Verantwortung in der Tradition eines liberalen Staats- und Gesellschaftsver-

27

Vgl. auch Brennan/Buchanan (1985, S. 60-64) sowie

Homann (2002,

S. 30 f.).

122

Christian Hecker

ständnisses (siehe Abschnitt III. 1) damit, dass es hierbei um die Sicherung der Grundlagen der eigenen Existenz im Rahmen einer freiheitlichen Wirtschaftsordnung geht.28 So liegt es, um ein Beispiel zu nennen, im Verantwortungsbereich jedes Unternehmens, durch Ausbildung in die eigene Zukunft zu investieren und zugleich jungen Menschen den Eintritt ins Berufsleben zu ermöglichen. Eine umfassende Integration von Schulabgängern in den Arbeitsmarkt wird jedoch nur dann gelingen, wenn der Staat, insbesondere durch Berufsschulen und die erforderlichen gesetzlichen Grundlagen (Berufsbildungsgesetz), die Voraussetzungen für ein leistungsfähiges System der dualen Ausbildung gewährleistet. Die Unternehmen haben hier nur dann eine Chance, ihre Verantwortung erfolgreich wahrzunehmen, wenn der Staat sie durch eine entsprechende Ordnungspolitik dazu befähigt.29 Hierbei wird deutlich, dass die Norm der Befahigungsgerechtigkeit nicht nur den einzelnen Bürger betrifft, zumal sich ein Großteil des wirtschaftlichen und sozialen Lebens der Bürger im Rahmen juristischer Personen, wie Unternehmen, verwirklicht. Daher spielen diese Institutionen auch bei der Umsetzung von Befahigungsgerechtigkeit eine zentrale Rolle. Dabei geht es - neben der Erreichung bestimmter Ziele wie Arbeitsmarktintegration - auch darum, den Entscheidungsträgern und allen übrigen Beschäftigten im Berufsalltag ein Handeln zu ermöglichen, das sie als moralisch integer empfinden. Schließlich stellt auch die Möglichkeit, ein Leben nach konsistenten Wertmaßstäben zu führen, einen elementaren Aspekt der Menschenwürde dar.30 Eine Wahrnehmung dieser (Mit-)Verantwortung durch Unternehmen ist jedoch nur dann realistisch, wenn die erforderlichen ordnungspolitischen Rahmenbedingungen durch den Staat gewährleistet werden. Demgemäß bezog sich auch die Auslegung der Norm der „sozialen Gerechtigkeit" im Rahmen des Ordoliberalismus und der katholischen Soziallehre auf die Gestaltung des gesamten Wirtschaftslebens und die Sicherstellung einer angemessenen Verantwortungsübernahme in allen Bereichen von Wirtschaft, Politik und Gesellschaft (siehe Abschnitte II. 1 und III.3). Gerade vor diesem Hintergrund stellt sich die Herausforderung, auch das Prinzip der Befahigungsgerechtigkeit dementsprechend zu interpretieren und als umfassendes Ordnungsprinzip zu verwirklichen, das sämtlichen Wirtschaftssubjekten ihre jeweiligen Verantwortungsbereiche zuweist und die Wahrnehmung dieser Verantwortung auch ermöglicht. Eine derartige Weiterentwicklung des Befähigungsansatzes von Sen im ordnungsökonomischen Sinne bietet die Möglichkeit, die Frage nach der Gewährleistung grundlegender Verwirklichungschancen mit der Erarbeitung konsistenter Ordnungsstrukturen zu verbinden, die auf sämtlichen Ebenen des Wirtschaftslebens eine Verbindung von Freiheit und Verantwortung ermöglichen. Auf diese Weise wird eine Befahigungspolitik möglich, die sämtliche Wirtschaftssubjekte als aktiv Mitwirkende einbezieht und in die Verantwortung nimmt.

28

29

30

Zum Thema Corporate Citizenship gibt es inzwischen eine umfangreiche Literatur, daher seien an dieser Stelle nur die ordnungsökonomisch orientierten Arbeiten von Heidbrink (2012) sowie Enste/ Hüther (2012) erwähnt. Überlegungen zum komplementären Charakter der Verantwortung von Staat und Unternehmen im Bereich der Ausbildung finden sich u.a. bei Brenke (2007). Dies ergibt sich beispielsweise aus den Überlegungen zur Grundfähigkeit der „praktischen Vernunft" bei Nussbaum (2010, S. 113).

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

123

Bei der praktischen Umsetzung der Befahigungsgerechtigkeit bestehen gleichwohl erhebliche Unterschiede zwischen Bürgern und Wirtschaftssubjekten im Sinne juristischer Personen. So liegt es auf der Hand, dass bei natürlichen Personen der Gesichtspunkt der Menschenwürde Befahigungsansprüche verleiht, die für juristische Personen nicht gelten, da bei diesen auch ein Marktaustritt in Kauf zu nehmen ist. Somit bedeutet eine Befähigung zu moralischem Handeln für Unternehmen lediglich die Gewährleistung eines adäquaten Ordnungsrahmens, jedoch keinen Anspruch auf Existenzsicherung unter allen Umständen.

6. Befähigungsgerechtigkeit aus Sicht der Wohlfahrtsökonomik Die bisherigen Überlegungen lassen sich noch aus wohlfahrtsökonomischer Sicht ergänzen. Zum einen kann eine primär an der Erweiterung von Befähigungen orientierte Politik einer Verdrängung bürgerlichen Engagements durch staatliche Maßnahmen entgegen wirken. So besteht die Gefahr, dass die Übernahme von Aufgaben durch den Staat dazu fuhrt, dass der Staat im Laufe der Zeit als alleiniger oder zumindest primärer Verantwortungsträger in diesem Bereich wahrgenommen wird und es zu einem crowding out privaten Engagements kommt. Beispiele dafür finden sich im Bereich der Bereitstellung vieler öffentlicher Güter und Allmendegüter.31 Gerade mit Blick auf das crowding ow/-Risiko bietet ein an den Befähigungen orientierter Politikansatz Möglichkeiten einer Verbindung von staatlicher Förderung mit privatem Engagement, indem die Eigeninitiative der direkt Betroffenen aufgegriffen und wenn möglich gestärkt wird, so dass sich staatliches und privates Engagement ergänzen und nicht gegenseitig verdrängen. So haben Michael Montgomery und Richard Bean (1999) am Beispiel wettergeschützter Fußgängerwege aufgezeigt, wie der Staat die Bereitstellung eines öffentlichen Gutes durch private Investoren fördern kann bzw. unter welchen Umständen es zu einer Verdrängung privaten Engagements kommt. Private Initiativen zur Bereitstellung eines öffentlichen Gutes lassen sich unter anderem fördern, indem gezielt Möglichkeiten zur Generierung eines privaten Zusatznutzens, beispielsweise durch Werbemaßnahmen, geschaffen werden, der die Kosten der Investoren senkt oder sogar Gewinnmöglichkeiten eröffnet. Auf diese Weise werden die Fähigkeiten direkt betroffener Interessengruppen zur Entwicklung eigenständiger und eigenverantwortlicher Lösungsansätze für das Angebot öffentlicher Güter erhöht. Für den Bereich der Allmendegüter hat Elinor Ostrom nachgewiesen, unter welchen Voraussetzungen die lokale Kooperation und Selbstüberwachung der Betroffenen sowohl einer dirigistischen staatlichen Regulierung als auch einer Privatisierung oder einem kompletten Laissez-faire überlegen ist (vgl. Ostrom 1990 sowie Ostrom 2009). Eine wichtige Voraussetzung für die Verwirklichung einer derartigen Optimallösung ist dabei laut Ostrom die Anerkennung der Selbstregulierungskompetenz der Betroffenen durch staatliche Instanzen, die sich als subsidiär gestaltete, befahigungsorientierte 31

Zur Problematik eines crowding out privaten Engagements durch die Bereitstellung öffentlicher Güter von Seiten des Staates vgl. u.a. Frey/Stutzer (2006) am Beispiel des Umweltschutzes.

124

Christian Hecker

Ordnungspolitik interpretieren lässt, da hier durch die staatlich bestimmte Rahmenordnung die Handlungsfähigkeit der direkt Betroffenen gestärkt wird (vgl. dazu auch Ostrom 2000, S. 152 f.). Für umfangreichere Allmende-Güter empfiehlt sich gemäß Ostrom ein mehrstufiger Regulierungsansatz in der Form, dass lokale Institutionen der Selbstverwaltung in komplexere Ordnungsstrukturen eingebettet werden, so dass entscheidungsrelevante Probleme auf der jeweils adäquaten Ebene gelöst werden können. Auch hierbei wird das Subsidiaritätsprinzip zur Grundlage einer effizienten und freiheitssichernden Allokationspolitik. Darüber hinaus führt eine Fokussierung auf die Erweiterung von Verwirklichungschancen zu einer Verringerung des Risikos, dass die Erwartung von Hilfeleistungen bei den Empfangern ein Nachlassen eigener Anstrengungen zur Folge hat. Auf diese Weise kann eine Form der Verwirklichung ethischer Postulate realisiert werden, welche die Fähigkeiten der Begünstigten einbezieht und diese mit in die Verantwortung nimmt. Im Vergleich zu anderen Vorschlägen zur Verwirklichung „sozialer Gerechtigkeit", beispielsweise durch Eingriffe in Marktprozesse, stellt sich dieser Weg somit auch deswegen als vorzugswürdig dar, weil er Ineffizienzen vermeidet und daher für die übrigen Bürger tendenziell mit geringeren Belastungen verbunden ist. Je nachdem, wie gut die Stärkung des Selbsthilfepotentials im Einzelfall funktioniert, kann auf diese Weise sogar die ökonomische Leistungsfähigkeit der Gesellschaft insgesamt gesteigert werden, so dass die Durchsetzung von Befähigungsgerechtigkeit auf der Grundlage des Subsidiaritätsprinzips in diesem Falle eine wirt-win-Option für alle Beteiligten darstellen würde. 32 Einen theoretischen Begründungsansatz für diese Herangehensweise bilden die beiden Hauptsätze der Wohlfahrtsökonomik, die aufzeigen, dass jedes Konkurrenzgleichgewicht unter bestimmten Voraussetzungen ein Paretooptimum darstellt und dass jedes gewünschte Paretooptimum durch ein derartiges Gleichgewicht erreicht werden kann, wenn man die Ausgangsbedingungen der Marktpartner entsprechend verändert (vgl. Sen 1987, S. 31-38).33 Dabei lässt sich die gegebenenfalls erforderliche Änderung der Ausgangsbedingungen als Stärkung der Handlungskompetenz unterstützungsbedürftiger Wirtschaftssubjekte im Sinne der Befähigungsgerechtigkeit deuten. Den dargelegten Effizienzgesichtspunkten kann auch eine moralische Qualität beigemessen werden, da Ineffizienzen stets mit einer Verringerung von Lebensgestaltungsmöglichkeiten verbunden sind, so dass durch ineffiziente Allokationsmechanismen Menschen Entwicklungspotentiale vorenthalten werden, die eigentlich verfügbar wären. Daher erscheint eine aus wohlfahrtsökonomischer Sicht effiziente Allokation auch als moralisches Gebot (vgl. Sen 1992, S. 7 f.).

32

33

Auf das an dieser Stelle vorliegende Potential zur Realisierung von Win- ^¡'«-Situationen verweisen u.a. Pies/Hielscher (2010). Den Hintergrund für die Begründung der Effizienzwirkung von Marktprozessen im Sinne der beiden Hauptsätze der Wohlfahrtsökonomie bildet der Modellansatz von Arrow und Debreu, vgl. dazu Sen (1999, S. 116-119).

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

125

7. Befähigungsgerechtigkeit in der wirtschaftspolitischen Praxis Betrachtet man die wirtschaftspolitischen Implikationen des Konzeptes der Befahigungsgerechtigkeit, so ergeben sich verschiedene Ebenen der Umsetzung, die vor allem in die Bereiche der Ordnungspolitik, Bildungspolitik und Sozialpolitik fallen. Für den Bereich der Ordnungspolitik stellt sich primär die Aufgabe, die Voraussetzungen dafür zu gewährleisten, dass Menschen ohne Einschränkungen und unter fairen Bedingungen am Marktwettbewerb teilnehmen können. So stellt das Versagen von Marktzutrittsmöglichkeiten eine schwere Beschränkung der Verwirklichungschancen von Menschen dar, die auch mit dem Schutz etablierter Marktteilnehmer vor zusätzlicher Konkurrenz nicht zu rechtfertigen ist (vgl. auch Sen 1999, S. 111-123). Zudem gilt es, Marktprozesse so zu regulieren, dass der Zusammenhang von Freiheit und Verantwortung gefordert wird, damit die Ausweitung von Verwirklichungschancen tatsächlich dazu fuhrt, dass die damit verbundene zusätzliche Verantwortung angemessen wahrgenommen wird. Eine wichtige Rolle spielt dabei die weitestmögliche Internalisierung externer Effekte, wie beispielsweise Umweltschäden, mit der Zielsetzung, Lasten möglichst verursachergerecht auszuweisen und eine Abwälzung der damit verbundenen Kosten auf Dritte bzw. die Allgemeinheit zu vermeiden. Nur so kann sichergestellt werden, dass an den Märkten tatsächlich ein Leistungswettbewerb zum Vorteil der Verbraucher entsteht und Unternehmen zur Wahrnehmung ihrer diesbezüglichen Verantwortung befähigt werden. 34 In diesem Zusammenhang ist zudem auf die Bedeutung des Haftungsprinzips als „konstituierendes Prinzip der Wettbewerbsordnung" zu verweisen, die bereits Eucken dargelegt hat. 35 Nicht zuletzt die noch immer andauernde Krise an den Finanzmärkten hat deutlich gemacht, dass eine Verletzung dieses grundlegenden Ordnungsprinzips unweigerlich zu hohen sozialen Kosten führt. So kam es gerade aufgrund der Verletzung des Haftungsprinzips zu vielfaltigen Formen von Moral Hazard in dem Sinne, dass Banken und andere Finanzmarktakteure durch die Vergabe fragwürdiger Kredite oder den Erwerb riskanter Wertpapiere hohe Risiken eingingen in der Erwartung, mögliche Verluste im Ernstfall nicht selbst tragen zu müssen. 36 Auch eine nachhaltige Krisenbewältigung muss daher auf den Prinzipien der Subsidiarität und der Eigenverantwortung basieren, beispielsweise indem Verluste so weit wie möglich den Verantwortlichen zugeordnet werden und nachträgliche Haftungsübernahmen ausgeschlossen werden (vgl. Hecker 2013). Dazu gehört auch die Stärkung der Fähigkeit von Wirtschaftssubjekten, die Haftung für die Folgen ihrer Entscheidungen im Krisenfall auch tatsächlich zu übernehmen, wie dies unter anderem durch die neuen Eigenkapitalregelungen für Banken (Basel III) intendiert wird. In diesem Zusammenhang ist auch die Schaffung eines rechtlichen Rahmens für die geordnete Abwicklung systemrelevanter Banken zu nennen, der jeglicher Spekulation auf staatliche Hilfsmaßnahmen

34

35

36

Vgl. dazu die Abgrenzung von Leistungs- und Nicht-Leistungswettbewerb bei Eucken (1952, S. 247) sowie Böhm (1933, S. 250-256). So hat Eucken u.a. für Kapitalgesellschaften eine Mithaftung des Managements gefordert hat. Vgl. dazu bspw. Eucken (1952, S. 279-285); dort bezieht sich Eucken ausdrücklich auch auf Röpke. Vgl. u.a. Hellwig (2010) zu Haftungsdefiziten auf verschiedenen Ebenen als Ursache der Finanzmarktkrise.

126

Christian Hecker

(d.h. die Suspendierung des Grundsatzes der Eigenverantwortung in der Zukunft!) glaubwürdig den Boden entzieht. Von einer tatsächlichen Verwirklichung der Idee der Befahigungsgerechtigkeit kann jedoch nur dann die Rede sein, wenn die dargelegten ordnungspolitischen Ansätze durch Maßnahmen ergänzt werden, die den Bürgern bei der Weiterentwicklung ihrer Befähigungen Unterstützung bieten. Wichtige Ansätze dafür liegen insbesondere im Bereich der Bildungspolitik. Hier muss es primär darum gehen, sämtlichen Bevölkerungsschichten Aus- und Weiterbildungsmöglichkeiten zu eröffnen, die sowohl die erfolgreiche Teilnahme am Marktwettbewerb als auch die Mitgestaltung der Gesellschaft durch politisches Engagement, ehrenamtliche Betätigung etc. fordern. Die Finanzierung muss dabei so gestaltet sein, dass niemand vom Zugang zu Bildung ausgeschlossen wird; dabei kann es jedoch zur Stärkung der Eigenverantwortung durchaus sinnvoll sein, die Nutznießer von Bildung an den damit verbundenen Kosten zu beteiligen, beispielsweise durch nachgelagerte bzw. nach sozialen Kriterien gestaffelte Studiengebühren. Hinzu kommen weitere Ansätze zur Erhöhung der Verwirklichungschancen von Bürgern, vor allem durch Erleichterung der (Wieder-)Eingliederung ins Erwerbsleben. So ist es, um ein Beispiel zu nennen, unter dem Gesichtspunkt der Befahigungsgerechtigkeit unvertretbar und mit den Grundsätzen einer Marktwirtschaft inkompatibel, Besitzstände, wie Arbeitsplätze in einzelnen Unternehmen oder Branchen, gegen ökonomische Herausforderungen abzusichern, da es sich hierbei um eine Privilegierung einzelner Interessengruppen handeln würde. Vertretbar und im Hinblick auf die Norm der Befahigungsgerechtigkeit sogar geboten erscheint hingegen ein System der sozialen Absicherung, das den Betroffenen einen beruflichen Neustart erleichtert, beispielsweise durch Umschulungen und Fördermaßnahmen, die allen Bürgern im Bedarfsfall offen stehen. Diese Herangehensweise entspricht auch dem komparativen Ansatz von Sen, da eine Gesellschaft, in der Menschen aufgrund (oftmals unvorhersehbarer) ökonomischer Veränderungen Gefahr laufen, den Anschluss an den Arbeitsmarkt zu verlieren, eindeutig als ungerecht bezeichnet werden kann, auch wenn sich hinsichtlich weiterer Fragen der Chancen- oder gar Einkommensverteilung kein gesellschaftlicher Konsens erzielen lässt. Einen weiteren Aspekt der Umsetzung von Befahigungsgerechtigkeit stellen Maßnahmen zur Vereinbarkeit von Familie und Beruf dar, die Menschen mit familiären Verpflichtungen den Zugang zur Erwerbstätigkeit und das Ergreifen von Qualifikationsund Karrieremöglichkeiten erleichtern. In den Verantwortungsbereich des Staates fällt hierbei insbesondere die Gewährleistung von Kinderbetreuungsmöglichkeiten. Komplementär dazu liegt es in der Verantwortung jedes Unternehmens, Arbeitsprozesse so zu gestalten, dass auch Mitarbeitern (und vor allem Mitarbeiterinnen) mit Familienpflichten Aufstiegsmöglichkeiten offen stehen. Hierzu bieten beispielsweise innovative Arbeitsformen wie Telearbeit oder vorübergehende Teilzeitmodelle eine Reihe von Ansatzpunkten, und es liegt letztendlich im wohlverstandenen Eigeninteresse von Unternehmen, das Qualifikationspotential dieser Beschäftigten so weitgehend wie möglich zu nutzen.

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

127

VI. Die Grenzen der Befahigungsgerechtigkeit An seine Grenzen gelangt das Konzept der Befahigungsgerechtigkeit vor allem bei Personengruppen, die aufgrund schwerwiegender Einschränkungen, wie insbesondere Behinderungen, nicht zu einer eigenverantwortlichen Lebensweise in der Lage sind und auch nicht dazu befähigt werden können. Hier wird es zumindest in bestimmten Fällen unumgänglich sein, den Rahmen der Befahigungsgerechtigkeit zu verlassen und andere Wege der Unterstützung bzw. Inklusion zu beschreiten. In diesem Sinne betont auch die EKD-Denkschrift „Gerechte Teilhabe" aus dem Jahre 2006, dass die Befähigungsgerechtigkeit in ein noch umfassenderes Konzept der Teilhabe- oder Beteiligungsgerechtigkeit eingeordnet werden sollte (vgl. EKD 2006, S. 43-49). Zumindest für bestimmte Personengruppen, wie Menschen mit besonderen Einschränkungen, kann dieser Argumentation durchaus gefolgt werden. 37 Jedoch sollte auch in diesem Zusammenhang das normative Postulat der Befahigungsorientierung, anstelle einer reinen Versorgungsorientierung, so weit wie möglich aufrechterhalten werden (vgl. dazu auch Nussbaum 2010, S. 270-275). Größere normative Probleme ergeben sich hingegen dort, wo Verwirklichungschancen aufgrund milieubedingter bzw. familiär verursachter Gründe nicht genutzt werden, beispielsweise indem in sozial schwachen Familien Hürden hinsichtlich der Inanspruchnahme verfugbarer Bildungsangebote bestehen. 38 Hier stellt sich die Frage, inwiefern der Staat in diesen Fällen eine zusätzliche Verantwortung an sich ziehen und beispielsweise die Nutzung von Bildungsangeboten - auch gegen den Willen betroffener Familien - erzwingen sollte. An dieser Stelle zeigt sich, dass auch ein befahigungsorientierter normativer Ansatz mit liberalen Freiheitsrechten kollidieren kann, so dass in diesem Falle eine sorgfältige Abwägung vorzunehmen ist.39 Einen Lösungsansatz bietet die Idee des Libertarian Paternalism, d.h. einer Intensivierung von Anreizen zur Inanspruchnahme von Angeboten, die insbesondere für den Bereich meritorischer Güter oftmals als sinnvoll erachtet wird (vgl. bspw. Sunstein/Thaler 2003). Mit Blick auf das dargestellte Problem im Bereich der Bildungspolitik könnte ein solcher Ansatz darauf hinauslaufen, zusätzliche Anreize - beispielsweise zur Inanspruchnahme von Kindergartenplätzen oder Angeboten zur Ganztagesbetreuung in Schulen - zu schaffen, die letztendliche Entscheidungskompetenz hingegen bei den Eltern zu belassen.

37

Vgl. dazu auch Dabrock (2012, S. 189-196), der sich hingegen dafür ausspricht, auch die Unterstützung dieser Personengruppen unter die Norm der Befähigungsgerechtigkeit zu subsumieren. Eine derartige Herangehensweise kann jedoch letztlich zu dem Problem führen, dass die speziellen Herausforderungen des Befähigungsansatzes, wie insbesondere die Verbindung von Unterstützung und Eigenverantwortung, in den Hintergrund geraten.

38

So spielt gerade in der Argumentation von Sen und Nussbaum die Abwägung anhand guter Gründe eine wichtige Rolle (siehe auch Fußnote 14), die jedoch in der Realität nicht in jedem Falle vorausgesetzt werden kann. So hat bereits Röpke (1950, S. 65-75) daraufhingewiesen, dass eine vollständige Angleichung der Startchancen nicht angebracht sei, da damit vielfaltige Kollisionen mit liberalen Freiheitsrechten einhergehen würden.

39

128

Christian Hecker

VII. Fazit Durch die Untersuchungen im Abschnitt V ist deutlich geworden, dass die freiheitssichernden, emanzipatorischen Inhalte der Norm der „sozialen Gerechtigkeit" christlicher und ordoliberaler Prägung in einer modernen Gesellschaft durch das Konzept der Befähigungsgerechtigkeit zur Verwirklichung gebracht werden sollten. Das Kernpostulat dieser Norm ist die Befähigung sämtlicher Bürger zu einer selbst gesteuerten, eigenverantwortlichen Lebensführung, die mit Möglichkeiten zur Mitgestaltung der Gesellschaft verbunden ist. Ein solcher befahigungsorientierter normativer Ansatz bietet nicht nur ein Regulativ der Sozialpolitik, sondern fördert zugleich die Wahrnehmung von Verantwortung in allen Bereichen von Wirtschaft und Gesellschaft, da sämtliche Entscheidungsträger, d.h. Bürger, Unternehmen, Verbände etc., als aktiv Mitwirkende angesprochen werden. So zielt die Befahigungsgerechtigkeit darauf ab, sämtliche Adressaten zur Übernahme ihrer jeweiligen Verantwortung zu befähigen. Durch eine solche Herangehensweise wird auch die Handlungsfähigkeit des Staates als „ordnender Potenz" (Euchen, 1952, S. 325) gestärkt, indem die Verantwortlichkeit staatlicher Instanzen wirksamer fokussiert und gegenüber anderen Verantwortungsbereichen, insbesondere auch der Eigenverantwortung von Bürgern oder Unternehmen, abgegrenzt wird. In diesem Sinne erweist sich das Konzept der Befahigungsgerechtigkeit als umfassendes Ordnungsprinzip, das die Verantwortungsfahigkeit von Bürgern, Unternehmen und Staat erhöht. Die in diesem Beitrag zugrunde gelegte historisch orientierte Herangehensweise kann dabei den Blick für die verschiedenen Implikationen der Befahigungsgerechtigkeit schärfen. So verweist ein Rückblick auf die Denktraditionen des Ordoliberalismus insbesondere auf die Bedeutung des Subsidiaritätsprinzips, da ohne dieses Grundprinzip laufende Zielkonflikte unvermeidbar wären. Schließlich ist Subsidiarität untrennbar verbunden mit dem Grundsatz der Eigenverantwortung und damit unerlässlich für die Einbindung von Freiheit und Emanzipation in gesellschaftliche Verantwortungskontexte. In diesem Zusammenhang kann ein Rückbezug auf die theoretischen Grundlagen des Ordoliberalismus und der katholischen Soziallehre auch dazu beitragen, die Idee einer subsidiaritätsfimdierten Befahigungsgerechtigkeit als umfassendes Ordnungsprinzip zu realisieren und die Notwendigkeit einer Verwirklichung normativ begründeter Zielsetzungen auf dem Wege der Ordnungspolitik neu zu fundieren. Auf diese Weise können zugleich die Voraussetzungen dafür geschaffen werden, dass Ordnungsökonomik und Moralphilosophie bzw. -theologie auch in Zukunft dialogund kooperationsfähig bleiben. Dies erscheint umso wichtiger, als der Begriff der Gerechtigkeit wohl auch künftig Gegenstand heftiger Kontroversen sein wird, so dass der hier skizzierte Dialog jeder Generation aufs Neue obliegt.

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

129

Literatur Anzenbacher, Arno (1998): Christliche Sozialethik. Einführung und Prinzipien, Paderborn u.a. Aristoteles (1995): Politik. Übersetzt von Eugen Rolfes, in: ders.: Philosophische Schriften, Band 4, Hamburg. Benedikt XVI. (2009): Caritas in veritate; http://www.vatican.va/holy_father/benedict_xvi/ encyclicals/documents/hf_ben-xvi_enc_20090629_caritas-in-veritate_ge.html (05.01.2013). Berlin, Isaiah (1969): Four essays on liberty, Oxford u.a. Böhm, Franz (1933): Wettbewerb und Monopolkampf. Eine Untersuchung zur Frage des wirtschaftlichen Kampfrechts und zur Frage der rechtlichen Struktur der geltenden Wirtschaftsordnung, Berlin. Bonhoeffer, Dietrich (2006): Ethik, Gütersloh, 2. Aufl. Brenke, Karl (2007): Ausbildung ausweiten und effektiv gestalten, in: Wochenbericht des DIW, 74, S. 437-443. Brennan, Geoffrey / Buchanan, James M. (1985): The reason of rules. Constitutional political economy, Cambridge (UK). Briefs, Goetz (1957): Grenzmoral in der pluralistischen Gesellschaft; in: Beckerath, Erwin von / Meyer, Fritz W. / Müller-Armack, Alfred (1957, Hrsg.): Wirtschaftsfragen der freien Welt, Frankfurt am Main, S. 97-108. Dabrock, Peter (2012): Befahigungsgerechtigkeit. Ein Grundkonzept konkreter Ethik in fundamentaltheologischer Perspektive, Gütersloh. Dietze, Constantin von / Eucken, Walter / Lampe, Adolf (1943): Wirtschafts- und Sozialordnung, in: Goldschmidt, Nils / Wohlgemuth, Michael (Hrsg., 2008): Grundtexte zur Freiburger Tradition der Ordnungsökonomik, Tübingen, S. 99-115. EKD / Evangelische Kirche in Deutschland (2006): Gerechte Teilhabe - Befähigung zu Eigenverantwortung und Solidarität. Eine Denkschrift des Rates der EKD zur Armut in Deutschland, Juli 2006; http://www.ekd.de/EKD-Texte/denkschrift_gerechte _teilhabe.html (28.04.2013). EKD (2008): Unternehmerisches Handeln in evangelischer Perspektive. Eine Denkschrift; http://www.ekd.de/download/ekd_unternehmer%281 %29.pdf (17.05.2013). EKD / DBK (1997): Für eine Zukunft in Solidarität und Gerechtigkeit. Wort des Rates der Evangelischen Kirche in Deutschland und der Deutschen Bischofskonferenz zur wirtschaftlichen und sozialen Lage in Deutschland; http://www.dbk.de/fileadmin /redaktion/veroeffentlichungen/gem-texte/GT_09.pdf (17.05.2013). Enste, Dominik H. / Hüther, Michael (2012): Bürgerschaftliches Engagement der Unternehmen im öffentlichen Raum, in: ORDO, 63, S. 293-324. Erhard, Ludwig (1964): Wohlstand für alle, Düsseldorf/Wien, 8. Auflage. Erhard, Ludwig (1976): Die Soziale Marktwirtschaft: Ein nach einheitlichen Prinzipien geordnetes System, in: Ludwig-Erhard-Stiftung e.V. (1988, Hrsg.): Grundtexte zur Sozialen Marktwirtschaft. Band 2: Das Soziale in der Sozialen Marktwirtschaft. Herausgegeben von Karl Hohmann et al., Stuttgart u.a., S. 17-19. Erhard, Ludwig (1988): Gedanken aus fünf Jahrzehnten, Reden und Schriften, hrsg. v. Karl Hohmann, Düsseldorf u.a. Eucken, Walter (1948): Das ordnungspolitische Problem, in: ORDO, 1, S. 56-90. Eucken, Walter (1952): Grundsätze der Wirtschaftspolitik, Bern/ Tübingen. Fischer, Johannes / Gruden, Stefan / Imhof, Esther / Strub, Jean-Daniel (2008): Grundkurs Ethik. Grundbegriffe philosophischer und theologischer Ethik, Stuttgart, 2. Aufl. Frey, Bruno S. / Stutzer, Alois (2006): Environmental morale and motivation; Working paper, Institute for Empirical Research in Economics, University of Zürich. Frieden, Jeffry (2012): Global Economic Governance After the Crisis, in: Perspektiven der Wirtschaftspolitik, 13 (Sonderheft), S. 1-12. Gall, Lothar (1989): Bürgertum in Deutschland, Berlin. Gundlach, Gustav (1964): Die Ordnung der menschlichen Gesellschaft. Herausgegeben von der Katholischen Sozialwissenschaftlichen Zentralstelle Mönchengladbach, Köln, Band 1. Hayek, Friedrich August von (1968): Der Wettbewerb als Entdeckungsverfahren, in: ders. (1969): Freiburger Studien. Gesammelte Aufsätze, Tübingen, S. 249-265.

130

Christian Hecker

Hecker, Christian (2008): Lohn- und Preisgerechtigkeit. Historische Rückblicke und aktuelle Perspektiven unter besonderer Berücksichtigung der christlichen Soziallehren, Marburg. Hecker, Christian (2011): Soziale Marktwirtschaft und Soziale Gerechtigkeit - Mythos, Anspruch und Wirklichkeit. Die Konzeptionen des Ordoliberalismus und die praktische Wirtschaftspolitik in der bundesdeutschen Nachkriegsgeschichte unter besonderer Berücksichtigung der wirtschaftsethischen Leitmotive, in: Zeitschrift für Wirtschafts- und Unternehmensethik (zfwu), S. 269-294. Hecker, Christian (2012): Subsidiarität und Eigenverantwortung als freiheitliche Ordnungsprinzipien, in: Orientierungen zur Wirtschafts- und Gesellschaftspolitik, 132, S. 27-31. Hecker, Christian (2013): Managergehälter und Bankerboni: Ein Aufgabenfeld der Ordnungspolitik, in: Orientierungen zur Wirtschafts- und Gesellschaftspolitik, 136, S. 46-51. Heidbrink, Ludger (2012): Unternehmen als politische Akteure. Eine Ortsbestimmung zwischen Ordnungsverantwortung und Systemverantwortung, in: ORDO, 63, S. 203-232. Hellwig, Martin (2010): Finanzkrise und Reformbedarf; Preprints of the Max Planck Institute for Research on Collective Goods Bonn 2010/19. Hettling, Manfred (2005): Bürgerlichkeit im Nachkriegsdeutschland, in: Hettling, Manfred / Ulrich, Bernd (Hrsg.): Bürgertum nach 1945, Hamburg, S. 7-37. Hettling, Manfred (2010): „Gemeinsinn" in der bürgerlichen Gesellschaft, Martin-LutherUniversität Halle-Wittenberg, Internationales Graduiertenkolleg: „Formenwandel der Bürgergesellschaft - Japan und Deutschland im Vergleich", Nr. 07/2010. Hettling, Manfred / Hofftnann, Stefan-Ludwig (1997): Der bürgerliche Wertehimmel. Zum Problem individueller Lebensführung im 19. Jahrhundert, in: Geschichte und Gesellschaft, 23, S. 333-359. Homann, Karl (2002): Vorteile und Anreize. Zur Grundlegung einer Ethik der Zukunft, Tübingen. Humboldt, Wilhelm von (1995): Ideen zu einem Versuch, die Grenzen der Wirksamkeit des Staats zu bestimmen, Stuttgart. Johannes XXIII. (1961): Mater et magistra; http://www.vatican.va/holy_father/ john_xxiii/encyclicals/documents/hfj-xxiii_enc_l 505196 l_mater_ge.html (05.01.2013). Johannes XXIII. (1963): Pacem in terris; http://www.vatican.va/holy_father/john_xxiii/ encyclicals/documents/hf j-xxiii_enc_l 1041963_pacem_ge.html (05.01.2013). Johannes Paul II. (1991): Centesimus annus; http://www.vatican.va/holy_father/ john_paul_ii/encyclicals/documents/hfjp-ii_enc_0105199 l_centesimus-annus_ge.html (05.01.2013). Kant, Immanuel (1968): Grundlegung zur Metaphysik der Sitten, in: Kants Werke. AkademieAusgabe, Band IV, Berlin (West), S. 385-463. Kant, Immanuel (1977a): „Über den Gemeinspruch: Das mag in der Theorie richtig sein, taugt aber nicht für die Praxis", in: ders.: Schriften zur Anthropologie, Geschichtsphilosophie und Pädagogik 1, Werkausgabe Band XI, herausgegeben von Wilhelm Weischedel, Frankfurt am Main, S. 143-164. Kant, Immanuel (1977b): Die Metaphysik der Sitten, Werkausgabe Band VIII, Berlin. Kant, Immanuel (2004): Kritik der reinen Vernunft, Theoretische Philosophie. Texte und Kommentar, Band 1, Herausgegeben von Georg Mohr, Berlin. Kant, Immanuel (2008): Kritik der praktischen Vernunft. Herausgegeben von Joachim Kopper, Stuttgart. Karrenberg, Friedrich (1959): Gestalt und Kritik des Westens. Beiträge zur christlichen Sozialethik heute, Stuttgart. Koch, Traugott (1993): Menschenwürde, in: Enderle, Georges et al. (Hrsg.): Lexikon der Wirtschaftsethik, Freiburg im Breisgau u.a., Sp. 699-705. Kocka, Jürgen (1995): Das europäische Muster und der deutsche Fall, in: ders. (Hrsg.): Bürgertum im 19. Jahrhundert, Band 1: Einheit und Vielfalt Europas, Göttingen, S. 9-84. Kocka, Jürgen (2001): Das lange 19. Jahrhundert. Arbeit, Nation und bürgerliche Gesellschaft, Gebhard Handbuch der deutschen Geschichte, Band 13. Korff, Wilhelm (1999): Der sozialethische Paradigmenwechsel: Voraussetzungen und Konsequenzen; in: Korff, Wilhelm et al. (Hrsg.): Handbuch der Wirtschaftsethik, Gütersloh, Band 1, S. 212-225.

.Soziale Gerechtigkeit" als Befahigungsgerechtigkeit

131

Leo XIII. (1891): Rerum novarum; http://www.vatican.va/holy_father/leo_xiii/encyclicals/ documents/hf_l-xiii_enc_l 505189 l_rerum-novarum_en.html; deutsch: http://www.uibk. ac.at/ theol/leseraum/texte/320.html (05.01.2013). Losinger, Anton (1999): Das Subsidiaritätsprinzip und sein Einfluß auf das Menschen- und Gesellschaftsbild der Katholischen Soziallehre, in: Mückl, Wolfgang J. (Hrsg.): Subsidiarität. Gestaltungsprinzip für eine freiheitliche Ordnung in Staat, Wirtschaft und Gesellschaft, Paderborn u.a., S. 35-48. Luhmann, Niklas (1995): Jenseits der Barbarei, in: ders. (1995): Gesellschaftsstruktur und Semantik. Studien zur Wissenssoziologie der modernen Gesellschaft, Band 4, Frankfurt (Main), S. 138-150. Mettele, Gisela (2003): Bürgerliches Selbstverständnis und Verantwortung für die Stadt - Das Kölner Wirtschaftsbürgertum im frühen 19. Jahrhundert, in: Soenius, Ulrich S. (Hrsg.): Bewegen - Verbinden - Gestalten. Unternehmer vom 17. bis zum 20. Jahrhundert, Festschrift für Klara van Eyll zum 28. September 2003, Köln, S. 55-62. Montgomery, Michael R. / Bean, Richard (1999): Market failure, government failure, and the private supply of public goods, in: Public Choice, 99, S. 403-437. Nell-Breuning, Oswald (1955): Zur Sozialreform. Erwägungen zum Subsidiaritätsprinzip, in: Stimmen der Zeit, 81, S. 1-11. Nell-Breuning, Oswald (1984): Subsidiarität - Ein katholisches Prinzip? in: Kramer, Wolfgang / Spangenberger, Michael (Hrsg.): Gemeinsam für die Zukunft. Kirchen und Wirtschaft im Gespräch, Köln, S. 226-255. Nell-Breuning, Oswald von (1985): Gerechtigkeit und Freiheit. Grundzüge katholischer Soziallehre, München, 2. Aufl. Nussbaum, Martha C. (1995): Human Capabilities, Female Human Beings; in: Nussbaum, Martha / Glover, Jonathan (Hrsg.): Women, Culture and Development. A Study of Human Capabilities, Oxford, S. 61-104. Nussbaum, Martha C. (2000): Women and Human Development. The Capabilities Approach, Cambridge, UK. Nussbaum, Martha C. (2003): Capabilities as Fundamental Entitlements: Sen and Social Justice; in: Feminist Economics, 9, S. 33-59. Nussbaum, Martha C. (2010): Die Grenzen der Gerechtigkeit. Behinderung, Nationalität und Spezieszugehörigkeit, Berlin. Nutzinger, Hans G. / Hecker, Christian (2008): Gerechtigkeit in der Ökonomie - ein unlösbarer Widerspruch? in: Leviathan, 36, S. 543-575. Ostrom, Elinor (1990): Governing the commons: The evolution of institutions for collective action, Cambridge, UK /New York, NY. Ostrom, Elinor (2000): Collective Action and the Evolution of Social Norms, in: Journal of Economic Perspectives, 14, S. 137-158. Ostrom, Elinor (2009): Beyond Markets and States: Polycentric Governance of Complex Economic Systems, Prize Lecture, December 8, 2009; http://www.nobelprize.org/ nobel_prizes/economics/laureates/2009/ostrom-lecture.html (05.01.2013). Pieper, Stefan Ulrich (1994): Subsidiarität. Ein Beitrag zur Begrenzung der Gemeinschaftskompetenzen, Köln u.a. Pies, Ingo / Hielscher, Stefan (2010): Wirtschaftliches Wachstum durch politische Konstitutionalisierung: Ein ordonomischer Beitrag zur „conceptual history" der modernen Gesellschaft, Diskussionspapier Nr. 2010-6 des Lehrstuhls für Wirtschaftsethik an der MartinLuther-Universität Halle-Wittenberg, Halle. Pius XI. (1931): Quadragesimo anno; http://www.vatican.va/holy_father/pius_xi/encyclicals/ documents/hf_p-xi_enc_ 19310515_quadragesimo-anno_lt.html; deutsch: http://www.uibk. ac.at/theol/leseraum/texte/319.html (05.01.2013). Rawls, John (1973): A Theory of Justice, Cambridge, MA, 6. Auflage. Röpke, Wilhelm (1944): Die Enzyklika „Quadragesimo Anno" in der heutigen Diskussion, in: Schweizer Rundschau, Mai 1944, S. 88-97. Röpke, Wilhelm (1948): Die Gesellschaftskrisis der Gegenwart, Erlenbach-Zürich, 5. Auflage. Röpke, Wilhelm (1950): Mass und Mitte, Erlenbach-Zürich. Röpke, Wilhelm (1955): Ethik und Wirtschaftsleben, in: ders. (2009): Marktwirtschaft ist nicht genug. Gesammelte Aufsätze, Waltrop, S. 270-288.

132

Christian Hecker

Röpke, Wilhelm (1958): Jenseits von Angebot und Nachfrage, Erlenbach-Zürich/ Stuttgart. Röpke, Wilhelm (I960): Wirtschaft und Moral, in: Rüstow, Alexander et al. (1960, Hrsg.): Was wichtiger ist als Wirtschaft, Ludwigsburg, S. 17-31. Röpke, Wilhelm (1964): Wort und Wirkung, Ludwigsburg. Rotteck, Carl von (1838): Gemeinde, in: Rotteck, Carl von / Welcker, Carl (Hrsg.): StaatsLexikon oder Encyklopaedie der Staatswissenschaften in Verbindung mit vielen der angesehensten Publicisten Deutschlands, Altona, Band 6, S. 390-428. Roth, Ralf (2005): Wirtschaftsbürger als Werteproduzenten, in: Hahn, Hans-Werner / Hein, Dieter (Hrsg.): Bürgerliche Werte um 1800. Entwurf - Vermittlung - Rezeption, Köln u.a., S. 95-118. Rüstow, Alexander (1950): Das Versagen des Wirtschaftsliberalismus, Düsseldorf: Küpper, 2. Aufl. Rüstow, Alexander (1955): Wirtschaftsethische Probleme der sozialen Marktwirtschaft, in: Boarman, Patrick M. (Hrsg., 1955): Der Christ und die soziale Marktwirtschaft, Stuttgart/Köln, S. 53-74. Schnabel, Patrick R. (2011): Subsidiarität - Anmerkungen zu einem Kernbegriff unserer Gesellschaftsordnung; http://www.ekd.de/bevollmaechtigter/bruessel/77527.html (05.01.2013). Schöpsdau, Walter (1996): Subsidiaritätsprinzip, in: Evangelisches Kirchenlexikon, 4. Band, Göttingen, Sp. 539 f. Schumann, Olaf J. / Nutzinger, Hans G. (2009): Ordoliberalismus und Gerechtigkeit: Zum Verhältnis von Eucken und Kant; Joint Discussion Paper Series in Economics by the Universities of Aachen, Gießen, Göttingen, Kassel, Marburg, Siegen, No. 48-2009. Sen, Amartya K. (1987): On Ethics and Economics, Oxford. Sen, Amartya K. (1992): Inequality Reexamined, Oxford et al. Sen, Amartya K. (1993): Capability and Well-Being, in: Nussbaum, Martha C. / Sen, Amartya K. (Hrsg.): The Quality of Life, Oxford, S. 30-53. Sen, Amartya K. (1994): Markets and the Freedom to Choose, in: Siebert, Horst (Hrsg.): The ethical foundations of the market economy. International workshop, Tübingen, S. 123-138. Sen, Amartya K. (1999): Development as Freedom, Oxford. Sen, Amartya K. (2009a): Introduction, in: Smith, Adam (2009). Sen, Amartya K. (2009b): The Idea of Justice, Cambridge, MA. Smith, Adam (1961): An Inquiry into the Nature and Causes of the Wealth of Nations, 2 Bände, London. Smith, Adam (2009): The Theory of Moral Sentiments, London. Thaler, Richard H. / Sunstein, Cass R. (2003): Libertarian Paternalism, in: The American Economic Review, 93 (2), Papers and Proceedings of the One Hundred Fifteenth Annual Meeting of the American Economic Association, Washington, D.C., January 3-5, 2003, S. 175179. Taparelli, Aloys (1845): Versuch eines auf Erfahrung begründeten Naturrechts. Aus dem Italienischen übersetzt von Dr. Fridolin Schöttl und Dr. Carl Rinecker, Band 1, Regensburg. Thomas von Aquin (o.J.): Summa Theologiae II/II; http://www.logicmuseum.com/authors/ aquinas/summa/Summa-IIb-64-76.htm#q66a2argl (05.01.2013). Ulrich, Bernd (2005): Bremer Spätbürger. Städtische Tradition und bürgerlicher „Geist" nach 1945, in: Hettling, Manfred / Ulrich, Bernd (Hrsg.): Bürgertum nach 1945, Hamburg, S. 222254.

.Soziale Gerechtigkeit" als Befähigungsgerechtigkeit

133

Zusammenfassung Die Idee der „sozialen Gerechtigkeit", wie sie von den Vordenkern des Ordoliberalismus auf der Grundlage normativer Überlegungen aus der katholischen Soziallehre entwickelt wurde, zielt darauf ab, sämtliche Bürger auf der Grundlage des Subsidiaritätsprinzips zu einer eigenverantwortlichen Lebensführung zu befähigen. Daher sollte dieses normative Postulat in der heutigen Zeit als Befahigungsgerechtigkeit interpretiert und umgesetzt werden, wozu der Ansatz von A. Sen wesentliche Impulse liefern kann. Von zentraler Bedeutung ist dabei die Ausstattung aller Bürger mit Möglichkeiten zur Mitwirkung am ökonomischen und gesellschaftlichen Leben auf der Grundlage des Prinzips der Eigenverantwortung. Darüber hinausgehend zielt die Befähigungsgerechtigkeit darauf ab, sämtliche Akteure, d.h. Bürger, Unternehmen und Staat, zur Wahrnehmung ihrer jeweiligen Verantwortung zu befähigen. Eine derartige Herangehensweise stellt eine wesentliche Voraussetzung dafür dar, dass Freiheit und Verantwortung auf allen Ebenen des Wirtschaftslebens in Verbindung gebracht werden können.

Summary: "Social justice" and capabilities: Subsidiarity and individual responsibility in liberalism and Christian moral theology The idea of "social justice", as it was publicized by Ordo-liberal economists based on Catholic social teaching, aims at providing all citizens with opportunities to live their life independently and on their own responsibility. Thus, this idea of justice bears significant analogies to the capabilities approach of A. K. Sen. Therefore, "social justice" should nowadays be interpreted as a norm to improve people's capabilities to participate in social and economic life. In this context, the principle of subsidiarity plays a very important role as a link between Christian moral theology and liberal economic thinking. Besides this, the subsidiarity principle is closely connected with the norm of individual responsibility, which is a crucial point for combining liberty and responsibility.

Wirtschaftspolitik und Governance

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Ute Schmiel

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel? Inhalt I. Einleitung

137

II. Handlungstheorie und Marktordnungskonzept 139 1. Handlungstheorie betriebswirtschaftlich-neoklassischer Gleichmäßigkeit und evolutorische Handlungstheorie 139 2. Marktordnungskonzept betriebswirtschaftlich-neoklassischer Gleichmäßigkeit und evolutorisches Marktordnungskonzept 142 III. Handlungstheorie und Marktordnungskonzept unter Berücksichtigung von Steuern 1. Handlungstheorie betriebswirtschaftlich-neoklassischer Gleichmäßigkeit und evolutorische Handlungstheorie unter Berücksichtigung von Steuern. 2. Marktordnungskonzept betriebswirtschaftlich-neoklassischer Gleichmäßigkeit und evolutorisches Marktordnungskonzept unter Berücksichtigung von Steuern IV. Betriebswirtschaftlich-neoklassische Gleichmäßigkeit versus evolutorische Gleichmäßigkeit V. Ergebnis

145 145

148 153 155

Literatur

157

Zusammenfassung

161

Summary: Equability of Taxation - an economic based approach of taxation? ... 162

I. Einleitung Das Bundesverfassungsgericht sieht die Gleichmäßigkeit der Besteuerung als ein elementares Besteuerungsziel an: „Der Gleichheitssatz des Art. 3 Abs. 1 GG", so führt das Bundesverfassungsgericht aus, „verlangt fiir das Steuerrecht, dass die Steuerpflichtigen durch ein Steuergesetz rechtlich und tatsächlich gleich belastet werden" (BVerfG 2005, S. 94; BVerfG 2012, S. 2720). Auch in den Steuerrechtswissenschaften wird die fundamentale Bedeutung der Gleichmäßigkeit der Besteuerung herausgestellt (siehe den Überblick bei Hey 2012a, S. 88-100). Der Gleichheitssatz des Art. 3 Abs. 1 GG wird in der Rechtsprechung des Bundesverfassungsgerichts (auch) im Hinblick auf die Besteuerung durch das Gebot konkretisiert, „wesentlich Gleiches gleich und wesentlich Ungleiches ungleich zu behandeln" (BVerfG 2009a, S. 17; BVerfG 2009b, S. 265;

138

Ute Schmiel

BVerfG 2010a, S. 277; BVerfG 2010b, S. 416; BVerfG 2012, S. 2720). Diese Auslegung wirft die Frage auf, wann Sachverhalte als gleich oder ungleich anzusehen sind. Beispielsweise, ob Personen- und Kapitalgesellschaften gleiche Sachverhalte darstellen, so dass Gleichmäßigkeit der Besteuerung deren gleiche Besteuerung voraussetzt oder ob eine gleichmäßige Besteuerung nicht gerade erfordert, dass Unterschiede zwischen Personen- und Kapitalgesellschaften auch in der Besteuerung Berücksichtigung finden. Die Beantwortung der Frage, wann Sachverhalte als gleich oder ungleich anzusehen sind, hat damit offensichtlich neben einer ethischen auch eine erfahrungswissenschaftliche Dimension (implizit Wagner 2012, S. 661; zur ethischen Dimension Birk 2011). Im Hinblick auf diese erfahrungswissenschaftliche Dimension stellt sich die Frage, wie Gleichmäßigkeit der Besteuerung durch ökonomische Theorien konkretisiert werden kann und auf welche ökonomischen Theorien rekurriert werden sollte. Diese Frage wird in diesem Beitrag aus der Perspektive der Betriebswirtschaftlichen Steuerlehre erörtert (siehe hingegen zu einem umfassenden Überblick über verschiedene finanzwissenschaftliche Konkretisierungen von Gleichmäßigkeit Schulemann 2008, S. 7-57). Wenn in der Betriebswirtschaftlichen Steuerlehre im Kontext der Gleichmäßigkeit der Besteuerung auf ökonomische Theorien rekurriert wird, erfolgt in der Regel ein neoklassischer Zugriff (Wagner 1992, S. 4-6; Wagner 2003, S. 377; Sureth 2006, S. 17; Hundsdoerfer/Kiesewetter/Sureth 2008, S. 68-70). Eine Ausnahme hierzu bildet Dieter Schneider, der Gleichmäßigkeit der Besteuerung evolutorisch fundiert. Dieter Schneider leitet aus einer in Anlehnung an Friedrich A. von Hayek explizierten Wettbewerbsordnung unter Regeln gerechten Verhaltens Gleichmäßigkeit der Besteuerung als Besteuerungsziel ab. Mit seinem Bezug auf Friedrich A. von Hayek bleibt Dieter Schneider einer auf ein gesamtwirtschaftliches Ergebnis bezogenen Effizienz verhaftet {Fehl/Schreiter 2000, S. 119). Dieser Beitrag greift die evolutorische Konkretisierung der Gleichmäßigkeit von Dieter Schneider auf, rekurriert aber im Gegensatz zu diesem in weiten Teilen auf den marktprozessorientierten Ansatz von Viktor Vanberg und konkretisiert Gleichmäßigkeit unter Bezugnahme auf evolutorische Steuerwirkungshypothesen.1 Anliegen des Beitrags ist die ökonomische Fundierung des vom Bundesverfassungsgericht vorgelegten Gleichmäßigkeitsverständnisses, es geht nicht um die Entwicklung eines anderen Gleichmäßigkeitsverständnisses. Das Bundesverfassungsgericht beschränkt Gleichmäßigkeit auf die gleichmäßige Besteuerung, bezieht also den Nutzen des Steuerpflichtigen aus der Steuerzahlung nicht mit ein (siehe zu Prämissen für eine solche Trennung Buchanan 1967, S. 223 und Schulemann 2008, S. 54-57). Ferner subsumiert das Bundesverfassungsgericht unter Gleichmäßigkeit auch die ungleiche Behandlung von Ungleichem im Sinne einer relativen Gleichbehandlung von Sachverhalten, während die betriebswirtschaftliche und finanzwissenschaftliche Literatur häufig Gleichmäßigkeit auf die Gleichbehandlung von Gleichem beschränkt (siehe Hundsdoerfer/Kiesewetter/Sureth 2008, S. 70 f.; Homburg 2010, S. 205-210). Dieser Unterschied relativiert sich aber, wenn man bedenkt, dass das Bundesverfassungsgericht nicht die 1

Diese marktprozessorientierte Fundierung der Gleichmäßigkeit ist in der Betriebswirtschaftlichen Steuerlehre bisher nicht gewählt worden. Siehe zu einer an Buchanan angelehnten marktprozessorientierten Fundierung Eischen (1989, S. 313-316), allerdings nicht zu einer marktprozessorientierten Gleichmäßigkeit, sondern zur marktprozessorientierten Entscheidungsneutralität.

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

139

Steuerhöhe auf ungleiche Sachverhalte - einschließlich der Frage der Umverteilung erörtert, sondern losgelöst von einer nachfolgenden Tarifdiskussion „nur" thematisiert, wie ungleiche Sachverhalte in die Bemessungsgrundlage einbezogen werden. Evolutorische Gleichmäßigkeit wird hier im Vergleich zu der in der Betriebswirtschaftlichen Steuerlehre vorgetragenen neoklassischen Gleichmäßigkeit (im Folgenden betriebswirtschaftlich-neoklassische Gleichmäßigkeit) entwickelt. Dazu ist es erforderlich, diese betriebswirtschaftlich-neoklassische Gleichmäßigkeit zunächst zu rekonstruieren. Rekonstruktion wird dabei in einem von wissenschaftstheoretischen Positionen losgelösten Verständnis des Nachdenkens bzw. Nachfindens verstanden (Mittelstraß 1995, S. 550). Diese betriebswirtschaftlich-neoklassische Gleichmäßigkeit wird als theoretische Folie verwandt (siehe zu einer solchen Vorgehensweise auch Wegner 2012, S. 130), vor deren Hintergrund die evolutorische Gleichmäßigkeit entwickelt wird. Beides - die Rekonstruktion betriebswirtschaftlich-neoklassischer Gleichmäßigkeit und die Entwicklung evolutorischer Gleichmäßigkeit - erfolgt in den Kapiteln II und III. In Kapitel II geht es um Hypothesen über das Handeln von Wirtschaftssubjekten, die Ziele einer Marktordnung sowie die Realisierbarkeit dieser Ziele vor dem Hintergrund der Handlungshypothesen. Kapitel III erweitert diese Fragen um Steuern, nimmt also Steuerwirkungshypothesen, die Ziele für die Ausgestaltung der Steuerrechtsordnung und deren Realisierbarkeit vor dem Hintergrund von Steuerwirkungshypothesen in den Blick. Weder die Begründung von Gleichmäßigkeit noch die Entscheidung für eine betriebswirtschaftlich-neoklassische oder für eine evolutorische Gleichmäßigkeit sind als „Letztbegründung" zu verstehen. Vielmehr wird ein kritisch-rationalistisches Methodologieverständnis in Anlehnung an Hans Albert vertreten. Im Sinne einer solchen Erörterung von Alternativen (Albert 2001, S. 289-294) wird in Kapitel III.2 evolutorische Gleichmäßigkeit als ein Alteraatiworschlag entwickelt und in Kapitel IV werden Argumente für bzw. gegen betriebswirtschaftlich-neoklassische und evolutorische Gleichmäßigkeit angeführt. Diese Argumente werden zur kritischen Diskussion gestellt {Albert 1991, S. 9-65). Auch in epistemologischer Sicht ist die hier vorgelegte Analyse in einem „moderaten" kritischen Rationalismus verortet, der an Hans Albert (.Albert 2000, S. 7-16) und Volker Gadenne (Gadenne 2002) angelehnt ist: Das Postulat nach „empirischer Wahrheit" wird auf die „Minimalanforderung" reduziert, dass erfahrungswissenschaftliche Hypothesen empirisch überprüft und dabei auftretende Widersprüche berücksichtigt werden sollten (Gadenne 2002, S. 68). Schließlich: Gleichmäßigkeit der Besteuerung ist nicht auf die Ertragsbesteuerung beschränkt. Wenn in diesem Beitrag hierauf fokussiert wird, dann allein deshalb, weil die Erörterung dieser Frage für weitere Steuern in einem Beitrag nicht möglich wäre.

II. Handlungstheorie und Marktordnungskonzept 1. Handlungstheorie betriebswirtschaftlich-neoklassischer Gleichmäßigkeit und evolutorische Handlungstheorie Die Forschungsfrage dieses Beitrags lautet, ob Gleichmäßigkeit der Besteuerung im Sinne des Verständnisses des Bundesverfassungsgerichts erfahrungswissenschaftlich konkretisiert werden kann. Die betriebswirtschaftlich-neoklassische Gleichmäßigkeit

140

Ute Schmiel

rekurriert auf eine neoklassische Theorie, die in ihren Modellen vollkommene Märkte unter Sicherheit bzw. stochastischer Unsicherheit zugrunde legt. Diese geht somit implizit davon aus, dass aus einer erklärenden Perspektive vollkommene Märkte existieren, aus einer Zweck-Mittel-Perspektive vollkommene Märkte realisierbar sind (Lauschmann 1963, S. 108; Vanberg 2003, S. 124 f.) oder sie legt ein Erklärungsverständnis in Anlehnung an Milton Friedman zugrunde {Nowak 1999, S. 127-190). Bei diesem - dem hier zugrunde gelegten kritisch-rationalistischen Erklärungsverständnis diametral entgegenstehenden - Erklärungsverständnis werden Erklärungs- und Prognoseaussagen (ausschließlich) nach der Gültigkeit der Prognose beurteilt. Danach kommt es auf die empirische Wahrheit von Antezedensbedingungen nicht an, es reicht aus, wenn im Rahmen empirischer Untersuchungen die modelltheoretischen Zusammenhänge bestätigt werden (Friedman 1974, S. 7-9; kritisch Tietzel 1981). Im Gegensatz dazu wird für die hier zu entwickelnde evolutorische Gleichmäßigkeit realistische Unsicherheit zugrunde gelegt (als konstitutiv für evolutorische Theorien Witt 1987, S. 9-13; Buchanan/Vanberg 1991, S. 168 f.; Nowak 1999, S. 191-232; Vanberg 2003, S. 119 f.). Mit realistischer Unsicherheit ist gemeint, dass auch Umweltzustände eintreten können, die den Wirtschaftssubjekten zum Entscheidungszeitpunkt nicht bekannt sind {Schneider 1987, S. 496-517; Schneider 1995, S. 1-24; Schneider 1997, S. 42-46; Schneider 2001, S. 370-378 und S. 452-465; Schneider 2006, S. 268 f.). Unter realistischer Unsicherheit existieren gemäß der evolutorischen Theorie keine vollkommenen Märkte in einem allgemeinen Konkurrenzgleichgewicht {Tietzel 1985, S. 124-137; Schneider 2001, S. 370-378).2 Die betriebswirtschaftlich-neoklassische Gleichmäßigkeit rekurriert auf die Hypothese oder die (vereinfachende) Annahme, dass einzelne Wirtschaftssubjekte ihren Nutzen maximieren. Wirtschaftssubjekte handeln objektiv rational, weil sie erstens konsistent handeln und zweitens perfektes, objektiv zutreffendes Wissen über die Welt {Vanberg 2005, S. 34-44) haben {Nowak 1999, S. 165-167). Nutzenmaximierung wird dabei auf die Maximierung des finanziellen Nutzens in Form von Konsum, Einkommen oder Vermögen beschränkt (siehe Schmidt/Terberger 1997, S. 46-51), d. h. die Arbeitszeit-/Freizeitentscheidung wird als exogen vorgegeben unterstellt {König/Wosnitza 2004, S. 5). Zielgröße der Maximierung finanziellen Nutzens ist eine auf dem investitionsrechnerischen Ertragswert basierende Größe, die im Folgenden (losgelöst davon, ob stochastische Unsicherheit berücksichtigt wird) vereinfacht als Ertragswert bezeichnet wird (siehe Ballwieser 2011, S. 67-84). Der Ertragswert ist unter diesen Prämissen eine objektiv rationale Zielgröße. Generieren Wirtschaftssubjekte ihren finanziellen Nutzen als Unternehmenseigner, so ist der Ertragswert des Unternehmens auch die objektiv rationale Zielgröße für die Entscheidungen des Gesellschafters {Schmidt/Terberger 1997, S. 46-51). In einem vollkommenen Kapitalmarkt sind Ver2

Realistische Unsicherheit wird teilweise auch in der neoklassisch-institutionenökonomischen Theorie berücksichtigt. Dann geht es allerdings nicht wie hier um die Frage, ob unter realistischer Unsicherheit ein bestimmter Marktzustand erreicht werden kann, sondern darum, wie Verträge unter Berücksichtigung realistischer Unsicherheit (unforeseen contingencies) ausgestaltet werden. Inwieweit im Rahmen solcher Ansätze widersprüchliche Annahmen miteinander verknüpft werden (siehe Richter/Furubotn 2010, S. 278 und später zu Hybrid-Modellen Kapitel IV), kann hier deshalb unberücksichtigt bleiben. Siehe zur Berücksichtigung solcher unforeseen contingencies Tirole (1999), Maskin/Tirole (1999) und zu einem Überblick Richter/Furubotn (2010, S. 217-222 und 271-317).

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

141

luste begrenzt: Der Ertragswert beträgt entweder 0 € oder ist positiv. Darüber hinausgehende Verluste, die zu einem negativen Ertragswert führen würden, sind nicht definiert (Schmidt 1980, S. 104-109; Zisowski 2001, S. 53-59). Weil damit auch im Rahmen eines Unternehmens kein Totalverlust entstehen kann, sind in einer neoklassischen Welt rechtsformabhängige Haftungsunterschiede der Gesellschafter irrelevant. In Abgrenzung zu dieser Hypothese über das Handeln von Wirtschaftssubjekten werden hier unter Berücksichtigung realistischer Unsicherheit die folgenden Hypothesen über das Handeln von Wirtschaftssubjekten vertreten: Wirtschaftssubjekte verfugen nicht über das vollkommene, perfekte Wissen über die Welt, sondern nur über unvollständiges Wissen und sie sind sich dessen bewusst. Unvollständiges Wissen besteht nicht allein aufgrund der Vielzahl möglicher Handlungsalternativen. Unvollständiges Wissen resultiert auch daraus, dass zum Entscheidungszeitpunkt die Menge möglicher Handlungsalternativen nicht feststeht (Witt 1987, S. 9-30 und S. 104-148). Dass die Menge der Handlungsmöglichkeiten zum Entscheidungszeitpunkt nicht feststeht, ist auch eine Konsequenz daraus, dass Wirtschaftssubjekte Handlungsmöglichkeiten nicht nur erkennen, sondern durch kreatives Handeln auch schaffen (Langlois 1986, S. 225230; Buchcman/Vanberg 1991, S. 168-171; Fehl/Schreiter 2000, S. 108 f.; Schubert 2006, S. 31 f.). Die Erklärung wirtschaftlichen Handelns greift deshalb zu kurz, wenn sie auf die optimale Auswahl aus bestehenden Alternativen beschränkt wird (Witt 1987, S. 9-30 und S. 104-149). Vor diesem Hintergrund gilt, dass objektiv rationales Handeln nicht möglich ist. Wirtschaftssubjekte können zwar konsistent, aber lediglich gemäß ihrem subjektiven Wissen über die Welt (und damit subjektiv rational) handeln (Vanberg 2005, S. 34-44).3 Sie können nicht ihren Nutzen, sondern nur ihren subjektiv wahrscheinlichen Nutzen, ihre (finanziellen) Nutzenerwartungen, maximieren („Nutzenerwartungen" wird in Anlehnung an Wegner 2012, S. 104-111 gewählt, der von Vorteilserwartung spricht). Ob diese Erwartungen erfüllt werden, ist jedoch „realistisch unsicher". Mit Nutzenerwartungen ist also nicht der stochastische Unsicherheit zugrunde legende Erwartungswert des Nutzens gemeint. Im Folgenden wird hier ebenfalls davon ausgegangen, dass Wirtschaftssubjekte die Arbeitszeit-/Freizeitentscheidung bereits getroffen haben und ihre finanziellen Nutzenerwartungen in Form von Konsum-, Einkommens- oder Vermögenserwartungen maximieren.4 Anders als in der hier als theoretische Folie verwandten betriebswirtschaftlich-neoklassischen Gleichmäßigkeit existiert unter realistischer Unsicherheit keine objektiv rationale Zielgröße, weil realistische Unsicherheit in Zielgrößen nicht erfasst werden kann. Vor diesem Hinter-

3

4

Ob Wirtschaftssubjekte dabei, wie Viktor Vanberg ausfuhrt, Programmentscheidungen statt Einzelfallentscheidungen treffen {Vanberg 2005, S. 55-61), kann in diesem Beitrag unberücksichtigt bleiben. Wenn hier davon ausgegangen wird, dass Wirtschaftssubjekte ihre finanziellen Nutzenerwartungen maximieren, ist das eine Spezifizierung, die nicht auf alle Wirtschaftssubjekte zutrifft. Allerdings wird diese Spezifizierung auf viele Wirtschaftssubjekte zutreffen, sofern diese verpflichtet sind, für sich selbst zu sorgen und demzufolge in der Regel Einkommen generieren müssen, um ihren Lebensunterhalt bestreiten zu können.

142

Ute Schmiel

grund ist der Ertragswert keine objektiv rationale Zielgröße, aber für einige Wirtschaftssubjekte eine subjektiv rationale Zielgröße. 5 Wenn der Ertragswert unter realistischer Unsicherheit als subjektiv rationale Zielgröße zugrunde gelegt wird, kann der Ertragswert eines Gesellschafters - anders als unter neoklassischen Bedingungen - von dem Ertragswert des Unternehmens abweichen. Der Ertragswert des Unternehmens kann anders als unter neoklassischen Bedingungen negativ werden, weil Gläubiger den Nominalwert einer Forderung verlangen und nicht nur deren ökonomischen Wert (Schmidt 1980, S. 104-109; Zisowski 2001, S. 53-59). Ein negativer Ertragswert des Unternehmens fuhrt bei Haftungsbeschränkung der Gesellschafter aber nicht unbedingt zu einem (betragsgleichen) wirtschaftlichen negativen Ertragswert der Gesellschafter. Damit ist unter realistischer Unsicherheit die Rechtsform relevant. In diesem Beitrag wird zwischen Handlungshypothesen der als theoretische Folie verwandten betriebswirtschaftlich-neoklassischen Gleichmäßigkeit und evolutorischen Handlungshypothesen unterschieden. Die neoklassische Handlungshypothese lautet, dass Wirtschaftssubjekte ihren finanziellen Nutzen maximieren, wobei der Ertragswert eine objektiv rationale Zielgröße darstellt. Im Gegensatz dazu wird hier als evolutorische Handlungshypothese formuliert, dass Wirtschaftssubjekte ihre finanziellen Nutzenerwartungen maximieren. Anders als unter neoklassischen Bedingungen sind unter realistischer Unsicherheit Zielgrößen nur subjektiv rational.

2. Marktordnungskonzept betriebswirtschaftlich-neoklassischer Gleichmäßigkeit und evolutorisches Marktordnungskonzept Die hier als theoretische Folie verwandte betriebswirtschaftlich-neoklassische Gleichmäßigkeit basiert implizit auf einem Marktordnungskonzept, demzufolge Wirtschaftssubjekte ihren individuellen Vorteil verfolgen können und damit zugleich mittelbar zum Gemeinwohl beitragen. Individueller Vorteil bedeutet, so wurde in Kapitel II. 1 deutlich, die Maximierung des finanziellen Nutzens, der in der Maximierung des Ertragswertes als objektiv rationale Zielgröße bzw. in der Maximierung einer daraus abgeleiteten Zielgröße zum Ausdruck kommt. In einem vollkommenen Markt streben Wirtschaftssubjekte nach Ertragswertmaximierung, gesamtwirtschaftlich besteht im Konkurrenzgleichgewicht ein Wohlstandsmaximum in Form von Pareto-Effizienz. Gesamtwirtschaftlich werden Ressourcen ihrer besten Verwendung zugeführt, eine Ressourcenverschwendung wird vermieden. Die optimale Allokation wird dabei aus der Perspektive der Individuen verstanden: Jedes Wirtschaftssubjekt maximiert seinen Nutzen aus den individuell gegebenen Faktor- und Gütermengen (Kleinewefers 2008, S. 43). Die Grenze der individuellen Nutzenmaximierung bilden Wohlstandsverluste anderer Wirtschaftssubjekte. Der gesamtwirtschaftliche Wohlstand wird nicht kardinal aggregiert, sondern der gesamtwirtschaftliche Wohlstand besteht darin, dass jedes Wirt-

Wenn der Ertragswert unter realistischer Unsicherheit und damit verbundener möglicher Illiquidität verwandt wird, ist es problematisch, den Zins als Marktzins zu verstehen, zu dem „nach Belieben Geld aufgenommen und angelegt werden kann". Der Zinssatz reflektiert lediglich die „persönliche, quantitative Zeitpräferenz" (Schneider 2009, S. 134; mit Verweis auf Lindahl 1933, S. 400 und 402).

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

• 143

schaftssubjekt seinen individuellen Nutzen maximieren kann, solange hierdurch keine Wohlstandsverluste für andere entstehen (Schumann 1994, S. 222-224; Nutzinger 1999, S. 474-476; Kleinewefers 2008, S. 42-44 und 103 f.; Varian 2011, S. 662-667). Wohlstandsmaximierung auf der Grundlage einer gegebenen Ausgangsausstattung und unter Verzicht auf Wohlstandsverluste anderer, wird damit zu einem allgemeinen Gut. Appliziert man die Legitimationsfigur, dass individuelle Nutzenmaximierung mittelbar zum Gemeinwohl beiträgt und deshalb legitim ist, auf einen Markt unter realistischer Unsicherheit (so Vanberg 2006, S. 49 f.; Vanberg 2007, S. 156; Vanberg 2010, S. 110 f.), stellt sich die Frage nach der Gemeinwohldefinition. Aus der Perspektive der evolutorischen Theorie kann unter realistischer Unsicherheit ein allgemeines Konkurrenzgleichgewicht, das ein Wohlstandsmaximum im Sinne von Pareto-Effizienz impliziert, nicht erreicht werden.6 Die Realisierung gesamtwirtschaftlicher Pareto-Effizienz jenseits eines allgemeinen Konkurrenzgleichgewichts scheitert unter realistischer Unsicherheit daran, dass Wirtschaftssubjekte nur ihre finanziellen Nutzenerwartungen maximieren können. Es kann nicht verhindert werden, dass Wirtschaftssubjekte durch eigenes Handeln oder durch das Handeln anderer Wohlstandsverluste erleiden. (Tietzel 1985, S. 124-137; Schneider 2001, S. 370-378; Wegner 2012, S. 136). Wenn aber ein gesamtwirtschaftliches Wohlstandsmaximum im Sinne von ParetoEffizienz unter realistischer Unsicherheit nicht realisiert werden kann - James M. Buchanan und Viktor Vanberg bringen dies auf die Formel „The market economy, as an aggregation, neither maximizes nor minimizes anything" (Buchanan/Vanberg 1991, S. 181, Hervorhebung im Original) - , ist ein anderes Gemeinwohlverständnis erforderlich. James M. Buchanan und Viktor Vanberg fuhren weiter aus „It simply allows participants to pursue that which they value, subject to the preferences and endowments of others, and within the constraints of general „rules of the game" that allow, and provide incentives for, individuals to try out new ways of doing things" (Buchanan/Vanberg 1991, S. 181). Gemäß dieser Überlegung ist für eine Marktwirtschaftsordnung Entscheidungsfreiheit der Wirtschaftssubjekte konstitutiv. Gleichzeitig verpflichtet diese Entscheidungsfreiheit Wirtschaftssubjekte: Im Rahmen einer Marktwirtschaftsordnung müssen sich Wirtschaftssubjekte gleichermaßen dem Tausch und dem Wettbewerb stellen. Insoweit sind für eine Marktwirtschaftsordnung Entscheidungsfreiheit und Rechtsgleichheit bzw. Privilegienfreiheit als allgemeine Güter, d. h. als jedem Wirtschaftssubjekt zustehende Güter, elementare Voraussetzungen (Vanberg 1997, S. 715717; Vanberg 2006, S. 62; Vanberg 2007, S. 156; Vanberg 2010, S. 102 f. und 110). Diese Voraussetzungen Entscheidungsfreiheit und Rechtsgleichheit bzw. Privilegienfreiheit sind zugleich der Beitrag einer Marktwirtschaftsordnung zum Gemeinwohl. Diese Überlegung, Entscheidungsfreiheit, Rechtsgleichheit bzw. Privilegienfreiheit (im Folgenden: Rechtsgleichheit) als grundlegende Ziele der Marktwirtschaft zu verstehen, wird hier von Viktor Vanberg übernommen. Weil in diesem Beitrag Umverteilung durch die Besteuerung nicht thematisiert wird, kann hier offen bleiben, in welchem Umfang Entscheidungsfreiheit, und Rechtsgleichheit angestrebt werden: Ob beispielsweise Entscheidungsfreiheit und Rechtsgleichheit partiell durch ein wohlstandssichemdes System - gegebenenfalls auch durch ein umverteilendes Steuerrecht - substituiert

6

Siehe hierzu Kapitel IV.

144

Ute Schmiel

werden {Witt/Schubert 2008; Wegner 2012, S. 77-83 und 145-155). Des Weiteren ist zu beachten, dass Entscheidungsfreiheit und Rechtsgleichheit als allgemeine Güter mit der Maximierung der individuellen (finanziellen) Nutzenerwartungen als Ausdruck von Entscheidungsfreiheit durch die Wirtschaftssubjekte in Konflikt stehen können. Das Interesse des einzelnen Wirtschaftssubjekts kann darin bestehen, seine eigene Entscheidungsfreiheit zu vergrößern, die Entscheidungsfreiheit anderer zu begrenzen und selbst Privilegien zu erhalten. Um die Ziele der Marktwirtschaftsordnung zu erreichen, sind somit Regeln erforderlich, die die individuelle Entscheidungsfreiheit dahingehend begrenzen, dass diese mit Entscheidungsfreiheit und Rechtsgleichheit als allgemeine Güter vereinbar ist (Vanberg 1997, S. 712-717 und 722; Vanberg 2003, S. 133; Vanberg 2006, S. 50 und 59; Vanberg 2010, S. 99 f.). Nach hier vertretener Auffassung sprechen für Entscheidungsfreiheit und Rechtsgleichheit als Teil des Gemeinwohls, dass sich diese auf die Grundrechte Freiheit und Gleichheit {Höffe 2008, S. 112) zurückfuhren lassen. Für individuelle Entscheidungsfreiheit als allgemeines Gut sprechen auch erfahrungswissenschaftliche Argumente im Hinblick auf die Verfolgung des individuellen Vorteils. Wenn wie oben deutlich wurde in einer Welt mit realistischer Unsicherheit die objektiv rationale Entscheidung nicht bestimmbar ist (Watkins 1978, S. 30, 35, 44 und 64 f.; Langlois 1986, S. 225-230), kann kein Außenstehender, sondern nur das betroffene Wirtschaftssubjekt wissen, was für das einzelne Wirtschaftssubjekt vorteilhaft ist. Damit wird der einzelwirtschaftliche Vorteil nur erreicht, wenn die betroffenen Wirtschaftssubjekte selbst entscheiden. Entscheidungsfreiheit als allgemeines Gut ist nicht nur wünschenswert, sondern im Hinblick auf das Erreichen individueller Vorteile auch eine conditio sine qua non. Mit diesen Argumenten werden nur Gründe für Entscheidungsfreiheit und Rechtsgleichheit als Teil des Gemeinwohls angeführt, es handelt sich nicht um eine gesellschaftsvertraglich-entscheidungstheoretische Herleitung aus dem Selbstinteresse von Individuen. Eine solche ist hier schon deshalb weder möglich noch erforderlich, weil der Umfang von Entscheidungsfreiheit und Rechtsgleichheit in diesem Beitrag offen bleibt. Insoweit besteht ein Unterschied in der hier vorgelegten Begründung zu Viktor Vanberg, der Entscheidungsfreiheit und Rechtsgleichheit auf einer konstitutionellen Ebene - trotz möglichen Konflikts - als zustimmungsfahig ansieht (Vanberg 1997, S. 712-717), sofern Viktor Vanberg den Gesellschaftsvertrag nicht nur normillustrierend, sondern normbegründend verwendet (zu dieser Unterscheidung Müller/Tietzel 2000, S. 325).7 7

Wie Vanberg Zustimmungsfahigkeit versteht, wird nach hier vertretener Auffassung nicht abschließend deutlich, siehe Vanberg (1997, S. 712-715), Vanberg (2000, S. 256 f.), Vanberg (2004, S. 54-56 und 60-63), Vanberg (2007, S. 138-141). Aus der Perspektive der hier zugrunde gelegten kritischrationalistischen Methodologie unterscheiden sich gesellschaftsvertraglich-entscheidungstheoretisch und argumentativ gestütztes Gemeinwohlverständnis im Hinblick auf die Werturteilsproblematik nicht: Die Entscheidung für ein gesellschaftsvertraglich-entscheidungstheoretisches Gemeinwohlverständnis ist ebenso ein Werturteil wie die Entscheidung für ein argumentativ gestütztes Gemeinwohlverständnis. Ebenso wenig ist aus kritisch-rationalistischer Sicht die werturteilsfreie Mittelentscheidung für ein Gemeinwohlverständnis aus werturteilsbehafteten Zielentscheidungen möglich, weil dies mindestens das Werturteil erfordern würde, dass Mittel durch den Zweck geheiligt werden (Albert 2000, S. 54-57). Umgekehrt ist der hypothetische Vorschlag eines Gemeinwohlverständnisses werturteilsfrei losgelöst davon, ob dieses gesellschaftsvertraglich-entscheidungstheoretisch oder „nur" argumentativ gestützt wird. Schließlich impliziert diese gesellschaftsvertraglich-entscheidungstheoretische Deduktion zahlreiche Annahmen über Individuen auf der konstitutionellen Ebene und über

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

145

Aus der Perspektive betriebswirtschaftlich-neoklassischer Gleichmäßigkeit wird eine Marktwirtschaftsordnung implizit damit legitimiert, dass Wirtschaftssubjekte ihren finanziellen Nutzen maximieren und damit zugleich mittelbar gesamtwirtschaftliche Pareto-Effizienz realisieren. Aus hier vorgelegter evolutorischer Sicht besteht der Beitrag einer Marktwirtschaftsordnung zum Gemeinwohl darin, Entscheidungsfreiheit und Rechtsgleichheit als allgemeine Güter zu gewährleisten. Individuelle (finanzielle) Nutzenmaximierung als Ausdruck individueller Entscheidungsfreiheit ist legitimiert, sofern sie mit Entscheidungsfreiheit und Rechtsgleichheit als allgemeine Güter vereinbar ist.

III. Handlungstheorie und Marktordnungskonzept unter Berücksichtigung von Steuern 1. Handlungstheorie betriebswirtschaftlich-neoklassischer Gleichmäßigkeit und evolutorische Handlungstheorie unter Berücksichtigung von Steuern Handlungstheorien unter Berücksichtigung von Steuern implementieren Steuern in Hypothesen über das Handeln von Steuerpflichtigen. Dabei geht es vor allem um Hypothesen darüber, ob (und wenn ja, wie) Steuern das Handeln von Wirtschaftssubjekten beeinflussen. Es geht um so genannte Steuerwirkungshypothesen und damit um die Frage, ob eine Entscheidung unter Berücksichtigung von Steuern von der ursprünglichen Entscheidung abweicht (siehe Schneider 2002, S. 19-24; König/Wosnitza 2004, S. 1-6; Schreiber 2012, S. 579 f. und aus finanzwissenschaftlicher Sicht Homburg 2010, S. 141-152). Eine Steuerwirkung läge beispielsweise vor, wenn unter Berücksichtigung von Steuern eine andere Investitions-, Finanzierungs- oder Rechtsformwahlentscheidung getroffen wird als ohne Berücksichtigung der Besteuerung. In dem betriebswirtschaftlich-neoklassischen Gleichmäßigkeitskonzept ist die Steuerwirkungstheorie neoklassisch fundiert (König/Wosnitza 2004, S. 1-8; Wagner 2004, S. 239-245; Hundsdoerfer/Kiesewetter/Sureth 2008, S. 68 f. und 80 f.).8 Implizit wird die Hypothese vertreten bzw. es wird im Sinne Milton Friedmans die Hypothese für Prognosezwecke als geeignet unterstellt (implizit Hundsdoerfer/Kiesewetter/Sureth 2008, S. 69; Schreiber 2012, S. 879), dass Wirtschaftssubjekte ihren finanziellen Nutzen unter Berücksichtigung von Steuern maximieren. Aufgrund des unterstellten vollkommenen Kapitalmarktes wird dieses Ziel nicht durch Liquiditätsprobleme restringiert (Schmidt 1980, S. 104-109). Zielgröße der Maximierung finanziellen Nutzens ist eine auf dem investitionsrechnerischen Ertragswertkalkül basierende, objektiv rationale Zielgröße, in die die Besteuerung implementiert wird.

den „Urzustand" (Müiler/Tiezel 2000, S. 311; Witt/Schubert 2008), so dass die gesellschaftsvertraglich-entscheidungstheoretische Deduktion des Gemeinwohls aus dem Selbstinteresse immer nur die gesellschaftsvertraglich-entscheidungstheoretische Deduktion aus einem bestimmten Verständnis von Selbstinteresse ist. Auch die empirische Prüfung von Steuerwirkungshypothesen ist in eine neoklassische Steuerwirkungstheorie eingebunden (siehe Hundsdoerfer/Sichtmann 2007, S. 606; Blaufus/Bob/Hundsdoerfer/Kiesewetter/Weimann 2009, S. 6 f.; Fochmann/Kiesewetter/Sadrieh 2012, S. 239), eine alternative Steuerwirkungstheorie existiert bisher nicht.

146

Ute Schmiel

Nachgeordnete Entscheidungen wie beispielsweise Investitionsentscheidungen werden dann mithilfe eines ertragswertkompatiblen Kalküls, beispielsweise mithilfe der Kapitalwertmethode unter Berücksichtigung von Steuern, getroffen (König/Wosnitza 2004, S. 46). Weil Steuerpflichtige Steuern in ihr Kalkül implementieren, entstehen Steuerwirkungen im Hinblick auf die Rendite, wenn die Besteuerung die Rangfolge der Zielgrößen der berücksichtigten Entscheidungsaltemativen ändert. Beispielsweise entsteht eine Steuerwirkung bezogen auf die Investitionsentscheidung, wenn die Besteuerung die Rangfolge der Kapitalwerte der berücksichtigten Entscheidungsalternativen (einschließlich der Alternativanlage) ändert. Die Steuerwirkungshypothese lautet dann: „Wenn die Besteuerung die Rangfolge der Zielgrößen der berücksichtigten Entscheidungsalternativen ändert, wird unter Berücksichtigung von Steuern eine andere Entscheidung getroffen als ohne Berücksichtigung von Steuern". Solche Steuerwirkungen sind auf Steuergesetze zurückzuführen (siehe zu den Effekten Wagner 2005, S. 454-456), die •

die Totalbemessungsgrundlage (vor Berücksichtigung von Zinseffekten) von Entscheidungsalternativen unterschiedlich definieren. Unterschiedliche Definitionen der Totalbemessungsgrundlage liegen beispielsweise vor, wenn Einzahlungen (unterschiedlich) steuerfrei gestellt werden, Auszahlungen (unterschiedlich) abzugsfahig bzw. nicht abzugsfahig sind oder Auszahlungen der Gesellschaft auf Gesellschafterebene abzugsfahig sind, obwohl sie das Totaleinkommen des Gesellschafters aufgrund von Haftungsbeschränkungen nicht mindern.



die Periodenbemessungsgrundlage von Entscheidungsalternativen unterschiedlich definieren. Unterschiede in der Definition der Periodenbemessungsgrundlage resultieren beispielsweise daraus, dass die Periodenbemessungsgrundlage der einen Entscheidungsalternative zahlungsorientiert konzipiert ist und die Periodenbemessungsgrundlage der anderen Entscheidungsalternative auf der Grundlage periodisierter Zahlungen ermittelt wird.



auf Entscheidungsalternativen unterschiedliche Steuersätze anwenden.

In Abgrenzung zur Hypothese über das Handeln von Wirtschaftssubjekten in der neoklassischen Theorie wird hier als evolutorische Hypothese formuliert, dass Wirtschaftssubjekte ihre finanzielle Nutzenerwartungen maximieren und dabei berücksichtigen, dass Steuern den finanziellen Nutzen ändern können. Anders als unter neoklassischen Bedingungen existiert unter realistischer Unsicherheit keine objektiv rationale Zielgröße (siehe kritisch zur Rationalität des Kapitalwertmodells unter Berücksichtigung von Steuern Ott/Wagner 2012, S. 421 und generell zur kritischen Diskussion dynamischer Kalküle aufgrund der Unsicherheit des Steuerrechts Brähler 2008, S. 666). Des Weiteren wird die Zielsetzung der Maximierung der Nutzenerwartungen unter realistischer Unsicherheit durch Liquiditätsprobleme restringiert und auch Steuern haben Liquiditätsfolgen und können darüber Entscheidungswirkungen entfalten. Aufgrund einer fehlenden objektiv rationalen Zielgröße ist es unter realistischer Unsicherheit denkbar, aber keineswegs zwingend, dass sich Wirtschaftssubjekte an einem Ertragswertkalkül als übergeordneter Zielgröße und daraus abgeleiteten kompatiblen Zielgrößen für nachgeordnete Entscheidungen orientieren. Beispielsweise legen Geschäftsleitungen von Unternehmen, die in Konzernstrukturen eingebundenen sind, der

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

147

Steuerplanung in jüngerer Zeit häufig die (Zeiteffekte unberücksichtigt lassende) Konzernsteuerquote zugrunde (siehe kritisch Müller/Sureth/Läufer 2010). Ferner zeigen empirische Studien, dass die für die Implementierung von Steuern in Partialmodelle erforderliche Kenntnis des eigenen Grenzsteuersatzes nur bedingt vorhanden ist (Blaufus/ Bob/Hundsdoerfer/Sielaff/Kiesewetter/Weimann 2010, S. 344; Fochmann/Kiesewetter/ Blaufus/Hundsdoerfer/Weimann 2010, S. 23). Generell stellen empirische Studien heraus, dass sich das neoklassische Rationalmodell der Konsummaximierung nicht empirisch stützen lässt. Vielmehr weicht die tatsächliche Einbeziehung von Steuern in Entscheidungen hiervon ab (Hundsdoerfer/Sichtmann 2007, S. 615, Blaufus/Bob/ Hundsdoerfer/Kiesewetter/Weimann 2009, S. 23; Fochmann/Kiesewetter/Sadrieh 2012, S. 239). Unter realistischer Unsicherheit lautet deshalb die Steuerwirkungshypothese: „Wenn die Besteuerung die Rangfolge der individuell verwandten Zielgrößen der berücksichtigten Entscheidungsalternativen ändert, wird unter Berücksichtigung von Steuern eine andere Entscheidung getroffen als ohne Berücksichtigung von Steuern". Worauf Steuerwirkungen zurückzufuhren sind, hängt davon ab, welche Zielgröße Wirtschaftssubjekte verwenden: Unterschiede in der Definition der Totalbemessungsgrundlage und Steuersatzunterschiede spiegeln sich sowohl in einperiodigen als auch in mehrperiodigen Zielgrößen wider, allerdings in unterschiedlichem Ausmaß. Im Gegensatz dazu werden Unterschiede in der Definition der Periodenbemessungsgrundlage nur in mehrperiodigen Zielgrößen, nicht hingegen - zumindest sofern ein durchschnittliches Periodeneinkommen als Zielgröße zugrunde gelegt wird - in einperiodigen Zielgrößen erfasst. Damit ist zu erwarten, dass Unterschiede in der Definition der Totalbemessungsgrundlage und Steuersatzunterschiede eher zu Steuerwirkungen führen werden als Unterschiede in der Definition der Periodenbemessungsgrundlage. Ob Unterschiede in der Definition der Totalbemessungsgrundlage bestehen, ist überdies theorieabhängig-. Beispielsweise kann unter realistischer Unsicherheit anders als unter neoklassischen Bedingungen das Totaleinkommen negativ werden. Somit führen rechtsformabhängige Haftungsunterschiede dazu, dass das Totaleinkommen des Unternehmens nicht unbedingt dem Totaleinkommen des Gesellschafters entspricht. Eine rechtsformunabhängige Erfassung des Totaleinkommens des Unternehmens in der Totalbemessungsgrundlage des Gesellschafters wäre aus evolutorischer Sicht eine unterschiedlich definierte Totalbemessungsgrundlage, aus der Steuerwirkungen resultieren können (dass Steuerpflichtige Verlustverrechnungsregelungen grundsätzlich in den Blick nehmen, zeigt die Studie von Fochmann/Kiesewetter/Sadrieh 2012, S. 239). Gemäß der Steuerwirkungstheorie des betriebswirtschaftlich-neoklassischen Gleichmäßigkeitskonzepts lauten die (Steuerwirkungs-)Hypothesen: •

Wirtschaftssubjekte maximieren ihren finanziellen Nutzen unter Berücksichtigung von Steuern.



Wirtschaftssubjekte verwenden eine objektiv rationale Zielgröße.



Wenn die Besteuerung die Rangfolge der Zielgrößen der berücksichtigten Entscheidungsalternativen ändert, wird unter Berücksichtigung von Steuern eine andere Entscheidung getroffen als ohne Berücksichtigung von Steuern.

148

Ute Schmiel



Steuerwirkungen sind auf unterschiedliche Definitionen der Totalbemessungsgrundlage, auf Unterschiede in der Definition der Periodenbemessungsgrundlage oder auf Steuersatzunterschiede zurückzufuhren.

Demgegenüber stehen folgende evolutorische (Steuerwirkungs-)Hypothesen: •

Wirtschaftssubjekte maximieren ihre finanzielle Nutzenerwartungen unter Berücksichtigung von Steuern.



Unter realistischer Unsicherheit existiert keine objektiv rationale Zielgröße, so dass Wirtschaftssubjekte eine subjektiv rationale Zielgröße verwenden.



Wenn die Besteuerung die Rangfolge der individuell verwandten Zielgrößen der berücksichtigten Entscheidungsalternativen ändert, wird unter Berücksichtigung von Steuern eine andere Entscheidung getroffen als ohne Berücksichtigung von Steuern.



Steuerwirkungen sind von der individuell verwandten Zielgröße abhängig, weil sich die Unterschiede in der Besteuerung unterschiedlich in Zielgrößen widerspiegeln. Grundsätzlich ist zu erwarten, dass unterschiedlich definierte Totalbemessungsgrundlagen und Steuersatzunterschiede eher zu Steuerwirkungen fuhren werden als Unterschiede in der Definition der Periodenbemessungsgrundlage.

2. Marktordnungskonzept betriebswirtschaftlich-neoklassischer Gleichmäßigkeit und evolutorisches Marktordnungskonzept unter Berücksichtigung von Steuern Die Legitimation einer Marktwirtschaftsordnung beruht gemäß betriebswirtschaftlich-neoklassischer Gleichmäßigkeit implizit darauf, dass Wirtschaftssubjekte nach finanzieller Nutzenmaximierung streben und zugleich bei vollkommenen Märkten im Konkurrenzgleichgewicht gesamtwirtschaftliche Pareto-Effizienz erreicht wird. Unter Berücksichtigung von Steuern wird Pareto-Effizienz gemäß betriebswirtschaftlichneoklassischem Gleichmäßigkeitskonzept nur erlangt, wenn die Besteuerung entscheidungsneutral ist, d. h. wenn keine Steuerwirkungen im Sinne der neoklassischen Steuerwirkungstheorie entstehen (Wagner 1992, S. 4-6; Wagner 2003, S. 377; Sureth 2006, S. 17; Hundsdoerfer/Kiesewetter/Sureth 2008, S. 68-709 und kritisch zur Leitlinie neoklassisch explizierter Entscheidungsneutralität Eischen 1989, S. 305-308; Schneider 2000; Schneider 2002, S. 102 f. und 255-274; Schneider 2006, S. 268 f.; Siegel 2007, S. 177; Schmiel 2009, S. 1199-1201). Neoklassische Steuerwirkungen würden aufgrund der Zusatzlast die gesamtwirtschaftliche Pareto-Effizienz beeinträchtigen. Entscheidungsneutralität in Form von Investitionsneutralität wird beispielsweise erreicht, wenn in einem vollkommenen Kapitalmarkt unter Sicherheit der Kapitalwert als Ziel9

Im Gegensatz dazu wird in der Finanzwissenschaft (zumindest) jenseits der unternehmerischen Besteuerung nach der Theorie des Zweitbesten auf die optimale Verzerrung abgestellt (Homburg 2010, S. 238-267, siehe aber grundlegend kritisch hierzu Schulemann 2008, S. 64-68). In der Betriebswirtschaftlichen Steuerlehre wird diese mit der Begründung abgelehnt, dass in der Realität die notwendigen Informationen für eine optimale Verzerrung nicht vorliegen (Wenger 1986, S. 137 f.; Sureth 2006, S. 7-20).

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

• 149

große mit einem proportionalen und im Zeitablauf konstanten Steuersatz oder wenn der ökonomische Gewinn besteuert wird (Schneider 2002, S. 102-104; König/Wosnitza 2004, S. 156-184). In einer neoklassischen Idealwelt mit vollkommenen Märkten in einem allgemeinen Konkurrenzgleichgewicht unter Sicherheit wäre somit ein entscheidungsneutrales Steuersystem realisierbar. Offen bleibt allerdings, warum in einem allgemeinen Konkurrenzgleichgewicht Steuern benötigt werden, weil es in einem System perfekter Märkte ohne staatliche Funktion an einer Begründung fehlt, Steuern zur Finanzierung von Staatsausgaben zu erheben (Wenger 1986, S. 136-138).10 Von einigen Vertretern im Schrifttum der Betriebswirtschaftlichen Steuerlehre wird Entscheidungsneutralität der Besteuerung mit Gleichmäßigkeit der Besteuerung gleichgesetzt (Wagner 1992, S. 4 f.; Wagner 2003, S. 377; Sureth 2006, S. 17; Hundsdoerfer/Kiesewetter/Sureth 2008, S. 70; differenzierter Hemmerich/Kiesewetter 2012, S. 5-7; siehe hingegen zur Differenzierung zwischen effizienter und gerechter Besteuerung im finanzwissenschaftlichen Schrifttum Schulemannn 2008, S. 31-33; Homburg 2010, S. 221-223). Auch im steuerjuristischen Schrifttum wird der Bezug zwischen Entscheidungsneutralität und Gleichmäßigkeit der Besteuerung betont (Hey 2012b, S. 232). Weil in einer neoklassischen Welt Gleichmäßigkeit der Besteuerung, konkretisiert als neoklassische Entscheidungsneutralität, realisierbar wäre, wäre Gleichmäßigkeit der Besteuerung eindeutig definiert. Die Begründung für neoklassische Gleichmäßigkeit entspricht der Begründung für Entscheidungsneutralität: Gleichmäßigkeit der Besteuerung soll erreicht werden, weil andernfalls Pareto-Effizienz durch steuerliche Zusatzlasten beeinträchtigt wird. Nach der hier in Anlehnung an Vanberg eingenommenen evolutorischen Perspektive besteht das Ziel einer Marktwirtschaftsordnug darin, Entscheidungsfreiheit und Rechtsgleichheit als allgemeine Güter zu gewährleisten. Der evolutorische Markt ist als Institution ein öffentliches Gut (Buchanan 1999, S. 33), der ebenso wie andere öffentliche Güter durch Steuern finanziert werden muss, weil der marktwirtschaftlich verfasste Staat (nahezu) keine Alternativen zur Einnahmenerzielung durch Steuern hat. Mit einer Marktwirtschaftsordnung ist damit grundsätzlich die Erhebung von Steuern verbunden. Erst durch die Besteuerung werden Entscheidungsfreiheit und Rechtsgleichheit ermöglicht. Die Besteuerung müsste demzufolge so ausgestaltet sein, dass das Ziel der Finanzierung öffentlicher Güter erreicht wird und zugleich Entscheidungsfreiheit und Rechtsgleichheit durch die Besteuerung möglichst wenig beeinträchtigt werden. Wenn Ulrich Schreiber herausstellt, hinter einer entscheidungsneutralen Steuer stehe die Einsicht, „dass der Staat bei der Beschaffung der Mittel möglichst keinen Zwang auf die Steuerpflichtigen (hier die Investoren und Kapitalgeber) ausüben soll, ihre Investitionsund Finanzierungspläne wegen der Steuerzahlung zu ändern" (Schreiber 2009, S. 427; ähnlich bereits Eischen 1989, S. 214-216, 260 und 278-280), könnte aus Entscheidungsfreiheit als Ziel der Marktwirtschaftsordnung ebenso Entscheidungsneutralität als Ziel der Besteuerung resultieren wie im Konzept betriebswirtschaftlich-neoklassischer Gleichmäßigkeit aus der Zielsetzung Pareto-Effizienz. Allerdings wird hier verneint, dass Wirtschaftssubjekte tatsächlich durch eine nicht entscheidungsneutrale Besteuerung in ihrer Entscheidungs/re/AeiY beeinträchtigt werden: Zunächst haben Wirt-

10

Dieser Widerspruch wird in Kapitel IV thematisiert.

150

Ute Schmiel

schaftssubjekte immer die Möglichkeit, sich für eine nachteilige Alternative zu entscheiden, so dass es sich allenfalls um „Zwang" zur irrationalen Entscheidung handeln könnte. Unter realistischer Unsicherheit gilt aber noch nicht einmal das, weil Rationalität oder Irrationalität von Entscheidungen nicht objektiv bestimmt werden kann. Nach hier vertretener Auffassung spricht Rechtsgleichheit als Ziel der Marktwirtschaftsordnung für eine gleichmäßige Besteuerung: Wenn einer Marktwirtschaftsordnung der Gedanke der Rechtsgleichheit innewohnt, dann stützt dies die Rechtsprechung des Bundesverfassungsgerichts, „wesentlich Gleiches gleich und wesentlich Ungleiches ungleich zu behandeln" (siehe nochmals BVerfG 2009a, S. 17; BVerfG 2009b, S. 265; BVerfG 2010a, S. 277; BVerfG 2010b, S. 416; BVerfG 2012, S. 2720). Anders als unter neoklassischen Bedingungen kann unter realistischer Unsicherheit Gleichmäßigkeit der Besteuerung nicht mit neoklassischer Entscheidungsneutralität gleichgesetzt werden: Neoklassische Entscheidungsneutralität impliziert ausgehend von dem übergeordneten Ziel der Pareto-Effizienz und einem damit verbundenen Wohlstandsmaximum, durch die Besteuerung ausgelöste Zusatzlasten zu vermeiden. Weil unter realistischer Unsicherheit die Marktwirtschaftsordnung bereits vor Steuern ein allgemeines Konkurrenzgleichgewicht, das ein Wohlstandsmaximum im Sinne von Pareto-Efizienz impliziert, nicht gewährleisten kann, lässt sich Entscheidungsneutralität als Verhinderung von Zusatzlasten weder begründen noch realisieren (siehe umfassend Schneider 2000, S. 424-430 mit anderer Argumentation). Die Realisierung scheitert zudem daran, dass eine entscheidungsneutrale Besteuerung eine Zielgrößenbesteuerung erfordert und unter realistischer Unsicherheit keine objektiv rationale Zielgröße existiert. Steuern sollen eine Marktordnung finanzieren und Rechtsgleichheit wahren. Ausgehend von dieser Finanzierungsnotwendigkeit und vor dem Hintergrund, dass die Verringerung von Zusatzlasten unter realistischer Unsicherheit kein realisierbares Ziel darstellt, werden hier Steuerzahllasten und nicht die Verringerung von Zusatzlasten der Besteuerung in Blick genommen. Damit sind solche Steuerwirkungen konträr zur Finanzierung des Steueraufkommens, bei denen Steuerpflichtige durch Steuergestaltung ihrer Steuerzahllast ausweichen können. Denn durch solche besonderen Steuerwirkungen, die hier als Steuerausweichentscheidungen bezeichnet werden, sinkt das Steueraufkommen, so dass entweder öffentliche Güter nicht finanziert werden können oder durch (höhere) Staatsverschuldung bzw. Steuererhöhungen finanziert werden müssen. 11 Steuerausweichentscheidungen sind, soweit damit eine relative Steuerminimierungspolitik betrieben wird, darüber hinaus ein Indiz dafür, dass Steuerpflichtige das bestehende Steuerrecht nicht als gleichmäßig ansehen. Denn hinter einer (relativen) Steuerminimierungspolitik steht der Gedanke, einen Sachverhalt zu realisieren, der vor Steuern einem anderen Sachverhalt entspricht und hierfür eine relativ geringere Steuer zu zahlen. Dies zeigt aber, dass aus Sicht des Steuerpflichtigen entweder gleiche Sachverhalte ungleich besteuert oder ungleiche Sachverhalte gleich besteuert werden. Steuerausweichentscheidungen reflektieren damit eine ungleichmäßige Besteuerung. Eine gleichmäßige Besteuerung würde demzufolge die Verringerung von Steueraus"

Es ist offensichtlich, dass das vom Bundesverfassungsgericht vorgelegte Gleichmäßigkeitsverständnis, auf das sich die hier vorgelegte Untersuchung bezieht, nicht in Blick nimmt, ob Steuereinnahmen im Interesse der Steuerpflichtigen verwandt werden.

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

151

weichentscheidungen voraussetzen. Zur Beantwortung der Frage, ob eine Besteuerung Steuerausweichentscheidungen hervorruft, ist auf evolutorische Steuerwirkungshypothesen zu rekurrieren. 12 Danach hängt das Auftreten von Steuerwirkungen, so wurde in Kapitel III. 1 deutlich, von der individuell verwandten Zielgröße (ein- oder mehrperiodige Zielgröße) in Verbindung mit (theorieabhängigen) Unterschieden in der Definition der Totalbemessungsgrundlage, mit Unterschieden in der Definition der Periodenbemessungsgrundlage und mit Steuersatzunterschieden ab. Offensichtlich - und das zeigt auch das folgende Beispiel - ist nicht jede Steuerwirkung zugleich eine Steuerausweichentscheidung, denn nicht jede Steuerwirkung geht mit einer Minderung des Steueraufkommens einher. Diese Minderung des Steueraufkommens bemisst sich bei mehrperiodigen Zielgrößen nach dem Steuerbarwert, bei einperiodigen Größen nach der in diesem Kalkül zugrunde gelegten Steuer: Angenommen, der Geschäftsführer B der A-GmbH plant, eine Maschine zu kaufen, deren Anschaffungskosten 60.000 € betragen und die eine wirtschaftliche (= steuerrechtliche) Nutzungsdauer von 4 Jahren und Einzahlungsüberschüsse in Höhe von 27.000 € (Periode 1), 15.600 € (Periode 2), 6.000 € (Periode 3) und 23.000 € (Periode 4) hat. Die Alternativanlage würde mit 8 % verzinst werden. Vereinfachend sei angenommen, dass Gewinne (einschließlich der Einkünfte aus der Alternativanlage) thesauriert und mit einem Steuersatz von 32,5 % besteuert werden. Es wird unterstellt, dass der Geschäftsführer B das Kapitalwertstandardmodell unter Sicherheit zugrundegelegt, d. h. Steuern, wie die folgende Formel zeigt, in der Zahlungsreihe und im Kalkulationszinsfuß berücksichtigt. Dabei wird vereinfachend unterstellt, dass sich das Auseinanderfallen von Zahlungsebene und steuerlicher Bemessungsgrundlage auf planmäßige Abschreibungen beschränkt (König/Wosnitza 2004, S. 46): T

Co = - A o +

" At - st • (Et - At - AfAt)] • (1 + t=i

12

mit: Cg

= Kapitalwert nach Steuern

A0

= Anschaffungsauszahlung

Et

= Einzahlungen der Periode

At

= Auszahlungen der Periode

st

= Steuersatz der Periode

AfA t

= Absetzung für Abnutzung der Periode

U

= Kalkulationszinsfuß nach Steuern

Unter realistischer Unsicherheit können Steuern auch über Liquiditätsfolgen Entscheidungswirkungen haben. Allerdings reflektieren diese nicht unbedingt eine ungleichmäßige Besteuerung, so dass das Ziel einer Verringerung von Entscheidungswirkungen aufgrund von Liquidität als separates Ziel und nicht als Konkretisierung von Gleichmäßigkeit verstanden wird (siehe zur Relevanz von Liquiditätswirkungen Eischen 1989, S. 308-316).

152

Ute Schmiel

Ohne Besteuerung beträgt der Kapitalwert der Realinvestition 43 €, die Realinvestition ist gegenüber der Alternativanlage vorteilhaft. Der Kapitalwert nach Steuern beträgt -64 €. 13 Demzufolge wird die ursprüngliche Entscheidung durch die Besteuerung verändert: Die Besteuerung fuhrt dazu, dass die Realinvestition im Vergleich zur Alternativanlage nachteilig wird. Diese Steuerwirkung beruht darauf, dass zwar sowohl bei der Realinvestition als auch bei der Finanzanlage die Totalbemessungsgrundlage gleichermaßen definiert wird und der gleiche Steuersatz zur Anwendung kommt. Die Periodenbemessungsgrundlage wird aber unterschiedlich definiert: Im Rahmen des Kapitalwertmodells wird unterstellt, dass die Alternativanlage eine Finanzanlage mit einen Kapitalwert in Höhe von 0 € ist, bei der die Zinsen auf den Ertragswert, mithin der ökonomische Gewinn, besteuert wird (Schneider 2002, S. 102-104; König! Wosnitza 2004, S. 163-184). Die Periodenbemessungsgrundlage der Realinvestition ist hingegen nach steuerbilanziellen Kriterien definiert. Bei dieser Steuerwirkung sinkt jedoch das Steueraufkommen nicht, d. h. die Steuerwirkung ist nicht zugleich eine Steuerausweichentscheidung: Der Steuerpflichtige wird zwar die Alternativanlage aufgrund der Besteuerung wählen, aber nicht, weil er mit der Alternativanlage weniger Steuern zahlt. Im Kapitalwertstandardmodell repräsentiert der Steuerbarwert die Höhe der Steuerzahlung. Der Steuerbarwert der Realinvestition beträgt 3.484 € 14 , während der Steuerbarwert der Alternativanlage bei 5.481 € 15 liegt. Während nach dem betriebswirtschaftlichneoklassischen Gleichmäßigkeitskonzept eine solche Steuerwirkung aufgrund ihrer Zusatzlast abzulehnen wäre, wäre sie aus der hier eingenommenen evolutorischen Perspektive irrelevant, weil es sich nicht um eine Steuerausweichentscheidung handelt. Evolutorische Gleichmäßigkeit impliziert damit nicht die generelle Entscheidungsneutralität. Evolutorische Gleichmäßigkeit erfordert in erfahrungswissenschaftlicher Hinsicht nur die Verhinderung von evolutorisch konkretisierten Steuerausweichentscheidungen (als Verhinderung von Steuerausweichentscheidungen könnte auch die von Eischen 1989, S. 280-285 und 310-316 vertretene Deutung von Entscheidungsneutralität als „Vermeidung steuerlicher Arbitragemöglichkeiten" verstanden werden). Für die hier konkretisierte evolutorische Gleichmäßigkeit ist damit der Bezug zur Steuerzahllast (und nicht zur Zusatzlast der Besteuerung) elementar (siehe zu einem solchen Bezug auch Vanberg 2004, S. 72-84, der allerdings auf das Äquivalenzprinzip rekurriert). Steuerausweichentscheidungen sind vor allem zu erwarten, wenn das steuerliche Einkommen bei Entscheidungsalternativen im Hinblick auf die Totalbemessungsgrundlage oder den Steuersatz unterschiedlich definiert ist. Zum einen deshalb, weil sich diese, wie in Kapitel III. 1 herausgestellt wurde, sowohl in einperiodigen als auch in mehrperiodigen Zielgrößen widerspiegeln. Im Gegensatz dazu werden Unterschiede in der Definition der Periodenbemessungsgrundlage nur in mehrperiodigen, nicht hingegen in einperiodigen Zielgrößen erfasst. Damit ist zu erwarten, dass unterschiedlich definierte Toalbemessungsgrundlagen und Steuersatzunterschiede eher zu Steuerwirkungen fuhren werden als unterschiedlich definierte Periodenbemessungsgrundlagen. Zum 13 14 15

-60.000+[27.000-(27.000-l5.000)*0,325]*l,054"'+[ 15.600-(15.600-15.000)*0,325]* 1,054"2+[6.000(6.000-15.000)*0,325]* 1,054"3+[23.000-(23.000-15.000)*0,325]* 1,054"" =-64. (27.000-15.000)*0,325*1,054 '+(15.600-15.000)*0,325*1)054"2+(6.000-15.000)*0,325*1,054'3+ (23.000-15.000)*0,325* 1,054"4 =3.484. 4.800*0,325* 1,054"'+4.800*0,325*1,0542+4.800*0,325* 1,054"3+4.800*0,325* 1,054^ =5.481.

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

• 153

anderen sind Steuerwirkungen aufgrund unterschiedlich definierter Totalbemessungsgrundlagen und aufgrund von Steuersatzunterschieden bei einperiodigen Zielgrößen immer und bei mehrperiodigen Zielgrößen regelmäßig zugleich Steuerausweichentscheidungen. Weil unterschiedlich definierte Totalbemessungsgrundlagen und Steuersatzunterschiede losgelöst von der Zielgröße erfasst werden und, sofern diese zu Steuerwirkungen fuhren, auch zugleich Steuerausweichentscheidungen darstellen, ist zu erwarten, dass die Verringerung dieser Unterschiede mit einer Verringerung von Steuerausweichentscheidungen einhergeht. In dem betriebswirtschaftlich-neoklassischen Gleichmäßigkeitskonzept zeigt Entscheidungsneutralität erfahrungswissenschaftlich an, dass eine gleichmäßige Besteuerung vorliegt. Eine gleichmäßige Besteuerung im Sinne einer entscheidungsneutralen Besteuerung resultiert aus dem übergeordneten Ziel gesamtwirtschaftlicher Pareto-Effizienz. Evolutorische Gleichmäßigkeit wird aus dem Ziel der Rechtsgleichheit abgeleitet und erfahrungswissenschaftlich dahingehend konkretisiert, dass die Verringerung von Steuerausweichentscheidungen eine gleichmäßigere Besteuerung reflektiert. Steuerausweichentscheidungen sind vor allem bei unterschiedlich definierten Totalbemessungsgrundlagen und Steuersatzunterschieden zu erwarten. Weil unterschiedlich definierte Totalbemessungsgrundlagen und Steuersatzunterschiede sowohl in ein- als auch in mehrperiodigen Zielgrößen, wenn auch in unterschiedlichem Ausmaß erfasst werden, ist die Verringerung daraus resultierender Steuerausweichentscheidungen realisierbar, sofern diese Unterschiede verringert werden können. Die Antwort auf die erste Teilfrage dieses Beitrags, wie sich Gleichmäßigkeit theoretisch fundieren lässt, lautet damit, dass Gleichmäßigkeit der Besteuerung als „betriebswirtschaftlich-neoklassische Entscheidungsneutralität" oder evolutorisch als „Verringerung von Steuerausweichentscheidungen" konkretisiert werden kann.

IV. Betriebswirtschaftlich-neoklassische Gleichmäßigkeit versus evolutorische Gleichmäßigkeit Gleichmäßigkeit der Besteuerung lässt sich durch Rückgriff auf ökonomische Theorien konkretisieren, wobei der Blick auf die als theoretische Folie verwandte betriebswirtschaftlich-neoklassische Gleichmäßigkeit und die vor diesem Hintergrund hier entwickelte evolutorische Gleichmäßigkeit verengt wurde. Betriebswirtschaftlich-neoklassische Gleichmäßigkeit erfordert generelle Entscheidungsneutralität. Dabei werden Steuerwirkungen unter Rückgriff auf die neoklassische Steuerwirkungstheorie konkretisiert. Diese Konkretisierung hat beispielsweise zur Konsequenz, dass Personen- und Kapitalgesellschaften Gleiches darstellen, die notwendig (aber nicht hinreichend) gleich zu besteuern sind, um Entscheidungsneutralität zu erreichen. Im Unterschied dazu wird hier evolutorische Gleichmäßigkeit dahingehend konkretisiert, dass diese die Verringerung von Steuerausweichentscheidungen voraussetzt. Steuerausweichentscheidungen als besondere Steuerwirkungen werden unter Rückgriff auf evolutorische Steuerwirkungshypothesen konkretisiert. Dies hat zur Folge, dass Personen- und Kapitalgesellschaften nicht unbedingt Gleiches darstellen. Unter realistischer Unsicherheit bestehen rechtsformabhängige Unterschiede, deren Nichtberücksichtigung zu Steuerausweichentscheidungen fuhren kann und die gerade eine rechtsformadäquate

154

Ute Schmiel

Besteuerung erfordern (Siegel 2007, S. 275-277; Hey 2012c, S. 716-719). Die Verringerung von Steuerausweichentscheidungen setzt beispielsweise eine rechtsformabhängige Verlustverrechnungsbeschränkung - vergleichbar § 15a EStG - voraus (Schmiel 2006, S. 250, siehe auch Ewert/Niemann 2011, S. 126 f., die allerdings den Widerspruch, dass sie Entscheidungswirkungen mit einem Modell messen, in dem eine über den Verlust der Einlage hinausgehender Verlust nicht definiert ist, Verlustverrechnungsbeschränkungen mithin nicht erforderlich sind, unberücksichtigt lassen). Damit stellt sich die zweite Teilfrage dieses Beitrags, nämlich die Frage danach, welche theoretische Fundierung vorzuziehen ist. Nach hier zugrunde gelegter kritischrationalistischer Methodologie kann die Entscheidung zwischen betriebswirtschaftlichneoklassischer und evolutorischer Gleichmäßigkeit nicht letztbegründet werden (Albert 1991, S. 9-65). Es lassen sich lediglich Argumente für die eine oder die andere Position anfuhren. Für betriebswirtschafitlich-neoklassische Gleichmäßigkeit spricht die Stringenz ihrer Herleitung: Es lässt sich mathematisch nachweisen, dass ein allgemeines Konkurrenzgleichgewicht pareto-effizient ist (Varían 2011, S. 662-667). Ferner ist das Argument folgerichtig, dass ein neoklassisch entscheidungsneutrales Steuersystem erforderlich ist, um diese Pareto-Effizienz nicht zu verzerren (Wagner 1992, S. 4-6). Die Ausgestaltung eines entscheidungsneutralen Steuersystems ist dann durch eine mathematische Herleitung möglich (siehe König!Wosnitza 2004, S. 156-184). Gegen betriebswirtschaftlich-neoklassische Gleichmäßigkeit spricht nach hier vertretener Auffassung jedoch, dass neoklassische Entscheidungsneutralität einen nicht realisierbaren vollkommenen Kapitalmarkt unter Sicherheit bzw. stochastischer Unsicherheit voraussetzt und somit gegen das Brückenprinzip, nach dem Sollen Können impliziert (Albert 2000, S. 44), verstößt. Dass vollkommene Märkte nicht vorhanden und auch nicht realisierbar sind (explizit Vanberg 2004, S. 54-56), zeigen nicht zuletzt beobachtbare Erfahrungstatbestände, die in solchen Märkten nicht definiert sind und in vollkommene Märkte widersprüchlich integriert werden (siehe allgemein kritisch zu Hybrid-Modellen Richter/Furubotn 2010, S. 455 f., 581-583 und zur Widerspruchsfreiheit als Postulat an die Wissenschaft Schneider 2009, S. 130-136). Beispielsweise besteht in einem vollkommenen Markt kein Marktversagen und somit kein Grund für das Angebot öffentlicher Güter und deren Finanzierung durch die Erhebung von Steuern (Wenger 1986, S. 136-138). Damit ist es widersprüchlich, die adäquate Ausgestaltung des Steuersystems mithilfe eines vollkommenen Marktes, in dem keine Steuern existieren, herzuleiten.16 Gleiches gilt für Vorschläge zur Ausgestaltung des Insolvenzrechts mithilfe eines vollkommenen Kapitalmarkts, auf dem (ökonomische) Illiquidität nicht definiert ist und die demzufolge widersprüchlich in solche Modelle implementiert wird (Schmidt 1980, S. 104-109; Zisowski 2001, S. 56-59).17

16

17

Dieser Widerspruch wird auch nicht etwa durch die Annahmen der differentiellen Inzidenz siehe hierzu Homburg (2010, S. 92 f.), geheilt, weil es nicht nur um die Änderung des Steueraufkommens, sondern generell um die Begründung von Steuern geht. Dass darüber hinaus Pareto-Effizienz als Ziel kritisch hinterfragt werden kann, ist unstrittig, soll aber vor dem Hintergrund des „fehlenden Könnens" nicht vertieft werden, siehe aber beispielsweise statt vieler Vanberg (2000, S. 256 f.).

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

• 155

Gemäß der hier zugrunde gelegten „moderaten" kritisch-rationalistischen Verortung (Gadenne 2002, S. 68) dürfen diese Widersprüche zu Erfahrungstatbeständen nicht ignoriert werden. Diese Widersprüche werden auch nicht dadurch „geheilt", dass einige Wirtschaftssubjekte (wie in Kapitel III.2. für den Geschäftsführer B unterstellt) unter realistischer Unsicherheit auf der Grundlage neoklassisch fundierter Kalküle, beispielsweise auf der Grundlage des Kapitalwertkriteriums entscheiden (beispielsweise Schwenk 2003, S. 153-157). Aus solchen Studien lässt sich nur entnehmen, dass einige Wirtschaftssubjekte das Kapitalwertmodell anwenden, nicht aber, dass eine neoklassische Welt vorliegt. Vielmehr rufen neoklassisch fundierte Gestaltungsempfehlungen der Betriebswirtschaftslehre Handeln von Wirtschaftssubjekten hervor, das dann als solches einer empirischen Überprüfung dahingehend zugänglich ist, ob Wirtschaftssubjekte solchen Gestaltungsempfehlungen folgen (siehe Schmiel 2009, S. 1197-1199, so wohl auch Kliemt 2011, S. 120 f.). Für evolutorische Gleichmäßigkeit spricht hingegen, dass diese einen höheren Realitätsgehalt hat, ohne widersprüchlich zu sein: Evolutorische Gleichmäßigkeit legt realistische Unsicherheit zugrunde und geht von der Nichtexistenz vollkommener Märkte aus. Marktwirtschaft erfordert eine Marktwirtschaftsordnung. Der Markt als öffentliches Gut muss finanziert werden. In einem marktwirtschaftlich verfassten Staat besteht keine Möglichkeit der alternativen Einnahmenerzielung des Staates. Vor diesem Hintergrund sind Steuern als (weitgehend) einzige Möglichkeit der Einnahmenerzielung erklärbar. Ökonomische Illiquidität entsteht daraus, dass unter realistischer Unsicherheit Gläubiger nicht nur - wie unter stochastischer Unsicherheit - den Marktwert ihrer Forderung, sondern grundsätzlich den Nominalwert verlangen können {Schmidt 1980, S. 104-109; Zisowski 2001, S. 56-59). Im Hinblick auf Realitätsgehalt und Widerspruchsfreiheit ist deshalb nach hier vertretener Auffassung evolutorische Gleichmäßigkeit der betriebswirtschaftlich-neoklassischen Gleichmäßigkeit überlegen. Im Vergleich zur betriebswirtschaftlich-neoklassischen Gleichmäßigkeit ist evolutorische Gleichmäßigkeit aber weniger stringent: Das hier vorgelegte Gemeinwohlverständnis wird nur durch verbal vorgetragene Argumente und nicht durch mathematische Existenzbeweise gestützt. Gleiches gilt für die Begründung von Gleichmäßigkeit und für ihre Konkretisierung. Unter realistischer Unsicherheit ist es nicht möglich, optimale Besteuerungsregeln aus einer Zielsetzung stringent zu deduzieren, sondern nur, Argumente für evolutorische Gleichmäßigkeit und ihre Konkretisierung anzuführen. Die Antwort auf die zweite Teilfrage dieses Beitrags, auf welche ökonomische Theorie rekurriert werden sollte, lautet, dass die Entscheidung für betriebswirtschaftlichneoklassische oder evolutorische Gleichmäßigkeit davon abhängt, ob man Realitätsgehalt und Widerspruchsfreiheit oder methodische Stringenz stärker gewichtet.

V. Ergebnis Gleichmäßigkeit der Besteuerung, als das vom Bundesverfassungsgericht vertretene elementare Besteuerungsziel (BVerfG 2005, S. 94; BVerfG 2012, S. 2720), hat neben einer ethischen eine erfahrungswissenschaftliche Dimension. Im Hinblick auf diese erfahrungswissenschaftliche Dimension stellt sich die Frage, wie Gleichmäßigkeit der Besteuerung durch ökonomische Theorien konkretisiert werden kann und auf welche

156

Ute Schmiel

ökonomischen Theorien rekurriert werden sollte. Die Beantwortung dieser Frage erfolgt auf der Grundlage eines „moderaten" kritischen Rationalismus, wie er von Hans Albert {Albert 1991, S. 9-65, Albert 2000, S. 7-16) und Volker Gadenne (Gadenne 2002) vertreten wird. Wenn Gleichmäßigkeit der Besteuerung in der Betriebswirtschaftlichen Steuerlehre ökonomisch fundiert wird, dann wird grundsätzlich auf eine neoklassische Theorie rekurriert, der hier gewählte Zugriff auf einen evolutorischen Ansatz im Sinne Viktor Vanbergs ist neu. Gleichmäßigkeit der Besteuerung - so lautet das Ergebnis - lässt sich neoklassisch und evolutorisch fundieren. Betriebswirtschaftlich-neoklassische Gleichmäßigkeit wird als neoklassische Entscheidungsneutralität konkretisiert. Sie legt die Hypothese zugrunde, dass Wirtschaftssubjekte ihren finanziellen Nutzen maximieren, wobei der Ertragswert und daraus abgeleitete Zielgrößen objektiv rationale Zielgrößen darstellen. Indem Wirtschaftssubjekte ihren finanziellen Nutzen maximieren, realisieren sie zugleich mittelbar gesamtwirtschaftliche Pareto-Effizienz. Gesamtwirtschaftliche ParetoEffizienz erfordert eine entscheidungsneutrale Besteuerung. Gemäß der neoklassischen Steuerwirkungstheorie maximieren Wirtschaftssubjekte den Ertragswert oder daraus abgeleitete Zielgrößen unter Berücksichtigung von Steuern. Entscheidungsneutralität setzt voraus, dass die Besteuerung an diese Zielgrößen anknüpft. Evolutorische Gleichmäßigkeit wird dahingehend konkretisiert, dass sie die Verringerung von Steuerausweichentscheidungen erfordert. Sie basiert auf der evolutorischen Handlungshypothese, dass Wirtschaftssubjekte ihre finanzielle Nutzenerwartungen maximieren. Unter realistischer Unsicherheit existieren gemäß der evolutorischen Theorie kein vollkommener Markt im Konkurrenzgleichgewicht, mit dem Pareto-Effizienz einhergeht und keine objektiv rationale Zielgröße. Die Ziele einer Marktwirtschaftsordnung werden in Anlehnung an Viktor Vanberg darin gesehen, dass für eine Marktwirtschaftsordnung Entscheidungsfreiheit und Rechtsgleichheit als allgemeine Güter konstitutiv sind. Steuern sind zur Finanzierung öffentlicher Güter notwendig, wobei Rechtsgleichheit eine gleichmäßige Besteuerung erfordert. Vor diesem Hintergrund sind Steuerausweichentscheidungen problematisch. Denn Steuerausweichentscheidungen mindern erstens das Steueraufkommen und gefährden damit die Finanzierung öffentlicher Güter und nicht zuletzt die Finanzierung der Marktwirtschaftsordnung selbst. Zweitens ist es ein erfahrungswissenschaftliches Indiz für eine ungleichmäßige Besteuerung, wenn Besteuerungsregeln Steuerausweichentscheidungen auslösen. Steuerausweichentscheidungen sind gemäß der hier vorgelegten evolutorischen Steuerwirkungstheorie vor allem bei unterschiedlich definierten Totalbemessungsgrundlagen und bei Steuersatzunterschieden zu erwarten. Denn es wird die Hypothese vertreten, dass Wirtschaftssubjekte ihre finanziellen Nutzenerwartungen unter Berücksichtigung von Steuern maximieren. Aufgrund der fehlenden objektiv rationalen Zielgröße ist die Möglichkeit einer Steuerwirkung von der individuell verwandten Zielgröße abhängig. Unterschiedlich definierte Totalbemessungsgrundlagen und Steuersatzunterschiede - nicht aber unterschiedlich definierte Periodenbemessungsgrundlagen bei gleich definierter Totalbemessungsgrundlagendefinition - werden sowohl in einperiodigen als auch in mehrperiodigen Zielgrößen erfasst. Demzufolge ist zu erwarten, dass diese Unterschiede eher zu Steuerwirkungen führen werden als Unterschiede in der Definition

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

157

der Periodenbemessungsgrundlage. Diese Steuerwirkungen aufgrund unterschiedlich definierter Totalbemessungsgrundlagen und aufgrund von Steuersatzunterschieden sind zudem bei einperiodigen Zielgrößen immer und bei mehrperiodigen Zielgrößen regelmäßig zugleich Steuerausweichentscheidungen. Ob Totalbemessungsgrundlagen unterschiedlich definiert sind, beantwortet die neoklassische Steuerwirkungstheorie anders als die hier vorgelegte evolutorische Steuerwirkungstheorie. In einer neoklassischen Welt sind beispielsweise Personen- und Kapitalgesellschaften gleiche Sachverhalte. Gleichmäßigkeit der Besteuerung erfordert deren gleiche Besteuerung. Unter realistischer Unsicherheit bestehen hingegen rechtsformabhängige Unterschiede, die bei der Besteuerung zu berücksichtigen sind, wenn Steuerausweichentscheidungen verringert werden sollen. Für betriebswirtschaftlich-neoklassische Gleichmäßigkeit sprechen die Stringenz ihrer Herleitung und die Stringenz, mit der Steuerrechtsregeln aus der Zielsetzung der neoklassischen Entscheidungsneutralität deduziert werden können. Gegen betriebswirtschaftlich-neoklassische Gleichmäßigkeit sprechen nach hier vertretener Auffassung jedoch der im Vergleich zur evolutorischen Gleichmäßigkeit geringere Realitätsgehalt und die Verknüpfung sich widersprechender Aussagen. So wird beispielsweise die Ausgestaltung des Steuersystems aus einem Modell abgeleitet, in dem Marktversagen und demzufolge öffentliche Güter sowie ihre Finanzierung durch Steuern nicht definiert sind. Für evolutorische Gleichmäßigkeit spricht hingegen, dass sie Steuern und andere Erfahrungstatbestände widerspruchsfrei integriert und somit im Vergleich zu betriebswirtschaftlich-neoklassischer Gleichmäßigkeit einen höheren Realitätsgehalt hat, ohne widersprüchlich zu sein. Im Vergleich zur betriebswirtschaftlich-neoklassischen Gleichmäßigkeit ist die Herleitung und Konkretisierung evolutorischer Gleichmäßigkeit weniger stringent. Die Entscheidung für betriebswirtschaftlich-neoklassische oder evolutorische Gleichmäßigkeit hängt somit davon ab, ob man Realitätsgehalt und Widerspruchsfreiheit oder methodische Stringenz stärker gewichtet. Nach hier vertretener Auffassung ist eine realitätsnähere, widerspruchsfreie, wenn auch weniger stringente evolutorische Gleichmäßigkeit gegenüber einer betriebswirtschaftlich-neoklassischen Gleichmäßigkeit vorzuziehen. Gleichmäßigkeit der Besteuerung - so lautet damit das hier vorgetragene Ergebnis - sollte demzufolge evolutorisch konkretisiert werden. Literatur Albert, Hans (1991), Traktat über kritische Vernunft, 5. Aufl., Tübingen Albert, Hans (2000), Kritischer Rationalismus. Tübingen Albert, Hans (2001), Rationalität und Wirtschaftsordnung, in: Albert, Hans (Hrsg.), Lesebuch, Tübingen, S. 264-302 Ballwieser, Wolfgang (2011), Unternehmensbewertung. 3. Aufl. Stuttgart Birk, Dieter (2011), Das Ungerechte an der Steuergerechtigkeit, in: Steuer und Wirtschaft 2011, S. 354-364 Blaufiis, Kay/Bob, Jonathan/Hundsdoerfer, Jochen/Kiesewetter, Dirk/Weimann, Joachim (2009), It's All About Tax Rates, An Empirical Study of Tax Perception, arqus-Working Paper Nr. 106, Paderborn

158

Ute Schmiel

Blaufus, Kay/Bob, Jonathan/Hundsdoerfer, Jochen/Sielaff, Christian/Kiesewetter, Dirk/Weimann, Joachim (2010), Die gefühlte Steuerbelastung des Einkommens, Eine empirische Analyse für Erwerbstätige in Deutschland, in: Steuer und Wirtschaft 2010, S. 337-345 Brähler, Gernot (2008), Statische versus dynamische Steuerbelastungsvergleiche, in: Die Betriebswirtschaft 2008, S. 654-670 Buchanan, James M. (1967), Public Finance in Democratic Process, Chapel Hill Buchanan, James M. (1999), Moral und Gemeinschaft in der offenen Ordnung des Marktes, in: Vanberg, Viktor (Hrsg.), Freiheit, Wettbewerb und Wirtschaftsordnung, Freiburg, S. 13-36 Buchanan, James M./Vanberg, Viktor J. (1991), The Market as a Creative Process, in: Economics and Philosophy 1991, Vol. 7, Issue 02, S. 167-186 Eischen, Rainer (1989), Institutionale oder personale Besteuerung von Unternehmensgewinnen?, Hamburg Ewert, Ralf/Niemann, Rainer (2011), Haftungsbeschränkungen, Verlustverrechnungsbeschränkungen und die Bereitschaft zur Risikoübernahme, Zur Bedeutung einer rechtsformabhängigen Besteuerung für die Gewährleistung risikobezogener Entscheidungsneutralität, in: Zeitschrift für betriebswirtschaftliche Forschung Sonderheft, Nr. 63, 2011, S.94-131 Fehl, Ulrich/Schreiter, Carsten (2000), Prozess und Ordnung, in: Leipold, Helmut/Pies, Ingo (Hrsg.), Ordnungstheorie und Ordnungspolitik, Stuttgart, S. 104-124 Fochmann, Martin/Kiesewetter, Dirk/Blaufüs, Kay/Hundsdoerfer, Jochen/Weimann, Joachim (2010), Tax perception - an empirical survey, arqus-Working Paper Nr. 99, Paderborn Fochmann, Martin/Kiesewetter, Dirk/Sadrieh, Abdolkarim (2012), Investment behavior and the biased perception of limited loss deduction in income taxation, in: Journal of Economic Behavior & Organization, Volume 81, Issue 1, 2012, S. 230-242 Friedman, Milton (1974), The Methodology of Positive Economics, in: Friedman, M. (Hrsg.), Essays in Positive Economics, 8. Aufl., Chicago Gadenne, Volker (2002), Hat der kritische Rationalismus noch etwas zu lehren?, in: Böhm, Jan M./Holweg, Heiko/Hoock, Claudia (Hrsg.), Karl Poppers kritischer Rationalismus heute, Tübingen, S. 58-78 Hemmerich, Kristina/Kiesewetter, Dirk (2012), Ein Nachruf auf die Diskussion zur entscheidungsneutralen Gewinnbesteuerung, arqus-Working Paper Nr. 139, Paderborn Hey, Johanna (2012a), § 3 Steuersystem und Steuerverfassungsrecht, in: Tipke, Klaus/ Lang, Joachim (Hrsg.), Steuerrecht, 21. Aufl., Köln, S. 59-129 Hey, Johanna (2012b), § 7 Einführung in das besondere Steuerrecht, in: Tipke, Klaus/ Lang, Joachim (Hrsg.), Steuerrecht, 21. Aufl., Köln, S. 231-254 Hey, Johanna (2012c), § 13 D. Rechtsformneutralität der Unternehmensbesteuerung, in: Tipke, Klaus/ Lang, Joachim (Hrsg.), Steuerrecht, 21. Aufl., Köln, S. 715-722 Homburg, Stefan (2010), Allgemeine Steuerlehre, 6. Aufl., München Höffe, Otfried (2008), „Gesellschaftsvertrag", in: Höffe, Otfried, Lexikon der Ethik, 7. Aufl., München, S. 106 f. Hundsdoerfer, Jochen/Kiesewetter, Dirk/Sureth, Caren (2008), Forschungsergebnisse in der Betriebswirtschaftlichen Steuerlehre - eine Bestandsaufnahme, in: Zeitschrift für Betriebswirtschaft, S. 61-138 Hundsdoerfer, Jochen/Sichtmann, Christina (2007), Zur Gewichtung von Steuern in unternehmerischen Investitionskalkülen: Eine Conjoint-Analyse des Entscheidungsverhaltens selbständiger Ärzte, in: Betriebswirtschaftliche Forschung und Praxis 2008, S. 604-620 Kleinewefers, Henner (2008), Einführung in die Wohlfahrtsökonomie, Stuttgart Kliemt, Hartmut (2011), Ökonomik aus der Teilnehmerperspektive und vom objektiven Standpunkt, Der Konflikt von Marktsoziologie und Entscheidungslogik in anderem Gewände?, in: Gadenne, Volker (Hrsg.)/Neck, Reinhard (Hrsg.), Philosophie und Wirtschaftswissenschaft, Tübingen, S. 117-133 König, Rolf/Wosnitza, Michael (2004), Betriebswirtschaftliche Steuerplanungs- und Steuerwirkungslehre, Heidelberg Langlois, Richard N. (1986), Rationality, institutions, and explanations, in: Langlois, Richard N. (Hrsg.), Essays in the New Institutional Economics, S. 225-255 Lauschmann, Elisabeth (1963), Grundlagen, Grenzen und Entwicklungsmöglichkeiten der Weifare Economics, in: Beckerath, Erwin von/Giersch, Herbert (Hrsg.), Probleme der normativen Ökonomik und der wirtschaftspolitischen Beratung, Berlin, S. 99-128

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

159

Lindahl, Erik (1933), The Concept of Income. In: Economic Essays in Honour of Gustav Cassel. London, S. 399-407 Maskin, Eric/Tirole, Jean (1999), Unforeseen Contingencies and Incomplete Contracts, in: Review of Economic Studies 1999, 66, S. 83-114 Mittelstraß, Jürgen (1995), Artikel „Rekonstruktion", in: Mittelstraß, Jürgen (Hrsg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Band 3, Stuttgart, S. 550-552 Müller, Christian/Tietzel, Manfred (2000), Ordnungspolitische Implikationen der Vertragstheorie, in: Leipold, Helmut/Pies, Ingo (Hrsg.), Ordnungstheorie und Ordnungspolitik, Stuttgart, S. 303-328 Müller, Jens/Sureth, Caren/Läufer, Christian (2010), Mögliche Fallstricke einer Optimierung unternehmerischer Investitionsentscheidungen auf der Grundlage der Konzernsteuerquote, in: Die Wirtschaftsprüfung 2010, S. 1028-1034 Nowak, Klaus (1999), Ökonomik, Erkenntnisfortschritt und theoretische Integration, Lohmar Nutzinger, Hans G. (1999), Theoriebildungen im 20. Jahrhundert, in: Korff, Wilhelm (Hrsg.), Handbuch der Wirtschaftsethik. Band 1, Gütersloh, S. 461-482 Ott, Michaela/Wagner, Franz W. (2012), Wie relevant sind Steuerwirkungen auf Investitionen noch? Zeit-, Bemessungsgrundlagen- und Tarif-Effekte der Unternehmensbesteuerung 19602010, in: Zeitschrift für betriebswirtschaftliche Forschung, 2012, S. 392-427 Richter, Rudolf/Furubotn, Eirik G. (2010): Neue Institutionenökonomik. 4. Aufl. Tübingen Schmidt, Reinhard H. (1980), Ökonomische Analyse des Insolvenzrechts. Wiesbaden Schmidt, Reinhard H./Terberger, Eva (1997), Grundzüge der Investitions- und Finanzierungstheorie. 4. Aufl. Wiesbaden Schmiel, Ute (2006), Rechtsformneutralität als Leitlinie für eine Neukonzeption der Unternehmensbesteuerung?, in: Betriebswirtschaftliche Steuerlehre und Praxis 2006, S. 246-261 Schmiel, Ute (2009), Forschungsziele der Betriebswirtschaftlichen Steuerlehre in der Kritik, in: Zeitschrift fur Betriebswirtschaft 2009, S. 1193-1214 Schneider, Dieter (1987), Allgemeine Betriebswirtschaftslehre, 3. Aufl. München Schneider, Dieter (1995), Betriebswirtschaftslehre. Band 1. Grundlagen, 2. Aufl. München Schneider, Dieter (1997), Betriebswirtschaftslehre. Band 3. Theorie der Unternehmung. München Schneider, Dieter (2000), Mängel in der ökonomischen Begründung einer Steuerfreiheit für Kapitaleinkünfte, in: Steuer und Wirtschaft 2000, S. 421-430 Schneider, Dieter (2001), Betriebswirtschaftslehre. Band 4. Geschichte und Methoden der Wirtschaftswissenschaft. München Schneider, Dieter (2002), Steuerlast und Steuerwirkung, München Schneider, Dieter (2006), Reform der Unternehmensbesteuerung: Niedrigere Steuersätze für zurückbehaltene Gewinne oder höhere Finanzierung aus Abschreibungen?, in: Betriebswirtschaftliche Forschung und Praxis 2006, S. 262-274 Schneider, Dieter (2009), „Finanzierungsneutralität der Besteuerung" als politischer Wunsch und als Widersprüchlichkeit in der erklärenden Theorie, oder: Quo vadis, Arqus, in: Zeitschrift fur Betriebswirtschaftliche Forschung 2009, S. 126-137 Schreiber, Ulrich (2009), Prinzipien der Untemehmensbesteuerung und die Begrenzung des Zinsabzugs, in: Egner, Thomas (Hrsg.), Steuern und Rechnungslegung, Festschrift zum 65. Geburtstag von Jochen Sigloch, Aachen, S. 419-443 Schreiber, Ulrich (2012), Besteuerung der Unternehmen, 3. Aufl., Berlin Schubert, Christian (2006), Die rechtliche Steuerung Urbanen Wandels, Tübingen Schulemann, Olaf (2008), Horizontale Gerechtigkeit und Einkommensbesteuerung, Frankfurt Schumann, Jochen (1994), Wohlfahrtsökonomie, in: Issing, Otmar (Hrsg.), Geschichte der Nationalökonomie, München, S. 215-237 Schwenk, Anja (2003), Die Wirkungen impliziter Steuervorteile des Bilanzrechts, Wiesbaden Siegel, Theodor (2007), Rechtsformneutralität - ein klares und begründetes Ziel, in: Winkeljohann, Norbert/Bareis, Peter/Hinz, Michael/Volk, Gerrit (Hrsg.), Rechnungslegung, Eigenkapital und Besteuerung, Festschrift für Dieter Schneeloch, München, S. 271-290 Sureth, Caren (2006), Steuerreformen und Übergangsprobleme bei Beteiligungsinvestitionen, Wiesbaden Tietzel, Manfred (1981), .Annahmen" in der Wirtschaftstheorie, in: Zeitschrift für Wirtschaftsund Sozialwissenschaften 1981, S. 237-265

160

Ute Schmiel

Tietzel, Manfred (1985), Wirtschaftstheorie und Unwissen, Tübingen Tirole, Jean (1999), Incomplete Contracts: Where do we stand?, in: Econometrica 1999, 4, S. 741-781 Vanberg, Viktor (1997), Die normativen Grundlagen von Ordnungspolitik, in: ORDO - Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft, S. 707-726 Vanberg, Viktor (2000), Der konsensorientierte Ansatz der konstitutionellen Ökonomik, in: Leipold, Helmut/Pies, Ingo (Hrsg.), Ordnungstheorie und Ordnungspolitik - Konzeptionen und Entwicklungsperspektiven, Stuttgart, S. 251-276 Vanberg, Viktor (2003), Evolutorische Ökonomik: Homo Oeconomicus, Markt und Institutionen, in: Evolution in den Natur-, Sozial- Geisteswissenschaften, Berner Universitätsschriften Bd. 46, Bern, S. 117-137 Vanberg, Viktor (2004), Bürgersouveränität und wettbewerblicher Förderalismus: Das Beispiel der EU, in: Schäfer, Wolf (2004), Zukunftsprobleme der europäischen Wirtschaftsverfassung, Berlin, S. 51-86 Vanberg, Viktor (2005), Rationalitätsprinzip und Rationalitätshypothesen: Zum methodologischen Status der Theorie rationalen Handelns, in: Siegenthaler, Hansjörg (Hrsg.), Rationalität im Prozess kultureller Evolution, Rationalitätsunterstellungen als eine Bedingung der Möglichkeit substantieller Rationalität des Handelns, Tübingen, S. 33-63 Vanberg, Viktor (2006), Marktwirtschaft und Gerechtigkeit - Zu F. A. Hayeks Kritik am Konzept der „sozialen Gerechtigkeit", in: Held, Martin/Kubon-Gilke, Gisela/Sturn, Richard (Hrsg.), Normative und institutionelle Grundfragen der Ökonomik, Band 5: Soziale Sicherung in Marktgesellschaften, Marburg, S. 39-69 Vanberg, Viktor (2007), Privatrechtsgesellschaft und Ökonomische Theorie, in: Riesenhuber, Karl (Hrsg.), Privatrechtsgesellschaft - Entwicklung, Stand und Verfassung des Privatrechts, Tübingen, S. 131-162 Vanberg, Viktor (2010), Marktgerechtigkeit und Soziale Marktwirtschaft, in: Kluth, Winfried (Hrsg.), Facetten der Gerechtigkeit, Baden-Baden, S. 94-121 Varian, Hai R. (2011), Grundzüge der MikroÖkonomik. 8. Aufl. München Wagner, Franz W. (1992), Neutralität und Gleichmäßigkeit als ökonomische und rechtliche Kriterien steuerlicher Normkritik, in: Steuer und Wirtschaft (69. Jg.), S. 2-13 Wagner, Franz W. (2003), Die real existierende Einkommensteuer ist eine konsumorientierte Besteuerung, in: Ahlheim, Michael/Wenzel, Hans-Dieter/Wiegard, Wolfgang (Hrsg.), Steuerpolitik - Von der Theorie zur Praxis, Festschrift für Manfred Rose, Berlin, S. 369-390 Wagner, Franz W. (2004), Gegenstand und Methoden betriebswirtschaftlicher Steuerforschung, in: Steuer und Wirtschaft 2004, S. 237-250 Wagner, F. W. (2005), Besteuerung, in: Bitz, M./Domsch, M./Ewert, R./Wagner F. W. (Hrsg.), Vahlens Kompendium der Betriebswirtschaftslehre, Band 2, 5. Aufl., München, S. 407-477 Wagner, Franz W. (2012), Steuerreformen: Warum der „Große Wurf' weder möglich noch nötig ist", in: Finanz-Rundschau 2012, S. 653-667 Watkins, John W. N. (1978), Freiheit und Entscheidung, Tübingen Wegner, Gerhard (2012), Ökonomischer Liberalismus als politische Theorie, Tübingen Wenger, Ekkehard (1986), Einkommensteuerliche Periodisierungsregeln, Unternehmenserhaltung und optimale Einkommensbesteuerung, Teil II, in: Zeitschrift für Betriebswirtschaft 1986, S. 132-151 Witt, Ulrich (1987), Individualistische Grundlagen der evolutorischen Ökonomik, Tübingen Witt, Ulrich/Schubert, Christian (2008), Constitutional Interests in the Face of Innovations: How much do we need to know about risk preferences?, in: Constitutional Political Economy 2008, S. 203-225 Zisowski, Ute (2001), Grundsätze ordnungsgemäßer Überschuldungsrechnung, Bielefeld.

Gleichmäßigkeit der Ertragsbesteuerung - ein ökonomisch fundiertes Besteuerungsziel?

161

Rechtsprechungsverzeichnis Gericht

Datum

Aktenzeichen

Fundstelle

BVerfG (2005)

Urt. v. 09.03.2004

2 BvL 17/02

BVerfGE 110, S. 94-141

BVerfG (2009a)

Urt. v. 17.11.2009

1 BvR 2192/05

BVerfGE 125, S. 1-39

BVerfG (2009b)

Urt. v. 22.09.2009

2 BvL 3/02

BVerfGE 124, S. 235-267

BVerfG (2010a)

Urt. v. 06.07.2010

2 BvL 13/09

BVerfGE 126, S. 268-286

BVerfG (2010b)

Urt. v. 21.07.2010

1 BvR 611,2464/07 BVerfGE 126, S. 400-433

BVerfG (2012)

Urt. v 18.07.2012

1 BvL 16/11

NJW 2012, S. 2719-2722

Zusammenfassung Gleichmäßigkeit der Besteuerung hat neben einer ethischen eine erfahrungswissenschaftliche Dimension. Im Hinblick auf diese erfahrungswissenschaftliche Dimension stellt sich die Frage, wie Gleichmäßigkeit der Besteuerung durch ökonomische Theorien konkretisiert werden kann und auf welche ökonomischen Theorien rekurriert werden sollte. Das hier vorgelegte Ergebnis lautet, dass sich Gleichmäßigkeit der Besteuerung neoklassisch und evolutorisch fundieren lässt. Neoklassische Gleichmäßigkeit wird in der Betriebswirtschaftlichen Steuerlehre als neoklassische Entscheidungsneutralität konkretisiert. Neoklassische Gleichmäßigkeit hat ihr theoretisches Fundament in der neoklassischen Steuerwirkungstheorie und wird aus der neoklassischen Wohlfahrtsökonomik hergeleitet. Evolutorische Gleichmäßigkeit wird hier als Verringerung von Steuerausweichentscheidungen konkretisiert. Sie basiert auf dem von Viktor Vanberg vertretenen evolutorischen Ansatz. Die Entscheidung für neoklassische oder evolutorische Gleichmäßigkeit hängt davon ab, ob man Realitätsgehalt und Widerspruchsfreiheit oder methodische Stringenz stärker gewichtet. Nach hier vertretener Auffassung ist eine realitätsnähere, widerspruchsfreie, wenn auch weniger stringente evolutorische Gleichmäßigkeit gegenüber einer neoklassischen Gleichmäßigkeit vorzuziehen.

162

Ute Schmiel

Summary: Equability of Taxation - an economic based approach of taxation? Equability of taxation has an ethical as well as a theoretical dimension. With regard to this theoretical dimension the question occurs, how equability of taxation can be identified and which economic theories should be referred to. The result presented here is, that equability of taxation can be substantiated in a neoclassical as well as in an evolutionary way. Neoclassical equability of taxation is substantiated as neoclassical tax neutrality. Neoclassical equability of taxation has its foundation in the neoclassical theory of tax effects. Neoclassical tax neutrality is derived from neoclassical welfare economics. Evolutionary equability of taxation is substantiated as reduction of tax avoidance. It is based on the approach by Viktor Vanberg. The decision for neoclassical or evolutionary equability of taxation depends on ones dimensioning on either the degree of reality and consistency or methodical stringency. The view presented here is that a realistic, consistent, though less stringent evolutionary equability of taxation should be preferred to a neoclassical.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Markus Grottke und Maximilian Kittl

Komplexität im Steuerrecht - Zentrale politökonomische Theorien im Lichte einer empirischen Ursachenforschung mit Hilfe von Process Tracing1 Inhalt I. Problemstellung II. Optimale steuerliche Komplexität im Spannungsfeld zwischen Steueraufkommen, Steuererhebungskosten und Steuergerechtigkeit III. Stand der Forschung und Hypothesen 1. Das Leviathanmodell 2. Das Modell der positiven Steuertheorie 3. Das probabilistische Modell 4. Gegenüberstellung der Modelle IV. 1. 2. V. VI. 1. 2. 3. VII.

Zur Methodik des Process Tracing Wissenschaftstheoretische Grundlagen Process Tracing im Rahmen des Steuervereinfachungsgesetzes 2011 Der Gesetzgebungsprozess bei den Kinderbetreuungskosten Der Gesetzgebungsprozess im Lichte der politökonomischen Theorien Die Untersuchung der Hypothesen des Leviathanmodells Die Untersuchung der Hypothesen der positiven Steuertheorie Die Untersuchung der Hypothesen des probabilistischen Modells Ergebnisse und Fazit

164 165 168 168 169 171 172 174 174 176 178 181 181 183 185 187

Literatur

190

Zusammenfassung

193

Summary: Tax complexity in emergence - pivotal political-economic theories revisited in the light of a process tracing field study

193

Die Autoren bedanken sich für zahlreiche Verbesserungsvorschläge zum einen bei ihrem Doktorbzw. Habilitationsvater Prof. Dr. Markus Diller sowie bei Dr. Christoph Pelger, Johannes Lorenz, M.Sc., M.A. und Daniela Kühne, M.Sc. Ferner sind sie dem anonymen Gutachter des Manuskripts zu großem Dank verpflichtet - selten haben sie zugleich ein derart detailliertes, konstruktives und zugleich Kritikwürdiges mit zielsicherem Auge verbesserndes Gutachten erhalten.

164

Markus Grottke und Maximilian Kittl

I. Problemstellung Die Genese von Steuergesetzen ist ein bedeutendes Untersuchungsgebiet der Politökonomie. Insbesondere in der Finanzwissenschaft wurden hierzu in der Vergangenheit verschiedene modelltheoretische Arbeiten vorgelegt (zu einem Überblick siehe u.a. Romer und Rosenthal 1979; Feld und Schaltegger 2012). Demgegenüber wird die empirische Evidenz zu politökonomischen Ansätzen häufig als ungenügend eingestuft (z.B. Otter 2005). Zudem wird kritisiert, dass der Einfluss von Faktoren wie Ideologien, Interessengruppen und Steuerverwaltung vernachlässigt werde (Feld und Schaltegger 2012, S. 117). Im Folgenden sollen darum Implikationen zentraler politökonomischer Modelle (Leviathanmodell, positive Steuertheorie, probabilistisches Modell) für die Entwicklung steuerlicher Komplexität mit dem empirisch beobachtbaren Ablauf eines Gesetzgebungsprozesses konfrontiert werden. Obwohl für keine dieser Theorien der Anspruch erhoben wird, dass sie den Gesetzgebungsprozess allein in seiner Gänze erklären können, bleibt empirisch doch die Frage zu klären, in welcher Art und Weise sie dann mit dem realen Gesetzgebungsprozess in Beziehung stehen. Die Untersuchung erfolgt auf Basis einer Prozessstudie, einer unseres Wissens in der Politökonomie bislang nur selten eingesetzten Forschungsmethode (für nennenswerte Ausnahmen z.B. bei der Analyse internationaler Verhandlungen vgl. Zürn 1998). Gerade durch ihren auf das Detail wertlegenden Fallstudiencharakter (George und Bennett 2005, S. 106 f.) verspricht sie neue, tiefergehende Einblicke. Konkret sollen Erkenntnisse in Bezug auf zwei Forschungsfragen erzielt werden: 1. Welche Rolle spielen die aus den Theorien zu deduzierenden Argumente ftir bzw. gegen das Entstehen von steuerlicher Komplexität in einem tatsächlichen Gesetzgebungsprozess und inwieweit können sie (zumindest in ihrer Gesamtheit) zur Erklärung des Prozesses beitragen? 2. Welche weiteren, für den Themenkreis der steuerlichen Komplexität relevanten und in den Theorien nicht berücksichtigten Faktoren prägen faktische Steuergesetzgebungsprozesse? Die Beantwortung dieser Fragen vermittelt einen Einblick, welche Faktoren in der Praxis Einfluss auf den Gang eines Gesetzgebungsverfahrens nehmen. Für die behandelten Theorien ist dies wichtig, weil so neue Pfade möglicher theoretischer Weiterentwicklungen und Ausdifferenzierungen aufgezeigt werden. Für die sich in der Praxis einbringenden Akteure, seien es Politiker, Ministeriale, Lobbyisten, Journalisten oder Wissenschaftler, ist dies mit Blick auf ihre eigene Beteiligung an Gesetzgebungsprozessen bedeutsam. Der Beitrag ist wie folgt gegliedert. Im ersten Schritt wird zunächst eine normative Vorstellung über ein gesamtgesellschaftlich wünschenswertes Maß an steuerlicher Komplexität entwickelt. Im zweiten Schritt werden gemäß den behandelten Theorien zu erwartende Kausalzusammenhänge in Bezug auf steuerrechtliche Komplexität abgeleitet; ferner wird aufgezeigt, welche Aspekte des gesamtgesellschaftlich wünschenswerten Maßes an steuerrechtlicher Komplexität durch diese Theorien abgebildet werden - und welche nicht. Im dritten Schritt wird die Methode des Process Tracing vorgestellt.

165

Komplexität im Steuerrecht

Hierzu werden zuerst methodologische und wissenschaftstheoretische Implikationen dieser Methodik beschrieben; darauf folgt die konkrete Anwendung zur Aufbereitung eines im Hinblick auf die Forschungsfragen möglichst dichten Datenmaterials anhand eines Gesetzgebungsprozesses aus dem Steuervereinfachungsgesetz 2011. Im vierten Schritt erfolgen eine Analyse der zuvor abgeleiteten Kausalzusammenhänge in diesem Prozess und die Herausarbeitung weiterer Einflussfaktoren. Zuletzt werden die Ergebnisse zusammengefasst und Grenzen der Analyse aufgezeigt.

II. Optimale steuerliche Komplexität im Spannungsfeld zwischen Steueraufkommen, Steuererhebungskosten und Steuergerechtigkeit Die einem Steuersystem inhärente Komplexität kann sich sowohl auf Ebene der Tarifgestaltung als auch auf Ebene der Bemessungsgrundlage ergeben. Da der betrachtete Gesetzgebungsprozess nur letztere aufweist, wird im Folgenden allein die Ebene der Bemessungsgrundlage betrachtet. Komplexität ist hier durch die Existenz von Ausnahmetatbeständen charakterisiert: Je mehr Ausnahmetatbestände ein Steuersystem aufweist, desto komplexer fällt es aus (auch Fuest, Peichl und Schäfer 2007, S. 21 f.). Eine Beurteilung, ob steuerliche Komplexität oder vielmehr ihre Abschaffung gesamtgesellschaftlich wünschenswert ist, lässt sich anhand der Postulate der allokativen Effizienz sowie der distributiven Gerechtigkeit vornehmen (Smith 2006, S. 1024-1026). Vorausgesetzt wird, dass der Staat seine Finanzierung durch die Erhebung eines gegebenen Aufkommens sicherstellen muss. Allokative Effizienz eines Steuersystems wird operationalisiert durch die Steuererhebungskosten, welche zur Erreichung eines gegebenen Aufkommens notwendig sind. Distributive Gerechtigkeit wird wiederum durch die gerechte Verteilung der für die Sicherstellung eines bestimmten Aufkommens zu erhebenden Steuerlasten im Sinne der Besteuerung nach dem steuerlichen Leistungsfähigkeitsprinzip konkretisiert. Das gesamtgesellschaftlich wünschenswerte Maß an steuerlicher Komplexität stellt sich dann anhand einer Abwägung zwischen Steuererhebungskosten und Verfolgung des steuerlichen Leistungsfahigkeitsprinzips bei gegebenem Aufkommen ein. Abbildung 1: Spannungsfeld normativ wünschenswerter Steuerkomplexität Steueraufkommen

Erhebungskosten —



1 i Steuerkomplexität

— Steuergerechtigkeit

Im Folgenden seien Steuererhebungskosten und die Besteuerung nach dem Leistungsfähigkeitsprinzip genauer betrachtet. Die ökonomische Relevanz von Steuererhebungskosten für die Beurteilung eines Steuersystems findet sich bereits bei Adam Smith: Schon dieser sah nicht das Aufkommen an sich, sondern ein möglichst hohes Nettoaufkommen nach Erhebungskosten als erstrebenswertes Ziel an (Smith 2006, S.1025 f.). Nach Wagner (2006, S. 20) lassen

166

Markus Grottke und Maximilian Kittl

sich Steuererhebungskosten nach zwei Dimensionen differenzieren (so auch z.T. Smith 2006, S. 1025 f.): Art (Planungskosten versus Deklarationskosten) und Kostenstelle (Zensit versus Staat). Dem Zensiten entstehen einerseits Planungskosten, da steuerliche Konsequenzen in realwirtschaftlichen Entscheidungen berücksichtigt werden müssen. Je komplexer das Steuerrecht, desto höher werden diese Planungskosten ceteris paribus ausfallen. Neben den Kosten der Planung erhöht Komplexität aber auch die Kosten einer möglichst korrekten Deklaration (Blaufus, Eichfelder und Hundsdoerfer 2011). Neben den auch bei Planungskosten anfallenden Opportunitäts- oder Steuerberatungskosten entstehen hier insbesondere psychische Kosten der Zensiten aufgrund der erzwungenen Auseinandersetzung mit einer eher ungeliebten Thematik (Pitt und Slemrod 1989, S. 1230). Spiegelbildlich zur artspezifischen Untergliederung nach Planungs- und Deklarationskosten der Zensiten fallen Kosten auf Seiten des Staates an. Hier entstehen zum einen Folgeabschätzungskosten bei Steuerrechtsänderungen und zum anderen Prüfungskosten für abgegebene Steuererklärungen. Erstere resultieren daher, dass der Staat bei der Schaffung neuer gesetzlicher Grundlagen deren Wirkungen sowie potenzielle Planungsreaktionen der Zensiten antizipieren muss, um die intendierte Wirkung der neuen Rechtsgrundlage sicherzustellen. Je komplexer ein Steuersystem ist, desto mehr Interdependenzen bestehen zwischen verschiedenen Rechtsvorschriften. Entsprechend nehmen Folgeabschätzungskosten mit steigender Komplexität zu. Auch die Prüfungskosten des Staates steigen an: So vereinnahmt ein komplexeres System zusätzliche zeitliche Ressourcen um bspw. entsprechende Belege zu prüfen, aber auch, weil höhere Ausbildungskosten der Beamten notwendig werden, um Steuererklärungen angemessen auf ihre Richtigkeit hin kontrollieren zu können. Zu beachten ist, dass die einzelnen Arten der Steuererhebungskosten nicht isoliert betrachtet werden können, sondern durch entsprechende Wechselwirkungen charakterisiert sind: Ein Steuerpflichtiger kann seine Deklarationskosten gegebenenfalls dadurch verringern, dass er entsprechende Planungskosten eingeht. Diese Planungskosten wiederum können vermieden werden, wenn der Staat unter Inkaufnahme höherer Folgeabschätzungskosten die Wirkungen seiner Gesetzgebung besser abschätzt. Aufgrund dieser fallspezifischen Wechselwirkungen sind Steuererhebungskosten darum stets in ihrer Gesamtheit zu betrachten, um die Kosten von Komplexität zu erfassen (Bizer und Lyding 2002, S. 471; Wagner 2006, S. 20). Die Ausfuhrungen legen nahe, dass eine Reduktion der bestehenden Komplexität vor dem Hintergrund der dadurch initiierten Senkung der Steuererhebungskosten uneingeschränkt positiv zu beurteilen ist. Zu beachten ist hierbei allerdings, dass ein Mindestmaß an Komplexität notwendig ist, um die Nebenbedingung eines ausreichend hohen Steueraufkommens sicherzustellen (Pitt und Slemrod 1989, S. 1229). Distributive Gerechtigkeit im Sinne einer Besteuerung nach der Leistungsfähigkeit wird regelmäßig durch die Prinzipien der horizontalen und vertikalen Gleichmäßigkeit konkretisiert. Ersteres besagt, dass Gleiches gleich, letzteres, dass Ungleiches ungleich zu besteuern sei (Reding und Müller 1999, S. 46). Mit anderen Worten sollen Personen mit identischer Leistungsfähigkeit gleich, Personen mit höherer Leistungsfähigkeit aber stärker besteuert werden als solche mit niedrigerer Leistungsfähigkeit.

Komplexität im Steuerrecht

167

Eine solche Bestimmung von Gleich und Ungleich bedingt zwangsläufig einen gewissen Grad an Einzelfallunterscheidungen und damit steuerliche Komplexität (Fuest, Peichl und Schaefer 2007, S. 20). Für das Postulat der Leistungsfähigkeit lässt sich allerdings anders als bei den Erhebungskosten kein allgemeingültiger Wirkungszusammenhang mit dem hier zugrunde gelegten Begriff der Komplexität aufzeigen. Zusätzliche Einzelvorschriften und damit einhergehend Komplexität sind nämlich zunächst einmal sowohl in der Lage dieses Prinzip zu wahren, indem sie sicherstellen, dass nun Gleiches gleich oder Ungleiches ungleich besteuert wird. Gleichwohl ist aber auch der gegenläufige Effekt denkbar, sofern die Einfuhrung einer solchen Sondervorschrift nicht vor dem Hintergrund des Leistungsfahigkeitsprinzips erfolgt oder diesem zuwiderläuft. Problematisch ist zudem, dass die Kriterien der Gleichheit und Ungleichheit von subjektiven Gerechtigkeitsvorstellungen abhängen und somit auch unterschiedliche Beurteilungen zu erwarten sind, inwieweit eine (komplexere) steuerliche Vorschrift wünschenswert oder abzulehnen ist. Zu beachten ist ferner, dass Interdependenzen zwischen Steuererhebungskosten und der Verfolgung des Leistungsfähigkeitsprinzips bestehen. So wirken Steuererhebungskosten z.T. distributiv nicht neutral. Beispielsweise entfallen die durch steuerliche Komplexität erzeugten Planungskosten nicht auf alle Zensiten in identischer Weise. Insbesondere für Zensiten mit eher hohem Steuersubstrat kann es sich bei den Planungskosten um ein lohnendes Investment handeln, anders als bei solchen mit geringem Steuersubstrat (Fuest, Peichl und Schaefer 2007, S. 20), da erstere - aber auch weitere Bevölkerungsteile, wie z.B. hochgebildete Bevölkerungsschichten - wegen ihrer höheren Ressourcen komplexere Steuergesetze besser für sich nutzen können als andere Bevölkerungsteile (Mackscheidt 2009, S. 56 f.; Bizer und Lyding 2002, S. 474; Fuest, Peichl und Schaefer 2007, S. 20). Auch die Deklarationskosten unterscheiden sich deutlich zwischen den verschiedenen Zensiten: Hohes Einkommen bspw. steigert diese Kosten im Vergleich zu niedrigem Einkommen eher; liegt bei dem Zensiten jedoch bereits aus anderen Gründen eine Buchhaltung vor, können die Kosten wiederum tendenziell bereits kompensiert werden (Pitt und Slemrod 1989, S. 1229). Zusammengefasst stellt sich die Bestimmung einer gesamtgesellschaftlich optimalen Komplexität als ein Unterfangen dar, welches außerordentlich viele Interdependenzen miteinander abwägen muss. So reicht es gerade nicht aus, einzelne Kostenarten oder Kostenstellen bei den Steuererhebungskosten isoliert zu betrachten. Vielmehr müssen auch Wechselwirkungen zwischen den unterschiedlichen Kostenarten mit einbezogen und deren Auswirkungen auf die Besteuerung nach dem Leistungsfahigkeitsprinzip betrachtet werden. Dieses wiederum erweist sich als nur teilweise bestimmt. Im konkreten Fall müssen hier zusätzlich Überlegungen angestellt werden, welche Vorstellungen von Gleich und Ungleich vorliegen und wie diese gegeneinander abzuwägen sind. Im Ergebnis lässt sich eine normative Vorstellung darüber, ob steuerliche Komplexität im Einzelfall wünschenswert ist oder nicht, nur im Rahmen einer simultanen Betrachtung aller dieser genannten Facetten entwickeln.

168

Markus Grottke und Maximilian Kittl

III. Stand der Forschung und Hypothesen Im Folgenden werden drei zentrale politökonomische Modelle vorgestellt, welche grundsätzlich geeignet sind, jeweils verschiedene Facetten des durch den Gesetzgebungsprozess resultierenden Komplexitätsab- oder -aufbaus positiv erklären zu können: Das Leviathanmodell (1.), die positive Steuertheorie (2.) und das probabilistische Wählermodell (3.)- Weitere bedeutende Modelle der politökonomischen Forschung wie z.B. das Medianwählermodell, spieltheoretische Modelle, agency-theoretische Modelle sowie strukturinduzierte Gleichungsmodelle (für einen Überblick siehe Hettich und Winer 1999, S. 13-18, 22 f.) wurden in der vorliegenden Untersuchung ausgeklammert. Die spiel- sowie agency-theoretischen Modelle sowie das strukturinduzierte Gleichgewichtsmodell betreffend lag dies daran, dass unseres Wissens bislang keine etablierten Wirkungszusammenhänge zur spezifischen Erklärung von steuerlicher Komplexität modelliert wurden. Im Hinblick auf das Medianwählermodell hingegen ließ sich im herangezogenen Datenmaterial kein empirisches Korrelat zu Medianwähler und Randwählern finden; das wäre notwendig gewesen, um empirische Aussagen zu dem Modell zu treffen. In diesem Fall bestätigten sich bereits vor einem tiefergehenden Versuch die von Otter geäußerten Bedenken hinsichtlich der zwar theoretischen, nicht jedoch empirischen Progressivität von Theorien der Neuen Finanzwissenschaft (Otter 2005, S. 189).

1. Das Leviathanmodell Im Leviathanmodell wird der Staat als ein Nettoaufkommensmaximierer modelliert, welchem eine uneingeschränkte Besteuerungsgewalt zukommt (Brennan und Buchanan 1980, S. 26 f.; Hettich und Winer 1999, S. 20 f.; in allgemeiner gefasster Weise findet sich dieses Modell bereits bei Röpke 1979, S. 42; auch Krüsselberg 1999, S. 12). Insbesondere muss sich der Staat gerade nicht nach dem Wahlverhalten der Bürger richten. Stattdessen wird sich der Staat an der Maximierung des Saldos aus Steueraufkommen und den ihn betreffenden Steuererhebungskosten orientieren. Aufgrund der vorherrschenden Annahme der vollkommenen Information des Staates beschränken sich letztere bei dem Leviathanmodell auf die Prüfungskosten des Staates. Zur Maximierung des Nettoaufkommens verfügt der Staat im Steuersystem grundsätzlich über zwei Stellschrauben: Die Bemessungsgrundlage einerseits und den Steuertarif andererseits. Hierbei sind beide Aspekte simultan zu betrachten. Neben einem möglichst hohen Steuersatz ist eine breite Bemessungsgrundlage anzustreben. Letztere hat neben einer direkten Aufkommenssteigerung zusätzlich Konsequenzen im Hinblick auf den optimalen Steuersatz. Der bekannte Zusammenhang der Laffer-Kurve zeigt, dass ein Steuersatz über dem optimalen Niveau aufgrund von Anpassungsreaktionen der Zensiten zu einer Abnahme des steuerlichen Aufkommens führt (Wanniski 1978, S. 97 f.). Eine breitere Bemessungsgrundlage erschwert solche Anpassungsreaktionen, indem sie sie entweder gänzlich verhindert oder aber dem Zensiten höhere Planungskosten für eine Umgehung auferlegt. Folglich ist ein höherer Steuersatz durchsetzbar und damit ein höheres Aufkommen möglich (Hettich und Winer 1999, S. 22).

Komplexität im Steuenecht

169

Eine Wirkung auf die Komplexität des Steuersystems entsteht auf zwei Wegen: Zum einen können Sondervorschriften gestrichen werden, welche Einnahmen als steuerfrei oder aber Abzugsbeträge als steuerlich zulässig qualifizieren. Dieses Vorgehen würde aufgrund der hierdurch induzierten Komplexitätsreduktion auch eine Senkung der Steuererhebungskosten des Fiskus bewirken und wäre für den Staat insofern doppelt erstrebenswert. Eingeschränkt wird ein solches Vorgehen allein durch verbleibende Möglichkeiten der Zensiten, Anpassungsreaktionen vorzunehmen. Ein zweites Vorgehen zur Verbreiterung der Bemessungsgrundlage liegt in der Schaffung weiterer Sondervorschriften, welche die Berücksichtigung von steuerlichen Abzugsbeträgen einschränkt oder weitere zuvor noch nicht besteuerte Einnahmen in die Bemessungsgrundlage integriert. Im Gegensatz zu ersterem Ansatz zeichnet sich im Hinblick auf die Steuererhebungskosten nun ein Trade-Off ab, da der Aufkommenssteigerung jetzt auch eine Steigerung der staatlichen Prüfungskosten gegenübersteht. Ferner wird der Staat auch hier die verbleibenden Möglichkeiten der Zensiten zu Anpassungsreaktionen beachten. Insgesamt legt das Modell des Leviathans damit folgende Kausalzusammenhänge nahe: LI:

Der Staat wird aufkommensreduzierende Sondervorschriften streichen, solange sich nach verbleibenden Anpassungsreaktionen ein positiver Grenzertrag, bestehend aus positivem Aufkommenseffekt und Senkung der Prüfungskosten, ergibt.

L2:

Der Staat wird aufkommenssteigernde Sondervorschriften erlassen, solange der aus ihnen resultierende Grenzertrag zusätzlichen Aufkommens die durch sie induzierten marginalen Prüfungskosten und die auf die verbleibenden Anpassungsreaktionen zurückzuführenden Aufkommensminderungen übersteigt.

Im Abgleich mit den zuvor erörterten Determinanten eines optimalen Komplexitätsniveaus fällt auf, dass die Leviathanhypothese sowohl die Steuererhebungskosten der Zensiten als auch die Auswirkungen des staatlichen Verhaltens auf die Wahrung des Postulats der Leistungsfähigkeit ausblendet. Diese kommen allenfalls indirekt in Form von daraus resultierenden Anpassungsreaktionen zum Tragen. Auf diese Ziele wird folglich auch nur dann eingewirkt, wenn sie das Nettoaufkommen beeinflussen können. Zugleich entfallen die Folgeabschätzungskosten des Staates aufgrund der Annahme, dass dieser über vollständige Informationen hinsichtlich des Handelns der Zensiten verfuge.

2. Das Modell der positiven Steuertheorie Das von Hettich und Winer (1984) entwickelte Modell der positiven Steuertheorie sieht die Zielsetzung des Staates bei der Steuergesetzgebung darin, die politischen Kosten der Erhebung bei Wahrung eines gegebenen Steueraufkommens zu minimieren. Unter politischen Kosten sind hierbei wirksame Mittel von Wählergruppen zur Verhinderung einer Wiederwahl der für die Steuergesetzgebung zuständigen Regierungspartei zu verstehen (Hettich und Winer 1984, S. 70). Politische Kosten erfordern ein gewisses Gewicht der jeweiligen Wählergruppe, weswegen eine Fokussierung auf den einzelnen Zensiten ausscheidet. Zugleich gilt, dass nicht alle Wählergruppen einer Ge-

170

Markus Grottke und Maximilian Kittl

sellschaft dieselben politischen Kosten verursachen. Nichtsdestotrotz erscheint es trügerisch zu vermuten, dass sich zwangsläufig die Interessen der größten Gruppe(n) durchsetzen. So kommt es für die politische Durchsetzbarkeit der Interessen einer Wählergruppe nach Olson (1965) darauf an, dass sie ihre Interessen organisieren kann, insbesondere, dass das Einzelmitglied der Gruppe individuell einen Anreiz hat die Gruppe zu unterstützen. So würde es untätig bleiben, wenn es von einer Aktivität der Gruppe auch profitieren könnte, ohne sich zu engagieren. Dennoch werden nicht nur ausschließlich Lobbygruppen als explizite Zusammenschlüsse politische Kosten induzieren können. Wählergruppen können sich vielmehr auch ohne institutionalisiert zu sein auf Basis von Meinungsübereinstimmungen und einer gemeinsamen Betroffenheit von Neuregelungen ergeben. Zwei der für die Beeinflussung politischer Kosten von Hettich und Winer (1984) angeführten Faktoren entfalten auch für die Frage der Komplexität des Steuerrechts Bedeutung. Einerseits könnte der Staat die Steuerlast für wichtige Wählergruppen durch Variationen in der schlechter sichtbaren Bemessungsgrundlage dadurch senken, dass entweder entlastende Ausnahmetatbestände geschaffen oder belastende Ausnahmetatbestände gestrichen werden. Während bei ersterem Ansatz Komplexität erzeugt wird, würde diese durch den zweiten Ansatz reduziert. Zuletzt können die politischen Kosten dieser Wählergruppen auch durch eine Senkung ihrer Steuererhebungskosten minimiert werden (Hettich und Winer 1984, S. 72). Aufgrund der vorherrschenden Annahme der vollkommenen Informationen entfallen modellbedingt sämtliche Planungskosten. Eine Senkung ist damit gleichbedeutend mit einer Reduktion der Deklarationskosten, z.B. indem Nachweispflichten oder auszufüllende Formulare reduziert werden (vgl. Hettich und Winer 1984, S. 72). Das Modell legt damit drei Kausalzusammenhänge nahe, die ein Ergebnis des Gesetzgebungsprozesses in Bezug auf die steuerliche Komplexität erklären können. Sollte es sich um eine Gruppe von Zensiten handeln, welche zur Verursachung von politischen Kosten in der Lage ist, so wird die steuerliche Gesetzgebung des Staates darauf ausgerichtet sein, PT1: PT2:

PT3:

Komplexität steigernde Variationen in der Bemessungsgrundlage in Form zusätzlicher Ausnahmetatbestände zu Gunsten dieser Zensiten einzuführen. Komplexität senkende Variationen in der Bemessungsgrundlage in Form der Elimination von für diese Zensiten nachteiligen Ausnahmetatbeständen durchzuführen. Komplexität zu reduzieren, sofern dadurch die Steuererhebungskosten für die politische Kosten verursachenden Zensiten gesenkt werden können.

Im Lichte des normativ optimalen Komplexitätsniveaus zeigt sich, dass auch hier Steuergerechtigkeit als Parameter zur Bestimmung eines optimalen Komplexitätsniveaus per se ausgeblendet wird: Variationen werden stattdessen gemäß den Interessen der Gruppierungen mit den potentiell höchsten politischen Kosten vorgenommen; gleichzeitig wird die bei konstant gehaltenem Nettoaufkommen eintretende Konsequenz in Kauf genommen, weniger schlagkräftige Teile der Gesellschaft zur Gegenfinanzierung zusätzlich zu belasten - zumindest sofern nicht Einsparungen bei den Steuererhebungskosten dies auffangen. Dieses Modell führt also zu einer Komplexität, welche der optimalen durch ihre steigende Ungerechtigkeit gerade entgegengesetzt ist.

Komplexität im Steuerrecht

171

der optimalen durch ihre steigende Ungerechtigkeit gerade entgegengesetzt ist. Ferner finden die Deklarationskosten der Zensiten nur insoweit Eingang, als diese einer potentiell politische Kosten verursachenden Wählergruppe angehören. Zuletzt gilt, dass aufgrund der vorhandenen Informationsannahme die Planungskosten der Zensiten wie auch die Folgeabschätzungskosten des Staates nicht ins Kalkül eingehen, wiewohl sie entscheidungsrelevant sein könnten.

3. Das probabilistische Modell Dem probabilistischen Modell zufolge versucht eine Regierungspartei jeweils die politische Unterstützung seitens der Wähler im Erwartungswert zu maximieren, wobei das Steueraufkommen erneut gewahrt bleiben soll (Hettich und Winer 1999, S. 18 f.). Angenommen wird, dass die Bürger umso mehr Unterstützung gewähren, je genauer die Unterschiede zwischen ihnen berücksichtigt werden, d.h. je mehr Einzelfallgerechtigkeit herrscht. Die sich so anbahnende Flut an Ausnahmetatbeständen verursacht die Komplexität des probabilistischen Modells (Hettich und Winer 1999, S. 90). Beschränkt wird dieser Komplexitätsaufbau durch die wahlrelevanten Steuererhebungskosten, d.h. sowohl durch die administrativen Kosten der Gesetzesbefolgung auf Seiten der Bürger wie durch die entstehenden administrativen Kosten der Steuererhebung auf Seiten des Staates (Hettich und Winer 1999, S. 70, 78). Erneut beinhaltet das Modell aufgrund der Annahme der vollkommenen Information weder Planungskosten der Zensiten noch Folgeabschätzungskosten des Staates. Zugleich sorgt der Wettbewerb zwischen den Parteien dafür, dass im Gleichgewicht keine bessere Unterstützung als die gewählte möglich ist, da die Opposition diese ansonsten nutzen würde, um sich gegenüber den Wählern im Erwartungswert besser darzustellen (Hettich und Winer 1999, S. 69). Mithin resultiert eine optimale Nettodichte an steuerlichen Regelungen. Aus dem probabilistischen Ansatz lassen sich damit folgende Kausalzusammenhänge ableiten: PI:

Kann durch die Schaffung von Ausnahmetatbeständen die Einzelfallgerechtigkeit erhöht werden, ergibt sich die optimale Komplexität aus dem Trade-off zwischen erhöhter Einzelfallgerechtigkeit einerseits und der für die Bürger und die Finanzverwaltung relevanten administrativen Steuererhebungskosten andererseits.

P2:

Die Komplexität sinkt, wenn durch den Wegfall von Ausnahmetatbeständen die Einzelfallgerechtigkeit erhöht werden kann und simultan auch Deklarations- und Prüfungskosten sinken.

Bezogen auf das zuvor eingeführte normative Modell optimaler steuerlicher Komplexität ist zu konstatieren, dass diese Theorie am umfassendsten ausfällt. So werden hier alle Steuererhebungskosten, d.h. sowohl diejenigen des Staates als auch diejenigen der Zensiten berücksichtigt. Auch der Steuergerechtigkeit wird Rechnung getragen. Einzig der Einbezug von Planungskosten und Folgeabschätzungskosten ist in diesem Modell nicht vorgesehen.

172

Markus Grottke und Maximilian Kittl

4. Gegenüberstellung der Modelle Betrachtet man die Modelle in der Zusammenschau, zeigen sich die folgenden Zusammenhänge. Zunächst stehen sich die beiden extremen Modelle eines vollständig ohne Rücksicht auf den Bürger handelnden Staates im Leviathanmodell einerseits und eines die Interessen aller Bürger im Erwartungswert berücksichtigenden Staates im probabilistischen Modell andererseits gegenüber. Das Leviathanmodell fuhrt dabei zu der Hypothese, dass im Ergebnis des Gesetzgebungsprozesses jeweils das Nettoaufkommen des Staates maximierende Vorschriften resultieren, wobei Gerechtigkeitsüberlegungen nachrangig sind. Demgegenüber legt das probabilistische Modell den Fokus auf eine Einzelfallgerechtigkeit, die ihre Schranke in dem damit einhergehenden Anstieg der Steuererhebungskosten von Bürger und Staat findet. Das Modell der positiven Steuertheorie nimmt eine Mittelposition ein. So lässt es den Staat nicht mehr auf alle Bürger gleichermaßen, sondern auf mächtige Wählergruppen reagieren, da diese hohe politische Kosten verursachen können, auch wenn sie nicht einer Mehrheit entsprechen. Zugleich unterscheidet es sich von den beiden anderen Modellen darin, dass der Staat nicht mehr eine Maximierungsstrategie verfolgt, sondern vielmehr die Minimierung der politischen Kosten. Tabelle 1 fasst Gemeinsamkeiten und Unterschiede der Modelle im Hinblick auf Struktur und erwartete Effekte zusammen: Tabelle 1 :

Gegenüberstellung politökonomischer Modelle Leviathanmodell

Positive Steuertheorie

Probabilistisches Modell

Einfluss des Bürgers

Kein Einfluss

Einfluss weniger mächtiger Gruppen

Einfluss aller Bürger

Optimierungskalkül

Maximierung des Nettosteueraufkommens

Minimierung politischer Kosten bei konstantem Nettosteueraufkommen

Maximierung der erwarteten Wählerstimmen bei konstantem Nettosteueraufkommen

Einfluss auf Komplexität

(1) Die Komplexität sinkt, wenn entlastende Ausnahmetatbestände gestrichen werden.

(1) Die Komplexität steigt, wenn entlastende Ausnahmetatbestände für starke politische Gruppen geschaffen werden.

(1) Die Komplexität steigt, wenn dadurch der Heterogenität der Wahlbevölkerung stärker Rechnung getragen wird.

(2) Die Komplexität sinkt, wenn belastende Ausnahmetatbestände starker politischer Gruppen gestrichen werden.

(2) Die Komplexität sinkt, wenn dadurch der Heterogenität der Wahlbevölkerung stärker Rechnung getragen wird.

(2) Die Komplexität steigt, wenn belastende Ausnahmetatbestände geschaffen werden.

(3) Die Komplexität sinkt, wenn administrative Kosten starker politischer Gruppen reduziert werden.

173

Komplexität im Steuerrecht

Betrachtet man die Modelle in der Zusammenschau in Relation zu dem normativ wünschenswerten Maß an Komplexität, so zeigt sich, dass keines der Modelle alle Dimensionen berücksichtigt, welche bei einer Bestimmung eines optimalen Komplexitätsniveaus eine Rolle spielen (sollten). Dies wird in folgender Übersicht deutlich, in welcher die jeweiligen Spannungsfelder gegenübergestellt werden. Tabelle 2:

Gegenüberstellung der modellinduzierten Spannungsfelder steuerlicher Komplexität Spannungsfeld optimaler Komplexität Steuerau kommen

Normativ wünschenswert

ErhebungskostenFol„eri>ldl S u i t Erhebungskostenpto^z^», Erhebungskostenpato, S ua Erhebungskosten Ddd Zmsh

^

,/ Steuerko mplexität




c.

/

, Steuerko mplexität

Steuerau kommen Probablistisches Modell

Erhebungskostenprtifi,,,,, Sual Erhebungskosten Ddd Zensit

/

>

Steuerko mplexität

Alle Modelle blenden einen Teil der Steuererhebungskosten, nämlich die Planungskosten der Zensiten wie auch die Folgeabschätzungskosten des Staates durch die vollkommene Informationsannahme aus. Positive Steuertheorie und Leviathanmodell vernachlässigen darüber hinaus auch den Fragenkomplex der distributiven Gerechtigkeit des Steuerrechts. Im Folgenden werden die abgeleiteten Kausalzusammenhänge genutzt, um den im Rahmen eines tatsächlichen Gesetzes beobachtbaren Komplexitätsab- bzw. -aufbau auf Basis der in diesem Zusammenhang benutzten Argumente zu analysieren und erklären. Die verwandte Methodik zur Aufbereitung des hierzu benötigten empirischen Datenmaterials wird im nachfolgenden Abschnitt dargestellt.

174

Markus Grottke und Maximilian Kittl

IV. Zur Methodik des Process Tracing 1. Wissenschaftstheoretische Grundlagen Process Tracing dient dem Zweck, die faktische Entwicklung von Entscheidungsprozessen im Zeitablauf nachzuvollziehen (Langley 1999, S. 692). Dazu werden die Daten eines Prozesses zunächst systematisch gesammelt, um die einzelnen Elemente einer Kausalkette, d.h., Ursachen, Verbindungselemente und Wirkungen, zu identifizieren (Zürn 1998, S. 640). Mit anderen Worten werden zunächst nur kausale Formationen von Äußerungen in Diskursen identifiziert, die einen gewissen Eindruck hervorrufen. Hierbei bietet es sich mit Blick auf zahlreiche kritische Fragen der Interpretation bei der Darstellung an, bewusst keine Wertungsentscheidung zu treffen. Im nachfolgenden Gesetzgebungsprozess wird beispielsweise weder versucht, die relative Stellung in Bezug auf Macht oder Einfluss von Lobbyisten oder Politikern im Gefüge des politischen Apparates zu identifizieren, noch strategisches Verhalten als solches zu entlarven. Diese Vorgehensweise erweist sich als verobjektivierend, da in solchen Konstellationen regelmäßig keine Vorgehensweise bekannt ist, die solche Wertungsentscheidungen zweifelsfrei anhand des herangezogenen empirischen Datenmaterials vornehmen könnte. Liegen die Wirkungen solcher Wertungen im Diskurs selbst vor, werden sie sich ohnehin in den Daten abzeichnen. Die (beobachtbaren) Wirkungen können dann mit Hilfe der identifizierten kausalen Beziehungen auf eine Anzahl von Variablen zurückgeführt werden (Hall 2006, S. 24). Um allgemein zu untersuchen, ab wann den identifizierten kausalen Beziehungen der Status einer wissenschaftlichen Erklärung beizumessen ist, kann auf das Schema von Hempel und Oppenheim (1948) zurückgegriffen werden. Demzufolge erklärt eine Ursache (Explanans) eine bestimmte Wirkung (Explanandum), wenn sie die Voraussetzungen für den Eintritt von letzterem spezifiziert. Im Wesentlichen sind hierzu drei logische und eine empirische Bedingung zu erfüllen: Logisch gilt zum Ersten, dass das Explanandum schlüssig aus den Prämissen des Explanans gefolgert werden können muss, zum Zweiten, dass im Explanans die notwendigen Gesetzeshypothesen expliziert sind, welche für eine Ableitung notwendig sind und drittens, dass das Explanans nicht tautologisch oder widersprüchlich definiert sein darf, mithin nicht immer wahr oder falsch, so dass ein empirischer Gehalt überhaupt möglich ist. Empirisch wird gefordert, dass das Explanans auf positiv beobachteten Tatsachen beruht, mithin ein empirischer Gehalt auch faktisch vorliegt. Process Tracing erlaubt uns - unter Annahme der logischen Bedingungen - die empirische Voraussetzung der jeweiligen Theorien zu prüfen. Ein beobachtbarer Prozess selektiert sich hierbei selbst die Theorien, welche geprüft werden können: Voraussetzung ist, dass entweder Prämissen, Gesetzeshypothesen oder aber Ergebnisse der Theorie im Prozess vorhanden sind. Ein gelungenes Process Tracing liegt dann vor, wenn ein kausaler Bezug - oder aber sein Fehlen - ausreichend spezifiziert werden kann, so dass er sich hernach auch be- oder widerlegen lässt (Giugni 1999). Es muss also nicht notwendigerweise ein bestätigendes Process Tracing angestrebt werden; vielmehr lässt sich Process Tracing auch so vollziehen, dass alternative Erklärungen als existent nachgewiesen werden (Giugni 1999). Dies ist insbesondere dann sinnvoll, wenn - wie im vorliegenden Fall - unterschiedliche Theorien

Komplexität im Steuerrecht

175

darüber bestehen, welche Arten von Kausalfaktoren und -beziehungen das fragliche Ergebnis hervorgerufen haben (Hall, 2006, S. 25). So lassen sich die gemäß einer Theorie zu erwartenden Ergebnisse und Kausalmechanismen mit den komplexen empirisch beobachtbaren Phänomenen konfrontieren und hieraus Schlussfolgerungen ziehen, zu welchem Grad Theorien mit der Realität in Einklang gebracht werden können (George und Bennett 2005, S. 217). Die offen gelegten kausalen Beziehungen können folglich genutzt werden, um allgemeine(re) Theorien zu entwickeln oder aber bestehende Theorien zu testen und zu verbessern (George und Bennett 2005, S. 217). Insbesondere wird hierbei aufgedeckt, inwieweit eine Theorie überspezifiziert ist, d.h. ein Teil der Prämissen im Explanans zur Ableitung ihrer Ergebnisse empirisch gar nicht beobachtet werden kann, mit anderen Worten, einem Teil der Prämissen im Explanans kein empirischer Gehalt zukommt. Das lässt die Methode im vorliegenden Fall besonders für die Beantwortung der ersten Forschungsfrage geeignet erscheinen. Ebenso kann Process Tracing aufzeigen, dass eine Theorie unterspezifiziert ist, indem fehlende Gesetzeshypothesen und Prämissen identifiziert und die vorher an ihrer Stelle befindlichen Gesetzeshypothesen und Prämissen als bloße Symptome der neuen, zuvor noch unbegriffenen oder unbekannten Gesetzeshypothesen und Prämissen auf ihren Platz verwiesen werden (George und Bennett 2005, S. 209). So zeigt sich, ob überhaupt alle wichtigen Einflussfaktoren und Gesetzeshypothesen bekannt sind (Hall, 2006, S. 26), was Ergebnisse mit Blick auf die zweite Forschungsfrage verspricht. Einschränkend anzumerken ist, dass Process Tracing, wiewohl allein darauf fokussiert, kein eindeutiges Ergebnis liefern kann. Kausalität bleibt epistemologisch nur eine für den Menschen nützliche Heuristik (Luhmann 1973, S. 26-29). Möglich ist allein, eine umfassende Abfolge der relevanten Ereignisse zu erfassen (Langley 1999, S. 692), die bestimmte Kausalitäten als Erklärungsmuster nahelegt. Allerdings liegt die Zielsetzung eines Process Tracing auch nur bedingt darin, eine zwar mögliche, aber ohnehin in ihrer Aussage auf den Einzelfall beschränkte Verifikation oder Falsifikation der durch die Theorien nahegelegten Kausalzusammenhänge zu erreichen. Vielmehr wird angestrebt, das „Wie" in den Mittelpunkt der Betrachtungen zu stellen, d.h. die in den Theorien von ihrem praktischen Kontext isolierten Wirkungszusammenhänge wieder in der praktischen Realität, in der sie beheimatet sind, zu betrachten und zu untersuchen. Ein solcher Test theoretischer Ableitungen im Labor der lebenden Gesetzgebungspraxis (ähnlich auch Krüsselberg 1999, S. 12) trägt den Bedenken Hayeks Rechnung, dass Ökonomen häufig die normativen und institutionellen Grundlagen der Prozesse, die sie analysieren, nicht mehr kennen oder vernachlässigen (auch Mestmäcker 2009, S. 88), im Besonderen, dass „the concrete knowledge which guides the action of any group of people never exists as a consistent and coherent body. It only exists in the dispersed, incomplete, and inconsistent form in which it appears in many individual minds." (Hayek 1979, S. 50)

So trägt Process Tracing die verstreuten unvollständigen Informationen der handelnden Personen zusammen und erlaubt gerade dadurch Schlussfolgerungen darüber, was geschieht, wenn mit einer begrenzten Rationalität und Verarbeitungskapazität im politischen Prozess beteiligte Individuen miteinander interagieren. Dies geschieht allerdings in den bekannten Grenzen der Diskursanalyse: Die Ergebnisse können allein für das durch bewusst gewählte Selektionsschritte artifiziell erzeugte

176

Markus Grottke und Maximilian Kittl

Datenmaterial Gültigkeit beanspruchen. Es handelt sich um Beobachtungen, welche durch den betrachteten Diskurs konstitutiv erzeugt werden und damit in ihrer Gültigkeit auf diesen beschränkt sind (so bereits Foucault 1981). Die Diskurstheorie untersucht hierbei lediglich eine positive Oberfläche des politischen Prozesses. Andere Fragestellungen hätten eine andere Selektion, folglich einen anderen Diskurs und zuletzt auch andere Ergebnisse zur Folge gehabt. Ferner ist vorstellbar, dass sich mit anderen Forschungsmethoden andere Schlussfolgerungen erzielen lassen, beispielsweise durch großzahlige statistische Auswertungen. Sofern die verfolgte Fragestellung jedoch - wie in diesem Fall - allein lautet, die Funktion der durch die Theorien beschriebenen Kausalzusammenhänge in der Praxis sowie mögliche weitere Einflussfaktoren kennenzulernen, erscheint dies hinnehmbar. Zur Absicherung der gewonnen Erkenntnisse über wirkende Einflüsse wird Process Tracing regelmäßig durch kontrafaktische Analysen ergänzt (Betsill und Corell 2008; Tetlock und Belkin 1996). Es handelt sich hierbei um Sensitivitätsanalysen: Aufbauend auf den gefundenen Kausalbeziehungen wird untersucht, welches Ergebnis sich einstellen würde, wenn der zu untersuchende und als relevant erachtete Einfluss nicht wirken würde (Biersteker 1995, S. 318). Würde das beobachtbare Ergebnis unter diesen Umständen nicht eintreten, ist dies eine Bestätigung des ermittelten Einflusses. Dieses Vorgehen trägt generell dem Fallstudiencharakter Rechnung, welcher grundsätzlich immer mehr erklärende, unabhängige Variablen als vergleichbare Fälle bereitstellt (Fearon 1991, S. 156). Im vorliegenden Fall wird eine kontrafaktische Analyse allerdings nicht durchgeführt, da zu wenig über mögliche alternative Entwicklungen des Gesetzgebungsverlaufs bekannt ist, um hinreichend fundierte Aussagen vorzunehmen.

2. Process Tracing im Rahmen des Steuervereinfachungsgesetzes 2011 Zentral für die Aufbereitung der Datenbasis ist, dass die erhobenen Daten für eine Beurteilung des angestrebten Zieles auch wirklich brauchbar sind (Betsill und Corell 2001). So müssen die beobachtbaren Daten beides leisten: eine empirische Korrelation zwischen Ursachen und Wirkungen aufzeigen und mit Hilfe von Process Tracing nachweisen, dass die benannten Ursachen als Wirkungen im Sinne des belegten Kausalmechanismus' gelten können (Betsill und Corell 2008, S. 37). Im vorliegenden Fall wurde zunächst das gesamte Gesetzgebungsverfahren analysiert. Um einen tiefgehenden Einblick zu erlauben, wurde für die vorliegende Untersuchung jedoch zuletzt der Prozess zur Neuerung bei der Abzugsfahigkeit von Kinderbetreuungskosten herausgegriffen. Die bekanntermaßen Komplexität erzeugende Struktur von kinderbedingten Steuererleichterungen (Maag 2010) spiegelte sich auch in diesem Prozess wieder, welcher sowohl einen Komplexitätsaufbau als auch einen Komplexitätsabbau beinhaltete und damit besonders aufschlussreiche Erkenntnisse versprach. Methodisch wurde bei der Auswahl der Daten für den Zeitraum zwischen dem 31.02.2010 und dem 15.11.2011, getrennt nach Pressediskurs, Lobbydiskurs, Fachdiskurs und Gesetzgebungsdiskurs wie folgt vorgegangen. Für den Gesetzgebungsdiskurs wurden sämtliche Daten des Gesetzgebungsprozesses ausgewertet, die vom Deutschen

Komplexität im Steuerrecht

177

Parlamentarischen Informationsdienst (DPI) abrufbar sind. Zur Ermittlung des Pressediskurses wurde auf die Datenbanken der Frankfurter Allgemeinen Zeitung (FAZ) und der Süddeutschen Zeitung (SZ) sowie von wiso (u.a. Handelsblatt, Die Welt, Die Zeit, taz sowie zahlreiche regionale Tageszeitungen) mit den Stichwörtern „Steuervereinfachungsgesetz", „Steuer" und „Vereinfachung" sowie „Kinderbetreuungskosten" zurückgegriffen. Mit den Schlagwörtern identifizierte, aber nicht mit dem Steuervereinfachungsgesetz 2011 in Zusammenhang stehende Dokumente wurden aussortiert. Selbiges wurde anhand der wiso- (u.a. Der Betrieb, Der Ertrag-Steuer-Berater, FinanzRundschau Ertragsteuerrecht), NWB- und Beck-online-Datenbank (u.a. DStR, BetriebsBerater, SteuK) für den Fachdiskurs vollzogen. Für den Lobbydiskurs wurde auf die im Internet verfügbaren schriftlichen Stellungnahmen der Lobbyistenverbände zurückgegriffen. Die beteiligten Verbände wurden anhand der Liste der Stellungnahmen für die Sachverständigenanhörung im Mai 2011 (Deutscher Bundestag 201 la) identifiziert. Die Informationen aller vier Diskurse wurden durch Querweise in den bereits ermittelten Quellen auf weitere Quellen vervollständigt. In einem ersten Auswertungsschritt wurden alle aus den genannten Quellen stammenden Informationen, sofern sie zu den Kinderbetreuungskosten in Relation standen, in eine chronologische Reihenfolge gebracht (zum Vorgehen z.B. Langley 1999, S. 695). Insgesamt handelte es sich zu Beginn um 144 Quellen, wobei 14 Quellen aus dem Fachdiskurs (F), 93 Quellen aus der Presse (P), 18 Quellen aus der Gesetzgebung (G) und 19 Quellen aus Lobbyistenstellungnahmen (L) stammten. In einem zweiten Schritt wurden die geschilderten Kausalzusammenhänge als Ausprägungen der jeweiligen Theorien genutzt, um den Prozess in einem zweistufigen Verfahren auf eine Konfrontation der Theorien mit der empirischen Evidenz hin zu kürzen und zu schärfen. In einem ersten Arbeitsschritt wurden alle Quellen ohne jeden Bezug zu den Kausalzusammenhängen und ohne Erklärungsgehalt für das resultierende Gesetzgebungsergebnis (beispielsweise bloße Gesetzeswiedergaben) entfernt. Auf diese Art konnten 57 Quellen (5 G; 2 L; 3 F; 47 P) eliminiert werden. Im zweiten Arbeitsschritt wurden aus den verbleibenden, grundsätzlich bedeutsamen Quellen alle Informationsbestandteile ohne Zusammenhang zu den Kausalzusammenhängen und ohne ersichtliche Relevanz für das Gesetzesergebnis oder Teilergebnisse des Gesetzgebungsprozesses eliminiert. Im Ergebnis entsteht so ein vereinfachter Prozess, der sich ausschließlich auf Kausalzusammenhänge bezieht, die entweder in Bezug auf die drei genannten Theorien oder in Bezug auf das Zustandekommen des Ergebnisses des Gesetzgebungsprozesses relevant sind. Um den Grad an Intersubjektivität zu erhöhen, wurden sämtliche Arbeitsschritte dieses Prozesses von beiden Autoren jeweils unabhängig voneinander durchgeführt. Die Übereinstimmung bei der Einordnung der Quellen betrug 82,9% (24 Quellen wurden nicht übereinstimmend klassifiziert: 2 G; 3 L; 1 F; 18 P), bei der Informationsentfernung innerhalb der relevanten Quellen waren 83,33 % (Zeichenanzahl) identisch. Nach Diskussionen der Unstimmigkeiten konnte in beiden Schritten eine einheitliche Auswahl erreicht werden. Sämtliche der in diesem Prozess entstandenen Teilergebnisse sind auf Nachfrage bei den Autoren erhältlich. Die Tabelle 3 fasst den Prozess der Datenaufbereitung nochmals zusammen.

178 •

Tabelle 3:

Markus Grottke und Maximilian Kittl

Zusammenfassung der Datengenerierung Anzahl der Dokumente

Diskurs Gesetzgebungsdiskurs Lobbydiskurs

Datengrundlage Sämtliche verfugbaren Dokumente des DPI, z.B. Protokolle, Anfragen, Anträge Stellungnahmen einschlägiger Interessengruppen

Beginn

Final

18

13

19

17

Fachdiskurs

Einschlägige Artikel in Fachzeitschriften (u.a. DStR, NWB, Der Betrieb, Betriebs-Berater, Finanz-Rundschau)

14

11

Öffentlicher Diskurs

Einschlägige Presseartikel aus größtenteils überregionalen Zeitungen (u.a. FAZ, SZ, Handelsblatt, Die Welt, Die Zeit, taz)

93

46

144

87

Zu beachten ist, dass das herangezogene Datenmaterial hinsichtlich der Rückschlüsse Grenzen auferlegt. So sind entscheidungsrelevante Aspekte des Prozesses - wie beispielsweise private Absprachen - auch durch eine weitreichende Recherche nicht zu erfassen (Langley 1999, S. 692 f.). Solche Lücken in den Daten können dazu führen, dass falsche Ursache-Wirkungszusammenhänge identifiziert werden und richtige unbekannt bleiben (George und Bennett 2005, S. 223). Dieser grundsätzlichen Gefahr wurde durch eine intensive und umfassende Literaturrecherche Rechnung getragen. Dass informelle Informationen eine Rolle spielen, zeigt sich jedoch beispielsweise an einem vom BMF bereits vor der Koalitionsausschusssitzung am 09.12.2010 formulierten Entwurf vom 26.10.2010, der für kurze Zeit im Internet verfügbar war und der die Ergebnisse des Koalitionsausschusses in Bezug auf die Kinderbetreuungskosten bereits damals beinhaltete.

V. Der Gesetzgebungsprozess bei den Kinderbetreuungskosten Tabelle 4 stellt die Elemente der alten sowie der nunmehr geltenden Regelung und damit Ausgangspunkt und Endergebnis des Prozesses zur Berücksichtigung von Kinderbetreuungskosten gegenüber.

Komplexität im Steuerrecht

Tabelle 4:

• 179

Ausgangspunkt und Ergebnis des betrachteten prozesses

Gesetzgebungs-

Vor Verabschiedung des Steuervereinfachungsgesetzes geltende Rechtslage (§ 9c EStG a.F.) Voraussetzung 3 - 6 Jahre • < 1 4 Jahre Kind • Außerstande sich selbst zu unterhalten, wegen einer vor dem 25. Lebensjahr eingetretenen Behinderung. Voraussetzung Eltern

Keine

Erwerbsbedingt

Krankheits-, behinderungs-, ausbildungsbedingt

Abzug als ...

Sonderausgaben

Werbungskosten

Sonderausgaben

Nach Verabschiedung des Steuervereinfachungsgesetzes geltende Rechtslage (§ 10 Abs. 1 Nr. 5 EStG) Voraussetzung Kind Voraussetzungen

• •

< 1 4 Jahre Außerstande sich selbst zu unterhalten, wegen einer vor dem 25. Lebensjahr eingetretenen Behinderung. Keine

Eltern Abzug als ...

Sonderausgaben

Zusatzvorschrift:

Der neu geschaffene § 2 Abs. 5a Satz 2 EStG; er eliminiert die Wirkung des Sonderausgabenabzugs für außersteuerliche Zwecke.

Inhaltlich trat durch die Vereinheitlichung der Abzugsfahigkeit als Sonderausgaben eine Komplexitätsreduktion, durch die Zusatzvorschrift hingegen ein Komplexitätsaufbau ein. Die wesentlichen Eckpunkte des Gesetzgebungsprozesses zu den Kinderbetreuungskosten stellen sich folgendermaßen dar: Eine Vereinheitlichung der Kinderbetreuungskosten wird erstmals am 31.02.2010 durch das dem Gesetzgebungsvorverfahren zuzuordnende Hessische Finanzministerium vorgeschlagen (Hessisches Finanzministerium 2010, S. 14 f.). Das Zentrum für Europäische Wirtschaftsforschung (ZEW) greift diesen Vorschlag in seinem Gutachten vom 22.09.2010 auf und äußert sich hierzu aus wissenschaftlicher Perspektive (ZEW 2010, S. 28, 166 f.). Am 09.12.2010 diskutiert der Koalitionsausschuss (Koalitionsausschuss 2010, S. 1) die vom Hessischen Finanzministerium vorgeschlagene Reformoption. Diese findet schließlich inhaltlich unverändert, jedoch noch ohne die Zusatzvorschrift, in den Referentenentwurf vom 20.12.2010 (BMF 2010) Eingang. Die Presse reagiert auf die Neuregelung, indem sowohl Handelsblatt, Frankfurter Allgemeine Zeitung als auch die Süddeutsche Zeitung über die sich aus der Neuregelung möglicherweise ergebenden steigenden Kita-Gebühren berichten (Handelsblatt

180

Markus Grottke und Maximilian Kittl

2010a; FAZ 2010; Handelsblatt 2010b; SZ 2010). Sonderausgaben reduzieren im Gegensatz zu Werbungskosten die Bemessungsgrundlage der Kita-Gebühren i.d.R. nicht. Darum wirken Eltern trotz unveränderter Leistungsfähigkeit aufgrund der Neuregelung nun vermögender, so dass ihnen höhere Kita-Gebühren abverlangt werden. Im Anschluss an die Pressewelle erfolgen Mitte Januar die ersten Stellungnahmen diverser Lobbyverbände zum Referentenentwurf. Der Gesetzgebungsdiskurs setzt sich in der Bundestagsdebatte vom 16.1.2011 fort. Hier greift Dr. Barbara Holl (Die Linke) die Argumente des Pressediskurses auf, woraufhin Antje Tillmann (CDU) betont, dass die Einführung der Änderung bewusst auf 2012 verschoben worden sei, um den Kommunen eine Anpassung der KitaGebührenordnungen zu ermöglichen (Deutscher Bundestag 2011b, S. 9675). Weitergehende Oppositionsarbeit erfolgt durch die am 27.1.2011 gestellte Kleine Anfrage der Linken. Diese fordert auch eine Stellungnahme zu dem Missstand der Kita-Gebühren (Deutscher Bundestag 201 lc, S. 3). Der Gesetzgeber reagiert im Rahmen des Gesetzesentwurfs vom 4.2.2011 auf die anhaltende Kritik mit der in Tabelle 4 bereits erwähnten Sondervorschrift, welche den Einfluss auf die Kita-Gebühren eliminiert (Deutscher Bundesrat 2011a, S. 43, 48 f.). Die von der Linken gestellte Kleine Anfrage, wie auch eine zuvor eingereichte schriftliche Frage werden nach dem Gesetzesentwurf durch die Bundesregierung unter Rückgriff auf eben diesen beantwortet (Deutscher Bundestag 201 ld, S. 53; Deutscher Bundestag 201 le, S. 7 f.). Die Lesungen des unveränderten Gesetzesentwurfs (Deutscher Bundestag 201 lf) im Bundestag fanden am 25.03.2011 (Deutscher Bundestag 2011g) sowie am 09.06.2011 (Deutscher Bundestag 2011h) statt. In Bezug auf die Kinderbetreuungskosten profilierten sich auf Regierungsseite insbesondere der parlamentarische Staatssekretär Hartmut Koschyk (Deutscher Bundestag 201 lg, S. 11513 f.) und Antje Tillmann (Deutscher Bundestag 2011g, S. 11521; Deutscher Bundestag 2011h, S. 13032), auf Oppositionsseite hingegen Ingrid Arndt-Bauer (SPD) (Deutscher Bundestag 2011g, S. 11515) und Dr. Barbara Holl (Die Linke) (Deutscher Bundestag 2011g, S. 11518; Deutscher Bundestag 201 lh, S. 13038). Zwischen der ersten und der zweiten Lesung im Bundestag bezogen am 11.05.2011 Experten im Rahmen einer öffentlichen Anhörung vor dem Finanzausschuss Stellung. Auf Anfrage der CDU äußern sich zu den Kinderbetreuungskosten der Familienbund der Katholiken (Deutscher Bundestag 201 Ii, S. 13 f.) sowie der Verband der Unternehmerrinnen (Deutscher Bundestag 201 Ii, S. 15), auf Anfrage der SPD hingegen die Wissenschaftler Prof. Dr. Monika Jachmann (Deutscher Bundestag 201 Ii, S. 37 f.) und Dr. Frank Hechtner (Deutscher Bundestag 20Iii, S. 38 f.). Zudem melden sich die Grünen in einem Entschließungsantrag vom 08.06.2011 zu Wort (Deutscher Bundestag 201 lj, S. 4). Am 09.06.2011 folgen - neben der 2. und 3. Lesung - der Bericht des Finanzausschusses (Deutscher Bundestag 2011k, S. 6 f.) und die Annahme des Gesetzes durch den Bundestag (Deutscher Bundesrat 201 lb). Der Beschluss wird am 8.7.2011 zunächst vom Bundesrat abgelehnt (Deutscher Bundesrat 2011c), nach Empfehlung des Vermittlungsausschusses am 21.09.2011 (Deutscher Bundestag 20111) jedoch sowohl von Bundestag (Deutscher Bundesrat 201 ld) als auch Bundesrat (Deutscher Bundesrat 201 le) am 23.09.2011 angenommen.

Komplexität im Steuerrecht

181

VI. Der Gesetzgebungsprozess im Lichte der politökonomischen Theorien Um festzustellen, inwieweit die dargestellten Theorien in dem fraglichen Gesetzgebungsprozess eine Rolle spielen, wird im Folgenden untersucht, welche Akteure Rationalisierungen im Sinne der formulierten Kausalzusammenhänge einsetzen, ob ihre Argumentationen überzeugend den aus den theoretischen Kausalzusammenhängen heraus zu erwartenden Verhaltensweisen des Staates zugeordnet werden können und inwieweit der Fortgang des Gesetzgebungsverfahrens die Rationalisierungen wie die theoretischen Zusammenhänge bestätigt.

1. Die Untersuchung der Hypothesen des Leviathanmodells Im Rahmen des Prozesses wird der Kern des Modells, die Annahme, der Staat handle als ein Leviathan, in diversen Phasen von verschiedenen beteiligten Akteuren unterstützend oder widerlegend herangezogen. Zunächst äußert die Presse nach Veröffentlichung des Referentenentwurfs Kritik, indem sie den Staat als einen im Sinne des Leviathanmodells handelnden Akteur beschreibt (Handelsblatt 2010a; FAZ 2010): Den staatlichen Kommunen wird im Einklang mit LI unterstellt, die Zensiten zu „schröpfen" (FAZ 2010), um mit den mit der Neuregelung einhergehenden erhöhten Kita-Gebühren die Staatseinnahmen durch die Abschaffung einer reduzierenden Sondervorschrift zu steigern. Die Opposition in Form der Partei Die Linke greift diese Pressekritik auf und betont gleichfalls im Einklang mit LI, dass die Neuregelung zu einer Mehrbelastung der Zensiten fuhren könne (Deutscher Bundestag 201 lk, S. 5). Auch die Lobbygruppen interpretieren das Verhalten des Staates teilweise im Sinne des Leviathanmodells. So werden auf fachlicher Ebene diverse sich durch die Neuregelung ergebende Interdependenzen innerhalb des Steuerrechts aufgezeigt, welche für den Steuerlaien so nicht ohne weiteres erkennbar sind, die jedoch zu einer Erhöhung der Bemessungsgrundlage führen, beispielsweise, weil ein intertemporal steuerwirksamer Verlustausgleich für den Betrag der Kinderbetreuungskosten entfallt (DGB 2011, S. 4 f.; DStV 2011, S. 3; NVL 2011, S. 6-8; BStBK 2011, S. 3 f.; BdSt 2011, S. 3). Ferner argumentiert die Wissenschaft in Richtung des Leviathanmodells: Dr. Frank Hechtner verweist beispielsweise darauf, dass Sonderausgaben im Gegensatz zu Werbungskosten die gewerbesteuerliche Belastung nicht reduzieren (Hechtner 2011, S. 8 f.). Zudem entfällt durch die generelle Klassifizierung nun die Möglichkeit den Sonderausgabenpauschbetrag (sofern ansonsten keine Sonderausgaben bestehen) zusätzlich zu nutzen. Beides erhöht die resultierende Steuerbelastung im Sinne von LI. Interessanterweise reagiert der Staat nur auf die Kritik der Presse: Dies zeigt sich vor allem durch die tatsächliche Änderung des Referentenentwurfs, der die im Pressediskurs aufgedeckte Erhöhung der Kita-Beiträge durch die angesprochene Sondervorschrift, nicht aber die anderen angesprochenen negativen Auswirkungen beseitigt. Dass es sich hierbei tatsächlich um eine entsprechende reaktive Handlung handelt, manifestiert sich schließlich im Bericht des Finanzausschusses, in welchem explizit von einer „Reaktion auf die öffentlichen Diskussionen" (Deutscher Bundestag 201 lk, S. 6) gesprochen wird.

182

Markus Grottke und Maximilian Kittl

Hierdurch, aber auch durch das Hervorheben der bewussten Vermeidung außersteuerlicher Konsequenzen (z.B. Deutscher Bundestag 201 Id, S. 53; Deutscher Bundestag 201 le, S. 6) sucht die Regierung mithin eine Auslegung im Sinne von LI des Leviathanmodells seitens des Pressediskurses, nicht aber seitens der anderen Diskurse aktiv zu widerlegen. Dies zeigt auch die folgende Tabelle 5, welche die Vorgänge noch einmal zusammenfasst. Tabelle 5:

Postulierte Zusammenhänge mit Bezug zum Leviathanmodell

Leviathanyhypothesen Werden unterstützt von

Presse

Angesprochene 1 nformationsvoraussetzungen der Leviathanhypothesen

Erhöhung der Kita-Gebühren

Einwirkung auf den Gesetzgcbiitígsprozess Keine Erhöhung der Kita-Gebühren durch Sondervorschrift

Opposition Lobbyisten Fachleute

Interdependenzen mit Wirkung einer Mehrbelastung

Keine Wirkung

Auffällig ist zunächst, dass in keinem der dargestellten Fälle wirklich alle notwendigen Informationen vorgebracht werden, um den durch das Leviathanmodell theoretisch nahegelegten Kausalzusammenhang endgültig beurteilen zu können. So wird im Fall der Presse wie der Opposition hinsichtlich des Anreizes stark verkürzt argumentiert: Der Bund, welcher das Gesetz erlässt, hat hier aufgrund der föderalen Struktur gar keinen Vorteil. Die Kommunen, welche wiederum den Vorteil von der Neuregelung hätten, erlassen dieses Gesetz nicht. Nicht nur Presse und Opposition, sondern auch Lobbygruppen und Fachleute vernachlässigen zudem vollständig die Wirkung auf Prüfungskosten des Staates, die Deklarationskosten der Zensiten sowie mögliche Anpassungsreaktionen der Zensiten. Zusammengenommen spricht dies dafür, dass das Handeln des Gesetzgebers nicht nur in Richtung des Leviathanmodells rationalisiert, sondern zugleich das Leviathanmodell eher rhetorisch eingesetzt wird. Hinsichtlich der Wirkung der Argumente auf das Gesetzgebungsergebnis erweist sich als von zentraler Bedeutung, in welchem Diskurs sie vorgebracht werden. Sofern Argumente, der Staat folge einem Leviathanmodell, im Pressediskurs eingebracht werden, zeigt sich, dass der Staat bewusst versucht, diesem Bild entgegenzutreten. Anderes hingegen gilt hinsichtlich des Fach- und des Lobbydiskurses: Obwohl diese im Vergleich zur Presse informierter argumentieren, reagiert der Staat hier nicht. Mithin erweist sich die durch die Presse vermittelte Öffentlichkeit als ein entscheidender Einflussfaktor, welche die Möglichkeit einer Interpretation von Staatshandlungen im Sinne des Leviathanmodells moderiert. Werden die Annahmen des Leviathanmodells selbst in den Vordergrund gerückt, so erweist sich, dass der Staat keinesfalls als Leviathan sein Nettoaufkommen maximieren kann. Dem steht nicht nur ein föderales System entgegen, sondern auch, dass die Wähler zumindest dann nicht ausgeblendet werden, wenn ihre Mehrbelastung durch die

Komplexität im Steuerrecht

183

Öffentlichkeit vermittelt wird. Zugleich erweist sich die Informationsannahme als relevant: Im vorliegenden Fall reagiert der Staat auf Informationen, welche er zuvor nicht bedacht hatte, nämlich die außersteuerlichen Wirkungen der Kinderbetreuungskosten auf die Kita-Gebühren der Kommunen. Die Neuformulierung des Referentenentwurfes kann insofern auch als Neujustierung der Folgenabschätzung des Staates begriffen werden, welche entsprechende Folgenabschätzungskosten des Staates verursacht. Hieran zeigt sich, dass die diesbezügliche Annahme des Leviathanmodells im Abgleich mit den Determinanten eines optimalen Komplexitätsniveaus in bedeutsamer Weise verkürzend ausfällt.

2. Die Untersuchung der Hypothesen der positiven Steuertheorie Die Kausalzusammenhänge der positiven Steuertheorie lassen sich zunächst in den Begründungen der Regierungspartei beobachten. Dies gilt bereits für den ursprünglichen Vorschlag des Hessischen Finanzministeriums. Dieses rechtfertigt den Vorschlag mit der einhergehenden Bürokratiekostenreduktion bei der einflussreichen Wählergruppe der Eltern (Hessisches Finanzministerium 2010, S. 14 f.), was PT3 entspricht. Im Anschluss an den Hinweis der Presse auf steigende Kita-Gebühren und der Gefahr potenzieller politischer Kosten durch die Eltern reagierte der Gesetzgeber entsprechend dem in PT1 postulierten Kausalzusammenhang im Rahmen des Gesetzesentwurfs vom 2.2.2011 durch die Einfuhrung der in Tabelle 4 dargestellten Zusatzvorschrift (BMF 2011, S. 49), welche diese kritisierte Zusatzbelastung verhindern soll. Auch die nachfolgenden Äußerungen der Bundesregierung bilden der positiven Steuertheorie zuordnungsfahige Formationen: Der parlamentarische Staatssekretär Hartmut Koschyk betont in der Bundestagsdebatte vom 25.3.2011 (Deutscher Bundestag 201 lg, S. 11513 f.) sowohl die erfolgte Vereinfachung (PT3) als auch die Vermeidung außersteuerlicher Mehrbelastungen (PT1). Die Bundestagsabgeordnete Antje Tillmann (CDU) bezeichnet letztere Änderung zudem als eine Reaktion auf das Verhalten der Bürger (Deutscher Bundestag 2011g, S. 11521). Auch der Bericht des Finanzausschusses vom 9.6.2011 stützt dieses Bild. So wird erneut der Bürokratieabbau dargestellt (Deutscher Bundestag 201 lk, S. 4) und auf die gesetzgeberische Reaktion aufgrund des „Widerstands der Eltern" (Deutscher Bundestag 201 lk, S. 6) verwiesen. Während Regierungsvertreter bemüht sind, die positiven Aspekte für die Wählergruppe der Eltern entsprechend der positiven Steuertheorie zu betonen und für diese ein positives Bild der Neuregelung zu zeichnen, wird von Seiten der Opposition versucht, dies durch Gegendarstellungen zu unterlaufen. Entsprechend sind zugleich diskursive Formationen zu beobachten, welche den Kausalzusammenhängen der positiven Steuertheorie widersprechen. Die SPD-Abgeordnete Ingrid Arndt-Bauer stuft den proklamiertem Bürokratieabbau als unzutreffend ein: Der geschaffene Ausnahmetatbestand bewirke das „Gegenteil von Bürokratieabbau" (Deutscher Bundestag 2011g, S. 11515). Ähnlich äußert sich auch Dr. Barbara Holl von der Linken (Deutscher Bundestag 2011g, S. 11518). Der im Sinne von PT3 erfolgten vorherigen Darstellung der Bundesregierung, dass die Neuregelung zu einem Bürokratieabbau fuhrt, wird widersprochen, wobei die mit dem Ausnahmetatbestand einhergehenden administrativen Kosten hervorgehoben werden.

184

Markus Grottke und Maximilian Kittl

Die Presse schließt sich der Auffassung der Opposition an. Am 11.03.2011 äußert sich die FAZ (FAZ 2011): Das Gesetz sei keine Vereinfachung, vielmehr führe die Spezialnorm dazu, dass kein Steuerzahler die Neuregelung ohne fachlichen Beistand anwenden könne. Die Lobbyisten hingegen unterstützen die Auslegung der Regierung: Der Familienbund der Katholiken betont, dass eine steuerliche und bürokratische Entlastung bei unteren und mittleren Einkommensgruppen eintritt, da hier vermehrt kinderreiche Familien zu verzeichnen seien (Familienbund der Katholiken 2011, S. 2). So käme es bei einer Fallzahl von 270.000 und jeweils ca. 7 Minuten Bearbeitungszeit zu einem beachtlichen Rückgang an Bürokratie (Familienbund der Katholiken 2011, S. 5). Diese Fokussierung auf den Bürokratieabbau schließt sich damit einer Deutung an, wie man sie im Sinne des Kausalzusammenhangs PT3 von Seiten des Staates erwartet. Das dem Fachdiskurs zuzurechnende ZEW-Gutachten argumentiert, die bisherige Unterscheidung der Kinderbetreuungskosten sei politisch motiviert gewesen (ZEW 2010, S. 28). Um potenzielle politische Kosten von Seiten der Gruppe der doppelt berufstätigen Eltern (und mit diesen emotional verbundenen Parteien) zu vermeiden, hätte die damalige Regierung diesen bewusst einen Werbungskostenabzug im Sinne von PT1 ermöglicht. Dieser Aspekt verdeutlicht erneut eine Ausrichtung an einer politische Kosten verursachenden Wählergruppe. Dass dieser ursprüngliche Ansatz nun rückgängig gemacht wird, widerspricht allerdings einem Kausalzusammenhang wie man ihn von der positiven Steuertheorie im Sinne von PT1 erwarten würde - zumindest so man nicht im Zeitablauf sich wandelnde politische Kosten durch verschiedene Wählergruppen annimmt. Unterstellt man solche, kann die Vereinfachung auch im Sinne von PT2 gedeutet werden. In der Zusammenschau lässt sich konstatieren, dass die Kausalzusammenhänge der positiven Steuertheorie lebhaft in Anspruch genommen werden. Allerdings picken sich die einzelnen Parteien jeweils immer nur einen Teil der Gesetzgebungshistorie heraus. Dies wird in Tabelle 6 deutlich: Tabelle 6:

Verlauf

Veränderung der angenommenen Zusammenhänge mit Bezug zur positiven Steuertheorie im Zeitablauf

^SHNMlnM^g^^

^g^^SSSlî^MHg-

J^^M^íTiBa^W^^^

Wertung

pro PT1

pro PT3

pro PT1

Gruppe

Fachleute

Regierungspartei

Regierungspartei

Lobbygruppen

Lobbygruppe

Wertung

ggf. pro PT2

contra PT3

Gruppe

Fachleute

Opposition Presse

Komplexität im Steuerrecht

185

Es entsteht ein Deutungskampf aufgrund der Möglichkeit, die Reduzierung der politischen Kosten sowohl seitens der Regierung und der Lobbygruppe zu belegen, wie seitens der Presse und Opposition zu widerlegen. Grund hierfür ist, dass die einzige verfügbare Information zu den faktischen administrativen Kosten die Fallzahlen sind, während weder hinsichtlich des administrativen Aufwands des neuen Ausnahmetatbestands noch hinsichtlich der Mehrbelastungen derjenigen Wähler Zahlen vorliegen, welche nunmehr keinen Werbungskostenabzug mehr vornehmen können. Erneut erweist sich damit die Nichterfüllung der Informationsannahme als kritisch. Aufgrund des politischen Wettbewerbs zwischen den Parteien werden die Informationsdefizite hierbei ganz offensichtlich interessengeleitet rhetorisch ausgedeutet und sofern dies zum eigenen Nachteil wäre, auch nicht beseitigt. Zugleich fallt auf, dass kein beteiligter Akteur infrage stellt, ob es wünschenswert ist, sich derart auf eine politische Kosten verursachende Wählerklientel zu fokussieren.

3. Die Untersuchung der Hypothesen des probabilistischen Modells Erste Deutungen im Sinne des probabilistischen Modells finden sich bereits im Vorschlag des hessischen Finanzministeriums (Hessisches Finanzministerium 2010, S. 14 f.). Dieses begründet den Vorschlag einer Vereinheitlichung der Kinderbetreuungskosten damit, dass die Differenzierung in Werbungskosten und Sonderausgaben, mit Ausnahme weniger atypischer Fälle, nur sehr selten zu materiellen Unterschieden führe, immer jedoch zu erhöhten administrativen Kosten. Zudem lasse sich durch die Pauschalisierung in einzelnen Fällen die Einzelfallgerechtigkeit sogar steigern. So war nach altem Recht der Sonderausgabenabzug nach § 9c EStG a.F. z.B. nicht möglich, wenn die Betreuung durch die Eltern selbst erfolgte. Da dies durch den Einsatz einer Tagesmutter oder ähnliches ohnehin leicht umgangen werden konnte, sei es als gerechter anzusehen, die Unterscheidungen zwischen Sonderausgaben und Werbungskosten aufzugeben. Insgesamt wird folglich argumentiert, dass sich zugleich übermäßige bürokratische Kosten abbauen lassen und, von atypischen Konstellationen abgesehen, die Einzelfallgerechtigkeit tendenziell erhöhen lässt, was dem durch P2 nahegelegte Kausalzusammenhang entspricht. Auch das final erreichte Gesetzgebungsergebnis wird seitens der Regierungsvertreter, sowohl durch den parlamentarischen Staatssekretärs Hartmut Koschyk (Deutscher Bundestag 201 lg, S. 11513 f.) wie auch seitens der Bundestagsabgeordneten Antje Tillmann (Deutscher Bundestag 201 lh, S. 13032) in diesem Sinne gedeutet: Beide betonen, dass die Neuregelung zu einem einfacheren Steuerrecht beiträgt. Im Bericht des Finanzausschusses vom 09.06.2011 wird von der Regierungskoalition ebenfalls der Bürokratieabbau hervorgehoben (Deutscher Bundestag 201 lk, S. 4). Ähnlich wie bereits im Modell der positiven Steuertheorie, sind bei den Oppositionsparteien hingegen diskursive Formationen zu beobachten, welche die im Sinne des erwarteten Kausalzusammenhangs P2 erfolgte Deutung des Gesetzgebungsprozess durch die Regierungsparteien umdeuten. Im Bericht des Finanzausschusses vom 09.06.2011 widerspricht die Partei Bündnis 90/Die Grünen gerade mit dem Verweis auf eine mangelnde Einzelfallgerechtigkeit, da Alleinerziehende schlechter gestellt würden (Deutscher Bundestag 201 lk, S. 7).

186

Markus Grottke und Maximilian Kittl

Eine steigende Ungerechtigkeit sehen auch zahlreiche Lobbygruppen als gegeben an. Die Deutsche Steuergewerkschaft (DStG 2011, S. 5 f.) sieht in der neuen Rechtslage den grundsätzlichen Versuch des Staates, den Bürger über den wahren Werbungskostencharakter der Kinderbetreuungskosten zu täuschen. Der B D L (BDL 2011, S. 7 f.) beklagt, dass die Umordnung der Gebühren zu den Sonderausgaben für Alleinerziehende in bestimmten Fallkonstellationen (den vom hessischen Finanzministerium bemerkten atypischen Fällen) als ungerecht einzustufen ist, weil sie dadurch den Verlustvor- bzw. -rücktrag und die Minderungswirkung bei den außergewöhnlichen Belastungen nicht mehr wahrnehmen könnten. DStV (DStV 2011, S. 3) und NVL (NVL 2011, S. 6-8) schließen sich dem an; letzterer plädiert aus Gerechtigkeitsgründen zudem für eine Ausweitung auf Großeltern, sofern diese für die Kindererziehung zuständig sind. Analog zur Opposition widersprechen diese Lobbygruppen damit ebenfalls einer Interpretation des Sachverhalts entsprechend P2. Der Familienbund der Katholiken hingegen unterstützt die Argumentation entsprechend des Kausalzusammenhangs P2. Er betont in der Gesamtschau eine erhebliche Einsparung von Bürokratie, welche insbesondere Familien mit niedrigen oder mittleren Einkommen und insofern auch kinderreichen Familien zu Gute käme (Familienbund der Katholiken 2011, S. 2). Die angestrebte Pauschalisierung sei zudem gerechter, da sie solche Familien besserstelle, bei denen eine ungleiche Aufteilung der Erwerbseinkommen vorliege (Familienbund der Katholiken 2011, S. 4). Neben der Zweiteilung innerhalb der Lobbygruppen findet sich auch im Fachdiskurs eine dem probabilistischen Modell zurechenbare Formation. Die Juristin Prof. Dr. Monika Jachmann äußert sich in ihrer Stellungnahme kritisch in Bezug auf die Frage der Einzelfallgerechtigkeit (Jachmann 2011, S. 3-7) und widerspricht damit einer Deutung, wie man sie auf Basis des probabilistischen Modells erwartet. Die Vereinheitlichung auf Sonderausgaben führt ihr zufolge zu einer Gleichstellung arbeitender und nicht arbeitender Eltern, wobei ausschließlich erstere tatsächlich zur Fremdbetreuung gezwungen sind. Betrachtet man die Argumentationen in der Gesamtschau, lässt sich hier insbesondere feststellen, dass eine Beurteilung, ob der zugrunde liegende Sachverhalt Deutungen im Sinne des probabilistischen Modells erlaubt, aufgrund mangelnder Information unscharf bleiben muss. Dies liegt daran, dass dieses Modell im Vergleich zu den anderen Modellen versucht, den Leistungsfahigkeitsgedanken zu berücksichtigen. Die Annahme, dass als bekannt vorausgesetzt werden könne, was Einzelfallgerechtigkeit ist, d.h. ob Personen gleich oder ungleich sind und deshalb gleich oder ungleich besteuert werden sollten, erweist sich jedoch als Pferdefuß dieser Theorie. So wird Einzelfallgerechtigkeit im politischen Prozess unter Rückgriff auf unterschiedliche relative Vergleiche konkretisiert. Je nachdem, wie diese gewählt werden, kann derselbe politische Prozess als gerecht oder aber als ungerecht angesehen werden. Mit anderen Worten zeigen sich ideologisch bedingte, ihrerseits inkommensurable Vorstellungen davon, was Einzelfallgerechtigkeit bedeuten soll (z.B. im Vergleich der Stellungnahme von Jachmann (2011) mit der des Familienbunds der Katholiken (2011)). Dies zeigt auch die Abbildung 2, welche die vielen unterschiedlichen Relativvergleiche bei der Beurteilung von Einzelfallgerechtigkeit (EG) bereits in diesem einfachen Fall veranschaulicht.

Komplexität im Steuerrecht

• 187

Abbildung 2: Gegenüberstellung subjektiver Vorstellungen von Einzelfallgerechtigkeit Opposition, Lobby (DGB)

Täuschung des Bürgers über Werbungskostencharakter

Opposition, Lobby (BDL, DStV)

Schlechterstellung von alleinerziehenden ggü. nichtalleinerziehenden Eltem

Fachleute (Jachmann)

Gleichstellung von arbeitenden und nichtarbeitenden Eltem

Umgehungsmöglichkeiten ft ir Teile der Bevölkerung werden vermieden

Regierungspartei

Besserstellung von Familien mit ungleichen Erwerbseinkommen ggü. solchen mit gleichen Erwerbseinkommen

Lobby (Familienbund der Katholiken)

Diese Unscharfe verweist gerade mit Blick auf die Fragen der Konkretisierung des Leistungsfähigkeitsprinzips auf enorme Probleme bei der Folgeabschätzung des Staates. Zugleich bleibt unklar, ob Einzelfallgerechtigkeit einerseits und eine Senkung administrativer Kosten andererseits adäquat abgewogen wurden. Beispielsweise kann die Nichtberücksichtigung atypischer Fälle als zu vernachlässigende oder als gravierende Verletzung der Einzelfallgerechtigkeit aufgefasst werden. Um dies beurteilen zu können, wären freilich Quantifizierungen und Abwägungen hinsichtlich des Umfangs der betroffenen Wählergruppen vonnöten: Von der Identifikation einer optimalen Nettodichte ist man hier weit entfernt. Ferner wäre zu eruieren, woher die Informationen hinsichtlich der Deklarationskosten der Zensiten kommen. Zuletzt fällt auf, dass auch die Prüfungskosten des Staates vollkommen vernachlässigt werden.

VII. Ergebnisse und Fazit Insgesamt zeichnet die Untersuchung in Bezug auf die erste Forschungsfrage ein differenziertes Bild. Für jeden der herangezogenen Kausalzusammenhänge sind sowohl für seine Existenz sprechende als auch seiner Existenz widersprechende Formationen zu beobachten. Hierbei lässt sich bereits aus dem Vorhandensein von Argumenten wie Gegenargumenten für alle Kausalzusammenhänge in einem einzigen Prozess ableiten, dass diese zumindest z.T. eher rhetorische Funktionen übernehmen, mit der die beobachteten Akteure das Geschehen - aus politischen oder ideologischen Gründen - in ihrem Sinne zu deuten versuchen. Möglich ist dies, weil anders als in den Modellen zugrunde gelegt, Folgeabschätzungen und Folgeabschätzungskosten des Staates eine bedeutende Rolle spielen. Gerade diesbezüglich ist die Informationslage, auf der die Akteure argumentieren, derart unvollständig bzw. uneinsehbar, dass sich der Eintritt keines Kausalzusammenhanges wirklich eindeutig beurteilen lässt. Ohne Zweifel stellt dies den interessierten Wahlbürger vor das Problem, politisches Geschehen fundiert beurteilen zu können. Insbesondere mit Bezug auf das probabilistische Modell zeigt der geschilderte Prozess der Kinderbetreuungskosten zugleich auch, dass häufig ein weiter und sehr umstrittener Deutungsspielraum darüber besteht, was im konkreten Fall die Faktenlage

188

Markus Grottke und Maximilian Kittl

bildet, welche die Voraussetzung wäre, um deduktiv Kausalzusammenhänge zu postulieren. Wie im theoretischen Teil des Process Tracing angesprochen, erweist sich hierbei die Prämisse der Einzelfallgerechtigkeit als Symptom. Dabei zeigt sich anhand dieser Unterspezifikation des probabilistischen Modells im Abgleich mit der Empirie des Gesetzgebungsprozesses besonders deutlich, welche Probleme auftreten, wenn die klare Welt der Nutzenmaximierung verlassen und empirisch so unterschiedlich belegbare Sachverhalte wie Gerechtigkeit abstrakt in die Theorien einbezogen werden. Während sich allgemein durchaus von Einzelfallgerechtigkeit sprechen lässt, ist konkret im Gesetzgebungsprozess regelmäßig unklar, was hierunter zu verstehen ist. Gerade im politischen Prozess einer Demokratie wird ein solcher Deutungsspielraum auch realisiert, weil bereits der politische Wettbewerb und die institutionell klar zugewiesenen politischen Rollen als Regierungspartei bzw. Opposition die Politiker dazu anregen, sich mit Extrempositionen in diesem Spielraum abzuheben. Eine Weiterentwicklung des Modells der probabilistischen Steuertheorie müsste folglich eine Komponente vorsehen, welche zunächst festlegt, wie Zielerreichungen in verschiedenen Gerechtigkeitskonzeptionen gegeneinander aufzuwägen sind. In Bezug auf die drei untersuchten Theorien bestätigen sich zugleich die Mahnungen Hayeks in seiner Counter Revolution of Science. Es ist Vorsicht angebracht: Wissenschaftliche Theorie sollte nicht, allein um den Anschein von Subjektivität zu vermeiden, bloße populäre Meinungen aufgreifen und auf diesen - hinsichtlich ihres empirischen Gehalts kaum überprüfbare und insofern willkürlich anmutend - theoretische Gebilde erzeugen, ohne sich zu vergewissern, ob diesen auch Fundament zukommt: „The scientistic approach [...] because it is afraid of starting from the subjective concepts determining individual actions is [... ] regularly led into the [... ] mistake it attempts to avoid, namely of treating as facts those collectives which are no more than popular generalizations. Trying to avoid using as data the concepts held by individuals where they are clearly recognizable and explicitly introduced as what they are, people brought up in scientistic views frequently and naively accept the speculative concepts of popular usage as definite facts of the kind they are familiar with." (Hayek 1979, S. 64 f.).

In Bezug auf die zweite Forschungsfrage zeigt sich, dass die drei Theorien zwei im vorliegenden Prozess ganz zentrale Einflussfaktoren ausblenden. Nicht beachtet wird erstens die Rolle der Medien als eines unvollkommenen Informationsmediators zwischen Politikern und Bürgern. Dieser wurde zwar bereits in agency-theoretischen Modellen thematisiert (Besley und Prat 2006; Besely, Burgess und Prat 2002), jedoch ohne Bezug zur Gesetzgebungskomplexität. Auch wurden die Medien in diesen Untersuchungen immer als positiv im Sinne eines mehr oder weniger wünschenswert funktionierenden Korrektivs der Politik modelliert. Im Einklang mit diesen Ergebnissen erweist sich auch in der vorliegenden Untersuchung die Presseberichterstattung als ein zentraler Kristallisationspunkt politischer Reaktionen. Im vorliegenden Fall ist jedoch durchaus unklar, inwieweit diese Wirkung im Sinne der jeweiligen Theorien wünschenswert oder eher verzerrend ausfällt. So entsteht Komplexität vielmehr als schlichte Reaktion auf mediale Kritik, ohne dass diese Kritik berechtigt sein müsste. Die Ausdifferenzierung von Öffentlichkeit in durch den Pressediskurs vermittelte und außerhalb des Pressediskurses stattfindende sowie ihre abgestufte Behandlung durch die Politik ist damit potentiell ein Faktor, welcher massive Verzerrungen sowohl bei der Beurteilung der Leistungen von Politikern durch den Bürger als auch bei der Ergebnisfindung der Politiker evozieren kann. So gilt es gegebenenfalls

Komplexität im Steuerrecht

189

nicht mehr, ein optimales Komplexitätsniveau zu finden, sondern den Deutungskampf im Pressediskurs zu gewinnen, selbst wenn dies für den informierten Teilnehmer gegebenenfalls zu inferioren Ergebnissen führt. Gerade das Vorliegen von Informationsbarrieren wie die Unwilligkeit oder Kapazitätsüberforderung seitens der Politiker, Informationen aus allen Diskursen zu verarbeiten, fuhrt damit zu Informationsasymmetrien, deren potentiell wohlfahrtsschädliche Effekte zu untersuchen von höchster Bedeutung wäre. Soll der politische Prozess hier über reine Rhetorik hinaus rationaler gestaltet werden, muss vor allem hinterfragt werden, wie sich eine bessere Datenlage erzeugen lässt, welche klarere und weniger auf Mutmaßungen basierende Einschätzungen ermöglicht und wie eine Permeation von Informationen aus den anderen Diskursen in den Pressediskurs oder die Aufwertung der anderen Diskurse erreicht werden kann. Ansonsten droht die Gefahr, dass eine Regierungspartei zuletzt aufgrund der uninformierten Entscheidungen ihrer Politiker für den informierten Bürger unglaubwürdig (Krüsselberg 1999, S. 15) und zugleich vom uninformierten Bürger wiedergewählt wird. Das verweist auf die Notwendigkeit von Untersuchungen, wie sich ein diskurstheoretischer Weg bahnen ließe, welcher im Prozess selbst in der Lage wäre, so etwas wie Wahrheitsfindung und Informationsintegration zu ermöglichen (exemplarisch Habermas 1995), um zu verhindern, dass das Werben um die Zustimmung für politisches Handeln zuletzt in die Hände von Demagogen und Dilettanten fällt (so Krüsselberg 1999, S. 11 mit Verweis auf Wilhelm Röpke). Sieht man einmal von stellvertretenden Elitediskursen oder einer Akzeptanz des Status quo ab (dazu Braun 2001), dann bedarf es neben der Aufdeckung und Kritik von fehlenden Informationsgrundlagen vor allem der Schaffung von öffentlichen oder quasi-öffentlichen Anlaufstellen, d.h. Institutionalisierungen von informierten Privatbürgern (Habermas 1969), bei denen sich der einzelne Bürger Informationen beschaffen kann, soll das Endergebnis politischer Prozesse nicht auf dem bloßen Stand von Meinungen verharren, die ihrerseits ein Verständnis des erreichten Standes nach Gesetzgebungsverfahren weitgehend unmöglich machen. Gerade das Internet und die Sozialen Netzwerke könnten diesbezüglich noch unausgeschöpfte Potenziale einlösen. Zum Zweiten zeigt die Heterogenität der Argumentationen wie die Diskussion darum, ob Kinderbetreuungskosten Werbungskosten oder Sonderausgaben sind, deutlich, dass hier unterschiedliche Lebensentwürfe einer pluralistischen Gesellschaft aufeinanderprallen. Komplexität im Steuerrecht entsteht dabei durch die Notwendigkeit einer Kompromissfindung zwischen inkommensurablen Vorstellungen. Beschreiben lassen sich solche Gesetzgebungsprozesse damit am besten als sich ad hoc herausbildende und stark situationsabhängige „Trampelpfade" (so auch Hayek 1979, S. 70 f.). Solchen Pfaden theoretisch beizukommen erforderte freilich eine ganz andere Auffassung davon, was Theorien zu leisten haben. Notwendig wäre es dann, anstelle von präzisen ganzheitlichen theoretischen Zusammenhängen theoretische Versatzstücke, sog. Musterhypothesen, anzubieten, welche im konkreten Fall je nach Bedarf zu interpretieren, kombinieren und auszubauen wären (so auch Hayek 1972).

190

Markus Grottke und Maximilian Kittl

Literatur BDL (2011), Stellungnahme zu dem Entwurf eines Steuervereinfachungsgesetzes 2011 (BT-Drs. 17/5125) unter Berücksichtigung der Stellungnahme des Bundesrates (BR-Drs. 54/11) und der Gegenäußerung der Bundesregierung (BT-Drs. 17/5196), http://www.bundestag.de/bundestag/ausschuessel7/a07/anhoerungen/2011/051/ Stellungnahmen/07-BDL.pdf [28.02.2013], BdSt (2011), Stellungnahme zum Gesetzentwurf für ein Steuervereinfachungsgesetz 2011 (Drucksache 17/5125), http://www.bundestag.de/bundestag/ausschuesse 17/a07/ anhoerungen/2011/051/Stellungnahmen/02_-_Bd_d_Steuerzahler.pdf [28.02.2013]. Besley, T. und Prat, A. (2006), Handcuffs for the Grabbing Hand? Media Capture and Government Accountability, American Economic Review, Jg. 96, S. 720-736. Besley, T., Burgess, R. und Prat, A. (2002), Mass media and political accountability, The Right to Tell: The role of Mass Media in Economic Development, hrsg. v. Islam, R., Washington D.C., S. 45-60. Betsill, M.M. und Corell, E. (2001), NGO Influence in International Environmental Negotiations: A Framework for Analysis, Global Environmental Politics, Jg. 1, S. 65-85. Betsill, M.M. und Corell, E. (2008), Analytical Framework: Assessing the Influence of NGO Diplomats, NGO Diplomacy, The Influence of Nongovernmental Organisations in International Environmental Negotiations, hrsg. v. Betsill, M.M. und Corell, E., Cambridge/London, S. 19-42. Biersteker, T.J. (1995), Constructing historical counterfactuals to assess the consequences of international regimes, Regime Theory and Internaitonal Relations, hrsg. v. Rittberger, V., Oxford, S. 315-338. Bizer, K. und Lyding, J. (2002), Für eine pragmatische Politik der Steuervereinfachung - ein Darmstädter Entwurf, Wirtschaftsdienst, Jg. 82, S. 471-477. Blaufus K., Eichfelder S. und Hundsdoerfer J. (2011), The hidden burden of the income tax: Compliance costs of German individuals, Freie Universität Berlin School of Business & Economics Discussion Paper 2011/6. BMF (2010), Referentenentwurf zum Steuervereinfachungsgesetz 2011, http:// gesetzgebung.beck.de/sites/gesetzgebung.beck.de/files/RefE-Steuervereinfachungsgesetz.pdf [28.02.2013], BMF (2011), Gesetzesentwurf der Bundesregierung zum Steuervereinfachungsgesetz 2011, http://gesetzgebung.beck.de/sites/gesetzgebung.beck.de/files/RegESteuervereinfachungsgesetz.pdf [28.02.2013]. Braun, J. (2001), Rechtsphilosophie im 20. Jahrhundert: Die Rückkehr der Gerechtigkeit, München. Brennan, G. und Buchanan, J. M. (1980), The Power to Tax, Cambridge. BStBK (2011), Öffentliche Anhörung zu dem Gesetzentwurf der Bundesregierung „Entwurf eines Steuervereinfachungsgesetzes 2011" Drucksache 17/5125, http://www.bundestag.de/bundestag/ausschuesse 17/a07/anhoerungen/2011/051 /Stellungnah men/05_-_BStBK.pdf [28.02.2013], Deutscher Bundesrat (201 la), Gesetzentwurf der Bundesregierung: Entwurf eines Steuervereinfachungsgesetzes 2011, BR-Drs. 54/11. Deutscher Bundesrat (201 lb), Gesetzesbeschluss des Deutschen Bundestages, BR-Drs. 360/11. Deutscher Bundesrat (2011c), Beschluss des Bundesrates Steuervereinfachungsgesetz 2011, BR-Drs. 360/11 (Beschluss). Deutscher Bundesrat (201 ld), Beschluss des Deutschen Bundestages: Steuervereinfachungsgesetz 2011, BR-Drs. 568/11. Deutscher Bundesrat (201 le), Beschluss des Deutschen Bundesrates: Steuervereinfachungsgesetz 2011, BR-Drs. 568/11 (Beschluss). Deutscher Bundestag (201 la), Liste der Sachverständigen fur die öffentliche Anhörung zu dem „Entwurf eines Steuervereinfachungsgesetzes 2011" - Drucksache 17/5125 -, http://www.bundestag.de/bundestag/ausschuessel7/a07/anhoerungen/2011/051/Sv-Liste.pdf [28.02.2013]. Deutscher Bundestag (201 lb), Stenografischer Bericht der 86. Sitzung, Plenarprotokoll 17/86.

Komplexität im Steuerrecht

191

Deutscher Bundestag (2011c), Kleine Anfrage der Abgeordneten Dr. Barbara Holl, Harald Koch, Richard Pitterle, Dr. Axel Troost und der Fraktion DIE LINKE: Aktuelle, geplante und vollzogene Maßnahmen der Bundesregierung zur Vereinfachung des Steuerrechts, BTDrs. 17/4584. Deutscher Bundestag (201 ld), Schriftliche Fragen mit den in der Woche vom 31. Januar 2011 eingegangenen Antworten der Bundesregierung, BT-Drs. 17/4639. Deutscher Bundestag (201 le), Antwort der Bundesregierung auf die Kleine Anfrage der Abgeordneten Dr. Barbara Holl, Harald Koch, Richard Pitterle, Dr. Axel Troost und der Fraktion DIE LINKE-Drucksache 17/4584-, BT-Drs. 17/4797. Deutscher Bundestag (201 lf), Gesetzesentwurf der Bundesregierung eines Steuervereinfachungsgesetzes 2011, BT-Drs. 17/5125. Deutscher Bundestag (2011g), Stenografischer Bericht der 100. Sitzung, Plenarprotokoll 17/100. Deutscher Bundestag (2011h), Stenografischer Bericht der 114. Sitzung, Plenarprotokoll 17/114. Deutscher Bundestag (201 Ii), Wortprotokoll der 51. Sitzung des Finanzausschusses, Protokoll Nr. 17/51. Deutscher Bundestag (201 lj), Entschließungsantrag der Abgeordneten Lisa Paus, Fritz Kuhn, Dr. Thomas Gambke, Britta Haßelmann, Dr. Gerhard Schick, Katja Dörner, Sven-Christian Kindler, Brigitte Pothmer, Maria Klein-Schmeink, Stephan Kühn, Claudia Roth (Augsburg), Dr. Wolfgang Strengmann-Kuhn und der Fraktion BÜNDNIS 90/DIE GRÜNEN zu der dritten Beratung des Gesetzentwurfs der Bundesregierung - Drucksachen 17/5125, 17/6105 Entwurf eines Steuervereinfachungsgesetzes 2011, BT-Drs. 17/6122. Deutscher Bundestag (2011k), Bericht des Finanzausschusses (7. Ausschuss) zu dem Gesetzentwurf der Bundesregierung - Drucksachen 17/5125, 17/5196 - Entwurf eines Steuervereinfachungsgesetzes 2011, BT-Drs. 17/6146. Deutscher Bundestag (20111), Beschlussempfehlung des Vermittlungsausschusses zu dem Steuervereinfachungsgesetz 2011 -Drucksachen 17/5125, 17/5196, 17/6105, 17/6121, 17/6146, 17/6583,17/6875-, BT-Drs. 17/7025. DGB (2011), Stellungnahme zum Entwurf eines Steuervereinfachungsgesetzes 2011 (Drs. 17/5125), http://www.bundestag.de/bundestag/ausschuesse 17/a07/anhoerungen/2011/051 /Stellungnahmen/14 DGB.pdf [28.02.2013], DStG (2011), Stellungnahme zum Gesetzentwurf der Bundesregierung „Entwurf eines Steuervereinfachungsgesetzes 2011" - Drucksache 17/5125, http://www.bundestag.de/bundestag/ ausschuesse 17/a07/anhoerungen/2011/051/Stellungnahmen/12-DSTG.pdf [28.02.2013]. DStV (2011), Stellungnahme zum Gesetzesentwurf der Bundesregierung eines Steuervereinfachungsgesetzes 2011, http://www.bundestag.de/bundestag/ausschuessel7/a07/ anhoerungen/2011/051/Stellungnahmen/16-_Dt_Steuerberaterverb.pdf [28.02.2013 ]. Familienbund der Katholiken (2011), Stellungnahme zum Gesetzesentwurf der Bundesregierung „Entwurf eines Steuervereinfachungsgesetzes 2011" - BT-Drucksache 17/5125, http://www.bundestag.de/bundestag/ausschuessel7/a07/anhoerungen/2011/051 /Stellungnahmen/19_-_Fam_bund_d_Katholiken.pdf [28.02.2013]. FAZ (2010), Im Zweifel gegen die Eltern, 23.12.2010, S. 11. FAZ (2011), Auf dem Weg zu neuen Ufern, 11.3.2011, S. 21. Fearon, J.D. (1991), Counterfactuals and hypothesis testing in political science, World Politics, Jg.43, S. 169-195. Feld, L. P. und Schaltegger, C. A. (2012), Die Politische Ökonomik der Besteuerung, Perspektiven der Wirtschaftspolitik, Jg. 13, S. 116-136. Foucault, Michel (1981), Archäologie des Wissens, Frankfurt am Main. Fuest, C., Peichl, A. und Schaefer, T. (2007), Führt Steuervereinfachung zu einer „gerechteren" Einkommensverteilung? Eine empirische Analyse für Deutschland, Perspektiven der Wirtschaftspolitik, Jg. 8, S. 20-37. George, A. und Bennett, A. (2005), Case Studies and Theory Development in the Social Sciences, Massachusetts. Giugni, M. (1999), How Social Movements Matter: Past Research, Present Problems, Future Developments, How Social Movements Matter, hrsg. v. Giugni, M., McAdam, D. und Tilly, C., Minneapolis, S. xiii-xxxiii.

192

Markus Grottke und Maximilian Kittl

Habermas, J. (1969), Strukturwandel der Öffentlichkeit, Frankfurt am Main. Habermas, J. (1995), Wahrheitstheorien, Vorstudien und Ergänzungen zur Theorie des kommunikativen Handelns, hrsg. v. Habermas J., Frankfurt am Main, S. 127-186. Hall, P. (2006), Systematic process analysis: when and how to use it, European Management Review, Jg. 3, S. 24-31. Hayek, F.A. (1972), Die Theorie komplexer Phänomene, Tübingen. Hayek, F.A. (1979), The Counter-Revolution of Science, 2. Auflage, Indianapolis. Handelsblatt (2010a), Steuervereinfachung wird für Eltern teuer, 22.12.2010, S. 15. Handelsblatt (2010b), CDU will teure Steuervereinfachung für Eltern kippen, 28.12.2010, S. 15. Hechtner, F. (2011), Öffentliche Anhörung zu dem Gesetzesentwurf der Bundesregierung „Entwurf eines Steuervereinfachungsgesetzes 2011", Drucksache 17/5125, http://www.bundestag.de/bundestag/ausschuessel7/a07/anhoerungen/2011/051/Stellungnah men/23-Stellungnahme_Dr Hechtner.pdf [28.02.2013]. Hempel, C.G. und Oppenheim P. (1948), Studies in the Logic of Explanation, Philosophy of Science, Jg. 15, S. 135-175. Hessisches Finanzministerium (2010), 10 hessische Vorschläge für ein einfacheres Steuerrecht, http://www.hessen.de/iij/servlet/prt/portal/prtroot/slimp.CMReader/zentral_15 /zentral_Internet/med/2a5/2a550e 18-7153-b721 -f3ef-efe2389e4818,22222222-2222-22222222-222222222222,true.pdf [28.02.2013]. Hettich, W. und Winer, S. L. (1984), A positive model of tax structure, Journal of Public Economics, Jg. 24, S. 67-87. Hettich, W. und Winer, S. L. (1999), Democratic Choice and Taxation, Cambridge. Jachmann, M. (2011), Steuervereinfachungsgesetz 2011 Anhörung vor dem Finanzausschuss des Deutschen Bundestages am 11. Mai 2011, http://www.bundestag.de/bundestag/ ausschuesse 17/a07/anhoerungen/2011/051/Stellungnahmen/25-Prof__Jachmann.pdf [28.02.2013]. Koalitionsausschuss (2010), Beschlussvorschlag: Maßnahmenpaket zur Steuervereinfachung, http://gesetzgebung.beck.de/sites/gesetzgebung.beck.de/files/MassnahmenpaketSteuervereinfachung.pdf [28.02.2013]. Krüsselberg, H.-G. (1999), Wilhelm Röpkes Lehre von der Politischen Ökonomie, ORDO Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft, Jg. 50, S. 3-19. Langley, A. (1999), Strategies for Theorizing from Process to Data, Academy of Management Review, Jg. 24, S. 691-710. Luhmann, N. (1973), Zweckbegriff und Systemrationalität, Frankfurt am Main. Maag, E. (2010), Simplicity: Considerations in designing a unified child credit. National Tax Journal, Jg. 63, S. 765-780. Mackscheidt, K. (2009), Warum die Steuerzahler eine Steuervereinfachung verhindern, Märkte und Politik - Einsichten aus Perspektive der Politischen Ökonomie, hrsg. v. Schäfer, W., Schneider, A. und Thomas, T., Marburg, S. 51-62. Mestmäcker, E.-J. (2009), Gesellschaft und Recht bei David Hume und Friedrich A. von Hayek - Über die Zivilisierung des Egoismus durch Recht und Wettbewerb, ORDO - Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft, Jg. 60, S. 87-100. NVL (2011), Stellungnahme zum Entwurf eines Steuervereinfachungsgesetzes 2011 (BT-Drs. 17/5125) Stellungnahme des Bundesrates (BR-Drs. 54/11) Gegenäußerung der Bundesregierung (BT-Drs. 17/5196), http://www.bundestag.de/bundestag/ausschuessel7/a07/ anhoerungen/2011/051 /Stellungnahmen/29_-_NVL.pdf [28.02.2013]. Olson, M. (1965), The Logic of Collective Action, Cambridge/London. Otter, N. (2005), Ökonomische Erkenntnisprogramme in der Finanzwissenschaft: Eine Analyse unter der methodologischen Konzeption von Imre Lakatos, Marburg. Pitt, M.M. und Slemrod, J. (1989), The Compliance Cost of Itemizing Deductions: Evidence from Individual Tax Returns, American Economic Review, Jg. 79, S. 1225-1232. Röpke, W. (1979), Internationale Ordnung heute, 3. Auflage, Bern. Reding, K. und Müller, W. (1999), Einführung in die Allgemeine Steuerlehre, München. Romer, T. und Rosenthal, H. (1979), The elusive median voter, Journal of Public Economics, Jg. 12, S. 143-170. Slemrod, J. und Sorum, N. (1984), The compliance cost of the U.S. income tax system, National Tax Journal, Vol. 37, S. 461-474.

Komplexität im Steuerrecht

193

Smith, A. (2006), Der Wohlstand der Nationen, München. SZ (2010), Steuerfalle für Eltern, 31.12.2010, S. 25. Tetlock, P.E. und Belkin, A. (1996), Counterfactual Thought Experiments in World Politics: Logical, Methodological and Psychological Perspectives, Counterfactual Thought Experiments in World Politics: Logical, Methodological and Psychological Perspectives, hrsg. v. Tetlock, P.E. und Belkin, A., Princeton, S. 1-38. Wagner, F.W. (2006), Was bedeutet Steuervereinfachung wirklich?, Perspektiven der Wirtschaftspolitik, Jg, 7, S. 19-33. Wanniski, J. (1978), The way the world works, New York. ZEW (2010), Auswirkungen von Steuervereinfachungen, http://ftp.zew.de/pub/zew-docs/ gutachten/Steuervereinfachung2010.pdf [28.02.2013], Zürn, M. (1998), The Rise of International Environmental Politics: A Review of Current Research, World Politics, Jg. 50, S. 617-649.

Zusammenfassung Wir stellen die Resultate einer detaillierten Prozessstudie zu einem Gesetzgebungsprozess im Rahmen des in 2011 verabschiedeten Steuervereinfachungsgesetzes dar. Hierbei arbeiten wir zentrale Einflussfaktoren heraus, welche innerhalb des legislativen Prozesses Steuervereinfachung begünstigen oder aber ihr schaden. Wir vergleichen diesen Prozess mit zentralen politökonomischen Theorien zur Genese von Steuergesetzen und steuerlicher Komplexität. Der Vergleich zeigt auf, wie die Argumente, die den Theorien zugrunde liegen, im realen Gesetzgebungsprozess Einsatz finden. Zugleich werden weitere Faktoren als bedeutsam identifiziert, die bislang vernachlässigt wurden: der (verzerrende) Einfluss der Presse, unvollständige Information und ideologische Grabenkämpfe.

Summary: Tax complexity in emergence - pivotal political-economic theories revisited in the light of a process tracing field study Our paper presents the results of a detailed study of the legislatory process within the German tax simplification act passed in 2011. We carve out influence factors on tax complexity within the legislatory process which are beneficial or detrimental to tax simplification. The comparison of the results with pivotal existing political-economic literature on the formation of tax law and tax complexity reveals how and when the arguments of the latter play a role in the processes observed. Further remarkable factors like the (biasing) influence of the press, incomplete information and ideological struggles are observed.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Elmar Gerum und Sascha H. Mölls

Corporate Governance-Systeme und Unternehmensfinanzierung - Empirische Befunde für deutsche Großunternehmen Inhalt I. Problemstellung II. Corporate Governance-Systeme: Exit- versus Voice-Modell III. Empirische Befunde zum deutschen System der Untemehmensfinanzierung 1. 2. 3. IV. 1. 2.

195 197 198

Untersuchungsprogramm, Datenbasis und Auswertung 199 Das System der Unternehmensfinanzierung: Kapitalmärkte und Banken... 202 Zwischenergebnis 210 Implikationen für Forschung und Politik 211 Corporate Governance-Forschung 211 Zur Gesetzgebung von Corporate Governance 214

V. Resümee

215

Literatur

215

Zusammenfassung

219

Summary: Corporate Governance-Systems and Corporate Financing Empirical Evidence for large corporations in Germany

219

I. Problemstellung In den letzten 20 Jahren hat das wissenschaftliche, aber auch das öffentliche Interesse an „Comparative Corporate Governance" beständig zugenommen. Mit der Deregulierung der nationalen Finanz- und Gütermärkte seit Anfang der 1990er Jahre ging ein tief greifender Wandel der internationalen Arbeitsteilung einher. In diesem Zusammenhang rückte die These vom Standortwettbewerb zwischen den Nationen in den Mittelpunkt der wissenschaftlichen und politischen Debatte.1 Zunehmender internationaler Wettbewerb erzwinge die Anpassung nicht nur von Unternehmensstrukturen, sondern auch von staatlichen Institutionen und Regulierungen. Gelinge es nationalen Wirtschaftssystemen nicht, ihre Wettbewerbsfähigkeit zu verbessern, so würden die Unternehmen mit Standortverlagerung ins Ausland reagieren, um Wettbewerbsvorteile zu verteidigen. '

Vgl. etwa Porter (1993) und Monopolkommission (1998).

196

Elmar Gerum und Sascha H. Mölls

Da sich alle Wirtschaftssysteme und Unternehmen mit den Herausforderungen deregulierter Finanz- und Produktmärkte konfrontiert sehen, würden sich schließlich ähnliche staatliche Institutionen und unternehmerische Verhaltensweisen herausbilden. Deshalb sei auch und gerade eine Konvergenz der Corporate Governance-Systeme zu erwarten. Der Systemwettbewerb übt sowohl eine Kontroll- beziehungsweise Disziplinierungsfunktion als auch eine Innovations- und Diffusionsfunktion aus.2 Er bildet den theoretischen Rahmen für die These von der Konvergenz der Corporate Governance-Systeme.3 Das zentrale Argument lautet: Der Wettbewerb auf dem Kapitalmarkt erzwingt die Wahl eines leistungsfähigen Corporate Governance-Systems.4 Gesellschaften mit einem Corporate Governance-System, das die Legitimität der Kapitaleignerinteressen in Frage stellt oder dessen Institutionen nicht in der Lage sind, die Interessen der Kapitaleigner zu wahren, werden angesichts des Wettbewerbs um knappe Kapitalmittel durch höhere Kosten bei der Beschaffung von Eigen- und Fremdkapital bestraft. Diese höheren Kosten wiederum beeinträchtigen die Wettbewerbsfähigkeit der Unternehmen auf den Gütermärkten, so dass sowohl für den Staat als auch für die Unternehmen ein Anreiz besteht, das Corporate Governance-System zu verbessern. Insoweit bildet die Art der Unternehmensfinanzierung ein zentrales Merkmal von Corporate Govemance-Systemen. In der Forschung zur „Comparative Corporate Governance" ist deshalb auch die Klassifizierung von Corporate Governance-Systemen nach der Art der Unternehmensfinanzierung zu einer Standardthese geworden.5 Vor diesem Hintergrund ist es das Ziel dieses Beitrags zu prüfen, ob und inwieweit sich das deutsche Corporate Governance-System, insbesondere die Art der Unternehmensfinanzierung, im Zuge des Systemwettbewerbs an die - international als Referenzpunkt dienenden6 - angloamerikanischen Standards angeglichen hat. Dazu wird zunächst das auf der Voice-Logik basierende deutsche System dem US-amerikanischen Exit-Modell gegenübergestellt. Sodann sollen empirische Befunde zur Art der Unternehmensfinanzierung in deutschen Großunternehmen präsentiert und erklärt werden. Der Beitrag schließt mit einigen grundsätzlichen Überlegungen zu den rechtspolitischen Implikationen für Forschung und Politik von Corporate Governance-Systemen.

2 3

4 5

6

Vgl. Sinn (1992); Kerber (1998). Vgl. Witt (2003, S. 151 ff.) zu formalen Modellen zum Wettbewerb von Corporate GovernanceSystemen. Vgl. Lane (2003, S. 86 ff.); Witt (2003, S. 135 ff.). Vgl. Franks/Mayer (1995); Moerland (1995); Berglöf (1997); Schmidt/Tyrell (1997); Hackethal/ Schmidt (2000). Zur historischen Entwicklung siehe näher Vitols (2001). Vgl. hierzu die - in Teilen kritischen - Überlegungen bei Kraakman et al. (2009) sowie Hansmann/ Kraakman (2012, S. 32 ff.). Vgl. insbesondere zu den aktuellen Entwicklungen in Deutschland und Europa Hopt (2011); Lutter/Bayer/Schmidt (2012) und EU-Kommission (2011).

Corporate Governance-Systeme und Unternehmensfmanzierung

197

II. Corporate Governance-Systeme: Exit- versus Voice-Modell Für die Beschreibung, den Vergleich und die Erklärung der nationalen Corporate Governance-Systeme finden sich die unterschiedlichsten Ansätze in der Literatur.7 Diese beziehen sich mit differierendem Fokus und Gewicht auf die Interessen- beziehungsweise Legitimationsfrage8 und/oder die Organisations- und Kontrollproblematik9 von Corporate Governance. Zur Unterscheidung, Erklärung und Analyse von Corporate Govemance-Systemen bietet es sich in einer ganzheitlichen Betrachtung an, in Anlehnung an Hirschman - die idealtypischen Kontrollphilosophien Exit und Voice10 beziehungsweise Exit, Voice und Loyalty11 heranzuziehen. Damit verbunden ist die Auffassung, dass diese Kontrollphilosophien als Paradigmen das wirtschaftlich relevante Rechtssystem und die Handlungsmuster der Akteure in den Unternehmen und Märkten ganzheitlich prägen.12 Als Exit-geprägte Corporate Governance-Systeme werden regelmäßig das britische und das US-amerikanische interpretiert.13 In den USA obliegt dem Board of Directors auch eine Treuhänderfunktion gegenüber den Aktionären, die das Management über die Exit-Option am Kapitalmarkt (Markt für Unternehmenskontrolle) kontrollieren.14 Bei der Unternehmensfinanzierung dominiert konsequenterweise der Aktienmarkt in Verbindung mit einem ausgeprägten Anlegerschutz. Ein solch kapitalmarktorientiertes Finanzsystem ist gekennzeichnet durch die dominante Rolle der Eigen- und Fremdkapitalmärkte für die Unternehmensfmanzierung. Institutionell sind kapitalmarktorientierte Systeme durch das Trennbankensystem geprägt, in dem das Kredit- und das Wertpapiergeschäft separiert sind, um Interessenkonflikte bei Entscheidungen in den verschiedenen Bereichen zu vermeiden. Unternehmen in kapitalmarktorientierten Systemen finanzieren sich dominant über Unternehmensanleihen, durch Kredite von NichtBanken und über die Beschaffung von Eigenkapital. Die Kontrolle des Managements findet überwiegend außerhalb des Unternehmens statt, so dass kapitalmarktorientierte Finanzsysteme auch als „Outsider-Systeme" bezeichnet werden.15 Bei den Eigentümerstrukturen herrscht typischerweise Streubesitz vor16, da die Funktionsfähigkeit des ExitMechanismus bei hohem Anteilsbesitz eines Investors an einem Unternehmen eingeschränkt wird. Institutionell wird die Outsider-Kontrolle durch weitreichende 7

Vgl. Gerum (2004, Sp. 171 ff.). In diesem Zusammenhang geht es insbesondere um die verfassungsrelevanten Interessen und damit um den Stakeholder- vs. Shareholder-Ansatz. Vgl. u.a. Hoshi (1998) und Tirole (2001). 9 Diese Ansätze umfassen zum einen die Auseinandersetzung mit den Varianten der Führungsorganisation, d.h. die Frage nach der Anwendung des Vereinigungs- oder Trennungsmodells (vgl. Hopt (1998, S. 228 f.) und Lutter/Krieger (2002, S. 3 f.)) und zum anderen die Frage nach den Mustern der Unternehmensfmanzierung (vgl. Franks/Mayer (1995); Moerland{ 1995); Berglöf (1997) und Hackethal/Schmidt (2000)). 10 Vgl. Thompson/Wright (1995); Nooteboom (1999). " Vgl. Gerum (1998). 12 Ganzheitliche Analysekonzepte sind weiterhin die Unterscheidung in „Markt- vs. Netzwerkorientierte Ansätze" (vgl. Weimer/Pape (1999)) sowie in alternative „Systeme der Unternehmenskontrolle" (vgl. Hackethal/Schmidt (2000)). 13 Vgl. statt vieler Allen/Gale (2001, S. 30 ff.). 14 Vgl. statt vieler auch Roe (1993) oder Merkt/Göthel (2006). 15 Vgl. Mayer (1988); Franks/Mayer (1995); Berglöf (1997); Schmidt/Tyrell (1997). 16 Vgl. Becht/Mayer (2001, S. 18 f.). 8

198

Elmar Gerum und Sascha H. Mölls

Aktionärsrechte und durch umfassende Informations- und Rechenschaftspflichten nach kapitalmarktorientierten Standards (US-GAAP) abgesichert. Das deutsche Corporate Governance-System gilt dagegen als das klassische Beispiel für die Kontrolle durch Voice. Mit dem Aufsichtsrat und seinen Informations-, Kontroll- und Widerspruchsrechten ist die Möglichkeit zu organisationsinternem Widerspruch institutionalisiert.17 Damit korrespondiert eine Unternehmensfinanzierung durch Hausbanken, die sowohl Gläubiger sind als auch Anleger sein können. Im bankorientierten Finanzsystem spielen demnach die Kapitalmärkte nur eine untergeordnete Rolle für die Unternehmensfinanzierung.18 Es dominiert die externe Unternehmensfinanzierung über langfristige Kredite, die durch Universalbanken als zentrale Finanzintermediäre vermittelt und kontrolliert werden. In bankorientierten Finanzsystemen findet die Unternehmenskontrolle durch organisationsinternen Widerspruch statt („Insider-System"). Da es an einem effektiven Exit-Mechanismus fehlt, ist der Anteilsbesitz in bankorientierten Systemen stärker konzentriert als in kapitalmarktorientierten Finanzsystemen. Die bankorientierte Unternehmensfinanzierung findet ihre institutionelle Entsprechung in einem starken gesetzlichen Schutz der Gläubiger, während die Interessen von Minderheitsaktionären vergleichsweise schwach geschützt sind.19 Die Bevorzugung der Gläubigerorientierung findet ihren Niederschlag in der („traditionellen") Rechnungslegung nach dem deutschen Handelsgesetzbuch.

III. Empirische Befunde zum deutschen System der Unternehmensfinanzierung Im internationalen Vergleich ist die gesamtwirtschaftliche Bedeutung der Kapitalmärkte für die Finanzierung deutscher Unternehmen gering. Im Jahr 2010 betrug die Marktkapitalisierung deutscher Aktiengesellschaft 36% des Bruttoinlandprodukts, während britische und US-amerikanische Aktiengesellschaften eine Marktkapitalisierung von 162% beziehungsweise von 120% des Bruttoinlandsprodukts aufwiesen.20 Unternehmensanleihen spielen für die Finanzierung deutscher Unternehmen ebenfalls nur eine relativ geringe Rolle.21 Die zentralen Akteure des deutschen Systems der Unternehmensfinanzierung sind die Universalbanken, während anderen Finanzintermediären, etwa Investmentgesellschaften, Pensionsfonds oder Versicherungen, eine geringere Bedeutung zukommt. Während hier die überragende Rolle der Banken an der Finanzierung der Unternehmen im Zeitablauf stabil geblieben ist, hat die geringe Bedeutung amerikanischer Banken zugunsten kapitalmarktnah operierender Finanzintermediäre wie Versicherungen, Investmentfonds und Finance Companies in den letzten 25 Jahren immer weiter abgenommen.22 17

18 19 20

21 22

Zu den historischen Wurzeln siehe Hopt (1998, S. 229 ff.); zu den Eigenheiten des deutschen Corporate Govemance-Systems aus ausländischer Sicht vgl. etwa Roe (1993, S. 1936 ff.). Vgl. statt vieler Hackethal/Schmidt (2000, S. 63 ff.). Vgl. Shleifer/Vishny (1997); Nowak (2004). Vgl. Deutsches Aktieninstitut (2011, S. 05-3). Im Jahr 2005 lag die Marktkapitalisierung in Deutschland noch bei 47%, in Großbritannien bei 155% und in den USA bei 135% des Bruttoinlandsprodukts. Vgl. Deutsche Bundesbank (2000, S. 35); Deutsche Bundesbank (2005, S. 45). Vgl. Hackethal/Schmidt (2000, S. 66 ff.).

Corporate Governance-Systeme und Unternehmensfinanzierung

199

In den letzten Jahren scheint sich das deutsche System der Unternehmensfinanzierung zu verändern. So konstatiert die Bundesbank eine steigende Bedeutung von Anleihen für die externe Unternehmensfinanzierung und resümiert, das deutsche Finanzsystem sei „ein zwischen rein ,kapitalmarktorientierten' und ,bankbasierten' Systemen angesiedeltes Mischsystem"23. Für eine Entwicklung hin zum Mischsystem spricht, dass der Anlegerschutz in Deutschland seit Mitte der 1990er Jahre stark verbessert wurde.24 Im gleichen zeitlichen Kontext hat auch - vermutlich nicht zuletzt infolge gezielter (steuerrechtlicher) Anreize zur Auflösung bestehender Unternehmensverflechtungen25 die gesamtwirtschaftliche Bedeutung der Aktienmärkte in Deutschland zugenommen.26 Machte 1990 die Marktkapitalisierung deutscher Unternehmen 25% des Bruttoinlandsprodukts aus, so waren es 2005 47%, 2006 59%, 2007 sogar 72%, 2008 - trotz der Finanzkrise - immerhin noch 36%, 2009 43% und 2010 wiederum 47%.27 Diese Marktkapitalisierung ist allerdings, wie bereits angemerkt, im internationalen Vergleich weiter als niedrig einzustufen. Schließlich verringerten die deutschen Banken auch ihre Beteiligungen an Aktiengesellschaften und reduzierten die Zahl der Aufsichtsratsvertreter.28 Das Muster der externen Unternehmensfinanzierung schlägt sich auch in den Bilanzstrukturen deutscher Unternehmen nieder. Im Vergleich zu US-amerikanischen Unternehmen verfugen deutsche Unternehmen traditionell über eine geringere Eigenkapitalquote und über eine deutlich höhere Quote der Bankverbindlichkeiten.29 Dabei gilt es allerdings zu beachten, dass mit zunehmender Unternehmensgröße die Bedeutung der Bankkreditfinanzierung in der Bilanzstruktur abzunehmen scheint.30

1. Untersuchungsprogramm, Datenbasis und Auswertung Unternehmen in bank- und in kapitalmarktorientierten Finanzsystemen unterscheiden sich in den Quellen der externen Unternehmensfinanzierung. Deshalb sollten Unternehmen, die in den Finanzierungsstrukturen stärker kapitalmarktorientiert sind, eine andere Bilanzstruktur aufweisen als bankorientierte.31 Zudem soll die Wahl der Unternehmensfinanzierung zu erklären versucht werden. 23 24 25 26 27 28 29 30 31

Deutsche Bundesbank (2000, S. 46); vgl. weiter Deutsche Bundesbank (2004). Vgl. Nowak (2004, S. 428 ff.). Vgl. Blasch (2007). Vgl. Theissen (2004, S. 140 f.). Vgl. Deutsches Aktieninstitut (2011, S. 05-3). Vgl. Gerke/Mager (2005, S. 552 f.); Hackethal/Schmidt/Tyrell (2005, S. 11 ff.). Vgl. Hackethal/Schmidt (2000, S. 66 ff).; Deutsches Aktieninstitut (2011, S. 04-1 ff.). Vgl. Seeger (1997, S. 185 f.); Gerum (2007, S. 104 f., S. 229). Die Bilanz als Grundlage für die Analysen zur Unternehmensfinanzierung wählt die Deutsche Bundesbank (2001, S. 45 ff. und 2005, S. 33 ff.). Ein anderes Vorgehen zur empirischen Überprüfung der Art der Unternehmensfinanzierung wählen hingegen Hackethal/Schmidt (2004). Dort werden in Anlehnung an Mayer (1988, S. 1167 ff.) statt Bestandsdaten aus den Bilanzen Flussgrößen aus der Gewinn- und Verlustrechnung und den Einkommens- und Cash Flow-Rechnungen ermittelt und aggregiert. Diese Informationen stammen entweder von Privatanbietern von Finanzdaten oder von den Zentralbanken und den Statistikämtem. Angesichts der erforderlichen vielfaltigen Ermittlungs- und Aggregationsschritte sowie des Problems der nur bedingten Verfügbarkeit der benötigten Flussgrößen wird der weiteren Analyse das direktere Verfahren auf der Basis von Bilanzgrößen zugrunde gelegt.

200

Elmar Gerum und Sascha H. Mölls

Für die Analyse der Bilanzen wurden die im Jahr 2005 100 größten börsennotierten Konzernobergesellschaften in der Rechtsform der Aktiengesellschaft herangezogen. Nicht sinnvoll ist es, bei der vergleichenden Bilanzanalyse die „Financials", d.h. die Banken und die Versicherungen, zu berücksichtigen. Weiter werden die öffentlich kontrollierten Konzernobergesellschaften nicht berücksichtigt, da diesen Unternehmen möglicherweise staatliche Finanzierungsquellen zur Verfügung stehen und dies wiederum die Struktur der Unternehmensfinanzierung beeinflussen könnte. Die Untersuchung bezieht sich auf das Jahr 2005, da ab diesem Geschäftsjahr bei kapitalmarktorientierten Unternehmen die IFRS/IAS für den Konzernabschluss verpflichtend sind (§ 315a HGB) und deshalb eine Standardisierung der Daten aus unterschiedlichen Rechnungslegungssystemen (HGB, IFRS/IAS und US-GAAP) entfallen kann. Zur Bestimmung der Bank- oder Kapitalmarktorientierung der Unternehmensfinanzierung wurde mittels Clusteranalyse überprüft, ob und inwieweit sich die Unternehmen in den folgenden finanzierungsrelevanten Bilanzpositionen unterscheiden:32 •

Verbindlichkeiten gegenüber Kreditinstituten: Bankorientierte Unternehmen weisen in der Bilanzstruktur typischerweise hohe Verbindlichkeiten gegenüber Kreditinstituten auf. Deshalb wurde der Anteil der Verbindlichkeiten gegenüber Kreditinstituten an der Bilanzsumme und an den Finanzverbindlichkeiten insgesamt untersucht.



Anleihen: Da die externe Unternehmensfinanzierung kapitalmarktorientierter Unternehmen stark von Anleihen geprägt ist, wurden diese in Relation zur Bilanzsumme und zur Summe der Finanzverbindlichkeiten analysiert.



Gezeichnetes Kapital: Die Höhe des Gezeichneten Kapitals wird durch den Nennbetrag aller ausgegebenen Aktien bestimmt. Kapitalmarktorientierte Unternehmen sollten entsprechend einen höheren Anteil des Gezeichneten Kapitals an der Bilanzsumme und an der Summe des (bereinigten) Eigenkapitals33 ausweisen.



Kapitalrücklage: Da die Kapitalrücklage aus dem Agio bei der Ausgabe von Aktien und Anleihen gebildet wird, kann sie als Indikator für die Unternehmensaktivitäten am Kapitalmarkt dienen. Die Kapitalrücklage wurde in Relation zur Bilanzsumme und zur Summe des (bereinigten) Eigenkapitals in die Clusteranalyse einbezogen.



Gewinnrücklage: Eine hohe Rücklage aus thesaurierten Gewinnen ist schwierig zu interpretieren. Sie kann zum einen auf eine geringere Kapitalmarktorientierung hindeuten, wenn die Gewinne nicht an die Anteilseigner ausgeschüttet werden. Zum anderen kann dies aber auch Ausdruck einer Kapitalmarktorientierung sein, wenn die Verzinsung des eingesetzten Kapitals im Unternehmen höher ist als die Rendite bei alternativen Investments. Dennoch wurde die Gewinnrücklage im Verhältnis zur Bilanzsumme und zur Summe des (bereinigten) Eigenkapitals als relevante Größe berücksichtigt.

Nicht berücksichtigt werden als systemindifferent die Rückstellungen, Verbindlichkeiten aus Lieferungen und Leistungen und die sonstigen Verbindlichkeiten.

32 33

Vgl. ähnlich bei Prowse (1995, S. 23 ff.); Gerum (2007, S. 97 ff.). Das bereinigte Eigenkapital berücksichtigt weder den Bilanzgewinn noch das „sonstige Eigenkapital", da beide negative Werte annehmen und deshalb zu Verzerrungen fuhren können.

201

Corporate Governance-Systeme und Unternehmensfinanzierung

Um die Wahl der Unternehmensfinanzierung erklären zu können, wurden die in der internationalen Corporate Governance-Forschung gängigen (potenziellen) Einflussgrößen für die 100 größten deutschen Konzernmütter erhoben: •

die Eigentumsverhältnisse 34 (Eigentümer-/Managerunternehmen35, oder ausländisch Beherrschung);



die Unternehmensgröße 36 (Umsatz, Bilanzsumme und Mitarbeiterzahl37);

*

die Unternehmensstrategie38 fikation40) sowie



die Branche.41

inländische

(Produktdiversifikation39, geografische

Diversi-

Zur Verdichtung der Informationen wurden Clusteranalysen und exploratorische Faktorenanalysen berechnet. Die Anwendungsvoraussetzungen für eine hierarchische Clusteranalyse42, basierend auf dem Zuordnungskriterium der quadrierten euklidischen Distanz, waren erfüllt, da die einbezogenen Variablen jeweils vom gleichen Merkmalstyp sind und ausschließlich metrische Merkmale (zum Beispiel Zahl der Mitarbeiter, Bilanzsumme und Umsatz) oder binäre Merkmale (zum Beispiel Existenz/NichtExistenz) verwendet wurden. Durch exploratorische Faktorenanalysen wurden intervallskalierte Variablen zu übergeordneten Faktoren beziehungsweise Kennzahlen verdichtet, welche die Zusammenhänge zwischen den Variablen erklären 43

34

36

40

41 42 43

Vgl. Roe (1994); LaPorta/Lopez-de-Silanes/Shleifer/Vishny (2000); Gerum (2007). Zur Abgrenzung von Eigentümer- und Managerunternehmen wurde auf die Vorgehensweise von Berle/Means (1932) zurückgegriffen. Danach wird ein Unternehmen als Managerunternehmen eingestuft, wenn (a) kein Eigentümer mehr als 1% des Grundkapitals hält oder (b) ein oder mehrere Eigentümer höchstens 25% des Kapitals halten, wobei der Rest in Streubesitz ist. Als EigentümerUnternehmen werden alle anderen Fälle eingestuft, bei denen die Kapitalanteile mehr oder weniger konzentriert sind. Die endgültige Klassifizierung erfolgt nach einer zwei- oder mehrstufigen Analyse unter dem Gesichtspunkt der „ultimate control". Vgl. Demsetz/Lehn (1985); Gerum/Steinmann/Fees (1988, S. 41 ff.). Zwecks Gewährleistung einer Vergleichbarkeit über unterschiedliche Wirtschaftszweige wurden die drei Indikatoren für die Unternehmensgröße mittels einer exploratorischen Faktoranalyse zu einer einheitlichen Maßzahl verdichtet. Vgl. Gerum (1995); Singh/Mathur/Gleason (2004). Zur Ermittlung des Diversifikationsgrades wurde die Klassifikation von Wrigley (1970) verwendet, nach der vier Kategorien unterschieden werden: (1) Single Product Firm: Unternehmen, in denen mindestens 95% des Umsatzes auf einen Geschäftsbereich entfallen; (2) Dominant Product Firm: Unternehmen, in denen der Hauptgeschäftsbereich noch mehr als 70% des Gesamtumsatzes ausmacht und die restlichen 30% auf andere Geschäftsbereiche entfallen, die mit dem Hauptgeschäftsbereich verwandt sein können, aber nicht müssen; (3) Related Product Firm: Unternehmen mit mehreren Geschäftsbereichen, die im Hinblick auf Märkte und Technologien verwandt sind, von denen jedoch kein Geschäftsbereich mehr als 70% des Umsatzes auf sich vereinen kann und (4) Unrelated Product Firm: Unternehmen mit mehreren Produktgruppen, die weder miteinander technologisch noch marktlich verwandt sind und von denen aus keinen einen Umsatzanteil von mehr als 70% besitzt. Zur Bestimmung der geografischen Diversifikation wurde der im Ausland erzielte Umsatz in Relation zum Gesamtumsatz gesetzt. Vgl. etwa Marsiii (2001) m.w.N. Bei der Bestimmung der Branchenzugehörigkeit wurde die Klassifikation des Statistischen Bundesamtes (in Verbindung mit den NACE-Codes) herangezogen. Vgl. Bortz/Schuster (2010, S. 453 ff.), Backhaus/Erichson/Plinke/Weiber (2011, S. 395 ff.). Vgl. Bortz/Schuster (2010, S. 385 ff.), Backhaus/Erichson/Plinke/Weiber (2011, S. 329 ff.).

202

Elmar Gerum und Sascha H. Mölls

Zur Erklärung der empirischen Befunde wurde wegen der Dominanz nominal- und ordinalskalierter Daten die Methode der kategorialen Regression eingesetzt. Mit dieser Methode kann die Abhängigkeit einer nominal- oder ordinalskalierten Variable von anderen nominal- oder ordinalskalierten Variablen untersucht werden. Sie erlaubt zusätzlich die Einbeziehung intervallskalierter Variablen.44 Das Problem von Multikollinearität der Variablen wurde überprüft. Die Berechnungen der kategorialen Regression wurden durchgeführt mit der SPSS-Prozedur CATREG.45 Für die Einschätzung der Ergebnisse der kategorialen Regression ist zunächst das Signifikanzniveau des Regressionsmodells und das Bestimmtheitsmaß (R2) maßgeblich, da es den Anteil der Varianz der abhängigen Variable ausdrückt, der durch die unabhängigen Variablen erklärt wird. Die Erklärungskraft der jeweiligen Einflussgrößen ergibt sich aus dem Maß für die relative Wichtigkeit nach Pratf6, wobei der standardisierte Regressionskoeffizient (ß-Wert) die Richtung des Zusammenhangs angibt. Hohe Wichtigkeitswerte bedeuten, dass eine Einflussgröße von entscheidender Bedeutung ist.

2. Das System der Unternehmensfinanzierung: Kapitalmärkte und Banken a. Die Struktur der Unternehmensfinanzierung Die Clusteranalyse zu den theorierelevanten Bilanzpositionen für die Klassifizierung der Unternehmensfinanzierung ergab zwei stabile Gruppen von Unternehmen, die sich in der Bilanzstruktur deutlich unterscheiden (vgl. Tabelle 1). Die im ganz dominanten Cluster I (76%) zusammengefassten Unternehmen sind dadurch gekennzeichnet, dass sie, neben einer vergleichsweise hohen Eigenkapitalquote (41%), sich extern vor allem durch Kredite von Banken und kaum durch Anleihen finanzieren. Insofern scheint es angemessen, dies als eine Mischfinanzierung zu bezeichnen. Im Unterschied dazu setzt sich Cluster II (24%) aus kapitalmarktorientierten Unternehmen zusammen, deren Eigenkapitalquote nur 30% beträgt. Kennzeichnend für diese Gesellschaften ist vor allem eine Finanzierung durch Anleihen am Kapitalmarkt und nicht durch Kredite. Eine Unternehmensfinanzierung angloamerikanischer Prägung über den Kapitalmarkt ist demnach für die großen deutschen Konzernobergesellschaften nicht typisch. Vielmehr scheint sich hier die These der Deutschen Bundesbank zu bestätigen, dass das deutsche Finanzsystem zu einem Mischsystem zwischen einem rein kapitalmarktorientierten und einem bankbasierten System tendiert. Dieser, für das Jahr 2005 zu konstatierende Befund hat sich in einer Längsschnittstudie für den Zeitraum von 2001 bis 2009 für die 100 größten privaten und öffentlichen Aktiengesellschaften

44

45 46

Vgl. Bühl/Zöfel (2002, S. 141). In einer multinominalen logistischen Regression, in der abhängige und unabhängige Variablen ebenfalls nominal- und ordinalskaliert sein können, können intervallskalierte Einflussgrößen hingegen nur als Kovariate berücksichtigt werden. Vgl. Bühl/Zöfel (2002, S. 141 ff.). Vgl. Pratt (1987). Pratts Maß der relativen Wichtigkeit setzt sich zusammen aus dem Produkt des Regressionskoeffizienten und der Korrelation nullter Ordnung, wobei die Summe der Wichtigkeiten auf 1 normiert ist. Dieses Maß erlaubt zudem die Identifizierung von Suppressorvariablen und liefert Anzeichen für das Vorliegen von Multikollinearität.

203

Corporate Govemance-Systeme und Unternehmensfinanzierung

als äußerst stabil erwiesen. Danach sind im Zeitablauf ebenfalls nur ca. 25% der Konzernobergesellschafiten als kapitalmarktorientiert zu klassifizieren.47 Tabelle 1:

Bilanzstrukturen der 100 größten deutschen Konzernobergesellschaften (2005) Bilanzpositionen (Durchschnittswerte)

Cluster I Mischfinanzierte Unternehmen (N = 76 = 76%)

Cluster II Kapitalmarktorientierte Unternehmen (N = 24 = 24%)

13% 1% 10% 13% 18%

4% 14% 5% 8% 17%

69% 4%

20% 60%

27% 32% 41%

18% 28% 54%

Anteil an der Bilanzsumme -

Verbindlichkeiten ggü. Kreditinstituten Anleihen Gezeichnetes Kapital Kapitalrücklage Gewinnrücklage

Anteil an den Finanzverbindlichkeiten - Verbindlichkeiten ggü. Kreditinstituten - Anleihen

Anteil am (bereinigten) Eigenkapital - Gezeichnetes Kapital - Kapitalrücklage - Gewinnrücklage

Für die richtige Einschätzung der Befunde gilt es weiter zu bedenken, dass hier nur die absolute Spitze der deutschen Non-Financials in der Rechtsform der Aktiengesellschaft untersucht wurde und dies nicht repräsentativ fiir die externe Unternehmensfinanzierung aller deutscher Unternehmen ist. Wenn dann unter den größten deutschen Konzernobergesellschaften nur 24% als kapitalmarktorientiert identifiziert werden konnten, so kann man diesen Befund nicht als Beleg für einen systematischen Wandel zu einem kapitalmarktorientierten Finanzsystem in Deutschland in Anspruch nehmen. Ein Blick auf die Finanzierungsmuster des kapitalmarktorientierten deutschen Mittelstands im German Entrepreneurial Index (GEX) untermauert diese Feststellung.48 Die große Masse der deutschen Unternehmen finanziert sich weiter extern durch Kredite bei den Banken.49

47 48 49

Vgl. Gerum/Mölls/Shen (2011, S. 547 ff.). Vgl. Gerum/Mölls/Shen (2011, S. 552 f.). Vgl. Deutsche Bundesbank (2000, S. 33 f.); Hackethal/Schmidt (2000, S. 66 ff).

204

Elmar Gerum und Sascha H. Mölls

Vergleicht man die relevanten Bilanzpositionen der Cluster im Einzelnen50, so fällt vor allem der bereits angesprochene ausgeprägte Unterschied in der Fremdkapitalfinanzierung auf. Bei den mischfinanzierten Unternehmen machen die Verbindlichkeiten gegenüber Kreditinstituten 13% der Bilanzsumme aus, während es bei den kapitalmarktorientierten Gesellschaften nur 4% sind. Bei diesen schlagen dagegen die Anleihen mit 14% an der Bilanzsumme zu Buche, im Gegensatz zu nur 1% in Cluster I. Analysiert man die Eigenkapitalstruktur, so ist, gemessen an der deutschen Unternehmen lange nachgesagten Eigenkapitalschwäche, die Eigenkapitalquote von 38% bei den deutschen Konzernobergesellschaften überraschend hoch. Insofern haben die deutschen Großunternehmen sich internationalen Standards angenähert.51 Im Einzelnen zeigt sich bei der Eigenkapitalstruktur, dass die kapitalmarktorientierten Gesellschaften, entgegen der theoretischen Vermutung, ein deutlich geringes Gezeichnetes Kapital aufweisen als die mischfinanzierten und auch über eine geringere Kapitalrücklage verfugen. Diese erstaunlichen Befunde deuten darauf hin, dass die mischfinanzierten Unternehmen nicht nur am Kapitalmarkt recht aktiv sind, sondern offenbar dort bessere Konditionen bei der Ausgabe von Aktien und Anleihen zu erhalten scheinen als die kapitalmarktorientierten Gesellschaften. Eine Erklärung dafür könnte in der Möglichkeit alternativer Fremdfinanzierung durch Kredite liegen. Was die Gewinnrücklagen anbetrifft, so wird deutlich, dass sowohl bei den mischfinanzierten als auch bei den kapitalmarktorientierten Unternehmen in etwa gleichem Maße thesauriert wird. Das mag daran liegen, dass bei den kapitalmarktorientierten Gesellschaften die Manager, wegen des Risikos, vom Kapitalmarkt abgestraft zu werden, hohe Gewinnrücklagen als Verlustpuffer präferieren. Bei den mischfinanzierten Unternehmen könnte dies aus den Forderungen der kreditgebenden Banken nach den BaselII-Vorgaben resultieren. Im Ergebnis ist die Eigenkapitalquote der mischfinanzierten Gesellschaften (41%) deutlich höher als bei den kapitalmarktorientierten Unternehmen (30%). Die Unterschiede zwischen den mischfinanzierten und den kapitalmarktorientierten Unternehmen werden noch klarer, wenn man die einzelnen Eigen- und Fremdkapitalpositionen in Relation zu den Finanzverbindlichkeiten und zum (bereinigten) Eigenkapital setzt. Der zentrale Unterschied bei der Fremdkapitalfinanzierung bestätigt sich wieder. Beim Eigenkapital wird deutlich, dass sich die Unternehmen in den beiden Clustern insbesondere hinsichtlich der Positionen Gezeichnetes Kapital und Gewinnrücklage unterscheiden, wohingegen bei der Kapitalrücklage die Unterschiede nicht so deutlich ausfallen. b. Unternehmensfinanzierung, Eigentumsverhältnisse und Kapitalmarktinstitutionen Die Art der Unternehmensfinanzierung ist, wie dargelegt, Teil eines Corporate Governance-Systems. Deshalb soll nun überprüft werden, ob und inwieweit die Eigentumsverhältnisse und weitere kapitalmarktbezogene Faktoren jeweils sinnfällig mit dem Cluster der mischfinanzierten und dem der kapitalmarktorientierten Unternehmen korrespondieren. Für die Interpretation der Cluster als mischfinanziert und kapital-

50 51

Zur Bilanzstruktur der deutschen Unternehmen insgesamt vgl. Deutsche Bundesbank (2005, S. 43 ff.). Vgl. Deutsches Aktieninstitut (2011, S. 04-1 ff.).

205

Corporate Governance-Systeme und Unternehmensfinanzierung

marktorientiert spricht, dass sich die Unternehmen in den Eigentumsverhältnissen unterscheiden (vgl. Tabelle 2).52 Tabelle 2:

Eigentumsverhältnisse der 100 größten deutschen Konzernobergesellschaften (2005)

Eigentumsverhältnisse

Cluster I Mischfinanzierte Unternehmen (N = 76 = 76%)

Cluster II Kapitalmarktorientierte Unternehmen (N = 24 = 24%)

Streubesitz [Durchschnitt]

48%

54%

Anteil größter Eigner [Durchschnitt]

29%

26%

Eigentümerkontrollierte Unternehmen

30 (39%)

6 (25%)

Managerkontrollierte Unternehmen

46 (61%)

18 (75%)

Eine Unternehmensfmanzierung, die sich am Kapitalmarkt orientiert, korrespondiert traditionell mit einer geringeren Konzentration des Eigentums. Theoriekonform ist der durchschnittliche Streubesitz53 bei den kapitalmarktorientierten Unternehmen höher als bei den mischfinanzierten Aktiengesellschaften (rs = 0,10 n.s.). Auch der durchschnittliche Kapitalanteil des größten Eigentümers der kapitalmarktorientierten Unternehmen ist kleiner, allerdings nicht signifikant (rs = - 0,09 n.s.). Keine signifikanten Unterschiede ergaben sich ebenfalls zwischen den beiden Clustern bezüglich der Eigentümerund Managerkontrolle (rs = 0,13 n.s.). Dies bedeutet, dass managerkontrollierte Publikumsgesellschaften nicht automatisch als stärker kapitalmarktorientiert gelten müssen.54 Nachfolgend soll analysiert werden, ob kapitalmarktbezogene Faktoren wie die Börsennotierung, börsennotierte Anleihen, das Kredit-Rating, die Existenz von Firmenkodizes sowie weitere gesellschaftsbezogene Informationssysteme mit den beiden Clustern stimmig korrespondieren. Die Befunde zeigen die Tabellen 3,4 und 5.

52 53

54

Vgl. Gerum/Mölls/Shen (2011, S. 553 f.) bei leicht veränderter Stichprobe. Als Streubesitz wurden alle Kapitalanteile unterhalb der gesetzlichen Meldefrist von 5% des Grundkapitals interpretiert. Vgl. zu ähnlichen Befunden im kapitalmarktorientierten deutschen Mittelstand Gerum/Mölls/Shen (2011, S. 554).

206 •

Elmar Gerum und Sascha H. Mölls

Tabelle 3:

Kapitalmarktinstitutionen bei den 100 größten deutschen Konzernobergesellschaften (2005)

Merkmale

Cluster I Mischfinanzierte Unternehmen (N = 76 = 76%)

Cluster II Kapitalmarktorientierte Unternehmen (N = 24 = 24%)

Börsennotierung (1) in Deutschland -DAX -MDAX - TecDax -SDAX - CDAX - Sonstig börsennotiert

5 20 12 15 9 15

( 7%) (26%) (16%) (20%) (12%) (20%)

14 5 1 2 2

( 0%) ( 8%)

14

(18%)

10

(42%)

8

(11%)

18

(75%)

Geratete Unternehmen

5

( 7%)

16

(67%)

Moody's-Rating S&P-Rating Fitch-Rating

3 3 2

( 4%) ( 4%) ( 3%)

16 16 3

(67%) (67%) (13%)

(2) in den USA

Börsennotierte

Anleihen

-

(58%) (21%) ( 4%) ( 8%)

Kredit-Ratings

Fokussiert man zunächst die Börsennotierung, so sollten die am Kapitalmarkt orientierten Unternehmen stärker in den großen deutschen Börsenindizes und auch im Ausland an großen Börsen gelistet sein als die mischfinanzierten. Theoriekonform ist die Korrelation signifikant zwischen der Größe des Börsenindexes und einer stärkeren Kapitalmarktorientierung (rs = -0,45**) und auch signifikant mit dem Listing in den USA (rs = 0,23*).55 Im Einzelnen zeigt sich, dass die kapitalmarktorientierten Unternehmen überwiegend in DAX und MDAX notiert und auch in den USA (NYSE oder NASDAQ) gelistet sind. Die mischfinanzierten Gesellschaften dagegen sind ganz überwiegend im MDAX und im SDAX sowie sonstig börsennotiert. Die Notierung insbesondere im MDAX bedeutet offenbar für die größeren mittelständischen Unternehmen nicht, dass sie ihre immer noch bankorientierten Finanzierungsgewohnheiten völlig aufgeben. Auch impliziert ein Listing in den USA nicht zwangsläufig die strikte Ausrichtung der Unternehmensfinanzierung auf den Kapitalmarkt. Stimmig mit den Befunden zur Börsennotierung ist, dass die kapitalmarktorientierten Unternehmen Anleihen deutlich häufiger an den Börsen notieren (rs = 0,63**) und über ein Kredit-Rating verfügen (rs = 0,63**) als dies bei den mischfinanzierten Gesellschaften der Fall ist. Im 55

Vgl. ebenso Gerum/Mölls/Shen

(2011, S. 555) bei leicht veränderter Stichprobe.

207

Corporate Governance-Systeme und Untemehmensfïnanzierung

Vergleich zu den zuvor analysierten Publikationsgesellschaften ist die Nutzung sonstiger Kapitalmarktinstitutionen durch die mittelständischen Gesellschaften des GEX angesichts der identifizierten Finanzierungsmuster durchgängig wesentlich schwächer ausgeprägt.56 Schließlich soll analysiert werden, ob auch die Gesetzesanwendung (Compliance) und weitere gesellschaftsbezogene Informationsinstrumente (Firmenkodices, Umweltschutz, Corporate Social Responsibility)57 jeweils sinnfällig mit den beiden Clustern korrespondieren. Dabei sollten kapitalmarktorientierte Unternehmen wegen potenziell negativer Effekte auf den Unternehmenswert öfter einen Compliance Officer, in höherem Umfang Firmenkodices besitzen und institutionelle Regelungen zum Umweltschutz getroffen haben sowie häufiger über ihre Aktivitäten zur Corporate Social Responsibility berichten. Tabelle 4:

Compliance und Firmenkodices in den 100 größten deutschen Konzernobergesellschaften (2005) Merkmale

Cluster I Mischfinanzierte Unternehmen (N = 76 = 76%)

Cluster II Kapitalmarktorientierte Unternehmen (N = 24 = 24%)

Compliance Officer -ja - explizit nein - keine Information

36 6 34

(47%) ( 8%) (45%)

20 0 4

(83%) ( 0%) (17%)

33

(43%)

18

(75%)

8 4 24

(24%) (12%) (73%)

7 5 15

(39%) (28%) (83%)

- Explizit ohne Kodex

13

(17%)

0

( 0%)

- Keine Information

30

(40%)

6

(25%)

Firmenkodices - Unternehmen mit eigenem Kodex [Kombinationen möglich] davon: - Corporate Governance-Kodex - Code of Business Conduct and Ethics - Finnenspezifischer Verhaltenskodex

Wie Tabelle 4 zeigt, haben kapitalmarktorientierte Unternehmen erwartungsgemäß deutlich öfter einen Compliance-Officer (83%) als dies bei den mischfinanzierten Unternehmen der Fall ist (47%).58 Die Existenz eines Compliance Officers ist ein Indikator für das Bemühen um eine korrekte Einhaltung der geltenden Gesetze. Ein ähnlicher Befund ergibt sich für die Existenz von Firmenkodices, die das Unternehmens-

56 57 58

Vgl. Gerum/Mölls/Shen (2011, S. 556). Vgl. Idowu/Filho (2009); Idowu/Louche (2011); Cannon (2012); Haynes/Murray/Dillard (2013). Dieser Unterschied ist allerdings nicht signifikant (rs = - 0,18 n.s.).

208

Elmar Gerum und Sascha H. Mölls

handeln beeinflussen sollen und als Signaling gegenüber dem Kapitalmarkt interpretiert werden können. Diese Firmenkodices stellen einen Akt der Selbstregulierung dar und fungieren als verbindliche autonome Rechtssetzungen der einzelnen Unternehmen. 75% der kapitalmarktorientierten Unternehmen besitzen einen Firmenkodex; bei den mischfinanzierten ist das nur in 43% der Fall.59 Tabelle 5:

Umweltschutzbezogene Institutionen und CSR-Berichterstattung in den 100 größten deutschen Konzernobergesellschaften (2005) Merkmale

Cluster I Mischfinanzierte Unternehmen (N = 76 = 76%)

Cluster II Kapitalmarktorientierte Unternehmen (N = 24 = 24%)

Umweltdirektor

17

(22%)

15

(63%)

Umweltbeauftragter [Mehrfachnennungen möglich]

25

(33%)

19

(79%)

16 7 14

(64%) (28%) (56%)

14 7 9

(74%) (37%) (48%)

Umweltausschuss

9

(12%)

11

(46%)

Öko-A udit-System

13

(17%)

14

(58%)

Umweltberichterstattung

38

(50%)

17

(79%)

CSR-Bericht

20

(26%)

12

(50%)

6 5 17 11 13 17

(30%) (25%) (85%) (55%) (65%) (85%)

10 8 12 10 10 12

(83%) (66%) (100%) (83%) (83%) (100%)

davon: - auf Untemehmensebene - auf Spartenebene - auf Betriebsebene

davon Adressaten (Mehrfachnennungen möglich), - Aktionäre - Gläubiger - Arbeitnehmer - Lieferanten - Abnehmer/Konsumenten - Öffentliche Hand

Wie Tabelle 5 zeigt, haben die kapitalmarktorientierten Unternehmen durchgängig mit einer einzigen Ausnahme (Umweltbeauftragter auf der Betriebsebene) in einem höheren Umfang umweltschutzbezogene Institutionen eingerichtet. So ist in 63% der kapitalmarktorientierten Gesellschaften ein Vorstandsmitglied für den Umweltschutz

59

Dieser Unterschied ist allerdings nicht signifikant (rs = - 0,13 n.s.).

Corporate Governance-Systeme und Unternehmensfinanzierung

209

zuständig (Umweltdirektor). Bei den mischfinanzierten Unternehmen ist das nur in 22% der Fall.60 Ebenso verhält es sich bei der Umweltberichterstattung (kapitalmarktorientierte Unternehmen 79%, mischfinanzierte 50%).61 Dieses Muster setzt sich auch hinsichtlich der Berichterstattung zur Corporate Social Responsibility generell als auch im Hinblick auf die einzelnen Adressaten der Berichterstattung (Aktionäre, Gläubiger, Arbeitnehmer, Lieferanten, Abnehmer/Konsumenten, Öffentliche Hand) fort.62 c. Die Wahl der Unternehmensfinanzierung Fragt man sich abschließend, welche ökonomischen Faktoren die Wahl der externen Unternehmensfinanzierung am stärksten beeinflussen, so herrscht in der Literatur die Auffassung vor, dass die Finanzierung am stärksten von der Unternehmensgröße geprägt wird. Mit zunehmendem Unternehmenswachstum wird vermehrt der Kapitalmarkt in Anspruch genommen.63 Ferner kann man erwarten, dass die Internationalisierung und die Beherrschung durch ausländisches Eigentum die Unternehmensfinanzierung beeinflussen, und zwar in Richtung Kapitalmarkt.64 Tabelle 6:

Einflussgrößen der Unternehmensfinanzierung bei den 100 größten deutschen Konzernobergesellschaften (2005) Abhängige Variable

UnabhängigeVariablen

Unternehmensfinanzierung Wichtigkeit65

ß-Wert (stand.)

Eigentümerbezogen - Eigentümer-/ Managerunternehmen

0,01

0,05 n.s.

- Deutsche/ausländische Dominanz

0,01

0,08 n.s.

0,73

0,55***

- Produktdiversifikation

0,02

0,03 n.s.

- Geografische Diversifikation

0,09

0,14 n.s.

- Branche

0,14

- 0,22***

Organisatorisch - Unternehmensgröße Ökonomisch

N Korrigiertes R F-Wert [df]

60 61 62 63 64 65

100 2

0,466 5,765*** [13]

Dieser Unterschied ist allerdings nicht signifikant (rs = - 0,14 n.s.). Dieser Unterschied ist allerdings nicht signifikant (rs = 0,18 n.s.). Dieser Unterschied ist signifikant (rs = 0,22*). Vgl. Seeger (1997, S. 185 f.). Vgl. dazu die Überlegungen von Wagenhofer (2009, S. 10 f.). Die Erklärungskraft der jeweiligen Einflussgrößen ergibt sich aus dem Maß für die relative Wichtigkeit nach Pratt (vgl. Pratt 1987, S. 245 ff.), wobei der standardisierte Regressionskoeffizient ß die Richtung des Zusammenhangs angibt.

210

Elmar Gerum und Sascha H. Mölls

Die zur Überprüfung der Thesen durchgeführte kategoriale Regression bestätigt diese im Grundsatz.66 Für die Kapitalmarktorientierung weist die Unternehmensgröße mit 0,73 die höchste Wichtigkeit (ß = 0,55***) auf. Weiter scheinen branchenspezifische Finanzierungsgewohnheiten relativ bedeutsam (Wichtigkeit 0,14; ß = - 0,22***) und in gewissem Ausmaß scheint sich auch noch die Internationalisierung (Wichtigkeit 0,09; ß = 0,14 n.s.) auf die Kapitalmarktorientierung der deutschen Unternehmen auszuwirken. Im Lichte der Diskussion zur Bedeutung der Eigentümerstruktur beziehungsweise der Managerherrschaft erstaunt es, dass diese für die Wahl der externen Unternehmensfinanzierung schier belanglos ist (Wichtigkeit 0,01; ß = 0,05 n.s.). Das gleiche gilt für die Beherrschung durch ausländische Eigentümer (Wichtigkeit 0,01; ß = 0,08 n.s.) sowie die Produktdiversifikation (Wichtigkeit 0,02; ß = 0,03 n.s.). Die Art der externen Unternehmensfinanzierung erklärt sich also ganz überwiegend durch den klassischen Einflussfaktor Unternehmensgröße sowie durch die Branche und den Grad der Internationalisierung. Ein vergleichbares Ergebnis ergibt sich auch für die mittelständischen Gesellschaften des GEX.67

3. Zwischenergebnis Die Rekonstruktion und Analyse des Systems der Unternehmensfinanzierung deutscher Großunternehmen ergab, dass die gesamtwirtschaftliche Bedeutung der Kapitalmärkte in Deutschland im internationalen Vergleich nach wie vor gering ist. Selbst bei den größten deutschen Konzernobergesellschaften (Non-Financials) konnte deren externe Unternehmensfinanzierung nur in 24% als kapitalmarktorientiert qualifiziert werden. Als noch kapitalmarktferner erwiesen sich die Finanzierungsmuster des „kapitalmarktorientierten" deutschen Mittelstandes, wie er im German Entrepreneurial Index (GEX) abgebildet ist. Mit diesen Ergebnissen korrespondieren auch die Befunde zum Zusammenhang zwischen der Art der Unternehmensfinanzierung, den Eigentumsverhältnissen und weiteren kapitalmarktbezogenen Faktoren. Typischerweise finanzieren sich heute große deutsche Aktiengesellschaften sowie die „kapitalmarktorientierte" Mittelstands-AG über Bankkredite, betreiben aber auch aktive Eigenkapitalfinanzierung am Kapitalmarkt, wie eine auch im internationalen Vergleich beachtliche Eigenkapitalquote (Größte Aktiengesellschaften: 38% / Mittelstands-AG: 50%) belegt. Dieser für die Unternehmensfinanzierung deutscher Unternehmen insgesamt nicht repräsentative Befund bestätigt jedoch als Momentaufnahme die These der Deutschen Bundesbank, dass Deutschland auf ein Mischsystem zwischen einem rein kapitalmarktorientierten und einem bankbasierten System hin tendiert. Diese Mischfinanzierung unterscheidet sich nicht nur klar von einer kapitalmarktorientierten Unternehmensfinanzierung angloamerikanischen Typs, sondern ist im Zeitablauf auch stabil.

66 67

Vgl. ebenso Gerum/Mölls/Shen (2011, S. 559 f.). Vgl. Gerum/Mölls/Shen (2011, S. 561).

Corporate Governance-Systeme und Unternehmensfinanzierung

211

IV. Implikationen für Forschung und Politik 1. Corporate Governance-Forschung Die deutsche wie auch die internationale Corporate Governance-Forschung wird in den letzten Jahren zunehmend von der These des Wettbewerbs zwischen den Corporate Governance-Systemen geprägt. Die Konsequenzen wie auch das Ergebnis dieses Wettbewerbs sind allerdings umstritten. Dabei wird als Ergebnis dieses Systemwettbewerbs eine Konvergenz der nationalen Corporate Governance-Systeme hin auf das leistungsfähigste Corporate Governance-System erwartet. Nicht selten wird in diesem Kontext dem Exit-geprägten angloamerikanischen Corporate Governance-System eine Vorbildbeziehungsweise Referenzfunktion zugesprochen. Gegen dieses Denkmodell und Leitbild wurden jedoch in der Literatur zunehmend theoretisch fundierte Gegenargumente vorgebracht, die im Ergebnis differente Szenarien zur Entwicklung der Corporate Governance-Systeme vorschlagen: •

Dominanz eines Systems: Die nationalen Corporate Governance-Systeme gleichen sich in Richtung auf ein bestehendes Modell an. Dabei wird erwartet, dass es sich um das angloamerikanische Exit-Modell handelt, das sukzessive von anderen Industrieländern übernommen werden wird.68



Hybridisierung der Systeme: Durch die wechselseitige Übernahme von erfolgreichen Governance-Regeln lösen sich die nationalen Unternehmensordnungen auf und werden durch eine Mischform ersetzt, die Institutionen des Widerspruchs und der Abwanderung enthalte.69 Es findet also eine Konvergenz auf ein neues Hybridsystem statt.



Persistenz der Systeme: Die nationalen Corporate Governance-Systeme entwickeln sich zwar weiter, aber die jeweiligen notwendigen Anpassungen erfolgen innerhalb des bestehenden Systems.70

Insbesondere die These von der Persistenz der nationalen Corporate GovernanceSysteme hat in den letzten Jahren in der wissenschaftlichen Diskussion hohe Aufmerksamkeit erfahren. Dabei wird zunächst auf den überformenden Charakter von Landeskulturen verwiesen. Diese prägen die Präferenzen der Akteure für bestimmte gesellschaftliche Koordinations- und Konfliktregulierungsmechanismen.7' Der Wandel von Corporate Governance-Systemen vollzieht sich immer vor dem Hintergrund gesellschaftlicher Werte und Normen, die die Wahl von Institutionen beeinflussen. Eine Konvergenz ist folglich - die Stabilität der Landeskultur unterstellt72 - nicht zu erwarten. Vor diesem Hintergrund können dann die empirischen Befunde zur Art der Unternehmensfinanzierung in den 100 größten deutschen Konzernobergesellschaften nicht wirklich überraschen. Für das deutsche Corporate Governance-System und die Unter68

69 70 71 72

Vgl. Lerne (2003); Hansmann/Kraakman (2004).

Vgl. Berrar (2001, S. 267 f.); Höpner/Jackson (2002). Vgl. Gerum (1998); Bebchuk/Roe (2004); Jacoby (2005). Vgl. Gerum (1998); Gerum/Wagner (1998, S. 354 f.); Bebchuk/Roe (2004, S. 111 f.). Vgl. zu einer umfassend angelegten Studie zum Einfluss von Landeskulturen Hofsteds (2001).

212

Elmar Gerum und Sascha H. Mölls

nehmensfinanzierung lässt sich kurz und prägnant formulieren: „Kontinuität trotz Wandel". An die Stelle der traditionellen Bankorientierung der Unternehmensfinanzierung scheint nun bei den deutschen Großunternehmen eine Mischfinanzierung getreten zu sein. Die kapitalmarktorientierte Unternehmensfinanzierung nach dem angloamerikanischen Modell hat sich trotz eines verschärften internationalen Wettbewerbs auf den Kapital- und Gütermärkten nicht durchgesetzt. Insofern stellt sich die Frage, ob die deutsche Forschung und Diskussion zu Corporate Governance, Finanzierung und Rechnungslegung sich nicht an einem Leitbild orientiert, das so für die deutsche Unternehmenspraxis nicht typisch ist. Die theoretische Forschung muss sich fragen lassen, ob durch diesen empirischen Befund nicht die prognostizierte und postulierte Konvergenz des deutschen Systems hin auf das angloamerikanische System widerlegt ist. Wenn die theoretische Diskussion mit ihren Ergebnissen und Vorschlägen Praxisrelevanz behalten will, dann sollte sie sich auch am praxisrelevanten Fall orientieren. Wer nun kontrafaktisch weiter für die Überlegenheit einer kapitalmarktorientierten Unternehmensfinanzierung plädiert, wird sich mit dem Argument der Pfadabhängigkeit73 der Systementwicklung auseinandersetzen müssen. Auf Corporate Governance bezogen bedeutet dies, dass die Institutionen, Regulierungen und Verhaltensweisen der Vergangenheit den institutionellen Wandel der Corporate Governance-Systeme prägen. In der Literatur hierzu werden als stabilisierende Einflussgrößen diskutiert:74 •

Politische Koalitionen: Aus der Änderung eines Corporate Governance-Systems folgt eine Veränderung der Verfügungs- und Verteilungsrechte. Akteure, die ihre Machtposition durch einen Systemwechsel in Gefahr sehen, werden deshalb Koalitionen bilden, um diesen Wandel im Gesetzgebungsverfahren zu verhindern.75



Spezifität von Humanvermögen: Fachleute wie etwa Ministerialbeamte, Rechtsanwälte oder Unternehmensberater sind in der Regel spezialisiert auf ein nationales Corporate Goveraance-System.76 Diese Experten, die zugleich zentrale Akteure des Entscheidungsprozesses sind, haben kein Interesse an einem Systemwechsel, da ihr spezifisches Humanvermögen dadurch entwertet wird. Darüber hinaus wären bei einem Pfadwechsel erhebliche Investitionen in das Humanvermögen und Lernprozesse notwendig, um das neue System zu konzipieren und umzusetzen.



Unsicherheit: Ein Wechsel des Corporate Governance-Systems bedeutet erhebliche Unsicherheit für alle Akteure, da die Folgen ex ante nicht abschließend beurteilt werden können. Deshalb wird auf tradierte Routinen zurückgegriffen, um institutionelle Wandlungsprozesse zu bewältigen. Problemlösungen werden folglich eher auf die Verbesserung bestehender Institutionen gerichtet sein als auf die Entwicklung gänzlich neuer Konstruktionen.



Lerneffekte und Netzwerkexternalitäten: Diese beiden Formen dynamischer Skalenvorteile entstehen durch die gleichzeitige Anwendung von Corporate Governance-

73

Vgl. klassisch David (1985); Arthur (1989) sowie zur Pfadabhängigkeit bei institutionellen Wandlungsprozessen insbesondere North (1990). Vgl. Leipold (1996); Bebchuk/Roe (2004); Heine/Stieglitz (2006) m.w.N. Vgl. Guillen (2000); Heine (2003, S. 174 ff.) und allgemein auch Olson (1982). Vgl. ferner Lane (2003, S. 87), die auf die Rolle der Ideologie im Wandlungsprozess von Corporate GovernanceSystemen aufmerksam macht. Vgl. Heine (2003, S. 213 ff.).

74 75

76

Corporate Governance-Systeme und Unternehmensfinanzierung



213

Regeln. Bei Lerneffekten profitieren aufgrund von Spill Over-Effekten auch andere Akteure von den Lernprozessen, so dass die Übernahme von bereits in der Vergangenheit getesteten Regeln der Kreierung neuer Institutionen vorgezogen wird. Netzwerkexternalitäten ergeben sich aus der Gleichzeitigkeit der Implementation einer Regel oder einer Institution. So steigt der Nutzen einer Börse, je mehr Akteure diese Institution nutzen.77 Die Einfuhrung neuer Institutionen wird durch diese Netzwerkexternalitäten erschwert, da erst eine kritische Masse von frühen Adoptern erreicht werden muss, bis die Institution ihre Leistungsfähigkeit entfaltet. Komplementarität von Institutionen: Nationale Unternehmensordnungen werden als konsistente Systeme von komplementären beziehungsweise interdependenten Institutionen und Regelungen begriffen. 78 Dabei wird Komplementarität verstanden als steigende Skalenerträge zwischen einzelnen Regelungen.79 Wird etwa die Unternehmenskontrolle über den Kapitalmarkt ausgeübt, so erhöht sich der Nutzen weitgehender Informationspflichten für das Unternehmen. Nur in diesem Fall können Anleger sinnvoll über den Kauf oder Verkauf von Aktien entscheiden. Komplementär in diesem Sinne sind auch Unternehmensmitbestimmung und interne Kontrolle im Aufsichtsrat. Mit dem Konzept der Komplementarität gelingt es, den Systemcharakter von Unternehmensordnung theoretisch zu fassen, da sich deren Leistungsfähigkeit erst aus dem Zusammenwirken der Regelungen ergibt.80 Änderungen des Corporate Governance-Systems werden deshalb darauf zielen, dem System neue komplementäre Elemente hinzuzufügen beziehungsweise vorhandene Elemente zu verbessern. Eine Übernahme systemfremder Regelungen dagegen bedroht die Konsistenz eines Systems, da hierdurch die Leistungsfähigkeit des ganzen Bündels von Regelungen eingeschränkt wird. Es drohen Systemkrisen. Aus dieser Perspektive ist eine Hybridisierung von Governance-Systemen nicht zu erwarten. Die einzige Möglichkeit, ein bestehendes System bei fehlender Leistungsfähigkeit grundsätzlich zu ändern, liegt im Bruch des bisher beschrittenen Pfads und des grundlegenden Wechsels zu einem neuen Corporate Governance-System.81

Das Komplementaritätsargument dominiert mittlerweile die theoretische Diskussion und wurde weiter ausdifferenziert. Kritiker wenden ein, dass die These institutioneller Komplementaritäten die Persistenz von Corporate Governance-Systemen überzeichne. Es wird argumentiert, dass die Interdependenz einzelner Teile der Unternehmensordnung nicht besonders stark ausgeprägt sei beziehungsweise Puffer zwischen Teilen eines Systems existieren würden und Mischformen sehr wohl möglich seien.82 Ferner seien Komplementaritäten nicht fest vorgegeben, sondern könnten sich im Prozess des institutionellen Wandels verändern.83 Diese Kritikpunkte lassen sich theoretisch nicht von der Hand weisen. Entscheidend ist jedoch, welchen empirischen Stellenwert sie

77 78 79 80

81 82 83

Vgl. Coffee (1999, S. 703 f.). Vgl. Hoshi (1998, S. 863 ff.); Schmidt/Spindler (2002); Jacoby (2005, S. 19 ff.). Vgl. allgemein zu Komplementaritäten Milgrom/Roberts (1995); Roberts (2004). Vgl. Schmidt (2004, S. 390 ff.) zu den institutionellen Komplementaritäten im deutschen Corporate Governance-System. Vgl. Schmidt/Tyrell (1997, S. 352 f.); Stieglitz/Heine (2007, S. 1 ff.). Vgl. Lane (2000); Höpner (2003); Morgan/Kubo (2005). Vgl. Lane (2003, S. 84).

214

Elmar Gerum und Sascha H. Mölls

haben. Insofern sollte sich die Forschung zur Corporate Governance weniger am neoklassischen Ideal vollkommener Kapitalmärkte orientieren als vielmehr gezielt und selbstkritisch empirische Forschung zu Fragen der Corporate Governance betreiben und deren Ergebnisse auch zur Kenntnis zu nehmen. Ansonsten läuft sie Gefahr, sich dem Vorwurf des „Modellplatonismus"84 und der Rechtfertigungsideologie85 auszusetzen.

2. Zur Gesetzgebung von Corporate Governance Resümiert man die Gesetzgebung der letzten 15 Jahre zum deutschen Corporate Govemance-System, so kann man als deren Leitbild unschwer eine Orientierung am Kapitalmarkt erkennen.86 So hat der deutsche Gesetzgeber, zum Großteil ausgehend von europäischen Vorgaben, erstmalig ein umfassendes Gesetz über den Wertpapierhandel (1998) geschaffen, eine auf Entflechtung zielende Unternehmenssteuerreform 2000/ 200187 verabschiedet und einen Corporate Govemance-Kodex für Aktiengesellschaften (2002) etabliert. Unternehmenspublizität und Prüfung wurden kapitalmarktorientiert fortentwickelt durch das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (1998), das Kapitalaufhahmeerleichterungsgesetz (1998), das Transparenz- und Publizitätsgesetz (2002), das Bilanzrechtsreform- und Bilanzkontrollgesetz (2004) sowie durch das Bilanzrechtsmodernisierungsgesetz (2009). Im Lichte der empirischen Befunde zur Unternehmensfinanzierung deutscher Großunternehmen stellt sich allerdings die Frage, ob der Gesetzgeber nicht an der ökonomischen Realität vorbei gehandelt hat. Wenn schon nur circa 20% der größten deutschen Unternehmen ihre Finanzierung am Kapitalmarkt ausgerichtet haben und bekanntermaßen dies für die Masse der deutschen Unternehmen gar nicht zutrifft, dann ist der deutsche Gesetzgeber mit dieser strikten Kapitalmarktorientierung den wirklichen Problemen der Wirtschafspraxis nicht gerecht geworden. Dies erstaunt umso mehr, da im Gesellschaftsrecht ansonsten das Postulat „substance over legal form" gilt.88 Bedenkt man die Gründe für die Wahl der Unternehmensfinanzierung, wie sie die empirische Untersuchung ergab, so sollte die Regulierung von Finanzierung und Publizität sich an den Kriterien „Unternehmensgröße" und „Branche" orientieren. Dem hat auch die Tradition der deutschen Rechnungslegung insofern Rechnung getragen, da sie schon immer zwischen Financials und Non-Financials unterschieden hat und auch in den handelsrechtlichen Vorschriften größenspezifische Publizitätsvorschriften (§ 267 HGB) kodifiziert sind. Umso erstaunlicher ist es, dass der deutsche Gesetzgeber alle aus der Wirtschaftspraxis entstandenen Institutionen und Orientierungen zugunsten der Kapitalmarktorientierung über Bord geworfen hat.

84 85 86 87 88

Vgl. ,4/6^/(1963,8. 45 ff.). Vgl. Albert (1968, S. 86 ff.). Vgl. du Plessis/Großfeld/Luttermann/Saenger/Sandrock/Casper (2012). Vgl. Blasch (2007). Das Gleiche gilt für die Richtlinien, Empfehlungen und Diskussionen zu einer „Europäischen Corporate Governance". Vgl. näher Lutter/Bayer/Schmidt (2012).

Corporate Governance-Systeme und Unternehmensfmanzierung

215

V. Resümee Ziel dieser Untersuchung war es zu prüfen, ob und inwieweit sich das deutsche Corporate Governance-System, insbesondere das System der Unternehmensfinanzierung, im Zuge des Systemwettbewerbs an internationale Standards angeglichen hat. Das Ergebnis lässt sich in der Formel „Kontinuität trotz Wandel" zusammenfassen. War früher die bankorientierte Unternehmensfinanzierung dominant, so ist heute fur deutsche Großunternehmen eine Mischfinanzierung, die die traditionellen Vorteile einer Finanzierung durch die Hausbank mit den Möglichkeiten einer Finanzierung über den Kapitalmarkt kombiniert, charakteristisch. Dies kennzeichnet keinen Strukturbruch. Die Mischfinanzierung bietet den deutschen Aktiengesellschaften mehr Optionen und trägt insoweit, die Effizienz steigernd, zur Stabilisierung des deutschen Corporate Governance-Systems bei. Im Lichte des empirischen Befunds empfiehlt sich eine Neuorientierung sowohl der Corporate Governance-Forschung als auch der Gesetzgebung zum deutschen Corporate Governance-System.

Literatur Albert, Hans (1963), Modellpiatonismus. Der neoklassische Stil des ökonomischen Denkens in kritischer Beleuchtung, in: Karrenberg, Friederich/Albert, Hans (Hrsg.), Sozialwissenschaft und Gesellschaftsgestaltung, Festschrift für Gerhard Weisser, Berlin, S. 45-76. Albert, Hans (1968), Traktat über kritische Vernunft, 2. Aufl., Tübingen. Allen, Franklin/Gale, Douglas (2001), Comparing financial systems, Cambridge, London. Arthur, W. Brian (1989), Competing technologies, increasing returns, and lock-in by historical events, in: Economic Journal, Vol. 99, S. 116-131. Backhaus, Klaus/Erichson, Bernd/Plinke, Wulff/Weiber, Rolf (2011), Multivariate Analysemethoden, 13. Aufl., Berlin u.a. Bebchuk, Lucian A./Roe, Mark J. (2004), A theory of path dependence in corporate ownership and governance, in: Gordon, Jeffrey N./Roe, Mark J. (Hrsg.), Convergence and persistence in corporate governance, Cambridge, S. 69-113. Becht, Marco/Mayer, Colin (2001), Introduction, in: Barca, Fabrizio/Becht, Marco (Hrsg.), The control of corporate Europe, Oxford, S. 1-45. Berglöf, Erik (1997), A note on the typology of financial systems, in: Hopt, Klaus J J Wymeersch, Eddy (Hrsg.), Comparative corporate governance, Berlin u.a., S. 151-164. Berle, Adolph A./Means, Gardiner C. (1932), The modern corporation and private property, New York. Berrar, Carsten (2001), Die Entwicklung der Corporate Governance in Deutschland im internationalen Vergleich, Baden-Baden. Blasch, Frank (2007), Steuerreformen und Unternehmensentscheidungen, Frankfurt am Main. Bortz, Jürgen/Schuster, Christof (2010), Statistik für Human- und Sozialwissenschaftler, 7. Aufl., Heidelberg. Bühl, Achim/Zöfel, Peter (2002), Erweiterte Datenanalyse mit SPSS, Opladen. Cannon, Tom (2012), Corporate Responsibility - Governance, compliance and ethics in a sustainable environment, London. Charkham, Jonathan P. (1995), Keeping good company: Study of corporate governance in five countries, Oxford. Coffee, John C. (1999), The future as history: The prospects for global convergence in corporate governance and its implications, in: Northwestern University Law Review, Vol. 93, S. 641707. Dalton, Dan R./Daily, Catherine MJEllstrand, Alan E./Johnson, Jonathan L. (1998), Metaanalytic reviews of board composition, leadership structure, and financial performance, in: Strategic Management Journal, Vol. 19, S. 269-290.

216

Elmar Gerum und Sascha H. Mölls

David, Paul A. (1985), Clio and the economics of QWERTY, in: American Economic Review, Vol. 75, S. 332-337. Demsetz, Harold/Lehn, Kenneth (1985), The structure of corporate ownership: Causes and consequences, in: Journal of Political Economy, Vol. 93, S. 1155-1177. Deutsche Bundesbank (2000), Die Beziehung zwischen Bankkrediten und Anleihemarkt in Deutschland, in: Monatsbericht Januar, S. 33-48. Deutsche Bundesbank (2001), Erträge und Finanzierungsverhältnisse deutscher Unternehmen nach Rechtsformen, in: Monatsbericht Dezember, S. 45-77. Deutsche Bundesbank (2004), Neuere Entwicklungen am Markt für Unternehmensanleihen, in: Monatsbericht April, S. 15-26. Deutsche Bundesbank (2005), Ertragslage und Finanzierungsverhältnisse deutscher Unternehmen - eine Untersuchung auf neuer Datenbasis, in: Monatsbericht Oktober, S. 33-71. Deutsches Aktieninstitut (2011), Factbook des Deutschen Aktieninstituts 2011, Frankfurt a.M. du Plessis, Jean/Großfeld, Bernhard/Luttermann, Claus/Saenger, Ingo/Sandrock, Otto/Casper, Matthias (2012), German Corporate Governance in International and European Context, 2. Aufl., Heidelberg u.a. Elsas, Ralf/Krahnen, Jan P. (2004), Universal banks and relationships with firms, in: Krahnen, Jan P./Schmidt, Reinhard H. (Hrsg.), The German financial system, Oxford, S. 197-232. Europäische Kommission (2011), Europäischer Corporate Governance-Rahmen, in: KOM(2011) 164/3. Franks, Julian/Mayer, Colin (1995), Ownership and control, in: Siebert, Horst (Hrsg.), Trends in business organization: Do participation and cooperation increase competitiveness?, Tübingen, S. 171-195. Gerke, Wolfgang/Mager, Ferdinand (2005), Die Rolle von Banken und Finanzintermediären bei der Corporate Governance, in: Damm, Reinhard/Heermann, Peter/Veil, Rüdiger (Hrsg.), Festschrift für Thomas Raiser zum 70. Geburtstag am 20. Februar 2005, Berlin, S. 549-567. Gerum, Elmar (1995), Führungsorganisation, Eigentümerstruktur und Unternehmensstrategie, in: Die Betriebswirtschaft, 55. Jg., S. 359-379. Gerum, Elmar (1998), Organisation der Unternehmensführung im internationalen Vergleich insbesondere Deutschland, USA und Japan, in: Glaser, Horst/Schröder, Ernst/v. Werder, Axel (Hrsg.), Organisation im Wandel der Märkte, Wiesbaden, S. 135-153. Gerum, Elmar (2004), Corporate Governance, internationaler Vergleich, in: Schreyögg, Georg/v. Werder, Axel (Hrsg.), Handwörterbuch Unternehmensführung und Organisation, 4. Aufl., Stuttgart, Sp. 171-178. Gerum, Elmar (2007), Das deutsche Corporate Governance-System - Eine empirische Untersuchung, Stuttgart. Gerum, Elmar/Mölls, Sascha H./Shen, Chunqian (2011), Kapitalmarktorientierte Rechnungslegung in Deutschland zwischen Anspruch und Realität - Theorie und Empirie, in: Zeitschrift für betriebswirtschaftliche Forschung und Praxis, 63. Jg., S. 534-577. Gerum, Elmar/Steinmann, Horst/Fees, Werner (1988), Der mitbestimmte Aufsichtsrat. Eine empirische Untersuchung, Stuttgart. Gerum, Elmar/Wagner, Helmut (1998), Economics of labor co-determination in view of corporate governance, in: Hopt, Klaus J./Kanda, Hideki/Roe, Mark J./Wymeersch, Eddy/ Prigge, Stefan (Hrsg.), Comparative corporate governance, Oxford, S. 341-360. Guillen, Mauro F. (2000), Corporate governance and globalization: Is there convergence across countries?, in: Advances in International Comparative Management, Vol. 13, S. 175-204. Hackethal, Andreas/Schmidt, Reinhard H. (2000), Finanzsysteme und Komplementarität, in: Beihefte zu Kredit und Kapital, Finanzmärkte im Umbruch, H. 15, S. 53-102. Hackethal, Andreas/Schmidt, Reinhard H. (2004), Financing patterns: Measurement concepts and empirical results, Working Paper Nr. 125, Fachbereich Wirtschaftswissenschaften, Universität Frankfurt. Hackethal, Andreas/Schmidt, Reinhard H./Tyrell, Marcel (2005), Banks and German corporate governance: On the way to a capital market-based system?, Working Paper Nr. 146, Fachbereich Wirtschaftswissenschaften, Universität Frankfurt. Hansmann, Henry/Kraakman, Reimer (2004), The end of history for corporate law, in: Gordon, Jeffrey N./Roe, Mark J. (Hrsg.), Convergence and persistence in corporate governance, Cambridge, S. 33-68.

Corporate Governance-Systeme und Unternehmensfinanzierung

217

Hausmann, Henry/Kraakman, Reinier (2012), Reflections on the end of history for corporate law, in: Rasheed, Abdul A./Yoshikawa, Toru (Hrsg.), The convergence of corporate governance - Promise and prospects, Chippenham und Eastbourne. Haynes, Kathryn/Murray, Alan/Dillard, Jesse (Hrsg.) (2013), Corporate social responsibility A research handbook, London und New York. Heine, Klaus (2003), Regulierungswettbewerb im Gesellschaftsrecht, Berlin. Heine, Klaus/Stieglitz, Nils (2006), Corporate Governance, Konvergenz und institutionelle Lock-Ins, in: Edeling, Thomas/Jahn, Werner/Wagner, Dieter (Hrsg.), Modem Governance. Koordination und Organisation zwischen Konkurrenz, Hierarchie und Solidarität, Opladen. Hofstede, Geert H. (2001), Cultural consequences - Comparing values, behaviors, institutions, and organizations across nations, Thousand Oaks usw. Höpner, Martin (2003), Wer beherrscht die Unternehmen? Shareholder Value, Managerherrschaft und Mitbestimmung in Deutschland, Frankfurt a.M. Höpner, Martin/Jackson, Gregory (2002), Das deutsche System der Corporate Governance zwischen Persistenz und Konvergenz, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 54. Jg., S. 362-368. Hopt, Klaus J. (1998), The German two-tier-board: Experience, theories, reforms, in: Hopt, Klaus J./Kanda, Hideki/Roe, Mark J./Wymeersch, Eddy/ Prigge, Stefan (Hrsg.), Comparative corporate governance, Oxford, S. 227-258. Hopt, Klaus J. (2011), Comparative corporate governance: The state of the art and international regulation, in: The American Journal of Comparative Law, Vol. LIX, No. 1, S. 1-73. Hoshi, Takeo (1998), Japanese corporate governance as a system, in: Hopt, Klaus J./Kanda, Hideki/Roe, Mark J./Wymeersch, Eddy/ Prigge, Stefan (Hrsg.), Comparative corporate governance, Oxford, S. 847-875. Idowu, Samuel O./Filho, Walter Leal (Hrsg.) (2009), Global practices of corporate social responsibility, Berlin und Heidelberg. Idowu, Samuel O./Louche, Céline (Hrsg.) (2011), Theory and practice of corporate social responsibility, Heidelberg u.a. Jacoby, Sanford M. (2005), Corporate governance in comparative perspective: Prospects for convergence, in: Comparative Labor Law & Policy Journal, Vol. 22, S. 5-32. Kerber, Wolfgang (1998), Zum Problem einer Wettbewerbsordnung fur den Systemwettbewerb, in: Jahrbuch für neue Politische Ökonomie, Band 17, S. 199-230. Kraakman, Reinier et al. (2009), The anatomy of corporate law - A comparative and functional approach, 2. Aufl., Oxford. La Porta, Rafael/Lopez-de-Silanes,Florencio/Shleifer, Andrei/Vishny, Robert W. (2000), Investor protection and corporate governance, in: Journal of Financial Economics, Vol. 58, S. 327. Lane, Christel (2000), Globalization and the German model of capitalism - erosion or survival?, in: British Journal of Sociology, Vol. 51, S. 207-234. Lane, Christel (2003), Changes in corporate governance of German corporations: Convergence to an Anglo-American model, in: Competition & Change, Vol. 7, S. 79-100. Leipold, Helmut (1996), Zur Pfadabhängigkeit der institutionellen Entwicklung - Erklärungsansätze des Wandels von Ordnungen, in: Cassel, Dieter (Hrsg.), Entstehung und Wettbewerb von Systemen, Berlin, S. 93-115. Lutter, Marcus/Bayer, Walter/Schmidt, Jessica (2012): Europäisches Unternehmens- und Kapitalmarktrecht, 5. Aufl., Berlin. Lutter, Marcus/Krieger, Gerd (2002), Rechte und Pflichten des Aufsichtsrats, 4. Aufl., Köln. Marsiii, Orietta (2001), The anatomy and evolution of industries, Cheltenham. Mayer, Colin (1988), New issues in corporate finance, in: European Economic Review, Vol. 32, S. 1167-1188. Merkt, Hanno/Göthel, Stephan R. (2006), US-amerikanisches Gesellschaftsrecht, 2. Aufl., Frankfurt a.M. Milgrom, Paul/Roberts, John (1995), Complementarities and fit strategy, structure, and organizational change in manufacturing, in: Journal of Accounting and Economics, Vol. 19, S. 179-208. Monopolkommission (1998), Systemwettbewerb, Sondergutachten 27, Baden-Baden.

218

Elmar Gerum und Sascha H. Mölls

Morgan, Glenn/Kubo, Izutni (2005), Beyond path dependency? Constructing new models for institutional change: The case of capital markets in Japan, in: Socio-Economic Review, Vol. 3, S. 55-82. Nooteboom, Bart (1999), Voice- and exit-based forms of corporate control: Anglo-American, European, and Japanese, in: Journal of Economic Issues, Vol. 33, S. 845-860. North, Douglass C. (1990), Institutions, institutional change and economic performance, Cambridge, Ma. Nowak, Eric (2004), Investor protection and capital market regulation in Germany, in: Krahnen, Jan P./Schmidt, Reinhard H. (Hrsg.), The German financial system, Oxford, S. 425-449. Olson, Mancur (1982), The rise and decline of nations, New Haven. Porter, Michael E. (1993), Nationale Wettbewerbsvorteile, Wien. Pratt, J.W. (1987), Dividing the indivisible: Using simple symmetry to partition variance explained, in: Pukkila, Tarmo/Puntanen, Simo (Hrsg.), Proceedings of the second international conference in statistics, Tampere, Finnland, S. 245-260. Prowse, Stephen (1995), Corporate governance in an international perspective: A survey of corporate control mechanisms among large firms in the U.S., U.K., Japan and Germany, in: Financial Markets, Institutions & Instruments, Vol. 4, S. 1-63. Roberts, John (2004), The modern firm, Oxford. Roe, Mark J. (1993), Some differences in corporate structure in Germany, Japan, and the United States, in: Yale Law Journal, Vol. 102, S. 1927-2003. Roe, Mark J. (1994), Strong managers, weak owners, Princeton. Schmidt, Reinhard H./Spindler, Gerald (2002), Path dependence, Corporate governance and complementarity, in: International Finance, Vol. 5, S. 311-333. Schmidt, Reinhard H./Tyrell, Marcel (1997), Financial systems, corporate finance and corporate governance, in: European Financial Management, Vol. 3, S. 333-361. Schmidt, Reinhard H./Tyrell, Marcel (2004), What constitutes a financial system in general and the German financial system in particular?, in: Krahnen, Jan P./Schmidt, Reinhard H. (Hrsg.), The German financial system, Oxford, S. 19-67. Seeger, Frank (1997), Banken, Erfolg und Finanzierung, Wiesbaden. Shleifer, Andrei/Vishny, Robert W. (1997), A survey of corporate governance, in: Journal of Finance, Vol. 52, S. 737-783. Singh, Manohar/Mathur, Ike/Gleason, Kimberly C. (2004), Governance and performance implications of diversification strategies: Evidence from large US firms, in: Financial Review, Vol. 39, S. 489-526. Sinn, Stefan (1992), The taming of leviathan: Competition among governments, in: Constitutional Political Economy, Vol. 3, S. 177-196. Stieglitz, Nils (2004), Strategie und Wettbewerb in konvergierenden Branchen, Wiesbaden. Stieglitz, Nils/Heine, Klaus (2007), Innovations and the Role of Complementarities in a Strategic Theory of the Firm, in: Strategic Management Journal, Vol. 28, S. 1-15. Theissen, Erik (2004), Organized equity markets, in: Krahnen, Jan P./Schmidt, Reinhard H. (Hrsg.), The German financial system, Oxford, S. 139-162. Thompson, Steve/Wright, Mike (1995), Corporate Governance: The role of restructuring transactions, in: Economic Journal, Vol. 105, S. 690-703. Wagenhofer, Alfred (2009), Internationale Rechnungslegungsstandards - IAS/IFRS, 6. Auflage, Frankfurt. Witt, Peter (2003), Corporate Governance-Systeme im Wettbewerb, Wiesbaden. Wrigley, Leonard (1970), Divisional autonomy and diversification, Cambridge, Ma.

Corporate Govemance-Systeme und Unternehmensfinanzierung

219

Zusammenfassung Das Ziel des Beitrages ist es zu prüfen, ob und inwieweit sich das deutsche Corporate Governance-System, insbesondere die Unternehmensfinanzierung, im Zuge des Systemwettbewerbs an internationale Standards angeglichen hat. Dazu wird das deutsche System zunächst im Kontext alternativer Corporate Governance-Systeme verortet. Danach werden empirische Befunde zur Struktur der Unternehmensfinanzierung sowie flankierender Institutionen in deutschen Großunternehmen präsentiert und erklärt. Es zeigt sich, dass heute eine effiziente Mischfinanzierung typisch ist, die die traditionellen Vorteile einer Bankenfinanzierung mit den Möglichkeiten des Kapitalmarkts kombiniert. Im Lichte der Befunde empfiehlt sich eine Neuorientierung von Forschung und Politik zu Corporate Governance.

Summary: Corporate Governance-Systems and Corporate Financing - Empirical Evidence for large corporations in Germany The paper at hand aims to verify, if and in how far the German corporate governance-system, in particular the financing patterns of firms, have converged towards international standards in the course of the ongoing institutional competition. For this purpose the German system is characterized in the context of alternative corporate governance-systems at first. After this the structure of financing patterns as well as corresponding institutional features of large German corporations are analyzed empirically. The results show that an efficient "mixed financing"-pattern, combining the traditional benefits of financing by a house-bank with the opportunities of financing on the capital market, clearly dominates in Germany. Against this background a re-orientation of the research on corporate governance as well as of the German legislation seems to be indicated.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Hanno Beck und Andrea Beyer

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen Inhalt I. Einleitung II. III. 1. 2. 3. 4. 5. 6. IV.

Argumente fur die Existenz des Öffentlich-Rechtlichen Rundfunks Krisenschauplätze im Öffentlich-Rechtlichen Rundfunk Freiheit von äußeren Einflüssen Die Debatte um die Inhalte Mangelhafte Corporate Governance Mangelnde Anreize zur Wirtschaftlichkeit Umstrittene Finanzierung Wettbewerbsverzerrungen durch die Öffentlich-Rechtlichen Mangelnde Anreize im Öffentlich-Rechtlichen Rundfunk: Eine ordnungspolitische Betrachtung V. Öffentlich-Rechtlicher Rundfunk: Eine Reformagenda 1. Mikroökonomische Reformen: Qualitätsmanagement und Corporate Governance

2. Reform des Finanzierungssystems 3. Großer Wurf oder kleine Schritte? VI. Fazit

221 222 225 225 228 231 232 234 236 238 240 240 242 244 245

Literatur

245

Zusammenfassung

252

Summary: Public broadcasting in crisis

252

I. Einleitung Das Jahr 2013 erweist sich als Krisenjahr für den öffentlich-rechtlichen Rundfunk: Die Einfuhrung des neuen Rundfunkbeitrags löst Protest- und Klagewellen aus, ein drastischer Schleichwerbungsskandal erschüttert das ZDF, hinzu kommen Debatten über politische Einflussnahme, exzessive Gehälter einzelner Angestellter und eine mangelhafte Unternehmensführung bei den Öffentlich-Rechtlichen. Diese Debatten werfen die Frage auf, was bei den Öffentlich-Rechtlichen schief läuft und welche Möglichkeiten bestehen, Abhilfe zu schaffen. Diese Fragen sind Gegenstand dieses Beitrags. Ziel des Beitrages ist dabei nicht eine grundsätzliche Debatte über die Recht-

222

Hanno Beck und Andrea Beyer

fertigung des öffentlich-rechtlichen Rundfunks, sondern der Versuch, die ÖffentlichRechtlichen an ihren eigenen Ansprüchen zu messen und mit Hilfe ordnungsökonomischen Denkens den Reformbedarf im öffentlich-rechtlichen System aufzuzeigen, unabhängig von der Tatsache, dass man eine solche Institution aus ökonomischer Perspektive grundsätzlich in Frage stellen muss. Dazu werden im zweiten Kapitel kurz die ökonomischen und publizistischen Argumente erörtert, mit denen die Existenz des öffentlich-rechtlichen Rundfunks in Deutschland gerechtfertigt wird. Dies geschieht lediglich mit dem Ziel, einen Kriterienkatalog zu entwickeln, mit dessen Hilfe man die Leistungen des öffentlich-rechtlichen Rundfunks bewerten kann - er soll an seinen eigenen Ansprüchen gemessen werden. Im daran anschließenden Kapitel werden die aktuellen Problemfelder des öffentlichrechtlichen Rundfunks beleuchtet und untersucht, inwieweit der öffentlich-rechtliche Rundfunk die Leistungen erbringt, mit denen man seine Existenz rechtfertigt. Eine solche Zusammenstellung und Dokumentation der öffentlich-rechtlichen Skandale, die erst das wahre Ausmaß der Probleme deutlich macht, gibt es bisher in der Literatur nicht. Insofern soll dieser Bericht hier auch eine Chronistenpflicht erfüllen und veranschaulichen, auf wie viele unterschiedliche Wege sich die Probleme des öffentlichrechtlichen Rundfunks in der Praxis äußern. Diese Kenntnis der verschiedenen Ausprägungen der Skandale bei den Öffentlich-Rechtlichen benötigt man zudem, um vernünftige Reformansätze zu entwickeln. Das vierte Kapitel analysiert die Probleme des öffentlich-rechtlichen Rundfunks als Konsequenz einer falschen ordnungspolitischen Weichenstellung und zeigt auf, an welchen Stellen das Rahmenwerk verändert werden muss. Die Möglichkeiten, den ordnungs- und prozesspolitischen Rahmen in der Rundfunklandschaft in Deutschland zu reformieren, werden im fünften Kapitel aufgezeigt, an das sich ein kurzes Fazit anschließt.

II. Argumente für die Existenz des Öffentlich-Rechtlichen Rundfunks Staatliche Eingriffe in das Rundfunkwesen werden mit produktionstechnischen und inhaltlichen Argumenten begründet. Dabei zeigt sich, dass die produktionstechnischen Argumente nicht (mehr) valide sind, während die inhaltlichen Argumente teils auf schwachen Füßen stehen oder sich einer ökonomischen Bewertung entziehen. Insgesamt sind es hauptsächlich drei produktionstechnische Besonderheiten des Rundfunks, die als Begründung für eine Regulierung ins Feld geführt werden (Grundsätzlich zum Marktversagen vgl. Cowen, Tyler, Crampton 2003);zum Marktversagen im Rundfunk vgl. bspw. Brown 1996, Beck 2011; Beyer, Carl 2012; Heinrich 2009; zur historischen Entwicklung am Beispiel der BBC vgl. Scannell 1990): •

Die mit dem Aufbau eines Sendenetzes verbundenen hohen Fixkosten führen zu sinkenden Durchschnittskosten, das kann zu einem natürlichen Monopol führen.



Verschärft wird die Gefahr eines natürlichen Monopols durch die Tatsache, dass die Grenzkosten der Produktion, nachdem das Medienprodukt einmal hergestellt ist, Null sind.



Bisweilen werden Medienprodukten Eigenschaften eines öffentlichen Gutes attestiert, da keine Rivalität im Konsum vorliegt.

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen



223

Eine weitere Besonderheit könnten Engpässe in der Übertragungskette sein - Flaschenhälse auf dem Produktionsweg könnten zu Wettbewerbshindernissen werden (Motta, Polo 1997).

Bei näherer Betrachtung allerdings rechtfertigt keines dieser Argumente einen staatlichen Eingriff in die Medienbranche: Dank des technischen Fortschritts sind die Kosten für den Aufbau eines Sendernetzes mittlerweile deutlich gefallen, was die Fixkostenproblematik entschärft; zudem rechtfertigt das Argument der hohen Fixkosten des Netzes ähnlich wie auf dem Telekommunikationsmarkt nur eine Regulierung des Netzzugangs, nicht aber eine staatliche Produktion von Medieninhalten. Der technische Fortschritt hat Rundfunk in dieser Hinsicht zunehmend zu einem normalen Gut gemacht (vgl. van Dijk, Nahuis, Waagmeester 2006; Heap 2005). Was die Grenzkosten und die Nicht-Rivalität im Konsum angeht, so muss man attestieren, dass es hinreichend Geschäftsmodelle gibt, die diesen Besonderheiten Rechnung tragen - die Existenz privater Rundfunksender zeigt, dass diese Produktionsbesonderheiten nicht zwangsläufig zu einem Marktversagen fuhren müssen. Rundfunk ist weiterhin kein klassisches öffentliches Gut, da das Kriterium der Nicht-Ausschließbarkeit nicht gegeben ist. Auch die Engpässe in den Übertragungswegen rechtfertigen allenfalls eine intensivere Wettbewerbspolitik, aber keinen öffentlich-rechtlichen Rundfunk. Die Verteidigungslinien des öffentlich-rechtlichen Rundfunks stellen mittlerweile auch eher auf die Inhalte als Problem einer privaten Rundfunkordnung ab (vgl. bspw. auch O'Hagan, Jennings 2003; Graham, Davies 1997; Peacock 2004): •

Zum einen sieht man im Rundfunkwesen die Gefahr der Einflussnahme von Politik und Industrie auf die Inhalte der Sendungen (o.V. 2013i sowie Schadrowski, Stumpf 2012); dies könne zu verzerrten Informationen fuhren. Hier stellt man vor allem auf die suggestive Kraft der Rundfunkmedien ab, die das Urteil der Konsumenten verzerren könnten; dazu muss man den Konsumenten unterstellen, dass sie selbst nicht in der Lage sind, Informationen auf ihren Sachlichkeitsgehalt hin zu beurteilen. Stimmt man diesem Argument zu, so sollte der Rundfunk staatsfern (BVerfG 1961) und werbefrei (vgl. dagegen BVerfG 1991) gestaltet werden.



Als weiteres Problem im Mediensektor wird die Informationsasymmetrie zwischen Sender und Empfanger angeführt (Akerlof 1970; Schumann, Tzouvaras 2004): Da die Empfanger die Qualität einer Rundfunksendung nicht hinreichend beurteilen können, sind sie nicht bereit, den Preis für qualitativ gute Sendungen zu bezahlen, weswegen nur qualitativ geringerwertige Sendungen angeboten werden; dadurch kommt es zu adverser Selektion. Dieses Argument vernachlässigt die Tatsache, dass Medienkonsum ein wiederholter Konsumakt ist und sich Medienanbieter eine Reputation als seriöse Anbieter aufbauen können auf diese Weise verschwindet das Problem adverser Selektion. Im Printbereich zeigt sich, dass diese Strategie funktioniert.



Auch die Gefahr einer zu geringen Vielfalt in den audiovisuellen Medien wird bisweilen als Argument für den öffentlich-rechtlichen Rundfunk herangezogen: Ohne Öffentlich-Rechtliche, so das Argument, würden Meinungsmonokulturen

224

Hanno Beck und Andrea Beyer

entstehen, eine Vielfalt der Inhalte wäre nicht gesichert. Hier wird ein Marktversagen auf dem Markt für audiovisuelle Programme und Dienstleistungen unterstellt. Allerdings kann sich dieses Argument nur auf die produktionstechnischen Besonderheiten der Medienbranche stützen, indem es postuliert, dass es bei Wettbewerb zu einer Reduktion der Marktteilnehmer kommt (Heinrich 2005, S. 327). Andernfalls lässt sich nur schwer erklären, wie bei einer steigenden Zahl von Wettbewerbern die Vielfalt zurückgehen soll (BVerfG 1986 und 1987). •

Ein weiteres Argument können externe Effekte bestimmter Inhalte von Mediensendungen sein: Eine gute politische Berichterstattung beispielsweise kann die Meinungsbildung verbessern und somit zu einer verbesserten Teilhabe am politischen und sozialen Leben fuhren (BVerfG 1981). Akzeptiert man dieses Argument, so rechtfertigt es eine Subvention bestimmter Inhalte im Sinne einer Internalisierung externer Effekte - aber nicht einen kompletten staatlichen oder staatsnahen Sender. Gleiches gilt für negative externe Effekte bestimmter Sendeinhalte, beispielsweise von Darstellungen von Gewalt: So es diese Externalitäten gibt, wären sie durch entsprechende Pigou-Steuern, Maßnahmen des Jugendschutzes oder gar die Kontrolle solcher Sendeinhalte zu bekämpfen, nicht durch ein öffentlich-rechtliches Rundfunksystem.

Es bleibt bezüglich der Inhalte eine normative Komponente: Bestimmte Sendungen, Inhalte oder Formate, so das Argument, würden am Markt ohne staatliche Subvention nicht angeboten werden (Prange 2013; Brösel 2003, S. 124). Hingegen würde es aufgrund der Präferenzen der Zuschauer nur zu Sendungen kommen, die nicht der allgemeinen Vorstellung von „gutem" Fernsehen entsprechen - statt Kultur und Information gebe es nur das, was man bösartigerweise als „Unterschichten-Fernsehen" bezeichnet. Letztlich geht es bei dieser Debatte um „gesellschaftlich erwünschte Inhalte" um das klassische Argument der Meritorik (Musgrave, Musgrave, Kullmer 1975): Die Verfechter des öffentlich-rechtlichen Rundfunks lehnen die Inhalte ab, die ein freier Rundfunkmarkt ihrer Einschätzung nach liefern wird und fordern staatliche Eingriffe, um die Inhalte zu fördern, die ihrer persönlichen Vorstellung nach wertvoll sind. Der verteilungspolitische Aspekt dieser Veranstaltung wird zumeist ausgeblendet, obwohl die öffentliche Bereitstellung von Sendeinhalten zu vergleichen ist mit der kostenlosen Abgabe von Kino-Eintrittskarten für diejenige Zuschauergruppe, die das bereitgestellte Programm favorisiert (Noam 1987). Fasst man diese Argumente zusammen, so geht es bei der Rechtfertigung für die Existenz öffentlich-rechtlichen Rundfunks also vor allem um die Qualität der gesendeten Informationen, man traut dem Rundfunkmarkt nicht zu, im Wettbewerb qualitativ hochwertige Inhalte zu produzieren. Dabei macht sich die Qualität der Inhalte daran fest, dass sie frei sind von Einflüssen Dritter, dass sie richtig sind und dass sie bestimmten normativen Vorstellungen entsprechen. Die ersten zwei Kriterien lassen sich ansatzweise abprüfen - das soll unter Punkt III. 1 geschehen, Punkt III.2 versucht sich in einer Annäherung an die Frage, ob die Programme der Öffentlich-Rechtlichen der objektiv unbestimmbaren, weil normativen, Programmvorgabe gesellschaftlich erwünschter Inhalte gerecht werden. Leisten die öffentlich-rechtlichen Sender das, womit sie ihre Existenz rechtfertigen?

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

225

III. Krisenschauplätze im Öffentlich-Rechtlichen Rundfunk 1. Freiheit von äußeren Einflüssen Die Freiheit eines Medienhauses vor äußeren Einflüssen, die journalistische Unabhängigkeit ist eines der wesentlichen Argumente, auf das sich die Öffentlich-Rechtlichen berufen - ihr Journalismus soll frei sein von Einflüssen aus der Industrie und der Politik (diese Forderung gilt grundsätzlich für alle Medien). Die Einflüsse aus der Industrie entstehen über drei Kanäle: Indem sich die Sender über offene (Werbung) oder versteckte Werbung (Schleichwerbung) finanzieren, kann es zu Abhängigkeiten der Sender von Geldgebern kommen, mit negativen Folgen für die Objektivität der Berichterstattung. Der dritte Kanal ist subtiler, die Industrie kann auf die Berichterstattung Einfluss nehmen, indem sie auf die persönliche Unabhängigkeit einzelner Journalisten abzielt und diese mehr oder weniger verdeckt bezahlt, beispielsweise durch Vortragshonorare oder Jobversprechen, wenn der Journalist einmal die Seiten wechseln sollte. Ein Blick auf die Faktenlage zeigt, dass die Öffentlich-Rechtlichen von ihrem Anspruch, keinen Einflüssen der Industrie ausgesetzt zu sein, weit entfernt sind. Die unmittelbaren Einnahmen aus Werbung belaufen sich zwar nur auf rund 3 Prozent der Gesamteinnahmen, nichtsdestotrotz muss man konstatieren, dass auf diesem Kanal eine Einflussnahme der Industrie möglich ist. Untermauert wird dieser Verdacht durch die zahlreichen Fälle von Schleichwerbung im öffentlich-rechtlichen Umfeld. Die Samstagabend-Unterhaltungssendung „Wetten, dass?" ist wohl der prominenteste Fall von Schleichwerbung bei den öffentlich-rechtlichen Sendern (Brauck u.a. 2013a): Über die Produktionsfirma im nahen Umfeld des Moderators konnten Unternehmen gegen Bezahlung Produktpräsentationen im Rahmen der Sendung bestellen. Vertraglich wurde sogar festgelegt, wie lange das betreffende Produkt im Bild sein und wo der Moderator bei der Vorstellung des Produktes stehen sollte, was einen schwerwiegenden Eingriff in die Programmautonomie des Senders darstellt. Dies ist kein Einzelfall, in den öffentlich-rechtlichen Sendern ist es immer wieder zu Fällen von Schleichwerbung gekommen: •

Die Moderatorin Andrea Kiewel macht im „ZDF-Fernsehgarten" Schleichwerbung für ein Diätunternehmen, mit dem sie einen Vertrag hat. Sie wird gekündigt, aber nach einem Jahr wieder eingestellt (o.V. 2009a).



In Folgen der „Tatort"-Krimi-Reihe kommt es zu Fällen von Schleichwerbung (o.V. 2005a). Ein Tatort vom NDR bringt es auf 6:40 Minuten Sendezeit, in der das Auto der Kommissarin in Szene gesetzt wird; der NDR weist den Vorwurf der Schleichwerbung in diesem Fall zurück (o.V. 2005b; Buchner 2009).

"

Gegen Entgelt konnten Unternehmen über die Bavaria, eine Tochterfirma von WDR, SWR, BR und MDR, ihre Produkte bei den ARD-Serien „Marienhof' und „In aller Freundschaft" platzieren oder Handlungsstränge bestellen. Presseberichte sprechen von einem Geschäftsvolumen von 3,5 Millionen Euro (o.V. 2005c; o.V. 2005d).



Auch das öffentlich-rechtliche System in Österreich leidet unter ähnlichen Problemen mit Schleichwerbung (o.V. 2013a).

226 •

Hanno Beck und Andrea Beyer

Das Hamburger Unternehmen Globetrotter hatte 2002 an Mitarbeiter des ARDHauptstadtbüros Berlin 444 kostenlose Goretex-Jacken von Jack Wolfskin geliefert. Auf der Außenseite der 229 Euro teuren Jacken war deutlich der Schriftzug des Unternehmens zu sehen - auch im Rahmen eines Beitrags der Tagesthemen, wo der ARD-Korrespondent aus Kabul diese Jacke trug (Erlinger 2006).

Grundsätzlich fordert der Rundfunkstaatsvertrag (zurzeit ist der 15. Rundfunkänderungsstaatsvertrag seit 1.1.2013 in Kraft, im Folgenden bezeichnet als RÄStV) eine klare Trennung von Werbung und Programm durch optische beziehungsweise akustische Mittel (§ 7, Abs. 3 RÄStV). Allerdings wurden mit dem 13. Rundfunkänderungsstaatsvertrag die Regelungen zur Produktplatzierung gelockert, so sind nun bei Fremdproduktionen entgeltliche Produktplatzierungen in vielen Fällen möglich (§ 15 RAStV). Darüber hinaus sind sogenannte Produktionshilfen außer für einige Formate möglich, Gewinnspiele und Sponsoring bieten weitere Schlupflöcher (ARD 2010; ZDF 2010). Alle diese Regelungen gefährden die Unabhängigkeit der Sender. Auch die persönliche Unabhängigkeit einzelner Moderatoren beim öffentlichrechtlichen Rundfunk ist möglicherweise nicht immer gesichert: So entbrannte 2010 eine Debatte um die Nebenverdienste von Moderatoren, unter ihnen auch viele Moderatoren der Öffentlich-Rechtlichen. Prominente Namen wie „Tagesthemen"-Moderator Tom Buhrow, „Heute Journal"-Moderator Claus Kleber, „Heute"-Moderatorin Petra Gerster oder ARD-Börsenkorrespondentin Anja Kohl. Sie verdienen dank ihrer - durch ihre Rundfunkauftritte erlangten - Prominenz mittels Reden, Moderationen und Interviews Summen zwischen 6.000 und 20.000 Euro. Der Gedanke, dass solche Honorare die journalistische Unabhängigkeit der Moderatoren gefährden könnte, liegt auf der Hand und steht in deutlichem Widerspruch zu den Ansprüchen des öffentlichrechtlichen Rundfunks (Ruprecht, Großpietsch 2009). Eine Reihe von Chefredakteuren von (privatwirtschaftlichen) Printmedien gab im Gegensetz dazu zu Protokoll, dass sie entweder keine Honorare nehmen oder diese spenden (o.V. 2009c). Das ZDF sieht dies offenbar nicht so, ein vollständiges Verbot von Nebentätigkeiten - die genehmigungspflichtig seien - sei aus rechtlichen Gründen nicht möglich. Bei freien Mitarbeitern sei dies nur möglich, wenn ein Genehmigungsvorbehalt vertraglich vereinbart sei. Ein Sprecher des Hessischen Rundfunks sprach von einer „Neid-Debatte" (o.V. 2009d). Unter dem Strich muss man festhalten, dass die Öffentlich-Rechtlichen nicht sicherstellen können, ein Programm ohne Möglichkeiten der Einflussnahme der Industrie anzubieten - auf allen drei Kanälen herrschen Möglichkeiten für die Industrie, Einfluss auf das Programm zu nehmen. Die hier dokumentierten Fälle belegen, dass diese Kanäle auch genutzt werden. Neben der Einflussnahme durch die Industrie sind die Inhalte des öffentlichrechtlichen Rundfunks - entgegen seinen Ansprüchen und der ursprünglichen Intention - auch Beeinflussungen aus der Politik ausgesetzt: •

Der prominenteste Fall dürfte wohl die Causa Brender sein: der Chefredakteur des ZDF wurde - wohl aus politischen Gründen - gekündigt. Der Verwaltungsrat des Senders beschloss, dessen Vertrag nicht zu verlängern, Medien sahen darin einen eklatanten Fall von politischer Einflussnahme (o.V. 2010b).

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

227



Der gleiche Chefredakteur, dessen Vertrag nicht verlängert wurde, erklärte, zu Beginn seiner Amtszeit sei es üblich gewesen, dass Politiker bei Redakteuren anriefen, um Druck auf die Berichterstattung auszuüben - erst als er gedroht habe, dieses Verhalten publik zu machen, habe dies aufgehört (o. V. 2012d).



Bereits 1986 schaltete der Bayrische Rundfunk bei einer Folge einer kritischen Satire-Sendung kurzerhand den Bildschirm ab - die Sendung wurde in Bayern nicht übertragen (o.V. 2006a).



Aufsehen erregte auch der Versuch des Pressesprechers der CSU, beim ZDF eine Berichterstattung über eine SPD-Wahlveranstaltung zu verhindern. Die Chefredakteurin des Deutschlandfunks erklärte dazu in einem Interview, dies seien „Phänomene, die passieren" (Tieschky 2012a; Keil 2010).



Über ähnliche versuchte und gelungene Fälle politischer Einflussnahme durch die Landesregierung wird 2013 auch beim Rundfunk Berlin-Brandenburg berichtet (o.V. 2013b)

Die Einflussnahme der Politik erfolgt dabei auf zwei Wegen: zum einen über die Mitglieder der Aufsichtsgremien, die mehr oder weniger überwiegend durch die Politik bestimmt werden, und zum anderen über die Festsetzung der Mittelzuwendungen für das öffentlich-rechtliche System, auf die weiter unten noch eingegangen wird. Dem 14-köpfigen Verwaltungsrat des ZDF gehören drei Ministerpräsidenten und ein Staatsminister an, beim Fernsehrat des ZDF, der aus 77 Mitgliedern besteht, sind alleine 40 Mitglieder des Rates unmittelbare Vertreter der Politik (16 Vertreter der Länder, drei Vertreter des Bundes, 12 Vertreter der Parteien, bei 9 weiteren Mitgliedern Iässt sich die politische Funktion unmittelbar erkennen), bei weiteren Mitgliedern muss man vermuten, dass sich weitere politische Affiliationen jeglicher Art finden; alleine 16 weitere Mitglieder des Rates werden von den Ministerpräsidenten der Länder ernannt (ZDF 2013a). Kurzum: Mehr als die Hälfte der Mitglieder des Fernsehrates kommt aus der Politik (vgl. Schadrowski, Stumpf 2012). Bei den ARD-Sendeanstalten sieht es ähnlich aus: Dort haben die Verwaltungsräte zumeist sieben oder neun Mitglieder, von denen in einigen Fällen ein bis vier - beim SWR sieben - Mitglieder von staatlicher Seite entsandt werden oder dem Gremium aufgrund ihres Amtes angehören. Bei den Rundfunkräten (derzeit 26 bis zu 74 Mitglieder) ist dies leider nicht ohne Weiteres ersichtlich, welche Mitglieder aus politischen Funktionen kommen. Tabelle 1 vermittelt einen Eindruck von der Präsenz der Politik in den Rundfunkgremien. Unter dem Strich muss man feststellen, dass der Anspruch der ÖffentlichRechtlichen, ein Programm frei von wirtschaftlicher und politischer Einflussnahme zu liefern, nicht sicher gestellt ist - eine wesentliche Aufgabe, aus der laut den Argumenten des letzten Abschnittes der öffentlich-rechtliche Rundfunk seine Existenzberechtigung zieht, wird von diesem nicht erfüllt. Ursache dafür dürften auch nicht anreizkompatible Strukturen im System des öffentlich-rechtlichen Rundfunks sein, die im IV. Kapitel diskutiert werden.

228 •

Hanno Beck und Andrea Beyer

Tabelle 1: Entsender in Gremien von ARD und ZDF in Prozent Rundfunkräte ARD

Fernsehrat ZDF

Politik

29

44

Wirtschaft

15

17

Kirchen

9

6

Gewerkschaften

11

6

Gesellschaftliche Gruppen

36

26

Verwaltungsräte ARD1

Verwaltungsräte ZDF

Politik

46

62

Wirtschaft

17

8

Kirchen

4

-

Gewerkschaften

4

-

Gesellschaftliche Gruppen

20

31

Quelle: Wolf (2013) 1

Beim Verwaltungsrat der ARD werden nochmals zehn Prozent vom Sender selbst gestellt.

2. Die Debatte um die Inhalte Was die Inhalte der öffentlich-rechtlichen Sendungen angeht, so geht es hier um zwei Aspekte: Um deren Qualität - die man vereinfacht gesagt an ihrer Korrektheit und Relevanz festmachen kann - und die Inhalte an sich, also jene Formate, denen man meritorischen Charakter zubilligt und von denen man vermutet, dass sie ohne staatliche Unterstützung nicht in hinreichend gewünschtem Ausmaß gesendet werden. Was die Qualität der politischen, journalistischen Berichterstattung angeht, so belegen einige Beispiele, dass die Öffentlich-Rechtlichen auch hier nicht vor Problemen gefeit sind: •

So bezichtigt eine der Hauptprotagonistinnen einer Reportage über die Zustände beim Online-Versand Amazon, die viel Aufregung erzeugte, dass die Reporter nur das Negative hätten sehen wollen, sie hätten ihre Sätze aus dem Zusammenhang gerissen und mit weiteren, eigenen Erklärungen versehen - das sei oft das Gegenteil von dem gewesen, was sie gesagt habe. Es seien auch Bilder gefälscht worden, heißt es weiter (Ling 2013; o.V. 2013c). Der Hessische Rundfunk blieb bei seiner Darstellung (Rentz 2013).



Ähnliche Vorwürfe gab es bei einer Reportage über Arbeitsbedingungen beim Automobilhersteller Daimler, Teile des Films, so wehrte sich das Unternehmen, seien „fingiert" gewesen (o.V. 2013d).



Ein ähnliches Licht auf die Qualitätsansprüche wirft eine Beschwerde der Landeszentrale für Medien und Kommunikation (LMK), die einem SWR-Beitrag attestierte, dass er „in weiten Teilen anerkannte journalistische Grundsätze, insbesondere aufgrund der fehlenden Objektivität, Sachlichkeit und Ausgewogenheit sowie der fehlenden Trennung von Information und Meinung" verletze (Landeszentrale für Medien und Kommunikation 2008).

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

229



Das ZDF stand wiederholt in der Kritik, weil man zu Berichten falsche Bilder gesendet hatte - man hatte zur Berichterstattung Bilder montiert, die nicht im unmittelbaren Zusammenhang mit der geschilderten Szene standen (o.V. 2012c).



Scharfe Kritik erntete auch die vielfaltige Berichterstattung der ÖffentlichRechtlichen zu Computer-Killer-Spielen, der viele sachliche Fehler und Ungenauigkeiten nachgewiesen wurden. Auch hier wurden Szenen aus dem Zusammenhang gerissen und in einem falschen Zusammenhang geschnitten: „Diese Freude [...] wurde eingeschnitten, wie es [...] durchaus üblich ist", reagiert der NDR-Intendant auf die Kritik an einer falsch montierten Freude eines Spielers über eine angebliche Mord-Aktion (o.V. 2008a).

Nun sollen diese Beispiele nicht suggerieren, dass alle Beiträge der ÖffentlichRechtlichen solche eklatante Qualitätsmängel aufzeigen, sie zeigen aber exemplarisch, dass auch öffentlich-rechtliches Fernsehen nicht vor Qualitätsmängeln gefeit ist - nicht zuletzt aus falschen Anreizen: Sensationelle Sendungen wie die Amazon-Reportage sichern Ruhm, Medienpreise und Aufmerksamkeit, und die von der LMK kritisierte Reportage drehte sich um die Internet-Geschäftsmodelle der Print-Konkurrenz der Öffentlich-Rechtlichen, gerügt wurde eine „völlig überzogene(n) Eigenpromotion der einseitigen Position der ARD" die ein „manipulatives Bild" zeichne, „das jeglichen Grundsätzen einer ausgewogenen und sachlichen Berichterstattung widerspricht" (Landeszentrale für Medien und Kommunikation 2008). Zumindest eines wird damit deutlich: Auch bei den Öffentlich-Rechtlichen existieren Anreize, die Berichterstattung in der ein oder anderen Form zu überzeichnen oder zu verzerren. Wesentlich schwieriger ist es allerdings, was die Inhalte der Öffentlich-Rechtlichen in Bezug auf die Idee meritorischer Inhalte angeht (§ 1 la RAStV). Was kann man über das öffentlich-rechtliche Programmschema mit Blick darauf sagen? Einer der größten und wichtigsten Programmpunkte der Öffentlich-Rechtlichen ist Sport, hier vor allem Fußball. Nach den Vollprogrammen Euro-Sport und Sport 1 waren ARD und ZDF mit deutlichem Vorsprung die größten Anbieter von Sportsendungen im deutschen Fernsehen (Schröder 2009). Dabei ist diese Sendeform teuer: Die Kosten je Sendeminute beispielsweise bei der ARD und ZDF für Sport sind rund doppelt so hoch wie fiir Kultur und Wissenschaft oder Politik und Gesellschaft (Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten 2011). Der wettbewerbsverzerrende Bieterwettkampf der Öffentlich-Rechtlichen mit den Privatsendern um knappe Sportrechte (Siebenhaar 2013) hat letztlich dazu geführt, dass die Spielergehälter gestiegen sind, finanziert aus Gebührengeldern. Fraglich ist, ob millionenschwere Sportgroßereignisse in den Rahmen dessen fallen, was man als meritorisch definieren will - unabhängig von der Frage, ob es notwendig ist, die Nachfrage nach solchen Ereignissen noch durch staatliche Maßnahmen zu erhöhen. Kritiker des öffentlich-rechtlichen Rundfunks sprechen, was dessen Programm angeht, von einer Konvergenz der Öffentlich-Rechtlichen und der Privatsender (vgl. Stock 1990): Immer mehr Formate der Öffentlich-Rechtlichen seien von den Privaten kopiert. Dies gelte für Vorabend-Serien wie „Marienhof', „Sturm der Liebe", „Reich und schön" oder „Verbotene Liebe", für Boulevardmagazine wie „Brisant" und „Leute heute", zahlreiche Quiz- und Kochshows sowie Tiersendungen. Auch der Wechsel zahlreicher Stars aus dem Privatfernsehen zu den Öffentlich-Rechtlichen wird von Kritikern

230

Hanno Beck und Andrea Beyer

als Beleg dafür herangezogen, dass die Öffentlich-Rechtlichen das Privatfernsehen zunehmend imitieren statt ein eigenständiges Profil zu bewahren (o.V. 2013i; Schröder 2013). Trifft diese Hypothese zu, so würde sich der öffentlich-rechtliche Rundfunk damit die eigene Existenzberechtigung entziehen. Betrachtet man die Inhalte der gesendeten Formate (vgl. Arbeitsgemeinschaft der Landesmedienanstalten 2012), so ergibt ein Vergleich von ARD und ZDF, dass die Öffentlich-Rechtlichen bei Nachrichtenformaten, der tages- und wochenaktuellen Berichterstattung klar vorne liegen, bei Boulevardmagazinen, Reporttagen und Dokumentationen hingegen ist kein Vorsprung der Öffentlich-Rechtlichen festzustellen. Allerdings liegen diese, was die Themenstruktur der tagesaktuellen Fernsehpublizistik angeht, auch bei sogenannten „Human Touch"-Themen (Prominente, Verbrechen, Emotionen, Unfälle, Katastrophen) im Großen und Ganzen vorne - dies ist eher nicht der Anspruch der Meritorik. Der Vergleich der öffentlich-rechtlichen Sendeinhalte mit den Privatsendern ist allerdings grundsätzlich irreführend, da die Privatsender in einem Umfeld, in dem es zwei große Konkurrenten mit Existenzgarantie (Bestands- und Entwicklungsgarantie § 12 RÄStV) gibt, sich notgedrungen auf Inhalte spezialisieren, welche von den öffentlich-rechtlichen Konkurrenten nicht oder nur wenig gesendet werden. Insofern ist der Unterschied in den Programmschemata systemimmanent und kann nicht als Beleg dafür gewertet werden, dass Privatfernsehen nur Inhalte sendet, die nicht irgendwie gearteten Qualitätsansprüchen der Öffentlichkeit entsprechen. Zwar verweisen die Öffentlich-Rechtlichen gerne auf den hohen Informationsanteil ihres Programms im Vergleich zu den Privatsendern (zu solchen Programmanalysen vgl. Krüger 2012a, 2012b, 2012c), doch sind diese Analysen nicht ohne methodische und inhaltliche Kritik geblieben: Der offensichtliche Informationsvorsprung, den die Öffentlich-Rechtlichen für sich reklamieren, schrumpft bei näherer Analyse (Schröder 2009). Eine objektive Überprüfung des meritorischen Gehaltes der öffentlichrechtlichen Programme ist ohnehin nicht möglich, aber die Politik sieht offenbar in der schleichenden Kommerzialisierung der Öffentlich-Rechtlichen - was einer Abweichung von der Idee meritorischer Inhalte entspricht - ein Problem, was es zu einem Problem der Sender macht (o.V. 201 le). Die Öffentlich-Rechtlichen verteidigen die „weichen" Inhalte mit dem Argument, dass man auf diesem Weg die Akzeptanz des öffentlichrechtlichen Rundfunks sicherstellen wolle - wobei man dann fragen muss, ob angesichts des Umfangs der „weichen" Inhalte hier nicht bereits der Schwanz mit dem Hund wedelt. Die Idee der Meritorik macht klar, dass bezüglich der Inhalte ein Zielkonflikt für die Öffentlich-Rechtlichen besteht: Wenn man höhere Einschaltquoten benötigt, um zum einen Werbeeinnahmen zu erzielen und zum anderen die Akzeptanz der Bürger für das öffentlich-rechtliche System sicher zu stellen, muss man breitenwirksame Inhalte senden. Das sind aber weder die Inhalte, die eine Förderung im Sinne der Meritorik benötigen, noch die Inhalte, an welche die Verfechter der Idee meritorischer Medienformate denken (o.V. 2013i). Insofern ist in der Struktur des öffentlich-rechtlichen Systems ein innerer Widerspruch angelegt, der unlösbar ist.

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

231

3. Mangelhafte Corporate Governance Jedes Unternehmen, auch der öffentlich-rechtliche Rundfunk, muss auf die Sauberkeit seiner Unternehmensfiihrung achten, auf das, was in der Literatur als Corporate Governance und Compliance bezeichnet wird. Ziel der Corporate Governance ist eine funktionsfähige Unternehmensleitung auf Basis von Grundsätzen und Normen. Aufsichtsgremien sollen transparent besetzt werden, die Unternehmenskommunikation soll transparent sein, die Interessen aller an dem Unternehmen interessierter Personen (Stakeholder) sollen gewahrt bleiben, der Umgang mit Risiken soll angemessen sein. Vorgänge wie Bilanzbetrug, Korruption, Untreue und geschäftsschädigendes Verhalten einzelner Mitarbeiter sollen zum Wohle des Unternehmens verhindert werden (Gerlach 2011; Deutscher Corporate Governance-Kodex 2013; Lattemann 2010; Paetzmann 2012). Gemessen an diesen Ansprüchen gibt es mit der ordentlichen Führung der Geschäfte des öffentlich-rechtlichen Rundfunks viele Baustellen: •

Der Ex-Sportchef des HR, Jürgen Emig, wird 2008 wegen Untreue und Bestechlichkeit zu zwei Jahren und acht Monaten verurteilt. Emig akquirierte Mittel für seinen Sender, soll aber auch über die Firma seiner Frau Gelder in die eigene Tasche gesteckt haben. „Ich war der Schalck-Golodkowski des Hessischen Rundfunks" soll er einem Bekannten gesagt haben (Leyendecker



iftJ-Oft-ühere Sportchef des MDR, Wilfried Mohren, wird 2009 wegen Bestechlichkeit, Vorteilsnahme, Betruges und Steuerhinterziehung zu einer Bewährungsstrafe verurteilt. Mohren hatte jahrelang am MDR vorbei über die Firma seiner Frau Geld von Sponsoren kassiert (o.V. 2009b).



Besonderes Medieninteresse galt auch dem Fall Kinderkanal (KiKA): Der Herstellungsleiter des Kinderkanals wird wegen Bestechlichkeit und Untreue in 48 Fällen verurteilt; mit Scheinrechnungen soll er 4,622 Millionen Euro an Gebührengeldern hinterzogen haben (o.V. 2011a; o.V. 2012a). Die mutmaßliche Verabschiedung des ehemaligen Programmgeschäftsfuhrer des KiKA kostete 30.000 Euro und wurde vom Sender bezahlt - die Staatsanwaltschaft ermittelt wegen Untreue (NDR 2013).



Weniger prominent, aber nicht weniger auffällig, war der Fall Telefilm Saar, wo der Chef der Produktionstochter Telefilm Saar Rechnungen fälschte und Bilanzen frisierte; Schaden: 25 Millionen Euro (Hanfeld 2007).



Die ehemalige NDR-Fernsehspielchefin Doris Heinze soll unter Pseudonym Drehbücher bei ihrem Sender eingereicht und dafür Honorare kassiert haben. Die Staatsanwaltschaft wirft Heinze Bestechlichkeit, Betrug und schwere Untreue vor (Nörting 2012). Der Bundesverband der Fernseh- und Filmregisseure spricht in einer Reaktion auf diesen Fall von einer „krakenhaften Ausdehnung öffentlichrechtlicher Anstalten [...] vor allem in den Bereichen Produktion, Technik und Rechtehandel" (Voß 2009).



Ebenfalls schwer mit journalistischen Grundsätzen vereinbar ist der Fall Jan Ulrich: Für exklusive Auftritte im Programm und Aufnahmen aus dem Trainings-

232

Hanno Beck und Andrea Beyer

lager erhält der Radsportler Jan Ullrich sechsstellige Geldbeträge von der ARD (o.V. 2006b). •

Angesichts dieser Skandale fällt der Fall des MDR-Fernsehballetts, das an der Geburtstagsfeier für den tschetschenischen Republikchef Ramsan Kadyrow in Grosny teilnimmt, noch kaum auf. Kadyrow steht wegen schwerer Menschenrechtsverletzungen international in der Kritik (o.V. 201 lb).



Bei der ARD-Filmeinkaufsfirma Degeto musste der Geschäftsführer gehen, nachdem die Wirtschaftsprüfungsgesellschaft KPMG und die WDR-Revision gravierende organisatorische Mängel festgestellt hatten. Die Degeto kann aufgrund von Fehlplanungen und einer Überschreitung des Budgets bestehende Verbindlichkeiten nicht mehr bedienen, die ARD muss einen Notfallhaushalt von 24 Millionen Euro nachschießen (o.V. 201 ld).

*

An die Debatte um zu riskantes Verhalten der Banken erinnern jüngste Berichte über die Finanzgeschäfte des Mitteldeutschen Rundfunks (MDR), der laut Rechungshof seine Mittel zu riskant angelegt habe, unter anderem in Floating Rate Notes und Aktienoptionen (o.V. 2013e).

Neben diesen Einzelfallen wird generell die mangelnde Transparenz der ÖffentlichRechtlichen bezüglich der Verwendung der Gelder aus dem Rundfunkbeitrag respektive der Gebühr kritisiert: So verweigern ZDF und ARD jegliche Auskunft über die Kosten für Sportgroßereignisse wie Olympische Spiele, Fußball-Welt- und Europameisterschaften oder die Fußball-Bundesliga und die Kosten einiger Stars wie Günther Jauch oder Thomas Gottschalk. Die Sender begründen dies mit möglichen Nachteilen bei zukünftigen Verhandlungen. Bemerkenswerterweise hat im Gegensatz dazu der private Bezahlsender Sky seine Kosten der Übertragung der Fußball-Bundesliga bereits 2012 veröffentlicht (Renner 2013). Ebenso kritisiert wird die komplizierte und intransparente Besetzung der Aufsichtsgremien sowie deren Arbeit. Exemplarisch dafür die Kritik von Wolf (2012, S. 47): „Es ist ein Paradox deutscher Medienkultur, dass ausgerechnet Institutionen, deren Zweck es ist, Öffentlichkeit herzustellen, ihre innere Kontrolle nicht öffentlich behandeln wollen". In der Tat sind viele Sitzungen der Aufsichtsgremien nicht öffentlich.

4. Mangelnde Anreize zur Wirtschaftlichkeit Auch der Umgang der Öffentlich-Rechtlichen mit den ihnen anvertrauten Geldern wird in vielerlei Hinsicht kritisiert. So stehen zum einen die hohen Honorare für prominente Autoren in der Kritik: Kritiker bemängeln Honorare für Moderatoren wie Harald Schmidt (neun Millionen Euro pro Jahr an Gesamtkosten), Günther Jauch (10,5 Millionen Euro Gesamtkosten), Thomas Gottschalk, Anne Will (7,85 Millionen Euro Gesamtkosten), Johannes B. Kerner (3 Millionen Euro Gesamtkosten), Maybrit Iiiner und Reinhold Beckmann (jeweils eine Million Euro). Kritik gab es auch am Honorar für die Moderatorin Monica Lierhaus, die bei der der ARD-Fernsehlotterie 450.000 Euro pro Jahr verdienen soll. Das jährliche Honorar des ZDF-Nachrichtenmoderators Claus Kleber wird auf 600.000 Euro geschätzt - das ist mehr als das doppelte von dem, was die Bundeskanzlerin verdient (Hanfeld 2011; o.V. 2011).

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

• 233

Aber nicht nur die Honorare der Moderatoren, auch die Gehälter der Intendanten der Öffentlich-Rechtlichen sind Gegenstand von Debatten: Der ehemalige ZDF-Chef Markus Schächter verdiente 299.000 Euro im Jahr, die ehemalige ARD-Vorsitzende und WDR-Intendantin Monika Piel kommt auf 308.000 Euro (plus einmalige Zuwendung und Dienstwagen), NDR-Intendant Lutz Marmor kommt auf 286.000 Euro inklusive Aufwandspauschale, SWR-Intendant Peter Boudgoust kommt auf 273.000 Euro. Die Gehälter der anderen Intendanten werden zwischen 170.000 und 250.000 Euro taxiert hier mangelt es weiter an Transparenz. Bundeskanzlerin, Bundespräsident oder der bayrische Ministerpräsident verdienen verglichen damit weniger (Hanfeld 2010). Zusätzlich zu diesen hohen Gehältern erhalten die Intendanten noch Einkünfte aus Nebentätigkeiten bei anderen öffentlich-rechtlichen Unternehmen, die sich ebenfalls im fünfstelligen Bereich bewegen (Brauck 2013b) - auch dies eine umstrittene Praxis. Nun ist an hohen Gehältern nichts auszusetzen, solange sie über einen Marktprozess zustande kommen - doch genau das stellen Kritiker bei den Öffentlich-Rechtlichen in Frage: Bezahlt werden diese hohen Gehälter aus Zwangsgeldern, die Kunden der Öffentlich-Rechtlichen können sich also nicht - wie bei im Wettbewerb stehenden Unternehmen - der Finanzierung solcher Honorare entziehen, indem sie keine Anteile an dem Unternehmen halten oder dessen Produkte meiden. Die Gehälter der öffentlichrechtlichen Beschäftigten entziehen sich einer Bewertung durch den Markt, zumal die verfassungsrechtlich garantierte Existenzgarantie der Sender eine kosten- und produktivitätsorientierte Lohnpolitik überflüssig macht. Inwieweit das bestehende Finanzierungsregime solche Gehaltsexzesse fordert, soll weiter unten diskutiert werden. Ein weiterer Kritikpunkt bezüglich der effizienten Mittelverwendung sind Spartenkanäle wie ZDFneo (Aufwendungen laut Haushaltsplan 2012: 31,9 Millionen Euro; Marktanteil: 0,5 Prozent), ZDFinfo (17,1 Millionen; 0,3 Prozent), ZDFkultur (das nun eingestellt werden soll: 19,2 Millionen; 0,1 Prozent), Tagesschau24 (5,9 Millionen Euro) und Einsfestival (0,4 Prozent Marktanteil) - die Zuschaueranteile, so die Kritik, rechtfertigen nicht die damit verbundenen Ausgaben (vgl. ZDF 2012; Tieschky 2012b). Ebenfalls in der Kritik stehen ein mangelndes Kostenbewusstsein der ÖffentlichRechtlichen und branchenfremde Tätigkeiten: •

So betreibt der WDR am Kölner Dom ein Einkaufszentrum in bester Innenstadtlage (o.V. 2010a).



Auf der Homepage des ZDF (ZDF 2013b) kann man CDs, Videos, Tassen, Anstecknadeln, T-Shirts, Blöcke, Schlüsselbänder, Basecaps oder DVDs bestellen; beim Online-Shop des WDR (WDR 2013) kann man darüber hinaus Kalender, Geschicklichkeitsspiele, Schlummerlichter, Einkaufstaschen, Geschenkpapier, Beauty-Sets, USB-Sticks, Kindersitze, Besteck, I-Phone-Taschen und weitere Merchandising-Artikel ordern.



Zu den olympischen Spielen 2012 reisten die öffentlich-rechtlichen Sender mit 480 Mitarbeitern nach London, das deutsche Olympia-Team bestand demgegenüber aus 392 Athleten. Bei den Spielen 2008 waren es 700 Mitarbeiter des öffentlich-rechtlichen Rundfunks, die nach Peking entsandt wurden (o.V. 2012b).



Als redundant gewertet wurde der Aufwand bei der Hochzeit des britischen Königshauses: Sowohl ARD als auch ZDF berichteten gleichzeitig insgesamt

234

Hanno Beck und Andrea Beyer

sechs Stunden von diesem Ereignis (Kintzinger 2011); bei der Hochzeit des britischen Thronfolgers Charles und Camilla und bei der Beerdigung des monegassischen Fürsten Rainier war dies ebenfalls der Fall (o.V. 2005e; Renner 2011). Generell gilt bei Öffentlich-Rechtlichen, dass bei Festivitäten so genannter Kategorie A-Königshäuser (England, Spanien, Schweden, Niederlande) beide Sender berichten können. Als ähnlich redundant wird von Kritikern die zeitgleiche Übertragung von Silvesterkonzerten gewertet (Brauck 2011), diese Praxis wurde 2012 beendet. •

Als Verschwendung getadelt wurde auch die Marketingkampagne der ÖffentlichRechtlichen für den neuen Rundfunkbeitrag, kritisiert wurde zudem die mangelnde Transparenz über die Kosten dieser Kampagne (Neuerer 2013).

Solche ineffizienten Verhaltensweisen entstehen zumeist dort, wo keine Kongruenz von Mittelverantwortung und Haftung vorliegt, und wo die Folgen einer mangelnden Unternehmensführung nicht von den Anteilseignern, dem Management und den Beschäftigten selbst getragen werden. Die Fülle der Beispiele deutet darauf hin, dass auch hier falsche Anreize vorliegen, die später diskutiert werden sollen.

5. Umstrittene Finanzierung Auch die Finanzierung des öffentlich-rechtlichen Rundfunks ist umstritten, sowohl was die Mittelaufbringung als auch die Ermittlung des Mittelbedarfs angeht. Die Mittelaufbringung erfolgt seit Beginn des Jahres 2013 über den Rundfunkbeitrag (§ 13a RÄStV), also eine de-facto-Kopfsteuer, die nicht mehr auf den Besitz von Geräten, sondern auf Wohnungen, Betriebsstätten und Kfz abstellt - unabhängig von Einkommen oder Nutzungsgewohnheiten. Ökonomisch betrachtet handelt es sich eindeutig um eine Steuer, ob dies auch juristisch so zu sehen ist, wird wohl vor Gericht entschieden. Sollten diese zu dem Ergebnis kommen, dass es sich um eine Steuer handelt, so wäre diese verfassungswidrig, da die Länder nicht befugt sind, eine solche Steuer zu erheben (o.V. 2013f). Verteilungspolitisch ist diese Abgabe weder aus Sicht der Äquivalenz noch aus Sicht der Leistungsfähigkeit sinnvoll: So bestimmt sich die Gebühr nicht über die individuelle Leistungsfähigkeit des Einzelnen, sondern ist unabhängig davon, was zu einer stark regressiven Wirkung der Abgabe führt - je leistungsfähiger ein Gebührenzahler ist, umso geringer ist der prozentuale Anteil der Haushaltsabgabe am Gesamteinkommen. Auch aus Sicht der Äquivalenz ist diese Gebühr nicht adäquat, da sie jeglichen Zusammenhang zwischen (sowohl potentieller als auch tatsächlicher) Nutzung und der Zahlung ignoriert. Alleine die Tatsache, dass jeder Bürger, unabhängig von Einkommen, Familienstand und unabhängig davon, ob er ein Empfangsgerät besitzt, den gleichen Beitragssatz zahlen muss, hat zu Unmut in der Bevölkerung gefuhrt. Kritik kommt auch aus der Wirtschaft, die deutliche Mehrbelastungen beklagt - der Autovermieter Sixt rechnet vor, dass auf die deutschen Unternehmen bis zu 950 Mio. Euro an Mehrkosten zukommen könnten (Fuest 2013). Die Öffentlich-Rechtlichen gestehen zwar zu, dass in einzelnen Branchen Mehrbelastungen entstehen könnten, glauben aber, dass in der Summe die Unternehmen entlastet werden (Eicher 2012).

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

235

Ein weiteres Problem dieser Abgabe wird darin gesehen, dass diese bei Unternehmen auch auf die Zahl der Betriebsstätten abstellt. Betriebe mit vielen kleinen Niederlassungen vor Ort, so das Argument, werden dadurch übermäßig belastet. Vor allem für Kommunen kann es zu deutlichen Mehrbelastungen kommen, weswegen einige von ihnen einen Boykott der Abgabe in Erwägung ziehen (o.V. 2013g). Zusätzlich hängt die Höhe der neuen Gebühr auch von der Anzahl der Beschäftigten ab, was vor allem Betriebe mit vielen Teilzeitbeschäftigten - beispielsweise den Einzelhandel - benachteiligt. Ein weiteres, älteres Problem neben der Mittelbeschaffung ist das Verfahren, mit dem der Mittelbedarf der Öffentlich-Rechtlichen bestimmt wird. Vereinfacht gesagt melden die Anstalten ihren Bedarf bei der Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten (KEF) an; diese überprüft diese Anmeldung fachlich und stellt den Finanzbedarf der Anstalten fest - unter Berücksichtigung der Programmautonomie der Rundfunkanstalten (§ 3 Rundfunkfinanzierungsstaatsvertrag, RFinStV). Die Kommission überprüft, ob die Programmentscheidungen sich im Rahmen des rechtlich umgrenzten Rundfunkauftrages bewegen und ob der daraus abgeleitete Finanzbedarf im Einklang mit den Grundsätzen von Wirtschaftlichkeit und Sparsamkeit ermittelt wurde. Der von der Kommission ermittelte Vorschlag für den Finanzrahmen muss von den Landesregierungen und Landesparlamenten gebilligt werden; wollen diese vom Gebührenvorschlag der KEF abweichen, so müssen sie diese begründen (Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten 2013). Dieses Verfahren ist mit Blick auf die Wirtschaftlichkeit der Mittelfeststellung als problematisch zu erachten und zeigt die typischen Probleme zentral verwalteter und geplanter Wirtschaftsprozesse (vgl. auch Ludwig 2009): •

Man muss davon ausgehen, dass es im Vorfeld der Bedarfsermittlung zu strategischen Bedarfsmeldungen kommt: Da man weiß, dass die angemeldeten Bedarfe wahrscheinlich gekürzt werden, meldet man einen höheren Bedarf an als nötig. Man muss davon ausgehen, dass die KEF nie den korrekten Mittelbedarf gemeldet bekommt - mit allen Folgen für die anschließende Planung.



Einmal zugewiesene Mittel müssen ausgegeben werden, unabhängig davon, ob diese Ausgaben auch nötig wären, da man sonst furchten muss, dass man bei der nächsten Zuweisung die Mittel gekürzt bekommt. In öffentlichen Verwaltungen spricht man vom Dezemberfieber, wenn zum Ende des Jahres noch restliche Budgetposten ausgegeben werden müssen.



Fraglich ist, inwieweit über diesen Budgetprozess auch politische Einflussnahme auf die Sender erfolgen kann. Vordergründig besteht diese Möglichkeit, da in letzter Instanz die Länderparlamente den Vorschlag der KEF billigen - hier besteht die Möglichkeit, politischen Druck auszuüben. Hier tut sich ein Dilemma auf: Je weniger sich die Politik in die Bestimmung der Einnahmen der Sender einmischt, umso mehr muss man befurchten, dass die Einnahmen von Faktoren bestimmt werden, die eher mit dem Finanzhunger großer Institutionen als den Erfordernissen einer sich wandelnden Rundfunklandschaft bestimmt werden. Je mehr aber die Politik das Einnahmengebahren der Sender überwacht, umso größer wird die Gefahr staatlichen Einflusses.

236 •

Hanno Beck und Andrea Beyer

Aber auch die gegenteilige Ansicht ist plausibel: Solange die Bürger den Rundfunkbeitrag oder dessen Erhöhung nicht den Politikern anlasten, besteht für die Politik wenig Anlass, überzogene Gebührenerhöhungen abzulehnen, zumal eine solche Ablehnung als Versuch politischer Einflussnahme gewertet wird. In diesem Fall wäre eine Bremse für den Finanzhunger der Sender wirkungslos.

Aufgrund dieser Überlegungen kann man davon ausgehen, dass eine Anpassung des Mittelbedarfes nur nach oben erfolgen wird - Sparpotentiale im Rundfunk werden im Zweifelsfall vermutlich nicht in eine sinkende Abgabenbelastung für die Bürger umgesetzt, sondern allenfalls zu einer Ausweitung der öffentlich-rechtlichen Tätigkeiten bei mindestens gleichbleibendem, wenn nicht steigendem Budget. Auch muss man vermuten, dass diese Vorgehensweise zu Ermittlung des Mittelbedarfes nicht ausreichend geeignet ist, Verschwendung und Ineffizienz zu verhindern. Unter dem Strich ist festzuhalten, dass weder die Art der Mittelaufbringung noch die Methode der Mittelbestimmung aus Sicht der Allokation und Distribution sonderlich zielführend sind. Verbesserungsvorschläge sollen im fünften Abschnitt diskutiert werden.

6. Wettbewerbsverzerrungen durch die Öffentlich-Rechtlichen Eine wettbewerbliche Wirtschaftsordnung lebt von Konkurrenz, und Konkurrenz lebt davon, dass die Spielregeln für alle Beteiligten gleich sind. Insofern muss man davon ausgehen, dass die Existenz eines großen Mitspielers, der nicht an die üblichen Regeln des Wettbewerbs gebunden ist, zu schweren Verwerfungen auf dem Markt führt. Die Öffentlich-Rechtlichen sind mit ihren garantierten Einnahmen und ihrer Existenzgarantie ein Fremdkörper in einem marktwirtschaftlichen System, was in zwei Bereichen zu Wettbewerbsverzerrungen führt: Beim Wettbewerb auf dem Markt für Rundfunkdienstleistungen und beim Wettbewerb um den Markt im Internet. Was den Wettbewerb auf dem Rundfunkmarkt angeht, so liegt nahe, dass die Existenz eines derart großen Spielers, mit einer staatlichen Einnahmen- und Überlebensgarantie ausgestattet, den Wettbewerb verzerrt (vgl. bspw. Armstrong 2005). Diese Verzerrung dürfte auf zwei Wegen erfolgen: Zum einen sind die ÖffentlichRechtlichen direkte Konkurrenten der privaten Sender, wenn es um die Gelder der Werbeindustrie geht; jeder Euro an Werbeeinnahmen, der an ZDF und ARD geht, ist ein potentieller Euro, der den Privaten verloren geht. Zum anderen ist auch jeder Zuschauer, der die Öffentlich-Rechtlichen einschaltet, ein Zuschauer, der potentiell den privaten Sendern verloren geht - was deren Reichweite und damit deren Werbeeinnahmen reduziert. Eine weitere - indirekte - Folge der Existenz der ÖffentlichRechtlichen für die Privaten könnte darin bestehen, dass die Nachfrage von ZDF und ARD nach bestimmten Sendeinhalten oder Vorleistungen deren Preise in die Höhe treiben - zum Nachteil der Privaten. Da die Nachfrage der Öffentlich-Rechtlichen aufgrund ihrer geringeren Restriktionen bei der Finanzierung eher preisunelastisch sein dürfte, ist dieser Effekt nicht zu unterschätzen. Als Beispiel kann man hier auf den Erwerb der Sportrechte verweisen. Im schlimmsten Fall bedeutet das öffentlich-rechtliche Angebot, dass das private Angebot zurückgeht, mit der Folge, dass der Wettbewerb in der Rundfunkbranche

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

• 237

leidet. Das aktuelle Oligopol in der deutschen Rundfunklandschaft könnte damit auch eine direkte Konsequenz aus der Existenz der Öffentlich-Rechtlichen sein. Dass es keinen privaten Sender mit eher kulturell gehobenen Inhalten gibt, erklärt sich vermutlich aus der Existenz von Sendern wie Arte oder 3Sat - der Markt für solche Inhalte ist zu klein, als dass er noch einen weiteren privaten Sender in dieser Nische ernähren könnte. Unter dem Strich fuhrt das zu dem paradoxen Resultat, dass die Existenz der Öffentlich-Rechtlichen zur (ungerechtfertigten) Rechtfertigung für deren Existenz wird: Wenn es aufgrund der Existenz der Öffentlich-Rechtlichen erstens weniger Sender gibt und zweitens nur Sender, die weniger anspruchsvolle Inhalte senden, dann kann die Politik mit dem Verweis auf diese verarmte Rundfunklandschaft die Existenz des öffentlichrechtlichen Rundfunks rechtfertigen. Ebenfalls zu Wettbewerbsverzerrungen mit dem privaten Sektor kommt es im Bereich des Internet: Auch hier muss man befurchten, dass ein öffentlich-rechtliches Angebot, mit tiefen Taschen ausgestattet, private Unternehmen aus dem Geschäft drängt. Hier geht es vor allem um die Print-Verlage, die sich derzeit ein neues Geschäftsmodell im Internet aufbauen müssen. Exemplarisch für diese Probleme ist der Streit um die sogenannte „Tagesschau"-App, bei der es im Kern darum geht in welcher Form die öffentlich-rechtlichen Sender ihre journalistischen Angebote im Internet ausbauen dürfen, ohne zu einer Konkurrenz für die privaten Zeitungsverlage zu werden (Hanfeld 2012; Wellenreuther 2011). Die Zeitungsverlage halten eine gebührenfinanzierte, presseähnliche Berichterstattung im Internet für wettbewerbswidrig (BDZV 2011), der Rundfunkstaatsvertrag sieht vor, dass der inhaltliche Schwerpunkt in fernsehähnlichen und nicht in presseähnlichen Angeboten liegen soll (§ 1 ld, Abs. 2, Nr. 3 RÄStV). Die Folge dieser Bestimmungen ist ein permanenter (und absurder) Streit darüber, ob die Internet-Berichterstattung der Öffentlich-Rechtlichen zu textlastig ist und damit den Zeitungen unerwünschte Konkurrenz im Internet macht. Abgesehen davon, dass dieser Ansatz, ein Angebot auf seine - wie auch immer definierte - Textlastigkeit zu überprüfen, wenig erfolgversprechend ist, verkennt diese Debatte, dass sich das Mediennutzungsverhalten in den kommenden Jahren ändern dürfte: Da aufgrund der technischen Möglichkeiten die Internet-Berichterstattung mit Videos und anderen animierten Angeboten einhergehen kann, muss man vermuten, dass die Konsumenten diese Angebote auch nutzen werden - die Zeitung von Morgen wird vermutlich animierte Angebote machen müssen. Wollen die Print-Verlage also mit Hilfe eines neuen Geschäftsmodells den durch das Internet bedingten Niedergang des Print-Geschäftes kompensieren, so werden sie immer mehr davon abkommen, reine Textsammlungen ins Internet zu stellen. Das bedeutet, dass jedes öffentlich-rechtliche Angebot im Internet zu einer subventionierten Konkurrenz für die Print-Branche wird und damit zu einer Bedrohung für die Vielfalt der deutschen Verlagslandschaft. Und je höher die Substitutionselastizität zwischen öffentlich-rechtlichen Angeboten und privaten Verlagsangeboten im Internet ist, umso größer wird dieses Problem. Man muss die Frage stellen, ob man auch noch in Zukunft sauber zwischen Fernsehen und Internet trennen kann (Gerlach 2011) - ist dies aber infrage gestellt, dürfte das gesamte öffentlich-rechtliche Rundfunksystem aus den Fugen geraten.

238

Hanno Beck und Andrea Beyer

IV. Mangelnde Anreize im Öffentlich-Rechtlichen Rundfunk: Eine ordnungspolitische Betrachtung Unter dem Strich muss man konstatieren, dass der öffentlich-rechtliche Rundfunk die an ihn von der Politik gestellten Erwartungen nur unzureichend erfüllt: Weder ist er frei von Einflüssen der Werbewirtschaft und der Politik, die Inhalte entsprechen nicht immer dem, was man sich als Qualitätsstandard von ihnen erwartet, die Unternehmensführung weist zahlreiche Mängel auf, und nicht zuletzt gebricht es den Anstalten an adäquaten Anreizen zur Wirtschaftlichkeit. Bei genauerer Betrachtung zeigt sich, dass es hier vor allem um mangelhafte oder falsche Anreize geht: Wenn die Öffentlich-Rechtlichen keinem oder nur unzureichendem Wettbewerb ausgesetzt sind und ihr Mittelaufkommen nicht von ihrer Leistung abhängt, so ergeben sich daraus automatisch die oben angesprochenen Punkte: Wer keine Konsequenzen aus Schmiergeldskandalen und Betrugsfällen zu fürchten hat, trifft unzureichende Vorkehrungen dagegen, wer garantierte Mittel hat, muss nicht gegen Verschwendung vorgehen, wer nicht die Reaktion der Kunden, also des Publikums, fürchten muss, sendet an den Wünschen des Publikums oder der Auftraggeber vorbei. Diese Existenz- und Einnahmengarantie der Öffentlich-Rechtlichen widerspricht dem Euckenschen Grundsatz der offenen Märkte (Eucken 1952/90), sie führt - wie im vorherigen Abschnitt gezeigt - darüber hinaus zu einer Verzerrung des Wettbewerbs. Hier liegt auch eine der wesentlichen Ursachen der Probleme der ÖffentlichRechtlichen: Der öffentlich-rechtliche Sektor ist keinem Wettbewerbsdruck ausgesetzt insofern überraschen die hier aufgezeigten Mängel des öffentlich-rechtlichen Rundfunks nicht sonderlich, ist es doch der Druck des Wettbewerbs, der für eine sorgfaltige Verwendung der Mittel ebenso sorgt wie für eine solide Geschäftsführung, die Korruptionsund Schleichwerbungsskandale scheut. Das Argument, dass die zunehmende Tendenz der Öffentlich-Rechtlichen zu „weichen" Inhalten ein Beleg für die Existenz von Wettbewerb sei, muss angezweifelt werden: Es ist nicht einleuchtend, warum man bei garantierten Einnahmen und Werbeeinnahmen, die im Verhältnis zu diesen garantierten Einnahmen eher gering sind, sich dem Wettbewerb stellen muss. Die höhere Quote „seichter" Inhalte bei Öffentlich-Rechtlichen dürfte eher dem Bemühen der Sender geschuldet sein, die Akzeptanz beim Publikum zu wahren. Wer bei nahezu acht Milliarden Euro Einnahmen zu geringe Quoten aufweist, hat rasch ein Rechtfertigungsproblem. Hier zeigen sich die Grenzen des meritorischen Prinzips: Man kann nicht dauerhaft in großem Ausmaß gegen die Präferenzen der Bürger verstoßen. Ebenfalls verletzt wird bei der Gestaltung des öffentlich-rechtlichen Rundfunks das Prinzip der Vermeidung von Haftungsbeschränkungen und der Einheit von Gestaltungsmacht und Haftung (Eucken 1952/90): Wer mit anderer Leute Geld Rundfunk macht und zudem für gute Leistungen nicht in Form eines höheren Einkommens (oder Gewinns) belohnt wird, wird bei der Verwendung der Mittel und Auswahl der Sendeinhalte automatisch andere Schwerpunkte setzen, die nicht immer wohlfahrtserhöhend respektive erwünscht sind. Und wer für Verluste aus schlechter oder unwirtschaftlicher Geschäftsführung nicht geradestehen muss, wird sich wenig darum kümmern, solchen Handlungsweisen einen Riegel vorzuschieben. Dieses Prinzip gilt es zu beachten, wenn kleinere, mikroökonomische Reformschritte diskutiert werden.

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

239

In seiner jetzigen Form erfüllt die öffentlich-rechtliche Rundfunklandschaft auch nicht das Prinzip der Begrenzung der Macht von Interessengruppen (Eucken 1952/90): Wie gezeigt, finden sich zahlreiche Beispiele der Einflussnahme von Wirtschaft und Politik; ein derart großer und mächtiger Apparat mit einer derartigen medialen Breitenwirkung lädt geradezu dazu ein, Einflussnahme zu suchen. Bei einer mehr wettbewerblich ausgerichteten Rundfunklandschaft mit mehreren, kleineren Akteuren wäre diese Gefahr vermutlich geringer; zudem können es sich gewinnorientierte Sender weniger leisten, von den Konsumenten als Sprachrohr der Industrie oder Politik wahrgenommen zu werden. Wettbewerb ist eines der wirksamsten Mittel zur Begrenzung politischer und wirtschaftlicher Macht. Unter dem Strich zeigt sich, dass die Probleme, mit denen der öffentlich-rechtliche Rundfunk zu kämpfen hat, letztlich aus der Tatsache resultieren, dass er nicht dem Druck des Wettbewerbs ausgesetzt ist. Hier allerdings tut sich ein Problem auf: Die Inhalte, welche die Öffentlich-Rechtlichen senden sollen, zeichnen sich nach Meinung ihrer Befürworter ja gerade dadurch aus, dass sie sich dem Druck des Marktes entziehen sollen - es soll sich ja nach normativer Vorgabe gerade um solche Inhalte handeln, von denen man vermutet, dass sie bei funktionierendem Wettbewerb im Mediensektor nicht angeboten werden. Dieses Argument muss man kritisch sehen: Erstens ist dies eine rein normative Forderung, der man sich nicht anschließen muss und zweitens ist es eine Anmaßung von Wissen, zu behaupten, dass diese Inhalte bei Wettbewerb nicht angeboten werden - es käme auf einen Versuch an. Und sollten diese Inhalte vom Publikum nicht gewünscht sein, so muss man sich fragen, warum man sie weiter senden will - obwohl sie niemand sehen will und man die Zuschauer oder Zuhörer nicht dazu zwingen kann, einzuschalten. Aus rein ökonomischer Perspektive liegt die Lösung der Probleme des öffentlichrechtlichen Rundfunks auf der Hand - eine wettbewerbliche Ordnung des Rundfunkwesens ohne Anstalten mit einer staatlichen Überlebensgarantie. Allerdings darf man sich hier nicht den politischen Realitäten verweigern: Zum einen ist der Bestand der Öffentlich-Rechtlichen durch das Verfassungsgericht abgesichert (6. Rundfunkurteil, WDR-Urteil, 5.2.1991), zum anderen kann man deren Existenz auch als Ausdruck eines demokratischen Willens interpretieren - auch wenn sich an vielen Orten Widerstand regt. Doch mit Blick auf die staatspolitischen Prinzipien Euckens muss das nicht bedeuten, dass man dies alles so hinnehmen muss, ist doch bei der Organisation des öffentlich-rechtlichen Rundfunks eines dieser Prinzipien eklatant verletzt worden: Das Prinzip der Beachtung des Subsidiaritätsgrundsatzes bei der Übernahme neuer Aufgaben und des Vorrangs der Ordnungs- vor der Ablaufpolitik (Eucken 1952/90). Der politisch motivierte Wunsch nach meritorischen Inhalten in der Rundfunklandschaft zieht nicht zwingend die Notwendigkeit eines quasi-staatlichen Rundfunkwesens nach sich; hier gilt es, den diskretionären Spielraum des Staates einzuschränken und eine Rundfunkrahmenordnung zu finden, die hinreichend Anreize setzt, ohne das Ziel einer Versorgung mit den gewünschten Inhalten dabei aus den Augen zu verlieren. Diese Idee soll im folgenden Abschnitt weiter vertieft werden.

240

Hanno Beck und Andrea Beyer

V. Öffentlich-Rechtlicher Rundfunk: Eine Reformagenda 1. Mikroökonomische Reformen: Qualitätsmanagement und Corporate Governance Die obigen Ausfuhrungen machen deutlich: Die Existenz des öffentlich-rechtlichen Rundfunks wird vor allem damit gerechtfertigt, dass er qualitativ bessere Inhalte liefere, welche bei reinen Marktmechanismen nicht immer zu erwarten seien. Doch gemessen an dieser Begründung bietet der öffentlich-rechtliche Rundfunk ein schlechtes Bild - er wird diesem Anspruch, aus dem er seine Existenzberechtigung zieht, selbst nicht gerecht. Was also kann getan werden? Favorisiert man statt einer umfassenden Reform des Systems des öffentlichrechtlichen Rundfunks kleine Schritte, so wäre ein erster Ansatz, das Qualitätsmanagement und die Unternehmensfuhrung in den öffentlich-rechtlichen Sendern zu verbessern. Beim Qualitätsmanagement geht es vor allem darum, die Arbeitsabläufe und Anreize innerhalb der Redaktionen so zu verbessern, dass man Probleme wie unter Punkt III beschrieben vermeidet. Unter anderem werden hier folgende Vorschläge diskutiert (vgl. dazu bswp. auch Wyss 2000): •

Nicht-monetäre Maßnahmen sind beispielsweise teamorientierte Redaktionsorganisation, Blatt- bzw. Sendungskritik, Redaktionsleitbilder, Ethik-Kodizes, Qualifikationsgespräche und Mitarbeiterweiterbildung.



Monetäre Anreize sind Bonuszahlungen oder Leistungsziele, aber auch Auszeichnungen oder Beförderungen.

All diese Maßnahmen werden von den Öffentlich-Rechtlichen mehr oder weniger auch genutzt - alleine hat dies nicht geholfen, solche Vorkommnisse wie die in Abschnitt III dargestellten Fälle zu verhindern. Eine senderinterne Kontrolle dürfte also nicht in der Lage sein, diese Probleme in den Griff zu bekommen - wie sieht es mit einer externen Kontrolle der Sender aus? Zu den Spielarten externer Kontrolle journalistischer Arbeiten zählen: •

Institutionen wie der Deutsche Presserat, der Missstände im Pressewesen feststellen und auf deren Beseitigung hinwirken soll (Deutscher Presserat 2013) oder senderinterne Aufsichtsgremien wie beispielsweise der Fernsehrat,



Einrichtungen wie Ombudsmänner, die entweder innerhalb der Redaktion oder von außen bestimmt werden (Evers 2003),



Medien-Blogs (z.B. carta.info, indiskretionehrensache.de, stefan-niggemeier.de), die sich mit der Aufarbeitung und kritischen Begleitung journalistisch produzierter Inhalte beschäftigen (Meyer et al. 2008), sowie



eine kritische, interessierte Öffentlichkeit.

Die Wirksamkeit dieser Institutionen wird in vielerlei Hinsicht angezweifelt: Der Presserat ist eine auf Branchenebene organisierte Selbstkontrolle und wird erst auf Anfrage aktiv, seine Wirksamkeit wird - auch von Journalisten - stark hinterfragt (Reinemann 2010), Medien-Blogs leben noch überwiegend von der intrinsischen Motivation ihrer Betreiber, ebenso wie die Kontrollfunktion der Öffentlichkeit nur in sehr massiven Fällen greift.

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

• 241

Letztlich muss man konstatieren, dass eine systematische, externe Qualitätskontrolle des öffentlich-rechtlichen Rundfunks nicht erfolgt. Ein erster Schritt, den Qualitätsdruck auf die Öffentlich-Rechtlichen zu erhöhen, besteht nach Auffassung der Privatsender darin, die öffentlich-rechtlichen Sender ARD und ZDF einer gemeinsamen Aufsicht mit den privaten Sendern zu unterwerfen, die von den Landesmedienanstalten kontrolliert werden. Derzeit, so die Kritik, würden Verstöße der Öffentlich-Rechtlichen, beispielsweise gegen Werberichtlinien, nicht sanktioniert (Steinkirchner 2013). Ein weitergehender Schritt wäre es, eine unabhängige Institution zur Überprüfung von Sendeinhalten beispielsweise in Form einer Stiftung zu schaffen, deren Mittelaufkommen sich anreizkompatibel nach Anzahl der aufgedeckten Verfehlungen bemisst; deren Budget könnte man auch aus den Mitteln für den öffentlich-rechtlichen Rundfunk bestreiten. Ein solcher Vorschlag ist grundsätzlich interessant, bedarf aber sicherlich weiterer Diskussion (vgl. Jarren 1999, S. 160). Weitere Reformmaßnahmen, die auf mehr Qualität und gute Unternehmensführung hinwirken könnten, wäre eine höhere Transparenz der Öffentlich-Rechtlichen in Bezug auf Kosten für Sendungen und Formate, Honorare und Gehälter, Gremiensitzungen und -entscheidungen sowie die Auftragsvergabe (vgl. dazu auch Wolf 2013; o.V. 2013h). Mit Blick auf die Frage nach der Qualität der Inhalte kann man davon ausgehen, dass es hier wenig Möglichkeiten für Reformoptionen gibt, da jeder Eingriff in die Programmautonomie der Sender als Angriff auf deren privilegierte Stellung aufgefasst werden kann - insofern muss man vermuten, dass die meisten Versuche, hier etwas zu reformieren, fehlschlagen werden. Damit kommt (leider) jegliche Form des Ausschlusses oder der Reduktion bestimmter Formate, die man als nicht-meritorisch erachten könnte, vermutlich nicht in Frage (ohne dabei die Frage zu diskutieren, welche Inhalte meritorisch oder nicht meritorisch sind). Was die Unternehmensführung angeht und die in Abschnitt III.3 und III.4 diskutierten Fälle, so kann man hier auch grundsätzlich das gesamte Instrumentarium der Corporate Governance und der Management-Wissenschaften heranziehen und diskutieren (zum Medienmanagement vgl. bspw. Gläser 2008; Gerlach 2011) - wenngleich man vermuten muss, dass dieses Instrumentarium bei den Öffentlich-Rechtlichen bekannt ist und auch angewendet wird. Dies wäre die Aufgabe eines anderen Beitrages. Der entscheidende Punkt, der hier betont werden muss, ist, dass letztlich der fehlende Wettbewerb solche Vorkommnisse ermöglicht, die im vierten Abschnitt diskutiert wurden. Die Gefahr, durch ineffizientes Wirtschaften, schlechte Berichterstattung oder Skandale aus dem Markt auszuscheiden, ist einer der wichtigsten Anreize in Marktwirtschaften, ein Anreiz, der den Öffentlich-Rechtlichen fehlt. Insofern werden die hier diskutierten Optionen die grundsätzlichen Probleme der Öffentlich-Rechtlichen nicht beseitigen.

242

Hanno Beck und Andrea Beyer

2. Reform des Finanzierungssystems Die Ausführungen unter Abschnitt III. 5 haben deutlich gemacht, dass man auch über eine Reform des Finanzierungssystems nachdenken muss (zur Debatte der Finanzierung des öffentlich-rechtlichen Rundfunks auf europäischer Ebene vgl. Lowe, Berg 2013). Die erste naheliegende Maßnahme muss ein Werbeverbot für die öffentlich-rechtlichen sein (o.V. 2013i) - es leuchtet nicht ein, dass man einen öffentlich-rechtlichen Rundfunk installiert mit dem Argument, dass privater Rundfunk von Werbeinteressen getrieben wird, um dann selbst Werbung zu machen. Ob der damit verbundene Einnahmenrückgang durch höhere Gebühren kompensiert werden soll, ist eine politische Frage (man könnte auch ein langsames, zeitlich gestrecktes Aussteigen aus der Werbefinanzierung erörtern, um die Folgen des Einnahmenausfalls zu lindern). Ein Werbeverbot und ein Verbot von Sponsoring sind logisch zwingend und verhindern zumindest einige der Auswüchse, die unter Abschnitt III. 1 beschrieben wurden. Darüber hinaus beseitigen diese Verbote die in Abschnitt III.6 beschriebenen direkten Wettbewerbsverzerrungen auf dem Markt für die werbetreibende Industrie. Was die Mittelaufbringung angeht, so wäre ein weiterer, naheliegender Reformschritt, die Mittel für den öffentlich-rechtlichen Rundfunk aus dem allgemeinen Steueraufkommen bereitzustellen. Eine solche Mittelbereitstellung wäre billiger, effizienter und verteilungspolitisch wesentlich unproblematischer als die aktuelle de-factoKopfsteuer. Und solange die Bestimmung des Mittelbedarfs strikt getrennt ist von der Mittelbereitstellung, wäre dies auch kein Problem für die Unabhängigkeit der Öffentlich-Rechtlichen. (vgl. Beck, Beyer 2013; European Broadcasting Union 2000) Was die Bestimmung des Mittelbedarfs angeht, so gäbe es hier die Alternative, den Mittelbedarf der Öffentlich-Rechtlichen über einen oder verschiedene Indikatoren wie die Inflationsrate, eine medienbranchenspezifische Inflationsrate oder die Medienbudgets anderer Sender zu bestimmen. Jede dieser Optionen hat ihre Vor- und Nachteile, weswegen ein gemischtes Indikatorensystem eine Überlegung wert wäre. Dieses System muss sicherstellen, dass die Unabhängigkeit der Sender gewahrt bleibt, dass ihre verfassungsrechtlich garantierte Bestandsgarantie erhalten bleibt und das Mittelaufkommen sich flexibel an ändernde Bedarfe in der Rundfunkbranche anpassen kann nach oben, aber auch nach unten. Auch den Produktivitätszuwachs in der Medienbranche könnte man berücksichtigen. Fenn et al. (2009) zeigen, wie man diese auch im Rundfunk messen kann und argumentieren folgerichtig, dass ein Teil des Mittelbedarfs aus Produktivitätszuwächsen gedeckt werden könnte. Mit Blick auf die fehlenden Anreize im öffentlich-rechtlichen Rundfunk kann man hier noch zwei Ideen diskutieren: Zum einen könnte eine Spendenfinanzierung des öffentlich-rechtlichen Rundfunks zumindest eine zusätzliche, flexible Einnahmenkomponente schaffen, die Anreize zu sorgfaltigem Arbeiten schafft. Weiterhin wäre eine solche Option aus Verteilungsgesichtspunkten ebenso positiv zu beurteilen wie mit Blick auf die Frage politischer Einflussnahme - eine einzelne Einnahmenquelle beinhaltet stets das Risiko politischer Einflussnahme und gemischte Einnahmensysteme sind robuster, was langfristige strukturelle Veränderungen in der Rundfunklandschaft angeht (European Broadcasting Union 2000). Auch dieser Vorschlag bedarf einer weiteren Debatte und muss detailliert ausgearbeitet werden (vgl. Beck, Beyer 2013).

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

243

Eine letzte Maßnahme bei der Reform des Finanzierungssystems wäre es, den Sendern entstehende Verluste aus schlechter Unternehmensführung bei der Ermittlung des Mittelbedarfs abzuziehen, ebenso wie man bei Bekanntwerden von falschen Berichten oder anderen Skandalen Kürzungen der Mittel vornehmen könnte. Dies wäre eine wirksame finanzielle Sanktion im Falle eines Fehlverhaltens, die die Bestrafungsfunktion der Märkte imitiert und somit den Ideen der Ordnungspolitik entspricht. Tabelle 2: Rundfunkfinanzierung in ausgewählten Ländern Land

Ausprägung

Vereinigte Staaten

Staatliche Zuschüsse, Zuschauerabos und -spenden, Zuschüsse von Unternehmen

Neuseeland

Regierung stellt Mittel bereit; staatlich finanzierte Gesellschaft NZ on Air zahlt für Sendeinhalte

Österreich

Finanzierung über Gebühren und Werbung in begrenztem Ausmaß; eigene Rundfunkgesellschaft

Spanien

Finanzierung über Steuern, die v.a. Telekommunikationsunternehmen und Pay-TV-Sender entrichten

Vereinigtes Königreich

Finanzierung über Gebühren und kommerzielle Aktivitäten der Rundfunkgesellschaft BBC, keine Werbung. Höhe der Gebühr wird von der Regierung festgelegt.

Frankreich

Finanzierung über Steuer auf Fernsehwerbung, die in den Privatsendern ausgestrahlt wird, weitere Steuer auf Betreiber von elektronischer Kommunikation und Fernsehgebühren; keine Werbung. Mittelbestimmung durch das Parlament.

Australien

Keine Werbung (Ausnahme für den Sender SBS), Aufkommen wird vom Parlament festgelegt.

Südafrika

Finanzierung durch Werbung, Sponsoring, Zuweisungen, Schenkungen und Gebühren.

Quellen: Mendel (2011); Congress of the United States (1975); Ministry for Culture and Heritage (1989, 2011); o.V. (2001); o.V. (2008b); Department for Culture, Media and Sport (2006); o.V. (2009e); Europäische Kommission (2011); Norris, Pauling (2012); Beck, Beyer (2013).

Ein Überblick über die Organisation des öffentlich-rechtlichen Rundfunks in ausgewählten Staaten zeigt, dass grundsätzlich alle Arten der Finanzierung auch in Mischformen betrieben werden (für eine vergleichende Analyse vgl. auch Kops 2001). Das Ausmaß der direkten Förderung ist dabei recht unterschiedlich, es reicht in 2008 (vgl. Nielsen, Linnebank 2011) von 779 Millionen Euro (Vereinigte Staaten) über 1,6 Milliarden Euro (Italien), 3 Milliarden (Frankreich) bis hin zu 7,3 Milliarden Euro (Deutschland). Die Aufsicht erfolgt in allen Systemen sowohl ex ante als auch ex post über Beiräte, Expertengremien oder durch die Parlamente (vgl. Bron 2010). In dem Ausmaß, in dem die Einnahmen nicht am Markt und im Wettbewerb erwirtschaftet werden, sind sie einer effektiven Mittelkontrolle entzogen. Die letzten Bemerkungen zeigen wiederum, dass die Ursache der im dritten Abschnitt diskutierten Fehlentwicklungen letztlich wieder der fehlende Marktdruck ist - die Achillesferse des öffentlich-rechtlichen Systems.

244

Hanno Beck und Andrea Beyer

3. Großer Wurf oder kleine Schritte? Bei der Debatte um Reformoptionen für den öffentlich-rechtlichen Rundfunk ist zumeist die Rede von kleinen Schritten, von denen einige bereits in den vorherigen Abschnitten diskutiert worden sind. Weitergehende Reformansätze sind (vgl. auch o.V. 2012): •

Eine Verschmelzung von ARD und ZDF, das würde die Anzahl der Dopplungen reduzieren und Effizienzsteigerungen mit sich bringen. Eine schwächere Variante dieses Ansatzes ist die von der ARD vorgeschlagene Reduktion der Digitalkanäle (ARD 2013).



Wenig in der Debatte ist der Verkauf der unter III.4 erwähnten auftragsfernen Geschäftsfelder - eine einfache, logische und effiziente Maßnahme.



Ebenfalls diskutiert wird die Abschaffung der GEZ, die Gebühren könnten, so die Idee, beispielsweise durch die Finanzämter eingetrieben werden.

All diese Maßnahmen sind eher kleine Schritte und ändern nichts an dem ursächlichen Problem des öffentlich-rechtlichen Rundfunks. Wie herausgearbeitet, ist der Mangel an Wettbewerb und der dadurch fehlende Wettbewerbsdruck eine der Hauptursachen aller Probleme der Öffentlich-Rechtlichen: Wer nicht unter Konkurrenzdruck steht und garantierte Einnahmen hat, vernachlässigt die Sorgfalt in der Produktion ebenso wie in der Unternehmensfuhrung. Da zudem funktionierender Wettbewerb eine Mindestzahl an Marktteilnehmern erfordert, kann man davon ausgehen, dass mit mehr Wettbewerb auch mehr Pluralität und Vielfalt entstehen würde, vorausgesetzt, es kommt nicht zu einem Marktversagen aufgrund der produktionstechnischen Besonderheiten dieses Argument wurde bereits in Abschnitt II erörtert. Das Problem am öffentlich-rechtlichen Rundfunk besteht darin, dass man aufgrund des meritorischen Charakters der Sendeinhalte ja gerade den Wettbewerb ausschalten will. Die Frage ist also, wie man mehr Wettbewerb in der Medienbranche herstellen kann, ohne den verfassungsrechtlich geschützten Auftrag der Öffentlich-Rechtlichen zu gefährden. Aus ökonomischer Perspektive ist die Lösung recht einfach: Akzeptiert man das Argument der externen Effekte und der Meritorik, so müsste man die gewünschten Inhalte subventionieren, die unerwünschten Inhalte mit einer Steuer belasten. Eine Komplettversorgung mit mehr als 20 TV-Sendern und mehr als 60 Radiosendern ist durch dieses Argument nicht gedeckt (vgl. zu dieser Frage BVerfG 1986, 1987). Dieser Sachverhalt könnte ein Ansatz für eine mögliche Lösung der Organisationsprobleme sein: Der Staat konzentriert sich darauf, die - wie auch immer im politischen Prozess definierten - meritorischen Inhalte zu finanzieren, die restlichen Inhalte überlässt man der Bereitstellung durch den Markt. Ein möglicher Ansatz, der in diese Richtung zielt, wäre eine Journalismus-Stiftung, die man mit Rundfunkgebühren finanziert - von Beobachtern wird dies als erster Schritt zum Umbau der deutschen Presselandschaft in ein öffentlich-rechtliches Mediensystem gewertet (Burger 2013a und 2013b). Bemerkenswerterweise wird bei diesem Vorschlag stark die Frage der politischen Unabhängigkeit thematisiert und angezweifelt, obwohl sich wie gezeigt diese Frage auch für die Öffentlich-Rechtlichen stellt.

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

245

Ein alternativer Ansatz mit einer ähnlichen Stoßrichtung wäre die Errichtung eines allgemeinen Rundfunkfonds, der beschließt, welche Inhalte gefordert werden sollen und die Produktion und Übertragung dieser Inhalte ausschreibt - ein im öffentlichen Raum durchaus übliches Verfahren zur Produktion staatlicher Güter (Beck, Beyer 2010). In beiden Fällen - sowohl bei der Stiftung als auch beim Fonds - geht es letztlich darum, die Produktion der Inhalte in die private Wirtschaft zu verlagern, der Staat legt lediglich fest, was in welchem Umfang zu welchem Preis produziert und gesendet werden soll. Beispielhaft dafür ist NZ On Air in Neuseeland, das vom Staat finanziert, ausgewählte Sendungen fordert, wobei sich jeder um eine Förderung bewerben kann (zur Debatte um diese Struktur vgl. Norris, Pauling 2012; eine detaillierte Ausarbeitung eines Vorschlags für den deutschen Rundfunk findet sich bei Beck, Beyer 2009a und 2010). Diese Lösungen würden erstens dazu führen, dass Wettbewerb um die Produktion der Inhalte entsteht, was die Produktion effizienter macht und damit viele der in Abschnitt III diskutierten Verschwendungssymptome beseitigen würden. Die Verantwortung für Skandale, Misswirtschaft und Fehlverhalten würde in den privaten Bereich verlagert, wo sie auch hingehört. Ein Anbieter, der nicht die von der Stiftung oder dem Fonds vorgesehenen Qualitätsmerkmale erfüllt oder durch Skandale wie jene im dritten Kapitel beschrieben auffällt, wird anreizkompatibel von diesem Schema ausgeschlossen.

VI. Fazit Ökonomisch betrachtet, fernab normativer Vorstellungen, gibt es kein überzeugendes Argument für die Existenz eines öffentlich-rechtlichen Rundfunks, der pro Jahr fast acht Milliarden Euro verschlingt. Man muss allerdings aus realpolitischer Vernunft wohl akzeptieren, dass eine Abschaffung des öffentlich-rechtlichen Rundfunks derzeit nicht zur Debatte steht. Dennoch kann und muss man hinterfragen, ob der öffentlichrechtliche Rundfunk erstens das liefert, was er verspricht und ob er dieses zweitens in effizienter Form tut - in beiden Fällen zeigt die Dokumentation der Krise der Öffentlich-Rechtlichen in diesem Beitrag, dass man beide Fragen mit einem Nein beantworten muss. Die Ideen und Vorschläge für eine Verbesserung dieser Situation liegen auf dem Tisch, ihre Vor- und Nachteile tiefer zu diskutieren, muss das Ziel weiterer Beiträge sein, ihre Durchsetzung sollte das Anliegen einer Politik sein, die von sich behauptet, das Wohl der Bürger im Sinn zu haben.

Literatur Akerlof, G. (1970), The Market for „Lemons": Quality Uncertainty and the Market Mechanism, Quarterly Journal of Economics, Vol. 84, S. 488-500.

Arbeitsgemeinschaft der Landesmedienanstalten in der Bundesrepublik Deutschland (2012), Programmbericht 2011. Fernsehen in Deutschland. Programmforschung und Programmdiskurs, Vistas, Berlin 2012. ARD (2010), ARD-Richtlinien für Werbung, Sponsoring, Gewinnspiele und Produktionshilfe in der Fassung vom 12.03.2010, URL http://www.ard.de/intern/abc/-/id=1794740/property= download/nid=1643802/14g8mzr/ARDWerberichtlinien+f%C3%BCr+Werbung+und+Sponsoring+vom+M%C3%A4rz+2010.pdf

246

Hanno Beck und Andrea Beyer

ARD (2013), Konzentration, Profilierung, Kooperation: ARD schlägt grundlegende Reform der Digitalkanäle vor, ARD.de, URL http://www.ard.de/intern/ard-schlaegt-reformdigitalkanele-vor/-/id= 1886/nid= 1886/did=2918424/j8h6hi/index.html Armstrong, Mark (2005), Public Service Broadcasting, Fiscal Studies, Vol. 26, No. 3, pp. 281-299. Beck, Hanno (2011), Medienökonomie: Print, Fernsehen und Multimedia, 3. Aufl., Berlin u.a.: Springer Verlag. Beck, Hanno und Andrea Beyer (2013), Rundfunkgebühr, Haushaltsabgabe oder Rundfunksteuer? Kriterien und Optionen zur Finanzierung des öffentlich-rechtlichen Rundfunks, Publizistik 1/2013, 58. Jg., S. 69-91. Beck, Hanno, Beyer, Andrea (2010), Öffentlich-rechtlicher Rundfunk im Zeitalter der Digitalisierung, ORDO, Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft Bd. 61, S. 235-264. Beck, Hanno und Andrea Beyer (2009a), Zur Reform des öffentlich-rechtlichen Rundfunks: Ein Vorschlag, Wirtschaftsdienst, 89. Jahrgang, Heft 12, S. 827-834. Beck, Hanno und Andrea Beyer (2009b), Brauchen wir eine öffentlich-rechtliche Zeitung?, in: Dirk Wentzel (Hrsg.): Medienökonomik- theoretische Grundlagen und ordnungspolitische Gestaltungsalternativen, Stuttgart: Lucius & Lucius, S. 75-100. Beyer, Andrea und Petra Carl (2012), Einfuhrung in die Medienökonomie, 3. Aufl., Konstanz: UVK Verlagsgesellschaft. Buchner, K. (2009), Kritik an der ARD: Schleichwerbung beim „Tatort"?, Stern.de, 2009, http://www.stem.de/kultur/tv/kritik-an-der-ard-schleichwerbung-beim-tatort-655979.html, (17.1.2013) Bundesverfassungsgericht (1961), 1. Rundfunkentscheidung (Deutschland-Fernsehen), BVerfG 12, 205 vom 28. Februar 1961. Bundesverfassungsgericht (1981), 3. Rundfiinkurteil (FRAG-Urteil), BVerfGE 57, 295 vom 16. Juni 1981. Bundesverfassungsgericht (1986), 4. Rundfunkurteil (Niedersachsen-Urteil), BVerfG 73, 118 vom 4. November 1986. Bundesverfassungsgericht (1987), 5. Rundfunkurteil (Baden-Württemberg-Beschluss), BVerfG 74, 297 vom 24. März 1987. Bundesverfassungsgericht (1991), 6. Rundfunkurteil (WDR-Urteil), BVerfG 83, 238 vom 5. Februar 1991. Brauck, Markus (2011), Gebührenverschwendung: Silvester-Doppel bei ARD und ZDF, Spiegel Online, URL http://www.spiegel.de/kultur/tv/gebuehrenverschwendung-silvester-doppel-beiard-und-zdf-a-800048.html Brauck, Markus u.a. (2013a), Das Show-Geschäft, in: Der Spiegel, Nr. 3 vom 14.01.2013, S. 56-63. Brauck, Markus (2013b), Die Aufstocker, Spiegelt. 32 vom 5.08.2013, S. 132-133. Brösel, G. (2003), Zur Daseinsberechtigung des öffentlich-rechtlichen Rundfunks, in: Zeitschrift für öffentliche und gemeinnützige Unternehmen2/2003, S. 115-132. Bron, Christian M. (2010), Financing and Supervision of Public Service Broadcasting, European legislation and current national developments concerning financial and content-related supervisionin. Public Service Media: Money for Content, European AudiovisualOberservatory, IRJS plus 2010-4; URL http://www.obs.coe.int/oea_publ/iris/iris_plus/iplus4LA_ 2010.pdf.en Brown, Allan (1996), Economics, public service broadcasting, and social values, Journal of Media Economics, Vol. 9, Issue 1, pp. 3-15. Burger, Reiner (2013a), Da muss das Misstrauen wachsen, FAZ.net, URL http://www.faz.net/aktuell/feuilleton/medien/pressefinanziemng-durch-rundfunkgebuehr-damuss-das-misstrauen-wachsen-12168734.html Burger, Reiner (2013b), So wird die Zeitung öffentlich-rechtlich, FAZ.net, URL http://www.faz.net/aktuell/feuilleton/medien/pressefmanziemng-durch-rundfunkgebuehr-sowird-die-zeitung-oeffentlich-rechtlich-1215 8423 .html BDZV (2001), BDZV: Klage gegen Tagesschau-App, BDZV Online, URL http://www.bdzv.de/aktuell/pressemitteilungen/artikel/detail/bdzv_klage_gegen_tagesschau_ app/

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

247

Congress of the United States (1975), House Bill 6461 (94th): Public Broadcasting Financing Act. Cowen, Tyler und Eric Crampton (2003), Market failure or success: the new debate. Cheltenham: Edward Elgar. Department for Culture, Media and Sport (2006). Royal Charter for the continuance of the British Broadcasting Corporation. Presented to Parliament by the Secretary of State for Culture, Media and Sport by Command of Her Majesty, October 2006. Deutscher Presserat (2013), Aufgaben und Ziele des Presserates; URL http://www.presserat.info/inhalt/der-presserat/aufgaben.html Deutscher Corporate Governance -Kodex, URL http://www.corporate-governancecode.de/ger/kodex/index.html Eicher, H. (2013), Von der Rundfunkgebühr zum Rundfunkbeitrag, Media Perspektiven 12/2012, S. 614-622. Erlinger, M. (2006), Wirbel um Jacken von Globetrotter. ARD erneut im Verdacht der Schleichwerbung, in: Textil Wirtschaft Nr. 47 vom 23.11.2006, S. 30. Eucken, Walter (1952/90), Grundsätze der Wirtschaftspolitik, 6. durchgesehene Auflage, Tübingen 1952/90. European Broadcasting Union (2000), The Funding of Public Service Broadcasting, GrandSaconnex, URL http://www.ebu.ch/CMSimages/en/leg_p_funding_psb_tcm6-4443.pdf Europäische Kommission (2011), Digitale Agenda: Europäische Kommission verklagt Frankreich und Spanien wegen der Erhebung von „Telekom-Steuern" vor dem Gerichtshof URL: http://europa.eu/rapid/pressReleasesAction.do?reference=IP/l l/309&format=HTML&aged= 0&language=DE&guiLanguage=en@ Evers, Huub (2003), Der Zeitungs-Ombudsmann: Möglichkeiten und Beschränkungen, Deutscher Fachjournalisten-Verband e. V., Forum, Mai 2003, URL http://www.fachjoumalist.de/PDF-Dateien/2012/04/FJ 0 2003-Der-ZeitungsOmbudsmann_M%C3%B6glichkeiten-und-Beschr%C3%A4nkungen.pdf Fenn, Paul, David Paton und Leighton VaughanWilliams (2009), Productivity growth and funding of public service broadcasting, Public Choice Vol. 141, pp. 335-349. Fuest, B. (2013), Rundfunkbeitrag vor Gericht, Welt am Sonntag, Nr. vom 13. Januar 2013, S. 31. Gerlach, F. (2011), Media Governance: Moderne Staatlichkeit in Zeiten des Internets, Köln: Kölner Wissenschaftsverlag. Gläser, Martin (2008), Medienmanagement, Vahlen, München. Graham, A. and Davies, G. (1997) Broadcasting, Society and Policy in the Multimedia Age. University of Luton Press, Luton. Hanfeld, Michael (2007), Skandal Telefilm Saar: Für einen schwarzen Ferrari; Faz.net; URL http://www.faz.net/aktuell/feuilleton/medien/skandal-telefilm-saar-fuer-einen-schwarzenferrari-1434950.html Hanfeld, M. (2010), So viel verdienen Intendanten. Eine Frage des Gehalts, Faz.net, 2010, http://www.faz.net/aktuell/feuilleton/medien/2.1756/so-viel-verdienen-intendanten-einefrage-des-gehalts-1578412.html, (13.1.2013). Hanfeld, M. (2011) Femsehhonorare: Wer was verdient, Faz.net, 2011, http.V/www.faz.net/aktuell/feuilleton/medien/2.1756/fernsehhonorare-wer-was-verdient1593531.html, (13.1.2013) Hanfeld, M. (2012), Der Kampf geht weiter, Frankfurter Allgemeine Zeitung vom 26.4.2012. Heinrich, Jürgen (2005), Zur Funktionalität des Wettbewerbs in dualen Systemen, in: Ridder, C.-M u.a. (Hrsg.), Bausteine einer Theorie des öffentlich-rechtlichen Rundfunks, Berlin: Springer VS, S. 325-340. Heap, Shaun P. Hargreaves (2005). Television in a digital age: what role for public service broadcasting? ficonomic Policy, January 2005, pp. 111-157. Heinrich, Jürgen (2009), Medienökonomie, Band 2: Hörfunk und Fernsehen, Opladen / Wiesbaden: Westdeutscher Verlag 1999. Jarren, Otfried (1999), Medienregulierung in der Informationsgesellschaft?, Publizistik, 2/1999, S. 149-164.

248

Hanno Beck und Andrea Beyer

Keil, C. (2010) Politische Einflussnahme im ZDF: Unter Kontrolle, Süddeutsche.de, 2010, http://www.sueddeutsche.de/medien/politische-einflussnahme-im-zdf-unter-kontrolle1.1041253,(17.1.2013) Kintzinger, Axel (2011), Royale Hochzeit in England: Dreiste Hochzeitsplanung von ARD und ZDF, FTD.de, URL http://www.ftd.de/panorama/vermischtes/:royale-hochzeit-in-englanddreiste-hochzeitsplanung-von-ard-und-zdf/60044818.html Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten (2013), Entstehungshintergrund, Aufgaben und Zusammensetzung der KEF, URL http://www.kefonline.de/inhalte/aufgaben.html Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten (2011), 18. KEF-Bericht, Dezember 2011. Krüger, Udo Michael (2012a), Programmanalyse 2011 - Teil 1: Sparten und Formen Profile deutscher Fernsehprogramme - Tendenzen der Angebotsentwicklung Unterhaltungsangebotsentwicklung, Media Perspektiven 4/2012, S. 215-236. Kops, Manfred (2001), What is public broadcasting and how should it be financed, Institute of Broadcasting Economics, University of Cologne, Working Paper No. 145. Krüger, Udo Michael (2012b), Programmstrukturen von ARD/Das Erste, ZDF, RTL, Sat.l und ProSieben 2001 bis 2011. Stabilität und Wandel im Fernsehangebot, Media Perspektiven 10/2012, S. 474-498. Krüger, Udo Michael (2012c), Inhaltsanalyse von ARD/Das Erste, ZDF, RTL und Sat.l 2001 bis 2011. Themenprofile im Nonfictionangebot deutscher Fernsehsender, Media Perspektive/j 10/2012, S. 499-519. Landeszentrale für Medien und Kommunikation (2008), LMK fordert gemeinsame Medienaufsicht über öffentlich-rechtlichen und privaten Rundfunk, Pressemitteilung Nr. 12 / 2008 der Landeszentrale für Medien und Kommunikation; http://www.lmk-online.de/wirueberuns/ presseseite/ansicht/article/lmk-fordert-gemeinsame-medienaufsicht-ueber-oeffentlichrechtlichen-und-privaten-rundfunk-nr-12/243/?tx_ttnews%5BpS%5D=1252596286&cHash= cce7f4elf4 Lattemann, Christoph (2010), Corporate Governance im globalisierten Informationszeitalter, München: Oldenbourg Verlag. Leyendecker, Hans (2010) ARD-Korruptionsskandal Versunken im öffentlich-rechtlichen Sumpf, Süddeutsche Online, 2010, http://www.sueddeutsche.de/kultur/ardkorruptionsskandal-versunken-im-oeffentlich-rechtlichen-sumpf-1.894952, (17.1.2013) Ling, Jan Philipp (2013), Falsch berichtet: Ex-Amazon-Zeitarbeiterin wirft ARD-Reportern Verfälschung vor; Kreisanzeiger Online, URL http://kreisanzeigeronline.de/2013/02/19/218419/ Lowe, Gregory F. und Christian E. Berg, The Funding of Public Service Media: A Matter of Value and Values, The International Journal on Media Management; Apr-Jun2013, Vol. 15, Issue 2, pp. 77-97. Ludwig, Johannes (2009). Kosten sind nicht gleich Kosten! Über den Zusammenhang zwischen Gebührenautomatismus, Kostenexplosion und Akzeptanz, in: Ders. (Hrsg.), Sind ARD und ZDF noch zu retten? Tabuzonen im öffentlich-rechtlichen Rundfunk, Baden-Baden; Nomos Verlag, S. 1 0 9 - 1 3 4 . Mayer, Florian; Gabriele Mehling, Johannes Raabe, Jan Schmidt und Kristina Wied (2008), Watchblogs aus der Sicht der Nutzer, Media Perspektiven, Heft 11 / 2008, S. 589 - 594 Mendel, Toby (2011), Publike Service Broadcasting: A comparative legal survey, second, revised Edition, United Nations Educational, Scientific and Cultural Organization, Paris. Ministry for Culture and Heritage (1989), Broadcasting Act 1989; Public Act 1989 No 25. Ministry for Culture and Heritage (2011), Television New Zealand Act 2003; Public Act 2003 No 1. Reprint July 2001. Motta, M. and Polo, M. (1997), Concentration and Public Policies in the Broadcasting Industry: The Future of Television, Economic Policy Vol. 12, pp. 295-333. Musgrave, R. A.; Musgrave , P.B. und L. Kullmer (1975), Die öffentlichen Finanzen in Theorie und Praxis, 1. Bd., Tübingen. Noam, E. M. (1987), A public and private-choice model of broadcasting, Public Choice, Vol. 55, pp. 163-187. NDR (2013), Feiern über Gebühr - Ermittlungen zu KiKA-Fest, NDR Online; URL http://www.ndr.de/fernsehen/sendungen/zapp/manuskriptl51.pdf

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

249

Neuerer, Dietmar (2013), GEZ-Imagekampagne von ARD und ZDF sorgt für Unmut, Handelsblatt Online, URL http://www.handelsblatt.com/politik/deutschland/steuerzahlerbundfordert-aufklaerung-gez-imagekampagne-von-ard-und-zdf-sorgt-fuer-unmut/7745570.html Nielsen, Rasmus Kleis und Geert Linnebank (2011), Public Support for the media: A sixcountry overview of Direct and Indirect Subsidies, Reuters Institute for the Study of Journalism, Oxford. Nörting, T. (2012), Korruption und Kontrolle, werben & verkaufen Nr. 27 vom 05.07.2012, S. 70. Norris, Paul und Brian Pauling (2012), NZ On Air. An evaluative study 1989 - 2001, Wellington, URL http://www.nzonair.govt.nz/media/65429/ nza4022%20evaluative%20study% 20doc%20final%20web.pdf O'Hagan, John und Michael Jennings (2003), Public Broadcasting in Europe: Rationale, Licence Fee and Other Issues, Journal of Cultural Economics, Springer, vol. 27 (February), Issue (1), pp. 3 1 - 5 6 . o.V. (2001), 83. Bundesgesetz: Rundfunkgesetz - RFG und Änderung des Arbeitsverfassungsgesetzes 1974; (NR: GP XXI RV 634 AB 719 S. 75. BR: 6395 AB 6420 S. 679.); Bundesgesetzblatt für die Republik Österreich Jahrgang 2001, Ausgegeben am 31. Juli 2001 Teil I o.V. (2005a), Tatort WDR: Schleichwerbung in 53 Fällen, Spiegel Online, 2005, http://www.spiegel.de/kultur/gesellschaft/tatort-wdr-schleichwerbung-in-53-faellen-a386696.html, (17.1.2013) o.V. (2005b), NDR dementiert: Die Kommissarin und das Auto - Produktplatzierung im Tatort?, in: Neue Osnabrücker Zeitung Online, 2005, http://www.noz.de/deutschland-undwelt/kultur/fernsehen/59570025/die-kommissarin-und-das-auto-produktplatzierung-imtatort, (17.1.2013) o.V. (2005c), Neue Vorwürfe wegen SchleichwerbungBavaria-Chef Kleine beurlaubt, Handelsblatt Online, 2005, http://www.handelsblatt.com/unternehmen/management/koepfe/neuevorwuerfe-wegen-schleichwerbung-bavaria-chef-kleine-beurlaubty2523712.html, (17.1.2013) o.V. (2005d), Der Skandal um die Schleichwerbung, NDR.de, 2005, http://www.ndr.de/ femsehen/sendungen/zapp/medien_politik_wirtschaft/zapp680.html, (17.1.2013); o.V. (2005e), Charles und Camilla-Hochzeit Dicke Luft zwischen ARD und ZDF, Stern.de; URL http://mobil.stern.de/lifestyle/leute/charles-und-camilla-hochzeit-dicke-luft-zwischenard-und-zdf-538549.html o.V. (2006a), Maulkorb für Hildebrandt, deutschlandradio Kultur, http://www.dradio.de/ dkultur/sendungen/kalenderblatt/500922/ o.V. (2006b), Sportberichterstattung: ARD trennt sich von Ullrich und Zabel, Spiegel Online, 2006, http://www.spiegel.de/spiegel/print/d-48680030.html, (17.1.2013); o.V. (2008a), Der Feind sind die Neuen Medien, Welt Online, URL http://www.welt.de/wams_print/articlel547507/Der-Feind-sind-die-Neuen-Medien.html o.V. (2008b), Ley 8/2009, de 28 de agosto, de financiación de la Corporación de Radio y Televisión Española. BoletínOficial del Estado, Núm. 210, Lunes 31 de agosto de 2009. o.V. (2009a), Geschasste Andrea Kiewel kehrt zum ZDF zurück, Welt Online, 2009, http://www.welt.de/fernsehen/article2960286/Geschasste-Andrea-Kiewel-kehrt-zum-ZDFzurueck.html, (17.1.2013) o.V. (2009b), ARD-Sportjournalist: Wilfried Mohren zu Bewährungsstrafe verurteilt, Spiegel Online, URL: http://www.spiegel.de/panorama/justiz/ard-sportjournalist-wilfried-mohrenzu-bewaehrungsstrafe-verurteilt-a-652011 .html o.V. (2009c), Nebenverdienste - Chefredakteure antworten auf ZAPP Anfrage; NDR.de, URL http://www.ndr.de/fernsehen/sendungen/zapp/medien_politik_wirtschaft/nebenverdienstel08 .html o.V. (2009d), Interessenskonflikte: Lukrative Nebenjobs der ARD- und ZDF-Journalisten, Handelsblatt Online, URL http://www.handelsblatt.com/unternehmen/it-medien/ interessenskonflikte-lukrative-nebenjobs-der-ard-und-zdfjoumalisten/4652558.html?slp=false&p=9&a=false#image o.V. (2009e), Loi n° 2009-258 du 5 mars 2009 relative á la communication audiovisuelle et au nouveauservicepublic de la television. JORF, n°0056 du 7 mars 2009.

250

Hanno Beck und Andrea Beyer

o.V. (2010a), Öffentlich-rechtlicher Rundfunk: Die Sendung mit den Mäusen, Handelsblatt Online, URL http://www.handelsblatt.com/unternehmen/it-medien/oeffentlich-rechtlicherrundfunk-die-sendung-mit-den-maeusen/3531508.html o.V. (2010b), Im Selbstbedienungsladen - Union missbraucht ZDF, Süddeutsche Online, 2010, http://www.sueddeutsche.de/kultur/fall-brender-im-selbstbedienungsladen-unionmissbraucht-zdf-1.135638, (17.1.2013) o.V. (2011a), Untreue und Bestechlichkeit: Kika-Mitarbeiter muss jahrelang in Haft; Handelsblatt Online, 2011, http://www.handelsblatt.com/unternehmen/it-medien/untreue-undbestechlichkeit-kika-mitarbeiter-muss-jahrelang-in-haft/4358640.html, (17.1.2013) o.V. (2011b), MDR-Ballett tanzt für Tschetscheniens Diktator; Welt Online, 2011; http://www.welt.de/politik/deutschland/articlel3663555/MDR-Ballett-tanzt-fuerTschetscheniens-Diktator.html, (17.1.2013) o.V. (2011c), ARD-Unterhaltung: Was verdient Thomas Gottschalk?, Faz.net, 2011, http://www.faz.net/aktuell/feuilleton/medien/2.1756/ard-unterhaltung-was-verdient-thomasgottschalk-11104676.html, (13.1.2013). Süddeutsche Online, URL o.V. (201 ld), Degeto-Chef Jurgan muss gehen, http://www.sueddeutsche.de/medien/degeto-chef-jurgan-muss-gehen-erst-millionenverheizt-dann-vertrauen-verspielt-1.1221647 o.V. (201 le), Scharfe Kritik an „kommerzieller Machart" von ARD und ZDF, Welt Online, URL http://www.welt.de/fernsehen/articlel2968804/Scharfe-Kritik-an-kommerziellerMachart-von-ZDF-und-ARD .html o.V. (2012a), Kika-Betrug Lange Haftstrafe für früheren TV-Manager, Spiegel Online, 2012, http://www.spiegel.de/kultur/tv/lange-haftstrafe-fuer-frueheren-herstellungsleiter-des-kika-a852372.html, (17.1.2013); o.V. (2012b), Mehr TV-Mitarbeiter als Sportler bei Olympia: ARD und ZDF reisen mit 480köpfigem Team nach London, Focus.de, URL http://www.focus.de/kultur/medien/mehr-tvmitarbeiter-als-sportler-bei-olympia-ard-und-zdf-reisen-mit-480-koepfigem-team-nachlondon_aid_787787.html o.V. (2012c), ZDF sendet erneut zu einem Bericht falsche Bilder, Welt Online, URL http://www.welt.de/vermischtes/article 110067753/ZDF-sendet-erneut-zu-einem-Berichtfalsche-Bilder.html o.V. (2012d), „Konservative Politiker gehen dreister vor als andere", Zeit Online, URL http://www.zeit.de/politik/deutschland/2012-10/csu-zdf-brender-beeinflussung o.V. (2012e), „ARD und ZDF sollten verschmolzen werden", Meedia, das Medienportal, URL http://meedia.de/fernsehen/ard-und-zdf-im-stellungskampf/2013/01/03.html o.V. (2013a), Öffentlich-rechtliche Sender Der Sponsor gewinnt immer, Zeit Online, URL http://www.zeit.de/2013/07/ORF-Sport-Sponsoring-Ski-WM/seite-1 o.V. (2013b), Redakteure des RBB klagen über Einmischungsversuche der Politik, Spiegel Online, URL http://www.spiegel.de/spiegel/vorab/brandenburgs-regierungssprecherintervenierte-bei-rbb-chefredakteur-a-887846.html o.V. (2013c), Kritik an ARD-Doku Amazon-Mitarbeiter: „Fast alles falsch dargestellt", Berliner Kurier, URL http://www.berliner-kurier.de/politik—wirtschaft/kritik-an-ard-doku-amazonmitarbeiter—fast-alles-falsch-dargestellt-,7169228,21898422.html o.V. (2013d), Daimler rüffelt Undercover-Reporter, Handelsblatt Online, URL http://www.handelsblatt.com/unternehmen/industrie/nach-ard-dokumentation-daimlerrueffelt-undercover-reporter/8204444.html o.V. (2013e), Rechnungshof kritisiert MDR-Geldgeschäfte, Spiegel Online, URL http://www.spiegel.de/spiegel/vorab/rechnungshof-kritisiert-mdr-geldgeschaefte-a887832.html o.V. (2013f), Staatsrechtler hält Rundfunkbeitrag für verfassungswidrig, Süddeutsche Zeitung Online, URL http://www.sueddeutsche.de/medien/neuordnung-der-rundunkgebuehrstaatsrechtler-haelt-rundftinkbeitrag-fuer-verfassungswidrig-1.1584029 o.V. (2013g), Neue Rundfunkgebühr: Kommunalverband droht mit GEZ-Boykott, Spiegel Online, URL http://www.spiegel.de/kultur/gesellschaft/neue-gez-rundfunkgebuehrstaedteverbaende-drohen-mit-boykott-a-880430.html o.V. (2013h), Vollversorgung, in: Frankfurter Allgemeine Zeitung vom 11.1. 2013, S. 7.

Öffentlich-Rechtlicher Rundfunk in der Krise: Reformbedarf und Reformoptionen

251

o.V (2013i), Werbung ist kein Viagra für Qualität, Handelsblatt, Wochenende 25./26./27. Januar 2013, S. 62-63. Paetzmann, Karsten (2012), Corporate Governance, 2. Aufl., Berlin: Springer Gabler Verlag. Peacock, Alan (2004), Public Service Broadcasting without the BBC?, Institute of economic Affairs, London. Pohlmann, Sonja (2013), Wenig Akzeptanz für neue Rundfunkgebühr, Tagesspiegel Online, URL http://www.tagesspiegel.de/medien/umfrage-wenig-akzeptanz-fuer-neuerundfunkgebuehr/7797520.html Prange, S. (2013), Garanten für Qualität, Handelsblatt, Wochenende 25./26./27.1. 2013, S. 61. Reinemann, Carsten (2010), Das Versprechen der Selbstkontrolle. Presserat und Pressekodex im Urteil von Journalisten. In: Reinemann, Carsten/Stöber, Rudolf (eds.): Wer die Vergangenheit kennt, hat eine Zukunft. Köln: Herbert von Halem Verlag, S. 236 - 263. Renner, Kai (2011), Warum ARD und ZDF beide die Hochzeit übertragen, Welt Online, URL http://www.welt.de/vermischtes/specials/hochzeit-william-kate/articlel3287273/WarumARD-und-ZDF-beide-die-Hochzeit-uebertragen.html Renner, Kai (2013), Dümmliche Reklame statt Transparenz, Welt Online, URL http://www.welt.de/debatte/kommentare/article 113642822/Duemmliche-Reklame-stattTransparenz.html Rentz, Ingo (2013), Falsch berichtet? ARD reagiert auf Kritik von Ex-Amazon-Leiharbeiterin, Horizont.net, URL http://www.horizont.net/aktuell/medien/pages/protected/Falschberichtet%3F-ARD-reagiert-auf-Kritik-von-Ex-Amazon-Leiharbeiterin_l 13079.html Rühle, A. (2012), Sport im deutschen Fernsehen 2011: Programmprofile zwischen Markt und öffentlichem Interesse, Media Perspektiven 11/2012, S. 555-569. Ruprecht, Anne und Timo Großpietsch (2009), Nebenverdienste: Wie Fernsehmoderatoren ihre Prominenz vermarkten, NDR.de, URL http://www.ndr.de/fernsehen/sendungen/zapp/ medien_politik_wirtschaft/nebenerwerb 100.html Scanneil, Paddy (1990) Public service broadcasting: the history of aconcept, in: Andrew Goodwin, Garry Whannel (eds.): Understanding Television, Routledge, London, New York, pp. 11-29. Schumann, M. und A. Tzouvaras (2004), Qualitätsunsicherheit in der Medienindustrie, Wisu Das Wirtschaftsstudium 2/2004, S. 197-201. Schröder, Guido (2009), Öffentlich-rechtliche Anbieter im Dilemma zwischen Massengeschmack und Gemeinwohl: Das medienökonomische Instrument der Programmleistung als Basis einer rationalen Medienpolitik, in: D. Wentzel (Hrsg.), Medienökonomik - Theoretische Grundlagen und ordnungspolitische Gestaltungsalternativen, Schriften zu Ordnungsfragen der Wirtschaft, Band 89, Stuttgart, S. 183-200. Schröder, M (2013), ARD und ZDF, ganz privat, Handelsblatt, Wochenende 25./26./27. 1. 2013, S. 57. Schadrowski, M. S. u. Stumpf, R. (2012), Rundfunkfreiheit in Gefahr? - Das ZDF und der Einfluss seiner Kontrollgremien, AfP, 5/2012, S. 417-420. Siebenhaar, H.-P. (2013), Finanzielle Höchstleistungen, Handelsblatt, Wochenende 25V26./27. Januar 2013, S. 59. Steinkirchner, Peter (2013), Privatsender fordern gleiche Kontrolle für ARD und ZDF, Wirtschaftswoche Online, URL http://www.wiwo.de/unternehmen/dienstleister/ard-zdfprivatsender-fordern-gleiche-kontrolle-füer-ard-und-zdf/7687488.html Stock, Martin (1990); Konvergenz im dualen Rundfunksystem? Eine Prognose als Politikum, Media Perspektiven 12/90, S. 745 - 754. Tieschky, Claudia (2012a), Politischer Einfluss auf ARD und ZDF: Mit voller Kraft, Süddeutsche Online, URL http://www.sueddeutsche.de/medien/politischer-einfluss-auf-ard-undzdf-mit-voller-kraft-1.1507608 Tieschky, Claudia (2012b), Stiller Kampf ums Überleben, Süddeutsche Online, URL http://www.sueddeutsche.de/medien/einsextra-heisst-jetzt-tagesschau-stiller-kampf-umsueberleben-1.1343010 van Dijk, Machiel; Richard Nahuis und Daniel Waagmeester (2006), Does Public Service Broadcasting Serve the Public? The Future of Television in the Changing Media Landscape, De Economist, June 2006, Vol. 154, Issue 2, pp. 251-276.

252

Hanno Beck und Andrea Beyer

Voß, Jochen (2009), ARD/ZDF: Regisseure gegen „krakenhafte Ausdehnung", URL ttp://www.dwdl.de/story/22609/ardzdf_regisseure_gegen_krakenhafte_ausdehnung/page_l.h tml Wellenreuther, M. (2011), Presseähnliche Telemedien öffentlich rechtlicher Rundfunkanstalten, Berlin: Logos Verlag. Wolf, Fritz (2013), Im öffentlichen Auftrag. Selbstverständnis der Rundfunkgremien, politische Praxis und Reformvorschläge, Otto-Brenner-Stiftung, Arbeitsheft Nr. 73, Frankfurt 2013. WDR (2013), WDR-Shop, URL http://www.wdrshop.de/ Wyss, Vincent (2000), Qualitätsmanagement im Journalismus: Das Konzept TQM auf Redaktionsstufe, Science des massmedia de Suisse, 1 / 2000, S. 21-30. ZDF (2010), ZDF-Richtlinien für Werbung, Sponsoring, Gewinnspiele und Produktionshilfe vom 12. März 2010, URL http://www.unternehmen.zdf.de/fileadmin/files/ Download_Dokumente/DD_Grundlagen/Interne_Vorschriften/5.1.1,4.3_u_Richtlinien_f3r_Werbu ng_und_Sponsoring_im_ZDF.pdf, URL http://www.zdf-werbefernsehen.de/fileadmin/ userupload/zdfwerb/pdf/sonstiges/ richtlinien_werbung_und_sponsoring_20100312.pdf ZDF (2012), ZDF Jahrbuch 2011, Mainz 2012. ZDF (2013a), Fernsehrats-Mitglieder nach Funktion, URL http://www.unternehmen.zdf.de/ index ,php?id=306#c460 ZDF (2013b), ZDF Shop, URL http://www.zdf-shop.de/categories/0 Zusammenfassung Der öffentlich-rechtliche Rundfunk steckt in der Krise: Schleichwerbung, politische Einflussnahme, Korruption, Verschwendung, Bilanzfalschung, überhöhte Gehälter und massive Wettbewerbsverzerrungen - Gründe, über die Reform dieses Systems nachzudenken, gibt es genügend. Dieser Beitrag zeigt die Problemfelder des öffentlichrechtlichen Rundfunks und listet die wichtigsten Skandale der vergangenen Jahre auf; im Anschluss wird gezeigt, dass diese Probleme ihre Ursache in einer falschen ordnungspolitischen Weichenstellung haben. Weiterhin wird eine Reihe von Reformvorschlägen inkrementeller und grundsätzlicher Natur aufgezeigt.

Summary: Public broadcasting in crisis German public broadcasting is in a deep crisis: bribe money, covered advertising, bad corporate governance, inefficient management and a debate about the new broadcasting fee brought the whole system of public broadcasting under pressure. This article discusses the main problem areas of public broadcasting and argues that the reasons for this mess are a lack of regulatory policy, wrong incentives and the absence of competition. Further on, several proposals of reform are being discussed.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Wolfgang Ströbele

Ordnungspolitische und Sachprobleme der Energiewende Inhalt I. Die Entwicklung zur Energiewende 1. Historie 2. Voraussetzungen 3. 4. 5. II. 1. 2. 3. III. IV.

Die Ausgangslage C02-Einsparungs-Kostenkurven Unzureichende Begründung der Zielsetzungen der Energiewende Die Sachprobleme der Energiewende I: Strommarkt Grundlagen Detailprobleme im Strommarkt Resümee für den Strommarkt Die Sachprobleme der Energiewende II: andere Sektoren Zusammenfassung

253 253 254 256 257 258 259 259 269 271 271 273

Literatur

273

Zusammenfassung

274

Summary: Problems of the turnaround in energy policy in Germany after 2011.. 274

I. Die Entwicklung zur Energiewende 1. Historie Die erste Stufe der Energiewende basierte auf einem Energiekonzept der Bundesregierung von Ende 2010. Dabei übernahm die angestrebte Laufzeitverlängerung der existierenden Kernkraftwerke eine wichtige Brückenfunktion in eine CC^-ärmere zukünftige Energieversorgung. Aber auch umfangreiche Effizienzverbesserungsziele für den Nicht-Stromsektor, der um 2010-2012 gut 80 % des Endenergieverbrauchs umfasste, waren schon formuliert. Die Entwicklung zur neuen Fassung der Energiewende im engeren Sinne begann mit dem schweren Unfall im japanischen Kernkraftwerkszentrum Fukushima im März 2011. Östlich davon war am 11.03.2011 zunächst ein sehr schweres Erdbeben unter dem Meer aufgetreten, was etwa eine Stunde später zu einem hohen Tsunami an der Ostküste Japans führte. Das etwa 60 km südlich der Stadt Sendai an der Küste gelegene Kernkraftwerk mit insgesamt sechs Blöcken, von denen drei in Betrieb waren, ging als

254

Wolfgang Ströbele

Folge des schweren Erdbebens planmäßig in die Schnellabschaltung, da eine Stromversorgung im Küstenbereich nicht mehr stattfand. Die Schutzmauer gegen Tsunamis erwies sich etwa eine weitere Stunde später als deutlich zu niedrig ausgelegt und wurde überschwemmt, wodurch die nicht wesentlich erhöht errichteten Notkühlsysteme in Mitleidenschaft gezogen wurden und die Notkühlung versagte. Die nachfolgende Kühlung auf Batteriebasis endete nach einiger Zeit, so dass es zunächst zur Brennelementschmelze und dann zu Wasserstoffexplosionen kam, die sogar vier Blöcke schwer beschädigten, vermutlich, da große Wasserstoffmengen aus einem in Betrieb befindlichen Block über eine gemeinsam genutzte Abluftleitung den abgeschalteten Nachbarblock erreichte. Während die Regierungen anderer Länder mit Kernkraftwerken nach Kenntnis über den groben Unfallhergang zurückhaltend darauf verwiesen, dass ein derartiges Risiko bei ihnen nicht bestehe, reagierte die Bundesregierung zunächst mit einem Moratoriumsbeschluss über sieben deutsche Atommeiler (zuzüglich das bereits abgeschaltete KKW Krümmel) und entschied dann im Sommer 2011 über einen festen und schnellen Ausstiegsbeschluss aus der Kernenergienutzung bis zum Jahr 2022. Dies wurde verbunden mit weit reichenden Zielen für Energie- und Stromerzeugung aus erneuerbaren Energien, für anzustrebende Steigerungen der Energieeffizienz und zahlreichen Maßnahmen der Energiepolitik. Der Hintergrund für diese Neuorientierung der Energiepolitik ist durch verschiedene wissenschaftliche Strömungen, veröffentlichte Gutachten und ein zunehmendes Vordringen vermeintlich ökologischer Gedanken auch in den Medien vorbereitet und begleitet worden, so dass teilweise problematische Vorstellungen über einen möglichen zügigen Umbau des Energiesystems auch in normalen Medien zu verzeichnen waren. Zudem wurde nur kurz über die äußerst dürftige Auslegung der japanischen Anlagen, die offensichtlich nicht ausreichend für eine hohe Tsunamiwelle gebaut waren, diskutiert.

2. Voraussetzungen Zudem war es schon lange guter Brauch, dass alles, was vordergründig und vermeintlich dem Klimaschutz diente, als positiv eingestuft wurde, wodurch in den meisten Medien auch eine weitere Nutzung von Kohlekraftwerken als höchst verdächtig erschien. Und dies in einem Umfeld, wo weltweit die energiebedingten CC^-Emissionen stark weiter wuchsen und die jährlichen deutschen CC>2-Minderungen von den Zuwächsen in China, Indien oder dem Nahen Osten in wenigen Wochen wettgemacht wurden. Nebenbedingungen für die Politik durch Naturgesetze, geographische Bedingungen etc. wurden in vielen Medien oder auch in der Politikberatung beiseitegeschoben bzw. als Nebenschauplatz eingestuft. So wies bspw. der Sachverständigenrat für Umweltfragen (SRU), dem mehrheitlich nicht Ökonomen oder Ingenieure angehören, im Januar 2011 auf einen möglichen Weg zu einer Stromvollversorgung Deutschlands über regenerative Quellen im Jahr 2050

Ordnungspolitische und Sachprobleme der Energiewende

255

hin.1 Im Einzelnen wurden dafür in erheblichem Umfang Speichertechniken und Nutzung skandinavischer Wasserkraftreserven als Pumpspeicher und großtechnische Solar- und Windsysteme im Jahr 2050 vorausgesetzt: Ohne solche riesigen Zwischenspeicher ist ein hoher Anteil volatiler Stromerzeugung durch Wind und Photovoltaik weder technisch noch ökonomisch machbar. Ob diese Lösung unter rechtlichen, raumplanerischen oder wegen möglicher konkurrierender Ansprüche anderer Art zügig durchsetzbar sein konnte, wurde kaum näher betrachtet.2 Genauso sind die dort verwendeten Annahmen über zu erwartende Kostendegressionen bei erneuerbaren Energieträgern bestenfalls optimistische Schätzungen und betreffen ohnehin jeweils nur die neu errichteten Anlagen. Solche Szenarien können als Denkanstöße dienen; sie unmittelbar als umsetzbar anzusehen, ist höchst problematisch. Alleine angesichts von einfachen Stromtrassen, die seit etwa 10 Jahren in Deutschland wegen Einsprüchen nicht gebaut werden können, liegt schon hier ein wichtiges Hemmnis für einen zügigen Umbau eines Energiesystems in wenigen Jahrzehnten, von großtechnischen Stromspeichern ganz zu schweigen. Dieser Denkanstoß wurde im Folgenden nicht breit kritisch öffentlich diskutiert; es reichte vielen Journalisten aus, dass das bisher nicht speicherbare Gut „Strom" dank einer aus heutiger Sicht fiktiven Lösung schon übermorgen quasi großtechnisch speicherbar werden konnte. Auch in Ziffer 14 geht die Bundesregierung davon aus, dass „Speicher und ein zunehmend flexiblerer Kraftwerkspark die fluktuierende Erzeugung aus Erneuerbaren stärker ausgleichen." Wie diese Speicher aussehen müssen, welche Bauzeiten sie hätten, welche Größenordnungen anzustreben sind, alles bleibt derzeit offen bzw. den Kraftwerksbetreibern oder dem Übertragungsnetzbetreiber überlassen. Dies erlaubt auch, Gemeinden als vorbildlich darzustellen, die dank einer Biogasanlage und vielen Solarzellen und Windrädern „energieautark" sein sollten, was sie natürlich niemals sind: Faktisch beziehen diese Dörfer nach wie vor bei mäßigem Wind, im Winter und nachts ihren nötigen Strom aus dem Netz, dessen Spannung und Frequenz (50 Hz) dank fossiler Kraftwerke stabil gehalten wird. Im Sommer zur Mittagszeit und bei Starkwind wird dagegen überschüssiger Strom ins Umland exportiert, wofür eine Netzverstärkung notwendig ist, deren Kosten auf alle Netznutzer per Umlage aufgeteilt wird. Wie groß ist dieses Umland etwa im Falle MecklenburgVorpommerns? Polen und Tschechien freuen sich nicht immer über ein solches Windstromüberangebot aus Deutschland und bereiten sich darauf vor, zu große aufgezwungene Stromimporte zukünftig technisch zu verhindern. In einem solchen Umfeld von schlechten und ungenauen Informationen ist eine Sachpolitik mit gut durchdachten Schritten und einer zeitlichen Abfolge, was wann passieren muss, um bestimmte Zielvorstellungen wann in welchem Ausmaß zu er-

1 2

Vgl. SRU (2011). Die einfache Nutzung der norwegischen aufgestauten Kapazitäten durch einen großen Stromverbund könnte schon einen Beitrag leisten. Allerdings reicht dieser ohne zusätzliche Maßnahmen bei weitem nicht für die Ziele ab 2030 aus. Außerdem haben auch andere Staaten die norwegischen Puffermöglichkeiten für ihre Stromsysteme entdeckt. Und die Vorstellung, norwegische Flussläufe in Fjorde künftig großtechnisch als Staubecken für Pumpspeicherwerke umzuwandeln, setzte voraus, dass mit Meerwasser durchmischtes Wasser zurückgepumpt wird in ein bis dahin weitestgehend nur Süßwasser enthaltendes Becken. Die konkrete Umsetzung ist also längst nicht so einfach.

256

Wolfgang Ströbele

reichen, schwer zu vermitteln. Die Zielsetzung selbst wird auch nicht näher hinterfragt. Im Folgenden wird deshalb näher betrachtet, ob die so genannte Energiewende seitens der Politik mit einem energie- und umweltpolitisch schlüssigen Konzept angegangen wird, oder ob an manchen Stellen gemessen an den realen Zeitdimensionen und Möglichkeiten eher Wunschdenken, schlichte Unkenntnis oder unkoordinierter Interventionismus zugrunde liegt.

3. Die Ausgangslage Für das Jahr 2011/12 lässt sich die Ausgangslage der Energiewirtschaft und speziell der Stromwirtschaft in Deutschland wie folgt beschreiben:3 Die Verbrauchsanteile am £Wenergieverbrauch nach Sektoren für Haushalte, Verkehr und Industrie belaufen sich auf je 28 % (± 1 %). Die fehlenden 16 % entfallen auf die früher so genannten Kleinverbraucher (heute: GHD), unter denen der Staat, Handwerksbetriebe, Dienstleister, Handel und Gewerbe etc. zusammengefasst sind. Dieser Energieverbrauch ist bisher in jedem Sektor mit unterschiedlichem Anteil der Gebäudeheizung, der Erzeugung von Prozesswärme, der Mobilität, typischen elektrischen Anwendungen (Licht, Kommunikation, Antrieb stationärer Motoren, ...) usw. von verschiedenen Energieträgern zu erbringen. Es werden über 40 Millionen Wohnungen unterschiedlichen Alters und Renovierungsstands mit einer Gesamtwohnfläche von 3,5 Mrd. m2 beheizt, dazu öffentliche Gebäude, Büros und Fabrikhallen; 42 Millionen Pkws dienen der Mobilität und das Bruttoinlandsprodukt, dessen Höhe und sektorale Zusammensetzung über den Energieverbrauch zu seiner Erstellung entscheidet, beträgt fast 2,5 Billionen €/a. Aus den von der Natur gewonnenen Primärenergieträgern wird in inländischen Umwandlungsprozessen (Raffinerien, Kraftwerke, Kokereien, ...) ein Bündel so genannter Endenergieträger produziert, das vom Endverbraucher letztendlich nachgefragt wird. Hinzu kommen importierte Fertig- und Halbfertigprodukte, die aus statistischen Konventionen auch als Primärenergieverbrauch verbucht werden, obwohl sie im Ausland ja schon bearbeitet worden sind. Bei der Herstellung veredelter Endenergieträger - und nur diese stiften dem Endverbraucher Nutzen - treten Umwandlungsverluste auf, die ökonomisch in Kauf genommen werden, da nur dadurch hochwertige und saubere Energieträger mit großen Handlingsvorteilen für den Nutzer gewonnen werden können: Erdgas wird entschwefelt, Mineralöl wird in die Produkte Benzin oder Diesel mit standardisierter Qualität umgewandelt, Braunkohle oder Uranbrennstäbe erzeugen Strom bestimmter Qualität (Frequenz, Spannung, etc.). Die dabei auftretenden Verluste z.B. in thermischen Kraftwerken entstehen nach Naturgesetzen und hängen von der Dampftemperatur, von Kühlwasser, zulässigen Drücken und Materialien ab. Kernkraftwerke haben aus Sicherheitsgründen Wirkungsgrade um 33 %, Braunkohlekraftwerke Wirkungsgrade von 35 % (alt) bis zu 45 % (neue BoA), so dass etwa die spezifischen C02-Emissionen der neuen Anlage um 22 % niedriger liegen als die der alten. Wind- und Sonnenenergie

3

Für die Grundlagen der Energiewirtschaft, vgl. Ströbele et al. (2012).

Ordnungspolitische und Sachprobleme der Energiewende

257

werden mit einem Wirkungsgrad von 100 % in der Statistik erfasst, was natürlich physikalisch unsinnig ist; da sie aber ohnehin früher oder später als Wärme enden und ins Weltall abgestrahlt werden, wird als Konvention so verfahren. Wenn also 150 TWh Kernenergiestrom bis 2023 zu 46,70 % durch GuD-Anlagen auf Erdgasbasis (57,5 % Wirkungsgrad), zu 26,7 % durch moderne Kohlekraftwerke und zu 26,7 % durch regenerative Stromerzeugung ersetzt werden, so sinkt alleine wegen der unterschiedlichen Wirkungsgrade und der Konventionen der statistisch ermittelte Primärenergieverbrauch für diese 150 TWh Strommenge um 56 %, bezogen auf den gesamten Primärenergieverbrauch von 2010 rein statistisch um 5 %: Auch etwas, was einer Öffentlichkeit als „Einsparerfolg" dargestellt werden kann. Die gesamte ersetzte Stromerzeugung ist dabei unverändert 150 TWh, die CC^-Emissionen steigen aber c.p. gegenüber heute; die „Einsparung" folgt lediglich aus der statistischen Konvention. Das Energiesystem einer Volkswirtschaft ist sehr komplex und gleichzeitig stark interdependent: So wurde bspw. während der extrem kalten Februartage 2012 Erdgas in sehr hohem Maße für Wärmeerzeugung benötigt, während gleichzeitig Erdgas für die Stromerzeugung zusätzlich stark nachgefragt wurde. Die Gaswirtschaft konnte die dadurch entstehenden Probleme dank eines funktionierenden Transport- und Speichersystems hinreichend gut lösen. Diese gegenseitige Abhängigkeit des Strom- und Gasmarktes wird weiter steigen und beispielsweise zusätzliche Gaspipelines in Nord-SüdRichtung erfordern. Eine solche Wechselwirkung der Teilmärkte besteht an zahlreichen Stellen, wo unterschiedliche Substitutionsbeziehungen bis auf vorgelagerte Verarbeitungsstufen bestehen. Falls solche Substitutionsbeziehungen, z.B. wegen geänderter relativer Preise, von Energieträgern untereinander oder von Energie zu Kapital (Wärmedämmung, Heizungstechnik, Motorentechnik, etc.) oder inzwischen entwickelter neuer Techniken (Brennwert- oder Holzpelletkessel, mikroelektronische Steuerung von Energiesystemen, bessere Materialien, etc.) ausgenutzt werden, ist lineares Denken und Aufaddieren von Einzeleffekten mit einem hohen Fehlerrisiko behaftet. Diese Systeminterdependenzen waren bis etwa 2005 weitestgehend dem Marktmechanismus überlassen, der sie mit respektablen Ergebnissen koordiniert hat.

4. C02-Einsparungs-Kostenkurven Die klassischen Energy-Efficiency Cost Curves der Treibhausgasreduktion, an denen sich auch die Bundesregierung orientiert4, haben nämlich diverse Tücken, die beispielhaft Huntington (2011)5 diskutiert: a) Die Orientierung am Durchschnitt oder Median einer Maßnahme beinhaltet, dass für rund die Hälfte der Betroffenen diese Maßnahme teurer ist und sie deswegen dort nicht oder in geringerem Umfang umgesetzt wird. b) Die Geschwindigkeit der Umsetzung neuer Maßnahmen oder neuer Techniken wird i.d.R. deutlich zu hoch eingeschätzt. c) Direkte und indirekte Rebound-Effekte bei reduziertem Energiebedarf pro Aktivität fuhren per Saldo zu einem höheren als erwarteten Energieverbrauch: 4 5

Persönliche Kenntnis des Autors. Huntington (2011), S. 13 ff.

258

Wolfgang Ströbele

Wenn ihr neuer Pkw nur noch 4 1 Kraftstoff/100 km benötigt, werden sie ihn eventuell öfter benutzen als das vorherige Modell, das doppelt so viel verbrauchte. d) Falls der Energieverbrauch in bedeutenden Verbraucherländern reduziert wird, reagieren die Produzentenpreise, so dass wegen der jetzt niedrigeren Preise der Welt-Energieverbrauch preisbestimmt doch wieder höher ausfällt als erwartet. e) Die institutionellen Kosten eines neuen Systems werden oft ignoriert bzw. deutlich unterschätzt. Der Autor dieses Papiers möchte einen sechsten Effekt hinzufugen: Das Aufaddieren von Einzeleffekten (mehr Dämmung, bessere Fenster, moderne Heizungstechnik, etc.) fuhrt nicht additiv zu einer bestimmten Einsparung. Wenn z.B. als Folge einer besseren Gebäudedämmung der Wärmebedarf eines Stadtteils deutlich sinkt, lohnt sich die kapitalintensive Fernwärme auf Kraft-Wärme-Kopplungsbasis für den Investor nicht mehr. Bei einer Expertenbefragung antwortet jeder für einen Teilbereich verantwortliche Manager mit einer impliziten Ceteris-paribus-Klausel, was im Gesamtsystem Doppelzählungen und Inkonsistenzen ergeben kann. Dennoch wird beides simultan politisch gefordert: Die Gesamtkosten pro eingesparter Tonne CO2 fallen dann eventuell jedoch sehr deutlich höher aus als erwartet.

5. Unzureichende Begründung der Zielsetzungen der Energiewende Die Zielsetzung der Bundesregierung zur Energiewende ist im so genannten Eckpunktepapier vom Juni 2011 festgehalten. Die Energieversorgung - nicht nur die Stromerzeugung - soll langfristig auf erneuerbare Energien umgestellt werden. Die fossilen Energien und die Kernenergie sollen zunächst als Brücke in diese Zukunft dienen. Im Fall der Kernenergie wird diese Brückenfunktionen in der Stromerzeugung bis Ende 2022 begrenzt - eine Folge der Neubewertung nach dem Unfall in den Kernkraftwerksblöcken von Fukushima. Der im Jahr 2011 angestrebte schnelle Kernenergieausstieg impliziert, dass die Anstrengungen zur rationellen Energieverwendung gegenüber dem Konzept 2010 auf allen Ebenen erheblich beschleunigt werden sollen. Begründet wird das mit ambitionierten Zielen zum Klimaschutz. Diese Ziele sind für einen global wirkenden Schadstoff ohne deutsche Bedingungen an die Mitwirkung einer relevanten Gruppe von Staaten für Begrenzungsmaßnahmen fixiert. Die energiebedingten CCVEmissionen sind seit dem Kyoto-Basisjahr 1990 inzwischen dank des Zuwachses der USA, Chinas, Indiens, des Nahen Ostens und anderer Schwellenstaaten inzwischen nicht zurückgegangen, sondern weiter deutlich angewachsen: Beliefen sich die energiebedingten weltweiten CC>2-Emissionen 1990 noch auf 22,6 Mrd. t, so haben sie 2010 die 33 Mrd. t überschritten; der deutsche C02-Anteil sank von fast 4,6 % in 1990 auf nunmehr 2,5%. Warum eine deutsche CCVReduzierung um 55 % gegenüber 1990 bis 2030 nötig ist und ob dies zur Bewältigung des Klimaproblems beiträgt, bleibt unklar. Warum tun es nicht auch 5 Prozentpunkte (= 50 Mill. t CO2) weniger, wenn die Emissionen der übrigen Welt weiter pro Jahr um das 12-fache dieses Wertes zunehmen, d.h. bis 2030 leicht um das 150 -

Ordnungspolitische und Sachprobleme der Energiewende

259

200-fache? Warum koppelt die Bundesregierung ihre nationalen Klimaziele nicht an Bedingungen für das Zustandekommen eines internationalen Klimaabkommens? Insofern ist die Begründung für eine äußerst rasche Umstrukturierung der deutschen Energiewirtschaft vorrangig aus dem Klimaschutzziel sehr fragwürdig: Selbst wenn die deutschen CCVEmissionen weiter sinken sollen, wird die für den Klimawandel verantwortliche Gesamtmenge der Welt absehbar in den nächsten Jahrzehnten kaum sinken, sondern eher weiter deutlich steigen und der deutsche Beitrag wird mangels internationaler Kooperation verpuffen. Weniger ambitionierte und realistischere Ziele der Energiepolitik wären somit unter vier Aspekten vorteilhafter gewesen: a) Deutschland könnte etwa halb so weit reichende Einsparziele und angemessene Anteile erneuerbarer Energien tatsächlich bei einer längeren Zeitschiene erreichen. Die formulierten ehrgeizigen Ziele zeugen von einem Unverständnis für die Zeitschiene, die im Energiebereich aber sehr wichtig ist. b) Die massiven Eingriffe in den Marktmechanismus könnten deutlich reduziert und stattdessen die Vorteile des normalen Marktsignals über höhere Marktpreise fossiler Energieträger oder das EU-Emissionshandelssystems für CO2 besser genutzt werden. c) Die bisher gewährleistete Versorgungssicherheit insbesondere der Strom- und vielleicht auch Gasversorgung würde nicht wegen einer zu kurzen Übergangsphase gefährdet. d) Die Kosten für die notwendige Umstrukturierung des Energiesystems könnten besser unter Kontrolle gehalten werden. Fehlanreize und ineffiziente Fördersysteme wären besser vermeidbar. Die deutsche Zielsetzung vorrangig auf CO2 ist angesichts der angestrebten Instrumentierung selbst problematisch: Wenn andere Treibhausgase durch eine bestimmte Politik ansteigen, muss das gegengerechnet werden. Dies soll im Folgenden näher erläutert werden.

II. Die Sachprobleme der Energiewende I: Strommarkt 1. Grundlagen Die Probleme eines unzureichend durchdachten Konzepts werden am Beispiel des Strommarktes am klarsten deutlich. Auf dem Strommarkt werden mindestens zwei Güter produziert: Die jederzeitige Verfügbarkeit von Strom „an der Steckdose", d.h. jederzeit ausreichende Kapazitäten in kW und die tatsächliche Stromlieferung in kWh6. Mit Ausnahme von Industriebetrieben mit Leistungsmessung bezahlen die meisten Endkunden Pauschaltarife unabhängig vom gerade geltenden Strompreis und in weiten Bereichen unabhängig von der in Anspruch genommenen Leistung (in kW). 6

Gesamtwirtschaftlich rechnet man besser in Gigawatt (abgekürzt GW), d.h. Millionen kW. Die gesamte elektrische Arbeit wird häufig in Terawattstunden angegeben = Milliarden kWh.

260

Wolfgang Ströbele

Diese fehlende Orientierung der Nachfrager an aktuellen Knappheitssignalen wird bisher für viele Endverbraucher pragmatisch aus Abrechnungskostengründen in Kauf genommen. Ob flächendeckendes „smart metering", was ja seinerseits erhebliche Kosten verursacht, tatsächlich netto Kosten durch Lastverschiebung in verbrauchsärmere Zeiten und damit Nutzung billigerer Erzeugungstechniken einsparen könnte, ist derzeit noch offen. Strom ist zudem in ökonomisch relevanten Größenordnungen (bisher) nicht speicherbar und leitungsgebunden. Deshalb gibt es jeweils in kurzen Zeitperioden von z.B. Viertelstunden an der Börse unterschiedliche Strompreise je nach der schwankenden Nachfrage-Angebotskonstellation. Deshalb kann es auch zwischen Gebieten ohne ausreichende Stromleitungskapazität zu bestimmten Zeiten Strompreisunterschiede geben, wie sie beispielsweise jahrelang zwischen Deutschland und den Niederlanden regelmäßig zu den Mittagsstunden auftraten, wenn die billigeren deutschen Kohlekraftwerke wegen begrenzter Netzkapazitäten nicht mehr nach Holland liefern konnten und die Niederländer alte teure Gaskraftwerke anschalten mussten, um die Mittagsspitze zu decken. Aus technischen Gründen gibt es zudem ein Bündel von so genannten Systemdienstleistungen, die derzeit noch in großem Umfang von den konventionellen Kraftwerken bereitgestellt werden. Dazu gehören Schwarzstartfähigkeit, Frequenzstabilität, Spannungshaltung, Blindleistung u.v.a.m. Abbildung 1: Stündliche Lastwerte (Nachfrage) am 3. Mittwoch in GW GW

Stunde Quelle: entso, RWE

Aus Abbildung 1 erkennt man die saisonale Bandbreite der Nachfrage und deren zeitliche Verteilung auf die Stunden eines Tages. An den Wochenenden und an Feiertagen liegt die Lastkurve etwa um 10 GW niedriger. Die jeweilige Mittags- und Abendspitze beläuft sich auf 80 GW im Winter und über 70 GW im Sommer. Die tiefste Last wird an Sommerwochenenden nachts mit knapp 40 GW erreicht. Dieser Nachfrageverlauf entsteht als Ergebnis von Entscheidungen in Industrie, Gewerbebetrieben, Haushalten, Verkehr usw. und muss in jedem Augenblick durch Kraftwerke gedeckt werden.

Ordnungspolitische und Sachprobleme der Energiewende

261

Der Elektrizitätsmarkt war bis zum Ende der neunziger Jahre ein Markt mit zunächst neun, dann als Folge der Konzentrationswelle nur noch vier regionalen Gebietsmonopolisten, die letztlich die gesamte Wertschöpfungskette im Strommarkt in einer Hand hatten. Diesem Nachteil der Monopolstellung standen teilweise Regulierung der Endverbraucherpreise, bestimmte Verantwortlichkeiten für die Versorgung und auch erhebliche Synergien, z.B. zwischen Netzausbau und Kraftwerksstandortplanung gegenüber. Diese vier Gebietsmonopolisten waren RWE (vereint aus VEW und RWE), E.on (vereint aus Bayernwerk und Preußen-Elektra), EnBW (vereint aus Energieversorgung Schwaben und Badenwerk) sowie die Vattenfall Europe (ehemals VEAG, BeWAG und HEW). Diese Strukturen wurden durch zunächst funktionelle Trennung von Stromerzeugung, Handel und Transport/Verteilung in ein neues Marktdesign überfuhrt, das durch EU-Vorgaben inzwischen weiter entwickelt wurde. Inzwischen haben sich drei der großen Vier von ihren Netzen getrennt (E.on und Vattenfall) bzw. sind nur noch Teileigentümer der Netze (RWE); EnBW hat noch nicht endgültig über sein Netz entschieden. Die Bundesnetzagentur reguliert den Zugang und die Netzentgelte für das gesamte Transport- und die Verteilnetze, wobei sich letztere teilweise auch im Besitz von kommunalen und regionalen Unternehmen befinden. Ursprüngliche Ideen, eine einzige Deutsche Stromnetz AG unter Beteiligung der Energieunternehmen, des Staates und anderer Investoren zu gründen, scheiterten am politischen Widerstand. Heute erleben wir, dass der niederländische Betreiber Tennet, der das E.on-Übertragungsnetz übernommen hat, erhebliche Schwierigkeiten mit dem notwendigen Netzausbau für Offshore Windenergieanlagen hat. Die Konzeption, das bisherige monopolistische System durch ein wettbewerbliches System bei Stromerzeugung und -handel aufzubrechen, hat zumindest in den ersten zehn Jahren gut funktioniert. Der Strommarkt ist auf der Erzeugungs- und Handelsebene sehr viel wettbewerblicher geworden, Konsortien von Stadtwerken agieren als Newcomer, Kooperationslösungen mit Industriekraftwerken können realisiert werden, Stromhändler treten neu in den Markt, Börsenhandel für Strom entwickelt sich usw. Das heißt: Die Leitidee „Wettbewerb auch im Strommarkt" dominiert nach und nach den Markt. Die Preisbildung für Strom bei einem gegebenen Kraftwerkspark geschieht auf der Angebotsseite durch die so genannte Merit-Order-Kurve, einer aufsteigend nach Grenzkosten der Erzeugung angeordneten Leistung der bestehenden Kraftwerke. Links stehen die Kernkraftwerke und die Must-run-Kapazitäten (Laufwasser und Kraftwerke, welche schlecht abgeschaltet werden können) und dann bei heutigen Brennstoff- und C0 2 Preisen in aufsteigender Folge die unterschiedlich alten Braunkohlekraftwerke, Steinkohlekrafitwerke und die Erdgas befeuerten GuD-Anlagen sowie Öl- und einfache Gasturbinen. Nachfrageseitig reagieren höchstens einige große Industriebetriebe auf aktuelle Preissignale, die übrigen Verbraucher entfalten ihre Nachfrage bei gegebenem Gerätebestand nach individuellen Präferenzen.7 Die Stromnachfrage ist damit kurzfristig saisonal und im Tagesverlauf schwankend vorgegeben. Damit die vier Übertragungsnetzbetreiber auch bei unvermeidlichen Prognosefehlern oder Störungen die 7

Bei Anschaffung neuer Geräte können der Stromverbrauch und der Strompreis relevant sein.

262

Wolfgang Ströbele

notwendige Systemstabilität sicherstellen können, benötigen sie sehr kurzfristig mobilisierbare Kapazitäten, die auf drei verschiedenen Regelenergieauktionen (je nach Einsatzgeschwindigkeit) am Vortage und in der Vorwoche beschafft werden müssen. Die zeitliche Dimension der einzelnen Teilmärkte für den Gesamtstrommarkt verdeutlicht Abbildung 2. Abbildung 2: Zeitliche Einordnung der unterschiedlichen Teilmärkte

Terminmarkt day-ahead Markt Innertagesmarkt Beschallung von Regelenergie i—( Jahr

1 Monat

1 Woche

I ;s

1 Tag

1 Stunde

S ht ü

Einsatz von Regelenergic in Form von Ausgleichsenetgie 1

;ö> Minute

1 Sekunde

»

Die minütlich unterschiedliche Stromnachfrage muss jederzeit gedeckt werden, andernfalls führt ein Über- oder Unterangebot zum Netzzusammenbruch. Der Preis ergibt sich in jedem Augenblick aus dem realisierten Punkt auf der Merit-Order, wobei die kurzfristigen Grenzkosten auch Lastanpassungskosten und andere Systemkosten beinhalten. Das letzte eingesetzte Kraftwerk erzielt in diesem Augenblick einen Gewinn von nahe Null; die inframarginalen Kraftwerke erzielen einen Überschuss über die variablen Kosten, der als Deckungsbeitrag für die Kapitalkosten dient bzw. im Falle abgeschriebener Kraftwerke zum Gewinn beiträgt. Die Nachteile dieses Marktdesigns sind der fehlende Anreiz, die notwendige Transportkapazität im Netz bei der Standortwahl eines neuen Kraftwerks mit zu bedenken (fehlende G-Komponente in den Netzentgelten) und das so genannte „Investitionsdilemma" des nur wenige Stunden im Jahr benötigten Grenzkraftwerks, das seine Kapitalkosten bei Preisbildung zu Grenzkosten in einem solchen „energy only"-Markt niemals verdienen kann, so dass Preisspitzen und/oder Reaktionen großer Nachfrager (Kühlhäuser, Aluminiumhütten, etc.) für „die letzte Stunde" für einen Ausgleich sorgen müssen. Die Abbildung 2 verdeutlicht auch, dass der vermeintliche „Spotmarkt" für Strom aus technisch-organisatorischen Gründen auf den Day-ahead-Markt und den Innertagesmarkt bis zu einer Dreiviertelstunde vor der eigentlichen Stromlieferstunde zeitlich vorgelagert stattfindet. Bei „Gate-closure", das etwa für die Stunde 1 1 - 1 2 Uhr um 10.15 Uhr stattfindet, beendet der jeweilige Übertragungsnetzbetreiber allen Handel und agiert ab sofort nur nach den bis dahin ihm vorliegenden Fahrplänen und Regelenergieangeboten: auch er ist ein natürlicher Monopolist, der reguliert ist. Insgesamt hat aber dieser Schritt zu mehr Wettbewerb durchaus positive Ergebnisse auch für die Endverbraucher gehabt.

Ordnungspolitische und Sachprobleme der Energiewende

263

Vorrang fiir Stromerzeugung aus erneuerbaren Energien a) Probleme der volatilen Einspeisung aus erneuerbaren Quellen Im folgenden Abschnitt soll zunächst fiktiv unterstellt werden, dass es nur einen volatilen, d.h. zufallig von Wind und Wetter abhängigen erneuerbaren Energieträger gäbe, dessen Investitionskosten in gute Standorte hinreichend niedrig wären, um z.B. bei einem Börsen-Strompreis von 4,5 Cent/kWh und durchschnittlich 2200 Vollaststunden wirtschaftlich anbieten zu können.8 Die Grenzkosten liegen nahe Null und dementsprechend könnte jede Anlage links in der Merit Order anbieten - sofern sie gerade wetterbedingt laufen kann. Der Markt würde auf ein solches Angebot wie folgt reagieren: Die Nachfrager oder deren Zwischenlieferanten fragen zu bestimmten Zeiten des Tages oder der Jahreszeit bestimmte Leistungen in MW nach. Diese gewünschten Verträge kann ein Park erneuerbarer volatiler Energien nicht eingehen, wenn er nicht eigene Speicherkapazitäten (Batterien, Power-to-gas mit anschließender Stromerzeugung aus Wasserstoff oder Erdgas) hat. Die Vermarktung könnte jedoch über den Day-ahead Markt laufen. Heute sind die Wetterprogosen für den Folgetag derart zuverlässig, dass ein relativ sicheres Angebot abgegeben werden kann. Die Käufer wären die konventionellen Stromerzeuger, die ihre Kraftwerke zwecks CO2- und Brennstoffeinsparung stundenweise im gegebenen Umfang je nach ihren dynamischen Kostenkalkulationen für Herauf- und Herunterfahren drosseln. In besonderen Wettersituationen ist das Stromangebot aus erneuerbaren Quellen so hoch, dass deren Kraftwerke einen Strompreis nahe Null erwirtschaften; umgekehrt reicht in anderen Situationen die Stromvergütung an die vermiedenen Brennstoffkosten der fossilen Kraftwerke heran. Da die konventionellen Kraftwerksbetreiber davon ausgehen können, dass sie einen bestimmten Prozentsatz ihrer Stromverkäufe (z.B. 10 %) nachträglich billiger beschaffen könnten, können sie sogar bei reichlichem Angebot Erneuerbarer unter Wettbewerbsbedingungen Lieferverträge geringfügig unter ihren Brennstoffkosten anbieten. Der Zubau weiterer Anlagen erneuerbarer Energien endet, wenn der Börsenpreis im Durchschnitt nicht mehr ausreicht, die fixen Kosten zu verdienen, also im obigen Zahlenbeispiel bei einem Preis von 4,4 Cent/kWh. Sollten die Investitionskosten anfanglich noch zu hoch für einen Marktzutritt sein, aber einer Lernkurve folgend sinken, könnte eine politisch erwünschte Förderung erneuerbarer Energie durch eine im Zeitablauf sinkende Marktprämie erfolgen, so dass die erwünschten Investitionen in der ersten Phase unterstützt würden. Den gleichen Effekt hätte eine Mengenquote, die zur Versteigerung gebracht würde. Dieser Philosophie einer marktwirtschaftlichen Integration der Erneuerbaren ist die Politik in Deutschland bisher nicht gefolgt. b) Politische Förderung abseits des Marktes Der Idee der wettbewerblichen Marktpreisbildung konträr entgegengesetzt kam mit dem Gesetz zur Förderung erneuerbarer Energien (EEG) ein neues Element zum Tra8

Die Investitionskosten einer solchen Anlage müssten bei 10 % jährlicher Annuität für Kapital-, Versicherungs- und Wartungskosten bei unter 1000 €/kW liegen. In der Realität gälte das derzeit in Deutschland nicht.

264

Wolfgang Ströbele

Tragen, das anfangs eher eine kleine Marktnische von wenigen Prozent besetzte und rein deshalb in seinen dramatischen Auswirkungen lange unterschätzt wurde. Im Jahre 2011 erreichte die Stromerzeugung aus erneuerbaren Quellen erstmals einen Anteil von 20 %. Die dazu notwendige Kapazität lag jedoch schon bei 37,5 %. Der Anteil volatiler - d.h. nicht sicher planbarer Kapazitäten betrug fast 75 % der gesamten Erneuerbaren, d.h. mehr als ein Viertel der Gesamtkapazität. Der wesentliche Grund für das Wachstum waren zwei Bausteine: Eine hohe Einspeisevergütung gestaffelt nach Technik und Standort (je schlechter der Standort, desto höher die Einspeisevergütung) sicherte die Wirtschaftlichkeit auch bei miserablen Laufzeiten; eine fast unbedingte Vorrangregelung sicherte die Einspeisung weitestgehend unabhängig von der tatsächlichen aktuellen Stromnachfrage. Nur bei akuter Gefahr für die Netzstabilität darf der Übertragungsnetzbetreiber z.B. Windkraft abregein. Diese unbedingte Vorrangregelung führte schon 2009 dazu, dass an einem Montagmorgen, an dem früh morgens die Last eine hohe Rampe nach oben geht, um 3 Uhr nicht benötigte konventionelle Kraftwerke nicht ausgeschaltet werden konnten, da sie um 6 Uhr absehbar dringend gebraucht wurden. Auch Kraftwerke, welche auf den schon stattgefundenen Regelenergieauktionen positive oder negative Regelenergie verkauft hatten und bei Abruf bereit stehen mussten, durften ihre Anlagen nur herunter fahren, aber nicht vollständig abschalten. Anstatt Biomassemotoren und Windanlagen abzuregein, durften diese weiter einspeisen, so dass stark negative Preise für einige Stunden erzielt wurden. Hätten diese Anlagen wenigstens zu Grenzkosten (nahe Null für Wind, Biomassekosten für Biogasmotoren) anbieten müssen, wären sie aus dem Markt genommen worden und die Situation wäre entspannter gewesen.9 Der Vorrang für Strom aus erneuerbaren Energien sorgt für eine stochastische Marktspaltung: Je nach Wetterlage ist die zu bedienende Residualnachfrage für den (wettbewerblichen) Restmarkt unterschiedlich groß. Der normalen tageszeitlichen und saisonalen Schwankung wird für die konventionelle Erzeugung jetzt ein weiteres immer wichtiger werdendes Element der Schwankung hinzugefügt. Im Sommer verschwindet die bisher übliche Nachfragespitze um die Mittagszeit bei gutem Wetter wegen der Photovoltaikeinspeisung - diese geht aber im Winter je nach Wetterlage schwankend auf nahe Null und muss dann wieder durch konventionelle Kraftwerke oder im begrenzten Umfang durch Pumpspeicher abgedeckt werden. Der Wettbewerbsbereich bekommt die technisch und ökonomisch undankbare Aufgabe zugewiesen, den „Rest" abzudecken, der jedoch wegen der angestrebten Ziele über die nächsten vier Jahrzehnte immer kleiner wird. Die Kapazitäten soll er aber dennoch vorhalten, auch wenn ein GuD-Krafitwerk, das gestern noch 4000 Volllaststunden lief, dann nur noch 1500 - 2000 Stunden bringt: Personalkosten, Betriebsbereitschaft und Deckung der Kapitalkosten entwickeln sich zu einer unlösbaren Aufgabe. Deshalb geht es zunehmend nicht nur um die Wirtschaftlichkeit von Neubauten,10 sondern auch der Betrieb der Altanlagen wird ökonomisch schwierig. Dies hat zu einer Diskussion um die Notwendigkeit von Kapazitätsmärkten geführt, weil die Altanlagen im Notfall doch gebraucht werden.11 9

Zum Vorrang erneuerbarer Energien und zum Problem negativer Preise vgl. Andor et. al. (2011). Neubauten haben i.d.R. einen technisch besseren Wirkungsgrad, liegen also innerhalb ihres Kraftwerkstyps eher links in der Merit-Order, was sie öfter zum Einsatz bringt. 1 ' Auch Kapazitätsmärkte lassen sich unterschiedlich marktorientiert erstellen. Vgl. dazu Haikel 2011. 10

265

Ordnungspolitische und Sachprobleme der Energiewende

Abbildung 3: Stromverbrauch und Einspeisung Erneuerbarer Energien

Lastschwankung in 8 Std.: 30 GS

EinspeiseSchwankung in 8 Std.: 25 GW

8.1 Stromverbrauch

15.1

22.1

29.1

Einspeisung emeuerbarer

Quelle: RWE, entso

Wie das ganze nach einem vollzogenen Kernenergieausstieg und der angestrebten regenerativen Quote im Jahr 2030 aussehen könnte, ist in den folgenden beiden Tabellen skizziert. Tabelle 1 zeigt die Ist-Situation im Jahr 2010, Tabelle 2 eine unveränderte Stromerzeugung im Jahr 2023. Dabei ist unterstellt, dass Stromnachfragewachstum und -einsparung sich in etwa ausgleichen. Die Brutto-Stromerzeugung ist also jeweils mit knapp 630 TWh angenommen.12 Die deutsche Stromerzeugung 2010 wurde zu weniger als 20 % durch regenerative Quellen erbracht. Rechnet man den stabil kalkulierbaren Anteil der Wasserkraft von etwa 21 TWh heraus, die es schon vor zehn Jahren gab, so ist das Wachstum vor allem drei Säulen zu verdanken: Windkraftanlagen, Photovoltaik (PV) und Biogasanlagen erzeugten 2010 rund 77 TWh Strom (12,2 %). Die Benutzungsstundenzahl der Kapazität ist aus natürlichen Gründen bei Wind und PV niedrig und zudem Ausdruck einer Förderpolitik auch an schlechten Standorten. Die Effekte auf einer kurzfristig gegebenen Merit-Order-Kurve bewirken je nach Angebot der schwankenden Erzeugung von Wind und PV einen sporadisch sinkenden Großhandelsstrompreis, was durchaus im Sommer mittags deutlich über 1 Cent/kWh ausmachen kann, während es in der übrigen Zeit stark vom Wind abhängt.

12

Inzwischen liegen auch bereits Zahlen für 2011 vor. Diese ändern aber nichts an der Argumentation. Vgl. dazu Musiol et al. (2012).

266 •

Wolfgang Ströbele

Tabelle 1: Stromerzeugung aus konventionellen und erneuerbaren Anlagen 2010 Deutsche Stromerzeugung 2010 Steinkohlen

TWh 2010

Kapazität

Stunden

117,0

30,2

3880

Braunkohlen

145,9

22,7

6433

Mineralöl

8,4

5,9

1427

Erdgas

86,8

23,8

3652

Kernenergie

140,6

21,5

6535

Windkraft onshore

37,8

27,2

1389

0,0

0,0

0

Wasserkraft

21,0

4,8

4393

Biomasse

27,6

4,9

5623

Photovoltaik

11,7

17,3

675

Müll

4,8

1,5

3230

andere

26,7

6,2

4306

628,1

165,8

3788

offshore

Insgesamt Quelle: BMWi (2012).

Tabelle 2: Stromerzeugung 2023 ohne Kernenergie und 40 % regenerativ TWh 2023

Kapazität

Stunden

Steinkohlen

93,6

26,0

3600

Braunkohlen

132,0

22,0

6000

Mineralöl

5,0

4,2

1200

Erdgas

146,0

36,5

4000

Kernenergie

0,0

0,0

0

Windkraft onshore

62,0

40,0

1550

offshore

44,0

10,0

4400

Wasserkraft

22,9

5,2

4400

Biomasse

50,4

9,0

5600

Photovoltaik

38,7

52,0

745

Müll

5,5

1,7

3250

Andere

28,0

6,5

4300

628,1

213,1

2948

Deutsche Stromerzeugung 2023

Insgesamt Quelle: eigene Szenarioberechnungen

Ordnungspolitische und Sachprobleme der Energiewende

267

Dennoch müssen die Kosten für die Vergütung der EEG-Stromerzeugung vom Endverbraucher aufgebracht werden.13 EEG-Strom wird derzeit mit Fördersätzen zwischen 8,7 und über 30 Cent/kWh entgolten, was bei einem Börsenpreis von unter 5 Cent/kWh eine erhebliche Umlage verlangt. Diese Umlage belief sich noch 2010 auf etwas über 2 Cent/kWh, 2012 jedoch schon 3,59 und für 2013 werden 5,28 Cent/kWh erreicht. Für einen privaten Haushalt mit zwei Kindern und einem Jahresverbrauch von 4000 kWh heißt das: Die EEG-Stromumlage belastete ihn 2010 mit rund 14 € monatlich, was 2013 inklusive der Mehrwertsteuer auf fast 21 € monatlich steigen wird. Auch wenn diese Förderung schon 2010 einen zweistelligen Milliardenbetrag erreichte, so war bis auf wenige Ausnahmen die Stabilität des Stromsystems nicht in Gefahr. Das beruhte vor allem auf einer ziemlich gut gesicherten konventionellen Kapazität von brutto über 100 GW, netto weit über 90 GW, während die Jahreshöchstlast im Netz weniger als 82 GW ausmachte. Die konventionellen Kraftwerke (inklusive der noch laufenden Kernkraftwerke) reichten also noch aus, auch bei Totalausfall aller erneuerbaren Erzeugung das Marktgleichgewicht bei Höchstlast zu erreichen. Wie könnte eine Situation in 2023 aussehen, wenn der Kemenergieausstieg vollzogen ist und die Erneuerbaren einen Anteil von 40 % an der Stromerzeugung erreicht haben, wie es die Politik derzeit will und was etwa Tabelle 2 widerspiegelt? Die Kernkraftwerke leisten 2023 keinen Stromerzeugungsbeitrag mehr, Windkraftkapazitäten steigen um über 20 GW, davon etwa die Hälfte offshore. Biomassestromerzeugung steigt um 4 GW, PV um über 30 GW, Wasserkraft durch Modernisierungen um 0,5 GW. Dann lassen sich unter optimistischen Annahmen über die erreichbaren Stundenzahlen die angestrebten 40 % erreichen. Dank des Kernenergieausstiegs bleibt die Braunkohle eine nach wie vor wichtige Säule der Grundlastversorgung, während die GuD-Erdgas-Kraftwerke und moderne Steinkohlekraftwerke die stark schwankende Restlast bedienen. Allerdings haben die konventionellen Kraftwerke nur noch einen Anteil von 42 %, die Erneuerbaren hingegen einen Anteil von 58 % der Kapazität. Bereits im Jahr 2012 kam es zu heftig schwankenden Beiträgen der volatilen erneuerbaren Energien. Bei normalen Schwankungen der Gesamtnachfrage um etwa 30 GW innerhalb von 8 Stunden verstärkt sich diese Schwankungsbreite in ungünstigen Fällen auf 50 GW, wenn die nach Abzug der vorrangig einspeisenden erneuerbaren Quellen verbleibende Residualnachfrage stundenscharf betrachtet wird. Diese zusätzliche Schwankung wird spätestens ab 2023 zu Problemen fuhren, wenn sie 30-35 GW betragen kann, so dass die konventionellen Kraftwerke bis zu 60 GW GesamtSchwankung nachfahren müssten. Bei einer Schwachlast der Nachfrage von 40 GW im Jahr 2023 (Samstag nachts) kann es bei ausreichend Wind und dem Angebot der übrigen Erneuerbaren von 15 GW sehr leicht zu Situationen kommen, wo das System technisch nicht mehr funktioniert. Die Frequenz- und Spannungshaltung durch die konventionellen Kraftwerke steht in Frage: Sie werden einige Stunden am Tag und vor allem in der Nacht nicht benötigt.

13

Auf die Ausnahmen, nämlich energieintensive Industrien und das so genannte Grünstromprivileg wird weiter unten eingegangen.

268

Wolfgang Ströbele

Dazu ist das potentiell häufig auftretende Überangebot im deutschen Markt nicht mehr absetzbar. Aber auch tagsüber oder abends kann es zu Problemen kommen: Die Winterspitze von etwa 80 GW werktags abends kann bei längerem starken Frost auf ein Angebot von niedriger Wasserführung der Flüsse treffen. Dann sind nur Biomasseverstromung und Wind große Anbieter, was aber auch bedeutet, dass bei kaltem windschwachem Wetter das Stromangebot sehr stark von den konventionellen Kraftwerken kommen muss. Diese werden mangels Attraktivität aber nicht im ausreichenden Maße zugebaut, da sie nicht mehr auf die Jahresstundenzahl kommen, um ihre Kapitalkosten zu decken. Dazu kommen die großen Probleme der regionalen Disparitäten: Das Hauptwindangebot konzentriert sich stark auf den Norden, Photovoltaik - die vor allem um die Tagesmitte im Sommer gut verfügbar ist - auf den Süden Deutschlands. Die Stromnachfrage im Süden, der durch den Kernenergieausstieg viel verbrauchsnahe Erzeugung verliert, kann nur bei hinreichendem Trassenausbau gewährleistet werden. Dieser erforderliche Nord-Süd-Trassenbau und die Anbindung der Offshore Windanlagen sind innerhalb der nächsten zehn Jahre äußerst fragwürdig. Dies liegt einerseits daran, dass die Behebung bereits länger bestehender Netzengpässe seit mehreren Jahren durch Bürgerinitiativen aufgehalten wird, was in einem Rechtsstaat in Kauf zu nehmen ist. Dies betrifft z.B. eine Stromtrasse von Thüringen nach Nordbayern, die aber spätestens mit der Abschaltung des Kernkraftwerks Grafenrheinfeld nach 2015 benötigt wird. Andererseits ist der Ersatz der süddeutschen Strommengen aus Kernenergie billiger durch Transport von Strom von Kraftwerken aus dem Norden, da es im deutschen Marktdesign keine G-Komponente, sondern entfernungsunabhängige Transportentgelte gibt. Und der Transport von Kohle nach Bayern ist relativ teuer. Der in Norden häufiger anfallende Windstrom erfordert ebenfalls neue Trassen. Ob die reale Umsetzung der hierfür inzwischen eingeleiteten Planungsschritte rechtzeitig erfolgt, ist zumindest offen. Schon diese zusätzlichen Netzkosten sind erheblich. Zusätzlich kommen auf die regionalen und kommunalen Verteiler auf Niedrig- und Mittelspannungsebene Netzausbauerfordernisse hinzu, die ebenfalls Milliardenbeträge kosten werden. Andernfalls scheitern Netzanbindungen von (Onshore-)Wind- und PVAnlagen. Die dafür notwendigen Budgets müssen von der Bundesnetzagentur erst noch genehmigt werden. Die Mehrkosten werden auf die Stromkunden umgelegt. Wenn (kostengünstige) Speicherkapazitäten für Strom im GW-Bereich und ausreichende Nord-Süd-Trassen verfügbar wären, könnte man die Situation entspannter betrachten. Dieser Speicher-Ausbau müsste in den nächsten fünf Jahren begonnen und dann sukzessive in erhebliche Größenordnungen fortgesetzt werden. Deutschland weist bisher etwa 7 GW Pumpspeicherkapazität auf, die wechselnd durch Hochpumpen von Wasser gefüllt und dann entleert werden, so dass im Jahr etwa 0,7 % der Jahresstromerzeugung zeitlich verlagert werden können.14 Bezogen auf einen 14

Pumpspeicherwerke enthalten Wasserbecken, die in Schwachlastzeiten durch Pumpen aufgefüllt werden und in ökonomisch besseren Lastsituationen durch Ablassen Wasserkraftstrom erzeugen. Das Verhältnis von Pumpstromverbrauch zu -erzeugung beträgt etwa 1 : 0,7, so das netto zwar Strom vernichtet wird. Der ökonomische Wert besteht aus der zeitlichen Verlagerung in teure Spitzenlastzeiten. Ökologisch sind sie insofern problematisch, als sie wegen des ständig wechselnden Wasserspiegels keine normalen Seen mit Fauna und Flora sein können.

Ordnungspolitische und Sachprobleme der Energiewende

269

Werktag kann damit eine Größenordnung von bis zu 2 % des Tagesstromverbrauchs in Deutschland gedeckt werden. Die für den geplanten Ausbau der erneuerbaren Stromerzeugung notwendige Speicherkapazität beläuft sich aber zusätzlich auf einen zweistelligen GW-Betrag mit erheblichen Speichermöglichkeiten elektrischer Arbeit auch über mehrere Tage, d.h. die bisher normalen Zyklen für die Pumpspeicherwerke gelten dafür nicht mehr. Während der Trassenausbau dank politischer Unterstützung sukzessive angegangen wird, aber dennoch bei weitem nicht ausreicht und absehbar verspätet kommt, ist bei großtechnischen Speichertechniken überhaupt keine Lösung für das Jahr 2023 oder auch nur 2030 in Sicht. Ein geplantes Großpumpspeicherwerk im Schwarzwald wird nur zusätzlich mit anderen Erweiterungen bis 2020 maximal 2 GW zusätzlich bringen. Zudem sind heute schon Neubauten von Pumpspeicherwerken wegen der zumindest im Sommerhalbjahr wegbrechenden Mittagsstromspitze - die bisher auch eine Preisspitze bedeutete - nicht mehr wirtschaftlich. Der massive Ausbau der Biogasanlagen (z.B. von knapp 5000 Anlagen im Jahr 2009 auf 7500 im Jahr 2012) bringt nicht nur einen verstärkten Anbau von energetisch zu nutzenden Pflanzen mit sich und sorgt so über steigende Preise für landwirtschaftliche Flächen für die Konkurrenzproblematik zur Nahrungsmittelerzeugung, sondern ist auch ökologisch fragwürdig. Vor etwa 15 Jahren gab es eine große Diskussion über den damals schlechten Zustand der russischen Erdgasforder- und -transporteinrichtungen. Die dort ausgelösten Methanemissionen waren Gegenstand heftiger Kontroversen, da schon damals Deutschland große Mengen Erdgas aus Russland bezog. Für Erdgas ist dieses Problem inzwischen weitestgehend gelöst. Mit dem starken Ausbau der Biogaserzeugung handelt sich Deutschland nicht nur die üblichen Lachgasemissionen für Stickstoffdüngung ein, sondern auch CCVEmissionen für Sammeln und Transportieren und vor allem weitestgehend unkontrollierte und kaum gemessene Methanemissionen aus mittlerweile über 7500 Einzelanlagen, die im Betrieb und bei Wartung oder Reparaturen dieser sehr unterschiedlich großen Anlagen entstehen. Methan ist ebenfalls ein Treibhausgas, das in der Klimaschädlichkeit etwa 25 Gewichtseinheiten CO2 entspricht. Mangels Messung und wegen statistisch sektoraler Zuordnung erscheint somit die Biomassenutzung als scheinbar unproblematischer als sie tatsächlich ist.

2. Detailprobleme im Strommarkt Einige besondere Probleme im deutschen Strommarkt sollen noch gesondert genannt werden. Ein durch politische Entscheidungen derart gespaltener Markt erzeugt natürlich auch „Rent-seeking-activities", um Kosten auf Dritte abzuwälzen und individuelle Vorteile zu gewinnen. In so genannten „Grünstromprivileg"-Regeln gibt es teilweise Ausnahmen von der EEG-Umlage, wenn der Stromhändler auf dem Wege der Direktvermarktung oder die örtliche EE-Anlagen als lokale Versorger tätig sind. Dieses Privileg ist seit 2012 auf maximal 2 Cent/kWh gedeckelt, an über 50 % erneuerbare Energien im gesamten Stromportfolio, davon mindestens 20 % aus Wind und PV, und eine gewisse zeitliche Verteilung dieses Stromaufkommens gebunden. Dieses

270

Wolfgang Ströbele

Energiehandelsunternehmen kann dann von der EEG-Umlage insgesamt, also auch für 49,9 % konventionell erzeugten Strom, befreit werden. Dasselbe gilt für das so genannte „lokale Grünstromprivileg" vor allem im ländlichen Raum. Auch „Stadtwerke" eines dörflichen und kleinstädtischen Gebiets benötigen aber das Netz, um den Strom zu verteilen und Strombezug vom „großen" überregionalen Netz für einen deutlich positiven Prozentsatz zu sichern. Warum es überhaupt für erneuerbaren Strom eine Befreiung von der EEG-Umlage geben soll, kann nur mit politischer Ökonomie als Folge wirkungsvollen Lobbyismus erklärt werden. Es gibt keinen sachlichen Grund dafür. Und die Netzentgelte für das „große" Transportnetz liegen in der Größenordnung von 1 Cent/kWh, die der Verteilnetze um den Faktor 5 - 6 höher. Nur wenn eine Region völlig auf Inselbetrieb umschalten würde, wäre eine Loslösung vom gesamten übrigen Netz und dessen Kosten sinnvoll. Dann müsste sie aber sachgerecht immer noch die jeweils eigenen Netz- und Erzeugungskosten aufbringen. Die steigende EEG-Umlage lässt auch die Industriestrompreise steigen. Um die Folgen der international unter starkem Wettbewerbsdruck stehenden Industrien zu vermeiden, sind bestimmte stromintensive Industrien entweder ganz oder teilweise von der Zahlung der Umlage befreit. Damit umgeht die Regierung das Problem, dass der Bau und Betrieb etwa von Windanlagen Arbeitsplätze schafft, aber gleichzeitig über die Umlage Arbeitsplätze an anderer Stelle sichtbar vernichten würde.15 Die reale Ausgestaltung dieser Ausnahmetatbestände führt aber dazu, dass es lohnend sein kann, Strom absichtlich zu vernichten, um in den Genuss der Umlagenbefreiung, d.h. in den Club der begünstigten Betriebe, zu kommen. Die oben angesprochenen negativen Preise bei gutem Windangebot und gleichzeitig niedriger Stromnachfrage an einem Sonntag- oder Montagmorgen und gleichzeitiger vorrangiger Einspeisung eines beliebig hohen Windstromangebots sind ebenfalls ein Signal für eine offenkundige Ineffizienz des Marktdesigns. Natürlich kann es dieses Phänomen auch in einem rein konventionellen Krafitwerkspark geben; mit Vorrang für bestimmte Energieträger verschärft es sich dramatisch. Um eine Änderung herbeizuführen, wäre eine koordinierte Aktion der Politik notwendig. Hier erweist sich der Egoismus der 16 Bundesländer als zusätzlicher Hemmschuh. Die südlichen Bundesländer weisen einen natürlichen Vorteil bei der Photovoltaik auf, die norddeutschen Flächenstaaten einen entsprechenden Vorteil bei Windenergie. Bei einem Aufkommen der EEG-Umlage von demnächst fast 20 Mrd. € pro Jahr entsteht für Flächenländer wie Mecklenburg-Vorpommern, Sachsen-Anhalt und Brandenburg ein Netto-Mittelzufluss, der mit zusammen über 940 Mill € pro Jahr dem Länderfinanzausgleich nicht nachsteht. Es ist also politisch zusätzlich äußerst schwierig geworden, aus diesen Interessenskonflikten zu einer sachlich guten Lösung zu kommen.

15

Obwohl natürlich indirekt durch die Budgeteffekte bei den Haushalten Nachfrage an anderer Stelle ausfallt und damit dort mögliche Beschäftigung dämpft.

Ordnungspolitische und Sachprobleme der Energiewende

271

3. Resümee für den Strommarkt Das Resümee für den Strommarkt ist, dass die angestrebten Anteile erneuerbarer Energien in der Stromerzeugung sachlich zeitgleich die Entwicklung sehr großer Stromspeicherkapazitäten, den starken Ausbau des Nord-Süd-Höchstspannungsnetzes und eine deutliche Verstärkung der regionalen Verteilnetze zusammen mit dem Ausbau der Erzeugungskapazität verlangen. Es wäre also sachgerecht, die Ausbauziele für regenerative Erzeugung an die Geschwindigkeit des Ausbaus von Speichern und Leitungstrassen zu koppeln; bisher gibt es keinen derartigen Vorbehalt. Der fast unbedingte Vorrang der erneuerbaren Stromerzeugung ist bei einer Kapazität von über 120 GW (60 %) aus Systemgründen nicht mehr durchzuhalten, da bei Extremlasten und jeweils ungünstigen Wetterbedingungen ein Zusammenbruch des Gesamtsystems nicht auszuschließen ist. Was heißt „Vorrang" für EEG-Strom, wenn die Last im Netz an einem Sommerwochenende unter 50 GW beträgt, bei Sonne und mittlerem Wind jedoch aus erneuerbaren 70 GW eingespeist werden sollen? Welche Kraftwerke können dann noch die technische Systemstabilität gewährleisten? Sollen die dann notwendigerweise abgeregelten Milliarden kWh auch noch mit mindestens 10 Cent/kWh vergütet werden? Die erhöhten Kosten und zusätzliche CCh-Emissionen durch den notwendigen sehr flexiblen Einsatz des konventionellen Kraftwerksparks werden nicht dem Konto der erneuerbaren Kraftwerke angelastet, obwohl dadurch verursacht. Die für die technische Sicherheit erforderlichen konventionellen Kraftwerke werden wegen fehlender Wirtschaftlichkeit unzureichend zugebaut; stattdessen bleiben die Altanlagen mit schlechter C02-Bilanz aus Netzsicherheitsgründen weiter in Betrieb, so dass dem Klimaschutzziel zuträgliche Modernisierungen des konventionellen Kraftwerksparks unterbleiben. Altanlagen, die Anlagenbetreiber mangels Kostendeckung abschalten möchten, werden für die „Winterreserve" bereits für die Kapazitätsvorhaltung bezuschusst. Aber gegenüber einem in Energiefragen normal informierten Wähler kann die Politik nach wie vor über die wachsenden Probleme und Ineffizienzen hinweggehen: Nur die absehbar weiter steigende EEG-Umlage dürfte das gehörige Ausmaß an Bauchschmerzen ergeben.

III. Die Sachprobleme der Energiewende II: andere Sektoren Der Stromverbrauch macht zur Zeit immer noch nur etwa gut ein Fünftel des Endenergieverbrauchs aus. Der Kraftstoffverbrauch im Verkehr, die industrielle Hochtemperatur-Wärmeerzeugung, der Heizungs- und Warmwasserbedarf etc. stehen für die fast 80 % des übrigen Verbrauchs. Als erstes stellt sich die Frage, warum die Bundesregierung nicht einfach auf die Marktkräfte vertraut. Bei den gegenüber den neunziger Jahren inzwischen real deutlich angestiegenen Preisen für Kraftstoffe, Heizöl, Erdgas usw. sind bereits zahlreiche Unternehmen und Haushalte dabei, ihre Optimierungskalküle bezüglich Wärmedämmung, Heizungspumpen, Kraftstoffverbrauch, Wahl des besten Verkehrsmittels

272

Wolfgang Ströbele

USW. zu überprüfen.16 Wenn man in einer solchen Situation gesonderte Förderprogramme auflegt, ist mit einer hohen Quote von Mitnahmeeffekten zu rechnen. Bereits 2009 ist das Erneuerbare-Energien-Wärmegesetz in Kraft getreten. Es schreibt vor, dass Eigentümer neuer Gebäude einen Teil ihres Wärmebedarfs aus erneuerbaren Energien decken müssen - dies angesichts eines immer geringer werdenden Wärmebedarfs wegen besserer Dämmung und besserer Heizungstechniken konventioneller Heizungsanlagen. Der dank der Dämmung ohnehin niedrige Restwärmebedarf soll dann noch mit zwei verschiedenen Systemen gedeckt werden? Die Marktkräfte könnten dagegen bspw. entscheiden, ob eine Wärmeversorgung eines Gebietes durch Kraft-Wärme-Kopplung günstiger sein könnte als Modernisierungen von Heizungsanlagen oder eine noch bessere Gebäudedämmung. Da jedoch alles einer Förderung aus einer Vielzahl von Fördertöpfen oder gesetzlichen Vorgaben unterliegt, weiß kein Investor, auf welcher Basis eine langfristige Entscheidung zu treffen sein wird. Dann braucht er ebenfalls eine gesonderte Förderung. Im Verkehr versucht die Bundesregierung mit einer Vorgabe für den zulässigen CO2Emissionswert auf 100 km mit Androhung einer zaghaften Kfz-Steuer-Pönale einerseits und mit der Zielvorstellung von einer Million Elektroautos für 2020 andererseits in „die richtige Richtung" zu steuern, während die Autohersteller längst dabei sind, Turbodieselfahrzeuge oder aufgeladene Benziner so zu optimieren, dass heute neue Autos der oberen Mittelklasse mit unter 5-6 1/100 km zu betreiben sind. Den Rest könnte der Markt regeln. Die Beimischung von Ethanol zum Benzin ist ebenfalls eine staatliche Vorgabe, die zusammen mit der Förderung von Biomasse für Verstromung und für Heizzwecke zur verstärkten energetischen Nutzung von Ackerflächen geführt hat. Die amerikanische Dürre in 2012 hat deswegen zu einer verstärkten Diskussion über die Konkurrenz zur Nahrungsmittelerzeugung geführt. Agrarische Reste (Holzverschnitt, Stroh, etc.) in wirtschaftlichem Umfang energetisch nutzen ist sinnvoll; große Flächen dank der subventionierten Biomassenutzung umwidmen hingegen nicht. Dieser Regulierungsdrang, bestimmte Techniken zu favorisieren, widerspricht dem Prinzip des Marktes als Entdeckungsverfahren. Da vielerorts mehrere sich sogar konterkarierende Techniken gefordert werden, sind Ineffizienzen vorprogrammiert. Außer dem Mieter-Vermieter-Dilemma und Informationsmängeln hat die Regierung bisher auf keine Quelle des Marktversagens hinweisen können. Und über die Medien könnte das Informationsdefizit vieler Energienutzer kostengünstig mit einer Informationskampagne behoben werden.

16

Das erwies sich nach 1973, dem Jahr des ersten „Ölpreisschocks", als wirkungsvolles Mittel, was allerdings Zeit bis zur Umsetzung erforderte. Saudi-Arabien bezahlte dann den 2. „Ölpreisschock" 1979 mit einer raschen Umsetzung neuer Techniken bei den Verbrauchern, Marktanteilsverlusten und Haushaltsproblemen, so dass es in Dezember 1985 seine damals politisch motivierte Strategie änderte.

Ordnungspolitische und Sachprobleme der Energiewende

273

IV. Zusammenfassung Die Zielsetzung der Energiewende ist mit dem Klimaschutzziel zwar sehr ehrenwert, aber angesichts eines deutschen Anteils von heute 2,5 % an den energiebedingten Weltkohlendioxidemissionen ist der Nutzen inzwischen zweifelhaft. Insbesondere das Ausmaß und das Tempo der angestrebten Energiewende sind nicht gut begründet. Das Installieren eines politisch erzwungenen gespaltenen Strommarkts in einen wettbewerblichen und einen (auf Wunsch) geschützten und subventionierten Bereich führt auf mittlere Sicht zu einem drastischen Subventionsvolumen, gegen das die vormals deutschen Steinkohlesubventionen bescheiden wirken und zu einem Markt, in dem die Anreize für den Weiterbetrieb alter und für den Neubau von konventionellen Kraftwerken immer geringer werden. Diese Subventionen werden auf die Stromkunden abgewälzt. Wie die EU-Vorgabe für einen wettbewerblich orientierten Strommarkt mit dessen ständiger durch Förderung erneuerbarer Erzeugung erzwungenen Schrumpfung kompatibel ist, wird sich noch zeigen müssen. Der sachlich notwendige Dreiklang - Erzeugung durch volatile Quellen, dafür notwendige Speicher und Leitungsbau - wird erst seit kurzem wahrgenommen. Die Probleme wären mit riesigen Stromspeicherkapazitäten zu lösen, diese sind aber noch nicht annähernd in Sicht. Die Versorgungssicherheit steht dann mittelfristig auf dem Spiel. Der Interventionismus in die übrigen Marktbereiche wie Verkehr oder Wärmemarkt zeugt von fehlendem Vertrauen in die Marktkräfte. Die Regierung fordert und reguliert direkt inzwischen an so vielen Stellen, dass sie sogar Maßnahmen, die angesichts der allgemeinen Energieverteuerung wirtschaftlich geworden sind, ihren Programmen zuschreiben kann.

Literatur Andor, Mark u.a., Negative Strompreise und der Vorrang erneuerbarer Energien, Zeitschrift für Energiewirtschaft, Heft 2, 2010, S. 47-55. Gesetz für den Vorrang erneuerbarer Energien, Fassung vom 1. Januar 2012, Bundesgesetzblatt, Berlin. Haikel, Khalfallah Mohammed, A Game Theoretic Model for Generation Capacity Adequacy: Comparison Between Investment Incentive Mechanisms in Electricity Markets, The Energy Journal, Vol. 32, Nr. 4, 2011, S. 117-157. Huntington, Hillard G., The Policy Implications of Energy-Cost-Curves, The Energy Journal, Vol 32 (Special Issue 1), October 2011, S. 7-21. Liebau, Björn, Wolfgang Ströbele, The Shortcomings of the Architecture of the German Electricity Market, The Electricity Journal, Vol. 25, Issue 5, June 2011, S. 21-28. Musiol, Frank u.a., Entwicklung der emeuerbaren Energien in Deutschland 2011, Energiewirtschaftliche Tagesfragen, 62. Jg., Heft 10, 2012, S. 51-53. Sachverständigenrat für Umweltfragen (SRU), Wege zur 100 % erneuerbaren Stromversorgung, Sondergutachten, Hausdruck, Januar 2011. Ströbele, Wolfgang, W. Pfaffenberger, M.Heuterkes, Energiewirtschaft - Einführung in Theorie und Politik, Oldenbourg-Verlag, München, 3. Auflage, 2012.

274

Wolfgang Ströbele

Zusammenfassung Die Zielsetzung der Energiewende ist nicht gut begründet. Bei einem deutschen Anteil von heute 2,5 % an den energiebedingten Weltkohlendioxidemissionen sind der Nutzen von Ausmaß und das Tempo der angestrebten Energiewende zweifelhaft. Ein politisch forcierte Spaltung des Strommarkts in einen wettbewerblichen und einen subventionierten Bereich fuhrt auf mittlere Sicht zu einem drastischen Subventionsvolumen und zu einem Markt, in dem die Anreize für Weiterbetrieb alter und für den Neubau von konventionellen Kraftwerken immer geringer werden. Diese Kraftwerke würden aber benötigt. Die Subventionen werden als Umlage auf einen Teil der Stromkunden abgewälzt. Die sachlich notwendige Parallelität des Ausbaus von Erzeugung durch volatile Quellen, dafür notwendige Speicher und Leitungsbau wird jetzt erst wahrgenommen. Die Probleme wären mit riesigen Stromspeicherkapazitäten zu lösen, diese sind aber noch nicht in Sicht. Die Versorgungssicherheit steht dann auf dem Spiel. Der Interventionismus in die übrigen Marktbereiche wie Verkehr oder Wärmemarkt zeugt von fehlendem Vertrauen in die Marktkräfte. Die Regierung fordert und reguliert direkt inzwischen an zu vielen Stellen.

Summary: Problems of the turnaround in energy policy in Germany after 2011 The aims of the turnaround in energy policy ("Energiewende") in Germany after 2011 have no solid foundation. Meanwhile, the share of German carbon emissions is only 2,5 % of world's emissions. So the benefits of the extent and speed of German energy policy is doubtful. The political enforced division of a decreasing competitive market on the one side and a system of subsidies on the other side in the electricity market leads not only to a large volume of subsidies, but also to problems of the residual market with "classic" power generation. This part of the supply side is still necessary since a very large part of renewable generation is volatile. But the market incentives to build new capacities or to continue with old capacities are too weak. Therefore we have a discussion on capacity markets, which require additional subsidies. In fact, we would need a parallel building of renewable capacities, north-south expansion of the grid and simultaneously a construction of very large storage capacities. Germany does the first very strongly, lacks behind with the second, and the third requirement still is cloud-cuckoo-land. This will cause risks to the safety of the system. Concerning the other markets, we have a lot of interventions into the transport and heat sector, which in many areas are contradictory. Instead of trusting into market signals, the government intervenes at too many places.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Klaus Schöler

Irrwege der Klimapolitik Anmerkungen aus volkswirtschaftlicher Sicht Inhalt I. II. III. IV. V.

Einleitung Es gibt kein Normalklima Folgen des Klimawandels Folgen der Klimapolitik Schlussfolgerungen

275 277 279 282 286

Literatur

287

Zusammenfassung

288

Summary: Wrong Tracks of Climate Policy - Notes from an Economic Point of view

288

I. Einleitung Unsere Zeit ist durchdrungen von der Klimadiskussion; sie umfasst alle Bereiche des Lebens, von Ernährung bis zur Energieerzeugung, von Reisen bis zur Rinderzucht. Eigentlich ist es nur am Rande eine Diskussion, im Zentrum eher eine mit Gewissheit ausgestattete Überzeugung: Alle Vorgänge, die Kohlendioxid erzeugen, vermehren diesen Stoff in der Atmosphäre weltweit und fuhren durch den Treibhauseffekt zum Temperaturanstieg mit katastrophalen Folgen, wie Überschwemmungen, Krankheiten, Dürre, Hunger, Stürme usw., kurz: eine von Menschen erzeugte Apokalypse, die nur durch die sofortige weltweite Reduktion des Treibhausgases Kohlendioxid noch abgewendet werden kann. Die prognostizierte Möglichkeit, die Apokalypse abzuwenden, mündet in klimapolitische Maßnahmen, die weltweit ohne Ausnahmen umzusetzen sind: Aufgabe der Energieerzeugung aus fossilen Brennstoffen, Reduktion von Transport und Reisen, sofern damit Kohlendioxidausstoß verbunden ist, Einschränkung von Heizen und Produktion usw. Nicht weniger als ein Umbau der Gesellschaft, eine Umkehr in Produktion und Konsum werden verlangt.1

'

Der Autor dankt zwei unbekannten Gutachtern für ihre Hinweise, Anregungen und Kritik. Einen guten Überblick gibt das jüngste Gutachten des Wissenschaftlichen Beirats der Bundesregierung, Welt im Wandel - Gesellschaftsvertrag für eine Große Transformation, Berlin 2011, sowie Christopher B. Field et al. (Hrsg.), Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation, Cambridge (UK), N e w York 2012.

276

Klaus Schöler

Zieht man den politischen Schleier zur Seite, so kommt ein wohldefiniertes ökonomisches Problem zum Vorschein. (1) Wir verfugen heute und in der Zukunft über Ressourcen, die alternativen Verwendungen zugeführt werden können, also beispielsweise dem Klimaschutz oder anderen wohlfahrtsstiftenden Verwendungen (Bildung, Krankheitsbekämpfung, sozialer Ausgleich usw.). (2) Übernimmt man die These der anthropogenen Klimaveränderung, so ist die einfache Frage zu stellen, welche Strategien die geringsten, auf den Entscheidungszeitpunkt diskontierten Kosten (im Sinne des Ressourcenverzehrs), und damit Wohlfahrtszuwachs, entstehen lassen. (3) Prinzipiell stehen zwei Politikstrategien zur Verfügung: zum einen die Vermeidung eines weiteren Klimawandels durch Kohlendioxid-Reduktion, und somit die Schadensvermeidung, und zum anderen die Schadensbehebung, also die Reduktion der Folgen des Klimawandels. (4) Die Entscheidung über die Politikstrategien würde in einer deterministischen Welt alleine über die diskontierten Kosten oder Wohlfahrtsveränderungen zu fällen sein. Da aber viele Zusammenhänge stochastischer Natur sind (Beispiele: Zusammenhang zwischen Kohlendioxid-Ausstoß und Temperaturanstieg, Temperaturanstieg und Verschiebung der Klimazonen, des Pflanzenwachstums, des Meeresanstiegs usw.), ist der Erwartungswert der abdiskontierten Folgen die Entscheidungsgröße über die Politikstrategie. (5) Während die Schadensbehebung eine ex-postStrategie ist, die zu einem Zeitpunkt durchgeführt werden wird, an dem viele unsichere Zusammenhänge sich in bekannte Prozesse verwandelt haben, stellt die Schadensvermeidung eine ex-ante-Strategie dar, die unter einem Maximum an Unsicherheit durchgeführt werden muss. Und letztlich: (6) Da die Klimaveränderung ein weltweites Phänomen ist, besteht bei der Schadensvermeidung in einigen Regionen der Anreiz, eine free-rider-Position einzunehmen; erfolgt die Schadensbehebung regional oder lokal, so ist der Anreiz zur Einnahme einer free-rider-Position gering. Wir haben es also zu tun mit einem intertemporalen Allokationsproblem unter Unsicherheit; die Ressourcen sind im Zeitablauf so auf Klimapolitik und andere Politiken aufzuteilen, dass letztlich die diskontierte Wohlfahrt (der Welt, der Nation, der Region, wie auch immer) maximiert wird.2 Mit anderen Worten: Die Opportunitätskosten des klimapolitischen Handelns müssen zu jedem Zeitpunkt berücksichtigt werden, der eingesparte Ressourcenverzehr durch vermiedene klimapolitische Aktivitäten kann in anderen Politikfeldern wohlfahrtssteigernd eingesetzt werden. Dabei werden unveränderte Präferenzen der Menschen unterstellt; ohne diese Annahme wäre jedes in die ferne Zukunft gerichtete Handeln sinnlos. Das bedeutet aber keineswegs, dass das beschriebene Allokationsproblem einmalig für die lange Frist formuliert wird, sondern, da alle zu einem Zeitpunkt verfügbaren Informationen in die Entscheidungen einfließen sollten, dass sich das Problem in Abhängigkeit vom Erkenntniszuwachs revolvierend stellt; langfristig werden sich neben den anwendbaren Technologien auch die Präferenzen der Menschen ändern. Diese haben sich in der Vergangenheit geändert, und es gibt

2

Wären alle exogenen Größen bekannt, so läge ein intertemporales Maximierungsproblem unter Nebenbedingungen vor. Zu den Methoden vgl. z. B. Michael D. Intriligator, Mathematical Optimization and Economic Theory, Englewood Cliffs, N.J. 1971, oder Daniel Leonard und Ngo Van Long, Optimal Control Theory and Static Optimization in Economics, Cambridge (UK), New York 1992.

Irrwege der Klimapolitik - Anmerkungen aus volkswirtschaftlicher Sicht

• 277

es gibt keinen Grund, diesen Prozess nicht auch für die Zukunft anzunehmen.3 Die in den Punkten 1 bis 6 beschriebene formale Problemstruktur ist nunmehr mit einigen empirischen Fakten zu unterlegen; es gibt physikalische Zusammenhänge, über die wir nur berichten können, es sind ökonomische Rückwirkungen, die wir formulieren können, und es sind Politikempfehlungen, die man diskutieren kann. Die klimawissenschaftlichen Resultate sollen nicht bewertet, sondern in gebotener Kürze aufgefächert werden. Dabei steht nicht die Vielzahl der empirischen Einzelergebnisse im Vordergrund - diese sind in unzähligen Publikationen veröffentlicht worden sondern die zentralen Gedanken und Erkenntnisse, die aus den Untersuchungen und Modellrechnungen folgen.

II. Es gibt kein Normalklima Eine Einsicht ist so fundamental wie einleuchtend, gleichwohl aber kaum verbreitet: Es gibt kein Normalklima, das es zu verteidigen gilt, es gibt keinen gleichgewichtigen Klimazustand, der zurückerobert werden muss.4 Nach allem, was wir heute wissen, hat sich das Klima nicht nur in den letzten hundert Jahren, sondern auch im letzten Jahrtausend und davor in der Vergangenheit eindrucksvoll verändert. Dabei reduziert sich der Begriff „Klima" schnell auf durchschnittliche Temperaturen, wobei - wie wir wissen - unterschiedliche Verfahren zur Verfugung stehen, die das Resultat beeinflussen.5 Ferner ist zu beachten, dass die systematische Temperaturmessung und Temperaturaufzeichnung in Europa erst seit 1850 vorliegen und für Zeiträume in ferner Vergangenheit alternative, unterschiedliche Verfahren angewendet werden müssen, wie die Bewertung der Baumringe oder die Analyse von Eisbohrkernen. Schließlich sind im Laufe der letzten hundert Jahre durch die Suburbanisierung der Städte ländliche Messpunkte zu innerstädtischen geworden, die durch die Bebauung stadttypische Klimainseln aufweisen.

3

4

5

Zur Zukunftsethik vgl. Dieter Birnbacher, Verantwortung fiir zukünftige Generationen, Stuttgart 1988. Wir verdanken Josef H. Reichholf den wiederholten Hinweis auf diesen oft vergessenen Sachverhalt. Vgl. Josef H. Reichholf, Eine kurze Naturgeschichte des letzten Jahrtausends, Frankfurt/M. 2007 und ders. Stabile Ungleichgewichte: Die Ökologie der Zukunft, Frankfurt/M. 2008. Zum „Verschwinden" der mittelalterlichen Warmzeit in den langen Temperaturzeitreihen und den unterschiedlichen Verfahren vgl. Franz Vahrenholt und Sebastian Lüning, Die kalte Sonne - Warum die Klimakatastrophe nicht stattfindet, Hamburg 2012, S. 121-127. Es ist zu verstehen, warum Grafiken über durchschnittliche Temperaturen und der verursachenden Größe, in der Regel CO2, gezeigt werden, und nicht die Ergebnisse von Granger-Kausalitätstests, da diese keine statistische Kausalität zwischen beiden Zeitreihen zeigen (vgl. z. B. Massimo Bilancia und Domenico Vitale, Anthropogenic CO2 Emissions and Global Warming: Evidence from Granger Causality Analysis, in: Agostino Di Ciaccio, Mauro Coli und Jose Miguel Angulo Ibanez (Hrsg.), Advanced Statistical Methodes for the Analysis of Large Data-Sets, Berlin und Heidelberg 2012, S. 229-239). Statistische Kennzahlen sind überzeugend, nicht der augenscheinliche Vergleich zweier Zeitreihen.

278

Klaus Schöler

Drei Zeitreihen werden üblicherweise dargestellt, wobei die ersten beiden eindrucksvoll zeigen, dass es kein Normal- oder Normklima gibt, und die letzte Zeitreihe die anthropogene Klimaänderung belegen soll:6 In den letzten 400 000 Jahren hat es durch Veränderung der Erdbahnparameter eine Abfolge von vier Eiszeiten und entsprechenden Zwischeneiszeiten gegeben. Wenn die Erdbahn eher einer Ellipse gleicht, findet eine Zwischeneiszeit statt, wenn sie eher kreisförmig ist, eine Eiszeit (MilankovicZyklus).7 Die Temperaturdifferenzen betrugen in Europa und Nordamerika etwa 10 °C. Die letzten 1000 Jahre lassen sich für Europa in drei Perioden unterteilen: eine mittelalterliche Warmzeit von 800 bis 1300, eine sogenannte kleine Eiszeit von 1300 bis 1900 und ein Anstieg der Temperaturen seit der vorvorigen Jahrhundertwende. Seit etwa 1900 kann ein Ansteigen der Durchschnittstemperaturen um etwa 0,7 °C registriert werden, die sich seit 1990 aus dem Zufallsschwankungsbereich heraus entwickelt haben; sie haben allerdings nicht die Werte der mittelalterlichen Warmzeit erreicht. Für die weitere Diskussion ist der letzte Zeitabschnitt vor dem Hintergrund der langfristigen Instabilität des Klimas von Bedeutung. Die Klimageschichte zeigt - bei aller Ungenauigkeit früherer Temperaturdaten - einen ständigen Wandel, kein Einpendeln auf ein statisches Gleichgewicht und keine für alle Zeitreihenabschnitte eindeutige Entwicklungsrichtung. Die Ursachen der unter Punkt drei genannten Erwärmung werden kontrovers diskutiert. Ungeachtet der entschiedenen Auffassung des Weltklimarates (IPCC), der die anthropogene Kohlendioxid-Produktion mit mehr als 90 % dafür verantwortlich macht und den Schwankungen der Sonnenaktivitäten eine geringere Bedeutung zuweist, führt eine kleine Gruppe von Klimaforschern einen Teil der registrierten Erwärmung seit 1900 auf zyklische Sonnenaktivitäten zurück.8 Aus der Sicht der Wirtschaftswissenschaften soll an dieser Stelle nicht in die Debatte eingegriffen werden; es genügt die Feststellung, dass es keine unbestrittene monokausale Beziehung zwischen anthropogenem Kohlendioxid und Temperaturentwicklung gibt.9 Wenn wir von der Hypothese ausgehen, dass ein Teil der Klimaveränderung, etwa zwischen 50 % und 90 %, durch die Verbrennung fossiler Stoffe und dem daraus folgenden Kohlendioxid-Ausstoß erzeugt wird, so stellt sich die Frage, ob nicht der Übergang zu erneuerbaren Energien geboten erscheint. Diese Frage ist für Politik, Publizistik und weite Teile der Klimaforschung sowie für die meinungsbildenden Gruppen in der deutschen Gesellschaft aus recht unterschiedlichen Gründen, wie Ab6

7 8

9

Vgl. hierzu: Josef H. Reichholf, 2007; Wolfgang Behringer, Kulturgeschichte des Klimas - Von der Eiszeit bis zur globalen Erwärmung, 5. Aufl., München 2010; Gerd GantefÖr, Klima - Der Weltuntergang findet nicht statt, Weinheim 2010, S. 199 ff. Vgl. Franz Vahrenholt und Sebastian Lüning, S. 80-82. Vgl. Susan Solomon et al. (Hrsg.), IPCC, Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, Cambridge (UK) and New York 2007, Zu den Wirkungen der natürlichen Schwankungen der Sonnenaktivitäten ebenda S. 188-193. Einen umfangreichen und umfassenden Überblick über die alternativen Theorien geben Franz Vahrenholt/Sebastian Lüning. Es wird immer wieder darauf hingewiesen, dass hinter den vom IPCC gesammelten Untersuchungen etwa 10 000 Wissenschaftler aus der ganzen Welt stehen. Diese Aussage verkennt die grundlegende Regel der modernen Wissenschaftstheorie, die darin besteht, dass wissenschaftliche Hypothesen nicht durch Mehrheitsentscheidungen bestätigt, sondern durch empirische Tatsachen vorläufig nicht falsifiziert werden.

Irrwege der Klimapolitik - Anmerkungen aus volkswirtschaftlicher Sicht

279

lehnung der Kernenergie, Umwelt- und Klimapolitik, Endlichkeit herkömmlicher Energieträger, schon positiv beantwortet; zu anderen Antworten wird man zur Zeit in Entwicklungs- und Schwellenländern kommen. Die Forderung nach einem Wechsel in der Energieerzeugung von fossilen zu erneuerbaren Energieträgern kann aus zwei völlig unterschiedlichen Argumenten folgen; es gibt also zwei Begründungszusammenhänge, die man isoliert betrachten muss: (1) Es ist banal, aber gleichwohl richtig, dass die fossilen Energiequellen endlich sind. Nach allem, was wir über bekannte Vorkommen und Reserven wissen, gehen die (bei gegebenen Preisen und Technologien) ökonomisch abbauwürdigen Lagerstätten in der Reihenfolge Erdöl, Erdgas und Kohle in den nächsten Jahrhunderten zu Ende.10 Daraus wird sich die ökonomische Notwendigkeit ergeben, technisch neue Energieerzeugungsformen zu finden. (2) Die Forderung nach dem Übergang zu erneuerbaren Energien kann unter dem Eindruck erhoben werden, dass die gegenwärtige Verminderung des Kohlendioxid-Ausstoßes eine Begrenzung der weltweiten Erwärmung in der Zukunft bewirken kann, und damit die Folgen des Klimawandels begrenzt. Beide Gründe liegen auf unterschiedlichen Zeitpfaden; während der zweite Grund sofortige Politik verlangt, bedarf der erste Grund des langfristigen Handelns. Die Prognosen der fossilen Reserven sind überaus schwierig, weil sie von drei Einflüssen abhängen. Zunächst werden immer weiter neue Lagerstätten entdeckt, wobei das Potential der unentdeckten Kohlemengen vermutlich am größten ist. Ferner bestimmt die zukünftige Preisentwicklung Abbaumengen und Abbauräume. In Abhängigkeit vom Marktpreis wird man Ölschiefer fordern - oder nicht - oder in tiefere Kohleflöze vorstoßen. Schließlich ist die zukünftige technische Entwicklung weithin unbekannt und kann zu einem veränderten Energieverbrauch führen. Wie wir aus der Vergangenheit wissen, vollzieht sich technischer Fortschritt in Schüben und - wie wir ebenfalls wissen - oft in nicht prognostizierbare Richtungen. Das erste Argument ist nicht ursächlich für eine Klimapolitik, das zweite Argument muss hinsichtlich der eingetretenen und prognostizierten Folgen unter der Hypothese eines überwiegend anthropogen verursachten Klimawandels näher untersucht werden.

III. Folgen des Klimawandels Wenn man die Folgen der neuzeitlichen Erwärmung betrachtet, muss man unterscheiden zwischen den eingetretenen und den prognostizierten Phänomenen. Ferner ist zwischen solchen Folgen zu differenzieren, die unzweifelhaft mit einem durchschnittlichen Temperaturanstieg zusammenhängen und solchen, die unbegründet dieser vermeintlichen Ursache zugeschrieben werden. Sinnvollerweise wird man nur die Wirkungen für die Zukunft betrachten, die sich in der Vergangenheit als eindeutig klimabedingt erwiesen haben. Man kann drei Hauptfolgen nennen, die diesen Bedingungen entsprechen: (1) Eine weltweite Verschiebung der Klimazonen vom Äquator aus nach Süden und Norden erfordert Umstellungen in Landwirtschaft und Städtebau. Da sich diese Verschiebung langsam vollzieht, sind die diskontierten Anpassungskosten als relativ gering anzunehmen. (2) Eine Erhöhung des durchschnittlichen Meeresspiegels um

10

Vgl. Gerd Ganteför, S. 71 ff.

280

Klaus Schöler

0,3 Meter in den nächsten 100 Jahren erfordert Anpassungen im Deichbau und in der küstennahen Siedlungsstruktur. (3) Aus den Punkten 1 und 2 können - aber nicht zwangsläufig - in einigen Staaten soziale Verwerfungen entstehen. (4) Andere, oft genannte Folgen der Klimaerwärmung, wie zunehmende Stürme, Überschwemmungen, sich ausbreitende Krankheiten, Lebensmittelknappheit usw., sind, wie es scheint, nicht eindeutig oder nicht monokausal mit dem Klimawandel verbunden." Nicht alle vermutlichen Klimafolgen, die unter (4) aufgezählt sind, können hier argumentativ widerlegt werden; einige sind statistisch nicht belegt, andere Beispiele sollen herausgegriffen werden: Ein Blick auf die Verbreitungskarte der Malaria zeigt, dass Länder, die auf dem gleichen Breitengrad liegen, sehr unterschiedlich von dieser Krankheit betroffen sind, auf dem indischen Subkontinent und in Südamerika weniger als in Afrika. Offensichtlich spielen die staatliche Bekämpfung der Krankheit, die Qualität des Gesundheitswesens und andere politische und gesellschaftliche Bedingungen eine dominierende Rolle. Aus diesem Grund ist die mit Klimaänderungen verbundene Furcht vor der Ausbreitung der Malaria in Europa unbegründet und rein spekulativer Art.12 Es ist ferner zu bezweifeln, ob die Zahl und Intensität der Überschwemmungen in Flusstälern zunehmen. Diese Zweifel entstehen, wenn man sich historische Hochwassermarken aus vielen Jahrhunderten ansieht. Unbestritten ist jedoch, dass durch Flussbegradigungen, die Bebauung der Flussauen und Überschwemmungsgebiete sowie durch die höheren heutigen Werte der Immobilien die Schadenssummen aus Überschwemmungen zunehmen.13 Ferner ist nicht bekannt, ob es einen Zusammenhang zwischen der anthropogen verursachten Klimaveränderung und der Zunahme von Häufigkeit und Intensität der Wirbelstürme gibt.14 Daraus folgt, dass küstennahe, sturmbedingte Überschwemmungen nicht dem Klimawandel zugerechnet werden können; die steigenden Schäden sind zunächst der Besiedelung gefährdeter Gebiete zuzuordnen, die durch einen wachsenden Bevölkerungsdruck hervorgerufen wird. Die unter (1) genannten Verschiebungen der Klimazonen und die damit verbundene Umstellung der Landwirtschaft erzeugen vermutlich Kosten, die nur einen Bruchteil der Kohlendioxid-Vermeidungskosten ausmachen.15 Gleichwohl besteht das zentrale Problem in den Verteilungswirkungen, die durch die Zonenverschiebung entstehen: In Gebieten mit zunehmendem Niederschlag müssen Entwässerungssysteme und in Gebieten mit abnehmendem Niederschlag Bewässerungssysteme geschaffen werden. Hinzu treten die Kosten des Anbauwandels hinsichtlich Saatgut- und Erntetechnologie.

11 12 13 14 15

Vgl. Bjern Lomborg, Cool it!, München 2009. Vgl. die zusammenfassende Darstellung bei Bj0rn Lomborg, S. 123-134. Vgl. Josef H. Reichholf, 2007, S. 197-210. Vgl. den zusammenfassenden Bericht bei Bjarn Lomborg, S. 100-109. Es ist das Verdienst Lomborgs, sehr eindringlich auf die Kostenunterschiede zwischen der herkömmlichen Klimapolitik und einer Klimapolitik, die die Folgen des Klimawandels behebt, hingewiesen zu haben. Vgl. Bjern Lomborg, S. 137. Nach Schätzungen verändert sich klimabedingt zwischen 1990 und 2080 das weltweite landwirtschaftliche Bruttoinlandsprodukt zwischen -1,5 % und 2,6 %. Da die Landwirtschaft aber nur 1 % zum Bruttoinlandsprodukt beiträgt, ergeben sich Einflüsse in Höhe von -0,015 % bis 0,026 %. Die Schätzungen der Veränderung des landwirtschaftlichen Bruttoinlandsprodukts sind für Europa allerdings ungünstiger und betragen zwischen -18 % und -6,2 %. Vgl. Günter Fischer, Mahendra Shah und Harrij van Velthuizen, Climate Change and Agricultural Vulnerability. A special report prepared by the International Institute for Applied Systems Analysis as a contribution to the World Summit on Sustainable Development, Johannesburg 2002, S. 108.

Irrwege der Klimapolitik - Anmerkungen aus volkswirtschaftlicher Sicht

281

Diese Kosten können die einzelnen landwirtschaftlichen Betriebe überfordern und - bei Schwellen- und Entwicklungsländern - ganze Volkswirtschaften. Die Verschiebung der Klimazonen lässt Gewinner und Verlierer entstehen, wobei die Volkswirtschaften, die einen Nettozuwachs ihrer Wohlfahrt - wie immer man sie berechnet - verzeichnen werden, können an jene Volkswirtschaften Kompensationszahlungen leisten, die eine Reduktion ihrer Wohlfahrt registrieren. Volkswirtschaften, die gegenwärtig umfangreiche Ressourcen in die Kohlendioxid-Vermeidung lenken, könnten diese teilweise oder vollständig - einsparen und zukünftig zur Schadensbehebung in geschädigte Volkswirtschaften übertragen. Ob diese Politik, die die Schäden vollständig oder teilweise kompensiert, tatsächlich durchgeführt wird, hängt von den internationalen Machtverhältnissen ab. Gleiches gilt für den unter (2) genannten Küstenschutz, der notwendig ist, um die Meeresspiegelerhöhung abzufangen, wobei nicht nur die Erhöhung der Deiche, sondern auch die Verlegung besonders hochwassergefährdeter Siedlungen berücksichtigt werden müssen. Auch diese Kosten betragen vermutlich einen Bruchteil der KohlendioxidVermeidungskosten 16, treten räumlich begrenzt auf und lassen sich hinsichtlich ihrer Trägerschaft eindeutig zuordnen. Werden die unter (1) und (2) genannten Folgen eines Klimawandels durch regionale, nationale oder supranationale Institutionen nicht aufgefangen, so können gesellschaftliche und politische Verwerfungen in einzelnen Gebieten die Folge sein, wobei es sich um mittelbare Ergebnisse von Klimaveränderungen handelt. Effizient tätige und zielgerichtete Institutionen, die die Probleme erkennen, obwohl sie schleichend eintreten, können die durch individuelle Überforderungen entstehenden gesellschaftlichen Instabilitäten vermeiden. Es kann nicht bestritten werden, dass von einer durchschnittlichen Temperaturerhöhung von 2 °C wahrnehmbare Veränderungen ausgehen; die kleine Eiszeit von 1300 bis 1900 wies nur eine zum heutigen Klima geringere Durchschnittstemperatur von 1 °C auf. Die Folgen für die spätmittelalterliche Wirtschaft und Gesellschaft sind in der Literatur ausführlich beschrieben worden.17 Zwei Gesichtspunkte müssen allerdings berücksichtigt werden. Zum einen kann eine moderne, hochtechnische Wirtschaft die erwarteten Änderungen leichter abfedern, als das der mittelalterlichen Gesellschaft möglich war. Zum anderen treten - darauf wurde schon mehrfach hingewiesen - die Änderungen des Klimas nicht schockartig auf, sondern langsam und schwankend. Die Geschwindigkeit des zukünftigen Klimawandels hängt nun aber entscheidend von den Ursachen ab. Wird dieser Prozess ausschließlich dem anthropogenen KohlendioxidAusstoß zugerechnet und erhöht sich bei verlangsamendem Welt-Bevölkerungswachstum und steigender Welt-Produktion die Kohlendioxid-Menge, so läuft der Prozess schneller ab, als wenn ein Teil der Klimaänderungen durch physikalische Ursachen (Sonnenflecken, Sonnenwind, Erdachsenverschiebung etc.) hervorgerufen wird. Wenn diese zuletzt genannten Ursachen sogar dominieren, die bekanntlich zyklischen Mustern

16

17

Schätzungen belaufen sich auf weniger als 0,1 % des Sozialproduktes, das aufgewandt werden muss, um einen weltweiten Küstenschutz zu errichten. Vgl. Robert J. Nicholls und Richard S. J. Toi, Impacts and Responses to Sea-Level Rise: A Global Analysis of the SRES Scénarios over the Twenty-flrst Century, Philosophical Transactions of the Royal Society, A: Mathematical, Physical and Engineering Sciences, 2006, Bd. 364, (1841), S. 1073-1095. Vgl. Wolfgang Behringer.

282

Klaus Schöler

unterliegen, so wird man diese Zyklen auch in der Klimaentwicklung wiederfinden. Es ist von zentraler Bedeutung, zu erkennen, dass die prognostizierten Klimaentwicklungen sehr unsicher sind. Daran ändern auch die Modellrechnungen der Klimaforscher und die Größe ihrer Computer nichts, da die Prognoseergebnisse nur so gut sind wie die Qualität der zugrunde liegenden Theorien. Das fuhrt dazu, dass es eine schwache und unsichere Grundlage für die derzeitige Klimapolitik der Schadensvermeidung gibt. Nun könnte man der Ansicht sein, dass steigende Durchschnittstemperaturen das Klimasystem zu einem Punkt fuhren, an dem es seinen erwarteten Entwicklungspfad verlässt und in einen neuen chaotischen Zustand übergeht, der nicht beherrschbar sei. Wie wir wissen, gibt es in der Physik derartige Umschlagpunkte - man denke nur an die Sternentwicklung - , die sowohl modelltheoretisch als auch empirisch gut abgesichert sind. Aber genau diese Voraussetzungen liegen in der Klimaforschung nicht vor, da es sich bei der Klimabildung offensichtlich um Prozesse handelt, die nicht nur von vielen Faktoren bestimmt werden, sondern auch zahlreiche Rückkopplungen aufweisen. Aber nicht nur die Modellierung bereitet offensichtlich Schwierigkeiten, sondern auch die empirische Prüfung, da - anders als beispielsweise in der Astrophysik - keine derartigen Szenarien in fortgeschrittenen Zuständen zur Überprüfung zur Verfugung stehen.18 Weiterhin könnte man argumentieren, dass ungeachtet der fehlenden sicheren Erkenntnisse eine Klimaschutzpolitik betrieben werden sollte, vorsorglich und gleichsam prophylaktisch. Diese Auffassung muss allerdings mit den hohen Opportunitätskosten eines solchen Handelns konfrontiert werden. Ressourcen, die zum Umbau der Energiewirtschaft - von der fossil-basierten hin zur regenerativen Stromerzeugung oder zum Umbau des Verkehrs verwendet werden, stehen selbstverständlich nicht für öffentliche Investitionen (Wissenschaft, Bildung, Gesundheitswesen usw.) oder private Ausgaben (Produktionserweiterungen, privater Konsum) zur Verfügung.19

IV. Folgen der Klimapolitik Damit sind wir bei der Beurteilung der aktuellen Klimapolitik angelangt, die durch die Vermeidung der Kohlendioxid-Emission bei Produktion und Konsum gekennzeichnet ist. Wenn wir von den Bedenken hinsichtlich der naturwissenschaftlichen Grundlagen einer rationalen Klimapolitik einmal absehen, so stellt sich die Frage, ob die ökonomischen Schäden durch Klimawandel oder durch Klimapolitik größer sind. Es lassen sich fünf Bereiche identifizieren, die miteinander verbunden sind: (1) Die internationale Veränderung der Nachfrage nach Ressourcen, (2) die Änderung der Produktionsstruktur bei internationalem Handel, (3) die Allokations- und Umverteilungsfolgen,

18

19

Wenn ein sogenannter Hauptlinienstem (nach dem Hertzsprung-Russell-Diagramm) sich am Ende seiner Existenz zum Roten Riesen und schließlich zum Weißen Zwerg entwickelt, so kann man das Verlassen der Hauptlinie als Umschlagspunkt verstehen, der vielfach beobachtet wird und durch chemisch-physikalische Prozesse modelliert werden kann. Vgl. z. B. Helmut Scheffler und Hans Elsässer, Physik der Sterne und der Sonne, 2. Aufl., Mannheim, Wien, Zürich 1990. Der IPCC geht in eigenen Studien davon aus, dass bei einer unveränderten Politik im Jahre 2080 das weltweite Durchschnittseinkommen pro Kopf der Bevölkerung US-$ 72.700 betragen wird und bei einer ökologisch orientierten Politik US-$ 50.600, zit. nach Björn Lomborg, S. 96 und Fußnote 95.

Irrwege der Klimapolitik - Anmerkungen aus volkswirtschaftlicher Sicht

283

(4) die Rückkopplung über Wirtschaft und Demographie und (5) die Änderung des Politikstils. Bei den Punkten (1) und (2) soll in einem Gedankenexperiment die Welt zu zwei Ländern zusammengefasst werden; Land A (Kyoto-Staaten) verteuert durch Steuern oder Zertifikate die CC^-intensive Produktion, und Land B (Nicht-Kyoto-Staaten) verzichtet auf diese Politik. Nehmen wir in einer ersten Überlegung an, dass Konsum und Produktion mit Hilfe von fossilen Energieträgern durchgeführt werden. Bei kurzfristig gegebenem Angebot dieses Energieträgers wird die als elastisch angenommene Nachfrage in Land A sinken, da zusätzliche Kosten in Form von Steuern oder Zertifikaten anfallen. Der somit sinkende Weltmarktpreis fuhrt zu einer zusätzlichen Nachfrage des Landes B nach diesem Energieträger, wodurch weltweit der Kohlendioxid-Ausstoß ansteigt.20 Unberücksichtigt bleibt bei diesen Überlegungen, wofür die Einnahmen aus Zertifikathandel oder Umweltsteuer verwendet werden und welcher KohlendioxidSaldo sich ergibt, wenn die Einnahmen in das Land B transferiert werden unter der Bedingung, ebenfalls eine dem Land A entsprechende Umweltpolitik zu betreiben. Nehmen wir in einer zweiten Überlegung an, dass zwischen den beiden Ländern die Güter x und y gehandelt werden, wobei die Produktion des Gutes x in stärkerem Maße Umwelt als Input benötigt als das Gut y. Wenn wir den Umweltinput mit dem Transport von Kohlendioxid und der (zeitweiligen) Ablagerung in der Atmosphäre identifizieren, ist die Produktion des Gutes x als kohlendioxidintensiv zu bezeichnen. In Land A wird durch die Einfuhrung von Zertifikaten der Inputfaktor Umwelt knapper als in Land B, das über diesen Faktor nunmehr reichlicher verfügt. Nun wissen wir aber, dass sich im internationalen Handel die Länder jeweils auf die Produktion des Gutes spezialisieren und es exportieren, das in höherem Maße den Faktor benötigt, über den das Land in höherem Maße verfugt (Heckscher-Ohlin-Theorem).21 Land B wird sich auf das kohlendioxidintensive Gut in der Produktion spezialisieren, einen Teil der Produktion, die den eigenen Konsum übersteigt, in Land A exportieren und im Gegenzug Gut y importieren. In Land A wird ein Teil des Kohlendioxid-Ausstoßes durch die Reduktion der x-

20

21

Vgl. Hans-Werner Sinn, Das grüne Paradoxon - Plädoyer für eine illusionsfreie Klimapolitik, Berlin 2008, S. 143 ff. Das Heckscher-Ohlin-Theorem kann in jedem Lehrbuch zur Außenwirtschaft nachgeschlagen werden. Vgl. z. B. Manfred Rose und Karlhans Sauernheimer, Theorie der Außenwirtschaft, 12. Aufl., München 1995, S. 387 ff. In einem unveröffentlichten Manuskript verwenden Schwerhoff und Edenhofer (vgl. Gregor Schwerhoff und Ottmar Edenhofer, Low-Carbon Development through International Specialization, Potsdam Institute for Climate Impact Research, Potsdam 2013) ein RicardoModell des Außenhandels unter den Annahmen, dass das entwickelte Land eine höhere Produktionseffizienz bei der Herstellung des umweltbelastenden Gutes hat als das Entwicklungs- oder Schwellenland, während dieses Land eine höhere Produktionseffizienz bei dem „sauber" hergestellten Gut aufweist. Bei Außenhandel und unter Einsatz einer Umweltsteuer gelangen die Autoren zu dem Ergebnis, dass sich das entwickelte Land auf die Produktion des umweltbelastenden Gutes spezialisiert, und damit die Gesamtbelastung der Umwelt durch internationalen Handel reduziert wird. Zwei Anmerkungen zu dem gerafft dargestellten Ergebnis: (1) In einer ricardianischen Welt spezialisiert sich ein Land immer - sieht man von der Nachfrage ab - auf das Gut, bei dem es einen technologischen Produktionsvorteil - absolut oder komparativ - hat. (2) Betrachtet man die weltweit eingesetzte Produktionstechnologie in Entwicklungs- und Schwellenländern, so ist nicht zu verstehen, worin der Technologienachteil bestehen soll, werden doch die industriellen Anlagen aus den entwickelten Ländern zu den dort geltenden technischen Standards importiert.

284

Klaus Schöler

Produktion verringert und durch den internationalen Handel weltweit vermehrt erzeugt. Über den Saldo können nur güterspezifische Betrachtungen Näheres aussagen. Zum dritten ist auf die Folgen der klimapolitischen Eingriffe auf einen prinzipiell marktgesteuerten Allokationsprozess hinzuweisen. Da die politischen Akteure nicht in Marktzusammenhängen, schon gar nicht in Angebots- und Nachfrageelastizitäten, denken, entsteht eine Vielzahl von Verwerfungen mit teilweise dramatischen Folgen. Der subventionierte Anbau von biodieselgeeigneten Pflanzen verknappt weltweit die Bodenfläche für die Nahrungsmittelproduktion und lässt die Nahrungsmittelpreise steigen. Dieser Effekt fuhrt insbesondere in Entwicklungsländern zu einer verschärften Ernährungslage. Die hohen Subventionen für alternative Energien in Deutschland schaffen im Saldo nicht neue Arbeitsplätze, sondern vernichten Arbeitsplätze. Als Beispiel soll die Solar- und Windtechnik herangezogen werden. Beide Formen der Energieerzeugung werden hoch subventioniert mit der Folge permanent steigender Strompreise für private Haushalte (und für einen Teil der Unternehmen). Da die Realeinkommen der Haushalte in den letzten Jahren nicht deutlich gestiegen sind, findet eine Umschichtung der Konsumausgaben statt, und zwar von den Gütern mit einer hohen Preiselastizität der Nachfrage zu den Gütern mit einer entsprechend geringen Elastizität, zu denen die Stromnachfrage zu rechnen ist. Zur ersten Gütergruppe gehören bekanntlich Dienstleistungen, die in der Regel arbeitsintensiv sind, wodurch in diesen Branchen Arbeitsplätze verloren gehen. Da die industrielle Produktion von Windkraft- und Solaranlagen kapitalintensiv ist, dürfte der Beschäftigungssaldo negativ sein. Ferner ist zu bedenken, dass über dieses Beispiel hinaus eine Vielzahl von klimapolitischen Maßnahmen (Steuern, Bauvorschriften usw.) die Kaufkraft der privaten Haushalte absorbiert und den beschriebenen Effekt verstärkt. Schließlich entstehen Arbeitsplatzverluste in der konventionellen Kraftwerksindustrie und unterstützen die Vermutung des negativen Beschäftigungssaldos. Viertens vernachlässigt die herrschende Klimapolitik der schnellen und umfassenden Kohlendioxid-Reduktion den dynamischen Charakter des Problems.22 Die Geschwindigkeit der Umstellung von fossilen auf erneuerbare Energieträger beeinflusst den Zeitpfad der Emission, wie sich an zwei Szenarien verdeutlichen lässt: (1) Die Verwendung eines erheblichen Teils des Volkseinkommens (sagen wir 2,0 %) in aller Welt zur schnellen Umstellung auf erneuerbare Energieträger reduziert das Wirtschaftswachstum, den Anstieg des Einkommens, der Konsummöglichkeiten und der Wohlfahrt weltweit. Eine weithin unbestrittene Hypothese besagt, je niedriger das Einkommen pro Kopf ist, umso größer ist das Bevölkerungswachstum.23 Dieser Zusammenhang kann für Europa in der Vergangenheit und für Entwicklungs- und Schwellenländer in der Gegenwart beobachtet werden. Je größer das Bevölkerungswachstum ist, umso stärker steigt auch

22 23

Vgl. die Hauptthese bei: Gerd Ganteför, S. 37-67. Für diesen Zusammenhang zwischen generativem Verhalten und Pro-Kopf-Einkommen gibt es einige ökonomische und demographische Gründe: Mit höherem Einkommen dominiert die Ausbildung der wenigen Kinder die hohe Zahl der Kinder als Arbeitskräfte und Altersversorgung. In Schwellenländern sinkt die Säuglingssterblichkeit, das generative Verhalten orientiert sich aber an vergangenen Erfahrungen ohne entsprechende medizinische Versorgung. Vgl. z. B. Robert J. Barro und Xavier Sala-i-Martin, Wirtschaftswachstum, München, Wien 1998, S. 509f.

Irrwege der Klimapolitik - Anmerkungen aus volkswirtschaftlicher Sicht

285

der Energiebedarf, der unter den genannten Voraussetzungen in den Entwicklungs- und Schwellenländern nur durch die Verwendung zusätzlicher fossiler Energieträger gedeckt werden kann. Einem zunächst gedrosselten Kohlendioxid-Ausstoß steht am Ende der Betrachtungsperiode ein stark ansteigender Ausstoß gegenüber. (2) Wird ein geringer Teil des Volkseinkommens zur langsamen Umstellung der Energieerzeugung verwendet und werden zunächst vor allem in den Entwicklungs- und Schwellenländern die Erdölvorkommen und die Steinkohlebestände genutzt, so folgt daraus ein schnelleres Wirtschaftswachstum und ein sich verlangsamendes Bevölkerungswachstum mit einem, im Vergleich zu Szenario 1, in der Zukunft geringeren zusätzlichen Energiebedarf. Hinzu tritt die Tatsache, dass eine wohlhabendere Weltbevölkerung leichteren Zugang zu alternativen, erneuerbaren Energieträgern hat. Einem zunächst höheren KohlendioxidAusstoß steht am Ende der Betrachtungsperiode ein schwach ansteigender Ausstoß gegenüber. Die aktuelle Klimapolitik im Sinne einer schnellen und weltweiten Kohlendioxid-Reduktionspolitik übersieht den beschriebenen Rückkopplungsprozess über Wirtschafts- und Bevölkerungswachstum und vernachlässigt die daraus folgende dynamische Entwicklung des Problems. Schließlich ist fünftens ein Wandel im politischen Denken und Handeln infolge der Klimadiskussion festzustellen. Der Weltklimarat (IPCC) und in seinem Gefolge der Wissenschaftliche Beirat der Bundesregierung (kurz: WBGU) in seinem Gutachten Welt im Wandel - Gesellschaftsvertrag für eine Große Transformation, fordern einen totalen Umbau der Energiegewinnung innerhalb kurzer Zeit. Gewaltige Ressourcen sind notwendig, um dieses Ziel zu verwirklichen, erhebliche Wohlfahrtseinbußen müssen von der Bevölkerung hingenommen werden, wenn 1 % oder 2 % des Sozialproduktes diesem Ziel untergeordnet werden. Damit dieses Projekt gelingt, ist es notwendig, langfristig wirkende Entscheidungen dem demokratischen Prozess der Parlamente zu entziehen und auf einen nicht gewählten Zukunftsrat zu übertragen, der von unten ergänzt wird durch den politisch-gesellschaftlichen Druck von Nichtregierungsorganisationen. Ein neues Klimabewusstsein muss in der Bevölkerung erzeugt werden. Abweichendes Verhalten wird kaum toleriert werden, zumal Klimaschutz zum alles überwölbenden Staatsziel erhoben werden soll. Es offenbart sich ein holistisches Denken, ein geplanter großer Wurf: Eine wirkungsvolle Strategie der Transformation verlangt nach einer neuen „Politik aus einem Guss".24 Eine bisher eher weitgehend vorherrschende Politik der kleinen Verbesserungsversuche und Irrtumskorrekturen politischer Entscheidungen, die Politik des „piecemeal social engineering", wird als „Durchwurschteln"25 bezeichnet. Es ist das Verdienst Poppers26, die Methode des Kritischen Rationalismus, des Prüfens und Verwerfens (Falsifikation) von Theorien und des dadurch entstehenden schrittweisen Erkenntnisgewinns auf die Gesellschaftspolitik übertragen zu haben. Die offene Gesellschaft befindet sich - im Gegensatz zur geschlossenen Gesellschaft mit einem allumfassenden Staatsmodell, das es durchzusetzen gilt - in einem ständigen Prozess der kleinen Verbesserungsversuche und der Möglichkeit, Irrtümer geringer Reichweite zu 24 25 26

Wissenschaftlicher Beirat der Bundesregierung, S. 203. Wissenschaftlicher Beirat der Bundesregierung, S. 201. Vgl. Karl Popper, Die offene Gesellschaft und ihre Feinde, 2 Bd., 4. Aufl., München 1972.

286

Klaus Schöler

korrigieren. Ungeachtet der Komplexität einer Klimapolitik, die sowohl auf der naturwissenschaftlichen Ebene (die wir unkommentiert dargestellt haben) als auch auf der ökonomischen Ebene (die wir diskutiert haben) anzutreffen ist, offenbaren sich die Vorstellungen eines parlamentarisch nicht legitimierten und durch holistisches Denken getriebenen Megaprojekts, das auf das vorsichtige Herantasten an wohlfahrtssteigernde Zustände und die Möglichkeit der Korrektur begrenzter Irrtümer völlig verzichtet.

V. Schlussfolgerungen Zusammenfassend ergibt sich nun das folgende Bild: (1) Die bisherige Klimapolitik basiert auf naturwissenschaftlich nicht hinreichend gesicherten Hypothesen, da alternative Erklärungen für einen denkbaren Anteil an der Klimaveränderung unberücksichtigt bleiben und vereinfachend ein monokausaler Zusammenhang zwischen anthropogenem Kohlendioxid-Ausstoß und Erderwärmung angenommen wird. (2) Die bisherige Klimapolitik folgt der Vorstellung, dass die Verhinderung der weiteren Klimaveränderung nur durch ein alle Bereiche der Gesellschaft umfassendes, holistisches Großprojekt zu bewältigen sei, dem alle anderen Ziele unterzuordnen seien. Dieses geschieht ungeachtet der wohlfahrtssenkenden Wirkungen dieses Schadensvermeidungskonzeptes. (3) Die bisherige Klimapolitik verfolgt nicht die Strategie der expost-Schadensbehebung, die vier unbestreitbare Vorteile aufweist. Zum einen ist im Nachhinein der Umfang der Schäden (und der Vorteile) durch Klimawandel bekannt, ferner kann diese Politik räumlich und sachlich gezielt eingesetzt werden, sie ist weiterhin durch kleine, leicht korrigierbare Maßnahmen gekennzeichnet, und schließlich entfallen free-rider-Positionen, die bei der ex-ante-Schadensvermeidung möglich sind. Es bleibt dabei: Den wichtigsten Folgen des Klimawandels, Verlagerung der Klimazonen und Meeresspiegelanstieg, kann durch eine kompensatorische Politik begegnet werden. Es stellt sich die Frage, warum eine solche Politik nicht, auch nicht in Ansätzen, verfolgt wird. Dafür lassen sich zwei politische Gründe nennen. Zum einen: In Gesellschaften mit parlamentarischen Demokratien müssen wählerstimmen-maximierende Politiker Aktivitäten aus der gegenwärtigen Wahlperiode vorweisen und nicht auf die Zukunft gerichtete Handlungsabsichten. (Energiewende jetzt, Folgekosten später.) Zum anderen: Politikberatung, die zukünftige, räumlich, sachlich und zeitlich begrenzte Verbesserungsversuche, also Schadensbehebungspolitik mit der Möglichkeit von Irrtumskorrekturen, vorschlägt, entzieht sich selbst die politische Bedeutung, und damit die Forschungsressourcen. Nur leicht verstehbare, monokausale Szenarien mit dramatischen Folgen, die nur mit einer radikalen Großpolitik verhindert werden können, sind offensichtlich zuschusswürdig.

Irrwege der Klimapolitik - Anmerkungen aus volkswirtschaftlicher Sicht

287

Literatur Barro, Robert J. und Sala-i-Martin, Xavier, Wirtschaftswachstum, München, Wien 1998. Behringer, Wolfgang, Kulturgeschichte des Klimas - Von der Eiszeit bis zur globalen Erwärmung, 5. Aufl., München 2010. Birnbacher, Dieter, Verantwortung für zukünftige Generationen, Stuttgart 1988. Bilancia, Massimo und Vitale, Domenico, Anthropogenic CO2 Emissions and Global Warming: Evidence from Granger Causality Analysis, in: Agostino Di Ciaccio, Mauro Coli und Jose Miguel Angulo Ibanez (Hrsg.), Advanced Statistical Methodes for the Analysis of Large Data-Sets, Berlin, Heidelberg 2012, S. 229-239. Field, Christopher B. et al. (Hrsg.), Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation, Cambridge (UK), New York 2012. Fischer, Günter, Shah, Mahendra und van Velthuizen, Harrij, Climate Change and Agricultural Vulnerability. A special report prepared by the International Institute for Applied Systems Analysis as a contribution to the World Summit on Sustainable Development, Johannesburg 2002, S. 108. Ganteför, Gerd, Klima - Der Weltuntergang findet nicht statt, Weinheim 2010. Intriligator, Michael D., Mathematical Optimization and Economic Theory, Englewood Cliffs, N.J. 1971. Leonard, Daniel und Van Long, Ngo, Optimal Control Theory and Static Optimization in Economics, Cambridge (UK), New York 1992. Lomborg, Bj0m, Cool it!, München 2009. Nicholls, Robert J. und Tol, Richard S. J., Impacts and Responses to Sea-Level Rise: A Global Analysis of the SRES Scenarios over the Twenty-first Century, Philosophical Transactions of the Royal Society, A: Mathematical, Physical and Engineering Sciences, 2006, Bd. 364, (1841), S. 1073-1095. Popper, Karl, Die offene Gesellschaft und ihre Feinde, 2 Bd., 4. Aufl., München 1972. Reichholf, Josef H., Eine kurze Naturgeschichte des letzten Jahrtausends, Frankfurt/M. 2007. Reichholf, Josef, H., Stabile Ungleichgewichte: Die Ökologie der Zukunft, Frankfurt/M. 2008. Rose, Manfred und Sauernheimer, Karlhans, Theorie der Außenwirtschaft, 12. Aufl., München 1995. Scheffler, Helmut und Elsässer, Hans, Physik der Sterne und der Sonne, 2. Aufl., Mannheim, Wien, Zürich 1990. Schwerhoff, Gregor und Edenhofer, Ottmar, Low-Carbon Development through International Specialization, Potsdam Institute for Climate Impact Research, Manuskript Potsdam 2013. Sinn, Hans-Werner, Das grüne Paradoxon - Plädoyer für eine illusionsfreie Klimapolitik, Berlin 2008, S. 143ff. Solomon, Susan et al. (Hrsg.), IPCC, Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, Cambridge (UK) and New York 2007. Vahrenholt, Franz und Lüning, Sebastian, Die kalte Sonne - Warum die Klimakatastrophe nicht stattfindet, Hamburg 2012. Wissenschaftlichen Beirats der Bundesregierung, Welt im Wandel - Gesellschaftsvertrag für eine Große Transformation, Berlin 2011.

288

Klaus Schöler

Zusammenfassung In diesem Beitrag wird die Klimapolitik der Kohlendioxid-Vermeidung kritisiert und dieser Politik die ex-post-Schadensbehebung als Strategie gegenübergestellt. Diese weist vielfaltige Vorteile auf. Zunächst sind die Klimamodelle, die einen weitgehend monokausalen Zusammenhang zwischen einem anthropogenen Kohlendioxid-Ausstoß und Klimaveränderung prognostizieren, mit bedeutenden Unsicherheiten behaftet. Weiterhin erzeugt die Politik der Kohlendioxid-Vermeidung erhebliche volkswirtschaftliche Kosten, die vermutlich ein Vielfaches der Kosten betragen, die eine nachträgliche Behebung der Schäden, die durch Klimaveränderungen hervorgerufen werden, ausmachen. Ferner hat die vorgeschlagene Strategie den Vorzug, dass im Nachhinein Art, Umfang und räumliche Verteilung der Schäden bekannt sind und durch gezielte Beseitigung behoben werden können. Schließlich sind dazu kleine, in ihrer Reichweite begrenzte und korrigierbare Maßnahmen einsetzbar, die einen Verzicht auf Großprojekte mit ihren nicht abschätzbaren Folgen erlauben.

Summary: Wrong Tracks of Climate Policy - Notes from an Economic Point of view In this paper, the climate policy of avoiding carbon dioxide is criticized and confronted with the strategy of an ex-post repair of damages - a strategy which provides various advantages. First of all, the climate models forecasting a largely mono-causal connection between an anthropogenic emission of carbon dioxide and climate change are encumbered with significant uncertainties. Furthermore, the policy of avoiding carbon dioxide generates considerable economic costs which are supposed to exceed by far the costs of a subsequent repair of damages caused by climate changes. Another advantage of the proposed strategy is that a purposive repair of the particular damages would be possible after the incident, when the specific kind, extent, and spatial distribution of the damages are known. Finally and consequently, correctable measures of a limited extent should be implemented. They would allow to dispense with large-scale projects entailing unforeseeable consequences.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Norbert Berthold* und Mustafa Coban#

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? Inhalt I. II. 1. 2.

Einleitung Theoretische Wirkungen von Lohnsubventionen Lohnsubventionen an Arbeitgeber Lohnsubventionen an Arbeitnehmer

290 291 293 295

III. Aktuelle Ausgestaltung der Mini- und Midijobs, Zielsetzungen und Risiken 1. Einfuhrung der Mini- und Midijobs ab 2003 2. Zielsetzungen der aktuellen Regelung

297 298 299

3. IV. 1. 2. 3. 4. V. 1. 2. VI.

300 302 302 303 304 306 307 308 315 318

Risiken der aktuellen Ausgestaltung Bewertung der Reformziele: Empirische Befunde Brückenfunktion der Minijobs Sprungbrettfunktion der Minijobs Verdrängung regulärer Beschäftigung Eindämmung der Schwarzarbeit Neuausrichtung der Lohnsubvention in Deutschland Reformalternative I: Kürzung der Sozialversicherungsbeiträge Reformalternative II: Einkommenssubvention Schlussbemerkungen

Literatur

320

Zusammenfassung

322

Summary: Mini- and Midi-Jobs in Germany: Do Wage Subsidies have an Effect on Employment? 323

Prof. Dr. Norbert Berthold, Lehrstuhl für Volkswirtschaftslehre, insbesondere Wirtschaftsordnung und Sozialpolitik, E-Mail: [email protected], Tel.: (49) 931 31 82925. Diplom-Volkswirt Mustafa Coban, Lehrstuhl für Volkswirtschaftslehre, insbesondere Wirtschaftsordnung und Sozialpolitik, E-Mail: [email protected], Tel.: (49) 931 31 86177.

290

Norbert Berthold und Mustafa Coban

I. Einleitung Die Einfuhrung einer abgabenfreien geringfügig entlohnten Beschäftigung1 geht weit in die 60er Jahre des letzten Jahrhunderts zurück und wurde damals geschaffen, um den akuten Arbeitskräftemangel aufzufangen. Heutzutage zielt diese Beschäftigungsform darauf ab insbesondere gering qualifzierte Personen in ein Arbeitsverhältnis zu bringen. Hierfür wird der Arbeitnehmer bei Aufnahme einer geringfügigen Beschäftigung von Steuerzahlungen an den Staat und Beiträgen zu den Sozialversicherungen befreit. Sein Nettoeinkommen gleicht praktisch seinem Bruttoeinkommen. Als wesentlichstes Merkmal dieser Beschäftigungsform gilt die Geringßgigkeitsgrenze. Sie bestimmt, ab welchem Bruttomonatseinkommen die Abgabenfreiheit entweder sukzessive oder abrupt aufgehoben wird. In den letzten Jahren haben die geringfügigen Beschäftigungen stark an Bedeutung zugenommen. Von 2003 bis 2011 stieg die Anzahl der Arbeitnehmer in diesem Segment von 5,7 Mio. auf knapp 7,4 Mio. Der enorme Anstieg ist hauptsächlich auf die geringfügige Beschäftigung im Nebenerwerb2 zurück zu fuhren. Während die Zahl der Hauptbeschäftigen um 11,5% zunahm, verdoppelte sich die Zahl der geringfugig Beschäftigten im Nebenerwerb.3 Letztlich subventioniert der Staat über diese Beschäftigungsart derzeit 20,6% aller Arbeitsverhältnisse in Deutschland.4 Tabelle 1: Entwicklung der Beschäftigungsformen seit 2003 (Angaben in Tausend) Geringfügig entlohnte BE

SV-pflichtig BE

Andere Beschäftigungsformen

Erwerbstätige

Insg.

in VZ

in TZ

Insg.

im HE

im NE

MidiJobber

Befristet BE

2003

38.793

26.974

22.682

4.283

5.755

4.364

1.315

607

1.969

2004

38.915

26.563

22.246

4.305

6.477

4.787

1.690

734

1.953

2005

38.870

26.237

21.862

4.364

6.570

4.785

1.785

946

2.394

2006

39.116

26.449

21.902

4.537

6.756

4.835

1.920

1.088

2.619

562

2007

39.791

27.027

22.232

4.784

6.948

4.870

2.078

1.195

2.659

614

Jahr

ZA

2008

40.290

27.578

22.562

5.004

7.102

4.872

2.231

1.241

2.731

612

2009

40.311

27.501

22.290

5.198

7.213

4.917

2.296

1.280

2.640

560

2010

40.506

27.853

22.443

5.394

7.276

4.888

2.388

1.319

2.761

742

2011

41.037

28.558

22.604

5.604

7.400

4.868

2.532

1.365

2.805

775

Quelle: Statistik der Bundesagentur für Arbeit (2007, 2009, 2011), Statistisches Bundesamt (2012), eigene Darstellung Anmerkung: Be = Beschäftigte, HE = Haupterwerb, NE = Nebenerwerb, VZ = Vollzeit, TZ = Teilzeit, ZA = Zeitarbeiter

2

3 4

Im Folgenden werden die Begriffe geringfiigig entlohnte Beschäftigung und geringfügige Beschäftigung äquivalent verwendet. Als Beschäftigungsverhältnisse im Nebenerwerb bzw. Nebenbeschäftigte werden diejenigen Arbeitnehmer bezeichnet, welche neben einer sozialversicherungspflichtigen Beschäftigung zusätzlich einer geringfügigen Beschäftigung nachgehen. Bei Hauptbeschäftigten handelt es sich um Personen, die im Durchschnitt über das gesamte Jahr hinweg Bruttomonatseinkommen unterhalb der Geringfügigkeitsgrenze realisieren. Vgl. Statistik der Bundesagentur für Arbeit (2012c). Vgl. Statistik der Bundesagentur für Arbeit (2012d).

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 2 9 1

Tabelle 1 gibt eine kurze Übersicht zur Entwicklung der geringfügigen Beschäftigung und weiterer Beschäftigungsformen. Neben der geringfügigen Beschäftigung im Nebenerwerb zeigt auch die sozialversicherungspflichtige Teilzeitbeschäftigung einen starken Anstieg. Die Vollzeitbeschäftigung liegt hingegen in 2011 sogar unterhalb des Ausgangswertes aus 2003. In absoluten Zahlen zeigen die Midijobs, auf welche wir in Kapitel III. 1 näher eingehen werden, einen moderaten Anstieg, aber verglichen mit dem Jahr ihrer Einfuhrung gibt es heute doppelt so viele Beschäftigte in diesen Arbeitsverhältnissen. Betrachtet man wiederum die gesetzliche Regelung der geringfügigen Beschäftigung, fallen hierbei zwei Kernelemente besonders auf. Zum einen bezieht sich die Lohnsubvention praktisch auf keine bestimmte Zielgruppe, da sowohl Arbeitslose als auch bereits Erwerbstätige eine geringfügige Beschäftigung zu denselben Konditionen aufnehmen dürfen. Somit können auch Mittel- bzw. Hochqualifizierte einer geringfügigen Beschäftigung im Nebenerwerb nachgehen, obwohl diese Beschäftigungsform primär nicht für diese Zielgruppe geschaffen wurde. Zum anderen handelt es sich um eine angebotsseitige Subvention, da die Abgabenfreiheit beim Arbeitnehmer und nicht beim Arbeitgeber zum Tragen kommt. Inwieweit sich eine arbeitgeberseitige bzw. arbeitnehmerseitige Lohnsubvention auf den Arbeitsmarkt auswirkt und welche Effekte mit diesen einhergehen wird in Kapitel II beschrieben. Eine kurze Übersicht zu den aktuellen Bestimmungen findet sich in Kapitel III. Dort erfolgt auch eine Erläuterung der Zielsetzungen und Risiken der Minijob-Reform in 2003. In Kapitel IV untersuchen wir anhand einer Metaanalyse bereits vorliegender Forschungsergebnisse die Zielerreichung der Reform und bewerten diese abschließend. In Folge dieser Erkenntnisgewinne stellen wir in Kapitel V zwei Reformvorschläge zur Neuausrichtung der Beschäftigungsverhältnisse im unteren Einkommensbereich vor. Der Beitrag endet mit Schlussbemerkungen in Kapitel VI.

II. Theoretische Wirkungen von Lohnsubventionen In der Praxis lässt sich international eine Fülle an verschiedenen Lohnsubventionen aufzeigen, die teilweise sehr unterschiedliche gesetzliche Ausgestaltungen ausweisen.5 In Europa einmalig, erfolgt in Deutschland die Subventionierung geringer Einkommen über eine volle bzw. anteilige Steuer- und Abgabenfreiheit. Im Allgemeinen zielen jedoch alle Subventionsformen auf die Erhöhung der Beschäftigung ab und versuchen

Lohnsubventionen als wirtschaftspolitisches Instrument zur Förderung von Individuen mit einer sehr geringen Arbeitsproduktivität wurden bereits zu Beginn des 20. Jahrhunderts beschrieben. Zu den frühen Analysen gehören beispielsweise die Arbeiten von Pigou (1927) und Kaldor (1936). Auch der Nobelpreisträger für Ökonomie Edmund Phelps bekannte sich immer wieder für eine Umsetung von Lohnsubventionen zur Förderung der Beschäftigung von Geringqualifizierten, wie beispielsweise in Phelps (1994). Während Phelps (2003) in der Lohnsubvention den Garant für eine dauerhafte soziale Inklusion sieht, fordert beispielsweise Rüstow (1963) zusätzlich eine präventive Sozialpolitik, die nach dem Konzept der Vitalpolitik einer sozialen Exklusion vorbeugen soll. Für eine intensive Auseinandersetzung mit dem Inklusions- und Dynamismusgedanken nach Phelps sei hier auf den facettenreichen Sammelband von Pies/Leschke (2012) verwiesen.

292

Norbert Berthold und Mustafa Coban

gezielt Anreize auf dem Arbeitsmarkt zu setzen, so dass insbesondere Langzeitarbeitslose und Geringqualifizierte in Beschäftigungen kommen. 6 Die Tabelle 2 gibt eine kurze Zusammenfassung darüber, welche Entscheidungen der Staat im Rahmen der Einfuhrung dieses arbeitsmarktpolitischen Instruments treffen muss und welche Möglichkeiten ihm dabei zur Verfugung stehen. Tabelle 2: Entscheidungsvariablen einer Lohnsubvention Entscheidungsvariable Begünstigte Marktseite

Möglichkeiten Arbeitgeber Arbeitnehmer Alle Beschäftigten

Zielgruppe

Bestimmte Personengruppe (z.B. Alleinerziehende) Fester Betrag

Form der Gewährung

Prozentualer Anteil vom Stundenlohn Prozentualer Anteil vom Arbeitseinkommen Direkter Zuschuss

Zahlungsweise

Steuererleichterung bzw. Steuergutschrift Volle bzw. anteilige Reduzierung der Sozialversicherungsbeiträge

Dauer

Befristet (z.B. 12 Monate) Unbefristet

Förderhöhe

Keine Anpassung (fix) Jährliche Anpassung (dynamisch)

Verhältnis zu anderen Sozialtransfers

Keine Anrechnung bzw. Berücksichtigung Volle bzw. anteilige Anrechnung

Quelle: Eigene Darstellung

Die wichtigste Entscheidung ist hierbei, welcher Marktseite die Lohnsubvention gewährt werden soll. Zwar beeinflusst eine Lohnsubvention unabhängig von der begünstigten Partei stets beide Seiten des Arbeitsmarktes, dennoch gehen mit der Entscheidung für den Arbeitgeber oder für den Arbeitnehmer verschiedene Probleme

In Deutschland haben Lohnsubventionen eine lange Tradition. Bereits 1932 versuchte man über den sogenannten Pappen-Plan - benannt nach dem damaligen Reichskanzler Franz von Pappen - die horrende Arbeitslosigkeit um ein bis zwei Millionen zu senken, indem man an Unternehmen für zusätzlich geschaffene Beschäftigungsverhältnisse Steuergutschriften vergab. Vgl. Petzina (1967, S. 22).

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 2 9 3

und Hebelwirkungen einher.7 Die Unterscheidung zwischen Lohnsubventionen an Arbeitgeber und Lohnsubventionen an Arbeitnehmer soll unsere Herleitung der theoretischen Effekte in den folgenden Kapiteln gliedern.

1. Lohnsubventionen an Arbeitgeber Die Zielsetzung einer Subventionierung der Arbeitgeber ist die Senkung ihrer Lohnkosten. Grundlegend gehen hiermit zwei Effekte einher. Erstens, verbilligt sich die geförderte Arbeit im Vergleich zu den restlichen Produktionsfaktoren, wodurch der Arbeitgeber nun einen Anreiz hat, die relativ kostenintensiveren Faktoren durch geförderte Arbeitnehmer zu ersetzen. Zweitens, fuhrt die Faktorpreisreduktion zu einer Senkung der gesamten Arbeitskosten eines Unternehmens. Zieht dies eine Ausweitung der Produktion nach sich, so erhöht sich in Folge des Skaleneffekts die Arbeitsnachfrage. Der Abbildung 1 kann man nun entnehmen, wie sich eine Subventionierung der Arbeitgeber in einem neoklassischen Partialmodell des Arbeitsmarktes auswirkt. Abbildung 1: Partialmodell des Arbeitsmarkts

Quelle: Hujer/Caliendo (2003), eigene Darstellung

In beiden Teilen der Abbildung fuhrt die Lohnsubvention in Höhe von s j zu einer Verschiebung der Arbeitsnachfrage ¿''nach rechts, wobei die Reaktionsstärke unter anderem von der Lohnelastizität des Arbeitsangebots Ls abhängt. Liegt ein vollkommen elastisches Arbeitsangebot (linke Teilabbildung) vor, so fuhrt die Lohnsubvention zur maximalen Ausdehnung der Beschäftigung bei einem gleichbleibenden Lohnsatz. 7

Einen Überblick zu den theoretischen Wirkungen von Lohnsubventionen findet man unter anderem bei Buslei/Steiner (1999) und beim Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2006).

294

Norbert Berthold und Mustafa Coban

Weicht man von der Annahme eines vollkommen elastischen Arbeitsangebots ab, kann man zwei Effekte beobachten (rechte Teilabbildung). Die Lohnsubvention führt zu einer geringeren Beschäftigungsausweitung als im ersten Teil der Abbildung und der markträumende Lohn erhöht sich von w$ auf W]. Demnach hängt die durch eine Lohnsubvention induzierte Ausweitung der Beschäftigung maßgeblich von den Lohnelastizitäten der beiden Arbeitsmarktkurven ab.8 In der Realität wirken den positiven Beschäftigungseffekten jedoch verschiedene unerwünschte Effekte entgegen. 9 So kann es bei der Einfuhrung einer Lohnsubvention zu Mitnahmeeffekten kommen, wenn ein Unternehmen einen geförderten Arbeitnehmer einstellt, welcher auch ohne Vorhandensein einer Förderung eingestellt worden wäre. Der Effekt verkleinert sich jedoch, je geringer die Beschäftigungschancen des geforderten Arbeitnehmers sind. Folglich lassen sich die Mitnahmeeffekte begrenzen, indem eine relativ kleine Zielgruppe mit geringen Beschäftigungschancen für die Lohnsubvention bestimmt wird, z.B. Langzeitarbeitslose mit besonderen Beschäftigungshemmnissen. Allerdings kann ein solches Vorgehen eine Stigmatisierung der Subventionsberechtigten auslösen. In diesem Fall bewerten die Arbeitgeber bereits die Förderberechtigung als Signal für eine besonders geringe Arbeitsproduktivität. Demzufolge wird der Förderberechtigte nur dann eingestellt, wenn der Arbeitgeber davon ausgeht, dass die vermutete Produktivität durch die gewährte Lohnsubvention überkompensiert wird. Seine Erwartungen werden jedoch von den Stigmatisierungseffekten negativ beeinflusst, so dass letztlich die positive Wirkung der Lohnsubvention bedeutend verringert wird. Mindert man demnach die Möglichkeiten der Mitnahme durch eine strenge Eingrenzung der Berechtigten, können Unternehmen aufgrund des Stigmatisierungseffekts ganz den Anreiz verlieren die Lohnsubvention zu nutzen. Des Weiteren rufen arbeitgeberseitige Lohnsubventionen, wie bereits erwähnt, Substitutionseffekte hervor. Die Unternehmen haben demnach einen Anreiz bereits beschäftigte Arbeitnehmer durch förderberechtigte Personen zu ersetzen. Auf Branchenebene kann dieses Verhalten wiederum zur Verdrängung einzelner Betriebe fuhren. Ersetzt nämlich ein Unternehmen seine bestehende Belegschaft sukzessive durch subventionierte Personen, so kann es seine Arbeitskosten senken und sich mittels einer Produktionsausweitung gegenüber den Konkurrenzunternehmen in der Branche besser stellen. Unternehmen mit einem relativ geringen Anteil an geforderten Arbeitnehmern können somit nicht mehr am Markt bestehen und verlassen ihn. Der Konkurs fuhrt schließlich zu Entlassungen und der Beschäftigungseffekt der Lohnsubvention verpufft.

8

Nach Katz (1996, S. 7 ff.) lässt sich folgender Zusammenhang zwischen einer Lohnsubvention und der Beschäftigung bzw. des Lohnsatzes festhalten: - = J L £ - und — - = S — dsd

7J+C

dsd

TJ+C

wobei mit rj die Lohnelastizität der Arbeitsnachfrage und mit e die Lohnelastizität des Arbeitsangebots wiedergegeben werden. 9

Eine gute Übersicht zu den Effekten von Lohnsubventionen in unterschiedlichen Arbeitsmarktmodellen bietet unter anderem Bohlen (1993). Die beschäftigungshemmenden Wirkungen von arbeitgeberseitigen Lohnsubventionen findet man unter anderem bei Layard/Nickell/Jackman (1991), Hujer/Caliendo (2003) und Buslei/Steiner (1999, 2003), an denen sich die nachfolgenden Ausfuhrungen orientieren.

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 2 9 5

Ein solcher Effekt müsste jedoch relativ gering ausfallen, da Unternehmen, die an Marktanteilen verlieren, über den Substitutionseffekt beginnen würden ungeförderte Arbeitnehmer durch Förderberechtigte zu ersetzen, um am Markt bestehen zu bleiben. Diese Strategie würde zwar das Überleben des Unternehmens am Markt garantieren, jedoch keinen positiven Beschäftigungseffekt mehr nach sich ziehen.

2. Lohnsubventionen an Arbeitnehmer Mit der Subventionierung der Arbeitnehmerseite verfolgt man das Ziel, den Reservationslohn eines Beschäftigten bzw. eines Arbeitslosen zu senken, so dass Ersterer einen Anreiz hat seine Arbeitszeit auszuweiten und Letzterer bereit ist zu geringeren Marktlöhnen eine Beschäftigung aufzunehmen. Hierfür ist das Zusammenspiel von Lohnsubventionen und anderen Sozialtransfers besonders wichtig. Die Einfuhrung einer arbeitnehmerseitigen Förderung ohne eine Abstimmung auf die bestehenden Sozialtransfers kann letztlich die gewünschten Beschäftigungseffekte verpuffen lassen.10 Abgesehen von der Ausgestaltung einer arbeitnehmerseitigen Lohnsubvention muss zunächst festgehalten werden, dass ihre Auswirkung auf das Arbeitsangebot ex ante unbestimmt ist." Während die Lohnsubvention einen positiven Effekt bei den arbeitslosen Personen auslöst, bleibt der Gesamteffekt für bereits Beschäftigte vorab offen. 12 Sollten sich der Einkommens- und Substitutionseffekt vollkommen kompensieren, erhöht sich durch die Lohnsubvention das Nettoeinkommen eines bereits Beschäftigten, ohne dass dieser hierauf mit einer Arbeitszeitausweitung reagiert. Man spricht hierbei ebenfalls von Mitnahmeeffekten. Des Weiteren ist vorstellbar, dass der Einkommenseffekt den Substitutionseffekt übersteigt. In diesem Fall reduziert der Arbeitnehmer sogar sein Angebot, was die Zielsetzung der Lohnsubvention vollkommen untergräbt. Dem Staat entstehen hierdurch nicht nur zusätzliche Kosten, sondern ihm entgehen aufgrund der Angebotsreduktion auch bestehende Einnahmen, wie z.B. Steuern und Sozialversicherungsbeiträge. Letztlich hängt jedoch die Veränderung des Gesamtarbeitsvolumens von den Anteilen der jeweiligen Personengruppen an der Erwerbsbevölkerung ab. Ausgehend von einem normalen Arbeitsangebot13 skizzieren wir in Abbildung 2 die Auswirkungen einer arbeitnehmerseitigen Lohnsubvention im neoklassischen Partialmodell des Arbeitsmarktes.

10

11 12

13

Dieses Problems nehmen wir uns in Kapitel V an. Beide Reformalternativen beinhalten eine Neuregelung der Arbeitslosengeld II (ALG II) - Bestimmungen, so dass mit den Reformen positive Beschäftigungseffekte einhergehen. Vgl. unter anderem Akerlof( 1978), Moffltt (1985) und Siebert/Stähler (1994). Die Gewährung einer Lohnsubvention löst beim Arbeitnehmer zwei gegenläufige Effekte aus. Einerseits verteuert sich das Gut Freizeit im Vergleich zum Konsum, wodurch der Wert der Erwerbstätigkeit steigt (Substitutionseffekt). Andererseits präferieren die Arbeitnehmer bei einer Einkommenserhöhung sowohl mehr Konsum als auch mehr Freizeit, wodurch das Arbeitsangebot sinkt (Einkommenseffekt). Bei einem normalen Arbeitsangebot geht man davon aus, dass der Substitutionseffekt den Einkommenseffekt überwiegt, womit eine Lohnsubvention zu einem steigenden Arbeitsangebot führt.

296

Norbert Berthold und Mustafa Coban

Abbildung 2: Lohnsubvention an Arbeitnehmer im Partialmodell

Quelle: Sachverständigenrat Darstellung

zur Begutachtung der gesamtwirtschaftlichen

Entwicklung (2006), eigene

Unter der Annahme vollkommen flexibler Löhne und der Abwesenheit eines Mindestlohns bzw. sonstiger Rigiditäten bildet sich ein Marktgleichgewicht bei (N0, w 0 ). Es liegt Vollbeschäftigung vor und die Einführung einer Lohnsubvention ist hinfallig. Über das Arbeitslosengeld II (ALG II) als garantiertes soziales Existenzminimum wird jedoch ein Mindesteinkommensniveau definiert, welches in Verbindung mit den Hinzuverdienstregeln einen Anspruchslohn bzw. einen Reservationslohn bestimmt. Liegt dieser faktische Mindestlohn oberhalb des vormaligen markträumenden Lohns, haben Arbeitslose keinen Anreiz unterhalb dieser Grenze Arbeit auf dem Markt anzubieten. Die Arbeitsangebotskurve Ls(w) knickt bei w, nach links ab. Es entsteht strukturelle Arbeitslosigkeit in Höhe von N2—Nl. Die Einführung einer Lohnsubvention ss in Form eines fixen Transfers führt nun zum Anstieg des Nettoeinkommens bei gleichbleibenden Arbeitskosten. Die normale Arbeitsangebotskurve verschiebt sich folglich nach rechts außen. Außerdem senkt der Transfer den Anspruchslohn der Erwerbspersonen, wodurch sich die Lohnuntergrenze von w, nach w2 verschiebt. Ein sinkender Lohnsatz bewirkt wiederum eine Erhöhung der nachgefragten Arbeit und die Beschäftigung weitet sich auf N2 aus.14 14

Der positive Beschäftigungseffekt verbleibt auch dann, wenn man vom neoklassischen Modell abweicht und die Lohnsubvention in ein quasi-equilibrium rate of unemployment model, kurz QERUModell, integriert. Wegbereiter für dieses Modell, welches ein nicht-walrasianisches aber dennoch stabiles Gleichgewicht für den Arbeitsmarkt modelliert, war unter anderem der Beitrag von Phelps (1968). Eine ausfuhrliche Beschreibung zur Integration einer Lohnsubvention in das QERU-Modell findet sich in Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2006). Für eine Einführung in das QERU-Modell siehe unter anderem Layard/Nickell/Jackman (1991), Lindbeck (1994) und Franz (1996).

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte?

• 297

Vergleicht man nun abschließend die vorgestellten Lohnsubventionsformen miteinander, so lässt sich festhalten, dass die Lohnsubventionierung der Arbeitnehmer einer Lohnsubvention an die Arbeitgeber vorzuziehen ist. Bereits die Fülle an konterkarierenden Effekten bei einer Lohnsubvention an Unternehmen lässt an ihrer Effektivität zweifeln. Zieht man ferner die deutsche Lohnpolitik hinzu, ergibt sich zusätzlich ein Insider-Outsider-Problem. Denn im Zuge der Einführung einer arbeitgeberseitigen Lohnsubvention könnten die Gewerkschaften bei den Lohnverhandlungen durchsetzen, dass ein Teil der Fördergelder in höhere Tariflöhne einfließen. Dies wiederum fuhrt zu einer schwächeren Anhebung der Arbeitsnachfrage und somit zu kleineren Beschäftigungseffekten. Aus diesen Gründen beinhalten die Reformalternativen in Kapitel V lediglich arbeitnehmerseitige Lohnsubventionen. Zudem entschieden wir uns für eine unbefristete Förderung, da eine zeitliche Befristung zwei klare Nachteile aufweist. Erstens geht man bei einer Befristung implizit davon aus, dass der betroffene Arbeitnehmer während der Förderdauer seine Produktivität so stark ausweiten kann, so dass diese am Ende den Marktgegebenheiten entspricht und das Unternehmen den Arbeitnehmer übernimmt. Dies könnte zwar auf Personen zutreffen, die noch nicht all zu lange sich in Arbeitslosigkeit befinden und eventuell eine Ausbildung abgeschlossen haben. Problematisch wird die Annahme jedoch bei Langzeitarbeitslosen und unqualifizierten bzw. gering qualifizierten Personen. Legt man nun die Förderhöchstdauer für alle Personen unabhängig von ihren individuellen Merkmalen gleich lang fest, wird man den unterschiedlichen Ausgangsproduktivitäten nicht gerecht und kann schließlich nicht davon ausgehen, dass alle Geforderten mit der gleichen Wahrscheinlichkeit von den Unternehmen übernommen werden. Zweitens kann eine Befristung der Lohnsubvention Drehtüreffekte auslösen.15 Hierbei entlässt das Unternehmen die geforderte Person sobald dessen Förderdauer abgelaufen ist und stellt danach eine andere forderberechtigte Person bzw. dieselbe Person, sobald die Voraussetzungen für ihre neue Förderung erfüllt wurden, ein. Mit diesem Verfahren können die Unternehmen ihr Personal systematisch auf subventionierte Arbeitnehmer umstellen. Als letztes möchten wir hinzufügen, dass auch die Finanzierung einer Lohnsubvention über Steuern oder zusätzliche Abgaben Rückwirkungen auf die Beschäftigung hat.

III. Aktuelle Ausgestaltung der Mini- und Midijobs, Zielsetzungen und Risiken Mit der geringfügigen Beschäftigung und der Gleitzone existieren in Deutschland zwei stark subventionierte Beschäftigungsformen. Ihre aktuelle gesetzliche Ausgestaltung soll Bestand des nächsten Kapitels werden. Im Anschluss hieran werden kurz die politischen Ziele der derzeitigen Lohnsubventionierung in Deutschland dargelegt und auf mögliche Risiken hingewiesen.

15

Vgl. Minford {1997).

298

Norbert Berthold und Mustafa Coban

1. Einführung der Mini- und Midijobs ab 2003 Im Zuge der sogenannten Hartz-Reformen kam es 2003 zu einer Neuausrichtung der geringfügigen Beschäftigung. Die Geringfiigigkeitsgrenze wurde auf einen monatlichen Bruttolohn von 400 angehoben und die zusätzliche Bedingung einer Arbeitszeit von weniger als 15 Stunden pro Woche abgeschafft. Beschäftigungsverhältnisse innerhalb dieses Einkommensbereichs nennt man seitdem Minijobs. Sie sind für die Arbeitnehmer Steuer- und sozialabgabenfrei und können auch neben einer sozialversicherungspflichtigen Hauptbeschäftigung aufgenommen werden. Lediglich der Arbeitgeber tätigt pauschale Beiträge an die Rentenversicherung in Höhe von 12% und an die gesetzliche Krankenversicherung in Höhe von 11%. Ferner muss dieser eine pauschale Lohnsteuer in Höhe von 2% abfuhren. Mit einer weiteren Anpassung im Jahr 2006 wurden der Beitrag zur Rentenversicherung auf 15% und der Beitrag zur Krankenversicherung auf 13 % erhöht, während die pauschale Lohnsteuer unverändert blieb. Somit summiert sich die Belastung des Arbeitgebers aus einem Minijob derzeit auf 30%, wenn man von den marginalen Umlagen bei Krankheit, Schwangerschaft und Insolvenz absieht. Für die Beschäftigung in Privathaushalten gelten jedoch verringerte Pauschalbeiträge. Hier entrichtet der Privathaushalt als Arbeitgeber neben einer pauschalen Steuer von 2% jeweils 5% an die gesetzliche Rentenversicherung und Krankenversicherung. Die zu entrichtenden Beiträge und Abgaben der Arbeitgeber werden an die hierfür eingerichtete MinijobZentrale weitergeleitet und von dort an die einzelnen Empfangerinstitutionen verteilt. Zum Abschwächen der Abgaben- und Geringßgigkeitsfalle16 wurde zudem in 2003 eine Gleitzone für Bruttomonatseinkommen zwischen 400 und 800 eingerichtet. Als Midijob wird demnach ein sozialversicherungspflichtiges Beschäftigungsverhältnis bezeichnet, falls das hieraus erzielte Arbeitsentgelt zwischen 400,01 und 800 im Monat liegt. Bei mehreren Beschäftigungsverhältnissen ist das insgesamt erzielte Arbeitsentgelt maßgebend. Die vom Arbeitgeber zu entrichtenden Beiträge an die Sozialversicherungen verhalten sich wie bei normalen Beschäftigungsverhältnissen und bleiben demnach über die gesamte Gleitzone konstant. Somit ergibt sich eine Gesamtbelastung für den Arbeitgeber in Höhe von 19,28%.17 Die Beitragszahlungen des Arbeitnehmers erweisen sich in ihrer Berechnung als um einiges komplizierter. Da der Sinn und Zweck der Gleitzone darin besteht, Beschäftigungsverhältnisse in diesem Lohnintervall attraktiver für potenzielle Arbeitnehmer zu gestalten, wurde eine sukzessive Erhöhung des Beitragssatzes vorgenommen. Die Tabelle 3 gibt eine Übersicht zu ausgewählten Monatseinkommen in der Gleitzone und den damit verbundenen Sozialversicherungssätzen.

16

Die klassische Abgaben- und Geringfugigkeitsfalle entsteht bei einer sofortigen Aufhebung der Abgabenfreiheit für Einkommen oberhalb der Geringfügigkeitsgrenze. Die Einkommen unmittelbar nach dieser Grenze werden somit für den Arbeitnehmer vollkommen unattraktiv, da dieser trotz höherem Bruttoeinkommen nun ein geringeres Nettoeinkommen als zuvor realisiert. Vgl. Fuest/Huber (1998, S. 647).

17

Vgl. Arntz/Feil/Spermann (2003, S. 273).

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 2 9 9

Tabelle 3: Sozialversicherungssätze und Gesamtbeitrag in der Gleitzone Bruttolohn

Gesamtbeitrag

Arbeitgebersatz

Arbeitnehmersatz

450,01

135,01

19,28%

10,73%

500

160,04

19,28%

12,73%

600

210,12

19,28%

15,75%

700

260,20

19,28%

17,90%

800

310,28

19,28%

19,51%

850

335,33

19,28%

20,18%

Quelle: Eigene Darstellung Anmerkung: Wenn nicht weiter bestimmt, handelt es sich bei den Werten um €-Beträge

Während der Arbeitgeberanteil über alle Einkommen hinweg konstant bleibt, zeigt der Arbeitnehmersatz einen degressiven Verlauf auf. Da in 2013 die Verdienstgrenzen für Mini- und Midijobs um 50 Euro erhöht wurden, bezieht sich die Tabelle 3 auf die aktuellen Grenzen in Höhe von 450 und 850 Euro. Der Gesetzgeber begründet diese Anhebung mit der allgemeinen Lohnentwicklung in den letzten 10 Jahren. Um ferner die Gefahr einer zukünftigen Altersarmut abzumildern, soll des Weiteren der Arbeitnehmer 4,9% seines Bruttolohns aus dem Minijob eigenständig an die Rentenversicherung abführen, während der Beitragssatz für den Arbeitgeber weiterhin auf eine Höhe von 15% festgeschrieben wird. Der einzelne Minijobber kann diese Mehrbelastung jedoch umschiffen, indem er schriftlich eine solche Aufstockung ablehnt (OptingOut) und hierdurch der Minijob weiterhin abgabenfrei bleibt. Die Bundesregierung geht davon aus, dass etwa 90% der Minijobber von diesem Recht Gebrauch machen werden. Für Arbeitsverhältnisse im Grenzbereich, d.h. 400 bis 450 bzw. 800 bis 850, gelten ferner Bestands- und Übergangregelungen, die eine Behandlung nach der aktuellen Regelung bis zum 31. Dezember 2014 garantieren. Außerdem schätzt man, dass den Sozialversicherungen durch diese Reform jährlich 90 Mio. Einnahmen entgehen, der Bundeshaushalt ab 2015 in der Grundsicherung Mehrausgaben in Höhe von 70 Mio. tätigen muss und die jährlichen Steuerausfalle sich auf 95 Mio. belaufen werden.18

2. Zielsetzungen der aktuellen Regelung Mit der Reformierung der geringfügigen Beschäftigung in 2003 verfolgte die Bundesregierung damals wie heute mehrere Ziele:19 1. Schaffung von Beschäftigungsmöglichkeiten im Niedriglohnsektor20 durch Flexibilisierung der Einsatzmöglichkeiten auf Seiten der Unternehmen. 18 19 20

Vgl. Deutscher Bundestag (2012b, S. 5-10). Vgl. Fertig/Kluve/Schmidt (2005, S. 7). Nach der allgemeinen OECD-Definition entspricht der Niedriglohn genau zwei Dritteln des Medianlohns aller Beschäftigten eines Landes.

300

Norbert Berthold und Mustafa Coban

2. Integration von Arbeitslosen durch die Schaffung stärkerer Arbeitsanreize zur Aufnahme einer geringfügigen Beschäftigung. 3. Eindämmung der illegalen Beschäftigung bzw. Schwarzarbeit, insbesondere in Privathaushalten. Die Attraktivität der Mini- und Midijobs liegt darin, dass der Bruttolohn dem Nettoverdienst entspricht bzw. ein geringerer Arbeitnehmersatz zur Sozialversicherung fallig ist. Infolgedessen sind Erwerbslose bereit auch zu geringeren Löhnen diese Beschäftigungsformen aufzunehmen. Die Unternehmen wiederum können auf der Ebene der Bruttostundenlöhne Arbeitskosten einsparen. Aufgrund der geringeren Entlohnung beschränkt sich ein Großteil der Mini- und Midijobs auf einfache Tätigkeiten21, womit vorerst auf der Angebotsseite Langzeitarbeitslose, Geringqualifizierte und Erwerbslose als potenzielle Personengruppen in Frage kommen. Bedingt durch eine elastischere Arbeitsnachfrage nach einfachen Tätigkeiten im Vergleich zu qualifizierten Tätigkeiten, fallen Unternehmen, die hauptsächlich einfache Arbeit nachfragen, stärker in den Fokus der Reform.22 Sie können nun aufgrund der Arbeitskostenersparnisse ihre Arbeitsnachfrage ausweiten und neue Arbeitsplätze für Geringqualifizierte schaffen. Außerdem erhalten sie mittels der Mini- und Midijobs ein flexibles Beschäftigungsinstrument. Arbeitgeber im Gastronomiegewerbe können beispielsweise schneller und kosteneinsparender auf Stoßzeiten reagieren und Industrieunternehmen haben die Möglichkeit, neben den voll sozialversicherungspflichtigen Mitarbeitern eine Randbelegschaft aufzubauen, mittels welcher sie Auftragsfluktuationen und Konjunkturschwankungen ausgleichen können. Für Arbeitslose wiederum kann die Aufnahme eines Mini- oder Midijobs zum Sprungbrett in eine reguläre Beschäftigung23 werden. Während der Beschäftigungsphase stellen sie ihre Arbeitsfähigkeit wieder her und können diese stabilisieren. Außerdem eignen sie sich bei ihren Tätigkeiten neue Fertigkeiten an und können somit ihre Beschäftigungschancen verbessern.

3. Risiken der aktuellen Ausgestaltung Neben den angeführten Chancen ist dennoch die aktuelle Implementierung eines subventionierten Niedriglohnsektors mit Risiken verbunden. So besteht die Gefahr, dass ein Arbeitgeber insbesondere bei den Minijobs einen gesetzeswidrigen Lohnabschlag tätigt, um an Personalkosten zu sparen. Zwar gilt nach dem Benachteiligungsverbot24, dass der Mini- bzw. Midijobber einen Anspruch auf den gleichen Bruttostundenlohn

21

22

23

24

So erforderten in 2010 knapp 65% der Minijobs in Deutschland nicht einmal einen Ausbildungsabschluss. Vgl. Eichhorst et al. (2012, S. 23). Schneider et al. (2002, S. 43) ermitteln für die geringfügige Beschäftigung eine Lohnelastizität der Arbeitsnachfrage in Höhe von 2,04% und für Beschäftigungsverhältnisse mit einem Einkommen oberhalb von 1280 einen Wert von lediglich 0,11%. Im Folgenden werden die Begriffe reguläre bzw. normale Beschäftigung als Äquivalente für eine voll sozialversicherungspflichtige Vollzeitstelle verwendet. Vgl. § 4 TzBflG (Gesetz über Teilzeitarbeit und befristete Arbeitsverträge).

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 3 0 1

wie ein vergleichbarer voll sozialversicherungspflichtiger Beschäftigter hat, dennoch wären flächendeckende Kontrollen mit enormen Kosten für den Staat verbunden. Wenn in einem solchen Fall der Minijobber einen Stundenlohn unterhalb seiner Produktivität erhält, eignet sich faktisch der Arbeitgeber die Lohnsubvention des Arbeitnehmers an und wälzt somit seine Personalkosten auf den Staat über. 25 Tabelle 4: Gesetzeswidriger Lohnabschlag beim Minijob Arbeitszeit

Stundeillohn

Bruttolohn

Nettolohn

Arbeitskosten

Sozialversicherungspflichtige Beschäftigung

25 Std.

16

400

281,5

480

Minijob mit Lohnabschlag

25 Std.

11,26

281,5

281,5

365,95

Minijob ohne Lohnabschlag

25 Std.

16

400

400

520

Quelle: Eigene Darstellung Anmerkung: Wenn nicht weiter bestimmt, handelt es sich bei den Werten um €-Beträge

Die Tabelle 4 gibt ein Beispiel dafür, wie ein solcher Lohnabschlag aussehen könnte, damit der Arbeitgeber sich die Subvention aneignen kann. Hier wird eine voll sozialversicherungspflichte Beschäftigung mit dem Fall eines Minijobs unter Lohnabschlag und dem Fall eines gesetzeskonformen Minijobs verglichen. Vernachlässigt wird in dieser einfachen Betrachtung jedoch, dass es sich bei Miniund Midijobs in der Regel um einfache Tätigkeiten handelt, welche letztlich bereits mit einer geringen Qualifikation ausgeführt werden können und deren Einarbeitungszeit relativ kurz ist. Hieraus kann man schließen, dass Unternehmen nicht nur innerhalb einer Branche, sondern auch branchenübergreifend auf die gleichen Personengruppen zurückgreifen, nämlich die Geringqualifizierten. Diese können wiederum aufgrund der kurzen Einarbeitungszeit und der geringen Voraussetzungen in Bezug auf branchenspezifische Kenntnisse zu geringen Kosten auf eine Lohnkürzung oder einen Lohnabschlag durch Abwanderung in einen besser bezahlten Minijob reagieren. Durch den Wechsel von einem Minijob in den nächsten Minijob entsteht jedoch zugleich die Gefahr, dass der Geringqualifizierte nur bedingt seine Position auf dem Arbeitsmarkt verbessert. Zum einen kann ein Erwerbsverlauf mit langen Abschnitten in der geringfügigen Beschäftigung zu Stigmatisierungseffekten führen, so dass der Arbeitnehmer aus Sicht des Arbeitgebers für unbefristete Vollzeitstellen uninteressant wird. Zum anderen kann ein langer Verbleib in einer Mini- bzw. Midijobstelle nicht uneingeschränkt mit einer starken Aneignung betriebsspezifischer bzw. branchenspezifischer Fähigkeiten verbunden werden. Dies liegt unter anderem daran, dass diese Beschäftigten (in der Regel) nur bestimmte Tage in der Woche den Betrieb aufsuchen und meistens weniger Verantwortung für betriebliche Abläufe übernehmen als Vollzeitbeschäftigte, die zudem eine längere

25

Vgl. Voss/Weinkopf (2012, S. 6).

302

Norbert Berthold und Mustafa Coban

Betriebszugehörigkeit aufzeigen. 26 Mini- und Midijobber genießen somit nur eine relativ schwache Stellung innerhalb eines Betriebs und haben letztlich, falls das Arbeitsverhältnis im Nebenerwerb ausgeführt wird, nur ein geringes Interesse an den betrieblichen und kollektiven Regelungen. In Krisenzeiten sind sie ferner der Gefahr ausgesetzt, dass die voll sozialversicherungspflichtige Kernbelegschaft für einen Ausgleich über diese Arbeitsverhältnisse plädiert, um die eigenen Arbeitsplätze abzusichern. 27 Ein letztes Risiko besteht darin, dass ein subventionierter Niedriglohnsektor vermehrt normale Arbeitsstellen verdrängen könnte. Zum einen könnten bestehende reguläre Arbeitsplätze in mehrere Minijobstellen umgewandelt werden, um hierdurch auf der Stundenebene an Arbeitskosten zu sparen und zugleich die Flexibilität in Bezug auf die Umsatzlage des Unternehmens zu erhöhen. Zum anderen hat der Unternehmer bei der Schaffung neuer Arbeitsplätze die Wahl zwischen einer sozialversicherungspflichtigen und einer geringfügigen Beschäftigung. Die Entscheidung orientiert sich letztlich an der gewünschten Arbeitszeit, den Arbeitskosten und den Suchkosten des Unternehmers.

IV. Bewertung der Reformziele: Empirische Befunde In den nachfolgenden Kapiteln soll anhand ausgewählter empirischer Forschungsergebnisse die Reform aus dem Jahr 2003 untersucht und bewertet werden. Hierbei orientieren wir uns hauptsächlich an der Frage, ob die gewünschten Effekte und Ziele der Reform bisher erreicht wurden. Da es sich bei nahezu 85% der subventionierten Arbeitsverhältnisse um Minijobs handelt, fokussieren wir unsere Analyse ausschließlich auf diese Beschäftigungsform.

1. Brückenfunktion der Minijobs Die staatliche Subventionierung der geringfügigen Beschäftigung sowohl vor der Minijobreform 2003 als auch danach zielte darauf ab, Geringqualifizierte sowie Arbeitslose in ein Beschäftigungsverhältnis auf dem ersten Arbeitsmarkt zu bringen. Inwieweit diese Brückenfunktion durch die Ausgestaltung der gesetzlichen Regelung erfüllt wird, wurde in den letzten Jahren in mehreren Studien untersucht. So stellen sich in der Studie von Fertig/Kluve (2006) die Autoren die Frage, inwieweit sich die gesamtwirtschaftliche Anzahl an Mini- und Midijobs geändert hätte, falls es zu keiner Reform in 2003 gekommen wäre. Durch einen Vergleich zwischen der tatsächlichen Anzahl an Mini- und Midijobs nach der Reform und ihren geschätzten Werten können sie zeigen, dass der Reformeffekt für die Mini- und Midijobs signifikant positiv ausfiel. Während die Minijobs an Attraktivität stärker zulegten als die Midijobs, weisen die Autoren darauf hin, dass der stärkere Anstieg zum Teil auf Redefinitionseffekte zurück zu führen sei. In Folge der 2003er Reform wurde die Geringfügigkeits-

26

27

Ein durchschnittlicher Minijobber arbeitete in 2010 zwischen 9,4 Std. (hauptbeschäftigt) und 6 Std. (nebenbeschäftigt) in der Woche. Vgl. Eichhorst et al. (2012, S. 18). Vgl. Voss/Weinkopf (2012).

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte?

• 303

grenze von 325 auf 400 angehoben, womit Arbeitsverhältnisse in diesem Einkommensintervall zu Minijobs deklariert wurden, ohne dass die betroffenen Personen ihr Arbeitsangebot veränderten.28 Demnach hatte die Reform zwar einen positiven Effekt auf die Anzahl der Mini- und Midijobs, aber bisher kann man noch keine Aussage darüber treffen, ob die neuen Arbeitsverhältnisse von Erwerbs- bzw. Arbeitslosen oder von bereits Beschäftigten als Nebenerwerb besetzt wurden. Diese Frage beantworten schließlich Caliendo/Wrohlich (2006) in einer ex post Evaluation der 2003er Reform. Für ihre Analyse verwenden die Autoren als Datengrundlage das Sozio-Oekonomische Panel (SOEP). Da innerhalb dieses Panels die Befragungen der Personen über das ganze Jahr verteilt werden, können die Autoren ein natürliches Experiment zur Untersuchung der Effekte der Minijob-Reform zum 1. April 2003 konstruieren. Hierfür definieren sie die Personen, welche sowohl vor dem 1. April 2003 als auch vor dem 1. April 2002 befragt wurden als Kontrollgruppe. Für diese Gruppe hat sich innerhalb des einen Jahres hinsichtlich der gesetzlichen Rahmenbedingungen nichts verändert. Die Untersuchungsgruppe bilden somit diejenigen Personen, die sowohl in 2002 als auch in 2003 nach dem 1. April befragt wurden. Für diese Gruppe haben sich mit der Minijob-Reform sehr wohl die gesetzlichen Rahmenbedingungen verändert. Um ferner Redefinitionseffekte - wie bereits oben näher erläutert - zu vermeiden, wird für den gesamten Untersuchungszeitraum die damalige Geringfügigkeitsgrenze von 400 angesetzt. Die beiden Autoren kommen mittels ihrer Schätzungen zum Ergebnis, dass die Reform im Jahr 2003 keine signifikanten Effekte (über einen Zeitraum von 9 Monaten) hatte, d.h. die Wahrscheinlichkeit der Aufnahme einer geringfügigen Beschäftigung vor und nach der Reform ist nicht signifikant verschieden.29 Demnach setzte die Minijob-Reform in 2003 keine nachweisbaren Anreize für Erwerbs- und Arbeitslose eine Beschäftigung auf dem Arbeitsmarkt aufzunehmen. Der Reform lässt sich ex post nur eine begrenzte Brückenfunktion konstatieren.

2. Sprungbrettfunktion der Minijobs Mit der Minijob-Reform wurde neben der Brückenfunktion auch die Hoffnung verknüpft, dass Mini- und Midijobs den Beschäftigten als Sprungbrett in ein reguläres Arbeitsverhältnis dienen. Für eine Bewertung der Minijobs anhand dieser Funktion stellen sich demnach zwei Fragen. Erstens, ob Minijobs eine Chance darstellen, um in eine voll sozialversicherungspflichtige Beschäftigung zu wechseln, oder ob die geringfügigen Beschäftigungsverhältnisse mit einem Wiedereintritt in die Arbeitslosigkeit beendet werden. Zweitens, ob es sich bei einem Übertritt aus der geringfügigen Beschäftigung in ein Normalarbeitsverhältnis um eine langfristige Anstellung handelt, oder ob diese Arbeitsplätze nur von kurzer Dauer und relativ instabil sind. Diese beiden Fragen versuchen Freier/Steiner (2008) in ihrer Studie zu bantworten. Hierfür bilden sie vier Kohorten aus Personen, die sich zum Ausgangszeitpunkt bereits seit mindestens drei Monaten in Arbeitslosigkeit befanden. Zur Untersuchungsgruppe werden diejenigen gezählt, die innerhalb von neun Monaten nach dem Startpunkt eine 28 29

Vgl. Fertig/Kluve (2006, S. 101 -111). Vgl. Caliendo/Wrohlich (2006, S. 12).

304

Norbert Berthold und Mustafa Coban

geringfügige Beschäftigung aufnehmen. Die Kontrollgruppe bilden demnach die übrigen Personen, welche in diesem Zeitraum arbeitslos bleiben oder eine reguläre Beschäftigung aufnehmen. Schließlich werden die Erwerbsverläufe der beiden Gruppen für die kommenden drei Jahre beobachtet und miteinander verglichen. Zwar erhalten die Autoren in ihren Schätzungen ein signifikantes Ergebnis dafür, dass die Untersuchungsgruppe im Durchschnitt 90 Tage pro Jahr weniger in Arbeitslosigkeit verbrachte als die Kontrollgruppe, jedoch hinsichtlich der Chance auf ein reguläres Beschäftigungsverhältnis in den beobachteten drei Jahren weisen die beiden Gruppen keine signifikanten Unterschiede zu einander auf. 30 Auch die Studie von Caliendo/Künn/Uhlendorff (2009) beschäftigt sich mit den beiden oben genannten Fragestellungen. Die Autoren wählen einen ähnlichen Ansatz wie oben und beobachten die Personen aus ihrem Datensatz über vier Jahre hinweg. Bereits eine einfache deskriptive Analyse der Daten lässt die Autoren auf ähnliche Ergebnisse schließen. Die empirischen Schätzungen der Autoren ergeben zwei interessante Ergebnisse. Erstens ist die Wahrscheinlichkeit eines Wechsels aus der Arbeitslosigkeit in eine reguläre Beschäftigung für die Untersuchungsgruppe um 10% geringer als für die Kontrollgruppe, d.h. Personen, die neben der Arbeitslosigkeit einer geringfügigen Beschäftigung nachgehen (Untersuchungsgruppe), haben sogar seltener die Chance in eine reguläre Beschäftigung zu wechseln als Personen, die während ihrer Arbeitslosigkeit keine geringfügige Beschäftigung aufnehmen (Kontrollgruppe). Zweitens beeinflusst das Vorhandensein einer geringfügigen Beschäftigung in keinster Weise die Stabilität einer zukünftigen regulären Beschäftigung. Die Wahrscheinlichkeit eines Wiedereinritts aus einer regulären Beschäftigung in die Arbeitslosigkeit ist für die Kontrollgruppe nicht signifikant verschieden zur Untersuchungsgruppe, d.h. die Wahrscheinlichkeit des Verlusts einer regulären Beschäftigung kann nicht dadurch verringert werden, dass man vor dieser einer geringfügigen Beschäftigung nachging. 31 Demzufolge bildet die Aufnahme einer geringfügigen Beschäftigung kein bzw. kein stabiles Sprungbrett in eine reguläre Beschäftigung.

3. Verdrängung regulärer Beschäftigung Im wissenschaftlichen Diskurs wird ferner auf die Gefahr hingewiesen, dass mit einem stark subventionierten Niedriglohnsektor es zu einer Verdrängung von bestehenden regulären Arbeitsverhältnissen in diesem Segment kommen kann. Für den Niedriglohnsektor im Allgemeinen konstatiert das Institut der deutschen Wirtschaft (2011) in ihrem Gutachten, dass es in den letzten Jahren mit einem Anstieg der Beschäftigten in diesem Segment zu keiner Verdrängung kam. So ermitteln sie für die Jahre 1994 bis 2009 einen stabilen Kern von 44% bis 48% der Erwerbsbevölkerung, welcher oberhalb der Niedriglohnschwelle beschäftigt war. Den Anstieg der Niedriglohnbeschäftigung führt man auf den Rückgang der Anteile der Rentner 32 und der

30 31 32

Vgl. Freier/Steiner (2008, S. 225-233). Vgl. Caliendo/Künn/Uhlendorff (2009, S. 3-15). Folglich handelt es sich per Definition, um frühzeitige Renteneinritte, da das erwerbsfähige Alter zwischen 15 und 65 Jahren liegt.

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 3 0 5

Nichterwerbstätigen33 an der Erwerbsbevölkerung zurück. Untermauert wird diese Begründung mit Hilfe der steigenden Erwerbsquote der 50- bis 65-Jährigen von 56% auf 70% in den Jahren 1996 bis 2009. Die Aktivierung der stillen Reserve wiederum spiegelt sich unter anderem in der Erhöhung der Erwerbsbeteiligung der Frauen von 63% auf knapp 72% in den Jahren 1998 bis 2009 wider.34 Inwieweit explizit die geringfügige Beschäftigung zu einer Verdrängung regulärer Vollzeitstellen führt, untersucht die Studie von Jacobi/Schaffner (2008). In ihrem Beitrag schätzen die Autoren die Arbeitsnachfrageelastizität verschiedener Beschäftigungsformen. Hierbei diskriminieren sie zwischen geringfügiger Beschäftigung, regulärer Teilzeitbeschäftigung und regulären Vollzeitstellen unqualifizierter, qualifizierter und hochqualifizierter Arbeitnehmer. Wie erwartet zeigt die geringfügige Beschäftigung die größte Lohnelastizität auf. Unter Anwendung der geschätzten Kreuzlohnelastizitäten werden hiernach die Auswirkungen einer ein prozentigen Lohnerhöhung für unqualifizierte (reguläre) Vollzeitbeschäftigte auf die übrigen Beschäftigungsformen simuliert. Die Berechnungen der Autoren ergeben, dass die Arbeitsnachfrage nach geringfügig Beschäftigten in der Zeit vor der 2003er Reform um 2427 Personen zunimmt und nach der Reform sich sogar um 5931 Personen erhöht.35 Somit liegt zwar eine Substituierbarkeit der beiden Beschäftigungsformen vor, knüpft dies jedoch an die Bedingung einer Lohnsteigerung. Ob es sich letztlich um eine gesamtwirtschaftlich schädliche Verdrängung handelt, muss anhand der Rahmenbedingungen der deutschen Lohnpolitik beantwortet werden. Diese ist unter anderem dadurch gekennzeichnet, dass die Gewerkschaften bedingt durch ihre Verhandlungsmacht versuchen die Lohnspreizung zwischen Hoch-, Mittelund Geringqualifizierten künstlich gering zu halten. Verschärft wird dies durch einen relativ hohen Reservationslohn in Form des staatlich garantierten sozialen Existenzminimums. Geringqualifizierte können somit bei den TarifVerhandlungen mit den Arbeitgebern Löhne oberhalb ihrer Produktivität realisieren. Verdrängungseffekte lassen sich somit als Ausgleichreaktionen des Marktes begründen, um die Verzerrungen zwischen den Löhnen und den Arbeitsproduktivitäten zu entschärfen. Unternehmen wandeln nicht mehr rentable reguläre Beschäftigungsverhältnisse in Mini- bzw. Midijobs um, um ihre Wettbewerbsfähigkeit aufrecht zu erhalten und können somit die bestehenden Arbeitsplätze absichern. Auch in dem kürzlich erschienenen Beitrag von Hohendanner/Stegmaier (2012) weisen die Autoren darauf hin, dass eine Verdrängung normaler Arbeitsverhältnisse durch Mini- und Midijobs eher in kleinen Betrieben (Betriebe mit weniger als neun Beschäftigten) als in Großbetrieben (Betriebe mit mehr als 100 Beschäftigten) auftreten.36 Insbesondere im (Einzel-)Handel und im Gastgewerbe37 bedingt der intensive 33

34 35

36 37

Hierbei handelt es sich um Personen in der stillen Reserve, d.h. nicht arbeitslos gemeldete Personen, die jedoch erwerbsfähig sind. Vgl. Institut der deutschen Wirtschaft (2011, S. 7-9). Vgl. Jacobi/Schaffner (2008, S. 17-24). Die simulierten Werte beziehen sich ausschließlich auf Westdeutschland in den Zeiträumen von 1999 bis 2003 und von 2003 bis 2005. Vgl. Hohendanner/Stegmaier (2012, S. 6-8). In diesen Wirtschaftszweigen befanden sich Anfang 2013 knapp 30% aller Minijobber. Vgl. Statistik der Bundesagentur für Arbeit (2013a).

306

Norbert Berthold und Mustafa Coban

Wettbewerb, dass gerade kleinere Unternehmen stetig ihre Kosten zu reduzieren versuchen und infolgedessen vermehrt auf Minijobs zurückgreifen.

4. Eindämmung der Schwarzarbeit Durch die gezielte Ausweitung der Minijobs auf haushaltsnahe Dienstleistungen in 2003, versuchte der Gesetzgeber Herr über die bis dahin stetig steigende Schwarzarbeit zu werden. Hierzu wurden für die privaten Arbeitgeber Steuerermäßigungen38 eingeführt und ein vereinfachtes Abwicklungsverfahren eingerichtet. Seit 2004 steigt die Zahl an geringfügig Beschäftigten in Privathaushalten beständig an. Ende 2012 gab es bereits weit mehr als doppelt so viele Minijobber in Privathaushalten wie in 2004.39 Auch Schneider (2008) kommt in seiner Studie zu dem Ergebnis, dass der Anteil der Schwarzarbeit seit 2003 in Deutschland rückläufig sei. So verkleinerte sich der Bestand an Schwarzarbeit zwischen 2003 und 2007 von 17,10% (370 Mrd. Euro) des Bruttoinlandsprodukts auf 14,64% (349 Mrd. Euro). Um die Messung von Drogengeschäften, sittenwidrigen Verträgen und Menschenhandel zu vermeiden, definiert der Autor Schwarzarbeit als diejenigen (eigentlich) legalen Beschäftigungen, welche sich jedoch der Kontrolle und der Besteuerung des Staates entziehen. Zur Quantifizierung der Größen verwendet er die in der Literatur gebräuchliche currency demand-Methode.40 Außerdem ermittelt der Autor, dass die Minijob-Reform aus 2003 zu einer Reduktion der Schattenwirtschaft in 2004 und 2005 um 9 Mrd. führte. Kritisch merkt er unter anderem an, dass die Erhöhung der Arbeitgeberpauschale von 25% auf 30% im Jahre 2006 die Schattenwirtschaft um mindestens 400 Mio. in 2006 und um 2,5 Mrd. in 2007 ansteigen lies.41 Diesen Hinweis nehmen wir für das nachfolgende Kapitel mit und plädieren bei unseren Reformalternativen für eine Rücknahme der 2006er Reform. Insgesamt lässt sich dennoch festhalten, dass mit der Reformierung der kleinen Beschäftigungsverhältnisse in Privathaushalten und den geringeren Abgaben für die betroffenen Arbeitgeber Anreize gesetzt wurden, Haushaltshilfen, Gärtner und andere Erwerbstätige als Minijobber anzumelden.

38 39 40

41

Eine nähere Beschreibung der Abgabenbelastung privater Arbeitgeber erfolgte bereits in Kapitel III. 1. Vgl. Minijob-Zentrale (2012a). Dieser Ansatz basiert auf der Annahme, dass innerhalb der Schattenwirtschaft hauptsächlich Bargeld für die Transaktionen verwendet wird. Im ersten Schritt schätzt man zunächst die Höhe der Geldnachfrage, welche notwendig wäre um das offizielle Bruttoinlandsprodukt herzustellen. Diese wird schließlich mit der tatsächlichen Geldnachfrage verglichen und die Differenz als Indikator für die Größe der Schattenwirtschaft bzw. der Schwarzarbeit verwendet. Vgl. Schneider (2008, S. 91-104.

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte?

• 307

V. Neuausrichtung der Lohnsubvention in Deutschland Unsere bisherigen Untersuchungen zur Entwicklung der Mini- und Midijobs sowie die Bewertung der Zielsetzungen der 2003er Reform zeigen nur bedingt erfolgreiche Ergebnisse hinsichtlich der Verbesserung der Arbeitsmarktsituation von Geringqualifizierten und Arbeitslosen. Für eine anreizkompatible und beschäftigungsfördernde Subventionierung dieser Zielgruppe benötigt eine Neuausrichtung der Lohnsubventionierung in Deutschland nachfolgende Kernelemente: 1. Stärkere qualifikatorische Lohnspreizung des Arbeitsmarkts 2. Stärkere Anreize zur Arbeitsaufnahme und Angebotsausweitung der ALG IiBezieher 3. Stärkere Anreize zur Arbeitszeitausweitung bereits geringfügig Beschäftigter bzw. Midijobber 4. Entlastung der sozialen Sicherung und des Steuersystems 5. Mitnahme- und Verdrängungseffekte im Bereich der geringfügigen Beschäftigung und der Midijobs senken Wie bereits in Kapitel IV.3 erläutert, weist die Arbeitsnachfrage nach Geringqualifizierten und nach geringfügiger Beschäftigung eine stärkere Lohnelastizität als die Arbeitsnachfrage nach qualifizierten Arbeitskräften auf. Dieses Merkmal bedingt letztlich bei einer stärkeren qualifikatorischen Lohnspreizung und Entlohnung der Geringqualifizierten entlang ihrer Produktivität eine stärkere Ausweitung der Arbeitsnachfrage und somit der Schaffung neuer Arbeitsplätze. Um jedoch eine stärkere Lohnspreizung in Abhängigkeit der Qualifikation zu ermöglichen, muss der Reservationslohn der Arbeitnehmer gesenkt werden. Zwar existiert in Deutschland kein allgemeinverbindlicher Mindestlohn, jedoch wird mittels des ALG II ein soziales Existenzminimum für jede Person definiert und somit ein faktischer Mindestlohn für Arbeitssuchende gesetzt. Eine Erwerbstätigkeit mit einer Entlohnung unterhalb dieser staatlich fixierten Grenze wird somit für den Einzelnen zunehmend unattraktiv, da das gleiche Einkommen ohne Erwerbstätigkeit und somit ohne weiteres Arbeitsleid vom Staat garantiert wird. Hierbei abstrahieren wir bewusst von nicht-monetären positiven Zusatznutzen, die mit einer Arbeitsaufnahme einhergehen können. Diese können unter anderem in einer stärkeren sozialen Teilhabe an der Gesellschaft, in der Aufrechterhaltung der persönlichen Gesundheit und in der persönlichen Selbstbestätigung liegen. Da diese positiven Zusatznutzen nur begrenzt messbar sind, orientieren wir uns für die folgenden Reformvorschläge ausschließlich an den monetären Anreizen einer Arbeitsaufnahme. Der oben beschriebene Zusammenhang gilt somit genau dann, wenn jeglicher Hinzuverdienst bei ALG Ii-Bezug dem ALG II-Bezieher vollkommen entzogen würde. Man spricht hierbei von einer Transferentzugsrate in Höhe von 100%. Zwar liegt die Transferentzugsrate durch die aktuelle Ausgestaltung des ALG Ii-Bezugs nicht bei 100%, jedoch steigt sie degressiv mit steigendem Hinzuverdienst an, d.h. je mehr der ALG Ii-Bezieher hinzuverdient, desto mehr wird ihm letztlich vom Gesamthinzuverdienst abgezogen. Eine Reform der subventionierten Beschäftigungen kommt demnach nicht daran vorbei, das derzeit anreizfeindliche ALG II anzupassen. Neben den

308

Norbert Berthold und Mustafa Coban

ALG II-Beziehern gibt es auch Personengruppen, die einer geringfügigen Beschäftigung im Haupterwerb nachgehen und nicht am sozialen Existenzminimum leben. Hierbei handelt es sich meistens um Hausfrauen bzw. Hausmänner, die einen Minijob (seltener einen Midijob) besetzen, um das Haushaltseinkommen aufzubessern. Diese Erwerbstätigen haben aufgrund der derzeitigen Ausgestaltung der geringfügigen Beschäftigung kaum Anreize, ihr Arbeitsvolumen über die 450-Grenze auszuweiten. Gerade die volle Subventionierung der Beschäftigungen bis 450 belasten in erheblichem Maße direkt die soziale Sicherung und indirekt das Steuersystem. Zum einen entgehen heute den Sozialversicherungen Arbeitnehmerbeiträge, indem die Minijobs vollkommen abgabenfrei abgewickelt werden. Zum anderen könnte es in Zukunft zu einer stärkeren Belastung des Steuersystems kommen, wenn langjährige Mini- und Midijobber bei Renteneintritt zu geringe Rentenansprüche geltend machen und somit abhängig von der Grundsicherung im Alter und bei Erwerbsminderung werden. Weiterhin gilt es, wie bei jeder Subventionierung auf dem Arbeitsmarkt, darauf zu achten, dass die Verdrängungs- und Mitnahmeeffekte gering gehalten werden. In den folgenden Kapiteln sollen zwei Reformalternativen vorgestellt werden, welche diese Anreizprobleme und Reformnotwendigkeiten berücksichtigen. Hinsichtlich der fiskalischen Belastungen können derzeit keine expliziten Aussagen getroffen werden, da man hierfür ein geeignetes Mikrosimulationsmodell und umfangreiche Personendaten benötigt.

1. Reformalternative I: Kürzung der Sozialversicherungsbeiträge Die Reformalternative I besteht aus drei Paketen, welche sich gegenseitig ergänzen und lediglich in gemeinsamer und gleichzeitiger Ausführung die Zielvorgaben erreichen können: • • •

Paket 1: Individuelles Arbeitsvolumen stärken Paket 2: Soziale Sicherung und Steuersystem entlasten Paket 3: ALG II-Falle überwinden

Das erste Paket beinhaltet die Rücknahme der Reform aus dem Jahr 2003 hinsichtlich der geringfügigen Beschäftigung im Nebenerwerb und somit die Abschaffung der Steuer- und Abgabenfreiheit von Minijobs im Nebenerwerb. Mit einer Lohnsubvention an Arbeitnehmer soll in erster Linie das Ziel verfolgt werden, Geringqualifizierten einen Einstieg in den Arbeitsmarkt zu ermöglichen, indem diese bereit sind zu geringeren Löhnen eine Beschäftigung aufzunehmen bzw. ihr Arbeitsangebot auszuweiten. Minijobber im Nebenerwerb befinden sich jedoch bereits auf dem Arbeitsmarkt und gehen in ihrer Hauptbeschäftigung entweder einem Midijob oder einer voll sozialversicherungspflichten Beschäftigung nach. Die derzeitige Regelung fordert somit in keinster Weise die Ausweitung der Erwerbstätigenquote, sondern schafft lediglich günstige Konditionen für bereits Beschäftigte, ihr Haushaltseinkommen aufzubessern. Das zweite Paket zielt auf die detaillierte Ausgestaltung der Subventionierung ab. Bei der Reformalternative I erfolgt die Subventionierung von Beschäftigungsverhältnissen mit geringen Bruttomonatseinkommen über eine Reduzierung der Sozialversicherungsbeiträge. Die Steuer- und Abgabenfreiheit der geringfügigen Beschäftigung

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 3 0 9

wird ebenso aufgehoben, wie die aktuelle Geringfügigkeitsgrenze. Für Bruttomonatseinkommen zwischen 0 und 1000 wird eine Gleitzone eingerichtet, in welcher der Beitragssatz der Arbeitnehmer zu den Sozialversicherungen sukzessive ansteigt und bei der Gleitzonengrenze von 1000 dem Prozentsatz aus einer regulären Beschäftigung entspricht. Auch der Beitragssatz der Arbeitgeber wird neu geregelt. Für Beschäftigungsverhältnisse bis 200 muss nun der Arbeitgeber statt derzeit 30% nur noch 25% abführen. Hiervon gehen 2% Lohnsteuerpauschale an das Finanzamt, 12% an die gesetzliche Rentenversicherung und 11% an die gesetzliche Krankenversicherung. Faktisch handelt es sich hierbei um die Rücknahme der Anhebung der Arbeitgeberbelastung aus dem Jahr 2006. Ab einem Beschäftigungsverhältnis von 200 wird demnach der normale Arbeitgeberbeitragssatz zur Sozialversicherung wirksam. Der Abbildung 3 kann man den Verlauf der Sozialversicherungssätze in der derzeitigen Ausgestaltung und in der Reformalternative I entnehmen. Abbildung 3: Entwicklung des Sozialversicherungssatzes

Bruttomonatseinkommen (in Euro) Arbeitnehmersatz - Status Quo Arbeitnehmersatz - RKI

Arbeitgebersatz - Status Quo Arbeitgebersatz - RKI

Quelle: Eigene Berechnungen Anmerkung: RK I = Reformkonzept I

Wir begründen den neuen Arbeitgebersatz mit zwei Zielen. Erstens soll eine Senkung dieser Pauschale es den Arbeitgebern weiterhin ermöglichen, in Stoßzeiten Kleinbeschäftigungsverhältnisse, d.h. Beschäftigungen bis zu 200, anzubieten. Zweitens darf die Pauschale den normalen Arbeitgeberbeitragssatz zu den Sozialversicherungen nicht unterschreiten, damit weiterhin Beschäftigungsverhältnisse mit geringen Bruttomonatseinkommen und somit in der Regel geringem Arbeitsvolumen unattraktiv bleiben. Beschäftigungsverhältnisse bis 200 sollen sich lediglich auf kurzfristige, saisonale und nicht täglich anliegende Tätigkeiten begrenzen.42 Durch die Schaffung der neuen

42

Ähnlich wird auch vom Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen wicklung (2006) argumentiert.

Ent-

310

Norbert Berthold und Mustafa Coban

Gleitzone wird eine Abgaben- und Geringfügigkeitsfalle vermieden, so dass mit steigendem Bruttomonatseinkommen auch immer ein steigendes Nettomonatseinkommen einhergeht. Eine Anhebung der Gleitzonengrenze auf 1000 wird durch die Abschaffung der aktuellen Beitragsfreiheit der Minijobs ermöglicht. Während derzeit den Sozialversicherungsträgern Einnahmen bei Beschäftigungsverhältnissen bis 400 entgehen, erfolgt in der Reformalternative I eine Entlastung für diese, womit eine Ausweitung der Gleitzonengrenze finanzierbar wird. Betrachtet man nun die Entwicklung des Arbeitnehmerbeitragssatzes in der Reformalternative I (siehe Abbildung 3), kann man erkennen, dass die Einkommen bis 450 (ab 450) stärker (schwächer) belastet werden als in der derzeitigen Ausgestaltung. Hiermit verfolgen wir das Ziel kleine Beschäftigungsverhältnisse, d.h. Beschäftigungsverhältnisse mit einer lediglich geringen Wochenstundenarbeitszeit, für die Arbeitnehmer unattraktiver und gleichzeitig Arbeitsplätze mit einem hohen Arbeitsvolumen attraktiver zu gestalten. Maßgebend für den anzusetzenden Beitragssatz des Arbeitnehmers in der Gleitzone ist stets das Einkommen aus allen Beschäftigungsverhältnissen während des laufenden Monats. Übersteigt das Einkommen aus mehreren Beschäftigungsverhältnissen die Gleitzonengrenze gilt für alle Beschäftigungsverhältnisse der normale Sozialversicherungsbeitragssatz. Die Reformaltemative I beinhaltet zudem die Abschaffung der Steuerfreiheit für alle Beschäftigungsverhältnisse. Die steuerlichen Belastungen der Erwerbseinkommen in der Gleitzone fallen jedoch gering aus, da Beschäftigungsverhältnisse bis 677 unterhalb des Grundfreibetrags 43 zur Lohnsteuer liegen und beispielsweise ein lediger Erwerbstätiger in der Steuerklasse I bei einem Bruttomonatseinkommen von 1000 gerade einmal 13 an Steuern abführen muss. Das letzte Paket (Paket 3) setzt an der Regelung des ALG Ii-Bezugs an. Der Sinn und Zweck einer Subventionierung geringer Bruttomonatseinkommen liegt darin, Beschäftigungsmöglichkeiten zu niedrigeren Löhnen auszuweiten und zeitgleich bestimmten Personengruppen einen Anreiz zu setzen, diese Tätigkeiten trotz geringerer Löhne aufzunehmen. Das Institut der deutschen Wirtschaft (2011, S. 13.) hält in seiner Studie fest, dass 46% der Beschäftigungsverhältnisse im Niedriglohnsektor keinen Abschluss und 47% eine Lehre bzw. etwas Äquivalentes erfordern. In Frage kommen demnach für solche Beschäftigungsverhältnisse fast ausschließlich geringqualifizierte Personen, welche bedingt durch die Globalisierung, den technischen Fortschritt und den strukturellen Wandel seit Beginn der 1990er Jahre immer stärker von Arbeitslosigkeit betroffen sind. Diese Tendenz spiegelt sich insbesondere in den Zahlen zum Personenkreis im SGB (Sozialgesetzbuch) II wider. Hier sammeln sich die ALG II- und Sozialgeld-Bezieher. Im Januar 2013 besaßen über die Hälfte der Arbeitslosen im SGB II keine abgeschlossene Berufsausbildung und knapp drei Viertel aller Personen in diesem Rechtskreis bezogen ALG II.44 Eine Subventionierung der geringeren Einkommenniveaus muss demnach elementar auf den Kreis der Geringqualifizierten und demnach auch auf den Kreis der ALG II-Bezieher fokussiert werden. Die derzeitige Ausgestaltung der Hinzuverdienstmöglichkeiten bei Bezug des ALG II und der Regelsätze schaffen jedoch

43 44

Seit dem 1. Januar 2013 beträgt der Grundfreibetrag 8130. Vgl. Deutscher Bundestag (2012a, S. 1). Vgl. Statistik der Bundesagentur für Arbeit (2013b, S. 3 und 40).

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte?

"311

keinen Anreiz zur Aufnahme einer Arbeitstätigkeit bzw. zur Ausweitung des individuellen Arbeitsvolumens. Dies kann man unter anderem daran festmachen, dass im April 2012 gerade einmal 30% der erwerbsfähigen Leistungsberechtigten 45 neben dem ALG Ii-Bezug erwerbstätig waren. Interessanterweise verdienten über die Hälfte der Erwerbstätigen ein Monatseinkommen von weniger als 400 und gerade einmal knapp 20% ein Einkommen zwischen 400 und 800. 46 Auch hier kann man wiederum anschaulich beobachten, wie sich die Steuer- und Abgabenfreiheit der Minijobs auf die Anreize zur Ausweitung des Arbeitsvolumens auswirken. Die Kombination einer hohen Transferentzugsrate für Hinzuverdienste im ALG II und die derzeitige Ausgestaltung der Minijobs setzt demnach Anreize zur freiwilligen Arbeitsangebotsreduktion frei. Unser Vorschlag zur Neuregelung der Hinzuverdienstbestimmungen für ALG II-Bezieher sieht - in Abhängigkeit des Bruttomonatseinkommens - demnach wie folgt aus: (1)

0€-200€:

100% Transferentzugsrate

(2)

200€ - 1000€:

50% Transferentzugsrate

(3a)

1000€ - 1200€ (kinderlos):

80% Transferentzugsrate

(3b)

1000€ - 1500€ (mit Kind):

80% Transferentzugsrate

Der Abbildung 4 können die Grenzbelastungen und effektiven Transferentzugsraten der derzeitigen Ausgestaltung des ALG II und unseres Reformvorschlags I entnommen werden. Die effektiven Transferentzugsraten der beiden Modelle sind aussagekräftiger, da sie den faktischen Transferentzug in Abhängigkeit des erworbenen Bruttomonatseinkommens angeben. Wie man unweigerlich der Abbildung entnehmen kann, kehrt unser Reformvorschlag die derzeitige Ausgestaltung um. Während die aktuelle Regelung für den Leistungsberechtigten Anreize schafft im Bereich der geringeren Einkommenslevel einer Erwerbstätigkeit nachzugehen, setzen wir in unserem Reformmodell I dem ALG II-Bezieher Anreize, sein Arbeitsvolumen und somit seinen Hinzuverdienst auszuweiten.

45

46

Im Folgenden werden die Begriffe erwerbsfähiger Leistungsberechtigter, ALG II-Bezieher und Leistungsberechtigter äquivalent verwendet. Vgl. Statistik der Bundesagentur für Arbeit (2012a).

312

Norbert Berthold und Mustafa Coban

Abbildung 4: Grenzbelastung des Hinzuverdiensts eines ALG („Aufstocker") und effektive Transferentzugsrate

=88 — ri

S

trt

1© 8

II-Beziehers

8

Bnittomonatseinkommen (in Euro)

Bruttomonatseinkommen (in Euro)

GB (kinderlos) - Status Quo

TER (kinderlos) - Status Quo

GB (mit Kind) - Status Quo

TER (mit Kind) - Status Quo

GB (kinderlos) - R K I

TER (kinderlos) - RK I

GB (mit Kind) - RK I

TER (mit Kind) - RK 1

Quelle: Eigene Berechnungen Anmerkung: GB = Grenzbelastung, TER = Transferentzugsrate, RKI= Reformkonzept I

Für Bruttomonatseinkommen bis einschließlich 200 wurde die Transferentzugsrate auf 100% gesetzt. Diese Beschäftigungsverhältnisse fuhren beim Leistungsberechtigten zu keinem faktischen Hinzuverdienst. Damit soll gewährleistet werden, dass ALG IiBezieher keinen Kleinstbeschäftigungen mehr nachgehen, die weder die Belastung des Steuersystems merklich reduzieren noch dem ALG II-Bezieher eine Chance zur langfristigen Integration in den Arbeitsmarkt bieten, da es sich hierbei meistens um kurzfristige, saisonale oder nicht-tägliche Tätigkeiten handelt. Ab der 200-Schwelle sinkt mit jedem dazuverdienten der prozentuale Anteil, den der ALG II-Bezieher von diesem an die Bundesagentur übergeben muss. Mit Ende der Gleitzone bei 1000 fängt die effektive Transferentzugsrate wieder an, sukzessive anzusteigen, da für Beschäftigungsverhältnisse oberhalb dieser Grenze bereits die normalen Arbeitnehmerbeitragssätze zur Sozialversicherung gelten und eine langfristige Integration in das Erwerbsleben wahrscheinlicher wird. An den Regelungen zum Ende des letzten Transferentzugsbereichs ändert sich zur heutigen Ausgestaltung durch die Reformalternative I nichts. Es gilt weiterhin die Grenze von 1200 für kinderlose erwerbstätige ALG II-Bezieher und die Grenze von 1500 für erwerbstätige ALG II-Bezieher mit mindestens einem Kind.

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 3 1 3

Tabelle 5:

Regelbedarfs-, Mehrbedarfsleistungen und Kosten der Unterkunft und Heizung Regelbedarf

Mehrbedarf

Kosten der Unterkunft und Heizung"

Gesamtbelastung

Single

382

0

289

671

Alleinerziehend (1 Kind, 6 Jahre)

637

138

395

1170

Paar ohne Kind (volljährige Partner)

690

0

365

1055

Paar mit 1 Kind (6 Jahre)

945

0

485

1430

Paar mit 2 Kindern (14 und 15 Jahre)

1268

0

559

1827

Bedarfsgemeinschaft

° Es handelt sich hierbei um die durchschnittlichen Wohnkosten im Juli 2012 nach Statistik der Bundesagentur för Arbeit (2012b, S. 55). Alle Werte stellen Euro-Beträge dar. Quelle: Bundesregierung (2012), eigene Darstellung.

Eine zweite unabdingbare Maßnahme ist die Senkung der Regelbedarfsleistungen um 20%. Hiermit sinkt zwar das soziale Existenzminimum der ALG II-Bezieher, jedoch kann in Kombination mit den verbesserten Hinzuverdienstregeln ein effektiverer Anreiz zur Arbeitsaufname bzw. Arbeitsausweitung erzielt werden. Da sich die Mehrbedarfsleistungen Alleinerziehender ALG II-Bezieher prozentual an den Regelbedarfsleistungen orientieren, kommt es somit auch bei diesen zu marginalen Senkungen. Der Tabelle 5 kann man die aktuellen Regelbedarfs- und Mehrbedarfsleistungen für ausgewählte Bedarfsgemeinschaften entnehmen. Außerdem findet man in der Spalte (4) die durchschnittlichen Kosten der Unterkunft und Heizung, welche von der Bundesagentur getragen werden. Spalte (5) gibt demnach die Gesamtbelastung der Arbeitsagentur durch die betrachtete Bedarfsgemeinschaft an. Da die Zusammensetzung einer Bedarfsgemeinschaft sehr unterschiedlich ausfallen kann, beschränken wir unsere weitere Analyse auf die Alleinerziehende-Bedarfsgemeinschaft mit einem Kind und auf die Single-Bedarfsgemeinschaft. Zusammen decken diese beiden Typen derzeit (Stand: Juli 2012) etwa 65% aller Bedarfsgemeinschaften ab und dienen somit als Approximation der gesamtwirtschaftlichen Beschäftigungseffekte unserer Reformalternativen. 47 Um ferner eine bessere Aussage über die Arbeitsangebotseffekte treffen zu können, unterstellen wir den beiden Bedarfsgemeinschaften jeweils einen Bruttostundenlohn von 10 bei Aufnahme einer Beschäftigung. Hierbei orientieren wir uns an der Niedriglohnschwelle für 2010 in Höhe von 9,15. 48

47 48

Vgl. Statistik der Bundesagentur für Arbeit (2012b, S. 55). Die Niedriglohnschwelle ist der Studie von Kalina/Weinkopf (2012, S. 1) entnommen.

314

Norbert Berthold und Mustafa Coban

Für beide Bedarfsgemeinschaften kann man der Abbildung 549 entnehmen, dass unser Reformvorschlag zu einem signifikanten Einbruch der Haushaltseinkommen im Bereich der geringen Wochenarbeitsstunden fuhrt. Abbildung 5: Budgetrestriktion eines AlleinerziehendenHaushalts bei einem Stundenlohn von 10€

—1 1 1 1 r 50

45

40

35

30

25

20

15

10

5

0

Wochenarbeitsstunden

•—

und

45 40

35

30

25

20

15

10

5

0

Wochenarbeitsstunden

AEK (Alleinerziehend) - Status Quo

AEK (Single) - Status Quo

AEK (Alleinerziehend) - R K 1

AEK (Single) - RK 1

NEK - Status Quo

NEK - Status Quo

NEK-RK1

Single-

1-

T 50

eines

NEK - RK I

Quelle: Eigene Berechnungen Anmerkung: AEK = Arbeitseinkommen, NEK = Nettoeinkommen, RK I = Reformkonzept I

Trotzdem erzielt unser Reformkonzept einen steileren Anstieg der Hinzuverdienste ab der 200-Schwelle im Vergleich zur aktuellen Ausgestaltung. Dennoch bleibt eine Alleinerziehende-Bedarfsgemeinschaft auch bei einer Vollzeitbeschäftigung (40 Stunden) bedürftig, während die Single-Bedarfsgemeinschaft bereits ab einer Wochenarbeitszeit von 32,5 Stunden die Grundsicherung verlässt. Beide Teilabbildungen haben jedoch eine markante Eigenschaft gemeinsam. In der aktuellen Ausgestaltung ist es sehr wahrscheinlich, dass sich die beiden Haushaltstypen für eine Randlösung entscheiden. Diese wird durch einen Knick der durchgezogenen Budgetgeraden bei minimaler Wochenarbeitsstundenzahl dargestellt. In diesem Fall würde sich unter der Annahme eines normalen Arbeitsangebots und einer konkaven, streng monotonen Nutzenfunktion die konvexe Indifferenzkurve50 des betrachteten Haushalts soweit nach recht außen verschieben bis sie schließlich die Randlösung tangiert.

49

50

Für die Abbildungen 5 und 7 wurden bei der Ermittlung der Nettoeinkommen die eventuell anfallenden Steuerabgaben nicht berücksichtigt, da es sich hierbei im niedrigen Einkommensbereich um sehr kleine Beträge handelt. In hiesigem Kontext verstehen wir unter einer Indifferenzkurve alle WochenarbeitsstundenEinkommenskombinationen des Haushalts, die zu einem identischen Nutzenniveau führen.

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte?

• 315

Mit Einführung der Reformalternative I gehen nun zwei Veränderungen einher. Die Senkung des Regelbedarfs im ALG II wirkt sich wie eine Einkommenssenkung unter gleichbleibendem Lohnsatz aus. Demnach beläuft sich der Substitutionseffekt auf Null und der negative Einkommenseffekt veranlasst eine Arbeitsangebotsausweitung. Durch die Schaffung anreizkompatibler Hinzuverdienstmöglichkeiten erhalten wir nun eine steilere Budgetgerade als im Status Quo. Effektiv handelt es sich für die erwerbstätigen ALG II-Bezieher um eine Lohnsatzsteigerung, mit welcher wiederum bei einem normalen Arbeitsangebot eine Arbeitszeiterhöhung einhergeht. Insgesamt kann man feststellen, dass unser Reformkonzept I leistungsfördernd im Sinne einer Arbeitsangebotsausweitung des ALG II-Beziehers ist.

2. Reformalternative II: Einkommenssubvention Auch die Reformalternative II besteht aus drei Paketen, welche sich gegenseitig ergänzen und lediglich in gemeinsamer und gleichzeitiger Ausführung die Zielvorgaben erreichen können: • • •

Paket 1: Individuelles Arbeitsvolumen stärken Paket 2: Effektive Einkommenssubventionen Paket 3: ALG II-Falle überwinden

Die beiden Reformalternativen I und II stimmen im Wesentlichen miteinander überein. Das Paket I ist bei beiden Reformvarianten identisch, d.h. beide Male wird für eine Abschaffung der geringfügigen Beschäftigung im Nebenerwerb plädiert. Einen ersten Unterschied gibt es jedoch im zweiten Paket. Statt einer Ausweitung der Gleitzone, stimmen wir in diesem Vorschlag für eine restlose Abschaffung der Mini- und Midijobs in ihrer aktuellen Form. Die Subventionierung von Sozialversicherungsbeiträgen löst nämlich zwei unerwünschte Effekte aus. Zum einen kommt es auf der Einnahmenseite bestimmter Sozialversicherungen zu Verzerrungen, wenn Midijobber bereits zu einem Eingangsbeitragssatz von 4,5% zur gesetzlichen Krankenversicherung den vollen Umfang an medizinischen Leistungen erhalten. Minijobber tätigen sogar überhaupt keinen Beitrag und wären trotz allem voll krankenversichert.51 Zum anderen kann es zu zukünftigen Belastungen des Steuersystems kommen, wenn Arbeitnehmer lange Zeit in Mini- und Midijobs verharren und somit nur relativ geringe Rentenansprüche geltend machen. Diese Personen werden demnach mit hoher Wahrscheinlichkeit bei Renteneintritt auf die Grundsicherung im Alter und bei Erwerbsminderung angewiesen sein, wodurch letztlich der zukünftige Steuerzahler stärker belastet wird. Dass die derzeitige Abgabenfreiheit der geringfügigen Beschäftigung diese Tatsache fördert, erkennt man daran, dass gerade einmal 5% der Minijobber (in 2012) im gewerblichen Bereich freiwillig eine Aufstockung ihrer Rentenversicherungsbeiträge bean-

51

Das würde jedoch bedeuten, dass der Erwerbstätige über das ganze Jahr hinweg einen einzigen Minijob ausübt. In diesem Fall wäre er in der Regel ALG II berechtigt, womit die Krankenversicherungsbeiträge wiederum von der Arbeitsagentur getragen werden.

316

Norbert Berthold und Mustafa Coban

tragen.52 Die Abschaffung der vollständigen bzw. anteiligen Subventionierung von Sozialversicherungsbeiträgen im unteren Einkommensbereich schafft somit eine echte Teilhabeäquivalenz in der Rentenversicherung, entlastet die gesetzliche Krankenversicherung und verhindert die Umwälzung der Lasten auf zukünftige Steuerzahler. Für alle Einkommensniveaus gilt somit der volle Arbeitnehmerbeitragssatz zur Sozialversicherung. Der Abgabensatz der Arbeitgeber orientiert sich wiederum an der Reformalternative I. Die Belastung der geringen Einkommen mit dem vollen Sozialversicherungssatz verteuert jedoch den Produktionsfaktor Arbeit in diesem Segment immens und trifft insbesondere die Geringqualifizierten. Um für diese Personengruppe weiterhin Arbeitsmöglichkeiten zu eröffnen, benötigt es weiterhin einer Förderung. Diese erfolgt in der Reformvariante II über eine negative Einkommenssteuer (Einkommenssubvention), welche aus dem Steuersystem finanziert wird. Sie wirkt in die gleiche Richtung wie eine Subventionierung der Sozialversicherungsbeiträge, jedoch ohne die sozialen Sicherungssysteme im Hinblick auf Umverteilungen und Einnahmen zu verzerren. Folgende Grenzsubventionssätze sieht unsere zweite Reformvariante - in Abhängigkeit des Bruttomonatseinkommens - vor: (1)

0€ - 200€:

20% Grenzsubventionsrate

(2a) 200€ - 750€ (kinderlos):

30% Grenzsubventionsrate

(2b) 200€ - 900€ (mit Kind):

30% Grenzsubventionsrate

(3a) 750€ - 1200€ (kinderlos): Proportionaler Abbau von 30% auf 0%

der

Grenzsubventionsrate

(3b) 900€ - 1500€ (mit Kind): Proportionaler Abbau von 30% auf 0%

der

Grenzsubventionsrate

Bei der Ausgestaltung verfolgen wir wiederum den Ansatz, höhere Einkommensniveaus stärker zu subventionieren, um Anreize für eine Ausweitung des Arbeitsvolumens zu gewährleisten. So steigt die Grenzsubvention nach Überschreiten der 200Grenze von 20% auf 30% an, d.h. für jeden , der nach einem Bruttomonatseinkommen von 200 verdient wird, erhält der Arbeitnehmer 30 Cent aus der Steuerkasse. Der Abbildung 6 können die Grenzsubventionssätze und die effektiven Subventionssätze in Abhängigkeit des Gesamteinkommens pro Monat entnommen werden.

52

Vgl. Deutscher Bundestag (2012b, S. 9).

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte?

317

Abbildung 6: Grenzsubventionssätze und effektive Subventionssätze

Bnittomonatseinkommen (in Euro)

Bnjttomonatseinkommen (in Euro)

Grcnzsubventionssatz (mit Kind)

Effektiver Subventionssatz (mit Kind)

Grcnzsubventionssatz (kinderlos)

Effektiver Subventionssatz (kinderlos)

Quelle: Eigene Berechnungen

Die effektiven Subventionssätze sind hier aussagekräftiger als die Grenzsubventionssätze, da sie die faktische Subvention in Abhängigkeit des erworbenen Bruttomonatseinkommens angeben. Die praktische Umsetzung der Einkommensubvention könnte über eine Steuergutschrift, die am Ende des Jahres mit der zu entrichtenden Einkommenssteuer verrechnet wird, erfolgen. Bei Einkommenssteuerfreiheit wird sie letztlich direkt an den Arbeitnehmer ausgezahlt. Auch die Reformalternative II beinhaltet zudem die Abschaffung der Steuerfreiheit für geringfügige Beschäftigungsverhältnisse. Es gelten hier die gleichen Ausführungen wie zur Reformaltemative I. Das letzte Paket (Paket 3) ist mit dem Paket 3 aus der Reformalternative I identisch, bis auf die Tatsache, dass sich die ausschlaggebenden Einkommensniveaus bei der Reformalternative II an den Bruttomonatseinkommen inklusive der Subventionen orientieren. An der grundlegenden Intension des Pakets verändert sich hierdurch nichts. Es kommt lediglich zu einer geringfügigen Linksverschiebung der effektiven Transferentzugskurven. Die Einberechnung der Einkommenssubventionen dient lediglich dazu, dem Effekt der geringeren Entzugsraten nicht entgegen zu wirken und somit den ALG II-Beziehern keinen Anreiz zu setzen, ihr Arbeitsangebot im Vergleich zur Reformalternative I zurückzufahren. Auch bei der Reformalternative II gilt wiederum die Senkung der Regelbedarfsleistung um 20%. In der Abbildung 7 werden die beiden Reformalternativen I und II anhand eines Bruttostundenlohns von 10 jeweils für Single- und Alleinerziehende-Bedarfsgemeinschaften miteinander verglichen. Wie die Reformalternative I gewährleistet auch die Reformvariante II, dass ein Single-Haushalt bei einem Bruttostundenlohn in Höhe der Niedriglohnschwelle (etwa 10) die Grundsicherung durch Aufnahme einer Vollzeitstelle verlässt.

318

Norbert Berthold und Mustafa Coban

Vergleicht man nun die beiden Alternativen für beide Haushaltstypen miteinander, kann man erkennen, dass bei niedrigen Haushaltseinkommen die ALG II-Bezieher durch die Reformalternative II einen stärkeren Anreiz haben ihr Arbeitsangebot auszuweiten. Da für die ersten 200 eine Tranferentzugsrate von 100% angesetzt wurde, fehlt jeglicher Anreiz zur Aufnahme einer Beschäftigung von weniger als 5 Wochenarbeitsstunden. Ab dieser Marke weist jedoch die Alternative II eine größere Steigung der Budgetgeraden auf als die Alternative I. Dies wirkt im mikroökonomischen Sinne wie eine Lohnsteigerung und ausgehend von einem normalen Arbeitsangebot, kommt es hierdurch zu einer Arbeitszeitausweitung der betrachteten Person. Abbildung 7: Vergleich zwischen den beiden Reformkonzepten für Single- und Alleinerziehenden-Haushalte bei einem Stundenlohn von 10€

50

45

40

35

30

25

20

15

10

-1

r

5

0

Wochenarbeitsstunden

T 1 r50 45

40

35

30

25

20

15

10

5

0

Wochenarbeitsstunden

AEK (Alleinerziehend) - R K I

AEK (Single) - RK I

AEK (Alleinerziehend) - RK II

AEK ( S i n g l e ) - R K II

NEK-RKI

NEK-RKI

NEK - RK II (mit Kind)

NEK - RK II (kinderlos)

Quelle: Eigene Berechnungen Anmerkung: AEK = Arbeitseinkommen, NEK = Nettoeinkommen, RK I = Reformkonzept I, RK II = Reformkonzept II

VI. Schlussbemerkungen Unsere beiden Reformvarianten gleichen sich in ihrer Grundstruktur und unterscheiden sich lediglich in der Finanzierungsform der Subvention geringer Einkommensbezieher. Beide plädieren für eine Abschaffung der Subventionierung geringfügiger Beschäftigung im Nebenerwerb und stellen ein stärker anreizkompatibles Kombilohnmodell für ALG II-Bezieher auf. Die Reformalternative I finanziert die Subventionierung über Mindereinnahmen der Sozialversicherungen und fuhrt in unserem Vorschlag zu geringeren fiskalischen Kosten für den Staat als die Reformalternative II. Mit ihr (Reformalternative I) gehen jedoch zugleich Verzerrungen auf der Beitragsseite einzelner Sozialversicherungen einher. Der Weg über eine Einkommenssubvention hingegen gewährleistet, dass es auf der Beitragsseite der Sozialversicherungen zu

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 3 1 9

keinen Verzerrungen mehr kommt und dass die gesetzliche Kranken- und Rentenversicherung entlastet werden. Aufgrund ihrer Ausgestaltung führt sie jedoch zu höheren fiskalischen Kosten und belastet, da sie über Steuermittel finanziert wird, die Steuerzahler von heute umso stärker. Um eine gesicherte Aussage über die Beschäftigungseffekte und die fiskalischen Kosten treffen zu können, müssten die beiden Reformalternativen mittels eines Mikrosimulationsmodells des deutschen Steuer- und Transfersystems geschätzt werden. Für unterschiedliche Kombilohnvarianten wurden derartige Simulationsberechnungen bereits in Dietz et al. (2011) vorgenommen. In dieser Studie gleicht insbesondere die Variante 553 unserem Reformvorschlag am ehesten. Die Autoren schätzen, dass mit dieser Alternative positive Partizipations-54 sowie Arbeitsangebotseffekte55 einhergehen. Die Teilnahme aus der Arbeitslosigkeit bzw. Erwerbslosigkeit steigt ihren Berechnungen nach um 34,2 Tsd. Personen und das Arbeitsvolumen nimmt um 84 Tsd. Vollzeitäquivalente zu. Zudem kommt es zu einer Gesamtentlastung des Staates in Höhe von 14 Mio. Zu einem ähnlichen Ergebnis kommt auch die Studie von Peichl/ Schneider/Siegloch (2010), die insgesamt drei Varianten analysiert, wobei unser Vorschlag hier am ehesten dem Modell IW56 entspricht. Die Autoren schätzen für diese Variante einen Partizipationseffekt von 12 Tsd. Personen und einen Arbeitsangebotseffekt von 22 Tsd. Vollzeitäquivalenten. Ausgehend von den Ergebnissen der beiden Studien ist demnach bereits unser Paket 3 der beiden Reformalternativen mit positiven Beschäftigungseffekten verbunden. Verstärkt wird dieser Effekt durch die gezielte Abstimmung der arbeitnehmerseitigen Lohnsubventionen auf die neuen Hinzuverdienstregeln im ALG II. Insgesamt geht folglich mit beiden Reformvarianten eine Arbeitsangebotsausweitung einher. Abgesehen von der aktuell fehlgeleiteten Ausgestaltung der Mini- und Midijobs in Verbindung mit dem ALG II, darf nicht außer Acht gelassen werden, dass unsere Reformalternativen und ihre Wirkungsentfaltungen unmittelbar mit der Kompetitivität des Arbeitsmarktes verknüpft sind. So würde die Einfuhrung eines allgemeingültigen gesetzlichen Mindestlohns jegliches Kombilohnmodell ad absurdum fuhren und in 53

54

55

56

In der Variante 5 werden die Hinzuverdienste der ALG II-Bezieher wie folgt ausgestaltet: Für die ersten 200 gilt eine Transferentzugsrate von 100%. Hiernach wird die Grenzbelastung auf 60% für Einkommen oberhalb der 200-Grenze gesetzt. Dieser Prozentsatz gilt für kinderlose Leistungsberechtigte bis zu einer Ginkommensgrenze von 1200 und für ALG II-Bezieher mit mindestens einem Kind bis zu einem Einkommen von 1500. Einkommen oberhalb der letzten Grenze werden letztlich wieder mit 100% belastet. Vgl. Dietz et al. (2011, S. 9). Der Partizipationseffekt misst die Abnahme in der Null-Stunden-Erwerbskategorie im Vergleich zum Status Quo. Ein positiver Partizipationseffekt bedeutet somit, dass die Zahl der Personen, die eine positive Stundenanzahl anbieten möchten, durch die Politikmaßnahme gestiegen ist. Der Arbeitsangebotseffekt weist hingegen die Änderung des angebotenen Stundenvolumens in Vollzeitäquivalenten (Personen mit einer Wochenarbeitszeit von 40 Stunden) aus. In der Variante IW werden die Hinzuverdienstmöglichkeiten der ALG II-Bezieher wie folgt ausgestaltet: Für die ersten 200 (abgesehen von einem geringfügigen Freibetrag in Höhe von 20) gilt eine Transferentzugsrate von 100%. Hiemach wird die Grenzbelastung auf 60% für Einkommen oberhalb der 200-Grenze gesetzt. Dieser Prozentsatz gilt bis zu einem Einkommen von 1000. Ab dieser Grenze erhöht sich die Transferentzugsrate auf 90% und gilt für kinderlose Leistungsempfänger bis zu einer Einkommengrenze von 1200 und für ALG II-Bezieher mit mindestens einem Kind bis zu einem Einkommen von 1500. Einkommen oberhalb der letzten Grenze werden letztlich wieder mit 100% belastet. Vgl. Peichl/Schneider/Siegloch (2010, S. 4).

320

Norbert Berthold und Mustafa Coban

Verbindung mit der aktuellen Ausgestaltung der Grundsicherung jedwede Arbeitsplatzbemühungen der ALG II-Bezieher im Keim ersticken. Auch eine restriktivere Tariflohnpolitik für Geringqualifzierte würde schließlich die qualifikatorische Lohnspreizung auf dem deutschen Arbeitsmarkt künstlich verkleinern und die Schaffung neuer Vollzeitstellen für einfache Tätigkeiten drastisch hemmen. Auch darf der Blick auf die individuellen Arbeitsmarkthemmnisse der ALG IIBezieher nicht vernachlässigt werden. So weisen Achatz/Trappmann

(2011) in ihrer

Studie darauf hin, dass Bildung, Gesundheit, Alter und Deutschkenntisse der ALG IIBezieher mitunter wichtige Determinanten für ihre Beschäftigungschancen sind. Sie schätzen, dass sich mit jedem zusätzlichen beschäfitigungshemmenden Merkmal die Wahrscheinlichkeit einer Arbeitsmarktintegration des Leistungsberechtigten halbiert. 57

Literatur Achatz, J. / Trappmann, M. (2011): Arbeitsmarktvermittelte Abgänge aus der Grundsicherung. Der Einfluss von personen- und haushaltsgebundenen Arbeitsmarktbarrieren, IABDiscussion Paper, Nr. 2. Akerlof, G.A. (1978): The Economics of Tagging as Applied to the Optimal Income Tax, Weifare Programs and Manpower Planning, American Economic Review, Vol. 68(1), S. 8-19. Amtz, M. / Feil, M. / Spermann, A. (2003): Die Arbeitsangebotseffekte der neuen Mini- und Midijobs - eine ex-ante Evaluation, Mitteilungen zur Arbeitsmarkt- und Berufsforschung, Vol. 36(3), S. 271-290. Bohlen, C. (1993): Zur Theorie und Empirie von Lohnsubventionen, Berlin. Bundesregierung (2012): Grundsicherung. Mehr Geld für Arbeitssuchende und Sozialhilfeempfänger. Stand: 12. Oktober 2012, http://www.bundesregierung.de/Content/ DE/Artikel/2012/09/2012-09-19-regelbedarf-erhoeht-mehr-geld-fuer-arbeitsuchende.html (abgerufen am 16. Dezember 2012). Buslei, H. / Steiner, V. (1999): Beschäftigungseffekte von Lohnsubventionen im Niedriglohnbereich, ZEW Wirtschaftsanalysen, Band 42. Buslei, H. / Steiner, V. (2003): Anreizwirkungen von Lohnsubventionen - Welche Bedeutung haben sie für die aktuelle Reformdiskussion? Vierteljahreshefte zur Wirtschaftsforschung, Vol. 72(1), S. 94-108. Caliendo, M. / Wrohlich, K. (2006): Evaluating the German Mini-Job Reform Using a True Natural Experiment, IZA Discussion Paper Series, Nr. 2041. Caliendo, M. / Künn, S. / Uhlendorff, A. (2009): Marginal Employment, Unemployment Duration and Employment Stability. Evidence from a Multivariate Duration Model, Working Paper, Bonn. Deutscher Bundestag (2012a): Gesetzentwurf der Bundesregierung. Entwurf eines Gesetzes zum Abbau der kalten Progression, Drucksache 17/8683, Berlin. Deutscher Bundestag (2012b): Gesetzentwurf der Fraktionen der CDU/CSU und FDP. Entwurf eines Gesetzes zu Änderungen im Bereich der geringfügigen Beschäftigung, Drucksache 17/10773, Berlin. Dietz, M. / Koch, S. / Rudolph, H. / Walwei, U. / Wiemers, J. (2011): Reform der Hinzuverdienstregeln im SGB II. Fiskalische Effekte und Arbeitsmarktwirkungen, Sozialer Fortschritt, Vol. 60(1), S. 4-15. Eichhorst, W. / Hinz, T. / Marx, P. / Peichl, A. / Pestel, N. / Siegloch, S. / Thode, E. / Tobsch, V. (2012): Geringfügige Beschäftigung. Situation und Gestaltungsoptionen, IZA Research Report Series, Nr. 47.

5

' Vgl. Achatz/Trappmann (2011, S. 28-30).

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte? • 321 Fertig, M. / Kluve, J. (2006): Alternative Beschäftigungsformen in Deutschland. Effekte der Neuregelung von Zeitarbeit, Minijobs und Midijobs, Vierteljahreshefte zur Wirtschaftsforschung, Vol. 75(3), S. 97-117. Fertig, M. / Kluve, J. / Schmidt, C.M. (2005): Der erweiterte Minijob für Arbeitslose. Ein Reformvorschlag, RWI-Materialien, Nr. 17. Franz, W. (1996): Theoretische Ansätze zur Erklärung der Arbeitslosigkeit: Wo stehen wir 1995? Gahlen, B. / Hesse, H. / Ramser, H J . (Eds.): Arbeitslosigkeit und Möglichkeiten ihrer Überwindung, Tübingen, S. 3-45. Freier, R. / Steiner, V. (2008): 'Marginal Employment'. Stepping Stone or Dead End? Evaluating the German Experience, Journal for Labour Market Research, Vol. 41(2-3), S. 223-243. Fuest, C. / Huber, B. (1998): Eine beschäftigungsfreundliche Reform der 620-DMArbeitsverhältnisse, Wirtschaftsdienst, Vol. 78(11), S. 645-651. Hohendanner, C. / Stegmaier, J. (2012): Geringfügige Beschäftigung in deutschen Betrieben. Umstrittene Minijobs, IAB-Kurzbericht, Nr. 24. Hujer, R. / Caliendo, M. (2003): Lohnsubventionen in Deutschland: Wie sieht eine optimale Evaluierungsstrategie aus? Vierteljahreshefte zur Wirtschaftsforschung, Vol. 72(1), S. 109-123. Institut der deutschen Wirtschaft (2011): Der Niedriglohnsektor in Deutschland. Entwicklung, Struktur und individuelle Erwerbsverläufe, Berlin. Jacobi, L. / Schaffner, S. (2008): Does Marginal Employment Substitute Regular Employment. A Heterogeneous Dynamic Labor Demand Approach for Germany, Ruhr Economic Papers, Nr. 56. Kaldor, N. (1936): Wage Subsidies as a Remedy for Unemployment, Journal of Political Economy, Vol. 44(6), S. 721-742. Kalina, T. / Weinkopf, C. (2012): Niedriglohnbeschäftigung 2010. Fast jede/r Vierte arbeitet für Niedriglohn, IAQ-Report, Nr. 1. Katz, L.F. (1996): Wage Subsidies For The Disadvantaged, NBER Working Paper Series, Nr. 5679. Layard, R. / Nickell, S. / Jackman, R. (1991): Unemployment. Macroeconomic Performance and the Labour Market, New York et al. Lindbeck, A. (1994): Unemployment and Macroeconomics, 2.Auflage, Cambridge (MA) Minford, P. (1997): Discussion of Layard, R.: Preventing long-term unemployment: an economic analysis, Snower, D.J. / de la Dehesa, G. (Eds.): Unemployment Policy. Government Options for the Labour Market, Cambridge, S. 351 -356. Minijob-Zentrale (2012a): Aktuelle Entwicklungen im Bereich der geringßgigen Beschäftigung. III. Quartal 2012, Essen. Minijob-Zentrale (2012b): 4. Trendreport. Heimliche Helfer. Schwarzarbeit in Haus und Garten, Essen. Moffitt, R. (1985): A Problem with the Negative Income Tax, Economics Letters, Vol. 17(3), S. 261-265. Peichl, A. / Schneider, H. / Siegloch, S. (2010): Reform der Hinzuverdienstregeln in der Grundsicherung. Kein Entkommen aus der Transferfalle, IZA Standpunkte, Nr. 26. Petzina, D. (1967): Hauptprobleme der deutschen Wirtschaftspolitik 1932-1933, Vierteljahreshefte für Zeitgeschichte, Vol. 15(1), S. 18-55. Phelps, E.S. (1968): Money-Wage Dynamics and Labor-Market Equilibrium, Journal of Political Economy, Vol. 76(2), S. 678-711. Phelps, E.S. (1994): Low-Wage Employment Subsidies versus the Welfare State, American Economic Review, Vol. 84(2), S. 54-58. Phelps, E.S. (2003): Designing Inclusion. Tools to Raise Low-end Pay and Employment in Private Enterprise, 1. Aufl., Cambridge et al. Pies, I. / Leschke, M. (2012): Edmund Phelps' strukturalistische Ökonomik, Tübingen. Pigou, A.C. (1927): Wage Policy and Unemployment, The Economic Journal, Vol. 37(147), S. 355-368. Rüstow, A. (1963): Rede und Antwort, Ludwigsburg. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2006): Arbeitslosengeld II reformieren: Ein zielgerichtetes Kombilohnmodell.

322

Norbert Berthold und Mustafa Coban

Schneider, F. (2008): The Shadow Economy in Germany. A Blessing or a Curse for the Official Economy, Economic Analysis andPolicy, Vol. 38(1), S. 89-111. Schneider, H. / Zimmermann, K.F. / Bonin, H. / Brenke, K. / Haisken-DeNew, J. / Kempe, W. (2002): Beschäftigungspotenziale einer dualen Förderstrategie im Niedriglohnbereich, IZA Research Report Series, Nr. 5. Siebert, H. / Stähler, F. (1994): Sozialtransfer und Arbeitsangebot, Kiel Working Papers, Nr. 648. Statistik der Bundesagentur für Arbeit (2007): Arbeitsmarkt in Zahlen, Beschäftigte Ende Dezember 2007 in Deutschland. Statistik der Bundesagentur für Arbeit (2009): Beschäftigungsstatistik, Beschäftigung Ende Dezember 2009 in Deutschland. Statistik der Bundesagentur für Arbeit (2011): Beschäftigungsstatistik. Länderreport Deutschland, Dezember 2011. Statistik der Bundesagentur für Arbeit (2012a): Aktuelle Daten aus der Grundsicherung. Erwerbstätigkeit von erwerbsfähigen Leistungsbeziehern, September 2012. Statistik der Bundesagentur für Arbeit (2012b): Analyse der Grundsicherung für Arbeitssuchende, November 2012. Statistik der Bundesagentur für Arbeit (2012c): Beschäftigungsstatistik. Geringfügig entlohnte Beschäftigung nach ausgewählten Merkmalen, Juni 2012. Statistik der Bundesagentur für Arbeit (2012d): Beschäftigungsstatistik. Sozialversicherungspflichtige Beschäftigung nach ausgewählten Merkmalen, Juni 2012. Statistik der Bundesagentur für Arbeit (2013a): Beschäftigungsstatistik. LänderreportDeutschland, Januar 2013. Statistik der Bundesagentur für Arbeit (2013b): Grundsicherung für Arbeitssuchende in Zahlen, Januar 2013. Statistisches Bundesamt (2012): Statistisches Jahrbuch 2012. Voss, D. / Weinkopf, C. (2012): Niedriglohnfalle Minijob, WSI-Mitteilungen, Vol. 65(1), S. 5-12.

Zusammenfassung Mit der Einfuhrung von Mini- und Midijobs kam es 2003 zur abschließenden Implementierung eines subventionierten Niedriglohnsektors in Deutschland. Z u m 1. Januar 2013 wurden nun nach knapp 10 Jahren die Grenzregelungen dieser Beschäftigungsformen angepasst, um der zwischenzeitlichen Lohnentwicklung gerecht zu werden. In unserem Beitrag erläutern wir zunächst die theoretischen Wirkungskanäle von Lohnsubventionen und untersuchen hiernach mittels einer Metaanalyse der bisherigen Forschungsergebnisse die Effekte der Mini- und Midijobs auf die Beschäftigung. Für die beiden Beschäftigungstypen lassen sich jedoch nur bedingt positive Ergebnisse konstatieren. Sie bilden weder eine Brücke aus der Arbeitslosigkeit in den Arbeitsmarkt noch dienen sie als Sprungbrett in ein normales Beschäftigungsverhältnis. Aufbauend auf den arbeitsmarktpolitischen Schwächen der Mini- und Midijobs schlagen wir zwei Reformvarianten vor, welche diese Zielsetzungen im Bereich der niedrigen Einkommensniveaus erzielen können.

Mini- und Midijobs in Deutschland: Lohnsubventionierung ohne Beschäftigungseffekte?

• 323

Summary: Mini- and Midi-Jobs in Germany: Do Wage Subsidies have an Effect on Employment? Due to the introduction of mini- and midi-jobs in 2003, the final implementation of a subsidized low-wage sector in Germany was completed. After ten years, in 2013, the boundary arrangements of these types of employment were adjusted in order to compensate the interim development of wages. Our paper starts with an explanation on the theoretical effects of wage subsidies. Hereafter we evaluate the effects of mini- and midi-jobs on employment by using a meta-analysis of previous research results. For the two types of employment, however, we can't find uniquely positive results. They don't create a bridge between unemployment and employment nor do they serve as a stepping stone to a regular job. Based on the weaknesses of the mini- and midi-jobs, we propose two approaches to reform the low-wage sector in achieving positive effects on employment.

Ordnung der Märkte

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Matthias Lehmann

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem Inhalt I. Grundlagen 1. Das Problem 2. Einordnung II. Nur materiell-rechtliche oder auch institutionelle Vereinheitlichung III. 1. 2. IV. 1. 2. 3. V.

Optimale Ebene der Aufsicht Prinzipien Gestaltungsmöglichkeiten in einem Mehrebenensystem Anwendungsbereich der Aufsicht Räumlicher Anwendungsbereich Sachlicher Anwendungsbereich Würdigung des Standes der EU-Pläne Sektorale Aufsicht oder Allfinanzaufsicht

1. Die verschiedenen Aufsichtsmodelle 2. Das Projekt der Bankenunion VI. 1. 2. VII. VIII.

Institutionelle Organisation Kooperationsmechanismus vs. eigenständige Institution Zentralbank vs. besondere Aufsichtsbehörde Beziehungen zu Drittstaaten Schlussfolgerung

327 327 329 330 332 332 334 336 336 336 337 338 338 339 340 340 341 344 345

Literatur

346

Zusammenfassung

348

Summary: The Optimal Design of Cross-Border Banking Supervision As a Policy Problem

348

I. Grundlagen 1. Das Problem Bankenaufsicht soll dazu dienen, die Einhaltung regulatorischer Vorgaben durch Banken zu überwachen. Ihre Ausgestaltung ist insbesondere gegenüber transnational tätigen Instituten schwierig. Die Tätigkeit von Banken macht nicht länger an nationalen

328

Matthias Lehmann

Grenzen halt, sondern ist länderübergreifend. Die Befugnisse der Behörden, welche die Banken überwachen, sind jedoch auf das Territorium des jeweiligen Staates beschränkt, dem die Behörde angehört. Die Realität der Finanzmärkte, welche längst grenzüberschreitend ist, und die Ausgestaltung der Aufsicht, die nach wie vor national organisiert ist, klaffen auseinander. In diesem Auseinanderklaffen von Realität und Recht liegt die Krux der Komplexität der Aufgabe, Banken weltweit effizient zu beaufsichtigen und zu regulieren (Sheng 2001, S. 36; Follak 2010, S. 280). Der einfachste Weg zur Änderung dieses Zustands - wenn man nicht in eine Renationalisierung der Märkte zurückfallen will - ist die Einfuhrung einer supranationalen oder internationalen Aufsicht. Diese ist mehr als eine Frage des Geschmacks. Sie ist zwingend notwendig. Das lässt sich am einfachsten anhand eines Bilds verstehen. Stellen wir uns Eltern vor, die ihre Sprösslinge abwechselnd in die Obhut verschiedener, sehr zuverlässiger Freunde und Verwandter geben. Bei jedem von ihnen wird den Kindern erlaubt, eine geringe Menge Schokolade zu essen und etwas fernzusehen, was für sich genommen jeweils völlig unbedenklich ist. In der Summe jedoch besteht die Gefahr, dass diese Kinder mehr Süßigkeiten und Filme konsumieren, als für sie gut ist. Was fehlt, ist eine einheitliche Aufsicht, die den Überblick über die verschiedenen Aktivitäten der Kinder hat. Wohlgemerkt geht es dabei nicht darum, dass die Freunde oder Verwandten ihre Aufgabe nicht gut erfüllen würden - jeder für sich genommen ist vielmehr exzellent. Sie sind jedenfalls nicht schlechter als eine zentrale Aufsicht, die ebenfalls Fehler machen kann. Es geht mit anderen Worten nicht um die Effizienz der jeweiligen Aufseher. Das Problem ist vielmehr struktureller Natur: Es handelt sich um ein Informations- und Koordinationsdefizit zwischen unterschiedlichen Personen. Seine Ursache liegt in der Zersplitterung der Aufsicht auf verschiedene Instanzen. Übertragen auf grenzüberschreitend tätige Banken besteht das Problem darin, dass diese innerhalb der Zuständigkeitsbereiche unterschiedlicher Behörden Transaktionen eingehen und andere Aktivitäten entfalten. Diese können für sich genommen völlig unverdächtig sein und die Vorgaben der jeweiligen Regulierung erfüllen. In ihrer Summe können sie jedoch zu einer solchen Anhäufung von Risiken führen, dass das Institut völlig instabil ist. Es scheint nicht übertrieben anzunehmen, dass dieses Aufsichtsdefizit eine entscheidende Rolle bei der im Jahre 2007 ausgebrochenen globalen Finanzkrise gespielt hat. Dieses Informations- und Koordinationsdefizit wird durch ein weiteres Problem verschärft. Nationale Aufseher haben oft die Neigung, bei ihren Aufsichtsentscheidungen die ökonomischen Auswirkungen auf ihren eigenen Staat in den Vordergrund zu stellen, z.B. den Verlust von Arbeitsplätzen im nationalen Bankensektor oder den Gewinn zusätzlicher Steuereinnahmen. Die Auswirkungen in anderen Ländern sind ihnen demgegenüber relativ gleichgültig. Im soeben verwendeten Bild könnte man sagen, den jeweiligen Betreuern ist es egal, wie sich die Kinder woanders benehmen, Hauptsache bei ihnen zuhause sind sie ruhig und anständig. Man spricht insoweit auch vom home bias (Lautenschläger 2013). Selbst eine vermeintlich über jeden Zweifel erhabene Institution wie die Deutsche Bundesbank kann sich von ihm nicht freimachen. Schon aufgrund ihrer Besetzung und ihrer Rolle als nationaler Institution ist er ihr praktisch in das Erb-

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 3 2 9

gut hineingeschrieben. Der home bias führt dazu, dass aus Sicht der beteiligten Volkswirtschaften insgesamt betrachtet suboptimale Entscheidungen getroffen werden. Innerhalb des Europäischen Wirtschaftsraums (EWR) stellt sich dieses Problem mit besonderer Dramatik. Aufgrund von Niederlassungs- und Dienstleistungsfreiheit können die Institute in allen Mitgliedstaaten tätig werden. Die Finanzmärkte des EWR sind in besonderem Maße übernational integriert, sie sind ein Markt. Die Aufsicht wird jedoch nach wie vor in erster Linie auf der Ebene der Mitgliedstaaten ausgeübt. Anhand der EU lässt sich daher wie in einem Laboratorium betrachten, welch große Herausforderung die Ausgestaltung einer grenzüberschreitenden Bankenaufsicht darstellt. Obwohl die Lösungen zu einem großen Teil durch die spezifisch-europäische Konstellation geprägt sind, können die Lehren allgemeiner Natur sein.

2. Einordnung Die Antwort auf die Frage, wie man Bankenaufsicht in grenzüberschreitenden Märkten zweckmäßigerweise ausgestalten sollte, ist unabhängig von der jeweiligen politischen Einstellung des Befragten. Es gibt keine „linke" oder „rechte" Position dazu. Vielmehr muss das Problem unabhängig von Ideologien und subjektiven Positionen gelöst werden. Es handelt sich mit anderen Worten um ein typisches Ordo-Problem. Nicht die Wahl einer konkreten Ordnung im Sinne eines auf ein bestimmtes Ergebnis bezogenen Prozesses steht zur Debatte, sondern die Wahl der richtigen Ordnungs^br/w. Denn die Alternative, die sich stellt, ist nicht, ob man mehr oder weniger Staat will. In den Worten Walter Euckens handelt es sich um ein qualitatives, nicht um ein quantitatives Problem (Eucken 1951, S. 71 f.): Welcher Art soll die Staatstätigkeit sein? Wie soll sie ausgestaltet sein? Die Fragestellung ist damit „orthogonal" zu den klassischen politischen Positionen. Erst dies macht sie einer Lösung mit Hilfe wissenschaftlicher Methoden zugänglich (Pies 2002, S. 21). Im Vordergrund dieses Beitrags steht nicht eine bestimmte Antwort, etwa die, welche man nunmehr in Europa mit dem Single Supervisory Mechanism gefunden zu haben glaubt.1 Solche Regelungen sind eine Geburt der jeweiligen Zeit und der herrschenden politischen Umstände. Hier geht es vielmehr um das Sachproblem: Welche Anforderungen sind aus ordnungsökonomischer Sicht an die grenzüberschreitende Aufsicht zu stellen?

Europäische Kommission, Vorschlag für eine Verordnung des Rates zur Übertragung besonderer Aufgaben im Zusammenhang mit der Aufsicht über Kreditinstitute auf die Europäische Zentralbank, KOM (2012), 511 endg. Letzte Fassung durch Rat der Europäischen Union, Ausschuss der ständigen Vertreter, Vorschlag für eine Verordnung des Rates zur Übertragung besonderer Aufgaben im Zusammenhang mit der Aufsicht über Kreditinstitute auf die Europäische Zentralbank, erhältlich unter http://register.consilium.europa.eu/pdf/de/13/st07/st07776-re01.del3.pdf (zuletzt besucht am 31.5.2013).

330

Matthias Lehmann

Der Zugang zum Problem wird einfacher, wenn man es in seine unterschiedlichen Aspekte zerlegt. Zu fragen ist: 1. Genügt die Vereinheitlichung der Rechtsgrundlagen, oder ist eine integrierte Aufsicht nötig? 2. Auf welcher Ebene soll Bankenaufsicht stattfinden? 3. Wie weit ist der Anwendungsbereich der grenzüberschreitenden Aufsicht zu fassen? 4. Bedarf es einer gesonderten Aufsicht über Banken, oder sollte diese mit der Aufsicht über andere Finanzintermediäre zusammengefasst werden? 5. Welche Behörde ist mit der Bankenaufsicht zu betrauen? 6. Auf welche Weise können drittstaatliche Interessen berücksichtigt werden?

II. Nur materiell-rechtliche oder auch institutionelle Vereinheitlichung In erster Line könnte man darauf vertrauen, einheitliche materiell-rechtliche Regelungen für Kreditinstitute zu schaffen, etwa über die Ausstattung mit Eigenmitteln oder die Vergabe von Krediten. Diese werden im Moment unter dem Stichwort Single Rulebook erörtert (Gstädtner 2013, S. 9). Eine bloße Vereinheitlichung oder Annäherung der materiell-rechtlichen Rechtsgrundlagen ist jedoch nicht selten prekär und ineffektiv. Ohne zentrale Instanzen zur Auslegung und Überwachung der Anwendung werden Regeln häufig nur auf dem Papier vereinheitlicht, während in der Praxis unterschiedliche Standards weiterbestehen. Das zeigt die Erfahrung mit vielen Texten des internationalen Einheitsrechts. Ein beredtes Beispiel dafür ist etwa das UN-Kaufrecht, welches einheitliche Regeln für grenzüberschreitende Kaufverträge in den Vertragsstaaten schaffen soll. Dieses Übereinkommen wird trotz des einheitlichen Wortlauts durch die Gerichte der Vertragsstaaten unterschiedlich ausgelegt (Flechtner 1998, Honnold 1989). Die Europäische Gemeinschaft musste im Hinblick auf das Bankrecht ihre eigenen Erfahrungen in dieser Richtung sammeln. In einer ersten Phase, etwa von Mitte der 1970er bis Mitte der 1990er Jahre, hatte man sich auf die Liberalisierung der Märkte konzentriert. Als Instrumente dazu wurden der Europäische Pass und das Prinzip der Herkunftslandkontrolle eingeführt. 2 Gleichzeitig wurden Mindeststandards verabschiedet, etwa für die Eigenmittelausstattung und die Solvabilität von Kreditinstituten, 3 um die Verlegung in niedriger regulierte Staaten (race to the bottom) zu verhindern. Als Methode verwendete man ausschließlich die Annäherung des materiellen Rechts. Für die Anwendung der europäischen Rechtsgrundlagen gab es keine europäischen Behörden. Vielmehr oblag diese ausschließlich den Mitgliedstaaten.

2

3

Zweite Richtlinie 89/646/EWG des Rates vom 15. Dezember 1989 zur Koordinierung der Rechts- und Verwaltungsvorschriften über die Aufnahme und Ausübung der Tätigkeit der Kreditinstitute und zur Änderung der Richtlinie 77/780/EWG, ABl. L 386 vom 30.12.1989, S. 1. Richtlinie 89/299/EWG des Rates vom 17. April 1989 über die Eigenmittel von Kreditinstituten, ABl. L 124 vom 5.5.1989, S. 16, und Richtlinie 89/647/EWG des Rates vom 18. Dezember 1989 über einen Solvabilitätskoeffizienten für Kreditinstitute, ABl. L 386 vom 30.12.1989, S. 14.

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 331

Erste zarte Ansätze, das Problem prozedural zu lösen, finden sich in der sogenannten BCCI-Richtlinie aus dem Jahre 1995.4 Diese schreibt eine Zusammenarbeit zwischen den nationalen Behörden in Form des Informationsaustauschs vor. Allerdings gibt es noch keine europäischen Behörden. Einen weiteren Mentalitätswandel brachte der im Jahre 1999 veröffentlichte Financial Services Action Plan5. Dieser setzte zwar ebenfalls auf die Harmonisierung der geschriebenen Rechtsgrundlagen, änderte aber das Verfahren für deren Erlass. Auf der dritten und vierten Stufe des nunmehr vierstufigen Verfahrens wurden die verschiedenen nationalen Aufsichtsbehörden in Komitees auf europäischer Ebene eingebunden. Für die Bankenaufsicht wurde das Committee of European Banking Supervisors (CEBS) eingerichtet. Dieses erließ gemeinsame Empfehlungen und führte Maßnahmen wie etwa peer reviews durch. Dadurch sollte eine Konvergenz nicht nur der materiellen Rechtsgrundlagen, sondern auch der Aufsichtse«/scheidungen gewährleistet werden (Schmolke 1995, S. 913). Im Großen und Ganzen blieb es jedoch bei der souveränen Zuständigkeit der nationalen Behörden für die Anwendung der einheitlichen EU-Standards. Bemerkenswert ist insoweit, dass die hauptsächliche Stoßrichtung aller EUMaßnahmen bis zu diesem Zeitpunkt die Liberalisierung der Finanzmärkte war. Im Mittelpunkt der Bemühungen stand die Herstellung eines europäischen Binnenmarkts für Finanzdienstleistungen (Grossman 2005, S. 132), ohne dass gleichzeitig ein angemessener Rahmen für die Beaufsichtigung und Kontrolle der Risiken geschaffen wurde (Norton 2001). Soweit materiell-rechtliche Vorgaben für Kreditinstitute erlassen wurden, wie etwa in der Kapitaladäquanzrichtlinie, dienten diese nur als Gegengewicht und Rechtfertigung der Verpflichtung zur Öffnung des nationalen Markts für ausländische Institute. Marktöffnung nun lässt sich recht gut ohne prozedurale Vorgaben erreichen, weil eine Ergebniskontrolle genügt: Am Ende einer Liberalisierungsinitiative lässt sich vergleichsweise einfach feststellen, ob die Mitgliedstaaten die rechtlichen Grundlagen so geändert haben, dass ihre Märkte in Zukunft auch ausländischen Anbietern offenstehen. Ist das nicht der Fall, kann dem ex post mit prozessualen Mitteln abgeholfen werden, beispielsweise mit einem Vertragsverletzungsverfahren. 6 Viel schwieriger ist es dagegen, die Umsetzung von Vorschriften zu überwachen, die der Sicherung der Funktionsfahigkeit und Stabilität der Finanzmärkte dienen. Bei ihnen kann man sich nicht mit einer reinen Ergebniskontrolle begnügen, sondern es bedarf einer laufenden Überprüfung der Tätigkeit der nationalen Aufsichtsbehörden. Während der Finanzkrise zeigte sich dies überdeutlich. Maßnahmen zur 4

5

6

Richtlinie 95/26/EG des Europäischen Parlaments und des Rates vom 29. Juni 1995 zur Änderung der Richtlinien 77/780/EWG und 89/646/EWG betreffend Kreditinstitute, der Richtlinien 73/239/EWG und 92/49/EWG betreffend Schadenversicherungen, der Richtlinien 79/267/EWG und 92/96/EWG betreffend Lebensversicherungen, der Richtlinie 93/22/EWG betreffend Wertpapierfirmen sowie der Richtlinie 85/611/EWG betreffend bestimmte Organismen fiir gemeinsame Anlagen in Wertpapieren (OGAW) zwecks verstärkter Beaufsichtigung dieser Finanzunternehmen, ABl. L 168 vom 18.7.1995, S. 7. Mitteilung der Kommission, Umsetzung des Finanzmarktrahmens: Aktionsplan, KOM (1999) 232 endg. Siehe Artikel 258 des Vertrags über die Arbeitsweise der Europäischen Union (AEUV).

332

Matthias Lehmann

Sicherung der Funktionsfahigkeit der Finanzmärkte, wie etwa die Vorschriften über eine angemessene Eigenmittelausstattung, wurden nicht einheitlich umgesetzt. Vielmehr folgten die Behörden der Mitgliedstaaten bei der Anwendung europäischen Rechts eigenen Interessen, indem sie etwa die Augen vor unzureichender Risikovorsorge und nicht immer ehrlicher Rechnungslegung ihrer nationalen Kreditinstitute verschlossen, um diese nicht noch zusätzlichen Schwierigkeiten auszusetzen. Die Schaffung eines prozeduralen Mechanismus, um die Einhaltung der europäischen Vorgaben zu überwachen, wurde unausweichlich. Die EU hat reagiert und das ESFS (European System of Financial Supervision) geschaffen, welches zum 01.01.2011 in Kraft getreten ist. Zu ihm gehören drei neue europäische Aufsichtsbehörden (für Banken ist die European Banking Authority (EBA) zuständig). Diese treten allerdings nicht an die Stelle der nationalen Aufsichtsbehörden, sondern überwachen nur deren Tätigkeit. Ihre grundsätzlichen Instrumentarien sind der Erlass von Leitlinien und Empfehlungen. Maßnahmen im Einzelfall können sie nur bei Verletzung des EU-Rechts, im Krisenfall sowie bei Streitigkeiten zwischen verschiedenen nationalen Aufsichtsbehörden erlassen (Lehmann/Manger-Nestler 2011). Der daneben geschaffene Europäische Ausschuss für Systemrisiken (European Systemic Risk Board - ESRB) ist als reines Informationsgremium ausgestaltet und hat keine eigenen Eingriffsbefugnisse. Summa summarum bleiben also die Aufsichtsbefiignisse der EU immer noch hinter ihren Gesetzgebungsbefugnissen zurück. Nach wie vor sieht die Funktionenteilung zwischen der EU und den Mitgliedstaaten so aus, dass erstere die materiell-rechtlichen Anforderungen an Kreditinstitute bis ins Detail hinein festlegt, während letztere die Einhaltung überwachen.

III. Optimale Ebene der Aufsicht 1. Prinzipien Optimale Aufsichtsnormen sind wohl nie zu erreichen. Sie sind aber ein Ideal, das anzustreben sich lohnt. Oberstes Prinzip hierbei sollte sein, dass die Aufsicht dem zu Beaufsichtigenden angepasst sein muss. Das gilt sowohl für die Aufsicht über Akteure wie über ganze Märkte. Zumindest die großen Finanzinstitute sind heute weltweit tätig. Für sie scheint daher eine weltweite Aufsicht nötig. Selbst wenn man von den unüberwindbar erscheinenden politischen Hindernissen einmal absieht, sollte man sich eine solche Aufsicht nicht einmal wünschen. Hätten wir sie, so würde sich jedes Versagen der Aufsicht sofort global auswirken. Außerdem würde der Wettbewerb zwischen den verschiedenen Staaten um das beste Aufsichtssystem im Keim erstickt (Tietje/ Lehmann, 2011). Zudem wäre eine globale Aufsicht vermutlich sehr schwerfallig. Eine Abgrenzung der Aufsichtsräume ist daher unumgänglich. Wie sollte sie erfolgen? Am Besten zieht man als Kriterium die Integration der Finanzmärkte heran: Je weiter fortgeschritten die Integration, umso eher ist eine einheitliche Aufsicht gerechtfertigt.

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 3 3 3

Im Binnenmarkt ist der Integrationsgrad bereits erheblich. Daher haben sich manche für eine einheitliche Aufsicht über alle in diesem zugelassenen Markt Finanzinstitute ausgesprochen (Sáinz de Vicuña 200 lf). Noch einen Integrationsschritt weiter sind allerdings die Staaten der Eurozone mit ihrer einheitlichen Währung. Zumindest für sie scheint daher auf den ersten Blick eine Aufsicht durch eine zentrale Behörde angemessen. Doch liegen die Dinge nicht so einfach. Einer simplen Zentralisierung der Aufsicht steht das Prinzip der Subsidiarität entgegen. Dieses verbietet, die Aufsicht auf zentraler Ebene anzusiedeln, wenn sie sich auf einer unteren Ebene entweder besser oder auch nur genauso gut verwirklichen lässt. Anders ausgedrückt gebietet das Subsidiaritätsprinzip die Einbeziehung regionaler und lokaler Kompetenzen. Dieses seit Aristoteles bekannte Prinzip wurde insbesondere durch Althusius als Organisationsprinzip ausformuliert und durch die katholische Soziallehre weiterentwickelt (Bergmann 2012). Mittlerweile hat es Eingang in die Rechtsgrundlagen der EU gefunden (Artikel 5 Abs. 3 des Vertrags über die Europäische Union). Seine Bedeutung für die Bankenaufsicht ist groß (dazu Tritschler 2012). Die Ausgestaltung der Aufsicht in der Eurozone muss beide Grundsätze wahren: die Anpassung der Aufsicht an die Realität der zu beaufsichtigenden Akteure und das Subsidiaritätsprinzip. Sie muss sie gleichermaßen zu optimaler Wirkung bringen. Im Verfassungsrecht spricht man insoweit treffend von „praktischer Konkordanz" (Hesse 1999). Es gibt eine Reihe von Argumenten dafür, dass eine simple „Hochzonung" der Aufsicht auf die supranationale Ebene gegen das Subsidiaritätsprinzip verstoßen würde. Nationale Aufsichtsbehörden kennen „ihre" Kreditinstitute besser als europäische. Sie sind „näher dran" und können Gefahren häufig früher erkennen und auf diese reagieren als zentralisierte. Eine EU-Behörde, etwa in Paris oder Frankfurt ansässig, die für die Aufsicht über jedes der 6.600 Kreditinstitute im Euroraum zuständig wäre, müsste mit vielen Tausend Mitarbeitern ausgestattet sein. Sie würde ein eurokratisches Monster sein, welches den Kontakt zu den zu Beaufsichtigenden kaum herstellen könnte. Auf der anderen Seite ist eine einheitliche Aufsicht jedenfalls in der Eurozone unumgänglich. Das Herkunftslandsprinzip weist zwar die Aufsichtskompetenz einem Staat eindeutig zu, doch ist dieser auf die Kooperation der anderen angewiesen. Dass diese nicht reibungsfrei funktioniert, ist der Hauptgrund für die mittlerweile allgemein akzeptierte einheitliche Aufsicht im Rahmen des Single Supervisory Mechanism. 7 Ein aus nationalen Behörden zusammengesetztes Aufsichtssystem ist den Herausforderungen eines grenzüberschreitenden Markts nicht gewachsen. Herkunftslandkontrolle, gegenseitige Anerkennung und Minimalharmonisierung sind nicht auf die Bekämpfung und Eindämmung systemischer Risiken angelegt. Dem ließe sich der Einwand entgegensetzen, dass auch eine einheitliche Aufsichtsbehörde Fehler machen kann. Möglicherweise ist dies sogar wahrscheinlich. Eine plurinationale Zusammensetzung kann kulturelle Konflikte heraufbeschwören. Auch lassen sich bei manchen inter- und supranationalen Organisationen eine gewisse Entfernung von den Realitäten und ein bürokratischer Wildwuchs beobachten. 7

Nachweis Fn. 1.

334

Matthias Lehmann

Doch greifen diese Einwände letztlich nicht durch. An dieser Stelle ist daran zu erinnern, dass die einheitliche Aufsicht nicht deshalb zu befürworten ist, weil sie effizienter als die nationale wäre. Ihre Rechtfertigung liegt vielmehr im strukturellen Defizit der nationalen Zuständigkeit und den dadurch auftretenden Informationsund Koordinationsproblemen. Um es einfach zu sagen: Ebenso, wie sich die einzelnen Staaten nicht effizient um Fragen wie den Weltfrieden oder das Weltklima kümmern können, ist es einer nationalen Behörde unmöglich, für Stabilität auf grenzüberschreitenden Märkten zu sorgen. Kulturelle Konflikte und Effizienzprobleme müssen innerhalb der Aufsichtsbehörde überwunden werden - das ist die Herausforderung des 21. Jahrhunderts. Bei einer nationalen Aufsicht zu bleiben, ist kein gangbarer Weg.

2. Gestaltungsmöglichkeiten in einem Mehrebenensystem Aus der Gegenüberstellung der Notwendigkeit einheitlicher Aufsicht mit dem Subsidiaritätsprinzip folgt, dass die Frage der Zentralisierung oder Dezentralisierung der Aufsicht im Sinne eines „entweder - oder" von vornherein falsch formuliert wäre. Vielmehr bedarf es eines „sowohl - als auch", das heißt sowohl der Einrichtung einer neu definierten zentralisierten Aufsicht als auch einer Einbeziehung existierender lokaler und regionaler Aufseher. Die Chance dazu bietet die Europäische Union. Sie ist, in der Terminologie der Politikwissenschaften, ein Mehrebenensystem (Baker/Hudson/Woodward 2005; Grossman 2005). Das Verhältnis der Ebenen ist dabei nicht immer gleich, sondern lässt sich entsprechend den Notwendigkeiten des jeweiligen Sachproblems anpassen. Obwohl die Maßnahmen der höheren Ebene grundsätzlich Vorrang vor denen der niedrigeren genießen, gibt es differenzierte Gestaltungsmöglichkeiten. Ein Mittel zur Anpassung an sachliche Notwendigkeiten ist die Begrenzung der Zuständigkeit. Wenn die Kompetenz der EU auf einzelne Fragen beschränkt bleibt, stellt sich ein institutionelles Gleichgewicht ein, in welchem den nationalen Behörden Spielraum für eigene Entscheidungen bleibt. Diesem Modell folgt das derzeitige Aufsichtssystem ESFS. Die europäischen Behörden haben nur generelle Interpretations- und Leitbefugnisse. Entscheidungen über individuelle Kreditinstitute können sie lediglich dann treffen, wenn Streit zwischen den nationalen Behörden besteht oder diese untätig bleiben. Allerdings hat sich dieses Modell als unzureichend erwiesen, um den Herausforderungen integrierter Märkte zu trotzen. Die Defizite der nationalen Aufsichtssysteme sind struktureller Natur, weil sie den zu beaufsichtigenden Akteuren nicht angemessen sind. Eine simple Leitfunktion und Eingriffsbefugnis in Ausnahmefällen reicht daher für die europäische Ebene nicht aus. Diese muss vielmehr ein allgemeines Durchgriffsrecht haben, um die Stabilität des Finanzsystems zu sichern. Dass die EU auf einzelne Institute durchgreifen können muss, heißt nicht, dass sie auch verpflichtet ist, jedes Institut der Eurozone zu überwachen. Mit der Aufsicht über alle Institute der Eurozone wäre die europäische Ebene schlicht überlastet. Es müssten Funktionsträger neu eingestellt werden. Im Jahre 2012 beschäftigte die

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 3 3 5

EBA gerade einmal 68 sogenannte temporary agents, eine Erhöhung auf 93 ist für 2013 vorgesehen. 8 Zum Vergleich: Allein die nur für Deutschland zuständige Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) zählte Ende des Jahres 2011 insgesamt 2.151 Beschäftigte. 9 Hier greift nun das Subsidiaritätsprinzip: Es verlangt eine Begrenzung der Aufsichtszuständigkeiten. Während die europäische Ebene über umfassende Aufsichtsbefugnisse verfügen muss, wäre es ineffizient, wenn sie die tägliche Aufsichtsarbeit wahrnähme. Letztere sollte bei den nationalen Behörden verbleiben, die besser ausgestattet sind und die zu beaufsichtigenden Institute näher kennen. Allerdings ist es notwendig, dass die zentrale Instanz die Möglichkeit hat, selbst bei nur vermuteten makroökonomischen Gefahren die Aufsicht an sich zu ziehen. Es ist daher geboten, die europäische Ebene mit mehr Befugnissen auszustatten, als ihre eigentliche Aufgabe erfordert. Notwendig ist eine scharfe Unterscheidung zwischen den Aufsichtsbefugnissen und der operationeilen Durchführung der Aufsicht (PisaniFerry/Sapir/Veron/Wolff 2012, S. 11). Die eigentliche Aufgabe der europäischen Ebene bleibt die makroprudentielle Aufsicht, das heißt die Verhinderung von Gefahren für das Finanzsystem als Ganzes. Kernpunkt sind daher die systemischen Risiken, selbst wenn die Aufsicht formell nicht auf „systemrelevante Institute" begrenzt sein sollte. In die Kompetenz der europäischen Behörde muss aus Gründen funktionaler Effizienz auch das Recht zur Prüfung fallen, ob solche Risiken drohen. Sie muss in diesen Fällen die Aufsicht über einzelne Institute an sich zu ziehen und Maßnahmen in individuellen Fällen treffen können. Gleichzeitig darf sie aber wegen der Gefahr einer Überforderung nicht generell zur Aufsicht auch über kleinste Institute verpflichtet sein. Diese muss sie entweder an die nationalen Behörden abgeben können, oder diese müssen umgekehrt von vornherein von der Zuständigkeit der Zentrale ausgenommen sein mit der Möglichkeit, sie an sich zu ziehen. Diese Art der Aufteilung der Kompetenzen zwischen europäischer und nationaler Ebene ist neuartig. Der naheliegende Vergleich zum Kartellrecht, in welchem sich die Europäische Kommission und die nationalen Wettbewerbsbehörden ebenfalls die Zuständigkeit teilen, trägt nicht. Denn diese Zuständigkeitsaufteilung betrifft nur punktuelle Entscheidungen - wurde gegen EU-Wettbewerbsrecht verstoßen oder nicht - , aber nicht die laufende Beaufsichtigung bestimmter Institute. Gegen eine Aufteilung wie die hier vorgeschlagene wird eingewandt, dass sie zu moral AazarcZ-Problemen führe, weil sie der europäischen Ebene einseitige Eingriffsbefugnisse verleihe und damit den Vorteil aufgebe, nationalen Aufsehern ihr Versagen im Einzelfall vorzuwerfen (Miliar 2012, S. 17). Dem ist allerdings zu widersprechen. Die Tatsache, dass die europäischen Organe in allen Fällen eingreifen können, ist nicht gleichbedeutend damit, dass die nationalen Behörden von ihrer Verantwortung entlastet wären. Im Fall der Insolvenz eines einzelnen Instituts wird ihnen ein Aufsichtsversagen weiterhin zugerechnet. Sollten solche Insolvenzen systemische Auswirkungen haben, zeichnet fiir diese die europäische Behörde verantwortlich. Erforderlich hierfür ist die

8

'

EBA, Work Programme 2013, EBA BS 2012 163 final v. 28.09.2012, S. 3, erhältlich unter www.eba.europa.eu (zuletzt besucht am 27.12.2012). BaFin, Jahresbericht 2011, erhältlich unterwww.bafin.de (zuletzt besucht am 27.12.2012).

336

Matthias Lehmann

klare Zuweisung und Definition der Kompetenzen. Ist diese gegeben, kann es zu einer separierten Zurechnung von Verantwortung für die mikro- und für die makroökonomischen Auswirkungen kommen, die genau der Aufgabenteilung zwischen europäischer und nationaler Ebene entspricht. Vergleichbar ist diese Aufgaben- und Verantwortungsteilung etwa mit der zwischen einem Ministerium und einer unteren Behörde. Die Öffentlichkeit kann diese sehr wohl nachvollziehen.

IV. Anwendungsbereich der Aufsicht 1. Räumlicher Anwendungsbereich Durch die Zusammenlegung der geldpolitischen Zuständigkeiten in den Ländern des Euroraums sind die Finanzmärkte dort noch enger integriert als im Rest der EU. Dadurch hat sich zugleich die Möglichkeit grenzüberschreitender spillover-Effekte erhöht (Europäische Kommission 2012a, S. 1). In räumlicher Hinsicht sollte daher klar sein, dass sich die Aufsicht auf die Banken der Eurozone erstrecken muss. Zutreffendes Anknüpfungskriterium ist die Tätigkeit, nicht der Sitz der zu beaufsichtigenden Kreditinstitute. Denn ob eine Bank Risiken für die Finanzsystemstabilität birgt, hängt allein von ihrer Tätigkeit ab. Institute mit Sitz in Drittstaaten, die Finanzdienstleitungen in der Eurozone anbieten, sind daher ebenfalls einzubeziehen. Allerdings ist zu berücksichtigen, dass sie bereits in ihrem Sitzstaat der Aufsicht unterliegen. Stellt diese hinreichend strikte Anforderungen und überwacht deren Einhaltung effizient, kann auf eine zusätzliche europäische Aufsicht verzichtet werden.

2. Sachlicher Anwendungsbereich In sachlicher Hinsicht ist darauf zu achten, dass alle Arten von Kreditinstituten erfasst werden. Die Organisationsform darf dabei keine Rolle spielen. Insbesondere dürfen öffentlich-rechtlich organisierte Sparkassen oder genossenschaftsrechtlich organisierte Institute nicht ausgenommen werden (Elliot 2012, S. 3). Die Organisationsform besagt nichts über die Möglichkeit, Ausgangspunkt von systemischen Risiken zu sein. Das ist eine Einsicht, die insbesondere deutschen Politikern zunächst nur schwer zu vermitteln war, inzwischen aber selbst von diesen akzeptiert ist. Ebenso wenig ist die Größe alleinentscheidend. Zwar besteht ein Zusammenhang zwischen Größe und systemischen Risiken, jedoch gibt es daneben auch andere Faktoren, die für die Entstehung Letzterer verantwortlich sind, wie Verklumpung oder Vernetzung (Tarashev/Borio/Tsatsaronis 2010, S. 15). Neben den aggregierten Schocks ist die Insolvenz einer individuellen Bank, welche durch Vernetzung und Verbindung andere Institute ansteckt, eines der beiden Hauptbeispiele eines systemischen Risikos (de Bandt/Hartmann 2000, S. 10; Tarashev/Borio/Tsatsaronis 2010). Aus diesem Grund ist jedes einzelne Institut von der Aufsicht zu erfassen. Systemrisiken nehmen ihren Ausgang häufig in individuellen Risiken. Makro- und mikroökonomische Ebene sind damit enger verwoben, als man dies häufig wahr-

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 3 3 7

haben möchte. Eine Eingrenzung allein auf „systemrelevante Finanzinstitute" (SIFIs), die nach im Vorhinein definierten Merkmalen wie Größe oder Vernetzung bestimmt werden, empfiehlt sich aus ordnungsökonomischer Sicht nicht. Die Erfahrung zeigt, dass die zutreffende Auswahl der Institute nach allgemeinen Kriterien schwierig bis unmöglich ist. Außerdem bringt die Kategorisierung als SIFI gewisse Vorteile mit sich, vor allem die implizite Garantie des bail out. Dies birgt moral hazard-Kisiksn (Gropp/Hakenes/Schnabel 2009, S. 5). Auf der anderen Seite könnte eine Bank versuchen, die Kriterien für die Einordnung als SIFI zu unterlaufen, um der europäischen Aufsicht zu entgehen. Dies wirft neue Risiken auf, weil Entscheidungen nicht mehr nach ökonomischer Rationalität getroffen würden. Zudem können auch kleine Kreditinstitute Gefahren für die Finanzsystemstabilität bergen, wie sich in den letzten Jahren deutlich gezeigt hat - man denke etwa an die spanischen „cajas".

3. Würdigung des Standes der EU-Pläne Nach dem derzeitigen Vorschlag einer Verordnung über den SSM sollen weniger bedeutende Kreditinstitute grundsätzlich von den nationalen Behörden beaufsichtigt werden. 10 Dazu werden allgemeine Kriterien formuliert (Größe, Relevanz für die Wirtschaft der EU oder des Mitgliedstaats, Bedeutung der grenzüberschreitenden Tätigkeit) und dann präzisiert (Gesamtwert der Aktiva übersteigt 30 Mrd. Euro; Verhältnis des Gesamtwerts der Aktiva zum BIP des Mitgliedstaats ist größer als 20%; mindestens drei Banken aus jedem Mitgliedstaat); außerdem wird die Erstellung einer näheren Methodik verlangt. 11 Damit wird eine klare Aufgabenteilung etabliert und die EZB-Aufsicht auf „große" Institute fokussiert. Allerdings war die EU so weise, die Aufsicht nicht allein auf diese zu beschränken. Vielmehr sieht der Vorschlag ausdrücklich vor, dass die EZB die Aufsicht über weniger bedeutende Institute jederzeit" und „von sich aus" selbst ausüben kann, wenn dies für die Sicherstellung der kohärenten Anwendung hoher Aufsichtsstandards erforderlich ist und die nationalen Behörden zuvor konsultiert wurden. 12 Dabei ist als Anlass der Fall genannt, dass die Bank eine finanzielle Unterstützung durch die EFSF oder den ESM indirekt beantragt oder entgegengenommen hat. Dies ist allerdings nur ein Beispielsfall, der in keiner Weise das Recht einschränkt, die Aufsicht auch in anderen Fällen an sich zu ziehen. Damit ist das jederzeitige, unabhängige Durchgriffsrecht gewahrt. Die EZB-Aufsicht ist daher nicht auf SIFIs beschränkt.

10

11 12

Siehe Rat der Europäischen Union, Ausschuss der ständigen Vertreter, Vorschlag für eine Verordnung des Rates zur Übertragung besonderer Aufgaben im Zusammenhang mit der Aufsicht über Kreditinstitute auf die Europäische Zentralbank, Art. 5 Abs. 4-6, erhältlich unter http://register.consilium. europa.eu/pdfde/13/st07/st07776-re01 .del3.pdf (zuletzt besucht am 31.5.2013). Siehe Rat der Europäischen Union a.a.O., Art. 5 Abs. 4, 7. Rat der Europäischen Union a.a.O., Art. 5 Abs. 5 lit. b.

338

Matthias Lehmann

V. Sektorale Aufsicht oder Allfinanzaufsicht 1. Die verschiedenen Aufsichtsmodelle Die Aufsicht über Banken ist in den verschiedenen Ländern der Erde unterschiedlich ausgestaltet. Während manche Rechtsordnungen für verschiedene Sektoren der Finanzindustrie - z.B. Banken, Wertpapierfirmen und Versicherungen - unterschiedliche Behörden bereithalten, sehen andere eine einzige Behörde mit Allzuständigkeit für alle Finanzmarktakteure vor (Lannoo 2002, S. 1-6; Masciandaro 2004, S. 151157; Masciandaro/Quintyn 2009, S. 4 f.; Hadjiemmanuil 2002, S. 575-580; Hopt 2009, S. 1402-1404). Daneben gibt es noch andere Aufsichtsmodelle, z.B. das Twin Peafcs-Modell mit zwei konkurrierenden Aufsichtsbehörden (Taylor 1995) oder das funktionale, dass nach der Tätigkeit auf bestimmten Märkten gegliedert ist, z.B. der auf dem Wertpapiermarkt oder Warenterminmarkt (Hadjiemmanuil 2002, S. 574575). Welches Modell das Beste ist, wurde lange diskutiert (siehe Lannoo 2002, S. 1-6; Hadjiemmanuil 2002, S. 583-586; Hopt 2009, S. 1402-1404). Für die Einrichtung mehrerer Aufsichtsbehörden spricht einerseits die mit ihnen verbundene Spezialisierung. Andererseits kommt bei überlappenden Zuständigkeiten wie etwa in den USA ein gewisses wettbewerbliches Element zwischen den Behörden hinzu, das man als Vorteil ansehen kann. Aus ordnungsökonomischer Sicht vorzugswürdig ist dennoch das Modell der Allfinanzaufsicht. Ausschlaggebend ist, dass dieses am besten den Marktgegebenheiten entspricht. Es gilt die Bauhaus-Devise: „form follows function" (Hopt 2009). Viele Akteure lassen sich nicht länger einem Sektor zurechnen, sondern bieten Produkte aus verschiedenen Sektoren an, z.B. Bankdienstleistungen und Versicherungen. Dafür gibt es eine Reihe ökonomischer Gründe, z.B. die einander ausgleichenden Fristentransformationen der verschiedenen Produktarten oder die effiziente Ausnutzung des vorhandenen Vertriebssystems. Wenn aber die Akteure sektorübergreifend tätig sind, darf die Aufsicht nicht nach Sektoren aufgespalten sein. Denn sonst kommt es zu Schwierigkeiten bei der Abgrenzung der Zuständigkeiten. Daraus resultiert die Gefahr von Lücken in der Regulierung (regulatory gaps). Vor allem aber besteht auch hier das eingangs beschriebene schwerwiegende strukturelle Problem, dass jede Aufsichtsbehörde nur einen Teil der vom jeweiligen Akteur ausgehenden Risiken sieht. Will sie diese der anderen mitteilen, sind Kosten und Informationsverluste unausweichlich. Selbstverständlich werden auch innerhalb einer Aufsichtsbehörde mit Allzuständigkeit Abteilungen mit Spezialzuständigkeiten gebildet werden, die miteinander kommunizieren müssen. Der entscheidende Vorteil der Allfinanzaufsicht ist allerdings, dass diese einer einheitlichen Leitung unterliegen. Zuständigkeitsstreitigkeiten oder Rivalitäten können daher gar nicht erst auftreten. In gewisser Weise sind die Vorteile der Allfinanzaufsicht mit denen der Ersetzung des „Markts" durch das „Unternehmen" zu vergleichen, welche die institutionenökonomische Literatur oft beschrieben hat (Williamson, 1985 und 1996). Nicht ohne Grund geht daher die Tendenz in den meisten Ländern in Richtung einer Reduzierung der Zahl der Aufsichtsbehörden (Llewellyn 2006, S. 4).

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 3 3 9

2. Das Projekt der Bankenunion Eine grenzüberschreitende europäische Bankenmion, welche von der EU aktuell verfolgt wird, ist schon begrifflich auf einen bestimmten Sektor der Finanzindustrie beschränkt, nämlich auf die Bankindustrie. Durch die Einrichtung einer speziellen Aufsicht für Banken der Eurozone wird damit die schon jetzt auf europäischer Ebene bestehende Separierung der Aufsicht nach Sektoren zementiert. Aus ordnungsökonomischer Sicht ist dies bedenklich. Eine Bankenunion erschwert die Realisierung des Prinzips, nach dem sich die Aufsicht den Gegebenheiten der Märkte anzupassen hat (siehe Abschnitt V.l). Nur bei zwingenden Gründen ist ein Abweichen von diesem Grundsatz hinnehmbar. Ein solcher zwingender Grund könnte darin gesehen werden, dass Kreditinstitute systemisch relevant sind, andere Finanzmarktakteure jedoch nicht. Dem ist jedoch zu widersprechen. Zum einen ist zu bedenken, dass von in anderen Sektoren tätigen Unternehmen ebenfalls Risiken für die Stabilität des Finanzsystems ausgehen können. Bestes Beispiel dafür ist der US-amerikanische Versicherer AIG, der im Jahre 2008 mit Steuermitteln des Bundeshaushalts gerettet wurde, um eine weitere Ausbreitung der Finanzkrise zu verhindern. Zum anderen ist die Abgrenzung, wenn man sie mit Systemrisiken begründet, in sich nicht überzeugend. Denn viele Finanzmarktakteure erfüllen bankgleiche Funktionen, wie etwa die Versorgung von Unternehmen mit Liquidität oder die Fristentransformation, ohne formal-rechtlich die Definition des Kreditinstituts zu erfüllen (Adrian/Ashcraft/Boesky/Poszar 2012; Follak2010, S. 193-198; Carmichael/Pomerleano 2002). Von diesen sogenannten Schattenbanken können erhebliche Gefahren für die Stabilität des Finanzsystems ausgehen; insbesondere können von ihrem Zusammenbruch auch andere, regulierte Institute betroffen sein (Federal Reserve Bank of New York 2012, S. 2-3; Financial Stability Board 2012, S. 10-12). Trotzdem werden sie vom europäischen Aufsichtssystem bislang nicht erfasst. Die Tatsache, dass die EU sich derzeit allein auf die Verbesserung der Aufsicht von Banken konzentriert, lässt sich aus theoretischer Sicht daher nicht rechtfertigen. Erklären kann man sie nur mit den politischen Motiven: Es geht darum, Probleme zu beseitigen, die sich in der Vergangenheit vor allem im Bereich beaufsichtigter Kreditinstituten gezeigt haben. Hier besteht auch durch die Wahrnehmung der Öffentlichkeit „Handlungsdruck". Dass ähnliche Probleme in derselben oder einer noch schwerwiegenderen Form bei anderen Akteuren auftreten können, wird demgegenüber vernachlässigt. Eine ordnungsökonomisch informierte Reform hätte demgegenüber grundsätzlich anders angesetzt. Zunächst wäre eine gründliche Untersuchung der Risiken notwendig gewesen, für die vorgesorgt werden soll. Es hätte ermittelt werden müssen, von welchen Akteuren diese ausgehen. Erst aufgrund dieser Analyse hätte eine neue Aufsichtsbehörde eingerichtet und der Umfang ihrer Befugnisse festgelegt werden dürfen.

340

Matthias Lehmann

Dagegen könnte man einwenden, dass sich Aufsichtssysteme nicht am Reißbrett entwerfen lassen, sondern sich aus den bereits vorhandenen Strukturen ergeben und in diesem Sinne „pfadabhängig" sind (Hopt 2009, S. 1403). Angesichts der Studien des FSB und der eigenen Vorarbeiten zur Regulierung von Schattenbanken (Europäische Kommission 2012) wird es allerdings nicht lange dauern, bis auch die derzeitigen Strukturen eingerissen und neue an ihre Stelle gesetzt werden. Das Ergebnis wird eine Aufsichtsreform „in Permanenz" sein. Demgegenüber wäre ein auf Dauer angelegtes System vorzugswürdig.

VI. Institutionelle Organisation 1. Kooperationsmechanismus vs. eigenständige Institution Wenn man anerkennt, dass die Bankenaufsicht am besten auf der europäischen Ebene verortet ist, heißt dies noch nicht notwendig, dass dort eine eigene Behörde mit dieser Aufgabe betraut werden müsste. Als Alternative besteht die Möglichkeit, eine Kooperation der nationalen Aufseher in grenzüberschreitenden Fragen vorzusehen. Dem Modell des Kooperationsmechanismus folgte die Europäische (Wirtschafts-) Gemeinschaft im Bankbereich lange Zeit. Sie richtete Aufsichtskollegien (supervisory Colleges) ein, in denen sich die nationalen Aufseher bezüglich der Aufsicht insbesondere über grenzüberschreitende Finanzkonglomerate abstimmten. Daneben gab es weitere Gremien wie das Banking Supervisory Committee, das Banking Advisory Committee und die Kontaktgruppe (Groupe de contact). Diese hatten beratende Funktion, aber keine formelle Kompetenz zur Regelsetzung oder Aufsicht (Andenas/Panourgias 2002, S. 126). Im Jahre 2003 wurde diese Zusammenarbeit im Rahmen des Financial Services Action Plan auf eine neue Stufe gehoben. Die Kommission gründete das Committee of European Banking Supervisors (CEBS), das sich aus hochrangigen Vertretern der nationalen Aufsichtsbehörden sowie der Zentralbanken zusammensetzte (Kolassa 2011, § 139 Rn. 7; Tsatsaronis 2008, S. 681). Dieses hatte die Befugnis zum Erlass von Leitlinien, Empfehlungen zu Auslegungsfragen und best practices (Tsatsaronis 2008, S. 681). Vorteil dieser Konstruktion ist es, dass die Vorzüge einer dezentralen Aufsicht Stichworte: Nähe der Aufseher zu den Beaufsichtigten, localknowledge - aufrechterhalten und mit denen einer dauerhaften Struktur verbunden werden konnten. Ihr Nachteil ist jedoch die institutionelle Schwerfälligkeit. Auf Kooperation angelegte Mechanismen können nicht schnell genug auf neue Entwicklungen an den Finanzmärkten reagieren. Insbesondere werden Informationen nicht in Echtzeit ausgetauscht und analysiert (Adenas/Panourgias 2002, S. 121). Außerdem werden sie von inneren Konflikten geplagt: Die Vertreter der verschiedenen Behörden haben eine Tendenz, wirklichen oder vermeintlichen nationalen Interessen bei der Ausübung der Aufsicht zu folgen. Von Teilnehmern an Aufsichtskollegien kann man hören, dass dort häufig nur „nichtssagende Powerpoint-Präsentationen" ausgetauscht würden. Die Vertreter der

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 341

einzelnen Staaten würden „in unerträglicher Weise mauern" und den anderen Aufsichtsbehörden für deren Tätigkeit wichtige Informationen vorenthalten, teils aus falsch verstandenen Souveränitätserwägungen heraus, teils weil sie selbst entsprechende Informationen von den anderen Behörden nicht erhalten. Im Ernstfall verfolgen die verschiedenen Repräsentanten die Interessen ihres jeweiligen Staats, so dass die Entscheidungsfindung schwierig oder sogar unmöglich ist. Sie sperren sich daher gegen objektiv notwendige Maßnahmen, wie z.B. die Abwicklung nationaler BankenChampions". Vorzugswürdig ist daher die Einrichtung einer Behörde auf supranationaler Ebene. Diese soll die Aufsicht nicht allein wahrnehmen, sondern im Zusammenspiel mit den nationalen Instituten. Letztere müssen daher fortbestehen, werden aber - nicht unähnlich den Zentralbanken im Europäischen System der Zentralbanken (ESZB) - in eine Hierarchie eingegliedert.

2. Zentralbank vs. besondere Aufsichtsbehörde Die Probleme der dezentralen Aufsichtsstruktur haben sich in der Finanzkrise deutlich gezeigt. Als Reaktion darauf wurde eine eigene Behörde, die EBA, eingerichtet. Diese hat jedoch nur beschränkte Aufsichtsbefugnisse. Für den Währungsraum des Euro sind weitere Reformschritte unausweichlich (Europäische Kommission 2012a). Für die angestrebte Bankenunion wird die Übertragung der Bankenaufsicht auf die EZB vorgeschlagen (Europäische Kommission 2012a, b). Damit ist die ordnungspolitische Kernfrage angeschnitten: Wer sollte Banken überwachen, die Zentralbank oder eine von ihr getrennte Institution? Die Befürworter einer Zuordnung der Aufsicht zur Zentralbank verweisen darauf, dass diese im Rahmen ihrer Tätigkeit ohnehin die Eigenmittelausstattung und Liquidität von Geschäftsbanken prüfen muss (Goodhart/Schoenmaker 1993, S. 334 f.; Andenas/ Panourgias 2002, S. 143). Letztere emittieren den größten Teil der Geldmenge M3, dessen Wachstum die Zentralbank beaufsichtigt (Säinz de Vicuna 2001, S. 25). Die Mitarbeiter der Zentralbank verfügen daher über weitreichende Informationen und Erfahrungen durch den Umgang mit dem Banksektor. Es erscheint unsinnig, diese Faktoren nicht für die Bankenaufsicht zu nutzen. Außerdem wird hervorgehoben, dass der Zentralbank die Aufgabe übertragen ist, die Funktionsfahigkeit der Zahlungssysteme zu sichern13. Da diese ganz überwiegend von privaten Banken unterhalten werden, muss die Zentralbank diese ohnehin teilweise überwachen (Goodhart/ Schoenmaker 1993, S. 349). Schließlich betonen die Befürworter, dass die Zentralbank in ihrer Funktion als lender of last resort ein Interesse an der Funktionsfähigkeit der Geschäftsbanken hat und vielfach sogar deren Rettung organisieren muss. Dies lässt sich nur schwierig von der Aufsichtsfunktion trennen (Andenas/Panourgias 2002, S. 144; Goodhart/Schoenmaker 1993, S. 350-352).

13

Siehe Art. 127 Abs. 2, Spiegelstrich 4 AEUV.

342

Matthias Lehmann

Das hauptsächliche Argument der Gegner einer Übertragung der Bankenaufsicht auf die Zentralbank ist die Gefahr, dass diese das Ziel der Finanzmarktstabilität mit dem ihr übertragenen Kernziel der Preisstabilität vermischt (Gianviti 2010, S. 482 Rn. 22.111). Sie könnte z.B. von einer zur Bekämpfung der Inflation notwendigen Zinserhöhung Abstand nehmen, weil diese die von ihr beaufsichtigte Geschäftsbanken in Schwierigkeiten bringen würde. Dadurch würde das Langzeitziel der Preisstabilität zugunsten kurzfristiger Stabilitätserwägungen geopfert. Die Befürworter der Bankenaufsicht durch die Zentralbank leugnen den daraus resultierenden Interessenkonflikt nicht. Sie weisen allerdings darauf hin, dass dieser nicht persönliche Interessen betrifft, sondern unterschiedliche Politikziele oder ökonomische Modelle (Goodhart/Schoenmaker 1993, S. 340 f.). Er würde daher selbst bei Schaffung einer eigenständigen Behörde fortbestehen und müsste gelöst werden. Die gleichzeitige Übertragung der Wächteraufgabe für Preis- und Finanzmarktstabilität auf eine einzige Institution würde diese Lösung in gewissem Sinne erleichtern, da sie den Konflikt internalisiert und der Zentralbank ein Optimalisierungsgebot auferlegt (Andenas/Panourgias 2002, S. 149). Tatsächlich liegt das Hauptproblem nicht in der Vermischung zweier Ziele, die sich ohnehin nur in der Theorie sauber voneinander trennen lassen. Auch eine vermeintliche Allmacht der Zentralbank, vor der sich viele unausgesprochen furchten, ist nicht der Kern der Schwierigkeiten. Vielmehr ist das wesentliche Hindernis einer Übertragung der Bankenaufsicht auf die Zentralbank, dass letztere mit einer besonderen rechtlichen Position ausgestattet ist, die sie von anderen Institutionen unterscheidet. Diese Position ist ihre Unabhängigkeit, welche im Falle der EZB durch die Gründungsverträge verbürgt ist.14 Die Unabhängigkeit in funktioneller Hinsicht ist nach eigenem Bekunden der EZB kein Selbstzweck, sondern nur durch die besondere Aufgabe der Erhaltung der Preisstabilität gerechtfertigt (EZB 2004, S. 28). Welche Maßnahmen erforderlich sind, um die Preisstabilität zu wahren, sollen nur die Experten der Zentralbank entscheiden, weil von ihnen vermutet wird, dass sie über die größte fachliche Kompetenz dazu verfügen. Gerichte können ihre Entscheidungen auch ex post nicht in Frage stellen, weil sie selbst die Situation ex ante nicht besser hätten beurteilen können. Eine vergleichbare Unabhängigkeit sieht der Verordnungsentwurf für eine Bankenunion auch bei der Aufsicht über Geschäftsbanken vor.15 Dies ist jedoch nicht zu rechtfertigen. Die Bankenaufsicht ist eine klassische Aufgabe der Gefahrenabwehr, vergleichbar etwa der Gewerbe- oder Gaststättenaufsicht. Aufgaben dieser Art werden üblicherweise durch einen hierarchisch geordneten Verwaltungsbetrieb wahrgenommen, an dessen Spitze ein Minister mit politischer Verantwortlichkeit steht. Die Maßnahmen, welche die Verwaltung trifft, können von den Betroffenen mit Rechtsbehelfen angegriffen werden. Es besteht kein Grund, die Bankenaufsicht anders auszugestalten. Die Behörde, welche Geschäftsbanken beaufsichtigt, ist daher in die Verwaltungshierarchie

14 15

Vgl. Art. 130, 282 Abs. 2 S. 4 AEUV. Siehe Rat der Europäischen Union, Ausschuss der ständigen Vertreter, Vorschlag für eine Verordnung des Rates zur Übertragung besonderer Aufgaben im Zusammenhang mit der Aufsicht über Kreditinstitute auf die Europäische Zentralbank, Art. 16, erhältlich unter http://register.consilium. europa.eu/pdf/de/13/st07/st07776-reO 1 .de 13.pdf(zuletzt besucht am 31.5.2013).

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 3 4 3

einzugliedern. Die von ihr getroffenen Aufsichtsmaßnahmen müssen gerichtlich vollständig überprüfbar sein. Dagegen könnte man einwenden, eine Eingliederung in eine strikte Hierarchie wie auf nationaler Ebene sei nicht denkbar. Denn innerhalb der Eurozone gibt es nicht ein zuständiges Finanzministerium, sondern 17 Finanzminister, die im Rat zusammenwirken. Diese können der EZB nicht im selben Maße Vorschriften machen, wie es ein einzelnes Ministerium könnte. Dieser Unterschied resultiert allerdings aus der besonderen Struktur der EU, die nun einmal nur Kollektivorgane kennt. Diese schließen beispielsweise Rechenschaftspflichten nicht aus, die im Entwurf sogar ausdrücklich vorgesehen sind.16 Soll der EZB die Aufsicht über Geschäftsbanken als Aufgabe übertragen werden, so darf daher entgegen dem Vorschlag der Kommission insoweit ihre Unabhängigkeit nicht greifen. Das heißt nicht, dass die EZB generell nicht geeignet wäre, diese Aufgabe wahrzunehmen. Vielmehr sind Vorkehrungen denkbar, um ihre Unabhängigkeit in monetären Fragen zu sichern und sie gleichzeitig hinsichtlich der Bankenaufsicht politischer und rechtlicher Kontrolle zu unterstellen. Es wäre z.B. nötig, besonderes Personal mit den jeweiligen Aufgaben zu betrauen. Zwischen den verschiedenen Abteilungen müssten sogenannte Chinese walls errichtet werden, um nicht die Grundsätze der einen mit der der anderen zu vermischen. Werden diese Anforderungen erfüllt, so ist gegen eine Bankaufsicht durch die Zentralbank nichts einzuwenden. Allerdings handelt es sich dann bei der EZB nur noch dem Namen nach um eine einheitliche Institution. Tatsächlich würden sich zwei Einrichtungen dahinter verbergen, eine unabhängige mit monetären Aufgaben und eine in die Verwaltungshierarchie eingegliederte mit der Aufgabe der Bankaufsicht. Es fragt sich, warum man dann nicht gleich eine spezialisierte Behörde außerhalb der EZB einrichtet und diese mit der Bankenaufsicht betraut. Der organisatorische Aufwand wäre jedenfalls kaum größer, und das dazu erforderliche Personal mit Sachkenntnis könnte von den Zentralbanken des Europäischen Zentralbanksystems (EZBS) gestellt werden. Dass man sich insoweit nicht auf die Reputation und das Ansehen der EZB stützen könne, ist ein Scheinargument, denn diese haben in der Finanzkrise gelitten und drohen noch mehr zu verfallen, müsste die Bank auch Verantwortung für Bankenpleiten übernehmen. Der große Vorteil einer institutionellen Trennung wäre, dass die Aufsicht nicht auf einen bestimmten Sektor der Finanzwirtschaft beschränkt werden müsste. Dadurch würde von vornherein eine Beschränkung der makroprudentiellen Aufsicht auf formal als „Kreditinstitute" eingeordnete Akteure vermieden. Auch Schattenbanken und andere für die Finanzsystemstabilität relevante Einrichtungen könnten erfasst werden. Außerdem wäre die Unabhängigkeit der Zentralbank in monetären Fragen nicht durch eine teilweise Eingliederung in die Verwaltungshierarchie kompromittiert. Zwar könnten Zielkonflikte zwischen Preisstabilität und Finanzmarktstabilität nicht innerhalb der Zentralbank aufgelöst werden. Diese Aufgabe ließe sich jedoch auch auf andere Weise erfüllen, z.B. im Rahmen eines mit eigenen Befugnissen ausgestatteten ESRB, in dem sowohl die Zentralbank als auch die Bankenaufsichtsbehörde vertreten sind. 16

Siehe Rat der Europäischen Union a.a.O., Art. 17.

344

Matthias Lehmann

VII. Beziehungen zu Drittstaaten Jede Aufsicht muss sich mit denen anderer Staaten oder Regionen abstimmen. Kerngebote sind Koordination und Kooperation (BIS 2003, S. 7; Alexander/Dhumale/ Eatwell 2006, S. 167-169). Innerhalb der Eurozone mit ihren integrierten Finanzmärkten reicht dies allerdings nicht aus. Bei ihr sind eigene Institutionen zur Beaufsichtigung der Banken notwendig. Nach den derzeitigen Plänen soll diese Aufgabe wie gesehen von der EZB übernommen werden. Allerdings können Konflikte mit den anderen, bereits etablierten Institutionen auftreten, insbesondere der EBA als Aufsichtsbehörde der 28 Mitgliedstaaten der EU. Dieser Konflikt lässt sich juristisch gesehen nicht erfassen: Rein rechtlich wäre die EZB eine Aufsichtsbehörde wie alle anderen nationalen, vergleichbar etwa der Bank of England. Tatsächlich aber ist ihre Position weitaus gewichtiger, denn sie vertritt nicht nur einen, sondern 17 Staaten. Zudem spielt sie bereits in anderen Institutionen, wie dem ESRB, eine entscheidende Rolle. Vor allem besteht bei den Nicht-Euro-Staaten die Sorge vor einem Verlust an Einfluss durch die Einfuhrung einer einheitlichen Bankenaufsicht in der Eurozone. Selbst wenn nicht die EZB, sondern jeder der 17 Euro-Staaten seinen Repräsentanten in die EBA entsenden würde, besteht die Befürchtung, dass diese wegen der gemeinsamen Aufsichtsstruktur stets als Block abstimmen könnten. Daraus erwächst aus der Sicht der anderen Staaten die Gefahr, ständig überstimmt und zu EUMitgliedern zweiter Klasse degradiert zu werden. Auf die Frage, wie diesem Konflikt zwischen Staaten innerhalb und außerhalb der Eurozone vorzusorgen ist, gibt es keine einfache Antwort. Richtete man statt der EZB eine besondere Aufsichtsbehörde für die Banken der Eurozone ein, würde sich an dem Problem nur wenig ändern, denn lediglich die Doppelung der Funktion der EZB als Aufsichtsbehörde und als Mitglied im ESRB wäre beseitigt. Um die Besorgnisse der Nicht-Euro-Staaten zu mildern, enthält der Vorschlag der Kommission eine Öffnungsklausel, welche diesen ermöglicht, sich ebenfalls der Aufsicht der EZB zu unterstellen (Europäische Kommission 2012b, Art. 6). Dass sie davon Gebrauch machen würden, ist allerdings unwahrscheinlich, denn dies wäre mit dem Verlust der Hoheit über die Banken bei gleichzeitiger Nichtteilnahme am Euro verbunden. Sie fordern stattdessen, dass jeder Beschluss der EBA an eine doppelte Mehrheit gekoppelt ist, nämlich die Zustimmung der Mehrheit aller Mitgliedstaaten einerseits und der Mehrheit der NichtEuro-Staaten andererseits. Aus ordnungspolitischer Sicht ist ein solches Erfordernis abzulehnen, denn es würde die Aufsicht lähmen. Darüber hinaus gilt der Grundsatz, dass nur diejenigen, die den Entscheidungen einer bestimmten Institution unterworfen sind, auf deren Politik Einfluss nehmen können sollten. Das trifft auch für die EZB zu. Haben sich innerhalb eines integrierten Wirtschaftsblocks wie der EU tiefere Integrationsstrukturen herausgebildet, so ist dies mit neuen Mehrheitsverhältnissen verbunden. Das ist nur natürlich und ändert sich auch nicht dadurch, dass diese Staaten nunmehr formell eine Bankenunion eingehen. Eine Abstimmung der Euro-Staaten als Block ist auch ohne diese möglich, denn gemeinsame Interessen schmieden gemeinsame Interessen unabhängig von einer übergeordneten Aufsicht. Deren Schaffung ist ja gerade Ausdruck der gemeinsamen Interessen der teilnehmenden Staaten. Auf der anderen Seite sind die nationalen Auf-

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 3 4 5

seher der Eurozonenmitglieder natürlich auch nicht gehindert, innerhalb der EBA unterschiedlich abzustimmen und so zu versuchen, eine EZB-Entscheidung, bei der sie womöglich unterlegen waren, zu revidieren. Den übrigen Staaten bleibt nur, sich den veränderten Realitäten anzupassen, sich selbst der Mehrheit durch einen weiteren Integrationsschritt anzuschließen, oder aus dem gemeinsamen Wirtschaftsblock auszutreten.

VIII. Schlussfolgerung Die Aufsicht über grenzüberschreitend tätige Kreditinstitute lässt sich nicht einfach organisieren. Es besteht ein Widerspruch zwischen dem Aufseher und dem zu Beaufsichtigenden: Während der eine seine Kompetenzen nur im nationalen Bereich ausüben kann, ist der andere in vielen Staaten tätig. Daraus resultiert mit Notwendigkeit ein Informations- und Koordinationsdefizit. Mit besonderer Dringlichkeit stellt sich das Problem innerhalb regionaler Wirtschaftsblöcke mit integrierten Märkten. Es kann nur mittels einer Aufsicht auf höherer Ebene als der des Nationalstaats überwunden werden. Die Ausgestaltung der Aufsicht ist im Wesentlichen von den historischen Gegebenheiten und kulturellen und wirtschaftlichen Eigenheiten des jeweiligen Gebiets abhängig. Trotzdem lassen sich einige ordnungsökonomische Grundsätze formulieren. Die Aufsicht sollte in einem Mehrebenensystem auf der Ebene angesiedelt sein, auf dem sich die jeweiligen Risiken effizient überwachen lassen. Für Konflikte zwischen den verschiedenen Ebenen sollten möglichst eindeutige Regeln formuliert werden. Weiter sollte die Aufsicht nahe bei den zu Beaufsichtigenden sein, um die Vorteile des local knowledge zu nutzen. Außerdem sollte sie der Realität der jeweiligen Industrie entsprechen. Daraus folgt, dass eine auf Banken begrenzte besondere Aufsicht nicht empfehlenswert ist. Dies spricht zugleich gegen eine Übertragung der Aufsicht auf die Zentralbank. Die von der EU gerade auf den Weg gebrachte Bankenunion entspricht vielen dieser Grundsätze nicht. Man täte ihr allerdings Unrecht, wenn man sie allein deshalb verwerfen würde. Gegenüber dem bisherigen Zustand einer national zersplitterten Aufsicht bedeutet sie einen eindeutigen Fortschritt. Allerdings ist ihre Weiterentwicklung in der Zukunft, z.B. die Einbeziehung anderer Sektoren neben dem Banksektor, unumgänglich. Gegen eine Reform ließe sich einwenden, dass auch sie die nächste Krise nicht verhindern wird. Das ist sicherlich richtig. Defätismus ist trotzdem unangebracht. Denn Ziel jeder Reform kann rationalerweise nur sein, bekannte oder vorhersehbare Probleme zu beseitigen. Wer dies nicht tut, muss sich zu Recht den Vorwurf gefallen lassen, nicht alles in seiner Macht Stehende getan zu haben, um Krisen zu verhindern. Die unknown unknowns kann man hingegen erst angehen, wenn sie sich zu knowns gemausert haben.

346

Matthias Lehmann

Literatur Andenas, Mads /Panourgias, Lazaros E., Applied Monetary Policy and Bank Supervision by the ECB, in: Norton/Adenas, International Monetary and Financial Law Upon Entering the New Millenium, London 2002, S. 119-170. Adrian, Tobias/Ashcroft, Adam/Boesky, Hayley/Poszar, Zoltan, Shadow Banking, Revue d'économie financière 105 (2012), 157-184. Alexander, Kern /Dhumale, Rahul /Eatwell, John, Global Governance of Financial Systems, Oxford 2006. Baele, Lieven /.Ferrando, Annalisa /Hördahl, Peter/Krylova, Elizaveta/Monnet, Cyril, Measuring European Financial Integration, Oxford Review of Economic Policy, Vol. 20, No. 4, Winter 2004, wiederabgedruckt in: Freixas/Hartmann/Mayer, Handbook of European Financial Markets and Institutions, 2008, S. 165-194. Baker, Andrew /Hudson, David /Woodward, Richard, Introduction: financial globalization and multi-level governance, in: Baker/Hudon/Woodward, Governing Financial Globalization, London, New York 2005, S. 3-23. Bank for International Settlement (BIS), Committee on Banking Supervision, High Level Principles for Cross-Border Implementation of the New Accord, August 2003. de Bandt, Olivier/Hartmann, Philipp, Systemic Risk: A Survey, ECB Working Paper Nr. 35, 2000. Bergmann, Jan, Subsidiarität, in: Bergmann (Hrsg.), Handlexikon der Europäischen Union, 4. Aufl. Baden-Baden 2012, S. 866. Briault, Clive, The Rationale for a Single National Financial Services Regulator, in: World Bank (Hrsg.), European Union Accession. Opportunities and Risks in Central European Finance, Washington D.C. 1999, S. 211-226. Carmichael, Jeffrey/Pomerleano, Michael, The Development and Regulation of Non-Bank Financial Institutions, Washington D.C. 2002. Elliot, Douglas J., Key Issues on European Banking Union, Global Economy & Development Working Paper 52, November 2012. Eucken, Walther, Unser Zeitalter der Misserfolge. Fünf Vorträge zur Wirtschaftspolitik, Tübingen, 1951. Europäische Zentralbank, Konvergenzbericht 2004. Federal Reserve Bank of New York, Shadow Banking, Staff Report Nr. 458, überarbeitete Fassung, Februar 2012. Financial Stability Board, Shadow Banking: Strengthening Oversight and Regulation, 27.10.2011. Financial Stability Board, Consultative Document: Strengthening Oversight and Regulation of Shadow Banking, 18.11.2012. Flechtner, Harry M., The Several Texts of the CISG in a Decentralized System - Observations on Translations, Reservations and other Challenges to the Uniformity Principle in Article 7(1), 17 Journal of Law and Commerce 187-217 (1998). Follak, Klaus Peter, The Basle Committee and EU Banking Regulation in the Aftermath of the Credit Crisis, in: Giovanili/Devos, International Monetary and Financial Law, Oxford 2010, 5. 177-203. Gianviti, François, The Objectives of Central Banks, in: Giovanoli/Devos, International Monetary and Financial Law. The Global Crisis, Oxford, 2010, S. 449-483. Goodhart, Charles A.E./Schoenmaker, Dirk, Institutional Separation between Supervisory and Monetary Agencies, in: Goodhart, The Central Bank and the Financial System, Houndmills, London 1995, S. 333-413 (Wiederabdruck in Bruni, Prudential Regulation, 1993, S. 353439). Gropp, Reint/Hakenes, Hendrik/Schnabel, Isabel, Competition, Risk-Shifting, and Public BailOut Policies, European Business School Research Paper No. 09-13, 2009. Grossman, Emiliano, European banking policy, in: Baker/Hudon/Woodward, Governing Financial Globalization, London, New York 2005, S. 130-146. Grote, Rainer/Marauhn, Thilo, The Regulation of International Financial Markets, Cambridge 2006.

Die Ausgestaltung grenzüberschreitender Bankenaufsicht als ordnungspolitisches Problem • 347 Gstädtner, Thomas, EU Bankenunion - Qualität wichtiger als Zeitplan!, Ifo-Schnelldienst 1/2013, S. 7. Hadjiemmanuil, Christos, Institutional Strucutre of Financial Regulation: a Trend towards 'Megaregulators'?, in: Norton/Adenas, International Monetary and Financial Law Upon Entering the New Millenium, London 2002, S. 569-588. Hesse, Konrad, Grundzüge des Verfassungsrechts der Bundesrepublik Deutschland, 20. Aufl., Heidelberg 1999. Honnold, John, The Sales Convention in Action - Uniform International Words: Uniform Application?, 8 Journal of Law and Commerce 207-212 (1988). Hopt, Klaus J., Auf dem Weg zu einer neuen europäischen und internationalen Finanzmarktarchitektur, Neue Zeitschrift für Gesellschaftsrecht 2009, 1401-1408. Joerges, Christian, Interactive Adjudication in the Europeanisation Process? A Demanding Perspective and a Modest Example, ERPL 8 (2000), 1-16. Joerges, Christian, Rethinking European Law's Supremacy: A Plea for a Supranational Conflict of Laws, in: Kohler Koch/ Rittberger, Debating the Democratic Legitimacy of the European Union, Lanham, 2007, 311-327. Josselin, Daphné, Les réseaux en action, Paris 1996. Kolassa, Doris, Fragen der praktischen Umsetzung, in: Schimansky/Bunte/Lwowski, Bankrechts-Handbuch, 4. Aufl., München 2011, § 139. Lannoo, Karel, Supervising the European Financial System, CEPS Policy Brief Nr. 21, 2002. Lautenschläger, Sabine, Eine Bankenunion für Europa: Welcher Bauplan ist der richtige?, IfoSchnelldienst 1/2013, S. 3. Lehmann, Matthias/Manger-Nestler, Cornelia, Das neue Europäische Finanzaufsichtssystem, Zeitschrift für Bankrecht und Bankwirtschaft 2011, S. 2-24. Llewellyn, David T. (2006), Institutional Structure of Financial Regulation and Supervision: T h e Basic Issues, Washington D.C., 6. und 7.6.2006. Masciandaro, Donato{2004), Unification in financial sector supervision: The trade-off between central bank and single authority, Journal of Financial Regulation and Compliance 12 (2004), 151-169. Masciandaro, Donato{2005), Financial Supervision Architectures and the Role of Central Banks, The Transnational Lawyer 18 (2005), 351-370. Masciandaro, Donato/Quintyn, Marc, Regulating the Regulators: The Changing Face of Financial Supervision Architectures before and after the Crisis, European Company Law 6 (2009), 187. Millar, Anita, EU Banking Union - Operational Issues and Design Considerations, Report prepared for the International Regulatory Strategy Group, Oktober 2012. Mishkin, Frederic S., Prudential Supervision - What works and what doesn't, 2002. Norton, Joseph J., A 'New International Financial Architecture?': Reflections on the Possible Law-Based Dimensions, The New International Architecture: Is There a Workable Solution?, in: Attanasio/Norton, A new international financial architecture: A viable approach?, London 2001, S. 135-182. Pies, Ingo, in: Pies/Leschke, Walter Euckens Ordnungspolitik, Tübingen, 2002. Pisani-Ferry, Jean/Sapir, André/Véron, Nicolas/Wolff, Guntram B., What kind of European banking union?, Bruegel Policy Contribution 2012/12, 25. Juni 2012. Sáinz de Vicuña, Antonio, The ESCB and its Role in Banking Supervision, in: Attanasio/Norton, A new international financial architecture: A viable approach?, London 2001, S. 17-25. Sáinz de Vicuña, Antonio, The European Monetary Union as a Catalyst for the Integration of Financial Markets in Europa, in: Norton/Adenas, International Monetary and Financial Law upon Entering the New Millenium, London 2002, S. 99-110 Schmolke, Klaus Ulrich, Der Lamfalussy-Prozess im Europäischen Kapitalmarktrecht - eine Zwischenbilanz, Neue Zeitschrift für Gesellschaftsrecht 2005, 912-919. Sheng, Andrew, The New International Architecture: Is There a Workable Solution?, in: Attanasio/Norton, A new international financial architecture: A viable approach?, London 2001, S. 35-44. Tarashev, Nikola/Borio, Claudio/Tsatsaronis, Kostas, Attributing systemic risk to individual institutions, BIS Working Paper Nr. 308, Mai 2010. Taylor, Michael, Twin peaks: A regulatory structure for the new century, London 1995.

348

Matthias Lehmann

Tietje, Christian/Lehmann, Matthias, The Role and Prospects of International Law in Financial Regulation and Supervision, Journal of International Economic Law (JIEL) 13 (2010), 663682 (Wiederabdruck in: Thomas Cottier/John H. Jackson/Rosa M. Lastra (Hrsg.), International Law in Financial Regulation and Monetary Affairs, Oxford 2012, S. 133-150). Tritschler, Edgar Hermann, Subsidiarität in der Bankenaufsicht, Nomos, Baden-Baden, 2012. Tsatsaronis, Kostas, The Supervision of an Integrating European Banking Sector, in: Freixas/Hartmann/Mayer, Handbook of European Financial Markets and Institutions, Oxford 2008, S. 668-689. Williamson, Oliver, The Economic Institutions of Capitalism, New York 1985. Williamson, Oliver, The Mechanisms of Governance, Oxford, New York, 1996. Zusammenfassung In Zeiten transnational integrierter Finanzmärkte stellt die optimale Ausgestaltung der Finanzaufsicht eine besondere Herausforderung dar. Der vorliegende Beitrag nimmt die Pläne der EU zur Einfuhrung einer einheitlichen Aufsicht zum Anlass, diese Schwierigkeiten näher zu untersuchen und Vorschläge aus ordnungspolitischer Sicht zu unterbreiten. Erörtert wird, ob die materiell-rechtliche Vereinheitlichung von Anforderungen genügt oder auch institutionelle Vorkehrungen zu deren Umsetzung getroffen werden müssen; welchen räumlichen und sachlichen Anwendungsbereich die supranationale Aufsicht haben sollte, ob sie sich etwa nur auf systemisch relevante oder auch auf andere Institute erstrecken sollte; ob das Modell der sektoralen oder das der Allfinanzaufsicht vorzuziehen ist; ob eine supranationale Aufsicht besser durch ein Kooperationsgremium der nationalen Aufseher oder durch eine eigenständige Behörde wahrgenommen werden kann und ob diese Behörde die Zentralbank oder ein separates Organ sein sollte. Am Ende des Beitrags stehen konkrete Vorschläge, die über den Tellerrand der derzeitigen politischen Diskussion hinausweisen.

Summary: The Optimal Design of Cross-Border Banking Supervision As a Policy Problem In times of transnationally integrated financial markets, the optimal design of financial supervision presents a particular challenge. Taking the Eurozone's plan for a banking union as a starting point, this article analyses the intricate problems and offers solutions from a policy perspective. It discusses whether uniform law-making needs to be supplemented by uniform institutional arrangements for law enforcement; what is the appropriate scope of supranational financial supervision, e.g. whether it should only include Systematically Important Financial Institutions (SIFIs); which approach (sectoral or integrated) to supervision is more fitting; whether supranational financial supervision should be conferred to a college of national supervisors or to a self-standing body and whether this body should be a Central Bank or a separate institution. The contribution results in some practically oriented proposals that show the way beyond the current political discussion.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Florian Möslein

Die Trennung von Wertpapier- und sonstigem Bankgeschäft: Trennbankensystem, ring-fencing und Volcker-Rule als Mittel zur Eindämmung systemischer Gefahren für das Finanzsystem Inhalt I. Einführung und Fragestellung

350

II. Grundmodelle im Vergleich

352

1. Institutsperspektive

352

2. Marktperspektive

353

III. GestaltungsVarianten

357

1. Klassisches Trennbankensystem

357

2. Aktivitätsbeschränkung

360

3. Spartentrennung

362

IV. Regulierungsaltemativen?

367

V . Fazit

369

Literatur

369

Zusammenfassung

375

Summary: The seperation o f investment and commercial banking: Dual banking system, ring-fencing and Volcker rule as means to reduce systemic risk for the financial system

376 „Je mehr Stabilisierung, umso weniger Stabilität" Wilhelm Röpke (1937/1994, S. 292) „Nicht das Trennsystem oder das Universalsystem als solches scheint es also zu sein, das für sich einen größeren Anlegerschutz vor Zusammenbrüchen bringt, sondern die Beachtung gesunder Geschäftspraktiken und die staatliche Durchsetzung gewisser Beschränkungen [...]" Klaus J. Hopt( 1975, S. 194 f.) „Aus Sicht der Bundesregierung ist die Einführung eines Trennbankensystems unter anderem an der Inhalts- und Schrankenbestimmung des Artikels 14 des Grundgesetzes (GG) zu messen, so dass die konkrete Ausgestaltung eines Trennbankensystems vor allem an den Vorgaben aus dem Grundsatz der Verhältnismäßigkeit zu messen wäre." Bundesregierung (2012, S. 7)

350

Florian Möslein

I. Einführung und Fragestellung Die Pflicht zur Trennung von Wertpapier- und sonstigem Bankgeschäft steht seit der globalen Finanzkrise (wieder) im Zentrum der rechtspolitischen Diskussion. Allgemein geht es um das Verbot, die bankbetriebliche Leistungserstellung im Bereich des Einlagen* und Kreditgeschäfts (sog. Commercial Banking) mit der Erbringung bestimmter Leistungen im Wertpapieremissions-, -kommissions-, Eigen- und Depotgeschäft (sog. Investment Banking) zu kombinieren. Finanzintermediäre, so lautet der Grundgedanke, die durch Selbsteintritt volkswirtschaftlich derart zentrale Transformationsfunktionen erfüllen, dass ihr Bestand durch kollektive Sicherungsmechanismen zu gewährleisten ist, sollen nicht gleichzeitig - zumindest nicht in den gleichen Geschäftseinheiten spekulative Wertpapiergeschäfte betreiben dürfen. Demnächst soll eine vergleichbare Regelung auch in Deutschland gelten. Die Einführung einer solchen Trennungsvorgabe hat nicht nur für den Bankensektor Bedeutung, sondern betrifft einen zentralen Grundpfeiler unserer marktwirtschaftlichen Ordnung. Die vergleichenden Gesellschaftswissenschaften beispielsweise, die verschiedene Spielarten des Kapitalismus (varieties of capitalism) unterscheiden, zählen die Art und Weise der Unternehmensfinanzierung zu den elementaren Differenzierungskriterien (Überblick bei Jackson/Deeg 2006). Der grundlegende Gegensatz zwischen der liberaleren, angloamerikanischen Form des Kapitalismus, bei der die Handlungskoordination primär über Wettbewerbsmechanismen erfolgt, und der kontinentaleuropäischen Variante, in der strategisch koordiniertes Handeln erheblich mehr Bedeutung hat (Hall/Soskice 2001; Hall/Gingerich 2004), schlägt sich demnach auch in Finanzierungsformen nieder. Während gemeinhin vor allem zwischen markt- und bankbasierten Finanzsystemen differenziert zu werden pflegt {Berglöf 1991; Deeg 1999; Edwards/Fischer 1994), betrifft ein zweiter, vorliegend im Zentrum stehender Unterschied die Banken unmittelbar selbst. Der Bankensektor war traditionell in zwei grundlegend verschiedenen Ordnungsalternativen organisiert, einerseits als Trennbankensystem, andererseits als Universalbankensystem: Während die USA mit dem Glass Steagall Act von 1933 die Trennung des Commercial Banking vom Investment Banking eingeführt und im Wesentlichen bis Ende der 90er Jahre beibehalten haben, gilt Deutschland seit jeher als Hochburg des Universalbankensystems, bei dem keine vergleichbaren Restriktionen gelten. Hierzulande genießen Banken bis dato die geschäftspolitische Freiheit, beide Arten von Bankleistungen zu kombinieren. Dieser zweite Unterschied, von den Gesellschaftswissenschaften bislang wenig beachtet, widerspricht deren skizzierter Schematisierung scheinbar diametral. Denn mit der strikten Pflicht zur Trennung der beiden bankbetrieblichen Geschäftsfelder erscheint die Regulierungsdichte im vermeintlich liberaleren angloamerikanischen System deutlich höher als im ansonsten stärker reglementierten System des „rheinischen Kapitalismus". Gleichwohl hängen diese beiden scheinbar widersprüchlichen Eigenheiten der jeweiligen Finanzsysteme möglicherweise aufs Engste miteinander zusammen. Als Ursache der stärkeren Marktbasierung kommt nämlich just die intensivere Regulierung des Bankensektors in Betracht. Die Pflicht zur Trennung von Wertpapier- und sonstigem Bankgeschäft erwiese sich in diesem Fall als geradezu stilbildend für die beiden grundlegenden Spielarten des Kapitalismus.

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

351

In der rechts- und wirtschaftswissenschaftlichen Literatur werden die Unterschiede zwischen Universal- und Trennbankensystem seit langem diskutiert. Die Vor- und Nachteile beider Systeme gelten bereits seit mehr als drei Jahrzehnten als „theoretisch herausgearbeitet" (Hopt 1977, S. 418), nachdem Hans Büschgen (1970) beide Ordnungsalternativen in einem Gutachten für die Gesellschaft für Bankwissenschaftliche Forschung auf mehr als 800 Seiten ausfuhrlich untersucht und Klaus J. Hopt sie in seiner wirkmächtigen Habilitationsschrift spezifisch unter dem Gesichtspunkt des Anlegerschutzes unter die Lupe genommen hatte (1975, S. 190-207).1 Die Wurzeln der wissenschaftlichen Diskussion reichen freilich noch viel weiter zurück (vgl. nur Weber 1902). Im Nachgang zur globalen Finanzkrise gewinnt die alte Frage nach der Trennung von Wertpapier- und sonstigem Bankgeschäft jedoch völlig neue Aktualität, und zwar aus - mindestens - drei verschiedenen Gründen. Erstens hat sich der Schwerpunkt der Pro und Contra-Argumente von der Mikro- auf die Makroebene verschoben, weil Fragen der Systemstabilität von Finanzmärkten seit der Krise allgemein in den Vordergrund rückten. Neben institutsbezogene Erwägungen treten deshalb vermehrt marktbezogene Begründungsmuster (siehe Kapitel II.). Hinzu kommt ein zweites Novum, nämlich dass die Trennung von Wertpapier- und sonstigem Bankgeschäft selbst neue Formen annimmt. Anstelle der bipolaren Unterscheidung zwischen Universal- und Trennbankensystem diskutiert man heute unterschiedliche regulatorische Ansätze, die eine solche Trennung bewirken sollen. Weil die Aufweichung des US-amerikanischen Trennbankensystems teils für die Finanzkrise mitverantwortlich gemacht wird (Grant 2010; Mikolayczyk 2011), wurden in den USA, aber auch in Großbritannien und auf europäischer Ebene entsprechende Reformvorschläge vorgelegt (siehe Kapitel III.). Die europäischen Vorschläge hat der deutsch-französische Ministerrat Anfang 2013 in einer feierlichen Erklärung als „wichtigen Beitrag für die Einführung einer rechtlichen Abtrennung besonders riskanter Banktätigkeiten" begrüßt (Presse- und Informationsamt der Bundesregierung 2013, S. 5), woraufhin die deutsche Bundesregierung hastig einen entsprechenden Gesetzentwurf vorlegte.2 Nachdem die Opposition bereits zuvor gleichsinnige Vorschläge in einem vieldiskutierten Positionspapier ihres Kanzlerkandidaten vorgelegt hatte {Steinbrück 2012, S. 11 f.), herrscht auf einmal breiter politischer Konsens über einen Systemwechsel, der die herkömmliche Spielart unserer marktwirtschaftlichen Ordnung möglicherweise grundlegend verändert. In denkbar kurzer Frist hat das „Gesetz zur Abschirmung von Risiken und zur Planung der Sanierung und Abwicklung von Kreditinstituten und Finanzgruppen", dessen Artikel 2 die Trennbankenregeln statuiert, inzwischen den Gesetzgebungsprozess durchlaufen und wird zum 31. Januar 2014 in Kraft treten. Die wissenschaftliche Auseinandersetzung mit Trennbankensystemen tut insofern dringend Not. Der dritte Grund, aus dem dieses Thema neue Aktualität gewinnt, besteht schließlich darin, dass eine Reihe sonstiger Regulierungsmaßnahmen ersichtlich ist, die gleichermaßen auf die Eindämmung systemischer Gefahren für das Finanzsystem abzielen, ohne die Trennung von Wertpapier- und sonstigen Bankgeschäften explizit vorzuschreiben. Durch Schaffung ent' 2

Vgl. außerdem, zum US-amerikanischen Trennbankensystem und etwa aus der gleichen Zeit: Möschel (1978); femer New (1976); Schulz-Henning (1980). Bundesregierung (2013).

352

Florian Möslein

sprechender Anreize könnten sich auch solche Maßnahmen auf Bankenstrukturen auswirken, so dass sie als regulatorische Alternative zumindest kurz anzusprechen sind (siehe Kapitel IV). Sofern die Trennung von Wertpapier- und sonstigen Bankgeschäften rechtspolitisch erwünscht ist, könnten solche anreizorientierten Regulierungsinstrumente nämlich ein milderes, aber möglicherweise gleichermaßen geeignetes Mittel zur Erreichung jenes Ziels darstellen.

II. Grundmodelle im Vergleich Im Ausgangspunkt stellt sich die Frage nach den Vor- und Nachteilen eines Trennbankensystems im Vergleich zum Universalbankensystem. Während diejenigen Gesichtspunkte, die primär die einzelwirtschaftliche, institutsbezogene Perspektive betreffen, im Wesentlichen bereits vor Jahrzehnten ausgetauscht waren, gilt das Augenmerk vor allem den gesamtwirtschaftlichen, marktbezogenen Überlegungen, die inzwischen die Diskussion dominieren. Keine Berücksichtigung finden dagegen jene Argumente, die in Wahrheit das Bankensystem als solches in Frage stellen, etwa mit der Forderung nach einer Vergesellschaftung der Banken.3

1. Institutsperspektive a.

Interessenkonflikte

Auf einzelwirtschaftlicher, institutsbezogener Ebene wird für ein Trennbankensystem vor allem das Argument vorgebracht, die Kombination verschiedener Geschäftsfelder in Universalbanken berge erhebliches Konfliktpotential. So können sich beispielsweise Interessenkonflikte zwischen Emissions- und Einlagengeschäft ergeben, wenn Banken minderwertige Wertpapiere emittieren, um diese überteuert an ihre Einlagenkunden zu verkaufen. Das Trennbankensystem erscheint in diesem Beispiel als ein Instrument des Verbraucherschutzes zu Gunsten vermeintlich schlecht informierter Anleger (Focarelli u.a. 2011; Zentrum für Europäische Wirtschaftsforschung 2013, S. 5). Allgemeiner sollen sich aus den unterschiedlichen Funktionen, die Universalbanken erfüllen, Verflechtungen ergeben, die Informationsasymmetrien verstärken und Interessenkonflikte begründen. Banken, die gleichzeitig als Kreditgeber, Anteilseigner, Anlageberater und Depotverwalter des Finanzvermögens eines Unternehmens agieren und dabei die Interessen von Eigentümern, Regulierungsbehörden und Mitarbeitern balancieren müssen, fehlt nach dieser Ansicht eine widerspruchsfreie Zielfunktion, die indessen notwendige Voraussetzung für anreizkompatible interne Vertragsstrukturen wäre {Blum 2012). Jedenfalls sei die Transparenz in Trennbankensystemen höher, weil Risiken dort sichtbar gemacht würden, wo sie entstanden seien und die Haftung für Risiken dort stattfinde, wo die Gewinne aus den Risiken vereinnahmt würden (Steinbruck 2012, S. 12). 3

Vor der Vermengung beider Argumentationsebenen warnte bereits Büschgen (1977, S. 29): „In der öffentlichen Diskussion über die Macht der Banken und über Reformen des Universalbankensystems sollte daher jeweils genauer festgehalten werden, unter welchem Zielsystem und unter welchen Wertkriterien die fiir möglich gehaltenen Konsequenzen universalbankbetrieblichen Handelns negativ bewertet werden und wie andere Wertsysteme oft durchaus ein anderes Urteil rechtfertigen können".

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

353

Umgekehrt drohen allerdings in Trennbankensystemen ebenfalls Interessenkonflikte. Denn einerseits unterliegen reine Emissionsbanken auf Grund ihrer Spezialisierung einem sogar noch stärkeren Verkaufsdruck {Hopt 1975, S. 195 f.). Andererseits können trotz institutioneller Trennung Verflechtungen bestehen, aus denen vergleichbar widersprüchliche Interessen resultieren, etwa die von einem Kooperationspartner emittierten Wertpapiere zu verkaufen. Die meisten Universalbanken, zumindest in Deutschland, haben ihren geschäftlichen Fokus ohnehin auf dem klassischen Bankgeschäft und bieten Kapitalmarktprodukte regelmäßig gemeinsam mit Verbundpartnern an (Bundesregierung 2012, S. 3). Selbst Spezialisierungsvorteile sind in Trennbanken nicht notwendig größer, sondern lassen sich in separierten Organisationseinheiten von Universalbanken gleichermaßen realisieren {Büschgen 1997, S. 19; ders. 1971, S. 47-53). Insgesamt wiegt das Argument bankinterner Interessenkonflikte deshalb nicht besonders schwer. b. Diversifizierungsvorteile Universalbanken bieten umgekehrt aus bankbetrieblicher Sicht den großen Vorteil, dass sie Diversifizierung zulassen. Allgemein ermöglicht Diversifizierung, Risiken zu reduzieren und Kosten zu senken. Trennungsgebote drohen daher, die klassischen Bankleistungen tendenziell zu verteuern (Birchler u.a. 2010, S. 30). Wenn nämlich die Risiken, die mit Wertpapiergeschäften einerseits und sonstigen Bankgeschäften andererseits einhergehen, nicht vollständig positiv korreliert sind, „so resultiert aus der Leistungsartendiversifikation ein risikopolitischer Diversifikationseffekt resp. eine Risikoreduktion dahingehend, dass unerwartete negative Ergebnisabweichungen des einen Geschäftsbereichs durch positive Ergebnisabweichungen des anderen Geschäftsbereichs gänzlich oder - mehr realitätsabbildend - zumindest partiell ausgeglichen werden können" {Büschgen 1997, S. 20). Die Kombination verschiedener Geschäftsfelder im Universalbankensystem ermöglicht demnach eine Verstetigung der Ertragsentwicklung, allerdings um den Preis einer ständigen „Quersubventionierung" zwischen diesen Bereichen {Driftmann 2012, S. 8; Martini 1991, S. 616).

2. Marktperspektive Erheblich mehr Gewicht, zumal aus regulatorischer Perspektive, haben die gesamtwirtschaftlichen, marktbezogenen Erwägungen. a. Systemische Risiken Als dasjenige Anlegerrisiko, das „im Universalbankensystem das größte Gewicht hat", galt bereits vor langem das Risiko der Substanzerhaltung {Hopt 1975, S. 193). Der Blick auf historische Beispiele zeigte allerdings bereits damals, dass „Bankkrisen den dem Trennsystem verschworenen Staaten ebensowenig fremd sind", was die Vermutung nahe legte, dass „die Universalbank wegen der Möglichkeiten zum Ausgleich in verschiedenen Geschäftssparten sogar der stabilere und infolge besserer Kapazitätsausnutzung vielleicht auch kostengünstiger arbeitende Bankentyp zu sein" scheine {ebenda, S. 194 f.; ausfuhrlich Büschgen 1970, S. 546-630). Nach den Erfahrungen der Finanzkrise interessiert heute nicht mehr nur das Risiko des Zusammenbruchs einzelner Finanzinstitute, sondern die daraus resultierende Ansteckungsgefahr, also das Risiko

354

Florian Möslein

eines Zusammenbruchs des Finanzsystems insgesamt, das sich aus der gegenseitigen Vernetzung der einzelnen Finanzinstitute ergibt. Ob diese systemischen Risiken in Trennbankensystemen geringer sind als in Universalbankensystemen, ist unter drei verschiedenen Gesichtspunkten zu diskutieren. Ein erster Gedankengang fußt wiederum auf der Mutmaßung, dass Bankenkrisen aus Geschäften der Investmentbanken, nicht jedoch aus sonstigen Bankgeschäften resultieren, und dass ein Trennbankensystem alleine schon deshalb gegenseitige Infektionen verhindern könne. Ob ein Übergreifen systemischer Risiken durch die Trennung von Geschäftssparten zu vermeiden wäre, steht allerdings keineswegs fest (Birchler 2010, S. 30 f.), sondern erscheint insbesondere im Lichte der Finanzkrise äußerst zweifelhaft. An deren Ausgangspunkt drohte nämlich just der Zusammenbruch einer reinen Investmentbank, Lehman Brothers, das gesamte Finanzsystem zu infizieren. Zudem resultieren Bankenkrisen auch, vielleicht sogar primär aus Kreditgeschäften, so dass bereits die Prämisse fehlgeht. Die Annahme eines erhöhten Insolvenzrisikos von Universalbanken, auf der (auch) diese Argumentationslinie letztlich beruht, darf seit langem als verworfen gelten. Zweitens erhofft man sich von einem Trennbankensystem, dass es als eine Art Größenbremse für Finanzinstitute wirkt und dadurch die so genannte „Too-big-to-fail"Problematik entschärft (Sieling 2011, S. 13). Trennungsvorgaben sollen demnach die Funktion eines Entflechtungsinstruments erfüllen: Sie sind insofern mit entsprechenden Instrumenten des Wettbewerbsrechts vergleichbar, stellen jedoch nicht unmittelbar auf Größenkennzahlen und Marktanteile ab, sondern erzwingen Entflechtungen entlang der Trennlinie der Geschäftszweige {Zimmer 2010, S. 31 f.; Zimmer/Rengier 2010, S. 119). Aus ebendiesem Grund erscheint fraglich, ob solche Vorgaben die erhofften Wirkungen zeitigen können. Größenwachstum lässt sich mit diesem Zuschnitt nicht effektiv verhindern; vielmehr können auch Spartenbanken ohne weiteres wachsen und - vorbehaltlich wettbewerbsrechtlicher Schranken - innerhalb ihres Segments sogar Monopolstellung erlangen. Trennbankensysteme setzen einzig der Diversifizierung eine Grenze; Diversifizierung jedoch korreliert nicht notwendig mit relativen oder absoluten Unternehmensgrößen. Hinzu kommt, dass systemische Risiken ohnehin nicht alleine aus der Größe von Finanzinstituten resultieren, sondern aus deren gegenseitiger Vernetzung („too interconnected to fail", vgl. Zimmer/Rengier 2010, S. 107; ferner Sachverständigenrat 2009, S. 141). Eine wirksame „Vernetzungsbremse" jedoch wären Trennbankensysteme nur dann, wenn sich diese Vernetzung ausschließlich aus solchen Geschäften ergäbe, die ein solches Regime untersagt. Reine Geschäftsbanken wären nur dann effektiv vor systemischer Ansteckung geschützt, wenn diese Ansteckung ausschließlich aus den ihnen verbotenen gegenseitigen Wertpapiergeschäften resultierte. In Wirklichkeit jedoch kann sich Systemrelevanz bzw. Systemgefahrdung aus ganz unterschiedlichen Vernetzungsformen ergeben (Mülbert 2011; Günther 2010). Entsprechend dem Forschungsstand zur analytischen Messung systemischer Risiken (überblicksweise Bundesbank 2010, S. 56-60) benennen die einschlägigen Regeln beispielsweise Verbindlichkeiten der Kreditinstitute untereinander sowie allgemein Interbankenbeziehungen (vgl. § 48b Abs. 2 Nr. 1 KWG bzw. Art. 6 Abs. 3 S. 1 Aufsichtsricht-

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

355

linie4). Weil Finanzinstitute in einem Trennbankensystem notwendig stärker spezialisiert sind und sich Handelseinheiten ausschließlich über den Kapitalmarkt refinanzieren können, wird ein solches System mutmaßlich sogar mehr solcher Interbankenbeziehungen erfordern und damit mehr marktliche Ansteckungskanäle aufweisen als ein Universalbankensystem. Indem Trennbankensysteme Spezialisierung forcieren und dadurch gegenseitige Vernetzung erhöhen, drohen sie mithin die systemischen Risiken eher zu erhöhen als zu reduzieren. Ein Trennbankensystem eignet sich daher weder als Größen- noch als Vernetzungsbremse. Neben Größe und Vernetzung kann indessen auch Komplexität Systemrisiken verursachen („too complex to fail", vgl. Herring 2003; ferner Wissenschaftlicher Beirat beim Bundesministerium fiir Wirtschaft und Technologie 2010, S. 32). Solche Komplexität kann wiederum auf der Kombination unterschiedlicher Geschäftsaktivitäten oder der Abhängigkeit von unterschiedlichen Märkten beruhen. Dass eine Trennung von Wertpapier- und sonstigen Bankgeschäften zur Komplexitätsreduktion beizutragen vermag, erscheint keineswegs ausgeschlossen. Allerdings ist Komplexität nur schwer quantifizierbar und gilt vor allem als Kriterium, das erst im Zusammenspiel mit Größe und Vernetzung für systemische Risiken verantwortlich gemacht werden kann {International Monetary Fund u.a. 2009, S. 13). Zumindest ist nicht erwiesen, dass ein isolierter Abbau von Komplexität Systemrisiken zu reduzieren vermag. Drittens schließlich sollen Trennbankensysteme helfen, die staatliche Einstandspflicht auf ein einzelnes Segment des Finanzsystems zu begrenzen. Zu gewährleisten sei nämlich alleine die Funktionsfahigkeit des Geschäftsbankensektors, weil das Geld- und Zahlungssystem, das zur zwingend notwendigen Infrastruktur der marktwirtschaftlichen Ordnung gehöre, ausschließlich von Geschäftsbanken betrieben werde.5 Refinanzierung über die Notenbank, Einlagensicherung und implizite Staatsgarantie ließen sich deshalb auf den Geschäftsbankensektor begrenzen, während riskante Wertpapiergeschäfte auf das ausschließlich eigene Risiko der - ungesicherten - Investmentbanken zu erfolgen hätten (Benston 1989; vgl. auch Socher 2012, S. 4 f.). Fällt jede Aussicht auf staatliche Hilfen weg, würden Investmentbanken von vorneherein vorsichtiger wirtschaften (Sinn 2010). Ein politisches Postulat des SPD-Vorsitzenden bringt diesen Gedankengang bündig auf den Punkt: „Ich möchte, dass beim Geschäftsfeld des Investmentbanking ein ganz großes Schild an der Tür steht mit der Aufschrift: Hier endet die Staatshaftung" (Gabriel 2011, S. 23). Gegen dieses Petitum spricht allerdings schon die praktische Erfahrung der Finanzkrise, die nämlich gerade zeigte, dass Staaten selbst reine Investmentbanken wie Lehman Brothers nicht insolvent gehen lassen können, ohne ein Zusammenbrechen des gesamten Finanzsystems zu riskieren (Burghof 2012; Sinn 2012; deutlich auch Sachverständigenrat 2011, S. 162). Konzeptionell kommt wiederum das Argument hinzu, dass selbst die institutionelle Trennung einzelner Geschäftsfelder ein Übergreifen systemischer Risiken nicht verhindern kann, weil die hierfür ursächliche Vernetzung auch aus rein vertraglichen Beziehungen zwischen institutionell voneinander unabhängigen Finanzinstituten resultieren kann. Auch ein Trennbankensystem kann gegenseitige Verbindlichkeiten oder sonstige Interbankenbeziehungen zwischen 4 5

Bundesanstalt für Finanzdienstleistungsaufsicht (2013). Zur Reichweite und Begründung der staatlichen Gewährleistungspflicht näher Ohler (2010); Ruffert (2009).

356

Florian Möslein

Geschäfts- und Wertpapierbanken nicht untersagen, ohne die Funktionsfähigkeit des Bankensektors insgesamt in Frage zu stellen. Mit der institutionellen Trennung suggerieren Trennbankensysteme deshalb eine Schutzmauer für systemische Risiken, die sie angesichts der allgegenwärtigen vertraglichen Vernetzung zwischen Finanzinstituten schlicht nicht bieten können. b. Institutionelle Vielfalt Im Vergleich zu Universalbankensystemen reduzieren Trennbankenregime die institutionelle Vielfalt. Denn in solchen Regimen sind Universalbanken grundsätzlich verboten, während Universalbanksysteme umgekehrt den Finanzinstituten die Wahl lassen: Hier können sich die einzelnen Institute durchaus auch für „Lean Banking" entscheiden, wenn ihnen Spezialisierung aus betriebswirtschaftlichen Überlegungen vorteilhaft erscheint (Türk 1996). Die unternehmensstrategische Entscheidung, ob Verbund- oder Spezialisierungsvorteile überwiegen, bleibt in Universalbanksystemen mithin der Geschäftsleitung jeder einzelnen Bank überlassen, während mit der Trennbankenvorgabe der Gesetzgeber ebendiese Entscheidung selbst trifft. Institutionelle Vielfalt bietet zum einen den Vorteil, dass sie das Intumsrisiko reduziert und deshalb bereits für sich genommen stabilisierend wirkt:6 Steht angesichts aller bereits angeführten Überlegungen zumindest nicht zweifelsfrei fest, dass Trennbanken Universalbanken in allen Belangen überlegen sind, so erscheint ein System, das beide Bankentypen zulässt, gegenüber „Monokulturen" aller Art alleine schon deshalb vorteilhaft, weil ein solches System ex ante keinen Bankentyp verbietet, der sich ex post vielleicht doch als vorteilhaft, etwa als systemisch weniger riskant, erweisen könnte. Besonders in einem Umfeld dynamischen Wandels sind Systeme, die institutionelle Vielfalt erlauben, anpassungsfähiger, weil sie das dezentrale Experimentieren mit verschiedenen Lösungsansätzen erlauben, um auf die immer neuen Herausforderungen des sich wandelnden Umfelds zu reagieren.7 Institutionelle Vielfalt begrenzt insofern systemische Fehler, die bestimmte Typen von Finanzinstituten (potentiell) in sich bergen; überdies lässt sie Raum für gegenseitige Krisenhilfe {Burghof 2012). Zum anderen schaffen Systeme, die institutionelle Vielfalt beschränken, Anreize zu Regelungsarbitrage (näher etwa Möslein 2013, S. 9 f). Soweit dagegen Wahlfreiheit besteht, brauchen Marktteilnehmer nicht nach Lösungen zu suchen, um zwingende Verbote zu umgehen. Für die Bewertung von Trenn- bzw. Universalbanksystemen ist dieser allgemeine Gedanke von zentraler Bedeutung, weil sich nach einer unter Ökonomen verbreiteten Ansicht die massenhafte Entstehung von Finanzinnovationen in den USA ebenso wie die stärker marktbasierte Ausrichtung des angloamerikanischen Finanzsystems maßgeblich auf das dort lange Zeit vorherrschende Trennbankenregime zurückführen lassen (Boot/ Thakor 1997; vgl. ferner Blank 1991, S. 18-20; Bofinger 1990, S. 100; König 2001, S. 238-319).

6

7

Bisher werden die Vorzüge institutioneller Vielfalt primär für Umweltfragen und deren Regulierung betont, vgl. vor allem Ostrom (2005, bes. S. 284 f.); ferner Buzbee (2009). Grundlegend zum sog. „Democratic Experimentalism" Dorf/Sabel (1998); allgemein zu Anpassungsvorteilen dezentraler Regelsetzung Möslein (2011, S. 127 f.).

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

357

Für Universalbanken bestehen umgekehrt kaum Anreize, entsprechende Finanzprodukte zu entwickeln, weil die Verlagerung von Kreditrisiken auf Kapitalmärkte die Ertragsaussichten im eigenen Kreditgeschäft reduzieren würde. Es scheint demnach ein Zusammenhang zwischen Trennbankensystem und Marktbasierung des Finanzsystems zu bestehen, weil die höhere Regulierungsdichte erhebliche Anreize zur Schaffung marktbasierter Finanzprodukte setzt. Ebendiese Produkte gelten indessen als ein wichtiger Auslöser der Finanzkrise, weil sie zur gegenseitigen Vernetzung zwischen Finanzinstituten beitrugen und dadurch die systemischen Ansteckungsrisiken erhöhten (vgl. statt aller Grundmann/Hofmann/ Möslein 2009, S. 8-11). In dieser Perspektive erscheint das ursprüngliche Trennbankensystem - nicht dessen Abschaffung! - als eine mögliche Keimzelle der globalen Finanzkrise (ähnlich Wissenschaftlicher Beirat beim Bundesministerium für Wirtschaft und Technologie 2010, S. 35 f.). Stimmt dieser scheinbar kontraintuitive, teils durchaus bezweifelte Zusammenhang (vgl. vor allem Wilmarth 2009), so wären Trennbankensysteme als Mittel zur Eindämmung systemischer Gefahren für das Finanzsystem völlig ungeeignet. Sie drohten vielmehr, selbst zum Auslöser solcher Gefahren zu werden.

III. Gestaltungsvarianten Trotz dieser grundsätzlichen Vorbehalte gegen die Einführung eines Trennbankensystems bleibt zu bedenken, dass Trennbankenregeln ganz unterschiedlich ausgestaltet sein können und dass deshalb die Beurteilung auf Grundlage dieser spezifischen Gestaltungsvarianten zu präzisieren ist. Als Alternativen zum Trennbankensystem klassischer Prägung werden heute vor allem zwei weitere Gestaltungsvarianten diskutiert, nämlich einerseits ein schlichtes Verbot des Eigenhandels, andererseits eine bloße Spartentrennung.

1. Klassisches Trennbankensystem Als Paradebeispiel für ein Trennbankensystem klassischer Prägung gelten gemeinhin die Vorgaben des US-amerikanischen Banking Act of 1933 (sog. Glass-Steagall Act). Nachdem während der Bankenkrise von 1929 bis 1933 viele Bankinstitute sowohl durch Kursstürze als auch durch Kreditausfalle in Existenznot geraten waren, wollte man der engen Verknüpfung von Wertpapier- und sonstigem Bankengeschäft durch institutionelle Trennung vorbeugen. Diese Trennung wurde allerdings im Laufe der Zeit immer mehr gelockert, um 1999 schließlich (teilweise) aufgehoben zu werden. a. Verbotstatbestände (See. 16 und 21 Glass-Steagall Act) Das Herzstück des US-amerikanischen Trennbankenregimes bilden die beiden Vorschriften See. 16 und 21 Glass-Steagall Act (näher etwa Fein 2011, § 4.03). Die erstgenannte Regelung entzieht Geschäftsbanken die Möglichkeit, für eigene Rechnung Anteile an anderen Gesellschaften oder Schuldverschreibungen zu erwerben oder Wertpapieremissionen durchzuführen. Entsprechende Geschäfte sind mangels gesellschafts-

358

Florian Möslein

rechtlicher Kompetenz („power") nichtig;8 zudem können solche Verstöße aufsichtsrechtlich geahndet werden. 9 Die Regelung richtet sich unmittelbar zwar nur an diejenigen Banken, die der hoheitlichen Bundesaufsicht unterliegen (sog. national banks); sie gilt aber mittelbar auch für alle übrigen Geschäftsbanken, die dem Einlagensicherungssystem angehören. 10 Ausgenommen sind Geschäfte in Wertpapieren, die als ungefährlich angesehen werden, etwa bestimmte kommunale und staatliche Anleihen. See. 21 richtet sich demgegenüber spiegelbildlich an Wertpapierhäuser und statuiert fur diese ein strafbewehrtes Verbot, gleichzeitig Einlagengeschäfte auszuüben. Ihrem Wortlaut zufolge gilt diese Vorschrift für alle Personen und Institutionen, die Wertpapiergeschäfite tätigen. Daher verstoßen Geschäftsbanken, die See. 16 zuwiderhandeln, zugleich auch gegen See. 21; umgekehrt laufen Wertpapiergeschäfte, die ausnahmsweise nicht unter See. 16 fallen, See. 21 ebenfalls nicht zuwider (näher Carnell/Macey/ Miller 2009, S. 131 f.). Diese Intention des Gesetzgebers, trotz unterschiedlichen Wortlauts einen Gleichlauf der beiden Verbotstatbestände sicherzustellen („seek to draw the same line"), bildet für die Rechtsprechung die leitende Auslegungsmaxime 11 und sorgt fur einen in sich konsistenten Regelungsrahmen. b. Erstreckung auf Konzernverbund (See. 20 und 32 Glass-Steagall Act) Als wichtige Ergänzung dieser beiden Verbotstatbestände erstreckten die ehemaligen See. 20 und 32 Glass-Steagall Act den Trennungsgrundsatz auf den Konzernverbund (näher Fein 2006, § 7.02 [2] und [4]). Nach dem Affiliationsverbot in See. 20 durften Geschäftsbanken, die dem Einlagensicherungssystem angehören, keinen Konzernverbund mit Gesellschaften bilden, die hauptsächlich Wertpapiergeschäfte betreiben („principally engaged"). 12 Maßgebliche Kriterien der Affiliation waren Kontrollausübung oder Mehrheitsbeteiligung; als verbunden galten neben Tochter-, Schwester- und Muttergesellschaften jedoch auch Gesellschaften mit mehrheitlich gleichen Direktoren. 13 Darüber hinaus verbot See. 32 personelle Verflechtungen und untersagte den betreffenden Geschäftsbanken die Anstellung von Personen, die in irgendeiner Weise bei entsprechenden Wertpapierhäusern beschäftigt waren, sei es als Direktoren oder als Angestellte. 14 Nach dieser ursprünglichen Konzeption, die durch ein komplexes Geflecht von bundes- und einzelstaatlichen Aufsichtsregeln ergänzt und auf alle dem Einlagen-

8 9 10

11

12 13 14

In diesem Sinne Awotin v. Atlas Exchange Nat. Bank of Chicago, 295 US 209 (1935). 12 USC § 93 (a) und (b) (Bußgeld oder sogar Entziehung der Banklizenz). Erstreckung auf sog. state member banks durch 12 USC § 335 (Federal Reserve Act) sowie auf sog. insured non-member banks durch 12 USC § 1831a (a) (Sec. 24 (a) des Federal Deposit Insurance Corporation Act, eingefügt durch den FDIC Improvement Act von 1991). Securities Industry Association v. Board of Governors, 468 U.S. 137, 149 (1984) („Bankers Trust I"); ähnlich Board of Governors v. Investment Company Institute, 450 U.S. 46, 63 (1981) („ICI II"); ferner Securities Industry Association v. Board of Governors, 807 F.2d 1052, 1057 (D.C. Cir. 1986), cert. denied 104 S.Ct. 2979 (1987) („Bankers Trust II"): „those activities of commercial banks that section 16 places on the acceptable commercial banking side of the line cannot be placed by section 21 on the impermissible investment banking side of the line". 12 USC §377. 12 USC § 221a (b), auf den § 377 verweist. 12 USC §78.

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

359

sicherungssystem angehörenden Banken erstreckt wurde, durften Geschäftsbanken auch im Konzernverbund grundsätzlich keine Wertpapiergeschäfte durchführen; „Allfinanzkonzerne" waren untersagt (vgl. Baums 1992, S. 13 f.; Hoffmann 2000, S. 1775). Hintergrund dieses Affiliationsverbots ist die Sorge vor der Gefahr, dass Risiken aus dem Wertpapier- oder sonstigen Bankgeschäft trotz rechtlicher Trennung auf andere Konzerngesellschaften übergreifen können, selbst wenn jene Gesellschaften ausschließlich in der jeweils anderen Sparte tätig sind. Entsprechende Ansteckungsgefahren drohen nicht nur angesichts interner Konzerngeschäfte, etwa Kreditvergaben, oder angesichts rechtlicher Durchgriffstatbestände, sondern auch, weil das Vertrauen der Einleger in eine Geschäftsbank alleine schon durch die Verluste eines lediglich verbundenen Wertpapierhauses bedroht sein kann.15 Die US-amerikanische Rechtsprechung spricht treffend von den „subtilen Gefahren" der gegenseitigen Ansteckung im Konzernverbund (subtle hazards).16 Allgemeiner bringt dies zum Ausdruck, dass sich ein Übergreifen von Risiken nicht alleine durch gesellschaftsrechtliche Trennung verhindern lässt. c. Graduelle Aufweichung Rechtsprechung und Aufsichtsbehörden sorgten nach und nach für die Aufweichung dieses strikten Trennbankenregimes (ausführlich Greene/von Hehn 1984; Hoffmann 2000, bes. S. 1775-1777; Isaac/Fein 1988; Markey 1990). Als Einfallstor diente zum einen die enge Auslegung des Wertpapierbegriffs in den beiden Verbotstatbeständen, vor allem aber die großzügige Handhabung des Affiliationsverbotes, in dessen Rahmen die tatbestandliche Voraussetzung des „principally engaged" an immer höhere Volumina von Wertpapiergeschäften geknüpft wurde. Meilensteine dieser Entwicklung war die Zulassung der Privatplatzierung von Geldmarktpapieren in der Bankers TrustEntscheidung von 1986,17 die Zulassung des Erwerbs eines reinen Wertpapiervermittlers (discount broker) durch eine Geschäftsbank im Bank-America-Fall (1984 bzw. 1987)18 sowie schließlich die von den Aufsichtsbehörden immer großzügiger gehandhabte und von den Gerichten geduldete Zulassung von sog. Section-20Subsidiaries, also von Tochtergesellschaften von Geschäftsbanken, die in begrenztem Umfang Wertpapiergeschäfte betreiben.19 Mit dem Financial Modernization Act von 1999 (sog. Gramm-Leach-Bliley Act) griff schließlich der US-amerikanische Gesetzgeber diese Entwicklung auf, indem er das

15

16

17

18

19

Vgl. die ausfuhrlichen Erwägungen in Securities Industry Association v. Board of Governors, 839 F.2d 47, 57 (2d Cir. 1988). Grundlegend Investment Company Institute v. Camp, 401 U.S. 617 (1971). Die Formulierung wurde vielfach aufgegriffen, unter anderem von Garten (1990); LeGraw/Davidson (1989) und Fanto (2004). Securities Industry Association v. Board of Governors, 807 F.2d 1052 (D.C. Cir. 1986), cert, denied 107 S.Ct. 3228 (1987); restriktiver zuvor Securities Industry Association v. Board of Governors, 468 U.S. 137(1984). Securities Industry Association v. Board of Governors, 486 U.S. 207 (1984); erweitert auf national banks in Clarke v. Securities Industry Association, 479 U.S. 388 (1987). Vgl. Securities Industry Association v. Board of Governors, 847 F.2d 890 (D.C. Cir. 1988) („Chase"); Securities Industry Association v. Board of Governors, 839 F.2d 47 (2d Cir.), cert, denied, 486 U.S. 1059 (1988) („Citicorp"); ausführlich auch zur Aufsichtspraxis: Malloy (1999, S. 188 f.); Wilmarth (1990, S. 1163-1166).

360

Florian Möslein

Trennbankenregime in einem zentralen Punkt deregulierte (eingehend Broome/ Markham 1999; Kochinke/ Krüger 2000; Macey 1999; zur vorhergehenden Reformdiskussion Krämer 1996; Schiessl 1988): Neben kleineren anderen Neuregelungen statuierte dieses Reformgesetz vor allem die Aufhebung der See. 20 und 32 Glass-Steagall Act. Die Affiliation von Banken und Wertpapierfirmen - sowie auch von Versicherungen - wurde damit grundsätzlich erlaubt, wenn auch unter dem Vorbehalt einiger neuer Rahmenvorgaben für Finanzholdinggesellschaften. Finanzkonglomerate und Allfinanzkonzerne waren fortan zulässig. Unberührt blieben allerdings die grundlegenden Verbotstatbestände in See. 16 und 21 Glass-Steagall Act, so dass echte Universalbankgesellschafiten weiterhin verboten blieben. Statt einer Aufhebung statuierte der Gesetzgeber also lediglich die Modifikation des Trennbankensystems, mit der Konsequenz, dass „die Banken den , subtilen Gefahren' des Wertpapiergeschäfts ausgeliefert [wurden], nicht aber den aus Wertpapiergeschäften resultierenden Verlustgefahren" (Hoffmann 2000, S. 1778).

2. Aktivitätsbeschränkung Erst im Zuge der Finanzkrise löste sich das klassische Trennbankensystem faktisch endgültig auf, weil die wichtigsten Investmentbanken entweder insolvent gingen (Lehman Brothers), von Geschäftsbanken übernommen wurden (Merrill Lynch und Bear Stearns) oder sich als sog. Bank Holding Companies zumindest der Aufsicht durch die Zentralbank unterstellten (Goldman Sachs und Morgan Stanley). Als Reaktion auf diese Krise wird in den USA inzwischen jedoch ein modifizierter Verbotstatbestand diskutiert, der mitunter als eine Art „Trennbankensystem 2.0" verstanden wird,20 sich aber erheblich von den herkömmlichen Regeln unterscheidet. Diese sog. Volcker Rule, die insbesondere ein Verbot des kurzfristigen Eigenhandels beinhaltet, statuiert nämlich lediglich eine Beschränkung von Bankaktivitäten, ohne jedoch deren Trennung formal vorzuschreiben (Chow/Surti 2011, S. 19). Vorgesehen ist jene Regelung in Art. 619 des Dodd-Frank Wall Street Reform and Consumer Protection Act (sog. Dodd-Frank Act) von 2010. Sie bedarf zusätzlich der Umsetzung durch die Aufsichtsbehörden, die eigentlich bis Mitte 2012 hätte erfolgen müssen, aber bis heute aussteht. Ausgangspunkt des Regulierungsvorschlags ist der Befund, dass die US-amerikanische Finanzkrise maßgeblich durch hypothekarisch gesicherte, gepoolte Anleihen (sog. Mortgage-Backed Securities, MBS) verursacht wurde, die von Geschäfts- wie auch Investmentbanken massenweise in ihren Portfolios gehalten wurden, infolge der Immobilienkrise aber massiv an Wert verloren und dadurch zahlreiche Institute in Schieflage brachten. Ebendiese spezifische Gefahr, der das herkömmliche Trennbankensystem nicht abzuhelfen vermochte, soll für die Zukunft unterbunden werden (vgl. Richardson/Smith/Walter 2009, S. 202 f.; Whitehead 2011, S. 41-43).

20

Missverständlich beispielsweise Sachverständigenrat (2010, S. 15: „Vorstoß in Richtung eines Trennbankensystems", S. 136: „Schritt hin zu einem Trennbankensystem", und S. 154: „von der Idee des Trennbankensystems geprägt").

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

361

a. Reichweite Entsprechend dieser gesetzgeberischen Intention unterscheidet sich der Zuschnitt der Volcker Rule in mehrfacher Hinsicht erheblich von den Glass-Sleagall-Rtge\n. Erstens unterscheiden sich die verbotenen Aktivitäten. Die Volcker Rule zielt nämlich nicht auf die klassischen Wertpapierdienstleistungen, sondern auf Portfolio- und Anlageinvestitionen in Wertpapieren: Statt des „underwriting and dealing" betrifft sie das „trading" (ähnlich Wallison 2011, S. 22). Genauer gesagt verbietet die Regelung einerseits den - kurzfristigen - Eigenhandel (sog. proprietary trading), andererseits Investitionen in Private-Equity- und Hedgefonds.21 Ausdrücklich erlaubt sind demgegenüber die Übernahme von Effektenemissionen (underwriting), Sicherungsgeschäfte (hedging) und die Marktpflege (market making) im Kundenauftrag.22 Folglich sind jene riskanten Portfolioinvestitionen, die als Ursache der Finanzkrise gelten, nach der neuen Regel verboten, während sie unter dem klassischen Regime auch für Geschäftsbanken erlaubt gewesen sind (Wallison 2011, S. 22). Die Unterscheidung zwischen Eigen- und Fremdhandel, und damit zwischen verbotenen und erlaubten Transaktionen, hängt allerdings maßgeblich von der subjektiven Zwecksetzung ab, nämlich davon, ob Banken Wertpapiere primär erwerben, um damit Kursgewinne zu erzielen oder aber, um diese Papiere an Kunden zu veräußern (ausfuhrlich Chow/Surti 2011, S. 19-21; Financial Stability Oversight Council 2011, S. 22; Whitehead20\ 1, S. 48-52). Zweitens reicht der Kreis der Wertpapiere, für die der Verbotstatbestand gilt, nach der Volcker Rule erheblich weiter als nach dem klassischen Trennbankenregime. Explizit ausgenommen sind lediglich US-amerikanische Staatsanleihen, während der Kreis der erfassten Papiere umgekehrt denkbar weit gezogen wird.23 Das Verbot erstreckt sich namentlich auch auf jene Mortgage Backed Securities, die als Auslöser der Finanzkrise gelten. Umgekehrt galten diese Papiere nach den Glass-Steagall-Regeln nicht als Wertpapiere, sondern als verbriefte Kredite und durften deshalb auch von Geschäftsbanken gehandelt werden (näher Markham 2010, S. 1118 f.).24 Drittens unterscheidet sich schließlich auch der Kreis der erfassten Institute. Die Neuregelung richtet sich nicht nur an Geschäftsbanken, die dem Einlagensicherungssystem angehören (und damit der Aufsicht durch den Einlagensicherungsfonds FDIC unterliegen), sondern auch an Bank Holding Companies, die der Aufsicht durch die Zentralbank Federal Reserve System unterstehen, sowie an affiliierte Gesellschaften (Gary 2012, S. 1383 f.).25 Sie gilt also auch für die bisherigen Investmentbanken - und lässt sich schon deshalb nicht als Grundlage eines Trennbankensystems im herkömmlichen Sinne verstehen.

21 22 23

24

25

12 USC § 1851 (a)(1). 12 USC § 1851 (d)(1). 12 USC § 1851 (h)(4): „any security, any derivative, any contract of sale of a commodity for future delivery, any option on any such security, derivative, or contract, or any other security or financial instrument that the appropriate Federal banking agencies, the Securities and Exchange Commission, and the Commodity Futures Trading Commission may, by rule as provided in subsection (b)(2), determine". In diesem Sinne Securities Industry Association v. Clarke, 885 F.2d 1034 (2d Cir. 1989), cert, denied, 493 U.S. 1070 (1990). 12 USC § 1851 (h)(1).

362

Florian Möslein

b. Kritik Noch vor ihrer endgültigen Umsetzung ist die Volcker-Regel bereits Gegenstand intensiver Kritik. Da auch bloße Aktivitätsbeschränkungen institutionelle Vielfalt einschränken, spiegeln die beiden zentralen Kritikpunkte die entsprechenden Nachteile von Trennbankenregeln durchaus passgenau wider. Zum einen richtet sich diese Kritik gegen den engen und stark subjektiven Zuschnitt der verbotenen Aktivitäten, der erhebliche Abgrenzungsprobleme aufwirft und zugleich Umgehungsmöglichkeiten eröffnet (Choi/Surti 2011, S. 19-21; ferner Zentrum für Europäische Wirtschaftsforschung 2013, S. 18). Zum Ausdruck kommen diese Schwierigkeiten einerseits in der Diskussion um die Ausfuhrungsregeln, deren Verabschiedung bisher vor allem aus immanenten Komplexitätsgründen gescheitert ist: Die vorläufige Version, die Gegenstand einer öffentlichen Konsultation war, hatte einen Umfang von mehreren hundert Seiten;26 sie wurde ergänzt durch einen Fragenkatalog mit mehr als 1300 Fragen zu 400 Einzelthemen (zur Kritik vgl. nur Zingales 2012, S. 205: „298 pages of mumbo jumbo"). Andererseits ist offenbar auch die Regelungsarbitrage bereits in vollem Gange: Laut Presseberichten soll Goldman Sachs eine Geheimabteilung eingerichtet haben, deren Auftrag darin besteht, für Gelder im Umfang von über 1 Mrd. US-Dollar nach gerade noch zulässigen, weil (scheinbar?) längerfristigen Anlagemöglichkeiten zu suchen.27 Die Kritik betrifft zum anderen den Adressatenkreis. Das Verbot gilt nämlich zwar für alle Bankinstitute, die in irgendeiner Form der Bankenaufsicht unterliegen; es richtet sich jedoch weder an (nicht affiliierte) Hedge- und Private-Equity-Fonds noch an Versicherungen. Zu befurchten seien deshalb nicht nur Marktverzerrungen, etwa zwischen unabhängigen und bankkonzernzugehörigen Hedge-Fonds (Gary 2013, S. 1383 f.), sondern auch eine Zunahme unregulierter Schattenbanken - eine Entwicklung, die man angesichts der Erfahrungen der Finanzkrise eigentlich gerade zu verhindern versucht.28 Als Konsequenz der Volcker-Rule könnte deshalb in der Tat eine neue Art von Trennbankensystem drohen, mit regulierten Banken auf der einen Seite und nicht-regulierten Schattenbanken auf der anderen Seite (so vor allem Whitehead 2011).

3. Spartentrennung In Europa dagegen ist eine andere Gestaltungsvariante auf dem Vormarsch. Sie geht auf Vorschläge dreier OECD-Wissenschaftler zurück (Blundell-WignalllWehingerl Slovik 2009) und wurde sowohl von der britischen „Independent Commission on Banking" unter Vorsitz von Sir John Vickers als auch von der europäischen „Hochrangigen Expertengruppe für Strukturreformen im EU-Bankensektor" unter Vorsitz von Erkii Liikanen aufgegriffen. 29 Die Vickers-Vorschläge fanden inzwischen Eingang in ein Weißbuch der britischen Regierung und wurden kürzlich bereits als Financial Services (Banking Reform) Bill in die parlamentarische Debatte eingeführt; diese

26 27 28

29

Abrufbar unter http://fdic.gov/news/board/20110ctno6.pdf. Vgl. Handelsblatt (2013). In diesem Sinne vor allem Financial Stability Board (2011); Europäische Kommission (2012); dazu ausführlich Schwarcz (2012); ferner Kane (2012) und Schaffelhuber (2011). Independent Commission on Banking (2011); Hochrangige Expertengruppe (2012).

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

363

Gesetzesreform soll bis spätestens 2015 verabschiedet und bis 2019 implementiert sein.30 Die Liikanen-Vorschläge hingegen sind auf europäischer Ebene vorerst noch Gegenstand der kommissionsinternen, offenbar kritischen Diskussion, nachdem im Vorjahr im Rahmen eines öffentlichen Konsultationsverfahrens zahlreiche kontroverse Stellungnahmen eingegangen waren.31 In Deutschland dienten die gleichen Vorschläge jedoch als Blaupause für den Gesetzentwurf, den die Bundesregierung Anfang Februar 2013 überraschend vorlegte - ohne eigene Expertise oder Konsultation.32 Den gemeinsamen Nenner all dieser Vorschläge bildet der Grundsatz der Spartentrennung, wie er in ähnlicher Form seit Jahrzehnten als Ordnungsprinzip der Versicherungswirtschaft gilt (vgl. § 8 Abs. 1 a VAG)33 und teils auch für Betreiber bestimmter Netze vorgesehen ist (vgl. etwa § 7 EnWG).34 Das charakteristische Merkmal dieser Spartentrennung ist die Errichtung einer Konzernstruktur, bei der die unterschiedlichen Geschäftssparten unter dem Dach einer nicht-operativen Holdinggesellschaft in rechtlich eigenständigen Einheiten mit jeweils separater Eigenkapitalausstattung geführt werden. Statt einer strengen eigentumsrechtlichen Trennung, wie sie das klassische Trennbankensystem ursprünglich auszeichnete, geht es also nur mehr um eine gesellschaftsrechtliche Trennung, die zwar Universalbankgesellschaften verbietet, aber Universalbankkonzerne erlaubt (vgl. Chow/Surti 2011, S. 22 f.: „functional subsidiarization") - ähnlich den Glass-Steagall-Regeln nach ihrer Aufweichung. Diese gesellschaftsrechtliche Trennung ist freilich immer noch ein Maius gegenüber einer bloß organisatorischen, bilanziellen oder informationellen Trennung, wie sie etwa in Form sog. Chinese walls für andere Fälle bankinterner Interessenkonflikte vorgesehen ist (vgl. dazu Kumpan/Leyens 2008, S. 85-88). a. Anwendungsbereich Trotz dieser konzeptionellen Ähnlichkeit unterscheiden sich die verschiedenen Vorschläge in wichtigen Einzelpunkten (tabellarische Gegenüberstellung in Zentrum fiir Europäische Wirtschaftsforschung 2013, S. 25 f.). Dies betrifft zunächst den Anwendungsbereich, der sich nach den Vickers-Vorschlägen auf alle Geschäftsbanken erstrecken soll, während nach dem Liikanen-Entwurf umgekehrt lediglich solche Banken erfasst sein sollen, die in signifikantem Umfang Investmentaktivitäten entfalten (15-25% der Bilanzsumme oder Gesamtvolumen von über 100 Mrd. Euro) bzw. für die eine Spartentrennung von den Aufsichtsbehörden unter dem Gesichtspunkt der Finanz-

30

31

32

33 34

HM Treasury (2012); Financial Services (Banking Reform) Bill i.d. Fassung v. 4. Februar 2013, abrufbar unter http://services.parliament.uk/bills/2012-13/fmancialservicesbankingreform.html. Die 80 eingegangenen Antworten sind unter http://ec.europa.eu/internal_market/consultations/ 2012/banking_sector/index_en.htm abrufbar. Nachw. Fn. 2; äußerst knappe Beurteilung in Sachverständigenrat (2012, S. 184 f.); ausfuhrliche Analyse spezifischer Umsetzungsprobleme hingegen in Zentrum fiir Europäische Wirtschaftsforschung (2013, S. 27-40). Angemahnt wurde eine gründliche Analyse solcher Länderspezifika noch in Bundesregierung (2012, S. 2 f. und 5.). Dazu statt aller: Schmidt (1964); Rohde-Liebenau (1973) sowie monographisch Beringer (2007). Hier spricht man meist von „legal unbundling" (im Gegensatz zu „ownership unbundling"): vgl. nur Kahle (2007); Will (2006).

364

Florian Möslein

Stabilität für erforderlich gehalten wird.35 Einen ähnlichen Ansatz wählt auch der deutsche Gesetzgeber.36 Diese Regelungen sind insofern erheblich weniger flächendeckend als das englische Vorhaben; sie wählen überdies konzeptionell den entgegengesetzten Ausgangspunkt. b. Spartenzuschnitt Erhebliche Unterschiede finden sich weiterhin beim Spartenzuschnitt. Die britischen Vorschläge setzen wiederum bei der Geschäftsbankenaktivität an und sehen vor, dass alle Einlagen und Kontokorrentkredite unterhalb bestimmter Schwellenwerte zwingend in einer eigenen rechtlichen Einheit abgewickelt werden müssen. Diese Bankgeschäfte sollen ausschließlich innerhalb eines besonderen Schutzzauns stattfinden (retail ringfence\ dazu näher Chow/Surti 2011, S. 22 f.). Umgekehrt ist vorgesehen, dieser Einheit bestimmte andere Bankgeschäfte gänzlich zu untersagen, namentlich Wertpapiergeschäfte wie den Handel und die Emission von Derivaten, Schuldverschreibungen, vermögensbesicherten Wertpapieren und Beteiligungspapieren, aber auch sämtliche Finanzdienstleistungen für Kunden außerhalb des Europäischen Wirtschaftsraums. Eine Reihe weiterer Bankgeschäfte dürfen (müssen aber nicht) in dieser Einheit abgewickelt werden, etwa Einlagen von Kunden bzw. Kredite an Kunden des Europäischen Wirtschaftsraums (ausfuhrlicher Zentrum für Europäische Wirtschaftsforschung 2013, S. 13 f.; tabellarischer Überblick in Sachverständigenrat 2011, S. 161). Der Liikanen-Bericht setzt dagegen auch für den Spartenzuschnitt wiederum beim Investmentbereich an und definiert umgekehrt jene Geschäfte, die ausschließlich in diesem Bereich abgewickelt werden dürfen, nämlich neben dem Eigenhandel auch den Handel im Kundenauftrag (z.B. Market-Making und Bilanzstrukturmanagement) sowie bestimmte Geschäfte für Hedgefonds und private-equity-Anlagen.37 Vom inhaltlichen Zuschnitt her erinnert diese Reihung an den Verbotstatbestand der Volcker-Rule (vgl. Ojo 2013: „Volcker/Vickers Hybrid"); sie reicht aber entscheidend weiter, weil nach den ursprünglichen Vorschlägen der Expertengruppe eben auch der Fremdhandel erfasst sein soll. Es ist allerdings äußerst fraglich, ob die Spartentrennung tatsächlich so umfassend erfolgen wird. Nicht nur die Europäische Kommission beurteilt die Einbeziehung des Fremdhandels kritisch;38 auch der deutsche Gesetzgeber hat anders entschieden (vgl. vor allem den Ausnahmetatbestand im geplanten § 3 Abs. 2 S. 3 KWG). c. Flankierende Regeln Um Schutz gegen das Übergreifen systemischer Risiken bieten zu können, bedarf die Spartentrennung einer ganzen Reihe flankierender Regeln, um zu gewährleisten, dass

35

36 37 38

Die Expertenkommission schlägt zwei unterschiedliche Gestaltungsvarianten vor: Im einen Fall soll die Trennungsvorgabe unmittelbar von den Schwellenwerten abhängen, während im anderen Fall eine zusätzliche Wertungsentscheidung der Aufsichtsbehörden vorzusehen wäre: Vgl. Hochrangige Expertengruppe (2012, S. 94-99). Vgl. den künftigen § 3 Abs. 2 KWG; dazu näher Brandi/Gieseler (2013), S. 744 f. Näher Hochrangige Expertengruppe (2012, S. 101 f.). Vgl. Jenkins (2013), der Kommissionär Barnier mit folgenden Worten zitiert: „I don't want to penalise the work of banks when they work for the benefit of the economy and industry".

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

365

die einzelnen Sparten auf einer „stand alone-Basis" operieren.39 Die parlamentarische Kommission in Großbritannien spricht drastisch von der erforderlichen „Elektrifizierung" des Schutzzauns.40 In den Reformvorschlägen lassen sich dreierlei Kategorien entsprechender Vorkehrungen unterscheiden. Erstens sind konzerninterne Verflechtungen möglichst weitgehend zu reduzieren. Deshalb soll die Kreditvergabe zwischen den einzelnen Sparten gänzlich untersagt werden; für sonstige Transaktionen sollen ebenfalls Einschränkungen gelten, insbesondere sind sie aus Perspektive des Risikomanagements und der Finanzaufsicht zu behandeln wie Drittgeschäfte.41 Eigenständige Verwaltungsorgane und ein eigenständiges Berichtswesen jeder einzelnen Sparte sollen ebenfalls dazu dienen, konzerninterne (personelle) Verflechtungen zu vermeiden.42 Erforderlich wären außerdem Vorkehrungen, um einen Haftungsdurchgriff innerhalb des Konzerns a limine auszuschließen, und um die Verantwortlichkeit der Geschäftsleiter strikt auf die eigene Spartengesellschaft zu begrenzen.43 Zweitens sind die einzelnen Sparten separaten Eigenkapitalanforderungen zu unterwerfen. Besonders weitgehende Anforderungen sehen insoweit die britischen Reformvorschläge vor. Für die besonders geschützte Einheit, die diesen Vorschlägen als Ausgangspunkt dient, sind nämlich sogar höhere Kapitalvorschriften als für die übrigen Bankaktivitäten vorgesehen. Geplant ist ein sog. ring-fence Puffer mit einer harten Kernkapitalquote (Tier 1) von 10% bis 13% und für systemrelevante Banken einer Gesamtkapitalquote (Tier 1 und 2) von bis zu 17%.44 Außerhalb des Schutzzauns sollen demgegenüber lediglich die niedrigeren Basel-III-Vorgaben Anwendung finden (schaubildartige Darstellung in Sachverständigenrat 2011, S. 159). Drittens schließlich sind insolvenzrechtliche Regelungen erforderlich, die gegebenenfalls eine getrennte Abwicklung der einzelnen Sparten erlauben (so bereits Blundell-WignalllWehingerlSlovik 2009, S. 23). Dabei sollte eine passgenaue Abstimmung der Spartentrennung mit der Sanierungs- und Abwicklungsplanung angestrebt werden.45 Im Rahmen der sog. Abwicklungspläne müssen Institute künftig die system39

40 41

42

43

44 45

Bundesregierung (2013), S. 4. Ebenfalls sehr deutlich in diesem Sinne HM Treasury (2012, 2.54): „A high degree of legal, operational and economic independence is necessary for the ringfence to be credible and effective. A ring-fenced bank must be sufficiently insulated from the rest of its group to ensure that a failure in one part of the group does not prejudice the continuous provision of services the ring-fenced bank provides". Parliamentary Commission on Banking Standards (2012, Rdnr. 153). Vgl. etwa HM Treasury (2012, 2.33 und 2.53 f.); darauf aufbauend Section 142H(5) Financial Services (Banking Reform) Bill; ähnlich Hochrangige Expertengruppe (2012, S. 102) sowie § 25f Abs. 3 und 4 KWG in der Entwurfsfassung (Fn. 2). Vgl. HM Treasury (2012, 2.70-2.74, bes. 2.70): „The independence of a ring-fenced bank must be underpinned by strong governance"; darauf aufbauend Section 142H(5)(d) Financial Services (Banking Reform) Bill; weniger deutlich § 25f Abs. 5 i.V.m. § 25c Abs. 3a KWG in der Entwurfsfassung (Fn. 2). Sehr dezidiert in diesem Sinne Parliamentary Commission on Banking Standards (2012, Rdnr. 222): „There is likely to be a tension between the integrity of the ring-fence and the duties that directors of ring-fenced banks will owe to the parent company and through them to shareholders. This tension will be present regardless of the whether directors of the ring-fenced bank are employed elsewhere in the group". Vgl. im Einzelnen HMTreasury (2012,3.11-3.17). Zumindest andeutungsweise angemahnt in: Hochrangige Expertengruppe (2012, S. 100).

366

Florian Möslein

relevanten Geschäfte in ihrem Portfolio identifizieren und darlegen, wie sich diese im Insolvenzfall ohne Auswirkungen auf die Systemstabilität abtrennen lassen; die Aufsicht kann sogar bereits im Vorfeld der eigentlichen Krise auf eine entsprechende organisatorische und finanzielle Trennung drängen (näher Binder 2013). Diese Trennlinie verläuft jedoch nicht notwendig deckungsgleich, sondern regelmäßig an einer ganz anderen „Bruchstelle" als der eben skizzierte Spartenzuschnitt. Abgesehen davon bedarf es sowohl separater als auch konsolidierter Sanierungs- und Abwicklungspläne, um die Komplexität einer getrennten Abwicklung zu reduzieren (zu deren Schwierigkeiten etwa Baxter/Summer 2005). d. Kritik Während die Pläne zur Spartentrennung gleich nach ihrer Veröffentlichung von der Presse hochgelobt wurden und man allenfalls eine Ausweitung forderte (etwa Wolf 2012), zeigen sich bei näherem Hinsehen gewichtige Kritikpunkte, die teils mit den Regelungsvorbildern zusammenhängen, auf denen diese Vorschläge aufbauen, teils aber auch ganz spezifischer Natur sind (vgl. auch Zentrum für Europäische Wirtschaftsforschung 2013, S. 15 f. und 22-24). Erstens drohen je nach Spartenzuschnitt Abgrenzungsschwierigkeiten und Umgehungsrisiken, die ähnlichen Umfang erreichen können wie im Falle der Volcker-Rule: Wenn die Liikanen-Vorschläge im Sinne der Kommission und entsprechend der künftigen deutschen Gesetzesregel auf Fremdhandelsgeschäfte reduziert werden, droht genau die gleiche Komplexität wie im Falle des Regelungsvorbilds. Ein Spartenzuschnitt, der nach dem britischen Modell von der Geschäftsbankenaktivität ausgeht, ließe sich wohl etwas leichter definieren, ist aber ebenfalls nicht vor Unscharfen gefeit (vgl. Chow/Surti 2011, S. 28: „Filtering prohibited from permissible transactions will be as challenging under the ring-fence as under the Volcker Rule"). Zweitens droht trotz Spartentrennung ein Übergreifen systemischer Risiken, das selbst mit noch so starker „Elektrifizierung" durch flankierende rechtliche Vorgaben nicht zu verhindern sein wird. So lehren die Erfahrungen mit dem klassischen Trennbankensystem, dass das Vertrauen der Einleger in eine Geschäftsbank alleine schon durch die Verluste eines lediglich verbundenen Wertpapierhauses bedroht sein kann: Da sich dieses Vertrauen nicht nur an die einzelne Sparte, sondern an den Gesamtkonzern knüpft, mag es bereits bei Schieflage einer einzigen Spartengesellschaft verloren gehen (vgl. oben, III. 1 .b). Diese „subtileren Gefahrdungen", vor denen der US-amerikanische Supreme Court einst mit Blick auf den Glass-Steagall Act warnte,46 können vom Gesetzgeber schlicht nicht ausgeschlossen werden - selbst wenn er noch so gründlich versucht, eine Ansteckung der übrigen Konzerngesellschaften rechtlich auszuschließen. Ein Übergreifen systemischer Risiken droht aber schließlich, drittens, durchaus auch aus rechtlichen Gründen (ähnlich Chow/Surti 2011, S. 28). Im Zusammenspiel zwischen der bankaufsichtsrechtlich vorzusehenden Spartentrennung und der gesellschafts- und konzernrechtlichen Konzeption des Konzernverbundes ergeben sich nämlich zahlreiche Konfliktlinien, etwa mit Blick auf die Finanzierungsverantwortung im Konzern, auf ausnahmsweise Möglichkeiten des Haftungsdurchgriffs oder auf eine potentielle Ver46

Nachw. oben, Fn. 16.

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

367

pflichtung der einzelnen Geschäftsleiter auf das Konzerninteresse.47 Pointiert stellte die zuständige Kommission im englischen Parlament kürzlich fest: „It is not possible under current company law to create a subsidiary which is entirely independent".48 Während diese Konfliktlinien zwischen Bankaufsichts- und Gesellschaftsrecht auf nationaler Ebene und mit Blick auf spezifische Rechtsformen möglicherweise noch durch gegenseitige Abstimmung legislatorisch zu bewältigen wären, brechen sie auf europäischer Ebene endgültig auf. Weil just die besonders relevanten Vorgaben des Gesellschaftsund Konzernrechts unharmonisiert sind, müsste ein europäisches Modell der Spartentrennung nämlich auf Basis ganz unterschiedlicher gesellschaftsrechtlicher Rahmenbedingungen operieren. Weil in den einzelnen Mitgliedstaaten außerdem ganz unterschiedliche Traditionen bestehen, in welchen Rechtsformen Banken organisiert sind, wäre dieses Modell zudem noch rechtsformübergreifend zu konzipieren: „The legal form by which the recommendation is to be applied needs to apply to all banks regardless of business model, including the mutual and cooperative banks, to respect the diversity of the European banking system".49 In Summe müsste ein europäisches Spartentrennungsregime deshalb mit weit über hundert verschiedenen nationalen und supranationalen Rechtsformen abgestimmt werden. Aus rechtlicher Perspektive droht deshalb eine Komplexität, die schwerlich zu bewältigen ist.

IV. Regulierungsalternativen? Insgesamt manifestiert sich die allgemeine Kritik am Trennbankensystem (oben, II.) somit in allen denkbaren Gestaltungsalternativen, wenngleich in unterschiedlicher Ausprägung (oben, III.). Unabhängig von ihrer spezifischen Ausgestaltung werfen Trennbankenregeln deshalb Zweifel an ihrer Geeignetheit zur Eindämmung systemischer Risiken; zudem bergen sie all jene Gefahren, die mit einer regulatorischen Eindämmung institutioneller Vielfalt zwangsläufig einhergehen. Wenn Trennbankenregeln Anreize zur Schaffung marktbasierter Finanzprodukte setzen und dadurch eine Verlagerung von Kreditrisiken auf Märkte bewirken, besteht sogar die Gefahr, dass sie systemische Risiken erhöhen, statt sie zu reduzieren.50 Bei marktstrukturellen Regelungen wie einem Trennbankenregime sind solche „nicht bedachte Nebenwirkungen" eben „oft kaum auszuschließen" (so bereits Hopt 1977, S. 419). Sofern der Gesetzgeber Universalbanken angesichts ihrer Komplexität und der damit potentiell einhergehenden Systemrisiken gleichwohl skeptisch beurteilt, sollte er zumindest nach Regulierungsalternativen Ausschau halten, um den geäußerten Zweifeln Rechnung zu tragen. Es bedarf der Suche nach besseren Regulierungsinstrumenten und

47

48 49 50

Problematisch erscheint beispielsweise die Regelung in § 133 UmwG, die eine umwandlungsrechtliche Nachhaftung aller beteiligten Rechtsträger über regelmäßig 5 Jahre vorsieht und damit während einer langen Übergangsphase die Spartentrennung auszuhebein droht; dazu näher Altvater/von Schweinitz (2013, S. 630). Parliamentary Commission on Banking Standards (2012, Rdnr. 222). Hochrangige Expertengruppe (2012, S. 101, in Fn. 62). Vgl. oben, 11.2.b.

368

Florian Möslein

-Strategien;51 auch insoweit gilt es, „Prinzipien für eine kluge Regulierung" der Finanzmärkte zu entwickeln (Kirchner 2009).52 In der Tat wird seit der Finanzkrise eine breite Palette ganz unterschiedlicher Regulierungsinstrumente diskutiert, die allesamt dazu beitragen sollen, systemische Risiken zu reduzieren (vgl. nur Sachverständigenrat 2009, S. 136-145). Aus diesem regulatorischen Werkzeugkasten lassen sich vorliegend nur exemplarisch einzelne Regulierungsinstrumente herausgreifen, die als „mildere" Alternativen zu einem Trennbankensystem besonders nahe liegen. Eine erste Regulierungsalternative, die auch der deutsche Regierungsentwurf explizit benannte,53 besteht in erhöhten Eigenkapitalvorgaben für Wertpapierhandelsgeschäfte (ähnlich Frühauf 2013). Bereits nach den sog. Basel-IIa-Regeln gelten für Handelsbuchgeschäfte der Banken in Gruppe 1 um 200 % erhöhte Eigenkapitalanforderungen (näher etwa Stegmann 2012, S. 14). Solche Vorgaben können Wertpapierhandelsgeschäfte für Banken erheblich verteuern, also weniger attraktiv machen. Sie können letztlich sogar als Anreiz dienen, die Investmentsparte freiwillig abzuspalten. Entsprechende Effekte lassen sich am Beispiel der Schweiz illustrieren, die, statt ein Trennbankensystem zu erwägen, im Vergleich zum Basler Regelwerk erheblich strengere Eigenkapital vorgaben vorsieht (sog. „Swiss Finish", vgl. ausführlich Haunreiter 2011, S. 455-471) - mit der Folge, dass die weitaus größte Schweizer Bank, nämlich die UBS AG, ihre Investmentbanking-Sparte derzeit radikal verkleinert und offenbar erwägt, sie gänzlich abzuspalten.54 Das Beispiel illustriert, dass eine Aufspaltung von Universalbanken auch auf dem Wege einer stärker anreizbasierten Regulierung möglich sein dürfte. Ähnliche Effekte darf man sich von einer zweiten Alternative erwarten, nämlich von Steuer- oder allgemein abgabenbasierten Instrumenten wie der Finanztransaktionssteuer oder der Bankenabgabe. Auch diese Instrumente zielen nämlich darauf, Wertpapierhandelsgeschäfte zu verteuern oder, noch spezifischer, systemische Risiken von Banken zu internalisieren.55 Fraglich erscheint allerdings, ob der Steuergesetzgeber über ausreichend Wissen verfügt, um die aus Lenkungsperspektive optimale Steuerlast zu ermitteln (dazu ausführlich Möslein 2012). Stattdessen kann man deshalb, als dritte Regulierungsalternative, an hoheitliche Mengen- statt Preisvorgaben denken, etwa an die Verpflichtung, so genannte Stabilisierungsschuldverschreibungen auszugeben (grundlegend Flannery 2010; vgl. ferner Squam Lake Group 2010; Hart/Zingales 2011). Der Effekt wäre jedenfalls bei beiden Instrumenten, dass die systemischen Risiken internalisiert würden, so dass sich die Anreize für Banken reduzierten, entsprechende 51

52

53 54

55

Zur Unterscheidung von Regulierungsinstrumenten und -Strategien vgl. zuletzt Binder (2012, S. 4648); femer Möslein (2011, S. 438 f.). Begriff und Konzept der sog. „Smart Regulation" wurden ursprünglich in umweltpolitischem Zusammenhang entwickelt: Gunningham/Grabosky (1998). Bundesregierung (2013, S. 2). Vgl. Wall Street Journal (2012); ferner Wall Street Journal (2011); kritisch demgegenüber Zemp (2013). Besonders deutlich im Falle der deutschen Bankenabgabe, deren Höhe sich nicht nach Erträgen bemisst, sondern nach (vor allem bilanziellen) Bestandsdaten wie dem Geschäftsvolumen, der Größe und der Vernetzung, vgl. § 12 Abs. 10 S. 6 RestrG i.V.m. § 1 der Verordnung über die Erhebung der Beiträge zum Restrukturierungsfonds für Kreditinstitute (Restrukturierungsfonds-Verordnung, RStruktFV), v. 2. März 2011. Dazu näher: Reimer/Waldhoff (2011, S. 5-8); Schön/Hellgardt/OsterlohKonrad(2010, S. 2193-2200).

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

369

Risiken einzugehen, etwa durch die Abwicklung von Wertpapierhandelsgeschäften (Möslein 2012, bes. S. 248 f.).

V. Fazit Am Ende steht die Frage, ob eine anreizorientierte, zielgenauere Regulierung von Wertpapierhandelsgeschäften nicht sinnvoller wäre als strukturelle Trennbankenregeln, die maximalinvasiv in gewachsene Bankenstrukturen eingreifen, zugleich aber hochkomplex sind und deshalb sowohl hohe Umgehungsgefahren als auch Risiken nicht intendierter Nebenwirkungen bergen. Der deutsche Gesetzgeber wäre schon von Verfassungs wegen verpflichtet gewesen, nach Regulierungsinstrumenten zu suchen, die im Vergleich zu einem Trennbankenregime milder, zur Zielerreichung aber möglicherweise gleichermaßen geeignet sind.56 Solange die Überlegenheit von Trennbankenregeln nicht zweifelsfrei erwiesen ist, spricht auch regulierungstheoretisch viel dafür, institutionelle Vielfalt zu erlauben, anstatt Regelungsinstrumente zu übernehmen, die ursprünglich für ganz andere Finanzsysteme konzipiert waren, sich aber selbst in deren Rahmen nicht überzeugend bewähren konnten (vgl. Konzelmann/FovargueDavies/Schnyder 2012). Solange dem Regelgeber das erforderliche Wissen fehlt, sollten die unterschiedlichen Spielarten des Kapitalismus selbst auf globalisierten Finanzmärkten nicht vorschnell angeglichen werden (dazu Beyer 2009). Zumindest wären zunächst alternative, weniger eingriffsintensive Regulierungsansätze zu testen.

Literatur Altvater, Christian und Oliver von Schweinitz (2013), Trennbankensystem: Grundsatzfragen und alternative Regulierungsansätze, Zeitschrift für Wirtschafts- und Bankrecht (WM), S. 625-633. Baums, Theodor (1993), Verbindungen von Banken und Unternehmen im amerikanischen Wirtschaftsrecht, Tübingen: Mohr Siebeck. Baxter, Thomas C. und Joseph Summer (2005), Breaking up is hard to do: an essay on crossborder challenges in resolving financial groups, in: Evanoff, Douglas D. und Kaufman, George G. (Hrsg.), Systemic financial crises: Resolving large bank insolvencies, Singapur: World Scientific Publishing, S. 175-191. Benston, George J. (1989), The federal "safety net" and the repeal of the Glass-Steagall act's separation of commercial and investment banking, Journal of Financial Services Research, 2. Jg., S. 287-305. Berglöf, Erik (1991), Corporate Control and Capital Structure: Essays on Property Rights and Financial Contracts, Stockholm: Stockholm School of Economics, IIB Institute of International Business. Beringer, Markus (2007), Das Spartentrennungsprinzip der Lebensversicherung: nach Umsetzung von Solvency II noch zeitgemäß? - Eine risikotheoretische und empirische Analyse, Karlsruhe: Verlag Versicherungswirtschaft. Beyer, Jürgen (2009), Zur Nivellierung der nationalen Differenzen des Kapitalismus durch globale Finanzmärkte, in: Beckert, Jens und Christoph Deutschmann (Hrsg.), Wirtschaftssoziologie, Sonderheft der Kölner Zeitschrift für Soziologie und Sozialpsychologie, Wiesbaden: VS Verlag, S. 305-325.

56

Im gleichen Sinne das diesem Beitrag vorangestellte Zitat in Bundesregierung (2012, S. 7).

370

Florian Möslein

Binder, Jens-Hinrich (2012), Regulierungsinstrumente und Regulierungsstrategien im Kapitalgesellschaftsrecht, Tübingen: Mohr Siebeck. Binder, Jens-Hinrich (2013), Durchsetzung von Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken, Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (ORDO), Bd. 64, S. 377-403. Birchler, Urs, Diana Festl-Pell, René Hegglin und Inke Nyborg (2010), Faktische Staatsgarantie fur Grossbanken, Gutachten erstellt im Auftrag der SP Schweiz, Zürich: Universität Zürich. Blank, Thomas (1991), Finanzinnovationen und Geldpolitik, Berlin: Duncker und Humblot. Blum, Ulrich (2012), Pro Trennbankensystem - Transparente Systemik, Leitartikel, Wirtschaftsdienst, 92. Jahrgang, Heft 1. Blundell-Wignall, Adrian, Gert Wehinger and Patrick Slovik (2009), The Elephant in the Room: The Need to Deal with what Banks Do, OECD Journal Financial Market Trends, Heft 2, S. 1-27. Bofinger, Peter (1990), Finanzinnovation und internationaler Kooperationsbedarf in der Geldpolitik, in: File, Wolfgang und Claus Köhler (Hrsg.), Kooperation, Autonomie und Devisenmarkt, Berlin: Duncker und Humblot, S. 99-122. Boot, Arnoud W.A. und Anjan V. Thakor (1997), Banking Scope and Financial Innovation, Rev. Financ. Stud. , Bd. 10, S. 1099-1131. Brandi, Tim O. und Konrad Gieseler (2013), Entwurf eines Trennbankengesetzes, Der Betrieb (DB), S. 741-747. Broome, Lissa L. und Jerry W. Markham (1999), Banking and Insurance: Before and after the Gramm-Leach-Bliley Act, 25 J. Corp. L. 723. Büschgen, Hans E. (1970), Universalbanken oder spezialisierte Banken als Ordnungsalternativen für das Bankgewerbe der Bundesrepublik Deutschland unter besonderer Berücksichtigung der Sammlung und Verwendung von Kapital, Gutachten erstattet der Gesellschaft für Bankwissenschaftliche Forschung e.V., Bankwirtschaftliche Sonderveröffentlichung, Köln: Institut für Bankwirtschaft und Bankrecht an der Universität zu Köln. Büschgen, Hans E. (1971), Das Universalbankensystem, Frankfurt/ M.: Fritz Knapp Verlag. Büschgen, Hans E. (1977), Die Frage der „Macht der Banken" im Spiegel wirtschafts- und gesellschaftspolitischer Ideologien, in: Universalbankensystem als historisches und politisches Problem, Zweites Beiheft zum Bankhistorischen Archiv, Frankfurt/ M.: Fritz Knapp Verlag. Büschgen, Hans E. (1997), Universalbankensystem versus Trennbankensystem: Vor- und Nachteile, Die Bürger im Staat, 47. Jg., Heft 1, S. 16-21. Bundesanstalt für Finanzdienstleistungsaufsicht (2013), Richtlinie zur Durchführung und Qualitätssicherung der laufenden Überwachung der Kredit- und Finanzdienstleistungsinstitute durch die Deutsche Bundesbank in der Fassung der Bekanntmachung vom 21.5.2013, abrufbar unter http://www.bafin.de/SharedDocs/Aufsichtsrecht/DE/Richtlinie/rl_l 3052 l a u f sichtsrichtlinie.html Bundesbank (2010), Finanzstabilitätsbericht 2010, Frankfurt am Main: Selbstverlag der Deutschen Bundesbank. Bundesregierung (2012), Trennung von Geschäftsfeldern im Bankensektor - Krisenprävention durch Einzäunung, Antwort auf die Kleine Anfrage der Abgeordneten Manfred Zöllmer, Nicolette Kressl, Joachim Poß, weiterer Abgeordneter und der Fraktion der SPD, Bundestags-Drucksache 17/8935. Bundesregierung (2013), Entwurf eines Gesetzes zur Abschirmung von Risiken und zur Planung der Sanierung und Abwicklung von Kreditinstituten und Finanzgruppen v. 6. Februar 2013, abrufbar unter http://www.bundesfinanzministerium.de/Content/DE/Downloads/Abt_7/ Gesetzentwurf-Abschirmung-Bankenrisiken.pdf? blob=publicationFile&v= 1. Burghof, Hans-Peter (2012), Contra Trennbankensystem: Kreative Vielfalt zulassen!, Leitartikel, Wirtschaftsdienst, 92. Jahrgang, Heft 1. Buzbee, William (2009), Federalism Floors, Ceilings, and the Benefits of Federalism's Institutional Diversity, in: ders. (Hrsg.), Preemption Choice: The Theory, Law, and Reality of Federalism 's Core Question, Cambridge: Cambridge University Press, S. 98-115. Carnell, Richard Scott Carnell, Jonathan R. Macey und Geoffrey P. Miller (2009), Banking Law and Regulation, 4. Aufl., Gaithersburg: Aspen Law & Business.

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

371

Chow, Julian T.S. und Jay Surti (2011), Making Banks Safer: Can Volcker and Vickers Do It?, IMF Working Paper, abrufbar unter http://www.imf.org/external/pubs/ft/wp/2011/ wpll236.pdf. Deeg, Richard (1999), Finance Capitalism Unveiled: Banks and the German Political Economy, Ann Arbor MI: The University of Michigan Press. Dorf, Michel C./ Sabel, Charles F. (1998), A Constitution of Democratic Experimentalism, Columbia Law Review, Bd. 98, S. 267-473. Driftmann, Hans Heinrich (2012), Auf einem Bein steht sich's schlecht, ifo-Schnelldienst Nr. 21, 65. Jahrgang, S. 6-9. Edwards, Jeremy und Klaus Fischer (1994), Banks, Finance and Investment in Germany, Cambridge: Cambridge University Press. Europäische Kommission (2012), Grünbuch Schattenbankwesen, COM(2012) 102 final Fanto, James (2004), Subtle Hazards Revisited: The Corruption of a Financial Holding Company by a Corporate Client's Inner Circle, 70 Brook. L. Rev. 1. Fein, Melanie L. (2006), Federal Bank Holding Company Law, Loseblatt, New York: Law Journal Seminars Press. Fein, Melanie L. (2011), Securities Activities of Banks, 4. Aufl. (Loseblatt), New York: Wolters Kluwer. Financial Stability Board (2011), Shadow Banking: Scoping the Issues, abrufbar unter http://www.financialstabilityboard.org/publications/r_110412a.pdf. Financial Stability Oversight Council (2011), Study and Recommendations on Prohibitions on Proprietary Trading and Certain Relationships with Hedge Funds and Private Equity Funds, abrufbar unter http://www.treasury.gov/initiatives/documents/volcker%20sec%20% 20619%20study%20final%201 %2018%2011 %20rg.pdf. Flannery, Mark (2010), Stabilizing Large Financial Institutions with Contingent Capital Certificates, Arbeitspapier, abrufbar unter http://papers.ssrn.com/sol3/papers.cfm7abstract_id =1798611. Focarelli, Dario, David Marquez-Ibanez und Alberto Franco Pozzolo (2011), Are Universal Banks Better Underwriters? Evidence from the Last Days of the Glass-Steagall Act, ECB Working Paper No. 1287, abrufbar unter http://www.ecb.int/pub/pdf/scpwps/ecbwpl287.pdf. Frühauf, Markus (2013), Kapitalisieren statt spalten, Frankfurter Allgemeine Zeitung v. 8.2.2013. Gabriel, Sigmar (2011), Ende einer Epoche, Der Spiegel vom 16.10.2011, S. 22-24, abrufbar unter http://www.spiegel.de/spiegel/print/d-81015400.html. Garten, Helen A. (1990), Subtle Hazards, Financial Risks, and Diversified Banks: an Essay on the Perils of Regulatory Reform, 49 Md. L. Rev. 314. Gary, Alison K. (2012), Creating a Future Economic Crisis: Political Failure and the Loopholes of the Volcker Rule, 90 Or. L. Rev. 1339-1423. Grant, Joseph Karl (2010), What the Financial Services Industry Puts Together Let No Person Put Asunder: How the Gramm-Leach-Bliley Act Contributed to the 2008-2009 American Capital Markets Crisis, 73 Alb. L. Rev. 371. Greene, Edward F. und Paul-Adolf von Hehn (1984), Neuere Entwicklungen im amerikanischen Bankenrecht unter besonderer Berücksichtigung des Glass Steagall Act, Recht der Internationalen Wirtschaft (RIW), S. 494-504. Grundmann, Stefan, Christian Hofmann und Florian Möslein (2009), Finanzkrise und Wirtschaftsordnung: Krisenursachen, Finanzmarktstabilisierung, Finanzmarktstabilität, in: diess. (Hrsg.), Finanzkrise und Wirtschaftsordnung, Berlin: de Gruyter, S. 1-40. Günther, Marcus (2010), Systemrelevanz von Finanzinstituten, Wertpapier-Mitteilungen (WM), S. 825-831. Gunningham, Neil und Peter Nils Grabosky (1998), Smart Regulation - Designing Environmental Policy, Oxford: Oxford University Press. Hall, Peter A. und Daniel W. Gingerich (2004), Spielarten des Kapitalismus und institutionelle Komplementaritäten in der Makroökonomie - eine empirische Analyse, Berliner Journal für Soziologie, Bd. 14, S. 5-32. Hall, Peter A. und David Soskice (2001), An introduction to varieties of capitalism, in: diess. (Hrsg.), Varieties of capitalism - the institutional foundations of comparative advantage, Oxford: Oxford University Press, S. 1-68.

372

Florian Möslein

Handelsblatt (2013), Wie Goldman Sachs das Eigenhandelsverbot umgeht, Ausgabe vom 9. Januar, abrufbar unter http://www.handelsblatt.com/finanzen/boerse-maerkte/boerseinside/volcker-regel-wie-goldman-sachs-das-eigenhandelsverbot-umgeht/7605458.html. Hart, Oliver/Zingales, Luigi (2011), A New Capital Regulation for Large Financial Institutions, Am. Law. Econ. Rev., Bd. 13, S. 453-490. Haunreiter, Diego (2011), Die Krisenabwehr im Bankengesetz, Bern: Stämpfli. Herring, Richard (2003), International Financial Conglomerates: Implications for Bank Insolvency Regimes, in Kaufman, George G. (Hrsg.), Market Discipline in Banking: Theory and Evidence, Amsterdam: Elsevier, S. 99-129. Hew, Florian (1976), Entwicklungstendenzen im amerikanischen Bankensystem, Bern/Stuttgart: Haupt. HM Treasury (2012), Banking reform: delivering stability and supporting a sustainable economy, White Paper v. 14. Juni, abrufbar unter http://www.hm-treasury.gov.Uk/d/ whitepaper_banking_reform_140512.pdf. Hochrangige Expertengruppe für Strukturreformen im EU-Bankensektor (2012), Schlussbericht, v. 2. Oktober, abrufbar unter http://ec.europa.eu/intemal_marke^ank/docs/highlevelexpertgroup/reportde.pdf. Hoffmann, Jochen (2000), Das Ende des amerikanischen Trennbankensystems, WertpapierMitteilungen (WM), S. 1773-1783. Hopt, Klaus J. (1975), Der Kapitalanlegerschutz im Recht der Banken - Gesellschafts-, bankund börsenrechtliche Anforderungen an das Beratungs- und Verwaltungsverhalten der Kreditinstitute, München: C.H. Beck. Hopt, Klaus J. (1977), Vom Aktien- und Börsenrecht zum Kapitalmarktrecht?, Zeitschrift für das gesamte Handels- und Wirtschaftsrecht (IHR), Bd. 140, S. 201-235 und 389-441. Isaac, William M. und Melanie L. Fein (1988), Facing the Future - Life Without Glass-Steagall, 37 Cath. V.L. Rev. 281. Independent Commission on Banking (2011), Final Report - Recommendations, v. 12. September, abrufbar unter http://www.hm-treasury.gov.Uk/d/ICB-Final-Report.pdf. International Monetary Fund/Bank for International Settlements/Financial Stability Board (2009), Guidance to Assess the Systemic Importance of Financial Institutions, Report to the G-20 Finance Ministers and Central Bank Governors, abrufbar unter http://www.imf.org/ external/np/g20/pdf/100109.pdf. Jackson, Gregory und Richard Deeg (2006), How many varieties of capitalism? Comparing the comparative institutional analyses of capitalist diversity, MPIfG Discussion Paper 06/2, Köln: Max-Planck-Institut fur Gesellschaftsforschung. Jenkins, Patrick (2013), Brussels softens line on bank ringfences, Financial Times v. 29. Januar. Kahle, Christian (2007), Die Eigentumsrechtliche Entflechtung (Ownership Unbundling) der Energieversorgungsnetze aus europarechtlicher und verfassungsrechtlicher Sicht, Recht der Energiewirtschaft (RdE), 293-299. Kane, Edward J. (2012) The Inevitability of Shadowy Banking, Arbeitspapier, abrufbar unter http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2026229. Kirchner, Christian (2009), Prinzipien für eine kluge Regulierung, Frankfurter Allgemeine Zeitungv. 26. März, S. 14. Kochinke, Clemens und Christiane Krüger (2000), Allfinanzuntemehmen in den USA - neue Chancen durch den Gramm-Leach-Bliley Act, Recht der Internationalen Wirtschaft (RIW), S. 518-525. König, Silke (2001), Zertifizierung und Innovation im Wertpapieremissionsgeschäft, Köln: Eul Verlag. Konzelmann, Sue und Marc Fovargue-Davies, Gerhard Schnyder (2012), The faces of liberal capitalism: Anglo-Saxon banking systems in crisis?, Cambridge Journal of Economics, Bd. 36, S. 495-524. Krämer, Rosa-Maria (1996), Neue Gesetzentwürfe zur Glass-Steagall Reform, WertpapierMitteilungen (WM), S. 45-48. Kumpan, Christoph und Patrick C. Leyens (2008), Conflicts of Interests of Financial Intermediaries - Towards a Global Common Core in Conflicts of Interests Regulation, European Company and Financial Law Review (ECFR), S. 72-100.

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

373

LeGraw, Joan M. und Stacey L. Davidson (1989), Glass-Steagall and the "Subtle Hazards" of Judicial Activism, 24 New Eng. L. Rev. 225. Macey, Jonathan R. (1999), The Business of Banking: Before and after Gramm-Leach-Bliley, 25 J. Corp. L. 691. Markey, Edward J. (1990), Why Congress Must Amend Glass-Steagall: Recent Trends in Breaching the Wall Separating Commercial and Investment Banking, 25 New Eng. L. Rev. 457. Markham, Jerry W. (2010), The Subprime Crisis - A Testmatch for the Bankers: Glass-Steagall vs. Gramm-Leach-Bliley, 12 U. Pa. J. Bus. L. 1081. Martini, Eberhard (1991), Hat das deutsche Universalbankensystem Zukunft?, Österreichisches Bankarchiv, S. 615-620. Mikolayczyk, Rolf-Peter (2011), Veränderung des US-Bankensystems als Wurzel der Bankenkrise 2008, Sternenfels: Verlag Wissenschaft und Praxis. Möschel, Wemhard (1978), Das Trennsystem in der US-amerikanischen Bankwirtschaft, Baden-Baden: Nomos. Möslein, Florian (2011), Dispositives Recht - Zwecke, Strukturen und Methoden, Tübingen: Mohr Siebeck. Möslein, Florian (2012), Steuerrecht und Marktstabilität, Juristenzeitung (JZ), S. 243-251. Möslein, Florian (2013), Finanzinnovation als Rechtsproblem - Einordnung, Bewertung und Regulierung, Zeitschrift für Bankrecht und Bankwirtschaft (ZBB), S. 1-16. Mülbert, Peter O. (2011), Systemrelevanz, in: Festschrift für Uwe H. Schneider, Köln: Otto Schmidt, S. 855-872 Ohler, Christoph (2010), Bankensanierung als staatliche Aufgabe, Gewerbearchiv, S. 47-60. Ojo, Marianne (2013), „ Volcker/Vickers Hybrid"?: The Liikanen Report and Justifications For Ring-Fencing and Separate Legal Entities, Arbeitspapier, abrufbar unter http://ssrn.com/abstract=2211171. Ostrom, Elinor (2005), Understanding Institutional Diversity, Princeton: Princeton University Press. Parliamentary Commission on Banking Standards (2012), First Report of Session 2012-13 v. 19. Dezember, abrufbar unter http://www.publications.parliament.uk/pa/jt201213/ jtselect/jtpcbs/98/98.pdf. Presse- und Informationsamt der Bundesregierung (2013), Erklärung des DeutschFranzösischen Ministerrats anlässlich des 50. Jahrestags des Elysee-Vertrags, Pressemitteilung Nr. 22/23 vom 22. Januar. Reimer, Ekkehard und Christian Waldhoff (2011), Verfassungsrechtliche Vorgaben für Sonderabgaben des Banken- und Versicherungssektors, Heidelberg u.a.: Springer. Richardson, Matthew und Roy C. Smith, Ingo Walter (2009), Large Banks and the Volcker Rule, in: Acharya, Viral V. et al. (Hrsg.), Regulating Wall Street: The Dodd-Frank Act and the New Architecture of Global Finance, New Jersey: John Wiley, S. 181-212. Rohde-Liebenau, Wolfram (1973), Die Spartentrennung als Ordnungsprinzip der Versicherungswirtschaft, Zeitschrift für die gesamte Versicherungswissenschaft (ZVersWiss), Bd. 62, S. 509-529. Ruffert, Matthias (2009), Verfassungsrechtliche Überlegungen zur Finanzmarktkrise, Neue Juristische Wochenschrift (NJW), S. 2093-2097. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2009), Die Zukunft nicht aufs Spiel setzen - Jahresgutachten 2009/2010, Wiesbaden: Statistisches Bundesamt. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2010), Chancen für einen stabilen Aufschwung - Jahresgutachten 2010/2011, Wiesbaden: Statistisches Bundesamt. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2011), Verantwortung für Europa wahrnehmen - Jahresgutachten 2011/2012, Wiesbaden: Statistisches Bundesamt. Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung (2012), Stabile Architektur für Europa - Handlungsbedarf im Inland - Jahresgutachten 2012/2013, Wiesbaden: Statistisches Bundesamt. Schaffelhuber, Kai A. (2011), Regulierung des „Schattenbankensystems", GWR 2011, S. 488.

374

Florian Möslein

Schiessl, Maximilian (1988), Abschied von "Glass-Steagall"? Zur geplanten Umstrukturierung des amerikanischen Bankensystems, Zeitschrift für Wirtschaftsrecht und Insolvenzpraxis (ZIP), S. 267-270. Schmidt, Reimer (1964), Die Spartentrennung - Eine juristische Analyse, Zeitschrift für die gesamte Versicherungswissenschaft (ZVersWiss), Bd. 53, S. 265-280. Schön, Wolfgang und Alexander Hellgardt, Christine Osterloh-Konrad (2010), Bankenabgabe und Verfassungsrecht, Wertpapier-Mitteilungen (WM), S. 2145 und 2193. Schulz-Henning, Ingo (1980), Bank Holding Companies im Wirtschaftsrecht der USA- Eine rechtliche undfaktische Analyse, Baden-Baden: Nomos. Schwarcz, Steven L. (2012), Regulating Shadow Banking, 31 Review of Banking and Financial Law, 619. Sieling, Carsten (2011), Beitrag zum Abschlusspapier des Finanzmarkt-Trialogs zum Thema „Too Big to Fail", koordiniert von Gesine Schwan, Humboldt-Viadrina School of Governance, abrufbar unter http://www.humboldt-viadrina.0rg/w/files/politische-plattfon11/ ergebnispapier_thematik-too-big-to-fail-_november_2011 .pdf. Sinn, Hans-Wemer (2010), Keine gute Idee, Wirtschaftswoche Nr. 6 vom 6. Februar, S. 38. Socher, Karl (2012), Trennbankensystem vermeidet Krisen des Zahlungssystems, Belastung des Steuerzahlers und Überregulierung des Finanzmarkts, ifo-Schnelldienst Nr. 21, 65. Jahrgang, S. 3-6. Stegmann, Claus (2012), Aufsichtsrecht und internationale Rechnungslegung, in: Klauck, KaiOliver/Stegmann, Claus (Hrsg.), Basel III: Vom regulatorischen Rahmen zu einer risikoadäquaten Gesamtbanksteuerung, Stuttgart: Schäffer-Poeschel, S. 3-22. Squam Lake Group (2010), The Squam Lake Report - Fixing the Financial System, Princeton: Princeton University Press. Steinbrück, Peer (2012), Vertrauen zurückgewinnen: Ein neuer Anlauf zur Bändigung der Finanzmärkte, Berlin. Türk, Bernd (1996), Von der Lean Production zum Lean Banking - Konzept einer theoretischen Fundierung, Wiesbaden: Gabler. Wallison, Peter J. (2011), Did the „Repeal" of Glass-Steagall Have Any Role in the Financial Crisis? Not Guilty. Not Even Close, in: Tatom, John A., Financial Market Regulation: Legislation and Implications, New York u.a.: Springer, S. 19-30. Wall Street Journal (2011), UBS Tells Why it Cut Off a Limb, v 12.11.2011, abrufbar unter http://online.wsj.com. Wall Street Journal (2012), UBS to Reorganize Investment Bant, abrufbar unter http://online.wsj .com. Weber, Adolf (1902), Depositenbanken und Spekulationsbanken - Ein Vergleich deutschen und englischen Bankwesens, Leipzig: Duncker & Humblot (zugl. Univ. Bonn, Diss.). Whitehead, Charles K. (2011), The Volcker Rule and Evolving Financial Markets, 1 Harv. Bus. L. Rev. 40. Will, Christina (2006), Die Auswirkungen der energierechtlichen Entflechtungsvorschriften auf kommunale Energieversorgungsunternehmen, Deutsches Verwaltungsblatt (DVBl.), S. 12781287. Wilmarth, Arthur E. (1990), The Expansion of State Bank Powers, the Federal Respons, and the Case for Preserving the Dual Banking System, 58 Fordham L. Rev. 1133-1256. Wilmarth, Arthur E. (2009), The Dark Side of Universal Banking: Financial Conglomerates and the Origins of the Subprime Crisis, 41 Conn. Law Rev. 963-1050. Wissenschaftlicher Beirat beim Bundesministerium für Wirtschaft und Technologie (2010), Reform von Bankenregulierung und Bankenaufsicht nach der Finanzkrise, Gutachten Nr. 3/2010, Berlin: Bundesministerium für Wirtschaft und Technologie, abrufbar unter http://www.bmwi.de/BMWi/Redaktion/PDF/Publikationen/Studien/reform-vonbankenregulierung-und-bankenaufsicht-wissenschaftlicher-beirat,property=pdf,bereich= bmwi2012,sprache=de,rwb=true.pdf. Wolf, Martin (2012), Missing pickets in Europe's new ring-fence, Financial Times v. 5.10.2012. Zemp, Simon (2013), Die vergangenheitsbezogene Strategie der UBS, Neue Zürcher Zeitung v. 29.1.2013.

Die Trennung von Wertpapier- und sonstigem Bankgeschäft

375

Zentrum für Europäische Wirtschaftsforschung (2013), Trennbanken - Eine analytische Bewertung von Trennbankenelementen und Trennbankensystemen im Hinblick auf Finanzmarktstabilität, Abschlussbericht für den Bundesverband Öffentlicher Banken Deutschlands (VÖB), Mannheim, Projektleiter Michael Schröder. Zimmer, Daniel (2010), Finanzmarktregulierung - Welche Regelungen empfehlen sich für den deutschen und europäischen Finanzsektor?, Gutachten G zum 68. Deutschen Juristentag, München: C.H. Beck. Zimmer, Daniel und Lukas Rengier (2010) Entflechtung, Fusionskontrolle oder Sonderregulierung für systemrelevante Banken? Ansätze zur Lösung des „Too-big-to-fail"Problems, Zeitschrift für Wettbewerbsrecht (ZWeR), S. 105-138. Zingales, Luigi (2012), Capitalism for the People: Recapturing the Lost Genius of American Prosperity, New York: Perseus Books.

Zusammenfassung Die Trennung von Wertpapier- und sonstigem Bankgeschäft hatte vor allem in den USA eine lange Tradition. Seit der globalen Finanzkrise werden entsprechende Vorgaben jedoch weltweit, nunmehr allerdings in veränderten Gestaltungsvarianten rechtspolitisch diskutiert; der deutsche Gesetzgeber hat ihre Einfuhrung kürzlich bereits beschlossen. Während zur Begründung traditionell vor allem institutsbezogene Erwägungen angeführt wurden, sind seit der Finanzkrise Fragen der Systemstabilität in den Vordergrund gerückt. Allerdings ist keineswegs erwiesen, dass die Einführung eines Trennbankenregimes Systemrisiken zu reduzieren vermag. Zudem beschränkt ein solches Regime die institutionelle Vielfalt und droht deshalb, selbst destabilisierend zu wirken. Die Gestaltungsvarianten, die als Alternativen zum klassischen Trennbankensystem diskutiert werden, können diese Bedenken nicht zerstreuen. Eine Aktivitätsbeschränkung nach dem Vorbild der US-amerikanischen Volcker Regel wirft erhebliche Abgrenzungsprobleme auf und lässt überdies eine Zunahme unregulierter Schattenbanken befurchten. Die konzerninterne Spartentrennung, wie sie auf europäischer Ebene sowie in Großbritannien und Deutschland geplant bzw. beschlossen ist, bietet ebenfalls keine aussichtsreiche Handhabe gegen ein Übergreifen systemischer Risiken. Einerseits stehen einzelne Konzerngesellschaften nach geltendem Unternehmensrecht keineswegs völlig unverbunden nebeneinander, sondern befinden sich in einem Konzernverbund; andererseits droht das Anlegervertrauen in den Gesamtkonzem selbst bei Schieflage nur einzelner Sparten erschüttert zu werden. Insgesamt überwiegen daher die Bedenken gegen strukturelle Trennbankenregeln, die maximalinvasiv in gewachsene Bankenstrukturen eingreifen, zugleich aber hochkomplex sind und deshalb sowohl Umgehungsgefahren als auch Risiken nicht intendierter Nebenwirkungen bergen. Als Alternative bietet sich indessen eine anreizorientierte, zielgenauere Regulierung von Wertpapierhandelsgeschäften an.

376

Florian Möslein

Summary: The separation of investment and commercial banking: Dual banking system, ring-fencing and Volcker rule as means to reduce systemic risk for the financial system The separation of investment and commercial banking has had a long tradition primarily in the US. Since the global financial crisis similar rules are being discussed by rule-makers all over the world, now however with various modifications. The German legislator has just decided on their introduction. Traditionally, such rules have been justified by considerations with regard to single financial institutions, but since the financial crisis the question of system stability has come to the fore. By no means has it been proven, however, that the separation of investment and commercial banking is able to reduce systemic risks. In addition, such a regime restricts institutional diversity and thus threatens to have destabilizing effects itself. The modifications which are currently being discussed as alternatives to the classical separate banking system cannot dispel these doubts. A restriction of activities based on the US-american Volcker Rule causes substantial problems with respect to identifying prohibited transactions. Moreover, it raises concerns about an increase in unregulated shadow banks. The intra-group separation of business lines which is planned and/or adopted on the European level, in Great Britain and Germany does not offer any promising leverage against systemic risk spreading: According to applicable corporate law, individual corporate affiliates are by no means entirely unconnected, but remain effectively integrated in a corporate group. Moreover, investor confidence in the entire group will be shaken even in case of difficulties of single divisions only. To sum up, the reservations against structural rules introducing a separate banking system are predominant, as such rules massively intervene in grown bank structures, at the same time being very complex, and for this reason posing the risk of circumvention as well as the risk of unintended side-effects. An incentive-based, more focused regulation of securities trading seems to constitute a much better alternative.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Jens-Hinrich Binder

Durchsetzung von Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken? Inhalt I. Einfuhrung und Fragestellung II. Die Krise als Scheitern des tradierten Ordnungsrahmens: Fehlanreize und ihre Ursachen 1. Staatliche Sanierungsbeihilfen als Instrument der Wahl im Rahmen der Krisenbewältigung 2008-2009 und Außerkraftsetzung der Marktbereinigungsfunktion des Insolvenzrechts 2. Ursachen 3. Folgerungen III. Rekonstruktion der Marktbereinigungsfunktion durch Übertragungsmechanismen - Perspektiven und Unwägbarkeiten 1. Systematischer Zusammenhang und Funktionsweise 2. Die Übertragung systemrelevanter Teile am Maßstab des Zielprogramms. IV. Schluss

378 380

380 383 387 389 389 393 398

Literatur

399

Zusammenfassung

402

Summary: The Enforcement of Market Discipline through a Transfer of Systemic Functions in Banks

402

„Die Großbanken sind so groß, daß der Staat (...) sie doch nicht in Konkurs gehen lassen kann. Er übt also praktisch eine Staatsgarantie für sie aus." Walter Eucken (1946/1999, S. 39)

„It is all very well for academic liberals to claim that the best long-term course for the economy would be for the authorities to allow any bank to close its doors (...). Even if the externalities generated by the resulting panic were not so severe as to make this line of action politically wasteful, it would not be politically acceptable, in the sense that a government doing so would suffer extreme unpopularity." Charles Goodhart (1999, S. 241)

378

Jens-Hinrich Binder

„[Die] heute von der Europäischen Kommission angenommenen Vorschläge für EU-weite Vorschriften zur Sanierung und Abwicklung von Banken (...) stellen sicher, dass die Behörden in Zukunft die nötigen Mittel an der Hand haben, um entscheidend eingreifen zu können, bevor Probleme auftreten bzw. in einem frühen Stadium bei bereits eingetretenen Problemen." EU-Kommission

(2012b)

I. Einführung und Fragestellung Zu den legislativen Konsequenzen der globalen Finanzkrise seit dem Jahr 2007 zählen nicht zuletzt innovative Insolvenzbewältigungsmechanismen, die anstatt auf die verfahrensförmige Liquidation auf die Trennung des betroffenen Geschäfts und die Übertragung systemrelevanter Geschäftsteile auf Dritte abzielen. Der vorliegende Beitrag setzt sich kritisch mit diesen Konzepten auseinander. Er gilt damit einem der wichtigsten Bestandteile der kaum mehr überschaubaren Regulierungsinitiativen auf internationaler, europäischer und nationaler Ebene, die sowohl auf die künftige Krisenprävention als auch auf die Verbesserung der Handlungsmöglichkeiten in der akuten Krisensituation selbst abzielen.1 Nicht zuletzt angesichts der massiven Belastungen der nationalen Haushalte infolge der geleisteten Sanierungsbeihilfen (im weitesten Sinn)2 herrscht im politischen Diskurs national wie international Einvernehmen, dass derartige Interventionen zu Lasten des Fiskus in künftigen Krisen nach Möglichkeit zu vermeiden sind. Auch große, komplexe Banken und Finanzinstitute sollen danach im Insolvenzfall abgewickelt werden können - wenn nicht nach dem allgemeinen Insolvenzrecht, so doch jedenfalls in Verfahren, die ihm in ihren Wirkungen zumindest vergleichbar sind.3 Nicht nur die präventiv orientierten, sondern auch die auf die Insolvenzbewältigung bezogenen Reformen gelten zugleich dem Anreizsystem für die maßgeblichen Akteure, d.h. Geschäftsleiter, Gesellschafter und Gläubiger der Bank. Die während der Krise allenthalben gewährten finanziellen Unterstützungsmaßnahmen zugunsten notleidender Institute haben mit dem sonst geltenden insolvenzrechtlichen Haftungsregime (sei es

2 3

Als im hier untersuchten Kontext des Rechtsrahmens zur Insolvenzbewältigung (im Unterschied zu präventiv orientierten Maßnahmen) von Interesse sind insbesondere zu nennen: (a) auf internationaler Ebene: Financial Stability Board (2010 und 2011), (b) auf europäischer Ebene: EU-Kommission (2012a) sowie schließlich (c) auf nationaler Ebene: Bundesministerium der Finanzen (2012); vgl. im Überblick etwa Binder (2012, S. 429 ff.); Höche (2010, S. 2004 ff.). Hierzu noch sogleich unten sub II. 1. b. Charakteristisch das diesem Beitrag vorangestellte Zitat aus EU-Kommission (2012b) sowie Bundesregierung (2010, S. 1): „Im Sinne einer wirksamen Krisenprävention muss (...) der rechtliche und institutionelle Rahmen so justiert werden, dass (...) Anreizverzerrungen und Ansteckungseffekte so weit wie möglich reduziert werden. Ziel muss es daher sein, die Schieflage einer systemrelevanten Bank ohne Gefahr für die Stabilität des Finanzsystems zu bewältigen und dafür Sorge zu tragen, dass Eigenund Fremdkapitalgeber die Kosten der Insolvenzbewältigung so weit wie möglich selbst tragen." Vgl. auch Sachverständigenrat (2009/10, Tz. 196); Financial Stability Board (2010, S. 3 ff.); als Überblick vgl. auch Franke/Krahnen (2012, S. 401 f.); Gleeson (2009, S. 95 ff.).

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

379

allgemeiner oder spezieller Natur4) zugleich auch das marktwirtschaftliche Sanktionensystem ad hoc und ausnahmsweise außer Kraft gesetzt.5 Sie haben indessen, worauf zurückzukommen ist, letztlich nur einen - treffend als implizite Staatsgarantie bzw. implizite Versicherung6 bezeichneten - Mechanismus bestätigt, der rechtsordnungsübergreifend als Option für außerordentliche Krisenlagen seit langem als ungeschriebener Bestandteil des Institutionensystems7 für das Wirtschaften im Finanzsektor anerkannt war. Die Krise hat so nicht nur die faktisch bestehenden Belastungsgrenzen der betroffenen Jurisdiktionen,8 sondern auch die politischen Interessenkonflikte bei der Gewährung von Beihilfen mit Auswirkungen auf ausländische Märkte deutlich gemacht.9 Auch mit Blick darauf ist das bisherige, von der impliziten Einstandsverantwortung des Fiskus für fallierende besonders große, komplexe und/oder national bzw. international stark vernetzte - „systemrelevante"10 - Institute geprägte Institutionensystem in Zweifel geraten. Rechtsordnungsübergreifend wird diskutiert, welche Mechanismen in Betracht kommen, um die bestehenden Fehlanreize zu korrigieren, Gesellschafter und Gläubiger an der Verlusttragung maßgeblich zu beteiligen und so der Marktdisziplin auch und gerade im Rahmen der Insolvenzbewältigung Geltung zu verschaffen. Der Mechanismus der Übertragung systemrelevanter Vermögenswerte und Verbindlichkeiten insolvenzreifer Banken auf einen privatwirtschaftlichen Erwerber oder auf eine hoheitlich errichtete „Brückenbank", dem die nachfolgenden Ausführungen gelten, ist in mehreren Jurisdiktionen bereits - zum Teil seit langem - etabliert. Der Beitrag will untersuchen, ob und ggf. unter welchen Voraussetzungen dieser Mechanismus ein effektives Substitut für die Ordnungsfunktionen des allgemeinen Insolvenzrechts zu bieten vermag. Ausgehend von einer kurzen Bestandsaufnahme des rechtlichen status quo und der in der globalen Finanzkrise gewonnenen Erfahrungen, wird zunächst ein Anforderungsprofil entworfen, an dem sich jedes Instrument zur Insolvenzbewältigung bei (systemrelevanten) Banken messen lassen muss (unten II.). Anhand des so ge4

5

Rechtsvergleichend findet sich jedenfalls vor der globalen Finanzkrise ein außerordentlich breites Spektrum unterschiedlicher Konzeptionen für die Insolvenzbewältigung bei Banken, das von der nur geringfügig modifizierten Anwendung allgemeinen Insolvenzrechts (so in England vor 2009) über eine Kombination aus aufsichtsrechtlichem Vorverfahren und allgemeinem Insolvenzverfahren (so in Deutschland vor 2011/12) bis hin zu gesondert kodifizierten Spezialverfahren reicht (so z.B. in der Schweiz oder in den USA), vgl. hierzu näher Binder (2005) (speziell zum Vergleich England/Deutschland) sowie allgemein (z.T. veraltet) Giovanoli/Heinrich (1999).

Besonders deutlich in diesem Sinne bereits Sachverständigenrat (2009, Tz. 27) und noch näher unten sub II. 1. 6 Vgl. etwa Sachverständigenrat (2009, Tz. 27 und 133); für die USA etwa Coffee (2012, S. 1048); siehe nochmals auch bereits Eucken (1946/1999, S. 39). 7 Hier verstanden im Sinne der Institutionenökonomik als Gesamtheit der das menschliche Verhalten prägenden Regeln („the rules of the game in a society or, more formally, ... the humanly devised constraints that shape human interaction"; vgl. grundlegend North (1990/2007, S. 3); vgl. auch Richter/Furubotn (1996/2010, S. 7)). 8 Das augenfälligste Beispiel hierfür aus der globalen Finanz- und Wirtschaftskrise bildet wohl Island, dessen Einlagensicherungssystem ebenso wie der Fiskus selbst mit der Rettung der insolvenzreifen Banken überfordert war (z.B. Dewatripont/Freixas 2012, S. 110). ® Sachverständigenrat (2009, Tz. 229); vgl. auch Mayes (2009, S. 305 ff.). 10 Zum nach wie vor schillernden, wenngleich auch durch internationale Standards zunehmend konkretisierten und mit Blick auf typische, empirisch beobachtbare Ansteckungsrisiken definierten Begriff der Systemrelevanz vgl. überblicksweise etwa Günther (2010), Mülbert (2011) und Schwarcz (2008).

380

Jens-Hinrich Binder

wonnenen Maßstabs wird sodann untersucht, inwieweit der Übertragungsmechanismus den Anforderungen standhält (unten III.), sei es in der derzeit in Deutschland geltenden Fassung, sei es in der reformierten Variante, die von der gegenwärtig im Rechtsetzungsverfahren begriffenen EU-Richtlinie zur Sanierung und Abwicklung von Banken und Wertpapierfirmen 11 zu erwarten ist. Weitere - teils bereits etablierte, teils aber auch erst in der Rechtsetzungsphase befindliche - Instrumente mit vergleichbarer Zielsetzung lassen sich im hier gesetzten Rahmen nicht abschließend bewerten. Dazu zählen insbesondere die präventiv angelegte Erstellung von Krisenplänen durch Institute und Aufsichtsbehörden für den Insolvenzfall sowie die reaktiv konzipierte zwangsweise Umwandlung von Forderungen in Eigenkapital mit dem Ziel der Rekapitalisierung insolvenzreifer Institute, die beide Gegenstand etwa der Rechtsetzung auf EU-Ebene sind (vgl. EU-Kommission, 2012a), erst recht tiefer greifende Pläne zur grundlegenden Umgestaltung der Unternehmensstrukturen im Bankensystem nach Art des Trennbankensystems. 12 Wie sich herausstellen wird, ist die Leistungsfähigkeit des hier untersuchten Übertragungsmechanismus beschränkt; seine erhoffte Bedeutung kann sich allenfalls im Zusammenwirken mit anderen Eingriffsinstrumentarien entfalten. Die hierfür ursächlichen Schwierigkeiten, auf die zurückzukommen sein wird, lassen sich allerdings teilweise verallgemeinern und sind insgesamt charakteristisch für die besonderen Probleme der Insolvenz großer, international vernetzter und komplexer Banken.

II. Die Krise als Scheitern des tradierten Ordnungsrahmens: Fehlanreize und ihre Ursachen 1. Staatliche Sanierungsbeihilfen als Instrument der Wahl im Rahmen der Krisenbewältigung 2008-2009 und Außerkraftsetzung der Marktbereinigungsfunktion des Insolvenzrechts Das im Rahmen der legislativen Aufarbeitung der globalen Finanzkrise vielfach beschworene Motiv, die Notwendigkeit für informelle, ad hoc ins Werk gesetzte Sanierungsbeihilfen zugunsten insolvenzreifer Marktteilnehmer nach Möglichkeit zu vermeiden, 13 überzeugt angesichts der fiskalischen Auswirkungen der während der Krise ergriffenen Maßnahmen geradezu intuitiv: Allein in Europa wurden zwischen Oktober 2008 und Ende 2010 rund 409 Mrd. Euro für Rekapitalisierungsmaßnahmen und Maßnahmen zur Bilanzentlastung mit Blick auf Problemaktiva ausgereicht; hinzu kamen 1.200 Mrd. Euro an Staatsgarantien für Forderungen gegen Banken. Rezipienten waren überwiegend große, international aktive und stark vernetzte Banken, ohne dass die Staatsbeihilfen auf solche Institute beschränkt gewesen wären, und ohne dass einheitliche Maßstäbe für die Auswahl bestanden hätten. 14 Mit diesen Maßnahmen konnten nach dem Zusammenbruch der US-amerikanischen Investmentbank Lehman Brothers in

11 12 13 14

Vgl. EU-Kommission (2012a); dazu einführend etwa Dohm (2012). Hierzu den Beitrag von Möslein (2013). Siehe nochmals die Nachw. soeben sub I. bei und in Fn. 3. Überblick z.B. bei EU-Kommission (2011a) und (2011b); Liikanen et al. (2012, S. 21 f.); Sachverständigenrat (2009, Tz. 172); im Vergleich mit den USA Stolz/Wedow (2010).

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

381

vermutlich gesamtwirtschaftlich kurzfristig sinnvoller Weise15 Ansteckungsgefahren reduziert und nicht nur der weitere Zusammenbruch der globalen Finanzmärkte, sondern auch externe Effekte für die Realwirtschaft zumindest eingedämmt werden. Nicht nur aus fiskalischer16, sondern auch aus wettbewerblicher Perspektive waren und sind die mittel- bis langfristigen Konsequenzen allerdings drastisch. Allein aufgrund ad hoc getroffener politischer Entscheidungen - und nicht aufgrund ex ante festgelegter Kriterien - wurden insolvenzreife oder zumindest in ihrer Überlebensfähigkeit akut bedrohte Marktteilnehmer gestützt. Die Maßnahmen kamen damit gerade im Wettbewerbsprozess gescheiterten Akteuren zugute, die infolge von Verlusten aus risikotragendem Kundengeschäft, dem Eigenhandel und/oder infolge von Ansteckungseffekten in besonderen Austauschbeziehungen (z.B. dem Markt für OTC-Derivate oder Credit Default Swaps)17 vielfach nicht lediglich in Liquiditäts-, sondern auch in Solvenzprobleme geraten waren. Zwar wurden die Hilfen - in der Europäischen Union erzwungen im Rahmen des primärrechtlich vorgesehenen Beihilfenregimes durch die EU-Kommission als Wettbewerbsbehörde18 - unter Bedingungen gewährt, die von Beschränkungen für Dividenden über Restriktionen für die Vergütung von Geschäftsleitern und leitenden Mitarbeitern bis hin zu Auflagen für die Neugestaltung des Geschäftsmodells unter Abwicklung einzelner Geschäftsbereiche reichten. Damit waren Einschnitte in die Rechtsposition der Geschäftsleiter und der Anteilseigner verbunden. Für beide Akteursgruppen blieben die Konsequenzen indes qualitativ hinter denjenigen zurück, die im Falle der Eröffnung eines Insolvenzverfahrens zu befürchten gewesen wären: Geschäftsleiter verlieren dann als Regelfolge nicht nur die Verfügungsbefugnis über das Vermögen der insolventen Gesellschaft, die auf den Insolvenzverwalter übergeht,19 sondern büßen regelmäßig mit dem Amt zugleich das Anstellungsverhältnis ein; zudem prüft der Insolvenzverwalter bestehende Organhaftungsansprüche wegen Pflichtverletzung und setzt diese ggf. gerichtlich durch. Gesellschafter erleiden im Regelverfahren als Residualeigentümer des insolventen Rechtsträgers und damit des von diesem betriebenen Unternehmens aufgrund ihres letzten Rangs in der insolvenzrechtlichen Verteilungsordnung regelmäßig den Totalverlust ihrer rechtlichen und wirtschaftlichen Position.20 Im Vergleich damit

15

16 17 18

19 20

Vgl. auch Laeven/Valencia (2008) mit einer Übersicht über Staatsgarantien in zahlreichen historischen Bankenkrisen. Dazu nochmals oben sub I. bei und in Fn. 8. Dazu IMF/BIS (2009); siehe auch die Nachw. oben Fn. 10 sowie Zimmer/Fuchs (2010, S. 600 ff.). Vgl. zur Bedeutung der europäischen Beihilfekontrolle insoweit Zimmer/Blaschczok (2010); Russo(2012) sowie nochmals EU-Kommission (2011a, 2011b). Zur hier nicht näher zu erörternden Rechtslage nach den Finanzmarktstabilisierungsgesetzen vgl. insbes. § 2 Abs. 2 Finanzmarktstabilisierungsfondsverordnung (FMStFV) i.V.m. § 6 Abs. 4 Finanzmarktstabilisierungsfondsgesetz (FMStFG) (Bedingungen für Garantien); § 3 Abs. 2 FMStFV i.V.m. § 7 Abs. 3 FMStFG (Bedingungen für Rekapitalisierungsmaßnahmen) sowie § 4 Abs. 2 FMStFV i.V.m. § 8 Abs. 2 FMStFG (Bedingungen für die sog. Risikoübernahme). Für das deutsche Insolvenzrecht § 80 der Insolvenzordnung (InsO). Vgl. im deutschen Recht für die AG § 39 Abs. 1 Nr. 5 (Nachrang von Gesellschafterdarlehen) sowie §199 Satz 2 InsO i.V.m. §271 AktG (Auszahlung etwaiger Verwertungsüberschüsse an Gesellschafter). Die letztgenannte Regelung beschreibt naturgemäß den absoluten Ausnahmefall, ist aber nicht nur für das Rangverhältnis zwischen Gläubigem und Gesellschaftern, sondern auch als generelle Zuweisung der Liquidationskompetenz an den Insolvenzverwalter und den damit für die Insolvenz ge-

382

Jens-Hinrich Binder

nehmen sich sowohl - zumal temporäre - Restriktionen im Hinblick auf Vergütungsstrukturen oder Dividendenzahlungen als auch die mit der Kapitalerhöhung zugunsten des Fiskus verbundenen Verwässerungseffekte weniger gravierend aus. Besser gestellt als im Insolvenzverfahren sind schließlich auch und gerade die (ungesicherten) Gläubiger der Rezipienten und damit nicht zuletzt institutionelle Investoren, die als Halter unbesicherter Anleihen maßgeblich an der Refinanzierung des Geschäftsbetriebs beteiligt sind und die in einem Insolvenzverfahren typischerweise ebenfalls Verluste zu tragen haben. Die damit skizzierten Regelfolgen einer Insolvenz stehen in unmittelbarem Zusammenhang mit der Funktion des Insolvenzrechts im marktwirtschaftlichen Sanktionensystem: Insolvenzverfahren haben - unabhängig von der Ausgestaltung als Liquidations- oder als Sanierungsverfahren - zunächst eine subjektive, auf die genannten Akteursgruppen bezogene Ordnungsfunktion, die einen Kernbestandteil jeder marktwirtschaftlich orientierten Wirtschaftsordnung und ein wichtiges, präventiv wirkendes Korrektiv zu den mit der Risikonahme verbundenen Erfolgschancen darstellt.21 Diese Funktion wurde mit den ergriffenen Notmaßnahmen außer Kraft gesetzt. Zu den Konsequenzen der Rettungsmaßnahmen und der damit verbundenen Aussetzung des tradierten Insolvenzrechts zählt indes nicht nur der damit ausgelöste Zusammenbruch der Anreizstruktur des Insolvenzverfahrens als Rechtsrahmen für die verfahrensformige Haftungsrealisierung. Die Rettungsmaßnahmen untergruben vielmehr auch die hiermit verknüpfte, gesamtwirtschaftlich nicht minder bedeutsame objektive Funktion des Insolvenzrechts als Instrument zur Identifikation ineffizient wirtschaftender Akteure im Markt sowie als Katalysator einer Marktbereinigung durch Reallokation der von diesen bewirtschafteten Ressourcen. 22 Indem es im Falle der Vermögensinsuffizienz bzw. nicht kurzfristig ausgleichbarer Illiquidität das Verlustrisiko zunächst den Anteilseignern, sodann anteilig den (ungesicherten) Gläubigern zuweist und dabei die Geschäftsleiter haftungsbewehrten Sorgfaltspflichten zur Absicherung dieser Funktion zuweist, ist ein funktionierendes Insolvenzverfahren, mit anderen Worten, Kernbestandteil des Ordnungsrahmens, der staatliche Kontrolle durch Marktdisziplin idealiter entbehrlich macht oder doch nachhaltig ergänzt. Konzept und Begriff der Marktdisziplin sind spätestens seit der Reform des ursprünglichen Basler Eigenkapitalstandards durch den reformierten Standard („Basel II") 2004 in den Fokus der internationalen Bankenregulierung gerückt, die (als „dritte Säule" neben Eigenkapitalvorgaben und aufsichtsrechtlicher Überwachung auch der Corporate Governance) unter diesem Obergriff detaillierte Vorgaben zu Transparenzpflichten machte. 23 Dies wurde motiviert durch das Bestreben, mit zusätzlichen Informationen die präzisere Einschätzung der Angemessenheit der Eigenkapitalausstattung relativ zum individuellen Risikoprofil zu ermöglichen. 24 Mit der (Verbesserung

21 22

24

regelten funktionellen Vorrang vor der gesellschaftsrechtlichen Liquidation von zentraler Bedeutung; vgl. statt vieler Uhlenbruch (2010, § 199 Rn. 1). Hierzu etwa Thole (2010, S. 66 f. und 2012, S. 222 f.); siehe auch bereits Binder (2009b, S. 5). Hierzu anschaulich Eidenmüller (2010, S. 650); aus betriebswirtschaftlicher Sicht bereits Rohde (1979) sowie aus volkswirtschaftlicher Sicht etwa Gröner (1984); White (2007, S. 1016); ffir einen Überblick vgl. Binder (2009b, S. 5 und 2013). Basler Ausschuss für Bankenaufsicht (2004, Tz. 808 ff.). Vgl. Basier Ausschuss für Bankenaufsicht (2004, Tz. 809).

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

383

der) Fähigkeit der Marktteilnehmer zur effektiven Bewertung der Risikoadäquanz auf der Grundlage hinreichender Information ist allerdings das Konzept nur teilweise beschrieben. Sie ist die erste Stufe eines zweistufigen Prozesses, an die sich die Einflussnahme von Investoren (Eigen- und Fremdkapitalgebern) auf das Risikoprofil anschließen muss, wofür einerseits gesellschaftsrechtliche Einflusswege (insbesondere für die Anteilseigner), andererseits die Gestaltung von Finanzierungsmodalitäten (insbesondere der Zins von Fremdfmanzierungstiteln) zur Verfugung stehen (vgl. z.B. Flannery, 2010; Deutsche Bundesbank, 2005, S. 74 ff.). Marktdisziplin setzt damit Partizipation nicht nur an Gewinnchancen voraus, sondern eben auch Verlusttragung im Falle des Scheiterns der Unternehmung; nur dann bestehen Anreize, auf die Vermeidung einer exzessiven Risikonahme durch die Geschäftsleiter hinzuwirken. Durch Herstellung faktischer Insolvenzimmunität im Wege staatlicher Rettungsmaßnahmen für insolvenzbedrohte Banken sind nach alledem nicht nur Anreize zur Risikominimierung für Anteilseigner, Geschäftsleiter und Gläubiger entfallen und potentielle Fehlanreize für eine exzessive Risikonahme ohne Rücksicht auf mögliche Externalitäten (Verlust- bzw. Haftungsfolgen auf Seiten von Investoren oder ggf. der Allgemeinheit) gesetzt worden („moral hazard"). Vielmehr ist mit der objektiven Marktbereinigungsfunktion auch im Übrigen das freie Spiel der Marktkräfte und sind präventive wie reaktive Elemente der Marktordnung zu Lasten des Fiskus und damit der Allgemeinheit suspendiert worden. 25

2. Ursachen Angesichts der Auswirkungen der in der Krise praktizierten Maßnahmen nicht nur in abstrakt-wirtschaftspolitischer, sondern auch in fiskalischer Hinsicht überrascht bei vordergründiger Betrachtung, dass die Aussetzung der tradierten insolvenzrechtlichen Eingriffsinstrumentarien im Krisenverlauf offenkundig als alternativlos begriffen und eine Anwendung dieser Instrumentarien nach der Insolvenz der Investmentbank Lehman Brothers nicht mehr ernsthaft in Erwägung gezogen worden ist. Gerade in Deutschland, dessen Bankaufsichts- und Insolvenzrecht (wie in zahlreichen anderen Rechtsordnungen) schon vor der Krise speziell auf die Bedürfnisse der Bankeninsolvenz zugeschnittene, vorrangig vor dem allgemeinen Unternehmensinsolvenzrecht anwendbare Regelungen durchaus kannte und wo diese Arrangements verbreitet als bewährt qualifiziert wurden, 26 bedeutete die in der Krise erlassene Notgesetzgebung prima facie einen durchaus erklärungsbedürftigen Paradigmenwechsel.

25

26

Deutlich bereits Zimmer/Fuchs (2010, S. 602 f.); vgl. auch schon Deutsche Bundesbank (2005, S. 74 mit Fn. 2): „Eine weitere generelle Voraussetzung für die Entfaltung von Marktdisziplin [im oben definierten Sinn] ist, dass es keine oder nur begrenzte Staatsgarantien für den Fall gibt, dass Banken ausfallen. Wenn Marktteilnehmer davon ausgehen, dass große Banken nicht ausfallen können [...], ist mit Moral Hazard zu rechnen. Konkret bedeutet das, dass Wirtschaftssubjekte es vernachlässigen, Maßnahmen zur Reduzierung des eigenen Risikos zu ergreifen, da sie im Insolvenzfall auf Hilfe Dritter vertrauen." Besonders deutlich Bundesministerium der Justiz (1986, S. 174 ff.) zum Verzicht auf eine Überarbeitung des Bankeninsolvenzrechts im Rahmen der Insolvenzrechtsreform der 1980er und 1990er Jahre.

384

Jens-Hinrich Binder

Dessen Ursachen indessen lagen geradezu auf der Hand und waren bereits vor der globalen Finanzkrise zumindest in rechtsvergleichender Betrachtung erkennbar. Das deutsche Sonderrecht für Bankeninsolvenzen beruhte seit der 2. Novelle des Kreditwesengesetzes im Jahr 197627 wesentlich auf dem Konzept einer vor Insolvenzeröffnung zu treffenden, vielfach als „aufsichtsrechtliches Moratorium" bezeichneten Anordnung der Aufsicht, die mit einem Veräußerungs- und Zahlungsverbot, der Schließung des betreffenden Instituts für den Kundenverkehr sowie dem Verbot der Entgegennahme von Zahlungen in der Krisensituation unkontrollierte Vermögensabflüsse verhindern und Spielräume für Verhandlungslösungen im Einvernehmen mit Gläubigern absichern soll. Diese Maßnahmen konnten schon nach früherem Recht gekoppelt werden mit der Abberufung von Geschäftsleitern und deren Ersetzung auf Antrag der Aufsichtsbehörde. 28 Für schwerere Fälle mit potentiellen Auswirkungen auf die gesamtwirtschaftliche Stabilität sah schon das frühere Recht - ein Relikt der Bankenkrise von 1931 und der Reaktion hierauf durch eine Notverordnung des Reichspräsidenten 29 sowie das erste deutsche Kreditwesengesetz von 193430 - Kompetenzen der Bundesregierung zur vorübergehenden Einstellung des Bankgeschäfts insgesamt oder in Teilen sowie des Börsenhandels vor.31 Die Funktionsdefizite dieses Regimes haben sich schon vor der Finanzkrise in verschiedenen kleineren Insolvenzfällen erwiesen. Die Schließung des Geschäftsbetriebs und die Unterbrechung der Austauschbeziehungen zwischen dem insolvenzreifen Institut und seinen Privat- und Geschäftskunden sowie Gegenparteien im InterbankenGeldmarkt, im Derivategeschäft und der Marktinfrastruktur, insbes. im Rahmen des Zahlungs- und Wertpapierliefer- und -abrechnungsverkehrs, sind in der akuten Krisenlage geradezu kontraproduktiv. 32 Weil und soweit die Einlagensicherungssysteme bereits aufgrund eines aufsichtsrechtlichen Moratoriums die Ansprüche der betreffenden Einleger entschädigen, kommt es zum Erliegen des Einlagengeschäfts. Und weil und soweit schon bei vorübergehender Einstellung der Zahlungen die professionellen Gegenparteien im Rahmen von Derivaten, die unter den marktüblichen Rahmenverträgen abgeschlossen wurden, Kündigungsrechte ausüben können und es zur Verrechnung aller zwischen den beiden Parteien offenen Positionen kommt (sog. Close-out Netting), entfallen ad hoc nicht nur das zu Spekulationszwecken gehaltene Portfolio an Derivatepositionen, sondern auch sämtliche zu Hedgingzwecken eingegangenen Positionen. Auf das betreffende Institut bezogene Kreditausfallgeschäfte (Credit Default Swaps) werden fallig, und es kommt zum Ausschluss aus den Zahlungsverkehrs- und Wertpapierliefer- und -abrechnungssystemen, an denen das Institut mitwirkt. Der Zusammenbrach der Geschäftsbeziehungen ist damit ungeachtet des nur als vorübergehende Maßnahme konzipierten aufsichtsrechtlichen Moratoriums ebenso umfassend wie endgültig. Die Maßnahmen sind zwar in ihren rechtlichen Wirkungen an 27 28 29

30 31 32

Gesetz vom 24. März 1976, BGBl. I 725. § 46 Abs. 1 Satz 2, entspr. § 46a Abs. 1 KWG a.F. Verordnung des Reichspräsidenten über Aktienrecht, Bankenaufsicht und über eine Steueramnestie vom 19. September 1931, RGBl. I S. 493. Reichsgesetz über das Kreditwesen vom 5. Dezember 1934, RGBl. I S. 1203. §§ 47, 48 KWG; siehe dazu stellvertretend Binder (2005, S. 54 f. und 726 ff.). Hierzu und zum Folgenden näher Binder (2009b, S. 8 ff., 16 ff. sowie 2013); Sachverständigenrat (2009, Tz. 199 ff., insbes. Tz. 210 ff.).

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

385

die nach allgemeinem Insolvenzrecht für die Phase nach Antragstellung, aber vor Eröffnung des Insolvenzverfahrens vorgesehenen vorläufigen Sicherungsmaßnahmen nach §§21 ff. der Insolvenzordnung angenähert.33 Ihre wirtschaftlichen Konsequenzen kommen jedoch bereits der endgültigen Eröffnung eines Insolvenzverfahrens gleich, weil zum einen das Einlagensicherungsregime, zum anderen die Reaktionen der Gegenparteien die endgültigen Verfahrenswirkungen vorwegnehmen.34 In ungleich stärkerem Maße als in der „normalen" Insolvenzeröffnung entwerten für Banken damit bereits die ersten Schritte zur Verfahrenseinleitung das Vermögen des insolvenzreifen Unternehmens nachhaltig. Sie erschweren jedenfalls die Sanierungsfahigkeit erheblich35 und erweisen sich damit als kontraproduktiv, wenn eine Sanierung, etwa im Wege der Rekapitalisierung unter Beteiligung der Altaktionäre und/oder der Gläubiger, an sich noch in Betracht käme. Dies erklärt, warum in der Vergangenheit - entgegen der ursprünglichen gesetzgeberischen Intention36 - Sanierungen aus dem aufsichtsrechtlichen Moratorium heraus praktisch kaum stattgefunden haben.37 Für die gesamtwirtschaftlichen Auswirkungen entscheidend ist allerdings, dass spiegelbildlich hierzu - auch für die Gegenparteien die mit der Insolvenz der Bank verbundenen Konsequenzen bereits weitgehend in der Frühphase der verfahrensförmigen Insolvenzbewältigung eintreten. Für Fälle großer, (auch international) stark im Finanzsektor und darüber hinaus vernetzter Institute werden damit jedenfalls kurzfristig Verluste realisiert, die selbst im Falle besicherter Forderungen erhebliche Liquiditätsprobleme aufwerfen können, wenn nicht sogar der Ausfall eines großen Schuldners selbst zur Überschuldung bei weiteren Marktteilnehmern führt. Weitere, nicht unmittelbar in den wechselseitigen Austauschbeziehungen wurzelnde Ansteckungsgefahren, z.B. eine Reduktion der Refinanzierungsmöglichkeiten im Interbanken-Geldmarkt infolge eines allgemeinen Vertrauensverlusts, verstärken diese Effekte. Das tradierte aufsichtsrechtliche Instrumentarium ist vor diesem Hintergrund objektiv für Großinsolvenzen zumal im Rahmen einer angespannten, volatilen Marktlage ungeeignet, weil es systemische Ansteckungsgefahren auslöst, anstatt sie zu vermeiden. Die mit der Verfahrenseröffnung verbundene Zäsurwirkung für das Einlagengeschäft, Finanzkontrakte sowie Zahlungs- und Wertpapierliefer- und -abrechnungssysteme erfasst gerade diejenigen Geschäftsaktivitäten, deren Aufrechterhaltung in der Insolvenz gesamtwirtschaftlich wünschenswert ist. Dieser Befund lässt sich rechtsordnungsübergreifend auf alle Maßnahmen gleicher Wirkung übertragen, und zwar gleichgültig, ob sie in speziellen Insolvenzregimes für Banken oder im allgemeinen Insolvenzrecht vorgesehen sind. Dies zeigen etwa die Auswirkungen der Eröffnung eines (allgemeinen) Insolvenzverfahrens nach Chapter 11 des US-amerikanischen Bankruptcy Code über die Investmentbank Lehman Brothers besonders deutlich, welche mit den hinlänglich bekannten kurz- bis mittelfristigen Verwerfungen auf den globalen Finanzmärkten die systemischen Konsequenzen einer derartigen Zäsur und damit die fehlende Eignung des

33 34 35 36 37

Dazu Binder (2005, S. 231 ff. und 299 ff.). Binder (2013). Näher hierzu eingehend Binder (2005, S. 527 ff. sowie 2013). Vgl. den Wortlaut des § 46a Abs. 1 Satz 1 KWG a.F.: „zur Vermeidung des Insolvenzverfahrens". Pannen (1999/2010, Kap. 1 Rn. 90).

386

Jens-Hinrich Binder

tradierten insolvenzrechtlichen Eingriffsinstrumentariums erhellte.38 Entsprechendes gilt naturgemäß gerade auch für die in §§ 47, 48 des deutschen Kreditwesengesetzes vorgesehenen Handlungsmöglichkeiten für besondere Krisensituationen. Nach alledem kann in der Tat kaum verwundern, dass jedenfalls nach dem Lehman-Zusammenbruch im Verlauf der globalen Finanzkrise weltweit von der Anwendung formaler Sicherungsmaßnahmen und Insolvenzverfahren mit entsprechenden Rechtswirkungen weitgehend abgesehen und vielmehr das Augenmerk auf deren Vermeidung selbst unter Inkaufnahme wettbewerbsverzerrender Konsequenzen gerichtet wurde. Die Aussetzung der insolvenzrechtlichen Ordnungsfunktion beruhte mithin objektiv auf technischen Unzulänglichkeiten des geltenden Rechts; sie kann - entgegen der in der Literatur gelegentlich auch prominent formulierten Kritik39 - keineswegs allein politökonomisch mit der anderweitig begründeten Anreizstruktur der politisch und in der Verwaltung Verantwortlichen erklärt werden. Diese Erkenntnis ist im Übrigen keine neue und überrascht nur im Kontext der seit der Bankenkrise 1931 bis zur globalen Finanzkrise ab 2008 weitestgehend von größeren Insolvenzfällen unbeeinflussten Rechtsentwicklung in Deutschland. 40 Außerhalb Deutschlands, zumal in den USA und in England, war nach Erfahrungen mit regionalen Bankenkrisen schon seit längerem durchaus anerkannt, dass der etablierte Rechtsrahmen in Fällen außerordentlicher, den gesamten Sektor oder bedeutende Teile davon erfassender Solvenz- und/oder Liquiditätskrisen versagen muss, wie sie in der globalen Finanzkrise seit 2008 zu beobachten waren. 41 Im US-amerikanischen Aufsichtsrecht war, was hier nicht näher ausgeführt werden kann, die Sonderstellung systemrelevanter Insolvenzen in Grundzügen sogar im Gesetz selbst angelegt.42 In Abwesenheit derartiger Arrangements kann in der Tat treffend von einer impliziten Staatsgarantie43 gesprochen werden, die rechtsordnungsübergreifend als ungeschriebener Bestandteil des rechtlichen Ordnungsrahmens für das Bankgeschäft anerkannt war und im Zuge der Krise nur mehr quasi empirisch erhärtet worden ist. Wie sich im Zuge der Finanzkrise anhand von Ratings herausgestellt hat, haben die Märkte die damit faktisch bestehende Immunität als systemrelevant eingeordneter Marktteilnehmer gegen förmliche Insolvenzbewältigung 44 erkannt, Rettungsmaßnahmen antizipiert und die Sozialisierung

38

39

40

41

42 43 44

Vgl. statt vieler die Analyse bei Ciaessens et al. (2010, S. 42 ff.); Basel Committee on Banking Supervision (2010, Tz. 51 ff.) - Dies gilt vollkommen unabhängig vom langfristigen Verfahrensausnoch nicht feststeht, wobei sich schon jetzt durchaus hohe gang, der im Lehman-Brothers-Verfahren Insolvenzquoten - und damit insgesamt vergleichsweise geringe Insolvenzverluste auf Seiten auch der ungesicherten Gläubiger - abzeichnen, vgl. dazu etwa FAZ (2013). Vgl. z.B. Amend (2009); Flessner (2010); in der US-amerikanischen Literatur vorsichtig auch Ayotte/Skeel (2010). Vgl. - m i t einem ähnlichen Befand fur die Rechtsentwicklung für die USA - auch Coffee (2012, S. 1020). Besonders deutlich Hadjiemmanuil (2004, S. 275): „As for the possibility of large-scale crises, the main task of public policy is to prevent them by seeking to minimize macroeconomic and financial fragility, not to establish in advance mechanisms for picking up the pieces once the festering underlying problems will have already destroyed the national financial infrastructure." Dazu näher z.B. Block (2012, S. 337). Siehe nochmals oben sub I. bei und in Fn. 6. Vgl. auch schon Zimmer/Fuchs (2010, S. 603) („Konkursimmunität").

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

• 387

des Verlustrisikos im Rahmen der Refinanzierung der betreffenden Akteure praktisch eingepreist.45

3. Folgerungen Aus dem Gesagten lassen sich für die Formulierung der Reformziele im Ausgangspunkt zunächst zwei Konsequenzen ableiten: Erstens war die festgestellte QuasiBereichsausnahme vom marktwirtschaftlichen Sanktionensystem zugunsten systemrelevanter Banken, die diese, ihre Anteilseigner, Geschäftsleiter sowie die Gläubiger vom Eingreifen der insolvenzrechtlichen Sanktionsmechanismen dispensiert, zwar verbreitet anerkannt. Ihre ordnungspolitische Unhaltbarkeit haben die in der Krise eingegangenen Belastungen indes überdeutlich werden lassen. Kaum mehr vertretbar ist zugleich die früher gelegentlich formulierte These, das Fehlen ausdrücklich geregelter Lösungen sei gerade im Zusammenhang mit der impliziten Staatsgarantie auch unter ordnungspolitischen Gesichtspunkten zu begrüßen, weil es die als Rezipienten potentiell in Betracht kommenden Marktteilnehmer in Unsicherheit über ihre Rettung lasse und damit Anreize zur Risikominimierung setze. In der Tat ist gerade nach den während der Krise gewonnenen Erfahrungen die damit verknüpfte Drohung einer schlichten Liquidation bei Vorliegen systemischer Ansteckungsrisiken letztlich nicht mehr glaubwürdig.46 Dies spricht - zweitens - für eine Reform, die die resultierenden Fehlanreize vermeidet; diese wäre angesichts der Verankerung der ungeschriebenen Staatsgarantie im vorfindlichen Institutionensystem nicht lediglich eine Anpassung und Erweiterung des geltenden Regelungsgefüges, sondern geradezu mit einem Paradigmenwechsel verbunden. Damit besteht ein Zieldilemma: Einerseits sind ad hoc getroffene Rettungsbeihilfen zugunsten insolvenzreifer Institute, die als zu groß, zu komplex und/oder als zu stark vernetzt empfunden werden, um sie dem Insolvenzverfahren zu überlassen, mit Blick auf die damit verbundenen adversen Auswirkungen auf Fiskus und Marktdisziplin auch und gerade unter ordnungspolitischen Gesichtspunkten abzulehnen. Andererseits scheidet das tradierte insolvenzrechtliche Eingriffsinstrumentarium mit Blick auf die durch die beschriebene Zäsurwirkung ausgelösten systemischen Ansteckungsrisiken als Lösung aus. Damit muss sich der Blick zwangsläufig auf Optionen richten, die zwar die Ordnungsfunktionen des Insolvenzrechts aufrechterhalten, seine Rechtswirkungen aber so modifizieren, dass die beschriebene Zäsurwirkung unterbleibt: auf Maßnahmen also, die das Insolvenzrecht im Hinblick auf seine subjektiv-präventiven Ordnungsfunktionen ebenso wie auf die objektive Marktbereinigungsfunktion rekonstruieren und dabei mit der Zäsurwirkung ein zentrales Funktionsmerkmal des tradierten insolvenzrechtlichen Eingriffsinstrumentariums vermeiden. Erforderlich ist dabei insbesondere, dass die noch näher zu bestimmenden - systemrelevanten Funktionen des Geschäftsbetriebs unbeschadet vom Eingreifen der Maßnahmen zur Insolvenzbewältigung aufrechterhalten

45 46

Z.B. Schich/Lindh (2012); Lükanen et al. (2012, S. 23). Wilmarth (2011, S. 995).

388

Jens-Hinrich Binder

bleiben können.47 Nachdem bislang der Systemschutz, soweit überhaupt möglich, durch den Schutz des Unternehmens (unter Privilegierung von Anteilseignern, Gläubigern und Geschäftsleitern) bewirkt wird, gilt es, mit anderen Worten, den Systemschutz vom Bestandsschutz für die betreifende Bank selbst abzukoppeln. Dies erfordert zunächst die Identifikation der systemrelevanten Funktionen, sodann ihre Abschirmung von den Rechtswirkungen der Verfahrenseinleitung, sofern sie nicht unmittelbar und ohne Auswirkungen für die Märkte substituiert werden können, und schließlich die Weiterfiihrung der mit ihnen verbundenen Austauschverhältnisse zumindest mittelfristig, bis eine marktschonende, Ansteckungsrisiken vermeidende Abwicklung vorgenommen werden kann. Das Ziel der Vermeidung von Ansteckungsrisiken schließt zudem die Notwendigkeit zu außerordentlich raschen Maßnahmen ein, welche die wirtschaftlichen Konsequenzen- und damit deren Verluste ebenso wie das Ausmaß ihres Schutzes vor Verlusten - zeitnah abschließend einschätzen lassen. Nur so werden sich Reaktionen der Einleger und Gegenparteien sowie unkontrollierbare Marktreaktionen vermeiden lassen, wie sie oben für die tradierten Eingriffsinstrumentarien beschrieben worden sind. Um Fehlanreize zu vermeiden, sind die damit zwangsläufig verbundenen Privilegierungen für die Gläubiger möglichst gering zu halten; Anteilseigner sind am Verlust zu beteiligen und - wie die Geschäftsleiter - ihrer Kontrollmöglichkeiten zu entheben, um einen Gleichlauf mit der insolvenzrechtlichen Sanktionenstruktur zu gewährleisten. Bei alledem ist auf die weitestmögliche Vermeidung fiskalischer Auswirkungen und darauf zu achten, dass den am Verfahren beteiligten Akteursgruppen ggf. der ihnen verfassungsrechtlich garantierte Rechtsschutz zur Verfügung steht.48 Vorausgesetzt, diese - heterogenen und teilweise konfligierenden - Ziele ließen sich erreichen, ließe sich in der Tat ein ex ante klar definierter Ordnungsrahmen ermöglichen, der Ansteckungsgefahren vermeidet, Verlustrisiken klar zuweist und berechenbar macht und damit Anreize gegen eine exzessive Risikonahme im Vertrauen auf fiskalische Unterstützung setzt.49 Hierin deutet sich allerdings eine Bedingung an, die für die Evaluation der gegenwärtig diskutierten Reformkonzepte von großer Bedeutung ist: Liegt deren potentieller Wert gerade darin, den von der Insolvenz potentiell betroffenen Akteuren Verlustrisiken ex ante zu signalisieren und damit präventiv Anreize zur Risikokontrolle zu setzen, so hängt diese Wirkung erkennbar zentral davon ab, ob die Anwendung des betreffenden Mechanismus im Krisen- und Insolvenzfall tatsächlich glaubhaft zu erwarten ist. Könnte bzw. müsste statt dessen damit gerechnet werden, dass die zuständigen Stellen - aus welchen Gründen auch immer - von der Anwendung absehen, wäre das Sanktionensystem im Ergebnis wirkungslos und bliebe es bei den Anreizdefiziten der gegenwärtigen Rechtslage. Dieser Aspekt ist eng verknüpft mit der Anreizstruktur der für die Anwendung verantwortlichen Amtsträger in Behörden und politischen Gremien und mithin politökonomischen Motiven: Sind die Folgen einer (ggf. erstmaligen) Anwendung alternativer Lösungen für die Systemstabilität insgesamt schwer berechenbar, wird man gerade in Fällen besonders großer Institute von der An47

48 49

Vgl. zum Folgenden auch Binder (2009b, S. 18 ff. und 2011, S. 248 ff.); Coffee (2012, S. 1048); Dewatripont/Freixas (2012, S. 109 f.). Hierzu Binder (2009b, S. 6 f.). Besonders deutlich schon Dewatripont/Freixas (2012, S. 124).

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

389

wendung ggf. eher absehen - und wiederum ungeachtet der resultierenden fiskalischen Belastungen informelle Rettungsmaßnahmen bevorzugen.50 Schlechtestenfalls bliebe es damit praktisch bei der Einstandspflicht des Staates als implizitem Bestandteil des Institutionengefuges; die mit der Aufnahme der Neuregelungen in den expliziten Regelbestand verbundene Signalwirkung würde entwertet. Zeigt sich bereits damit, dass eine Reform als solche noch keine Sicherheit zu bieten vermag, so werden mögliche Zweifel noch verschärft durch eine Erwägung, die insbesondere in der US-amerikanischen Literatur zur Reform der Eingriffsmechanismen in Reaktion auf die globale Finanzkrise mit dem sog. Dodd-Frank Act51 formuliert worden ist: Die gesetzliche ex-ante-Festlegung auf bestimmte Vorgehensweisen im Krisenfall schränkt natur- und bestimmungsgemäß den Spielraum für flexible, ad hoc in Reaktion auf akut feststellbare Sachprobleme entwickelte Lösungen ein. Dies kann mit Vorteilen, aber eben auch mit Nachteilen einhergehen, soweit damit die Anpassung des Eingriffsinstrumentariums an nicht vorhergesehene Verfahrensprobleme, z.B. Verzögerungen infolge von Rechtsstreitigkeiten oder Abstimmungsprobleme zwischen unterschiedlichen nationalen Behörden bei grenzüberschreitenden Sachverhalten, erschwert wird. Mit Flexibilitätsverlusten können damit auch Effektivitätsverluste einhergehen.52 Dies bedeutet keineswegs, dass derartige Befürchtungen zwangsläufig den Verzicht auf die Festlegung konkreter EingrifFsmöglichkeiten ex ante nahe legen, doch muss deren Evaluierung entsprechende Risiken mit berücksichtigen.

III. Rekonstruktion der Marktbereinigungsfunktion durch Übertragungsmechanismen - Perspektiven und Unwägbarkeiten 1. Systematischer Zusammenhang und Funktionsweise a. Die Übertragung systemrelevanter Teile im Gesamtspektrum alternativer Krisenbewältigungsmechanismen för Kreditinstitute Die Übertragung systemrelevanter Teile von Kreditinstituten auf privatwirtschaftliche Erwerber oder eine hoheitlich errichtete Brückenbank hat sich, wie eingangs angedeutet, bereits vor der globalen Finanzkrise zu einem zentralen Baustein international anerkannter „best practice" im Instrumentarium für die Insolvenzbewältigung entwickelt. Sie geht insbesondere auf Regelungsvorbilder im US-amerikanischen Aufsichtsrecht zurück53 und wurde im Zuge der Krise prominent etwa in Großbritannien54

50

51

52 53

Vgl. pointiert etwa das bei Kaufinan (1990, S. 2) wiedergegebene Zitat des seinerzeitigen Chairman der US Federal Deposit Insurance Corporation, Seidman: „The bottom line is that nobody really knows what might happen if a major bank were allowed to default, and the opportunity to find out is not one likely to be appealing to those in authority or to the public." Siehe dazu auch Binder (2005, S. 722 ff.). Dodd-Frank Wall Street Reform and Consumer Protection Act, Public Law 111-203-July 21, 2010, Title II - Orderly Liquidation Authority. Karmel (2011, S. 6). Vgl. 12 U.S.C. § 1823(c)(2)(A) und (B); dazu Binder (2009a, S. 23 f.); LaBrosse (2009, S. 222 f.); Olson (1999, S. 145).

390

Jens-Hinrich Binder

und schließlich - mit dem sog. Restrukturierungsgesetz von 2010 55 - auch in Deutschland eingeführt (vgl. §§ 48a ff. KWG). Nachdem auch internationale Standards56 den Mechanismus empfehlen, der demnächst mit der bevorstehenden EU-Richtlinie über die Sanierung und Abwicklung von Kreditinstituten und Wertpapierfirmen einheitlich für alle EU-Mitgliedstaaten vorgeschrieben werden wird, ist nicht ohne Grund geradezu von einem „klassischen" Instrument für die Insolvenzbewältigung bei Bankeninsolvenzen gesprochen worden.57 Gleichwohl handelt es sich nur um eines von mehreren in den unterschiedlichen Rechtsordnungen vorgesehenen Instrumenten, das von vornherein nur mit Blick auf mögliche Alternativen und komplementäre Mechanismen verstanden werden kann.58 Die bevorstehende EU-Richtlinie ist insoweit besonders geeignet, den gegenwärtigen Stand der international diskutierten Instrumente ebenso wie deren Zusammenwirken quasi als Referenzmodell exemplarisch zu beleuchten. Nicht nur wird sie das künftige Recht in allen EU-Mitgliedstaaten prägen. Vielmehr spiegelt sie zugleich wider, was sich international inzwischen als „best practice" etabliert hat; konzeptionell geht die Richtlinie weitgehend insbesondere auf Vorarbeiten des Financial Stability Board sowie des Basler Ausschusses für Bankenaufsicht zurück.59 Praktisch keine Rolle spielen dabei förmliche, gerichtlich angeordnete und überwachte Sanierungsverfahren, wie sie im deutschen Recht mit dem Kreditinstitute-Reorganisationsgesetz als Bestandteil des erwähnten Restrukturierungsgesetzes verankert worden waren.60 Die Praxistauglichkeit derartiger Verfahren ist zu Recht in Abrede gestellt worden; sie sind angesichts der mit der Sanierung im förmlichen Verfahren verbundenen Zäsurwirkung für laufende Austauschverhältnisse mit den oben skizzierten Problemen belastet.61 Für die eigentliche 54

55

56

57 58

59

60

61

Zunächst als Teil des in der akuten Krise als Notfallgesetz erlassenen Banking (Special Provisions) Act 2008, sodann mit der umfassenden Reform des Bankeninsolvenzrechts durch den Banking Act 2009; siehe hierzu etwa Binder (2009a, S. 28 ff.); Singh (201 la und 201 lb). Gesetz zur Restrukturierung und geordneten Abwicklung von Kreditinstituten, zur Errichtung eines Restrukturierungsfonds für Kreditinstitute und zur Verlängerung der Veijährungsfrist der aktienrechtlichen Organhaftung vom 9. Dezember 2010, BGBl. I S. 1900, Art. 2. Vgl. insbes. Financial Stability Board (2011), Key Attributes 3.3 („Transfer of assets and liabilities") und 3.4 („Bridge institution") sowie Basel Committee on Banking Supervision (2010, S. 23) („Recommendation 1"). Gleeson (2012, S. 16). Dabei geht es im hier untersuchten Zusammenhang lediglich um Maßnahmen mit direktem Bezug zur Insolvenzbewältigung, d.h. um solche Instrumente, die hinsichtlich der Anwendungsvoraussetzungen an die Insolvenzreife (ggf. gekoppelt mit der Voraussetzung einer drohenden Gefahrdung der Systemstabilität) anknüpfen und die auf die Beseitigung dieses Zustandes abzielen. Nicht zu berücksichtigen sind präventive Instrumente, wie z.B. Anforderungen an die Eigenmittel- und Liquiditätsausstattung sowie die Corporate Governance der Institute, die Erstellung präventiver Sanierungs- und Restrukturierungspläne durch Institute und Aufsichtsbehörden oder die präventive organisationsrechtliche Trennung von Geschäftsbereichen bis hin zum Trennbankenmodell. Ebenfalls ausgeklammert bleiben regulatorische Anforderungen an die Finanzierung durch Pflichtwandelanleihen, deren Umwandlung in Eigenkapital an das Unterschreiten vorfestgelegter Schwellenwerte unterhalb der Insolvenzreife anknüpft; siehe hierzu etwa den Gesamtüberblick im Symposiumsheft „Banken in der Krise", Zeitschrift fiir Bankrecht und Bankwirtschaft 2012, Heft 5. Financial Stability Board (2011); Basel Committee on Banking Supervision (2010); zum Hintergrund Binder (2012, S. 419 f.); siehe auch bereits Asser (2001, S. 144 ff.). Siehe §§ 2-6 KredReorgG (sog. Sanierungsverfahren) sowie §§ 7-23 ff. (sog. Reorganisationsverfahren). Dazu z.B. Binder (2011, S. 253 fif. und 2012, S. 422 ff.).

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

391

Krisenreaktion, die Insolvenzbewältigung anstelle förmlicher Verfahren tradierten Zuschnitts, sieht der Richtlinienentwurf stattdessen vor allem folgende auf Anordnung der jeweiligen zuständigen Behörde zu treffende sog. „Abwicklungsmaßnahmen" vor: (a) die Veräußerung von Anteilen, Vermögenswerten, Rechten oder Verbindlichkeiten eines Instituts oder eine Kombination hiervon an einen privatwirtschaftlichen Erwerber,62 sodann - eng hiermit verknüpft - (b) die vorübergehende Übertragung von Vermögensrechten, Rechten oder Verbindlichkeiten eines Instituts auf ein hoheitlich errichtetes sog. „Brückeninstitut", sofern ein privatwirtschaftlicher Erwerber nicht oder nicht sofort zur Verfugung steht,63 schließlich (c) die zwangsweise Umwandlung von Forderungen in Eigenkapital, das sog. „Bail-In",64 und (d) die Abschreibung von Kapitalinstrumenten, um deren Halter an den aufgetretenen Verlusten zu beteiligen.65 Nicht abschließend geklärt ist gegenwärtig, ob der endgültige Richtlinientext zusätzlich Möglichkeiten zur Enteignung der Alteigentümer zugunsten des Staates vorsehen wird, was im Entwurf nicht vorgesehen, in einzelnen Mitgliedstaaten aber bereits realisiert ist.66 b. Funktionsweise von Übertragungsmaßnahmen Der konzeptionelle Kerngedanke der Übertragungsmechanismen, deren Funktionsweise hier nur überblicksweise skizziert werden kann, liegt in der Trennung deijenigen Teile des Geschäftsbetriebs, die im Interesse der Vermeidung von Ansteckungsrisiken ungeachtet der Insolvenz einer Bank sinnvollerweise jedenfalls kurz- bis mittelfristig aufrechterhalten bleiben sollen, vom Rechtsträger, d.h. der Gesellschaft, zu deren Vermögen der Geschäftsbetrieb zählt. Die Instrumente zielen also gerade auf die Vermeidung der zentralen funktionalen und ordnungspolitischen Schwächen des tradierten Insolvenzrechts in der Bankeninsolvenz ab: die mit der Verfahrenseinleitung verknüpfte Zäsurwirkung einerseits und die zwangsläufige Verknüpfung von System- und Bestandsschutz andererseits. Für den Systemschutz kommt es dabei nicht primär darauf an, wer die so „herausgelösten" Teile übernimmt (ein privatwirtschaftlicher Erwerber oder eine hoheitlich speziell zu diesem Zweck errichtete sog. „Brückenbank"). Entscheidend ist vielmehr, dass überhaupt eine Trennung der Geschäftsbereiche mit dem Ziel erfolgt, die als systemrelevant eingestuften Bereiche weiterzuführen. In beiden Fällen übernimmt der Staat die Verantwortung für die Verfahrensdurchführung; im Falle der Übertragung auf eine Brückenbank tritt die Verantwortung für die langsame, marktschonende Abwicklung der betreffenden Rechtsverhältnisse durch Weiterveräußerung oder wechselseitige Erfüllung entsprechend den jeweiligen Vertragskonditionen noch hinzu. Die beim insolvenzreifen Rechtsträger selbst verbleibenden Vermögenswerte und Verbindlichkeiten lassen sich dann idealtypisch in einem der tradierten Insolvenzverfahren ab-

62 63 64 65 66

EU-Kommission (2012a), Art. 31 Abs. 2 Buchst, a, Artt. 32 ff. EU-Kommission (2012a), Art. 31 Abs. 2 Buchst, b, Artt. 34 f. EU-Kommission (2012a), Art. 31 Abs. 2 Buchst, d, Artt. 37 ff. EU-Kommission (2012a), Artt. 51 ff. Z.B. im englischen Aufsichtsrecht, vgl. Banking Act 2009, sections 13, 45 und 46 („temporary public ownership").

392

Jens-Hinrich Binder

wickeln,67 so dass Anteilseigner und Geschäftsleiter ebenso wie die Gläubiger der nicht übertragenen Verbindlichkeiten vom insolvenzrechtlichen Sanktionensystem in einem zweiten, auf die Trennung als solche folgenden Schritt voll erfasst werden. Angestrebt wird somit die Zerlegung des Geschäftsportfolios und der bestehenden Austauschverhältnisse mit Kunden und Gegenparteien außerhalb der Bank nach funktionalen Gesichtspunkten in systemrelevante und nicht systemrelevante Teile. Die Rechtswirkungen der Übertragung richten sich daher auf die zum jeweiligen Geschäftsteil gehörigen Rechte oder sonstigen Vermögenswerte ebenso wie die zugehörigen Verbindlichkeiten.68 Insoweit sind zwei Grundmodelle denkbar und im geltenden Recht ebenso wie im EU-Richtlinienentwurf auch angelegt, die sich in der zeitlichen Ausgestaltung, nicht aber hinsichtlich des Ziels unterscheiden: Zum einen kann die Trennung zwischen systemrelevantem und nicht relevantem Geschäft gleich mit Eingreifen der Maßnahmen vollzogen werden. In diesem Fall muss die zuständige Behörde bereits vorbereitend die zu übertragenden Geschäftsteile sowie die zugehörigen Rechtsverhältnisse identifizieren und dies alles sodann in der Anordnung der Übertragung auch im Detail spezifizieren.69 Die zweite Alternative besteht in einem dreistufigen Verfahren. Hier werden, was von vornherein letztlich nur bei der Übertragung auf eine Brückenbank in Betracht kommen dürfte, zur Vermeidung von Zeitverzögerungen zunächst alle Vermögenswerte und Verbindlichkeiten auf den neuen Rechtsträger übertragen. Erst in einem zweiten Schritt wird sodann mit mehr Zeit die Trennungsentscheidung vorgenommen, die im dritten Schritt durch Rückübertragung der nicht als systemrelevant eingestuften Teile auf den insolvenzreifen Rechtsträger vollzogen wird.70 Je nach Ausgestaltung des Instrumentariums im Einzelnen kann dabei der insolvenzreife Rechtsträger - und damit seine Anteilseigner und die verbliebenen Gläubiger - im Wege einer Entschädigung (im weitesten Sinne) an Erlösen aus der Verwertungstransaktion beteiligt werden.71

67

68

69

70

71

Vgl. besonders deutlich EU-Kommission (2012a), Art. 31 Abs. 2, wo die Abwicklung innerhalb eines angemessenen Zeitraums ausdrücklich angeordnet wird. Deutlich z.B. EU-Kommission (2012a), Art. 32 Abs. 1 und Art. 34 Abs. 1; im geltenden deutschen Recht bereits § 48a Abs. 1 KWG („das Vermögen eines Kreditinstituts einschließlich seiner Verbindlichkeiten"); im geltenden englischen Aufsichtsrecht sections 33(1) und 35 Banking Act 2009 („property, rights or liabilities"). Vgl. EU-Kommission (2012a), Art. 32 Abs. 1, 2. Alt. sowie Art. 34 Abs. 1, 2. Alt.; im deutschen Recht § 48k KWG („partielle Übertragung"); im englischen Recht section 33(2)(c) und (d) Banking Act 2009 („specified property, rights or liabilities" bzw. „property, rights or liabilities of a specified description"). Vgl. EU-Kommission (2012a), Art. 32 Abs. 1, 1. Alt. sowie Art. 34 Abs. 1, 1. Alt.; im deutschen Recht als Regelfall ausgestaltet in § 48a Abs. 1 i.V.m. § 48j KWG; im englischen Recht section 44 Banking Act 2009. Vgl. EU-Kommission (2012a), Art. 32 Abs. 3 (für die Übertragung an einen privatwirtschaftlichen Erwerber) sowie Art. 35 Abs. 7 (Entschädigung bei der Übertragung auf Brückenbank erst durch Auskehrung der Verwertungserlöse nach Verwertung der übertragenen Teile durch diese); im deutschen Recht sehr ausfuhrlich § 48d KWG; im englischen Recht ebenfalls sehr ausfuhrlich sections 49-62 Banking Act 2009.

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

• 393

2. Die Übertragung systemrelevanter Teile am Maßstab des Zielprogramms a. Identifikationsfunktion Jedenfalls konzeptionell ohne weiteres reproduzieren lässt sich mit der Übertragung systemrelevanter Teile die angesprochene Funktion des allgemeinen Insolvenzrechts als Instrument zur Identifikation ineffizient wirtschaftender Akteure im Markt. Insoweit unterscheidet sich die Geschäftsübertragung nicht vom schon im bisherigen deutschen Recht etablierten Zusammenspiel zwischen Aufsichts- und Insolvenzrecht. Besteht im allgemeinen Insolvenzrecht eine Antragspflicht des Geschäftsleitungsorgans (§ 15a InsO) bei Vorliegen der Insolvenzgründe der Zahlungsunfähigkeit (§ 17 InsO) oder der Überschuldung (§19 InsO), so gilt dies im Prinzip auch für die Insolvenz eines Kreditinstituts mit der Besonderheit, dass hier an die Stelle der Antragspflicht eine Anzeigepflicht gegenüber der Aufsicht tritt (§ 46b Abs. 1 Satz 1 und 2 KWG), die dann ihrerseits über die Antragstellung (§ 46b Abs. 1 Satz 4 KWG) oder andere Maßnahmen zu entscheiden hat. Am grundsätzlichen Zusammenspiel aus Antragspflicht und Haftungssanktion72 ändert sich nichts. Nur dann, wenn politökonomische Anreize der verantwortlichen Akteure bestehen sollten, die Anwendung der Übertragungsmechanismen hinauszuzögern, würde die Identifikationsfunktion eingeschränkt. Dazu kann das Bestreben, nationale „Champions" zu bewahren, ebenso zählen wie die fiskalisch oder anderweitig begründete Furcht vor einschneidenden Eingriffen in gewachsene Finanzsysteme bis hin zur Sorge um Reputations- oder gar Haftungsrisiken in öffentlichrechtlich organisierten und politisch kontrollierten Banken. Eröffnet der jeweilige Rechtsrahmen die Möglichkeit zu Ermessensentscheidungen mit Blick auf die Auswahl oder Auslösung der einzelnen Verfahrensschritte, kann eine entsprechende Einflussnahme nicht nur die Identifikation von Problemfallen, sondern zugleich die effektive Bewältigung derselben nachhaltig schwächen. b. Haftungsrealisierung und Marktbereinigung Ungleich komplexer fallt dagegen die Bewertung der Übertragungsmechanismen mit Blick auf ihre Eignung als alternative Instrumente zur Absicherung der tradierten insolvenzrechtlichen Haftungsrealisierungs- und Marktbereinigungsfunktion aus. Schon konzeptionell kommen derartige Maßnahmen insoweit von vornherein nur begrenzt als Funktionsäquivalent des insolvenzrechtlichen Eingriffsinstrumentariums in Betracht. Über den Verfahrensausgang und damit die endgültige Verteilung der Verluste und Sanktionen zwischen den betroffenen Akteuren (Anteilseigner, Geschäftsleiter und Gläubiger) wird im Rahmen der Aufspaltung nicht abschließend entschieden. Die Übertragung selbst dient - wie gesehen - vielmehr nur der Trennung von Funktionen und Rechtsverhältnissen mit dem Primärziel, die systemschonende Abwicklung des verbleibenden Rechtsträgers vorzubereiten. Dieses Ziel ist schon dann erreicht, wenn die mit dem Zusammenbruch einer Vielzahl von Austauschbeziehungen verbundenen Ansteckungsrisiken vermieden werden, ohne dass es darauf ankäme, welche Verluste bei welcher Akteursgruppe eintreten. 72

Zivilrechtliche Haftung nach § 823 Abs. 2 BGB i.V.m. § 15a Abs. 1 InsO; strafrechtliche Verantwortlichkeit nach § 15a Abs. 4 und 5 InsO.

394

Jens-Hinrich Binder

Bewirkt die Übertragung somit in erster Linie eine Neuverteilung von Aktiva und Passiva zwischen dem insolvenzreifen Rechtsträger und dem privatwirtschaftlichen Erwerber bzw. einer hoheitlich errichteten Brückenbank, so hängt die Anreizstruktur stark von der Ausgestaltung und der Verknüpfung im Einzelfall ab. Insoweit ist allerdings zu differenzieren: (1) Die geringsten Probleme weist die Behandlung der Geschäftsleiter auf, die schon deshalb nicht anders als im Fall der sofortigen Einleitung eines Liquidationsverfahrens nach allgemeinem Insolvenzrecht gestellt werden, weil der insolvenzreife Rechtsträger nach Abtrennung der insolvenzreifen Funktionen typischerweise erst recht nicht mehr sanierungsfahig sein und daher einem solchen Verfahren überantwortet werden dürfte. 73 (2) Für die Anteilseigner dürfte regelmäßig das wirtschaftliche Ergebnis nach einer Übertragungsmaßnahme selbst dann nicht vom Ausgang eines Regelinsolvenzverfahrens über das gesamte Vermögen des insolvenzreifen Rechtsträgers (also ohne Übertragungsanordnung) abweichen, wenn dem Rechtsträger im Zusammenhang mit der Übertragung von Vermögenswerten Entschädigungsleistungen zufließen. 74 Denn dieser Vermögenszuwachs wird mit Blick auf die insolvenzrechtliche Verteilungsrangfolge allein den beim insolvenzreifen Rechtsträger selbst verbliebenen Gläubigern zugute kommen, nicht aber den Anteilseignern, die erst nach vollständiger Befriedigung aller Gläubiger vom Verfahrenserlös profitieren würden. 75 Auch für sie sind Übertragungsmaßnahmen deshalb mit einer dem allgemeinen Insolvenzrecht vergleichbaren Anreizstruktur verbunden. (3) Besonderheiten im Hinblick auf die mit den Übertragungsmechanismen verbundene Anreizstruktur ergeben sich für die Gesamtheit der Gläubiger des insolvenzreifen Rechtsträgers vor und nach Durchfuhrung der Übertragung von Vermögenswerten und Verbindlichkeiten. Ihre wirtschaftliche und rechtliche Position hängt zunächst maßgeblich davon ab, ob ihre Forderung mit der Übertragungsanordnung dauerhaft vom insolvenzreifen Rechtsträger getrennt wird (und nicht im Wege der Rückübertragung diesem wieder zugewiesen wird 76 ). Ist dies nicht der Fall und bleibt der insolvenzreife Rechtsträger Schuldner, so werden die Gläubiger infolge der Übertragung im Vergleich mit der Rechtslage in einer Liquidation nach allgemeinem Insolvenzrecht zumindest nicht besser gestellt. Eher erwartbar ist eine Verschlechterung ihrer wirtschaftlichen Lage, weil und soweit die Übertragung werthaltiger Vermögensgegenstände auf einen privatwirtschaftlichen Erwerber oder eine Brückenbank zu einer Verringerung der beim insolvenzreifen Rechtsträger verbleibenden Vermögens- und Haftungsmasse führt, die nicht durch eine - wie auch immer ausgestaltete - Kompensationsleistung an den insolvenzreifen Rechtsträger aufgewogen wird. Unter Anreizgesichtspunkten besteht damit für diese Gläubigergruppe kein Unterschied zur alternativ 73

74 75 76

Besonders deutlich kommt diese Annahme im geltenden deutschen Recht in § 481 Abs. 1 Satz 1 KWG zum Ausdruck, wonach die BaFin nach der Übertragungsanordnung die aufsichtsrechtliche Erlaubnis zum Geschäftsbetrieb aufheben kann, „wenn das Kreditinstitut nicht in der Lage ist, seine Geschäfte im Einklang mit den Bestimmungen dieses Gesetzes fortzuführen"; damit wird regelmäßig die Stellung eines Insolvenzantrags nach § 46b KWG durch die BaFin einhergehen (vgl. insoweit auch Fridgen, in: Boos/Fischer/Schulte-Mattler (2012), § 481 KWG Rn. 4). Siehe dazu nochmals soeben sub a. bei und in Fn. 71. Vgl. nochmals oben sub II. 1. bei und in Fn. 20. Dazu oben sub 1. b. bei und in Fn. 70.

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

395

denkbaren Anwendung allgemeinen Insolvenzrechts, so dass der Übertragungsmechanismus auch insoweit ein geeignetes Substitut darstellt. Ist dagegen die jeweilige Forderung Gegenstand der Übertragungsmaßnahme, so ist weiter danach zu differenzieren, ob es zu einer Übertragung auf einen privatwirtschaftlichen Erwerber oder auf eine Brückenbank kommt. Im ersten Unterfall (privatwirtschaftlicher Erwerber) wird die Forderung typischerweise durch den Erwerber uneingeschränkt und unter Einhaltung der jeweils anwendbaren vertraglichen Bedingungen bedient werden. Hierin liegt eine erhebliche Verbesserung der wirtschaftlichen Position der betreffenden Gläubigergruppe im Vergleich zu den ungesicherten Gläubigern der beim insolvenzreifen Rechtsträger verbliebenen Forderungen, soweit deren Ansprüche nicht besichert sind oder durch eine Entschädigungseinrichtung kompensiert werden. Diese Privilegierung der Gläubiger als „systemrelevant" eingestufter Rechtsverhältnisse wird sich zwar mit Rücksicht auf die in diesem Zusammenhang begründeten Sorgen um systemische Ansteckungskonsequenzen rechtfertigen lassen.77 Dies ändert indes nichts am ordnungspolitisch fragwürdigen Ergebnis, dass den solcherart privilegierten Gläubigern damit jeder Anreiz zur Einflussnahme auf die Risikonahme der betreffenden Bank im oben skizzierten Sinn genommen wird. Für sie greift ein gleicher Schutz vor Verlusten ein, wie er für ad hoc vorgenommene Beihilfen zugunsten des insolventen Rechtsträgers charakteristisch war und ist. Im zweiten Unterfall, der Übertragung auf eine hoheitlich errichtete Brückenbank, die die als „systemrelevant" eingestuften Geschäftsbereiche jedenfalls kurz- bis mittelfristig weiterfuhrt, ergibt sich im Ausgangspunkt keine Abweichung hiervon. Da in diesem Modell der Fiskus selbst als Errichter der Brückenbank zunächst die Finanzierungslast trägt, schließt die Weiterfuhrung der Geschäfte ein jedenfalls vorübergehendes fiskalisches Engagement und damit die Sozialisierung von Verlustrisiken mit ein. Das geltende deutsche Recht löst dieses Problem nicht. Allenfalls dann, wenn über die Brückenbank selbst zu einem späteren Zeitpunkt auf Antrag der Aufsicht (§ 46b KWG) ein Insolvenzverfahren eröffnet werden sollte, könnte es hier zu einer Verlustbeteiligung der privilegierten Gläubigergruppen kommen; wahrscheinlich ist dieser Verfahrensausgang eher nicht.78 Insoweit bleibt es also bei ordnungspolitisch misslichen Fehlanreizen für diese, die jedenfalls gegenwärtig allenfalls durch präventiv orientierte staatliche Regulierung und Überwachung kompensiert werden können. Im Unterschied dazu sieht der Richtlinienvorschlag der EU-Kommission vor, dass die zuständige Behörde im Zusammenhang mit der Übertragungsmaßnahme die Umwandlung von Forderungen in Eigenkapital vornehmen soll, um jedenfalls diejenigen Gläubigergruppen, für die keine Privilegien anerkannt sind, an den Verlusten zu beteiligen. 79

77

78

79

Etwa mit Blick auf das im deutschen Verfassungsrecht in Art. 3 Abs. 1 GG verankerte allgemeine Gleichheitsgebot. Ähnliche Ergebnisse und faktische Insolvenzprivilegien werden für das neue US-amerikanische Regime des Dodd-Frank Act erwartet; vgl. Wilmarth (2011, S. 993 ff., insbes. S. 997 f.). Vgl. EU-Kommission (2012a), Art. 29 Abs. 1 (generelle Verteilung der Verlusttragung), Art. 37 (allgemeine Vorgaben für das sog. „Bail-In"), Art. 38 Abs. 2 (Ausnahmen für bestimmte Arten von Forderungen, z.B. besicherte Verbindlichkeiten sowie Forderungen, die von der gesetzlichen Einlagensicherung erfasst werden).

396

Jens-Hinrich Binder

Wie genau das „Bail-In"-Instrument ¡ n der Praxis mit dem Übertragungsmechanismus verzahnt werden soll, ist allerdings zum gegenwärtigen Zeitpunkt nicht abschließend zu beurteilen; insoweit bleibt die endgültige Fassung des Richtlinientextes abzuwarten. Ließe sich allerdings ein „Bail-In" der an sich von der Übertragung erfassten Forderungen realisieren, so wäre dies möglicherweise geeignet, die mit der Übertragung verbundene Privilegierung im Vergleich mit den beim insolvenzreifen Rechtsträger verbliebenen Forderungen in entsprechendem Umfang zu kompensieren. Die Übertragung systemrelevanter Funktionen ist nach alledem nur teilweise und nur im Zusammenspiel mit anderen Maßnahmen sowie in Verbindung mit präventiv-regulatorischer Einflussnahme auf besondere Risikoquellen im Vorfeld geeignet, anstelle des tradierten insolvenzrechtlichen Instrumentariums ein ex ante definiertes, glaubhaftes und wirksames Sanktionensystem für die betreffenden Akteure zu errichten und Marktdisziplin zu gewährleisten. Zu einem solchen „Instrumentenmix" zählen neben der Übertragung als solcher Verfahren zur Abwicklung des insolvenzreifen Rechtsträgers unter voller Verlustbeteiligung der Anteilseigner und der dort verbliebenen Gläubiger, aber auch effektive Maßnahmen zur Einbindung der von der Übertragung privilegierten Gläubiger in die Abwicklungsfinanzierung und schließlich der Aufbau marktseitig finanzierter Fonds, welche die Kosten für die Einrichtung und den Betrieb von Brückenbanken tragen können. Insbesondere solche Gläubiger(-gruppen), bei denen nicht (wie z.B. bei Gegenparteien im Interbanken-Geldmarkt oder im Rahmen von Derivatgeschäften) systemische Ansteckungsgefahren drohen, ließen sich u.U. mit einer Kombination der Übertragungsmechanismen und der zwangsweisen Umwandlung von Forderungen in Eigenkapital („Bail-In") in die Finanzierung der Restrukturierungsmaßnahmen einbinden und als Element der disziplinierenden Unternehmensüberwachung durch Marktteilnehmer selbst aktivieren. In Betracht dafür kommen vor allem (längerfristig engagierte) Investoren, die zur effektiven Ausübung derartiger Kontrolle tatsächlich in der Lage und selbst so investiert sind, dass ein Ausfall eines Investments nicht zwangsläufig das eigene finanzielle Scheitern nach sich zieht. Derart mit anderen Instrumenten abgestimmt und verbunden, ließen sich in der Tat die relevanten Akteure - Anteilseigner, Geschäftsleiter und Gläubiger - mit Sanktionen konfrontieren, die denen eines allgemeinen Insolvenzverfahrens ähneln. Insoweit erfüllt die Übertragung potentiell eine wichtige vorbereitende Rolle zur Durchsetzung von Marktdisziplin. Idealtypisch schafft sie die Voraussetzungen dafür, dass auf den insolventen Rechtsträger selbst das marktwirtschaftliche Sanktionensystem zur Anwendung kommen kann, ohne dass sich systemische Ansteckungsrisiken realisieren. Für sich genommen, ist damit freilich noch keine marktbereinigende Wirkung verbunden. Zu beachten ist vielmehr, dass die Übertragung langfristig sogar potentiell wettbewerbsschädliche und das systemische Risiko verstärkende Konzentrationsprozesse fordern kann, wenn wichtige Geschäftszweige entweder sofort oder durch Verwertung des bei der Brückenbank vorhandenen Vermögens an privatwirtschaftliche Erwerber übertragen werden, die bereits über eine starke Marktposition verfügen.80

80

Vgl. zur Problematik steigender Konzentrationen auch infolge von Sanierungsmaßnahmen anhand US-amerikanischer Beispiele Karmel (2011).

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

• 397

In jedem Fall sind weder Übertragungsmaßnahmen als solche noch die Einbindung von Brückenbanken kostengünstige Lösungen. Nicht zuletzt die US-amerikanische Erfahrung zeigt, dass privatwirtschaftliche Erwerber typischerweise nicht ohne eine Absicherung gegen Risiken im übernommenen Geschäft überhaupt zum Erwerb bereit sind, während Errichtung und Betrieb einer Brückenbank erhebliche Kosten verursachen und vielfach unklar ist, ob sich mit den Maßnahmen tatsächlich längerfristige Sanierungslösungen erreichen lassen.81 In Abwesenheit finanzstarker, von den Marktteilnehmern selbst finanzierter Rettungsfonds wird sich das Instrumentarium daher jedenfalls mittelfristig kaum ohne ein entsprechendes Engagement des Fiskus einsetzen lassen. c. Technische Verfahrenshindernisse Fällt damit schon die Bewertung der konzeptionellen Grundlagen differenziert aus, so ergeben sich weitere Vorbehalte mit Blick auf technische Probleme, die eine Anwendung zumal bei großen, komplexen Banken und Bankengruppen erschweren dürften. Hierzu zählen zunächst die Schwierigkeiten, die sich im Zusammenhang mit der Identifikation der zu übertragenden Geschäftsteile stellen. Insoweit kommt es auf komplexe Prognosen hinsichtlich der im Zusammenhang mit den einzelnen Geschäftsfeldern ggf. zu erwartenden Ansteckungsrisiken für Gegenparteien und Märkte an, die nicht nur unternehmensinterne Daten, sondern auch und besonders die jeweilige Marktposition des betreffenden Instituts und die Bedeutung seines Ausfalls für die jeweiligen Marktsegmente einzubeziehen haben. Bislang liegen empirische Erkenntnisse zu entsprechenden Szenarien allenfalls in Grundzügen vor, so dass die Trennungsentscheidung, die in sehr kurzer Zeit getroffen werden muss, auf erhebliche Unsicherheiten stoßen dürfte. Diese dürften besonders in komplexen Unternehmen und Unternehmensgruppen die Fähigkeit der zuständigen Behörden, zielsicher, rasch und effektiv entsprechende Trennungsentscheidungen herbeizuführen, nachhaltig beeinträchtigen. Eine ex ante vorzunehmende Notfallplanung bei den Instituten und Aufsichtsbehörden („living wills"), wie sie der Entwurf einer EU-Richtlinie vorsieht, 82 kann das damit verbundene Verzögerungspotential zwar verringern, doch wird die rasche Abtrennung ganzer Geschäftsbereiche zumal bei großen, international agierenden Banken ausgesprochen komplex und mit Unsicherheiten behaftet bleiben. Daneben treten Probleme, die mit der äußerst komplexen Aufgabe der Bewertung der einzelnen Geschäftsteile, Vermögenswerte und Verbindlichkeiten zusammenhängen, welche als Grundlage für die Planung und Durchführung auch der Übertragungsmaßnahmen unerlässlich ist.83 Weitere Hindernisse schließlich können sich im Falle international aktiver Banken und Bankengruppen bei der grenzüberschreitenden Abstimmung der Maßnahmen bieten, wobei sowohl durch das Zusammenwirken unterschiedlicher zuständiger Behörden in den involvierten Jurisdiktionen bedingte als auch kollisionsrechtliche Probleme auftreten können, die zu Rechtsunsicherheiten hinsichtlich des Status einzelner Rechtsverhältnisse führen. 81 82

83

Z.B. Olson (1999, S. 145 ff.). Vgl. im Einzelnen EU-Kommission (2012a, Art. 4 ff. („Sanierungsplanung") sowie Art. 9 ff. (.Abwicklungsplanung"). Vgl. dazu exemplarisch die Bewertungsvorschrift in EU-Kommission (2012a, Art. 30).

398

Jens-Hinrich Binder

d. Fazit und Bewertung Je größer und komplexer der jeweilige Insolvenzfall ist, desto stärker spürbar sind damit auch Probleme der Verfahrenslogistik, die das Risiko von Unklarheiten und nicht vorhergesehenen Externalitäten im Falle der Anwendung der Übertragungsmechanismen erhöhen.84 Der damit einhergehende Verlust an Berechenbarkeit des wirtschaftlichen Verfahrensergebnisses ist nicht nur deshalb problematisch, weil er unmittelbar das öffentliche Interesse am Schutz der Systemstabilität berührt, das ja die Einfuhrung eines besonderen Rechtsrahmens für systemrelevante Institute überhaupt erst motiviert hat. Aus politökonomischer Sicht steigen vielmehr zugleich die Anreize der für die Verfahrenseinleitung verantwortlichen Amtsträger, angesichts der Zweifel an einer systemschonenden Anwendbarkeit des Regimes vom „Praxistest" ganz abzusehen. Für sie geht es letztlich um die Wahl zwischen einem bekannten Übel, nämlich der informellen Sanierungsbeihilfe mit allen negativen Folgen, aber eben auch einiger Sicherheit hinsichtlich der auf diese Weise immerhin eindämmbaren systemischen Auswirkungen einerseits und einem unbekannten Gefahrenszenario andererseits: der Anwendung eines noch nicht hinreichend erprobten und deshalb mit Unsicherheiten behafteten Regimes, das möglicherweise die befürchteten Ansteckungsrisiken nicht gänzlich ausschließen kann. Dies könnte gerade angesichts des kurzen Entscheidungszeitraums sogar in Fällen, in denen derartige Sorgen letztlich nicht begründet sind, zur Entscheidung gegen die Anordnung einer Übertragung fuhren. Realistischerweise dürfte vor diesem Hintergrund anzunehmen sein, dass der Übertragungsmechanismus gerade in Fällen großer, komplexer und international engagierter Banken und Bankengruppen, in denen sich die mit der Aussetzung des marktwirtschaftlichen Sanktionensystems verbundenen Probleme besonders drängend stellen, letztlich nur als unsichere und deshalb vielfach nicht praktikable Lösung zu qualifizieren sein könnte.85

IV. Schluss Fasst man die vorstehenden Überlegungen zusammen, bietet sich ein Bild mit Licht und Schatten: Übertragungsmechanismen bieten ein innovatives Instrumentarium, das in der Tat grundsätzlich geeignet ist, Marktdisziplin durch die Anwendung bzw. Reproduktion der tradierten insolvenzrechtlichen Sanktionensysteme für Anteilseigner, Geschäftsleiter und Gläubiger zu stärken. Dies gilt freilich nicht ohne Einschränkungen. Kaum vermeidbar ist zunächst die Privilegierung einzelner Gläubigergruppen, die infolge der Überleitung ihrer Forderungen auf einen privatwirtschaftlichen Erwerber oder eine hoheitlich errichtete Brückenbank jedenfalls in erheblichem Umfang vor dem Eingreifen der ihnen ansonsten drohenden Verluste geschützt werden. Nach wie vor ungeklärt ist vor allem, ob sich Übertragungsmechanismen wirklich für sehr große, komplexe und international tätige Institutsgruppen eignen, für die sie nicht entwickelt worden und auf die sie bislang in keiner Rechtsordnung angewendet worden sind. 84 85

In eine ähnliche Richtung auch Gleeson (2012, S. 16); siehe auch Binder (2013). Realistisch Gleeson (2012, S. 16); optimistischer, aber ohne Auseinandersetzung mit den technischen Details dagegen etwa öhak/Nier (2009, S. 16) unter Berufung auf Hüpkes (2000).

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

• 399

In den damit bestehenden, letztlich durch technische Hürden motivierten Unsicherheiten liegt ein Aspekt, der die verantwortlichen Akteure in Aufsichtsbehörden, Zentralbanken und Politik vor der Anwendung dieses Instrumentariums auch in Zukunft zurückschrecken lassen könnte. „Durchsetzung von Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken" - bei realistischer Betrachtung ist hinter dem Titel dieses Beitrags mithin zumindest ein Fragezeichen zu setzen.

Literatur Amend, Angelika (2009): Das Finanzmarktstabilisierungsergänzungsgesetz oder der Bedeutungsverlust des Insolvenzrechts, ZIP - Zeitschrift für Wirtschaftsrecht, S. 589-599. Asser, Tobias M.C. (2001): Legal Aspects of Regulatory Treatment of Banks in Distress, Washington. Ayotte, Kenneth und Skeel, David A., Jr. (2010): Bankruptcy or Bailouts?, 35 Journal of Corporation Law, S. 469-498. Basel Committee on Banking Supervision (2010): Report and Recommendations of the Crossborder Bank Resolution Group, March 2010, abrufbar unter www.bis.org/publ/bcbsl69.pdf. Basler Ausschuss für Bankenaufsicht (2004): Internationale Konvergenz der Eigenkapitalmessung und der Eigenkapitalanforderungen - Überarbeitete Rahmenvereinbarung, 10. Juni 2004, abrufbar unter http://www.bis.org/publ/bcbsl07ger.htm Binder, Jens-Hinrich (2005): Bankeninsolvenzen im Spannungsfeld zwischen Bankaufsichts- und Insolvenzrecht, Berlin. Binder, Jens-Hinrich (2009a): Institutionalisierte Krisenbewältigung bei Kreditinstituten - Ausländische Gestaltungsvorbilder und mögliche Konsequenzen für die Weiterentwicklung des deutschen Aufsichtsrechts, ZBB - Zeitschrift für Bankrecht und Bankwirtschaft, S. 19-32. Binder, Jens-Hinrich (2009b): Bankenintervention und Bankenabwicklung in Deutschland: Reformnotwendigkeiten und Grundzüge eines verbesserten Rechtsrahmens, Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung, Arbeitspapier 05/2009, http://www.sachverstaendigenrat-wirtschaft.de/publikationen.html. Binder, Jens-Hinrich (2011): Bankensanierung: Perspektiven für die anreizkompatible Restrukturierung systemrelevanter Kreditinstitute, in: Christoph Allmendinger et al. (Hg.), Corporate Governance nach der Finanz- und Wirtschaftskrise, Tübingen, S. 239-258. Binder, Jens-Hinrich (2012): Ausgestaltung und Umsetzung der aufsichtsrechtlichen Restrukturierung, ZBB - Zeitschrift für Bankrecht und Bankwirtschaft, S. 417-426. Binder, Jens-Hinrich (2013): An den Leistungsgrenzen des Insolvenzrechts: Systemische Bankeninsolvenz und verfahrensförmige Sanierung, KTS - Zeitschrift für Insolvenzrecht, in Vorbereitung. Block, Cheryl D. (2012): A Continuum Approach to Systemic Risk and Too-Big-To-Fail, 6 Brooklyn Journal of Corporate, Financial & Commercial Law, S. 289-385. Boos, Karl-Heinz, Fischer, Reinfried und Schulte-Mattler, Hermann (2012): Kreditwesengesetz. Kommentar zu KWG und Ausfuhrungsvorschriften, 4. Aufl., München. Bundesministerium der Finanzen (2012): Arbeitsentwurf eines Gesetzes zur Sanierungs- und Abwicklungsplanung von Kreditinstituten und Finanzgruppen (unveröff.). Bundesministerium der Justiz (Hg.) (1986): Zweiter Bericht der Kommission für Insolvenzrecht, 1986, Bonn. Bundesregierung (2010): Entwurf eines Gesetzes zur Restrukturierung und geordneten Abwicklung von Kreditinstituten, zur Errichtung eines Restrakturierungsfonds für Kreditinstitute und zur Verlängerung der Verjährungsfrist der aktienrechtlichen Organhaftung (Restrukturierungsgesetz), Bundestags-Drucksache 17/3024. Cihak, Martin und Nier, Erlend (2009): The Need for Special Resolution Regimes for Financial Institutions - The Case of the European Union, IMF Working Paper WP/09/00. Ciaessens, Stijn, Herring, Richard J. und Schoenmaker, Dirk (2010): A Safer World Financial System: Improving the Resolution of Systemic Institutions, Centre for Economic Policy Research, Geneva Reports on the World Economy No. 12.

400

Jens-Hinrich Binder

Coffee, John C. (2012): The Political Economy of Dodd-Frank: Why Financial Reform Tends to be Frustrated and Systemic Risk Perpetuated, 97 Cornell Law Review, S. 1019-1982. Deutsche Bundesbank (2005): Neue Transparenzregeln fur Kreditinstitute, Monatsbericht Oktober 2005, S. 73-89. Dewatripont, Mathias und Freixas, Xavier (2012): Bank Resolution: Lessons from the Crisis, in: dies. (Hg.), The Crisis Aftermath: New Regulatory Paradigms, London. Dohm, Thomas (2012): Der Richtlinienvorschlag zur Festlegung eines Rahmens für die Sanierung und Abwicklung von Kreditinstituten und Wertpapierfirmen, WM- Zeitschrift fur Wirtschafts- und Bankrecht, S. 2033-2040. Eidenmüller, Horst (2010): Reformperspektiven im Restrukturierungsrecht, ZIP - Zeitschrift für Wirtschaftsrecht, S. 649-660. Eucken, Walter (1946/1999): Über die Verstaatlichung der privaten Banken, in: Walter Oswalt (Hg.), Ordnungspolitik von Walter Eucken, Münster, S. 38-58. EU-Kommission (2011a): Commission Staff Working Paper: The effects of temporary state aid rules adopted in the context of the financial and economic crisis, SEC(2011) 1126 final, Brüssel 20.11.2012. EU-Kommission (2011b): Commission Staff Working Paper: Facts and figures on state aid in the EU Member States, SEC (2011) 1487 final, Brüssel 1.12.2011. EU-Kommission (2012a): Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates zur Festlegung eines Rahmens für die Sanierung und Abwicklung von Kreditinstituten und Wertpapierfirmen und zur Änderung der Richtlinien 77/91/EWG und 82/891/EG des Rates, der Richtlinien 2001/24/EG, 2002/47/EG, 2004/25/EG, 2005/5/EG, 2007/36/EG und 2011/35EG sowie der Verordnung (EU) Nr. 1093/2010, KOM(2012) 280 endg., Brüssel, den 12.6.2012. EU-Kommission (2012b): Neue Krisenmanagement-Maßnahmen zur Vermeidung künftiger Bankenrettungen, Pressemitteilung, IP/12/570, Brüssel, den 6.6.2012. FAZ (2013): Gläubiger von Lehman Europa voll entschädigt, FAZ - Frankfurter Allgemeine Zeitung, 16.4.2013, S. 17. Financial Stability Board (2010): Reducing the moral hazard posed by systemically important financial institutions - FSB Recommendations and Time Lines, October 2010, abrufbar unter www.financialstabilityboard.org/publications/r_10111 la.pdf. Financial Stability Board (2011): Key Attributes of Effective Resolution Regimes for Financial Institutions, October 2011, abrufbar unter: www.financialstabilityboard.org/publications/r_l 11104cc.pdf. Flannery, Mark J. (2010): Market Discipline in Bank Supervision, in: A.N. Berger/P. Molyneux/J.O.S. Wilson (Hg.), The Oxford Handbook of Banking, Oxford, S. 377-404. Flessner, Axel (2010): Das Insolvenzrecht für Banken. Europäischer Rundblick und grundsätzliche Überlegungen, ÖBA - Bank-Archiv, S. 655-662. Franke, Günter und Krahnen, Jan Pieter (2012): Marktkräfte und Finanzstabilität: Desiderata und Anreizwirkungen eines institutionellen Rahmens für die Bankenrestrukturierung, ZBB Zeitschrift für Bankrecht und Bankwirtschaft, S. 399-412. Giovanoli, Mario und Heinrich, Gregor (eds.) (1999): International Bank Insolvencies. A Central Bank Perspective, London. Gleeson, Simon (2009): The Role of Government, Central Banks and Regulators in Managing Banking Crisis, in: J.R. LaBrosse/R. Olivares-Caminal/D. Singh (Hg.), Financial Crisis Management and Bank Resolution, Cheltenham, S. 99-101. Goodhart, Charles (1999/2009): Myths about the Lender of Last Resort, in: Charles Goodhart und Gerhard Illing (Hg.), Financial Crises, Contagion, and the Lender of Last Resort, Reprint, Oxford, S. 227-245. Grüner, Helmut (1984): Marktsystem, Unternehmenskontrollen und Insolvenzen: Volkswirtschaftliche Überlegungen zur Reform des Insolvenzrechts, ORDO Bd. 35, S. 247-267. Günther, Marcus (2010): Systemrelevanz von Finanzinstituten, Wertpapiermitteilungen - Zeitschrift fur Wirtschafts- und Bankrecht, S. 825-831. Hadjiemmanuil, Christos (2004): Bank Resolution Policy and the Organization of Bank Insolvency Proceedings: Critical Dilemmas, in: David G. Mayes und Aarno Liuksila (Hg.), Who pays for Bank Insolvency?, Houndsmills, S. 272-330.

Marktdisziplin mittels zwangsweiser Übertragung systemrelevanter Teile von Banken

401

Höche, Thorsten (2010): Reorganisation systemrelevanter Banken, in: Stefan Grundmann et al. (Hg.), Festschrift für Klaus J. Hopt zum 70. Geburtstag am 24. August 2010, Berlin, S. 2001 2013. International Monetary Fund/Bank for International Settlements (2009): Guidance to Assess the Systemic Importance of Financial Institutions, Oktober 2009, http://www.bis.org/publ/othp07.pdf. Karmel, Roberta S. (2011): An Orderly Liquidation Authority is not the Solution to Too-BigTo-Fail, 6 Brooklyn Journal of Corporate Finance 1).

9

10

Die Anzahl der berücksichtigten verzögerten Werte in der Testregression wurde so spezifiziert, dass die Residuen autokorrelationsfrei sind. Es ist bekannt, dass Strukturbruchtests bei heteroskedastischen Daten, wie sie hier vorliegen, PowerProbleme haben können (El-Shagi und Giesen, 2013). Dies trifft aber vor allem auf kleine Stichproben zu; hier hingegen liegen große Stichproben mit mehr als 14 500 Beobachtungen vor. Wie die Existenz solcher Blasen begründet werden kann, wird beispielsweise in Holtemöller (2010), Scherbina (2013) und Xiong (2013) diskutiert.

412

Oliver Holtemöller

2. Testverfahren Einen Überblick über verschiedene statistische Verfahren, um explosives Verhalten {pi> 1) in einem autoregressiven Modell mit als logarithmiertem Preis und e, als Störterm, ( 3 ) yt

= Ptyt-I

+

et,

zu testen, geben Homm und Breitung (2012)." Bei diesen Verfahren wird die Nullhypothese p = 1 gegen die Alternativhypothese p > 1 getestet. Eine Möglichkeit besteht darin, sequenzielle Augmented Dickey-Fuller Tests (ADF-Tests) durchzuführen. Die Nullhypothese, dass kein explosives Verhalten vorliegt, wird abgelehnt, wenn die Statistik (4)

SADF(T0)



sup T < TS1 ADFT

mit

ADFr

=

p,T

entsprechende kritische Werte übersteigt (Phillips et al., 2011), wobei p t ein gewöhnlicher Kleinste-Quadrate-Schätzer ist und Spx der entsprechende Standardfehler; r 0 definiert die anfangliche Stichprobe, bei der das sequenzielle Verfahren startet. Wie die visuelle Inspektion der Preiszeitreihen nahelegt, könnten in der vorliegenden Anwendung im Beobachtungszeitraum nicht nur eine, sondern ggf. mehrere Phasen mit explosivem Preisverhalten vorgelegen haben (multiple Blasen). In diesem Fall besteht die Gefahr, dass die Statistik SADF Blasen nicht erkennt, weil die Power des Tests zu niedrig ist (Homm und Breitung 2012; Phillips et al. 2012). Diesem Problem kann begegnet werden, indem der Stichprobenanfang für die sequenziellen ADF-Tests variiert wird und zu jedem Endzeitpunkt das Supremum von ADF-Teststatistiken für sequenzielle Stichprobenanfangszeitpunkte betrachtet wird. Die entsprechende Teststatistik (GSADF) ist wie folgt definiert (Phillips et al., 2012): (5)

GSADF(t0)

=

sup T2e[To>a]>Tl6[0>T2 _ Ti]

ADFr\2,

wobei ADFdie Teststatistik für den Beobachtungszeitraum [ti, T2] ist. Die kritischen Werte sind in Phillips et al. (2012) tabelliert.

3. Testergebnisse und Datierung von Phasen explosiven Preisverhaltens Die Teststatistiken SADF und GSADF wurden für die nominalen und realen Rohstoffpreise für den Zeitraum Januar 1957 bis November 2012 anhand von Tagesdaten berechnet. 12 Die Ergebnisse sind in Tabelle 2 dargestellt.

11

12

Einen Überblick über weitere Testverfahren findet man zum Beispiel bei Flood and Hodrick (1990), Gurkaynak (2005) und Brunnermeier (2008). Dabei wird in Schritten von fünf Handelstagen vorgegangen, um Rechenzeit zu sparen. Berechnungen von GSADF mit Schrittweite ein Tag sind sehr zeitaufwendig.

Explosive Preisentwicklung lind spekulative Blasen auf Rohstoffmärkten

Tabelle 2:

• 413

Ergebnisse von Tests auf explosives Verhalten Index

SADF

Sig.

GSADF

Sig.

Nominal Insgesamt

0.95

4.82

***

Nahrung

1.09

4.90

***

Industrie

0.55

3.47

***

Vieh

1.06

3.54

***

Fette, Öle

0.03

3.20

***

Metalle

-0.34

3.10

***

Textilien

0.94

3.80

*»*

Real Insgesamt Nahrung

2.41

»**

4.48

*»*

3.33

«**

4.81

»**

Industrie

1.86

**

3.01

***

Vieh

2.33

*•*

3.51

***

Fette, Öle

1.28

*

3.27

***

Metalle

-0.01

Textilien

2.11

3.09 ***

3.37

• ** ***

Datenquellen: Commodity Research Bureau (Rohstoffpreise), International Monetary Fund (US Verbraucherpreise) und eigene Berechnungen. Die Spalte „SADF" zeigt die SADF-Test-Statistik und die Spalte „GSADF" die GSADF-Test-Statistik nach Phillips et al. (2012). Die Spalten „Sig." zeigen an, ob die jeweilige Nullhypothese, dass kein explosives Verhalten vorliegt, auf dem 1 % (***), 5 % (**) oder 10 % (*) Niveau abgelehnt werden kann.

Die Spalten „SADF" und „GSADF" zeigen die Werte, die die Teststatistiken für die verschiedenen Indizes annehmen. Die beiden Spalten „Sig." zeigen an, ob die jeweilige Teststatistik den kritischen Wert auf einem Signifikanzniveau von 10 % (*), 5 % (**) oder 1 % (***) überschreitet. Für die nominalen Indizes zeigt die SADF-Statistik keine Phasen mit explosivem Preisverhalten an. Die methodisch überlegene GSADF-Statistik zeigt jedoch für alle Indizes auf dem 1%-Niveau an, dass mindestens eine Periode mit explosivem Verhalten vorliegt. Es bleibt noch die Frage zu klären, wie die Phasen explosiven Verhaltens datiert werden können. Es wird hier der von Phillips et al. (2012) vorgeschlagenen Verfahrensweise gefolgt. Der Beginn und das Ende einer Phase mit explosivem Verhalten werden anhand der sequentiellen ADF-Statistiken und der entsprechenden kritischen Werte bestimmt. Eine explosive Phase beginnt in der ersten Periode, in der die Teststatistik den entsprechenden kritischen Wert übersteigt und endet in der ersten Periode, in der die Teststatistik wieder unter den kritischen Wert fallt. Das Signifikanzniveau sollte dabei umso kleiner sein, je größer der Stichprobenumfang ist. Hier wird ein Signifikanzniveau von 1 % verwendet.13 Abbildung 2 zeigt die identifizierten Phasen mit explosivem Preisverhalten. Betrachtet man zunächst die Rohstoffpreise insgesamt, so gibt es zwei 13

Phillips et al. (2012) identifizieren eine Phase explosiven Verhaltens nur dann, wenn der kritische Wert eine bestimmte Anzahl von Perioden in Folge überschritten wird. Da diese Anzahl allerdings willkürlich festgelegt werden muss, wird hier darauf verzichtet; es werden stattdessen sämtliche Überschreitungen des kritischen Wertes abgebildet.

414

Oliver Holtemöller

Perioden, in denen zum 1 %-Niveau explosives Preisverhalten angezeigt wird. Die erste dieser beiden Perioden tritt Mitte der 1970er Jahre auf (März/April 1974). Die zweite Phase liegt im zweiten und dritten Quartal des Jahres 2008. Dabei ist besonders interessant, dass die zweite explosive Phase in die Zeit fällt, in der die weltweite Finanzkrise Aktienkurse tendenziell sinken ließ. Dies könnte ein Indiz dafür sein, dass nicht-fundamentale Anleger im Verlauf der Finanzkrise finanzielle Mittel auf die Rohstoffmärkte umlenkten und damit zu einer Überhitzung beigetragen haben. Gesichert ist dies freilich nicht, sondern bedarf der weiteren Erforschung. Die Teststatistiken für die verschiedenen Subindizes deuten daraufhin, dass für die spekulativen Blasen in erster Linie die Industrierohstoffe verantwortlich sind. Bei den Nahrungsmitteln wird der 1 % kritische Wert nur Mitte der 1970er Jahre überschritten. In den Jahren 2008 und 2011 steigen die Teststatistiken zwar deutlich an, bleiben aber um etwa 0,01 unter dem 10 % kritischen Wert.

Abbildung 2: Perioden mit explosivem Preisverhalten auf ausgewählten Rohstoffmärkten Rohstoffe insgesamt (real)

20

65

70

75

80

85

90

95

00

05

10

00

05

10

Nahrungsmittel (real)

o

°

200-, 180160140-

o

^ 100| ~

8060-

40-

20-

65

70

75

80

85

90

95

Explosive Preisentwicklung und spekulative Blasen auf Rohstoffmärkten

415

Industrierohstoffe (real)

Datenquellen: Commodity Research Bureau (Rohstoffpreise), International Monetary Fund (US Verbraucherpreise) und eigene Berechnungen. Die schwarzen Punkte zeigen Phasen mit explosivem Preisverhalten an (1% Signifikanzniveau).

IV. Wirtschaftspolitische Implikationen Welche wirtschaftspolitischen Implikationen ergeben sich aus dem zeitweilig explosiven Preisverhalten auf Rohstoffmärkten? Um diese Frage zu beantworten, ist eine Kette von Teilfragen zu analysieren: 1.) Ist explosives Verhalten mit einer spekulativen Blase gleichzusetzen? 2.) Welche Effekte haben spekulative Blasen auf Allokation und Stabilität? 3.) Wie sollte die Wirtschaftspolitik auf spekulative Blasen reagieren?

1. Explosives Verhalten und Spekulative Blasen Rohstoffe können als Vermögensgut angesehen werden, da sie gelagert und zu einem späteren Zeitpunkt verkauft werden können. Der erwartete zukünftige Preis ist somit ein wichtiger Einflussfaktor auf die gegenwärtige Preisbildung. In Abschnitt 3.1 wurde dargestellt, dass Blasen auf Vermögensmärkten explosives Preisverhalten implizieren. Dies ist die Grundlage der in Abschnitt 3.2 vorgestellten Tests. Aber ist auch die umgekehrte Aussage richtig, dass explosives Verhalten in jedem Fall eine spekulative Blase impliziert? Im Allgemeinen ja, denn explosives Preisverhalten ermöglicht Arbitrage, die rationale Akteure ausnutzen würden. In Erwartung des explosiv steigenden (Loggreises lohnt es sich nämlich, den Rohstoff zu kaufen oder zu halten, zu lagern und zu einem späteren Zeitpunkt zu verkaufen. Allerdings würde diese zusätzliche aktuelle Nachfrage bereits den gegenwärtigen Preis steigen lassen und ein explosives Preisverhalten letztlich verhindern.14

14

Tirole (1982, 1985) zeigt, dass sowohl in einem Modell mit unendlich lebenden Akteuren als auch in einem Modell mit überlappenden Generationen eine rationale Blase, bei der ein über dem Fundamentalwert liegender Preis durch die Erwartung weiterer Preissteigerungen rationalisiert wird, unter realistischen Annahmen nicht auftreten kann.

416

Oliver Holtemöller

Kindleberger (1978, 1987) hat eine Blase als einen starken Preisanstieg definiert, dem ein scharfer Preiseinbruch folgt. Diese Blasen-Definition ließe sich anhand der Datierung der Phasen explosiven Preisverhaltens aus 3.3 formalisieren. Diese zeigt bei den hier betrachteten Preiszeitreihen jeweils das Ende einer Blase an, wenn es nach einem vorherigen starken Preisanstieg zu einem schnellen Preisrückgang kommt. Demnach kann auch nach der Definition von Kindleberger davon ausgegangen werden, dass in denjenigen Perioden, in denen statistische Tests explosives Preisverhalten anzeigen, tatsächlich spekulative Preisblasen vorliegen. Im nächsten Schritt soll nun diskutiert werden, welche ökonomischen Effekte eine spekulative Preisblase auf Rohstoffmärkten haben kann.

2. Spekulative Blasen und wirtschaftspolitische Ziele Die Wirtschaftspolitik verfolgt eine Reihe von Zielen. Ein wichtiges Ziel besteht darin, dass knappe Ressourcen effizient eingesetzt werden (Allokationseffizienz). Spekulative Preisblasen deuten zunächst auf eine Ineffizienz hin: Sie sind dadurch gekennzeichnet, dass der Preis eines Vermögensgutes oder Rohstoffes nicht seinem Fundamentalwert entspricht. Hierdurch könnte es zu Einbußen bei der preislichen Lenkungsfunktion für Konsum- und Investitionsentscheidungen kommen. Für Aktienmärkte gibt es jedoch zumindest in gewissem Umfang Evidenz dafür, dass Investoren eine Blase erkennen und ihre Investitionsentscheidungen entsprechend adjustieren (Blanchard et al. 1993; Chrinko und Shaller 1996, 2001).15 Es ist also nicht klar, dass von spekulativen Preisblasen automatisch ineffiziente Preissignale ausgehen. Hinzu kommt, dass Investoren vor der schwierigen Aufgabe stehen, transitorische Preiseffekte, permanente Effekte auf das Preisniveau und permanente Effekte auf die Wachstumsrate der Preise voneinander zu unterscheiden (Meitzer 2005). Dies ist in Echtzeit nicht fehlerfrei möglich und kann im Zusammenspiel mit psychologischen Faktoren, wie etwa Konformität und übermäßigem Selbstvertrauen (Holtemöller 2010), zu ex-post als spekulative Blase zu bezeichnenden Preisentwicklungen führen. Es kann ferner nicht ausgeschlossen werden, dass spekulative Blasen positive Effekte auf das langfristige Wirtschaftswachstum haben. So argumentierte Knight (1921), dass die Aussicht auf überdurchschnittliche Gewinne eine Kompensation für die Unsicherheit darstellt, die mit der Entwicklung neuer Technologien verbunden ist, was dazu führe, dass sich die Innovationsintensität einer Volkswirtschaft erhöht. In der Tat finden etwa Ronciere et al. (2008) einen positiven Zusammenhang zwischen Boom-Bust-Zyklen und dem langfristigen Wirtschaftswachstum. Das Platzen spekulativer Blasen hat allerdings regelmäßig negative Effekte auf die gesamtwirtschaftliche Stabilität bis hin zu schweren Rezessionen und Finanzkrisen. Preisblasen auf Vermögensmärkten könnten prinzipiell durch die Geldpolitik gedämpft werden. Erhöht die Zentralbank den Zinssatz, so werden die erwarteten zukünftigen Zahlungsströme stärker diskontiert, und die entsprechenden Fundamentalwerte sinken

15

Für den US-Immobilienmarkt allerdings finden Cheng et al. (2013) selbst in individuellen Transaktionsdaten von Managern aus der Verbriefungsbranche für die Jahre 2004 bis 2006 wenig Evidenz dafür, dass diese Fachleute eine Immobilienkrise erwartet hätten.

Explosive Preisentwicklung und spekulative Blasen auf Rohstoffmärkten

417

ceteris paribus. Diese Argumentation lässt sich auf Rohstoffe übertragen. Höhere Zinsen lassen die Lagerung von Rohstoffen und den zukünftigen Verkauf gegenüber einem heutigen Verkauf weniger attraktiv erscheinen, da die Opportunitätskosten der Lagerung steigen. Theoretische Überlegungen und Simulationsstudien deuten jedoch darauf hin, dass das geldpolitische „Gegen den Wind Lehnen" der Zentralbank bei spekulativen Blasen auch destabilisierende Auswirkungen auf die Realwirtschaft haben kann.16 Wie stark die negativen Effekte platzender Preisblasen auf die Realwirtschaft sind, hängt vor allem davon ab, ob die Käufe der spekulativen Vermögenstitel kreditfinanziert gewesen sind (European Central Bank, 2012; Brunnermeier und Oehmke 2012). Im Vergleich zur Identifikation von spekulativen Blasen lassen sich Übertreibungen auf Kreditmärkten tendenziell anhand von Indikatoren wie Bruttoverschuldung in Relation zum Bruttoinlandsprodukt leichter erkennen. Die Forschung auf dem Gebiet der Überwachung und Regulierung der makroökonomischen Kreditentwicklung (makroprudenzielle Politik) befindet sich allerdings erst am Anfang. Empirisch fundierte Aussagen über ihre Wirksamkeit sind noch nicht möglich.17 Grundsätzlich scheint es allerdings erfolgversprechender, durch regulatorische Maßnahmen (zum Beispiel höhere Eigenkapitalanforderungen oder Beleihungsgrenzen) Übertreibungen auf Kreditmärkten zu reduzieren, als spekulative Preisblasen auf Vermögensmärkten direkt zu identifizieren und zu bekämpfen.

3. Wirtschaftspolitische Reaktion auf spekulative Blasen auf Rohstoffmärkten Da also spekulative Preisblasen schwierig zu erkennen sind und sie keine eindeutig identifizierbaren Effekte auf Allokation und Stabilität haben, scheint es wirtschaftspolitisch sinnvoll, nicht auf die spekulative Blasen selbst zu reagieren, sondern die negativen Folgen platzender Blasen zu mindern. Dazu werden in der Literatur zahlreiche Vorschläge diskutiert (Holtemöller 2010, S. 563 f.), insbesondere die Verbesserung von Regulierungs- und Überwachungsmechanismen für Finanzintermediäre. Diese Überlegungen lassen sich auf Rohstoffmärkte übertragen. Die hier vorgestellten statistischen Tests deuten daraufhin, dass es auch auf Rohstoffmärkten gelegentlich zu spekulativen Preisblasen kommt. Die Rohstoffpreise lassen sich jedoch in Echtzeit nicht in fundamentale und nicht-fundamentale Komponenten zerlegen. Außerdem dürften Aussichten auf überdurchschnittliche Gewinne - wie zuvor diskutiert - positive Angebotseffekte haben. Ziel der Wirtschaftspolitik sollte somit vor allem sein, die negativen Folgen von spekulativen Preisblasen zu mindern. Dazu ist in Analogie zu makroprudenziellen Maßnahmen die Überwachung und Regulierung der Finanzierung von Rohstoffkäufen geeignet. Auch ein höheres Maß an Markttransparenz und ökonomischer Bildung kann dazu beitragen, Privatanleger besser vor den negativen Folgen platzender Blasen zu schützen. Um fundierte wirtschaftspolitische Empfehlungen im 16

17

Siehe hierzu Holtemöller (2008, S. 330 ff.) und die dort zitierte Literatur sowie Europäische Zentralbank (2010) und Gali (2013). Für einen knappen Überblick zum Stand der makroprudenziellen Forschung siehe Projektgruppe Gemeinschaftsdiagnose (2013, S. 54 f).

418

Oliver Holtemöller

Hinblick auf die Allokation auf Rohstoffmärkten und im Hinblick auf Verteilungswirkungen bei Anbietern und Nachfragern von Rohstoffen zu geben, ist weitere Forschung erforderlich. So sind beispielsweise die Effekte von Preisblasen auf Rohstoffmärkten auf die Investitionsentscheidungen von Rohstoffanbietern bisher nicht hinreichend untersucht. Auch der Zusammenhang zwischen Rohstoffpreisen und makroökonomischen Fluktuationen sowie zwischen Rohstoffpreisen und Finanzmarktpreisen sollte noch intensiver erforscht werden, bevor wirtschaftspolitische Schlussfolgerungen gezogen werden.

V. Fazit In dieser Studie wird untersucht, ob die Preisentwicklung auf Rohstoffmärkten statistische Anhaltspunkte für explosives Preisverhalten liefert. Diese Frage ist von zentraler Bedeutung in der wirtschaftspolitischen Debatte um die Regulierung des Handels von Rohstoffen. Es liegt statistische Evidenz dafür vor, dass Rohstoffpreise gelegentlich explosives Verhalten aufweisen. Besonders relevant ist das bei Industrierohstoffen. Wirtschaftspolitische Empfehlungen lassen sich daraus alleine noch nicht ableiten. Es kann zwar vermutet werden, dass explosive Rohstoffpreise ineffiziente Preissignale für Konsumenten und Investoren liefern. Ob sich allerdings tatsächlich ex-post ineffiziente Konsum- und Investitionsentscheidungen nachweisen lassen, ist im Falle von Rohstoffmärkten eine offene Frage. Aber selbst wenn ineffiziente Preissignale nicht zu realen Allokationsverzerrungen führen sollten, gehen mit spekulativen Blasen Verteilungseffekte einher. Diese können, insbesondere bei den Nahrungsmittelpreisen, erheblich sein. Die hier vorgelegten Ergebnisse deuten darauf hin, dass auch Nahrungsmittelpreise zeitweilig spekulativen Preisblasen unterliegen - auch wenn die Evidenz weniger deutlich ist als beispielsweise für Industrierohstoffe. In welchem Umfang die Konsumenten von Nahrungsmitteln davon betroffen sind, hängt von einer Reihe von weiteren Faktoren ab, die hier nicht untersucht worden sind. Der Anfangsverdacht, dass Spekulation mit Rohstoffen zeitweilig zu ineffizienten Preisentwicklungen in Form von explosivem Verhalten führt, kann jedoch nicht verworfen werden. Literatur Andrews, D.W.K., 1993, Tests for Parameter Instability and Structural Change with Unknown Change Point, Econometrica 61, 821-856. Belke, A., Bordon, I., Volz, U., 2012, Effects of Global Liquidity on Commodity and Food Prices, Ruhr Economic Paper 323. Blanchard, O., Rhee, C., Summers, L., 1993, The Stock Market, Profit, and Investment, Quarterly Journal of Economics 108, 115-136. Brunnermeier, M., 2008, Bubbles, in: Durlauf, S.N., Blume, L.W.: The New Palgrave Dictionary of Economics Online, Second Edition, Palgrave Macmillan. Brunnermeier, M., Oehmke, M., 2012, Bubbles, Financial Crises, and Systemic Risk, NBER Working Paper 18398. Cheng, I.-H., Raina, S., Xiong, W., 2013, Wall Street and the Housing Bubble, NBER Working Paper 18904.

Explosive Preisentwicklung und spekulative Blasen auf Rohstoffmärkten

419

Chirinko, R.S., Shaller, H., 1996, Bubbles, Fundamentals, and Investment: A Multiple Equation Testing Strategy, Journal of Monetary Economics 38,47-76. Chirinko, R.S., Shaller, H., 2001, Business Fixed Investment and "Bubbles": The Japanese Case, American Economic Review 91, 663-680. Deaton, A., Laroque, G., 1992, On the Behaviour of Commodity Prices, Review of Economic Studies 59, 1-23. El-Shagi, M., Giesen, S., 2013, Testing for Structural Breaks at Unknown Time, Computational Economics 41, 101-123. Emekter, R., Jirasakuldech, B., Went, P., 2012, Rational Speculative Bubbles and Commodity Markets: Application of the Duration Dependence Test, Applied Financial Economics 22, 581-596. Engle, R.F., 1982, Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of U.K. Inflation, Econometrica 50, 987-1008. Europäische Zentralbank, 2010, Vermögenspreisblasen und Geldpolitik, Monatsbericht November, 75-89. European Central Bank, 2012, Report on the First Two Years of the Macro-prudential Research Network. Fattouh, B., Kilian, L., Mahadeva, L., 2012, The Role of Speculation in Oil Markets: What Have We Learned So Far?, Energy Journal, forthcoming. Flood, R.P., Hodrick, R.J., 1990, On Testing for Speculative Bubbles, Journal of Economic Perspectives 4, 85-101. Gali, J., 2013, Monetary Policy and Rational Asset Price Bubbles, CEPR Discussion Paper 9355. Gurkaynak, R.S., 2005, Econometric Tests of Asset Price Bubbles: Taking Stock, Finance and Economics Discussion Series, Divisions of Research & Statistics and Monetary Affairs, Federal Reserve Board 2005-4. Gutierrez, L., 2013, Speculative Bubbles in Agricultural Commodity Markets, European Review of Agricultural Economics 40, 217-238. Holtemöller, O., 2008, Geldtheorie und Geldpolitik, Mohr Siebeck, Tübingen. Holtemöller, O., 2010, Vermögenspreisblasen: Erklärungsansätze und wirtschaftspolitische Überlegungen, Wirtschaft im Wandel 16, 558-564. Homm, U., Breitung, J., 2012, Testing for Speculative Bubbles in Stock Markets. A Comparison of Alternative Methods, Journal of Financial Econometrics 10, 198-231. Jarque, C.M., Bera, A.K., 1980, Efficient Tests for Normality, Homoskedasticity and Serial Dependence of Regression Residuals, Economics Letters 6, 255-259. Keynes, J.M., 1936, Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes, Siebente Auflage (unveränderter Nachdruck der 1936 erschienenen 1. Auflage), Duncker & Humblot, Berlin. Kilian, L., Lee, T.K., 2012, Quantifying the Speculative Component in the Real Price of Oil: The Role of Global Oil Inventories, Journal of International Money and Finance, forthcoming. Kilian, K., Murphy, D.P., 2012, The Role of Inventories and Speculative Trading in the Global Market for Crude Oil, Journal of Applied Econometrics, forthcoming. Kindleberger, C.P, 1978, Manias, Panics and Crashes: A History of Financial Crises, Basic Books. Kindelberger, C.P., 1987, Bubbles, in: Eatwell, J., Milgate, M., Newman, P.: The New Palgrave Dictionary of Economics Online, First Edition, Palgrave Macmillan. Knight, F., 1921, Risk, Uncertainty and Profit, republication of the 1957 edition of the work originally published in 1921 by the Houghton Mifflin Company. Knittel, C.R., Pindyck, R.S., 2013, The Simple Economics of Commodity Price Speculation, NBER Working Paper 18951. Lammerding, M., Stephan, P., Trede, M. und Wilfling, B., 2013, Speculative Bubbles in Recent Oil Price Dynamics: Evidence from a Bayesian Markov-switching State-space Approach, Energy Economics 36,491-502. Malkiel, B.G., 2003, The Efficient Market Hypothesis and its Critics, Journal of Economic Perspectives 17, 59-82.

420

Oliver Holtemöller

Meitzer, A.H., 2005, Rational and Nonrational Bubbles, in: Hunter, W.C., Kaufman, G.C., Pomerleano, M.: Asset Price Bubbles: The Implications for Monetary, Regulatory, and International Policies, The MIT Press, 23-33. Phillips, P.C.B., Shi, S.-P., Yu, J., 2012, Testing for Multiple Bubbles, Cowles Foundation Discussion Paper 1843. Phillips, P.C.B., Wu, Y., Yu, J., 2011, Explosive Behavior in the 1990s NASDAQ: When did Exuberance Escalate Asset Values?, International Economic Review 52, 201-226. Projektgruppe Gemeinschaftsdiagnose, 2013, Deutsche Konjunktur erholt sich - Wirtschaftspolitik stärker an der langen Frist ausrichten, Gemeinschaftsdiagnose Frühjahr 2013. Reinhart, C.M., Borensztein, 1994, The Macroeconomic Determinants of Commodity Prices, IMF Working Paper 94/9. Ronciere, R., Westermann, F., Tornell, A., 2008, Systemic Crises and Growth, Quarterly Journal of Economics 123, 359-406. Scherbina, A., 2013, Asset Price Bubbles: A Selective Survey, IMF Working Paper 13/45. Shi, S., Arora, V., 2012, An Application of Models of Speculative Behaviour to Oil Prices, Economics Letters 115,469-472. Tirole, J., 1982, On the Possibility of Speculation under Rational Expectations, Econometrica 50, 1163-1181. Tirole, J., 1985, Asset Bubbles and Overlapping Generations, Econometrica 53, 1499-1527. Will, M.G., Prehn, S., Pies, I., Glauben, T., 2012, Schadet oder nützt die Finanzspekulation mit Agrarrohstoffen? Ein Literaturüberblick zum aktuellen Stand der empirischen Forschung, Diskussionspapier des Lehrstuhls für Wirtschaftsethik an der Martin-Luther-Universität Halle-Wittenberg 2012-26. Xiong, W., 2013, Bubbles, Crises, and Heterogeneous Beliefs, NBER Working Paper 18905. Zusammenfassung In dieser Studie wird untersucht, ob die Preisentwicklung auf Rohstoffmärkten statistische Anhaltspunkte fur spekulative Preisblasen liefert. Diese Frage ist von zentraler Bedeutung in der wirtschaftspolitischen Debatte um die Regulierung des Handels von Rohstoffen. Es kann statistisch gezeigt werden, dass sich Rohstoffpreise gelegentlich explosiv verhalten. Die stärkste Evidenz für explosives Verhalten gibt es bei den Industrierohstoffen. Auch bei Nahrungsmittelpreisen können Phasen explosiven Verhaltens statistisch nachgewiesen werden. Eine wichtige Schlussfolgerung ist, dass die Ursachen explosiven Verhaltens auf Rohstoffmärkten und die Effekte von Preisblasen auf die Entscheidungen von Konsumenten und Investoren sowie Verteilungseffekte systematisch untersucht werden müssen. Summary: Explosive Behavior and Speculative Bubbles on Commodity Markets This paper analyzes whether price developments on commodity markets support the hypothesis that commodity prices are subject to speculative behavior in certain time periods. This is an important research question within the ongoing debate on the regulation of commodity trading. It can be shown that commodity prices occasionally exhibit explosive behavior. In particular, this is found for raw industrials, but also for foodstuff. An important implication is that the reasons and the effects on consumers and investors of bubbles on commodity markets have to be investigated in greater detail. Additionally, the distributional effects of these findings should be analyzed in future research.

ORDO • Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft (Lucius & Lucius, Stuttgart 2013) Bd. 64

Söven Prehn*, Thomas Glauben, Ingo Pies, Matthias Will und Jens-Peter Loy#

Betreiben Indexfonds Agrarspekulation? Erläuterungen zum Geschäftsmodell und zum weiteren Forschungsbedarf Inhalt I. Einleitung II. Zur Theorie der Indexfonds: Investitionsmaxime und Marktverhalten III. Zur Empirie der Indexfonds: Methodische Aspekte und statistische Modelle

421 425 432

IV. Zur Regulierung der Indexfonds: Ordnungspolitische Schlussfolgerungen 435 V. Fazit 436 Literatur

439

Zusammenfassung

440

Summary: Do Index Funds Speculate on Agricultural Futures Markets? Explanatory Notes on the Business Model and the Additional Need for Research 441

I. Einleitung In den letzten Jahren kam es wiederholt zu starken Preissteigerungen für Agrarrohstoffe wie Weizen, Reis, Mais und Sojabohnen. Die Verteuerung der Lebensmittel führte rund um den Globus zu Hungerrevolten (Abbildung 1). Vor allem in Entwicklungsländern sahen sich Menschen, die einen großen Teil ihres ohnehin nur niedrigen Einkommens für Nahrung ausgeben (müssen), durch die plötzlich und mit großer Rasanz auftretenden Preisexplosionen existenziell bedroht. Neben der Erklärung des Phänomens durch realwirtschaftliche Faktoren1 kam schnell der Verdacht auf, dass man es vielleicht mit einem finanzwirtschaftlich verursachten Problem zu tun haben könnte. Konkret wurde postuliert, dass Indexfonds2 eine zentrale Ursache für die Steigerungen der Agrarrohstoffpreise, insbesondere der Getreidepreise, an Warenterminmärkten sind. Dieser Verdacht wurde durch die Beobachtung geschürt,

Korrespondierender Autor. Leibniz Institut fiir Agrarentwicklung in Mittel- und Osteuropa, Abteilung Agrarmärkte, Agrarvermarktung und Weltagrarhandel, Theodor-Lieser-Str.2, 06120 Halle (Saale). *

Die Studie wurde aus Eigenmitteln finanziert. Interessenkonflikte bestehen nicht.

1

Vgl. Pies et al. (2013). Im Zentrum der Kritik stehen Indexfonds, die sich auf den Terminmärkten für Agrarrohstoffe mit Kaufpositionen („long only") engagieren. Der vorliegende Beitrag bezieht sich deshalb ausschließlich auf diese Art von Indexfonds.

2

422

Sören Prehn, Thomas Glauben, Ingo Pies, Matthias Will und Jens-Peter Loy

dass im Vorfeld des Jahres 2008 Indexfonds als neue Akteure auf den Terminmärkten für Agrarrohstoffe aufgetreten sind. Ihr Geschäftsvolumen hatte überraschend schnell zugenommen, von unter 10 Milliarden US-$ im Jahr 2003 bis auf rund 100 Milliarden US-$ im Jahr 2011.3 Nach dieser Argumentation fuhren passive Indexfonds zu einem trendverstärkenden bzw. -auslösendem Anstieg zunächst der Terminmarktpreise und dann auch der Kassamarktpreise, mit gravierenden Konsequenzen für die Welternährungssituation. Abbildung 1: Agrarpreisentwicklung und Hungerrevolten, 2004-2012 4

s 260,0 240,0

iWs.

220,0

/

200,0

/

'>.

FAOFoodPriceIndex

v y

/

180,0 160,0 140,0 120,0 100,0 2004

V

Hungerrevolten 2004 -

2012

rTT^Tirrr7:rrTTTTr

2005

I

Burundi

2006

2007

2008

2009

2010

2011

2012

V

Mosambik, Tunesien, Libyen, Somalia, Indien, Mauretanien, Mosambik, Ägypten, Mauretanien, Algerien, Jemen, Kamerun, Sudan, Saudi Arabien, Sudan, Jemen, Oman, Marokko, Irak, Bahrain, Elfenbein küste, Haiti, Syrien, Uganda Ägypten, Tunesien

Zu den besonders vehementen Vertretern der Ansicht, dass Indexfonds Schuld an den Preissteigerungen seien, gehören der US-Amerikaner Michael W. Masters und die von ihm gegründete Lobby-Organisation „Better Markets". Die nach ihm benannte Masters-Hypothese besagt, dass Indexfonds durch „virtuelles Horten" eine Preisblase auf den Warenterminmärkten ausgelöst haben, die von dort auf die Kassamärkte übertragen wurde und damit Hunger(-revolten) verursacht hat. Am 20. Mai 2008 ließ sich Michael Masters vor einem Ausschuss des US-Senats hierzu wie folgt vernehmen: „Index Speculators' trading strategies amount to virtual hoarding via the commodities futures markets. Institutional Investors are buying up essential items that exist in limited quantities for the sole purpose of reaping speculative profits. Think about it this way: If Wall Street concocted a scheme whereby investors bought large amounts of pharmaceutical drugs and medical devices in order to profit from the resulting increase in prices, making these essential items unaffordable to sick and dying people, society would be justly outraged. Why is there not outrage over the fact that Americans must pay drastically more to feed their families, fuel their cars, and heat their homes? Index Speculators provide no benefit to the futures markets and they inflict a tremendous cost upon society." 5 3

4

Vgl. Barclays Capital (2011). Irwin & Sanders (2011) fuhren aus, dass sich die Marktanteile von Indexfonds von 2004 bis 2008 an allen Warenterminmärkten mehr als verdoppelt haben. Quelle: Eigene Darstellung unter Verwendung der Daten von Lagi, Bertram und Bar-Yam (2011) sowie des FAO Food Price Index.

Betreiben Indexfonds Agrarspekulation?

423

Diese These vom „virtuellen Horten" ist - wenn auch mit einiger Verspätung - in der deutschen Öffentlichkeit auf fruchtbaren Boden gefallen. Seit Anfang des Jahres 2011 betreiben mehrere Organisationen der Zivilgesellschaft, darunter auch die Welthungerhilfe, Misereor, Foodwatch und Oxfam Deutschland, gemeinschaftlich eine Kampagne, durch die Indexfonds in das Zentrum öffentlicher Aufmerksamkeit und Kritik gerückt werden. In dieser Kampagne werden Indexfonds als „Hungermacher" tituliert.6 Sogar von „Spekulanten des Todes" war schon die Rede.7 Einer breiten Öffentlichkeit wurde so der Eindruck vermittelt, zur wirksamen Bekämpfung des Hungers käme es vor allem darauf an, die Terminmarktgeschäfte der Indexfonds streng zu limitieren oder gleich ganz zu verbieten. Bei der Verbraucherorganisation Foodwatch liest man zum Beispiel: „Most investors active on exchanges today differ ... from ... traditional speculators. Both the volume of their business and their investment strategy have nothing to do with the actual business of commodity producers and processors, or with needed price hedging. These investors invest in futures because they see them as viable long-term investments. This has caused the share of speculative trading in the total market for commodity futures to swell from formerly about 30 percent to some 80 percent today. [...] The appearance of capital investors on commodity markets has coupled commodity exchanges with the general development of financial markets. As a result, factors such as interest rates, readiness to take risk, and falling stock prices have had an impact on prices for commodities that is completely independent of supply and demand for physical goods. This doesn't mean that failed harvests, a decline in oil production or the increased consumption of crops to produce biofuels do not also affect commodity prices. But it does mean that the activity of financial investors can greatly prolong and intensify price hikes triggered by these factors and events."8

Neben diesen zivilgesellschaftlichen Akteuren wird die Kritik an passiven Indexfonds auch von internationalen Organisationen unterstützt. Im September 2010 legte beispielsweise Olivier de Schutter in seiner Eigenschaft als UN-Sonderberichterstatter fur das Recht auf Nahrung eine Stellungnahme vor, in der er folgende Einschätzung von sich gab: „However, the effect of the commodities index funds appears to have been to throw the commodities futures markets into "contango", producing a vicious circle of prices spiraling upward: the increased prices for futures initially led to small price increases on spot markets; sellers delayed sales in anticipation of more price increases; and buyers increased their purchases to put in stock for fear of even greater future price increases. " 9

Dieser Eindruck ist irreführend. Deshalb wollen die folgenden Ausfuhrungen zu seiner Korrektur beitragen. Doch im Unterschied zur bisher vorliegenden Literatur wird hier ein anderer Weg gewählt, um der Masters-Hypothese und der von ihr ausgehenden Irreführung der öffentlichen Diskussion entgegenzutreten. In der Literatur wurde ein großes Arsenal theoretischer und vor allem empirischer Einwände angesammelt, die gegen die Masters-Hypothese sprechen. Von großem Gewicht ist beispielsweise der Befund, dass sich die von Indexfonds abgedeckten Warenterminmärkte sehr unterschiedlich entwickelt haben: Bei tierischen Produkten waren sehr viel niedrigere Preissteigerungen zu verzeichnen als bei Getreiden. Und bei

5 6 7 8 9

Masters (2008, S. 6). Vgl. Schumann (2011). Vgl. Schneider (2012). Foodwatch (2011, S. 2). de Schutter (2010, S. 4).

424

Sören Prehn, Thomas Glauben, Ingo Pies, Matthias Will und Jens-Peter Loy

Reis waren sehr starke Preissteigerungen zu verzeichnen, obwohl Reis von Indexfonds gar nicht erfasst wird.10 Solche Befunde argumentieren vom Ende der Wirkungskette her. Demgegenüber dreht dieser Beitrag die Blickrichtung um. Er schaut auf den Anfang der Wirkungskette und klärt zunächst darüber auf, was Indexfonds sind und wie sie arbeiten. Die Überlegungen sind in drei Abschnitte gegliedert. Sie befassen sich mit den folgenden Fragekomplexen: 1. Worin genau besteht das Geschäftsmodell der Indexfonds? Welche Investitionsstrategie liegt zugrunde, wenn diese Fonds sich auf den Terminmärkten für Agrarrohstoffe engagieren? Ist es angemessen, die Geschäftsaktivität dieser Indexfonds als „virtuelles Horten" zu beschreiben? 2. Warum ist es der Wissenschaft zunächst schwergefallen, dem Verdacht entgegenzutreten, die Agrarpreiskrisen der letzten Jahre seien primär finanzwirtschaftlich verursacht worden? Wie ist der gegenwärtige Erkenntnisstand der empirischen Literatur? Mit welchen konzeptionellen Problemen hat die Forschung hier zu kämpfen? Welche Zeitreiheneigenschaften sind angesichts der verfügbaren Datenbasis zu beachten? In welche Richtung müssen die empirischen Methoden weiterentwickelt werden? 3. Wie lässt sich nach dem gegenwärtigen Stand wissenschaftlicher Erkenntnis zu den von zivilgesellschaftlicher Seite erhobenen Forderungen Stellung nehmen, die Geschäftstätigkeit von Indexfonds durch Preislimits oder Positionslimits streng zu begrenzen oder regulatorisch per Verbot ganz zu untersagen? Welche ordnungspolitischen Schlussfolgerungen werden durch die aktuelle Forschung nahegelegt? Die Beantwortung dieser Fragen läuft auf folgende Erkenntnisse hinaus: 1. Indexfonds sind darauf festgelegt, einen Markttrend nachzuzeichnen. Mit diesem Geschäftsmodell leisten die Fonds einen betriebs- und volkswirtschaftlich sinnvollen Beitrag zu einem professionellen Risiko-Ertrags-Management. Ihre Geschäftstätigkeit wirkt sich auf den Terminmärkten preisstabilisierend aus. Ihnen „virtuelles Horten" vorzuwerfen, entbehrt einer sachlichen Grundlage. 2. Indexfonds verhalten sich nicht prozyklisch, sondern antizyklisch. Gleichwohl besteht über bestimmte Zeitstrecken hinweg eine positive Korrelation zwischen ihrer Geschäftsaktivität und der Entwicklung der Terminmarktpreise. Dieser Befund wurde fälschlicherweise als prozyklisches Verhalten gedeutet. Hierbei wurde offensichtlich nicht richtig bedacht, dass das nur scheinbar prozyklische Verhalten darauf zurückgeführt werden muss, dass andere Rohstoffe im Preis noch stärker gestiegen sind. 3. Indexfonds erhöhen die Liquidität auf dem Warenterminmarkt. Wird ihre Geschäftstätigkeit regulatorisch eingeschränkt, ist das der Funktionsweise des Warenterminmarkts nicht zuträglich, sondern abträglich. Insofern besteht die Gefahr, dass die im politischen Raum diskutierten Preislimits oder Positionslimits oder Verbote eine kontraproduktive Wirkung entfalten. 10

Vgl. Irwin et al. (2009).

Betreiben Indexfonds Agrarspekulation?

425

Insgesamt betrachtet, ist zur Versachlichung der öffentlichen Debatte Folgendes festzuhalten: Die Hungerkrisen der letzten Jahre hatten primär realwirtschaftliche Ursachen. Sie wurden nicht durch das finanzwirtschaftliche Verhalten von Indexfonds ausgelöst oder verstärkt. Die Hoffnung, durch eine Regulierung der Geschäftsaktivität von Indexfonds wesentliche Verbesserungen der weltweiten Nahrungssituation erzielen zu können, ist verfehlt. Gleichwohl sind Regulierungen wichtig, die Markttransparenz fördern. Im aktuellen Regulierungsprozess kommt es freilich vor allem darauf an, unnötige Über- und Fehlregulierungen zu vermeiden. Ein besseres Verständnis, wie Indexfonds arbeiten, kann dazu beitragen. Hierzu leistet die nachfolgende Argumentation einen innovativen Beitrag.

II. Zur Theorie der Indexfonds: Investitionsmaxime und Marktverhalten Entscheidend für das Verständnis des Geschäftsmodells von Indexfonds und für die Abschätzung der gesellschaftlichen Folgen dieses Geschäftsmodells ist die vertragliche Selbstbindung dieser Fonds, einen bestimmten Index möglichst originalgetreu nachzubilden. Hieraus folgen unmittelbar zwei weiterführende Fragen. Die erste betrifft das Ziel, die zweite das eingesetzte Mittel der Fondsbildung. Die erste Frage lautet: (1) Warum kann es sowohl betriebswirtschaftlich als auch volkswirtschaftlich sinnvoll sein, dass ein Investmentfonds sich darauf festlegt, einen Index abzubilden? Die zweite Frage lautet: (2) Welche Handelsstrategie verfolgen Indexfonds, um ihr Geschäftsmodell konkret umzusetzen? Der im Folgenden vorgenommene Versuch, diese beiden Fragen im Kontext zu beantworten, trägt dazu bei, eine Verhaltenstheorie für Indexfonds zu formulieren, die es in der Literatur so noch nicht gibt. ((1)) Zur ersten Frage: Indexfonds sind ein Instrument des Risikomanagements. Dieses erfüllt die sowohl betriebswirtschaftlich als auch volkswirtschaftlich wichtige Funktion, möglichst günstige Kombinationen von Risiko und Ertrag zu realisieren. Gemäß diesen beiden Dimensionen lassen sich für das von Indexfonds verfolgte Ziel theoretisch zwei Beweggründe ausfindig machen. Der erste Grund lässt sich verständlich machen als Versuch, bei gegebener Rendite das Risiko zu minimieren. Die theoretischen Grundlagen für dieses erste Argument stammen aus der klassischen Portfoliotheorie (Markowitz, 1952, 1959). Der zweite Grund hingegen lässt sich verständlich machen als Versuch, bei gegebenem Risiko die Rendite zu erhöhen. Die theoretischen Grundlagen für dieses zweite Argument sind zum Teil wesentlichen jüngeren Datums und bis heute immer noch nicht vollständig geklärt. Das erste Argument fußt auf der empirischen Beobachtung, dass die im Index abgebildeten Preise für Agrarrohstoffe in vielen Fällen eine negative Korrelation zu den Preisen traditioneller Anlagen (Aktien, Staatsschuldverschreibungen, Immobilien etc.) aufweisen. Deshalb verlieren Indexfonds an Wert, wenn traditionelle Anlagen an Wert zunehmen - und umgekehrt. Diese empirische Regelmäßigkeit lässt sich gemäß der klassischen Portfoliotheorie für die Interessen der Anleger nutzen, weil sich durch die Hereinnahme einer mit den bestehenden Anlagen des Portfolios niedrig korrelierten Anlage das gesamte Portfoliorisiko stärker reduzieren lässt, als dies durch die Herein-

426

Sören Prehn, Thomas Glauben, Ingo Pies, Matthias Will und Jens-Peter Loy

nähme einer hoch positiv korrelierten Anlage möglich gewesen wäre. Je niedriger die Korrelation zwischen der neuen Anlage und den bisherigen Anlagen ist - und insbesondere: je stärker eine negative Korrelation ausgeprägt ist - , desto mehr lässt sich das Portfoliorisiko durch die Hereinnahme der neuen Anlage reduzieren. Sofern der Korrelationskoeffizient entsprechend klein ist, lässt sich das Portfoliorisiko sogar unter das der risikoärmsten Anlage reduzieren (Gorton & Rouwenhorst, 2006; Erb & Harvey, 2006). Dieser Portfolioeffekt ergibt sich dadurch, dass sich die Gesamtvarianz eines Portfolios nicht aus der gewichteten Summe aller Varianzen erklären lässt, sondern vielmehr aus der gewichteten Summe aller Varianzen und den Produkten aus Korrelationskoeffizienten und Standardabweichungen, und zwar gemäß der folgenden Formel: VAR(X + Y) = VAR(X) + VAR(Y) + 2* COV(X + Y). Graphisch lässt sich dieser Sachverhalt mit Abbildung 2 veranschaulichen. Abbildung 2 stellt eine traditionelle Anlage (T) einem Indexfonds (I) in einem Rendite/Risikodiagramm gegenüber. Wie der Abbildung zu entnehmen ist, erzielt die traditionelle Anlage T im Durchschnitt eine höhere Rendite als der Indexfonds I. Allerdings ist mit dieser höheren Rendite auch ein höheres Risiko verbunden. Fasst man nun die beiden Anlagen in einem Portfolio zusammen, so können dadurch vorteilhafte Effekte entstehen. Zum einen lässt sich eine Portfoliorendite erzielen, die über der des Indexfonds liegt. Zum anderen aber, und dieser Effekt ist noch interessanter, lässt sich ein Portfoliorisiko erzielen, das unter dem Risiko der traditionellen Anlage liegt. Die klassische Portfoliotheorie vermittelt die kontra-intuitive Einsicht, dass das Portfoliorisiko nicht unbedingt zwischen den Risikowerten von traditioneller Anlage und Indexfonds liegen muss, sondern - in Abhängigkeit vom Korrelationskoeffizienten p Risikowerte annehmen kann, die sogar unterhalb denen des Indexfonds liegen. Abbildung 2:

"

Risikodiversifizierung 11

Quelle: Eigene Darstellung.

Betreiben Indexfonds Agrarspekulation?

427

Das zweite Argument ist jüngeren Datums und rekurriert auf die Überlegung, dass Indexfonds ähnlich hohe Renditen versprechen wie traditionelle Anlagen (Gorton & Rouwenhorst, 2006; Erb & Harvey, 2006). Um dies zu erläutern, betrachten wir nun nicht den Effekt, den Anleger durch die Optimierung ihres Portfoliorisikos erzielen können, sondern einen über diesen ersten Beweggrund hinausgehenden Renditeeffekt als zweiten Beweggrund. Hierfür gibt es wiederum zwei Quellen. Der Renditeeffekt entsteht zum einen dadurch, dass Indexfonds an den Warenterminmärkten, an denen sie sich engagieren, eine Risikoprämie realisieren, und zum anderen dadurch, dass Indexfonds aufgrund ihrer vertraglichen Selbstbindung ihre Fondsanteile periodisch an den Indexverlauf anpassen müssen. Durch diesen ständigen Anpassungsprozess ergibt sich eine weitere Rendite, die in der Literatur als „Diversifizierungsrendite" beschrieben wird. 12 Die erste Quelle, aus der sich die Fondsrendite speist, ist die Risikoprämie. Die theoretischen Grundlagen hierfür gehen auf die Überlegungen zur „Normal Backwardation" zurück (Keynes, 1930). Demnach lässt sich eine Risikoprämie dadurch realisieren, dass ein Indexfonds einen Warenterminkontrakt erwirbt, d.h. eine Kaufposition („long position") einnimmt. Hierdurch ermöglicht der Indexfonds, dass ein Produzent spiegelbildlich die Verkaufsposition („short position") einnehmen kann. So kommt es zum Austausch von Risiken: Der Produzent sichert sich gegen die Gefahr eines sinkenden Preises. Er ist Versicherungsnehmer und gibt sein Risiko an den Indexfonds ab, der sich als Versicherungsgeber für die Übernahme dieses Risikos eine entsprechende Risikoprämie ausbezahlen lässt, ganz analog zum Vorgehen auf einem normalen Versicherungsmarkt. Die Theorie der „Normal Backwardation" unterstellt steigende Kontraktpreise über den Kontraktzeitraum und gleichzeitig fallende Kassapreise. Die Wertsteigerung des Warenterminkontraktes entspricht dann der Risikoprämie (Gorton & Rouwenhorst, 2006). Abbildung 3 illustriert diesen Sachverhalt graphisch.

12

Dieser Begriff ist etwas unglücklich, weil er zu Verwechslungen mit dem Portfolioeffekt einlädt. Allerdings ist er in der internationalen Literatur fest etabliert. Deshalb wird er im Folgenden verwendet.

428 •

Sören Prehn, Thomas Glauben, Ingo Pies, Matthias Will und Jens-Peter Loy

Abbildung 3:

Theorie der Normal Backwardation13

Der Theorie zufolge sieht die idealtypische Situation auf dem Warenterminmarkt wie folgt aus: Zum Kontraktbeginn t liegt der Kontraktpreis Ft unterhalb des Kassapreises Kt.'4 Dies impliziert eine positive Wahrscheinlichkeit für steigende Kontraktpreise. Arbitrage fuhrt nun dazu, dass sich über den Kontraktzeitraum betrachtet Kontraktpreis und Kassapreis allmählich angleichen. Versicherungsanbietern, die zur Risikoübernahme bereit sind, ist damit ein Anreiz gegeben, sich am Warenterminmarkt zu engagieren und eine Kaufposition einzunehmen. Genau dies eröffnet den Produzenten die Möglichkeit, sich als Versicherungsnehmer am Warenterminmarkt abzusichern. Die Differenz zwischen Ft und FT (FT: Kontraktpreis zum Kontraktende T) entspricht der Risikoprämie, die ein Versicherungsgeber am Warenterminmarkt realisieren kann. Wie auf einem normalen Versicherungsmarkt, wird auch auf dem Warenterminmarkt die Risikoprämie letztlich im Wettbewerb festgelegt und nähert sich durch freien Wettbewerb bei niedrigen Transaktionskosten dem gängigen Marktzins von oben an. Die zweite Quelle, aus der sich die Fondsrendite speist, ist die Diversifizierungsrendite.15 Sie kommt wie folgt zustande: Damit der Indexfond den Markttrend abbildet, sieht die zugrunde liegende Handelsstrategie vor, die jeweiligen Fondsanteile periodisch immer wieder neu anzupassen. Hierbei kommt es systematisch zu Umschichtungen, und 13 14

15

Quelle: Eigene Darstellung in Anlehnung an Gorton & Rouwenhorst (2006). Der Kassapreiss Kt ist der im Zeitpunkt t erwartete Kassapreis für den in der Zukunft liegenden Zeitpunkt T. Vgl. Booth& Fama (1992).

Betreiben Indexfonds Agrarspekulation?

429

zwar nach folgendem Muster: Anlagen, die relativ zum Fondsbestand an Wert gewonnen haben, werden verkauft; spiegelbildlich werden solche Anlagen zugekauft, die relativ zum Fondsbestand an Wert verloren haben. Die hierdurch erzielbare Diversifizierungsrendite hängt zum einen von der Varianz der einzelnen Anlagen ab und zum anderen von den Korrelationskoeffizienten zwischen den jeweiligen Anlagen: Je höher die Varianzen sind und je negativer die Anlagen miteinander korreliert sind, desto höher ist die jeweilige Diversifizierungsrendite (Willenbrock, 2011; Qian, 2012). Dieser Sachverhalt ist in Abbildung 4 graphisch illustriert. Für das Verständnis des Geschäftsmodells von Indexfonds ist die Diversifizierungsrendite von ebenso entscheidender Bedeutung wie der Portfolioeffekt. Der Portfolioeffekt stellt darauf ab, dass das kombinierte Risiko geringer sein kann als eine bloße Addition der Einzelrisiken; und analog stellt die Diversifizierungsrendite darauf ab, dass die kombinierte Rendite größer sein kann als eine bloße Addition der Einzelrenditen. So überraschend es zunächst auch anmuten mag: Rein mathematisch lässt sich nachweisen, dass eine Bündelung von Anlagen mit strikt negativen Renditen bei ausreichender Volatilität und negativer Korrelation bei periodischer Anpassung noch immer zu einer positiven Indexfondsrendite fuhren kann. In der Literatur wird in diesem Zusammenhang vom sogenannten „Parrondo-Paradoxon" gesprochen (Harmer & Abbott, 1999, Stutzer, 2010). Somit lässt sich festhalten, dass Portfolioeffekt, Risikoprämie und Diversifizierungsrendite die Frage beantworten, warum es betriebswirtschaftlich und volkswirtschaftlich vorteilhaft sein kann, Indexfonds zu bilden. ((2)) Zur zweiten Frage: Wenn das Ziel eines Indexfonds darin besteht, das soeben beschriebene Vorteilspotential auszuschöpfen, muss nun noch geklärt werden, welche systemischen Auswirkungen das zugrunde liegende Geschäftsmodell hat. Indexfonds setzen zur Zielverfolgung das sie charakterisierende Mittel ein, einen Index abzubilden. Sie konditionieren sich durch ihr Geschäftsmodell auf die Handelsstrategie, Anlagen, die relativ an Wert gewonnen haben, zu verkaufen und Anlagen, die relativ an Wert verloren haben, zu kaufen. Damit sind Indexfonds darauf programmiert, eine Strategie des „mean reverting" zu verfolgen. Ihre Kauf- und Verkauf-Entscheidungen sind transparent und konsequent auf das Kriterium ausgerichtet, mit ihrem Portfolio immer zum langfristigen Durchschnitt (also zum Index) zurückzukehren (Qian, 2012). Anders könnten sie nicht die Renditeeffekte generieren, die durch eine Verknüpfung von Risikodiversifizierung (Portfolioeffekt) und Diversifizierungsrendite (indexspezifischer Umschichtungseffekt) entstehen.

430 •

Sören Prehn, Thomas Glauben, Ingo Pies, Matthias Will und Jens-Peter Loy

Abbildung 4:

Diversifizierungsrendite16

Gewichte Anlagen

Aufgrund der sie charakterisierenden „mean-reverting"-Strategie verhalten sich Indexfonds im Markt signifikant anders als andere Akteure. Hier ist insbesondere darauf hinzuweisen, dass Indexfonds weder „trend following" noch „trend setting" betreiben. Während solche Strategien einen sozial unerwünschten, trendverstärkenden Effekt haben können, ist dies bei der von Indexfonds verfolgten Strategie nicht der Fall, ganz im Gegenteil: Indexfonds verhalten sich aufgrund ihres Geschäftsmodells nicht prozyklisch, sondern antizyklisch. Gerade in Krisenzeiten beeinträchtigen sie die Funktionsweise der Warenterminmärkte nicht, sondern fördern sie: Bei fallenden Preisen sind für gewöhnlich nur wenige Marktteilnehmer bereit, das Preisrisiko von Produzenten abzusichern. Indexfonds hingegen erhöhen gerade in dieser Marktsituation ihr Engagement an dem jeweiligen Warenterminmarkt und verschaffen auf diese Weise den Produzenten die Möglichkeit, sich am Warenterminmarkt trotz fallender Preise abzusichern. Indexfonds erfüllen auf diese Weise eine wichtige Funktion: Sie stabilisieren die Preisbildung auf Warenterminmärkten. ((3)) Die hier skizzierte Theorie der Indexfonds impliziert eine negative Korrelation zwischen dem Kontraktpreis und den Netto-Verkaufspositionen aller Indexfonds. Wie aber steht es um die Empirie? Hierzu gibt Abbildung 5 Auskunft.

16

Quelle: Eigene Darstellung in Anlehnung an Qian (2012).

431

Betreiben Indexfonds Agrarspekulation?

Abbildung 5:

Entwicklung Kontraktpreise vs. Kontraktanzahl Indexfonds (Jan.06-Jan.13/ 7 Waizm

\r

r

Jarvoa

Jan 13

J»>I0

Jan-13

8CG

4S0 400 «so

700

I ooo 5 5« '