Behavioral Economics und Wirtschaftspolitik 9783110512045, 9783828206076

Band 100 enthält die Ergebnisse des Radein-Seminars 2014

206 22 29MB

German Pages 344 [356] Year 2014

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Inhalt
Teil I: Grundlagen und methodologische Aspekte
The Behavioral Challenge to Normative Economics
Soziale Präferenzen und begrenzte Rationalität in der experimentellen Verhaltensökonomik
Behaviorism, Optimization and Policy Advice
Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen
,Mentale Modelle‘ und ,Satisficing‘ als Alternativen zum Homo Oeconomicus
Teil II: Verhaltensökonomische Implikationen in ausgewählten Feldern der Wirtschaftspolitik
Finanzmärkte: Behavioral Finance als richtungsweisender Ansatz zur Erklärung aktueller Entwicklungen
Geldpolitik und Behavioral Finance
Wettbewerbspolitik: Implikationen der Verhaltensökonomik
Verkehrspolitik: Der Beitrag der Verhaltensökonomik
Verbraucherschutz: Verhaltensökonomische Rechtfertigung und verbraucherpolitische Maßnahmen
Arbeitsmarkt und Arbeitslosigkeit: Zu den empirischen Determinanten des Suizidverhaltens in den OECD-Ländern
Medien, Märkte und Marotten: Wie rational sind Mediennutzer?
Sportpolitik und Verhaltensökonomik: Sollten Fußballverbände den Ligawettbewerb regulieren?
Korruption und Korruptionsbekämpfung aus Sicht der Verhaltensökonomik
Teil III: Die Sicht der Praxis
(Ir-)Rationalität in der Wirtschaftspolitik
Teil IV: Epilog
Radein und Rationalität: Der Einfluss des Alkoholkonsums auf die Suizidraten
Die Autorinnen und Autoren
Recommend Papers

Behavioral Economics und Wirtschaftspolitik
 9783110512045, 9783828206076

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Christian Müller und Nils Otter (Hg.)

Behavioral Economics und Wirtschaftspolitik

Schriften zu Ordnungsfragen der Wirtschaft

Herausgegeben von Prof. Dr. Prof. Dr. Prof. Dr. Prof. Dr. Prof. Dr. Prof. Dr.

Thomas Apolte, Münster Martin Leschke, Bayreuth Albrecht F. Michler, Düsseldorf Christian Müller, Münster Rahel Schomaker, Köln Dirk Wentzel, Pforzheim

Redaktion:

Dr. Hannelore Hamel

Band 100:

Behavioral Economics und Wirtschaftspolitik

Lucius & Lucius • Stuttgart • 2015

Behavioral Economics und Wirtschaftspolitik

Herausgegeben von

Christian Müller und Nils Otter

Mit Beiträgen von Max Albert, Hanno Beck, Tim Böker, Oliver Budzinski, Thomas Döring, Alexander Eisenkopf, Mathias Erlei, Björn Frank, Werner Güth, Justus Haucap, Hartmut Kliemt, Andreas Rnorr, Martin Leschke, Albrecht F. Michler, Tim Pawlowski, Franziska Rischkowsky, Horst Rottmann, Frank Seitz, Christa Thoben, Carl Christian von Weizsäcker und Dirk Wentzel.

®

Lucius & Lucius • Stuttgart -2015

Anschriften der Herausgeber: Prof. Dr. Christian Müller Westfäl. Wilhelms-Universität Münster Centrum für Interdisziplinäre Wirtschaftsforschung (CIW) Scharnhorsts». 100 D-48151 Münster [email protected]

Prof. Dr. Nils Otter Fachhochschule Kärnten Professur für Volkswirtschaftslehre Villacher Straße 1 A-9800 Spittal a.d. Drau [email protected]

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. (Schriften zu Ordnungsfragen der Wirtschaft, Bd. 100) ISBN 978-3-8282-0607-6

© Lucius & Lucius Verlags-GmbH • Stuttgart «2015 Gerokstraße 51 • D-70184 Stuttgart Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmung und die Einspeicherung und Verarbeitung in elektronischen Systemen. Umschlaggestaltung: www.devauxgrafik.de Druck und Einband: ROSCH-BUCH Druckerei GmbH, [email protected] Printed in Germany

ISBN 978-3-8282-0607-6 ISSN 1432-9220

Vorwort Betrachtet man die jüngere theoretische Entwicklung in den Wirtschaftswissenschaften, so kann sicherlich die Evolution und Etablierung der sog. „Behavioral Economics", deren Beginn häufig mit dem Aufsatz „Prospect Theory: An Analysis of Decision under Risk" von Kahneman und Tversky (1979) assoziiert wird, als ein neues Paradigma der ökonomischen Forschung bezeichnet werden. Als ein besonderes Kennzeichen dieser Forschungsrichtung kann die Verwendung kognitiver psychologischer Erkenntnisse dienen, um sog. „Anomalien" im Entscheidungsprozess der ökonomischen Akteure zu erklären. Allgemein ausgedrückt wird menschliches Verhalten in ökonomisch relevanten Situationen untersucht, wobei die erzielten Ergebnisse sich häufig im Widerspruch zum Entscheidungsverhalten eines rational agierenden und seinen Eigennutz maximierenden Wirtschaftssubjektes befinden. Im Sinne eines deduktiv-orientierten Forschungsprogramms verstanden, dient die experimentelle und verhaltenswissenschaftliche Forschung in der Ökonomie insbesondere dazu, einen kritischen Dialog mit der bestehenden Theorie herzustellen. Man könnte diese Forschungsergebnisse daher auch als die „verhaltensökonomische Herausforderung" des neoklassischen Forschungsprogramms bezeichnen. In der Literatur sind bislang jedoch nur die Ergebnisse menschlichen Wahrnehmungs-, Handlungs- oder Problemlösungsverhaltens in unterschiedlichen singulären Handlungskontexten dargestellt worden, ohne dabei explizit auf die besondere Problematik einer wirtschaftspolitischen Anwendung einzugehen. Abgesehen von einigen Ausnahmen, wie sie beispielsweise im sog. „Opting-out"-Design bei der betrieblichen Altersvorsorge zum Ausdruck kommen, sind die konkreten Anwendungsmöglichkeiten der Verhaltensökonomie in zahlreichen wirtschaftspolitischen Themenfeldem bislang noch nicht ausreichend untersucht worden. Diese Erkenntnisse könnten für eine zeitgemäße und moderne Form staatlicher Ordnungstheorie und -politik aber von bedeutsamem Interesse sein: Welche Konsequenzen sind bei der Ausgestaltung und Anwendung des wirtschafts- und finanzpolitischen Instrumentariums zu berücksichtigen, wenn verstärkt auf die verhaltenswissenschaftlichen Forschungsergebnisse rekurriert wird? Lässt sich anhand eines Vergleichs von „alten" und „neuen" Grundannahmen menschlichen Verhaltens auch aufzeigen, dass sich die Rahmenbedingungen der Wirtschaftspolitik verändert haben? Oder, kurz gefasst, führt die „verhaltensökonomische Herausforderung" dazu, eine grundlegende „Reform der Wirtschaftspolitik" zu bewirken? Der vorliegende Band, der die Beiträge des 47. Forschungsseminars Radein zum Vergleich von Wirtschafts- und Gesellschaftssystemen enthält, das vom 16.-23. Februar 2014 stattfand, geht genau diesen Fragen nach: Welche Konsequenzen resultieren aus diesen Forschungen für die wirtschaftswissenschaftliche Theoriebildung und welche Implikationen können für die praktische Wirtschaftspolitik gezogen werden? Mit welchen Wegen und Methoden kann die ökonomische Verhaltensforschung dazu beitragen, die Wirksamkeit wirtschaftspolitischer Maßnahmen zu erhöhen? Im Mittelpunkt des ersten Teils, welcher sich den theoretischen Grundlagen und methodologischen Aspekten widmet, werden Fragen des menschlichen Entscheidungsverhaltens in zahlreichen Labor- und Feldexperimenten analysiert. Im Wesentlichen stehen bei diesen Untersuchungen die kognitiven Fähigkeiten und unterschiedlichen Motive des Handelns von ökonomischen Akteuren im Mittelpunkt, wobei vor allem zwei zentrale Standardannahmen der ökonomischen Theorie kritisch diskutiert werden: das Rationalverhalten sowie die Eigennutzorientierung der Akteure.

VI

Vorwort

Die Beiträge des zweiten Teils analysieren sodann den spezifischen Beitrag, der aus der Verhaltensökonomie für ausgewählte Politikfelder gezogen werden kann. Konkret werden die nachfolgenden wirtschaftspolitischen Themenfelder auf den jeweiligen Einfluss des verhaltensökonomischen Ansatzes hin untersucht: der Finanzmarkt, Geld- und Fiskalpolitik, Verkehrs-, Wettbewerbs-, Medien- sowie Arbeitsmarktpolitik. Weiterhin werden die Sportpolitik, die Korruptionsforschung sowie der Verbraucherschutz behandelt. Der dritte Teil des Buches enthält die Keynote Address des Radein-Seminars 2014. Die frühere Wirtschaftsministerin von Nordrhein-Westfalen, Frau Staatsministerin a.D. Christa Thoben, stellt darin ihre ganz persönlichen Erfahrungen aus ihrer Regierungszeit von 2005 bis 2010 dar, mit wieviel Rationalität die Wirtschaftspolitik in der Praxis tatsächlich rechnen kann. Den Epilog des Bandes bildet im vierten Teil die - nicht ganz ernstgemeinte - Untersuchung, dass auch den Teilnehmerinnen und Teilnehmern des Radein-Seminars, bezogen auf ihren allabendlichen alkoholgetränkten Tagungsausklang, mitunter ein wenig mehr Rationalität nicht schaden könnte. Die Herausgeber möchten sich an dieser Stelle bei allen Teilnehmer/innen und Autor/innen des diesjährigen Forschungsseminars Radein recht herzlich bedanken. In diesem Sinne kann der gemeinsame Erfolg des Seminars auch in dem nun vorliegenden Band 100 der Schriften zu Ordnungsfragen der Wirtschaft gemessen werden. Ausdrücklich bedanken möchten wir uns auch bei der Fritz-Thyssen-Stiftung, ohne deren beträchtliche finanzielle Förderung die Durchführung des Seminars nicht möglich gewesen wäre. Femer danken wir der Marburger Gesellschaft für Ordnungsfragen der Wirtschaft e.V., der Universität Münster sowie der Fachhochschule Kärnten für eine Unterstützung bei der Drucklegung. Dass das Seminar in organisatorischer Hinsicht reibungslos stattfinden konnte, verdanken wir Herrn Dipl.-Volkswirt Florian Schleithoff. Dem Team der Hilfskräfte des Instituts für Ökonomische Bildung der Universität Münster - bestehend aus Nathalie Amegaschie, Nathalie Schittenhelm, Julia Sega und Simon Winter - sind wir für unermüdliche Formatierungs-, Korrektur- und Recherchearbeiten dankbar. Zu guter Letzt danken die Herausgeber unserer Lektorin, Frau Dr. Hannelore Hamel, die dem Buch in bewährter Perfektion durch ihre präzisen Korrekturarbeiten den letzten Schliff gab.

Münster und Villach, im Dezember 2014

Christian Müller und Nils Otter

Inhalt Teil I: Grundlagen und methodologische Aspekte Max Albert The Behavioral Challenge to Normative Economics

3

Mathias Erlei Soziale Präferenzen und begrenzte Rationalität in der experimentellen Verhaltensökonomik

29

Werner Giith und Hartmut Kliemt Behaviorism, Optimization and Policy Advice

53

Carl Christian von Weizsäcker Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen.

67

Martin Leschke .Mentale Modelle' und .Satisficing' als Alternativen zum Homo Oeconomicus .... 99

Teil II: Verhaltensökonomische Implikationen in ausgewählten Feldern der Wirtschaftspolitik Tim Böker und Albrecht F. Michler Finanzmärkte: Behavioral Finance als richtungsweisender Ansatz zur Erklärung aktueller Entwicklungen

123

Franz Seitz Geldpolitik und Behavioral Finance

157

Justus Haucap Wettbewerbspolitik: Implikationen der Verhaltensökonomik

175

Alexander Eisenkopf und Andreas Knorr Verkehrspolitik: Der Beitrag der Verhaltensökonomik

195

Thomas Döring und Franziska Rischkowsky Verbraucherschutz: Verhaltensökonomische Rechtfertigung und verbraucherpolitische Maßnahmen

217

Horst Rottmann Arbeitsmarkt und Arbeitslosigkeit: Zu den empirischen Determinanten des Suizidverhaltens in den OECD-Ländern

243

VIII

Hanno Beck und Dirk Wentzel Medien, Märkte und Marotten: Wie rational sind Mediennutzer?

255

Oliver Budzinski und Tim Pawlowski Sportpolitik und Verhaltensökonomik: Sollten Fußballverbände den Ligawettbewerb regulieren?

281

Björn Frank Korruption und Korruptionsbekämpfung: Der Beitrag der Verhaltensökonomik...

309

Teil III: Die Sicht der Praxis

Christa Thoben (Ir-)Rationalität in der Wirtschaftspolitik

327

Teil IV: Epilog Horst

Rottmann

Radein und Rationalität: Der Einfluss des Alkoholkonsums auf die Suizidraten...

339

Die Autorinnen und Autoren

345

Teil I: Grundlagen und methodologische Aspekte

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaftspolitik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

The Behavioral Challenge to Normative Economics

Max Albert

Contents 1.

Introduction

4

2.

Neoclassical and Behavioral Economics

5

3.

The Perspective of Normative Economics

7

3.1. Neoclassical Welfare Economics and Behavioral Economics

7

3.2. Moral Preferences and Material Wellbeing

4.

5.

8

3.3. Quasi-hyperbolic Discounting

10

From Normative to Applied Economics

12

4.1. Facts and Values in Science

12

4.2. How to Be an Applied Economist

15

4.3. The Behavioral Challenge to Applied Economics

19

Conclusion

20

Appendix A: The Case Against Mindless Economics

21

Appendix B: Normative Statements and How to Discuss Them

25

References

27

4

1.

Max Albert

Introduction

Behavioral economics seems to destroy the basis for many ideas and arguments at the core of traditional economic policy advice. Among the ideas under fire is the identification of individual welfare and preference satisfaction: if Adam prefers A over B, he is better off if he gets A instead of B. This idea is based on the neoclassical hypothesis that each person has complete and transitive preferences that are exogenous to the decision problem at hand. Building on the notion of individual welfare are the definitions of Pareto improvements, efficiency and social welfare functions. Behavioral economics implies that these concepts are ill-defined or inapplicable. How should economists react to this challenge? In this paper, I consider this question under the assumption that behavioral economists are more or less right in their criticisms of the neoclassical theory of human behavior. The answer, then, depends on what, exactly, is challenged. This is not as clear as it seems. A popular interpretation views the challenge as a challenge to normative economics. 1 According to its proponents (see, e.g., Caplin and Schotter 2008a, Sugden 2011), normative economics is a combination of positive economic theory with value judgments. These value judgments are considered necessary for deriving policy advice. The main tradition in normative economics is supposed to be neoclassical welfare economics (NWE). Proponents of normative economics argue that the behavioral challenge to N W E forces economists to turn to philosophy or, more specifically, to ethics. In order to deal with an update in their positive theory, economists must update the value judgments they use as a basis for policy advice. Or so it seems. Against this position, I argue that normative economics does not exist, or if it does, that it is certainly not part of the neoclassical mainstream. Neoclassical welfare economics (NWE), at least, is a positive theory. The view that N W E is normative derives from a mistaken view about the interaction of facts and values in science. 2

1

2

Hands (2012) rightly points out that 'normative' need not mean 'ethically normative'. However, this is the relevant meaning of 'normative' in the present context, although occasionally a broader meaning is also taken into consideration (mainly in appendix B). The distinction between positive science, normative science and art (or technology) is quite old; according to Hands (2012), a standard reference is Keynes (1890/1973). Keynes considers normative science as part of (applied) ethics (which coincides with the view taken in the present paper), although he does not discuss the question of which kind of statements belong to normative economics - a field that, in his view, is concerned with "the investigation of economic ideals and the determination of a standard by reference to which the social worth of economic activities and values may be judged" (Keynes 1890/1973, p. 32). Technologies, in his view, are collections of 'precepts', that is, absolute or, at least in the case of economics, hypothetical imperatives (see, e.g., Keynes 1890/1973, p. 79). This view of technologies is criticized below. The customary expression 'facts and values' is used here although the idea, which might be read into the expression, that 'values' are something more than valuations by individuals is rejected.

The Behavioral Challenge to Normative

Economics

5

Obviously, NWE is in trouble if behavioral economists are right. But if one misinterprets NWE as a normative theory, one's answer to the behavioral challenge is bound to be mistaken. In fact, economists can solve the problems for policy advice posed by behavioral economics without any recourse to philosophy or ethics. Their traditional professional code of conduct is quite up to the task. Specifically, the behavioral challenge requires no re-definition of individual welfare or efficiency in the light of a new behavioral theory of human behavior. No philosophically grounded social welfare functions need to be found. Instead, economists in the role of advisors should ask their clients what they want. This is the perspective of applied, in contrast to normative, economics. Applied economics also faces a behavioral challenge, but the answers to this challenge are very different. The paper proceeds as follows. Section 2 contrasts neoclassical and behavioral economics. Section 3 assesses the behavioral challenge under the assumption that behavioral economics is more or less right in its criticism of neoclassical economics. First, the challenge is considered from the perspective of normative economics. From this perspective, it indeed seems as if an input from ethics were needed in order to answer the challenge. In section 4, the normative perspective is criticized and confronted with an alternative: the perspective of applied economics. It is argued that the puzzles seemingly posed by behavioral economics vanish through this change of perspective, and that the behavioral challenge to applied economics is, in principle, not difficult to deal with. Section 5 concludes. Two appendices provide supporting material. Appendix A discusses the paper of Gul and Pesendorfer (2008), who argue that, in fact, there exists no behavioral challenge to NWE. Appendix B explains the character and the rational discussion of normative statements.

2.

Neoclassical and Behavioral Economics

The basic view of human behavior in most of economics, whether neoclassical or behavioral, is that an individual's choices are jointly caused by the individual's beliefs and the individual's preferences, and that a large part of the causally relevant beliefs represent aspects of the decision situation. Neoclassical and behavioral economics differ widely on the details, of course. According to the most narrow version neoclassical economics, the homo oeconomicus (HO) model (see fig. 1), beliefs about the decision situation and the consequences of the individual's choices (possibly in the sense of a probability distribution) are correct. Preferences are assumed to be stable over time, independent of the decision situation, complete and transitive, and egoistic and materialistic (that is, concerned only with the individual's own consumption of material goods and services). There is no sense in which an individual's choices can be mistaken. However, an advisor who knows the individual's preferences may still be able to point out better choices, but only if the advisor has more information about relevant aspects of the decision situation.

6

Figure 1:

Max Albert

The explanation of choices according to the homo oeconomicus (HO) model

According to behavioral economics, preferences are not necessarily egoistic and materialistic. Individuals are assumed to have social preferences, some clearly based on emotions like love, hate, envy, anger, others less immediately tied to emotions like a preference for recognition and status. Moreover, their preferences include moral convictions about values like fairness, justice, and equality. Behavioral economists not only have different ideas about the content of preferences but also reject neoclassical assumptions about the structure of preferences. Preferences may be intransitive (e.g., hyperbolic discounting, preference reversals) or even incomplete. People may even have no stable preference orderings that are exogenous to decisions problems. In these cases, preferences - if they exist at all - are constructed in the course of decision making and influenced by the presentation of the decision problem and unrelated variables (e.g., framing effects, anchoring heuristics). Table 1:

Differences between neoclassical and behavioral economics Neoclassical Economics

Behavioral Economcis

Content of preferences

egoistic and materialistic preferences

in addition, other-regarding preferences

Structure of preferences

complete and transitive

incomplete and intransitive

Stability of preferences

stable and exogenous to decision situation

instable, constructed 'on the fly', influenced by decision situation

Information processing

correct appraisal of decision situation, use of Bayes' theorem, optimal choices

violations of Bayes' theorem, decision heuristics, suboptimal choices

Information processing is generally viewed to be subject to biases resulting from the use of decision heuristics that lead to systematic deviations from neoclassical assumptions, for instance, to violations of Bayes' theorem. In view of these assumptions, it is

The Behavioral Challenge to Normative

Economics

1

no surprise that behavioral economists claim that people often make mistakes, that is, they choose options that are worse for them, in some sense, than other options even in situations where they do not lack relevant information. The difference between neoclassical and behavioral economics can then be summarized as in table 1. Subsequently, I assume that the positive claims of behavioral economists about human decision making are more or less correct. On the basis of this assumption, I first describe the behavioral challenge to normative economics as it is often seen, and then present a different view.

3.

The Perspective of Normative Economics

3.1. Neoclassical Welfare Economics and Behavioral Economics Wikipedia (15.06.2012) defines normative economics as "that part of economics that expresses value judgments about economic fairness or what the economy ought to be like or what the goals of public policy ought to be". According to Caplin and Schotter (2008a, p. xviii), the standard interpretation of normative economics is "the study of how best to make policy decisions for an individual or a group whose motivations are known to the policy maker". A very clear characterization of normative economics is given by Sugden (2011, p. 2): "For the last seventy-five years, the main tradition of normative economics has been that of neoclassical welfare economics. ... It aims to evaluate alternative states of affairs for a society from an impartial point of view. It tries to answer the question: 'What is good for society, all things considered?' It takes the position that the good of society is made up of the good or welfare of each of the individuals who comprise that society. Thus, welfare economics has to assess what is good for each person, all things considered, and then aggregate those assessments. How assessments of individual welfare should be aggregated has been one of the core theoretical problems of welfare economics, for which there is still no universally accepted solution ... For many years, however, there was general agreement on the criterion for assessing what is good for each individual, considered separately. The traditional criterion is preference-satisfaction: if some individual prefers one state of affairs to another, the former is deemed to be better for him than the latter." These statements seem to circumscribe the usual conception of normative economics. It is a field that is concerned with the question of what is good for society, all things considered. The main tradition in this field is neoclassical welfare economics (NWE), which holds that the good (or welfare) of a society is an aggregate of the good (or welfare) of the individual members of the society. Individual welfare is measured by preference satisfaction: if a person prefers A to B, then the person's welfare increases if the person can exchange B for A. While there is no agreement within NWE about how to solve the aggregation problem, we might add that a Pareto improvement is usually considered as an aggregate welfare improvement, and efficiency is often considered as one requirement for a socially optimal solution.

8

Max Albert

NWE has been challenged by the development of behavioral economics. The extension of the content of preferences can be viewed as an extension of neoclassical economics and has already been considered, in a very general way, by Arrow (1963). This extension leads to problems for welfare economics: preferences in behavioral economics turn out to be defined over complex social states or even processes, not only over individual consumption bundles. This means that externalities abound. While the principles of welfare economics remain untouched, it may be doubted that they can be applied in practice. Deviations from the neoclassical assumptions about the structure of preferences (i.e., completeness and transitivity) are even more damaging. The usual definitions of Pareto improvements or of efficiency become irrelevant because what people prefer is not uniquely defined. If behavioral economists are right, NWE must be replaced by something else (see, e.g., von Weizsäcker 2005 and Bernheim and Rangel 2008 for proposals). Moreover, behavioral economics casts doubt on the idea that individual welfare can be measured by preference satisfaction (Sugden 2011, p. 2-3). NWE is often based on the revealed-preference approach: if a person can choose between A and B and chooses A, this shows that the person prefers A to B (or, at least, that the person does not prefer B to A). Thus, individual choice behavior is considered as a reliable guide to individual welfare. Behavioral economics, as already explained, challenges this view, claiming that people often make mistakes (Loewenstein and Haisley 2008). This idea is used to justify paternalistic policies, while NWE is assumed to be non-paternalistic (Sugden 2008, p. 227). Even if one could retain the assumption that individual welfare can be represented by preference satisfaction, Pareto improvements and efficient allocations look decidedly less attractive if they are based also on spite and envy. We consider two simple examples illustrating the problems created by behavioral economics for NWE.

3.2. Moral Preferences and Material Wellbeing Consider a simple problem of allocating goods between two persons, Adam (A) and Eve (E). We go beyond the narrow homo oeconomicus (HO) model by assuming that both have moral preferences in addition to the egoistic and materialistic preferences covered by the HO model. In order to simplify the problem, we assume that these two kinds of preferences are separable: utility functions have two arguments called 'material wellbeing' (uj,j = A, E) and 'moral satisfaction'. 3

3

Cf. also Arrow (1963, p. 18), who distinguishes "tastes" referring to an individual's "direct consumption" and "values" that may involve the individual's "standards of equity". Arrow considers mainly preferences that are defined on a space of social states (like allocations of goods and factors of production). The separable case considered here is a special case. Other cases are also discussed by Arrow. For instance, Adam might make his valuation of Eve's consumption dependent on her tastes, preferring that she gets whatever she wants (an exam-

9

The Behavioral Challenge to Normative Economics

Figure 2:

Material satisfaction and overall satisfaction with spiteful preferenees.

A P is efficient with respect to overall preferences (with indifference curves represented by broken lines). Q is efficient with respect to material preferences. Moral satisfaction is assumed to take on a very simple form: each person considers the other person's lifestyle as immoral and, therefore, views the other person's material wellbeing as a 'bad'. Overall preferences, then, are represented by utility functions WA(UA,UE) and W E ( M A , " E ) , where the marginal utility of a person's own material wellbeing is positive and the marginal utility of the other person's material wellbeing is negative. Thus, preferences are 'spiteful' in the terminology of experimental economics. 4 As we know from, for instance, religious conflicts, this kind of 'spite' can have, and often has, moral foundations (whether we like such moral preferences or not). We assume that material wellbeing depends in the usual way on the distribution of scarce resources between Adam and Eve, leading to a material-wellbeing frontier, while a different frontier results for overall utility (see figure 2). Depending on whether efficiency is defined on the basis of 'spiteful' overall preferences or only on the basis of material wellbeing, the relevant efficiency locus is different.

4

pie of interdependent valuations also leading to separability), or he could prefer that she gets whatever she actually chooses (an example of procedural preferences). Cf., e.g., Saijo and Hideki (1995) for an early use of 'spite' or, in biology, Hamilton (1970), both with reference to behavior.

10

Max Albert

In figure 2, the relative position of the loci implies a conflict between the two possible measures of efficiency. From a theoretical perspective, overall preferences should count for efficiency considerations, implying that an allocation leading to point P in figure 2 is efficient while an allocation leading to point Q is inefficient. If a preference for efficiency is adopted as a kind of minimal value judgment, and if efficiency is defined on the basis of overall preferences, the allocation should be chosen such that it is on the efficiency locus running through P. This could mean that Adam and Eve may both loose material wellbeing because of their spitefulness—a not very attractive option. One might, of course, argue that, in the example of figure 2 at least, there are points where both definitions of efficiency coincide: all points on the material-wellbeing frontier except the segment between the intersection points of the two frontiers. This would lead to an - again, quite unattractive - constraint for redistribution. Let us assume that the current allocation leads to P. The requirement that both kinds of efficiency are satisfied would imply that only more extreme distributions of material wellbeing are morally acceptable. A redistribution leading to Q, for instance, would be ruled out. In this situation, it seems more attractive to say that spite should not be taken into consideration. Economists, one might argue, should recommend allocations that lead to an efficient distribution of material wellbeing. This seems to be in the spirit of typical practical recommendations by economists, who usually consider only material wellbeing and would ignore the question of whether Adam may begrudge Eve some material improvements that are costless, in material terms, to himself. But would it be morally acceptable to ignore an important aspect of individuals' preferences? After all, as already explained, the 'spiteful' preferences may be based on moral convictions, possibly with a religious basis. This is a difficult question. It is unclear how welfare should be measured in such a situation, and it seems that economists must turn to ethics in order to solve this problem. 3.3. Quasi-hyperbolic Discounting Let us consider an example (adapted from Gul and Pesendorfer 2008, pp. 30-32) involving just one person, Adam, faced with an intertemporal decision problem. There are three periods. In periods 1 and 2, Adam decides between L and R. There are, then, four paths Adam might take: LL, LR, RL and RR, where the first (second) letter stands for the decision in period 1 (2). There is no uncertainty. First-period payoffs are a 6 {aL,aR}. Second-period payoffs are b G { ¿ l l ^ l r ^ r l ^ r r } . Third-period payoffs are c 6 {CLL,CLR,CRL,CRR}. Indices relate payoffs to decisions. The decision tree with numerical values for the period payoffs is given in figure 3. The intertemporal utility function is linear in period payoffs with discount factor 6 = 0.9 and present bias /?= 0.5: (1)

u\{a,b,c) = a+pdb+ fid2c u2(a,b,c) = b+fjdc ui(a,b,c) = b + [16c m(a, b,c) = c

The Behavioral Challenge to Normative Economics

Figure 3:

11

Intertemporal decision problem with three periods, decision nodes for two periods and resulting payoffs for three periods

1

Given the period payoffs of figure 3, we can compute the intertemporal utilities in each period, depending on the path through the decision tree (see table 2). Table 2:

Intertemporal utilities (rounded, «, biased and v, unbiased) and corresponding preferences for figure 2's decision problem. LL

LR

RL

RR

preferences

Ui

41

37

40

39

LL>RL>RR>LR

U2

32

34

24

22

LR>LL>RL>RR

m

22

0

0

0

LL>LR~RL~RR

VI

60

53

51

49

LL>LR>RL>RR

V2

42

34

24

22

LL>LR>RL>RR

From the perspective of period i = 1,2,3, Adam's path preferences are represented by Uj. We get LL > RL > RR > LR from the perspective of period 1, LR > LL > RL > RR from the perspective of period 2, and LL > RL ~ RR ~ LR from the perspective of period 3. Adam's decision making might be naive or sophisticated. A naive Adam will maximize his intertemporal utility in each period, which means that he ends up with LR. This decision is caused by his present bias, which leads him to abandon the originally preferred path LL in period 2 in favor of the high immediate payoff, despite the ensuing low payoff in period 3. A sophisticated Adam plays, in period 1, a strategic game against his own period-2 self. He anticipates that he will not stick to LL in period 2. He can improve the results from the perspective of period 1 by choosing R in period 1, which will lead him, in period 2, to choose L. Thus, sophisticated choice results in RL instead of LR.

12

Max Albert

How should we, in this case, measure welfare from a neoclassical perspective? If we take the perspective of Adam in period 1, the decision problem leads to a suboptimal outcome, even in the case of sophisticated choice. From the perspective of period 2, an optimal outcome results only in case of naive choice. Which of the two Adams should be heard when we decide about policy questions that could affect A d a m ' s choices? For instance, a sophisticated period-1 Adam might be in favor of a regulation that prevents the choice of LR, allowing him to enforce LL. Period-2 Adam, however, might resent such a regulation as a case of misguided paternalism - after all, deviating from LL is his decision, and he knows best. Several solutions seem possible. We could consider Adam as three persons inhabiting one body - one person for each period - and apply efficiency considerations to this group. According to this approach, LL and LR would both be efficient while RL, the result of sophisticated choice, would be inefficient. In order to help the three Adams and ensure that they come to an efficient solution, then, one might propose to a regulator that he forbids either LR or RL and RR. Alternatively, one could argue, as it is often done, that Adam's present bias is irrational (cf. Gul and Pesendorfer 2008, p. 31, who, however, reject this idea). By setting /? = 1 in (1), w e get 'unbiased' intertemporal utilities vi and V2 instead of u\ and m («3 is unaffected). The consideration of 'unbiased' utilities supports the decision of naive period-1 Adam and speaks against the decision of a sophisticated period-1 Adam. In order to help Adam to decide rationally, one might propose to a regulator to forbid LR. As an alternative to advising a regulator, one might consider giving advice to Adam. Let us assume that we know Adam to be naive. Should we enlighten him, thereby supporting period-1 Adam against period-2 Adam? Neoclassical welfare economics cannot tell us which of the solutions is morally correct. Again, it seems that economists must turn to ethics in order to solve their problems.

4.

From Normative to Applied Economics

4.1. Facts and Values in Science As we have seen, behavioral economics confronts neoclassical welfare economics with difficult puzzles whose solutions seemingly requires welfare economists to take recourse to ethics. Actually, however, these puzzles result solely from a completely mistaken view of N W E as normative economics, a view that, in turn, is often connected to an equally mistaken view of the relation between facts and values in science. Putting matters straight on this level makes the puzzles disappear. When economists explain choices as the result of the interaction of preferences and beliefs, they already presuppose the distinction between fact and values, and, correspondingly, between positive and normative statements. Beliefs refer to facts, while preferences cover attitudes towards values. In the terminology of economics (and, especially, behavioral economics), then, moral convictions are a special case of preferences

The Behavioral Challenge to Normative Economics

13

(cf. also fn. 3 above): from the love of chocolate to the love of justice, the term 'preferences' covers the full range of likes and dislikes, including moral and other normative convictions. The distinction between facts and values is, for instance, the starting point of Gul and Pesendorfer (2008). Their position on this issue is shared by many economists. There is science on the one hand, and politics on the other. Political proposals cannot be justified by recourse to science. One needs science plus value judgments. There are two roles for economists: the pure scientist, who is concerned with research and gives no political advice, and the economist as advisor, consultant, advocate of a cause or - Gul and Pesendorfer's favorite invective - social therapist, who recommends certain policies on the basis of a combination of science and value judgments. The pure scientist is concerned with positive economics, while the advisor or therapist is concerned with normative economics. This view is often criticized because even pure scientists need value judgments in order to choose topics for research, and further value judgments in order to evaluate the results of research. Or, in other words, scientists make choices, and choices are made on the basis of preferences. Thus, it is argued that facts and values are 'entangled' in such a way that even pure science cannot be value-free in a meaningful sense. 5 The entanglement view is based on the standard view of human behavior (see figure 4). Economists and other scientists choose, even in pure science: they choose topics for research; they choose among different methods; they choose theories for the purposes of explanation and prediction; they choose theories as targets of testing; they choose theories as the starting point of further theoretical development. Obviously, economists' choices must be based on their preferences. When we consider scientists' choices, then, judgments of facts and value judgments seem to be hopelessly 'entangled'. However, the entanglement view is as untenable as the position that policy advice is necessarily based on value judgments. Both positions miss an elementary logical point that, since more than forty years, has been emphasized forcefully by Hans Albert (e.g., 1968/1985, pp. 50-53; 2000, p. 49, p. 214-215). It is not true that advice must take the form of recommendations derived from theories plus value judgments. Typically, scientific advice takes the form of technological statements, that is, positive statements about how to reach certain aims, or about conflicts or other relations between aims. No value judgments or other normative statements are needed as premises in order to derive these statements. The technological part of a science is not normative science; it should be called, more properly, 'applied science'. To call applied economics 'normative economics' would be as silly as calling engineering 'normative physics' (cf. Vanberg 2006, p. 1-2).

5

See, e.g., Dasgupta (2009). Hands (2012) also defends an 'entanglement view', which, however, just emphasizes the complexity of the role of valuations in science, is mostly consistent with the position taken in the present paper, and, specifically, has no negative implications for the possibility of a value-free positive science of economics. Here, the label 'entanglement view' is reserved for the more radical position.

14

Max Albert

Scientific methodologies are technological in the same sense (Hans Albert 1987). They tell us how to do science if we are interested in knowledge and the growth of knowledge. Methodology, so to speak, is applied epistemology. When scientists use established methodological rules for distinguishing between 'good' and 'bad' theories, they are not tainting science with value judgments. If some hypotheses are retained while others are discarded, this reflects not the political, social or moral preferences of the scientists but the established methodological hypotheses about how to find out the truth about matters. Figure 4: Choices in science

Beliefs Choices in science:

research topics, methods, theories Preferences

Of course, scientific competition may fail, and methodologies appropriate for pursuing knowledge might be replaced by inappropriate methodologies or even ideologies. While it can be a useful diagnosis to point out methodological weaknesses and ideological blinders, it would still be false to claim that the theories propagated by ideologists are 'tainted by' or 'entangled with' value judgments. This fallacy is often called the genetic fallacy. Scientific theories and hypotheses remain positive statements, even if they are proposed for ideological reasons. For those interested in knowledge, the important question is whether these theories and hypotheses are true, or which of their implications are true. The answer to this question does not depend on whether somebody else accepts or rejects these theories and hypotheses for reasons that have nothing to do with the pursuit of knowledge. While it can be difficult, then, to disentangle facts and values as causes of scientific decision making, it is easy to disentangle them on the level of scientific output. All normative statements or value judgments do not belong to science. Normative connotations of the words used to express theories or observations are as irrelevant for a methodological evaluation as the political, social or moral convictions of the authors. Methodological evaluations of the output of science should be based on rules that are to be viewed as part of a technology for the pursuit of knowledge. From this point of view, such evaluations can be criticized as inadequate and improved or discarded. Economists who propagate normative economics rarely offer a clear analysis of the interaction of facts and values in economics. They never mention the obvious fact that NWE is value free: it contains no normative statements, neither in its theoretical core

The Behavioral Challenge to Normative Economics

15

nor in its more applied subfields. If it is true that NWE is the main tradition in normative economics, normative economics is hardly normative. The first fundamental theorem of welfare economics, for instance, states that, under certain conditions, any competitive equilibrium is efficient. 'Competitive equilibrium' and 'efficient' are defined in non-normative terms. Whatever the exact wording, the theorem is a positive statement, that is, it is either true or false. 4 Specifically, since 'efficiency' is an explicitly defined technical term, its normative connotations are irrelevant for the interpretation of the theorem. Therefore, a normative reading of the first theorem would rest on a misunderstanding. In particular, the first theorem certainly implies no recommendation to implement efficient allocations, or any other policy recommendations. As we have seen, behavioral economics causes problems for NWE. However, NWE is not normative. As far as NWE is concerned with economic policy, it is an applied science. This makes a difference.

4.2. How to Be an Applied Economist Let us consider another piece of neoclassical welfare economics (NWE). In textbooks of trade theory, it is shown that, under certain conditions, moving from autarky to free trade is a potential Pareto improvement: trade generates winners and losers in a country but the gains of the winners are great enough so that they could compensate the losers. Thus, from trade theory we can derive a statement like 'Under certain conditions, the move from an autarky equilibrium to a free-trade equilibrium is a potential Pareto improvement'. This is a positive statement. It does not recommend the move from autarky to free trade. It just picks out certain consequences of such a move. Possibly, the statement is only of interest if there is somebody who thinks that potential Pareto improvements are worth pursuing. In this respect, the statement is not different from any other technological statement. Textbooks explaining how to build an electrical engine are only interesting if there is somebody who would like to build an electrical engine. In the words of Vanberg (2006) and Sugden (20011), applied sciences need an addressee. It would be totally absurd to say that an engineering textbook recommends building electrical engines. It says how to do it, addressing, implicitly, those who would like to do it. It is sometimes argued that applied science is concerned with hypothetical imperatives ('if you want Y, you should do X') instead of categorical imperatives ('you should do X'). This is either false or misleading. The statements that follow from applied science are 'X achieves Y \ as in the example above: moving from autarky to free trade achieves a potential Pareto improvement. This is obviously not the same as the hypothetical imperative 'if you want Y, you should do X ' : X may have unwanted side ef-

6

If the 'conditions' include all the axioms of general equilibrium theory, the first theorem becomes an analytic truth. There is a better way to state it, namely, as a deductive consequence of a theory of consumer behavior, producer behavior, and the working of markets. In this version, it is a synthetic statement. Cf. also Max Albert (2013).

16

Max Albert

fects, and avoiding these side effects might be more important to you than achieving Y. In this case, you may still want Y but you would be ill-advised to do X. Maybe this problem can somehow be circumvented by stating hypothetical imperatives more carefully. However, it would still be the case that hypothetical imperatives either do not belong to applied science or are superfluous: If the 'should' in he hypothetical imperative has a normative meaning, the hypothetical imperative cannot derive from an applied science. If it has no normative meaning, then 'if you want Y, you should do X' is a highly misleading version of 'X achieves Y \ In both cases, discarding hypothetical imperatives contributes to clarity. The recent discussion has emphasized the need to specify the addressees of recommendations. However, both normative recommendations and technological advice need to address somebody. The difference is that normative recommendations overrule the addressees' own goals and normative convictions, either by ignoring them altogether or by adjudicating between the goals and convictions of different addressees. Consider, for instance, Sugden's (2011, pp. 15-21) distinction between three aspects of politics which involve different potential addressees of economic recommendations. -

-

-

Politics as executive action: The addressee is a decision maker with discretionary power who makes decisions for a group he does not belong to and desires to use this power for the social good. Politics as debate: The addressees are participants in a debate about the public good, like, e.g., parliamentarians or academics - a debate where impartial judgments are required. Politics as negotiation: The addressees are the members of a group who must choose rules for their interactions.

In this classification, addressees loom large but their own goals and convictions are not immediately addressed. This approach misses the main point. Whether the issue is politics, business, or everyday life does not matter. The fundamental distinction is between applied economics, that is, technological advice to people about how they can reach their goals, and a rational discussion about their goals and their normative convictions, which would be the province of ethics. In both cases, the addressees' goals and normative convictions must, of course, take center stage, while the social good or impartial judgments as perceived by the advisor are quite irrelevant. In all three of the above cases, economists can give relevant technological advice without tackling ethical problems. For simplicity, let us ignore the case of consulting, where the consultant can immediately address people and hears what they have to say. Instead, we consider the academic context, where an applied economist writes a paper. For a scientific paper in applied economics, the author has several options. He needs some information about the goals of the people he chooses to address. He then can try to tell them how they can reach their goals. Or he may discuss policy proposals and tell them how their goals will be affected. This is technological advice. No philosophical guidance is necessary. Nor does the applied economist need to solve philosophical puz-

The Behavioral Challenge to Normative

Economics

17

zles. He needs no idea about the social good or social welfare because there is no need at all to adjudicate between the different goals of different people. As emphasized by Buchanan (1964), telling people about Pareto improvements has a practical side: it points out possible agreements. However, advice need not be restricted to Pareto improvements. It is equally possible to advise a majority (say, the poor in a country) how to extract more benefits from a minority (the rich). Of course, no recommendations are involved, neither in the form of a categorical imperative like 'Soak the rich' nor in the form of a hypothetical imperative like 'If you want to improve your lot, then soak the rich'. In the case of advising a decision maker with discretionary power or a parliament, the applied economist can, again, focus on the goals of the addressees and the policies under discussion and analyze trade-offs, means of achieving the goals, side-effects of certain policies, and so on. Addressing a decision maker who has no goals of his own - a naive benevolent despot who asks about the social good - is, of course, a fiction. The question about the social good squarely belongs into ethics, but according to the standard view about the nature of values it has no answer. Ethics is concerned with the rational discussion of normative statements (see also appendix B). This discussion is quite different from a scientific discourse. Science as an institution has a purpose: the pursuit of knowledge. Knowledge implies truth: if a scientists claims that he knows that A, where A is a statement, this implies that the statement A is true. Normative statements, however, are neither true nor false; the pursuit of knowledge in ethics is restricted to knowledge of logical relations. When science as an institution works as it should, the acceptance or rejection of theories or observations statements is based, by and large, on a technology for the pursuit of knowledge. The suitability of this technology is under discussion, but this discussion is concerned with facts, not with values. Thus, it is usually not possible in scientific competition just to reject theories or observation statements one dislikes, at least if one wants to be a successful scientist. Of course, scientific competition works not perfectly. But by and large there is a strong pressure, even in economics, to accept the results of methodologically solid research even if one dislikes them. The rise of behavioral economics against the visceral dislike of many neoclassical economists is a nice illustration. In ethics, on the other hand, it is perfectly possible to reject normative statements just because one does not like them. In a rational discussion, there is pressure to be consistent, but mere consistency always allows the rejection of specific statements if one is prepared to bear the costs of adjusting other convictions. For this reason, it makes no sense to search for 'the answer' to moral questions like 'What is the social good, all things considered?' But applied economists need not be specialists for ethics because they need not discuss anybody's normative convictions. They need not at all be concerned with determining or defining the social good or social welfare. Instead, they can just tell people

18

Max Albert

about the possibilities for reaching their own goals, which may or may not involve an idea about the social good. In the academic context, where they do not act as consultants to specific persons whom they can ask for their goals, they can do their job by listening to policy discussion or doing research on people's preferences. They can analyze policies with respect to consequences people seem to care about. There is no shortage of projects an applied economist can take on without ever doing ethics. Of course, ethics is a legitimate field, and everybody may contribute to it, including applied economists. Applied economists may even profit from a knowledge of ethics (or other areas of philosophy) - for instance, by developing a better understanding of other people's normative convictions. But they need not do ethics in order to do their job as applied economists. The above is, of course, a modem re-statement of Weber's (1904) view that social science should be value-free. Economists had for a long time been accepting this view in the version of Robbins (1935). According to this view, 'normative economics' would not exist or be part of ethics, a field that is very different from economics. This consensus seems to have broken down. Dasgupta (2009, p. 583), for instance, holds that Robbins' position - Weber is rarely mentioned in modern economics - is irrelevant to modern economics. Weber did not argue that economists should have no normative convictions of their own or that these normative convictions should be irrelevant for their work. Quite to the contrary. When he argued that science should be value free, he was concerned with scientists' professional code. He argued in favor of a certain normative position. Rational discussion of normative convictions is possible (even beyond the limits envisaged by Weber - cf. Hans Albert 1968/1985, pp. 81-88), and it is therefore possible to have a rational discussion about scientists' professional moral codes. When discussing their professional code, economists are actually involved in a philosophical discussion about moral standards and may profit from knowledge about ethics as a philosophical discipline. However, in most situations, it is not difficult to behave according to widely accepted moral standards that, typically, are also part of accepted professional codes. Almost everybody agrees, without any course in ethics, that, under normal circumstances, one should not help others to cheat people, or that one should not help dictators to suppress the opposition. Ethics, then, is not irrelevant for applied economists, but it is quite unlikely that its fine points will often become important. As long as they stay within certain limits, applied economists should just ask their clients what they want and, if they can, tell them how to get it. This is what everybody expects from an honest advisor. As professors at public universities, applied economists have an obligation to the public, meaning that they should educate people about the consequences of economic policies, about the possibilities of reaching goals that are publicly discussed, etc. However, they have no obligation to take on clients they consider as unsavory, or to enlighten the public about how to reach goals they consider immoral. It is quite unlikely, then, that applied economists in academia confront difficult moral questions in their research.

The Behavioral Challenge to Normative

Economics

19

4.3. The Behavioral Challenge to Applied Economics Let us assume that applied economists wish to follow the professional code just outlined. What, then, is the challenge of behavioral economics from this point of view? It seems to me that this challenge looks completely different from what it looked before. Economists' traditional concern with efficiency is not a necessary consequence of addressing their clients. The concern with efficiency is often justified as a consequence of taking a 'neutral position' and taking the goals of all potential addressees into consideration. However, this is a proposal for a professional code - a professional code that violates the requirement of value freedom. From the perspective of value freedom, it is not economists' job to weight the goals of their clients in any way, 'neutral' or not. It is actually quite surprising that many economists who, by and large, tend to reject paternalism think that they should adjudicate between the interests of different people. 7 As already mentioned, there is a technological aspect to efficiency considerations that can be used for value-free advice: if inefficiencies exist, there is room for an agreement about how to change the situation. However, even if the traditional notion of efficiency or Pareto improvement is inapplicable for theoretical or practical reasons, behavioral economists may still be able to point out possible agreements. Experimental economists, for instance, can consider bargaining and draw lessons about how to make a deal. They can address just one side, as when prospect theory is turned into an applied theory of salesmanship. Alternatively, they could enlighten buyers or they could address both sides of a bargain. Efficiency might be ill-defined but a deal is still a deal. And, obviously, making a deal is an important goal of many people in many situations, not least politics. In cases of conflict between moral preferences and material wellbeing, economists can point out the two trade-offs, the tension between the two meanings of efficiency, and the distributional consequences of different policies. Their addressees - politicians or voters - can make up their own minds on the question of whether they want to promote policies that take spite into account. Economists have no call to make their choices for them. In cases of hyperbolic discounting, economists are free to give advice on how to reach long-term goals or short-term goals, depending on what they are asked to do. Alternatively, they can explain the problem of sticking to a plan. Asking their clients will most likely resolve the issue. For instance, people who want to quit smoking usually have this goal even when they lit a cigarette. The point is that they do not want to quit 7

Gul and Pesendorfer (2008) are aware of this inconsistency. They rightly argue that positive economics neither implies nor requires a definition of the social good. However, their conception of'mindless economics' is irrelevant for this result since even 'mindful economics' is a positive science, and their view of normative economics and economists as advisors is the same view that is criticized here. Because they re-define positive economics such that it is unable to deal with issues like individual happiness, they actually eliminate its potential for criticizing policies aiming at happiness: The very reasonable point that people are not always interested in happiness alone cannot be made by 'mindless' economists. As a criticism of happiness politics and paternalism, mindless economics is just pointless. See also appendix A of the present paper.

20

Max Albert

just then. Even while smoking, they are usually prepared to discuss how to quit in the long run. Thus, it is, according to my experience, just not true that health advisors encounter, in one body, two different persons who want different advice and who take turns in controlling their common body depending on this body's blood levels of nicotine. Because of the possible difference between long-term and short-term goals, utility maximization may be ill-defined. But smokers who want to quit do not ask advisors how to maximize their utility. They ask how they might manage to quit. It is also completely within the limits of applied scientists' professional codes to advise people on how to help other people, even if the helpers take a paternalistic stance. Thus, to invoke Thaler and Sunstein's (2008, pp. 1-2) introductory example, if the manager of a school cafeteria wants to induce her customers to avoid sweets but does not want to restrict their menu of choice, she might turn to a behavioral economist. The behavioral economists might tell her that a 'nudge' like putting the sweets out of sight contributes to the aim. This advice is not immoral according to economists' professional code, even if it goes against the grain for some libertarian normative economists (who are, of course, free not to take on paternalistic clients). In all these cases, applied economists can make technological use of the insights from behavioral economics. They can also criticize the advice of others by pointing out, for instance, that the goals or constraints of the addressees of the advice have not properly been taken into account. Solving ethical puzzles is not required for this job.

5.

Conclusion

According to the proponents of normative economics, the main tradition in their field is neoclassical welfare economics (NWE). The behavioral challenge to normative economics, then, is based on the rejection of neoclassical core assumptions in behavioral economics. If individuals are not materialistic egoists, NWE becomes so complicated that it may be inapplicable in practice; moreover, the Pareto criterion looks unattractive if preferences reflect negative attitudes like envy or spite. If choices are not based on a stable and exogenous complete preference ordering, NWE has to be replaced by something else because the Pareto criterion cannot be applied any longer. And if people make mistakes, some version of paternalism seems to be justified—a position which is often viewed as inconsistent with NWE. However, a closer look reveals that normative economics does not exist. A small part of it belongs to ethics, not economics - that is, to philosophy, not to science. The main part is more properly called 'applied economics'. Applied sciences are not normative but technological: they inform about how to achieve certain goals or about the relations between goals. This obviously holds for neoclassical welfare economics. The 'behavioral challenge to normative economics' is, actually, a challenge to applied economics. What, then, is the behavioral challenge to applied economics? In order to come up with a satisfactory answer to this challenge, economists have to restate the questions they traditionally ask. As often emphasized, they must think about the addressees of their advice. But this is not enough. Honest advice informs people about how to reach

The Behavioral Challenge to Normative

Economics

21

their goals. The position taken by NWE, in contrast, is the position not of an honest advisor but the position of an adjudicator between conflicting goals of different people. A convincing answer to the behavioral challenge will not be that efficiency must be re-defined or that neoclassical welfare functions must be replaced by new and more complicated welfare functions. As Hans Albert has been arguing for a long time (see, e.g., Hans Albert 1979/1999), economists should rather investigate those performance characteristics of alternative institutional arrangements that are relevant according to different value systems. Of course, efficiency can be such a performance characteristic. However, if, as it seems to be the case, efficiency is, for practical or theoretical reasons, not achievable or not even definable, then there are many other performance characteristics that economists can, and actually do, consider. Depending on the clients, among the goals are the redistribution of income and wealth, financial and monetary stability, full employment, improving sanitary conditions, forging agreements and compromises, improving the quality of goods and services in the eyes of consumers, getting a bigger share of the market, raising profits, reducing costs, and so on. From the clients' perspective, it is neither necessary nor desirable that economists, possibly supported by philosophers, pretend to make the necessary choices for them. This, in fact, is a form of paternalism that economists should have rejected a long time ago, when they accepted value freedom as an important norm in their professional code of conduct.

Appendix A: The Case Against Mindless Economics In a widely cited paper, Gul and Pesendorfer (2008, p. 6, p. 27) argue that economists do not need answers to 'difficult philosophical questions" - but only as long as they restrict themselves to positive economics and do not act as advisors or advocates of certain causes. The position taken in the present paper is stronger: economists as advisors can also avoid these philosophical questions. However, the present paper is nevertheless opposed to the views of Gul and Pesendorfer. For instance, it is one of its main points that economists as advisors can and should act in a manner that is completely different from the role of advocates of a cause. In this paper, I assume that preferences and beliefs are internal states of individuals more exactly, mental states accompanying, and corresponding to, brain states. Brain states may be the real causes of behavior while mental states are just epiphenomena but this does not matter for present purposes. This view builds on folk psychology. It allows us to talk about the human mind using terms like preferences, beliefs, emotions and motivations, where these terms have, by and large, meanings that are not too far removed from their meanings in everyday speech. This is the point of view of modern cognitive psychology and, I would argue, of many economists. I am not concerned with the question of how we can learn about the human mind. However, my answer to this question would be the same as the answer to the question of how we can leam about things like gravity or subatomic particles: we state theories that seem to explain what we observe and then test them. In principle, nothing speaks

22

Max Albert

against using neuroscience to test economic theories about people's preferences and beliefs. Whether this is possible depends on whether we have well-corroborated theories linking people's preferences and beliefs to observable events in the brain. For the arguments of this paper, however, it does not matter whether this specific line of testing economic theories is available today or not. There is certainly much room for disagreement on this topic. Gul and Pesendorfer (2008), however, take a more radical position. They argue in favor of 'mindless economics'. While they allow theorizing about the human mind, whether informed by folk psychology or scientific psychology, as a heuristic device in economics, the do not allow the mind to appear in economic theories. Gul and Pesendorfer extend the traditional revealed-preference (RP) approach to all of economics, including behavioral economics, and contrast it with a different approach, 'psychology and economics', which they dub 'neuroeconomics'. However, I think that their term 'mindless economics' for their own approach is particularly apt; therefore, I refer to the other side as 'mindful economics'. The traditional RP approach considers statements about preferences not as referring to some internal states that cause behavior but as referring solely to the choices themselves. Accordingly, saying that Adam strictly prefers A to B is the same as saying that Adam would, given the opportunity, choose A over B (cf. also Gul and Pesendorfer 2008, p. 7). Hence, talk about interests of agents and of how agents perceive their interests (cf., e.g., Gul and Pesendorfer 2008, p. 25) falls into one of two categories: (i) it does not belong to economics as a science and is just a heuristic device; or (ii) it must be re-interpreted in terms of the RP approach, which typically turns the relevant statements into tautologies (e.g., 'people choose what they prefer' becomes 'people choose what they choose'). Gul and Pesendorfer often fail to say which alternative applies. According to Gul and Pesendorfer (2008, pp. 7-8, p. 22), economists may use any kind of mindful economics, psychology or folk psychology as a heuristic to come up with a model containing free parameters. They then should determine the values of these free parameters on the basis of choice data, and use the models to predict future choices. The content of economic theories is the set of its testable implications about connections between economic variables like prices and quantities. Everything else is irrelevant; this holds specifically for the modeling of individual decision making and any terms referring to the human mind (Gul and Pesendorfer 2008, p. 22). Although the RP approach originates from neoclassical economics, Gul and Pesendorfer want to extend it, in this form, to behavioral economics as well. This is mindless economics. Obviously, mindless economics cannot provide any basis for policies that aim at furthering people's happiness. It even makes it impossible for us to talk scientifically about people's interests, preferences or beliefs in the usual sense of these words. In mindless economics, it is true, as a matter of definition, that people choose what they prefer. Welfare improvements are defined as usual in terms of preferences. However, one could also skip over the definition of preference and define welfare improvements directly in terms of choices: Adam is better off with A than with B (or worse off

The Behavioral Challenge to Normative

Economics

23

with B instead of A) iff, given the opportunity, he would choose A over B (cf., e.g., Gul and Pesendorfer 2008, p. 24). This definition can then be used to define efficiency in the usual way: A situation A is efficient if it is not possible to move to a situation B such that at least one person is better off and no person is worse off. 'Better off and 'worse off have, of course, not the meaning they have in everyday language. We can again eliminate these terms and define efficiency directly in terms of choices: situation A is efficient if it is not possible to move to a situation B such that at least one person would, given the opportunity, choose B over A and no person, given the opportunity, would choose A over B. There is no obvious reason why anybody would be interested in efficiency defined in this way if choices were no indication of preferences in the sense of mindful economics. Gul and Pesendorfer are therefore under pressure to come up with a reason for mindless economists to be interested in efficiency. Their solution (Gul and Pesendorfer 2008, pp. 24-25): They argue that efficiency means stability, and that positive economics is concerned with the stability of situations or institutions. If situations are efficient, this explains why they are stable, and if they are inefficient, we should ask ourselves how they could be stable, which would then lead us to revise our models. Obviously, if we should revise every model that describes a stable situation as inefficient, we introduce, by way of methodological prescription, a dogma: only efficient situations can be stable. It is true that some institutional economists try to explain the stability or instability of institutions in terms of efficiency. However, in the light of economic theory, this is not convincing as a general methodological strategy. Neither the theory of competitive markets nor game theory identifies equilibria with efficient states. A large part of economics is concerned with inefficient equilibria. There is no general presumption in economic theory that inefficient states must vanish. Let me illustrate the last point. According to mindless economics, a situation A is inefficient if it is possible to move to a situation B such that at least one person would, given the opportunity, choose B over A and no person, given the opportunity, would choose A over B. Apply this to a prisoners' dilemma (PD). In the PD, equilibrium is situation A (inefficient) and mutual cooperation is situation B (efficient). Given the opportunity, each player would choose situation B over situation A. But this does not mean at all that A is instable in some sense. The idea that inefficient situations cannot persist in history (which, from a gametheoretic perspective, is just a very large game) is nothing but a metaphysical speculation. Using this speculation as a heuristic device in the search for explanations might nevertheless be a good idea. As Gul and Pesendorfer (2008, p. 25) argue: "There is no reason for economic agents to gravitate toward policies and institutions that yield higher welfare if the underlying notion of welfare does not reflect the interests of agents as the agents themselves perceive their interests." Quite so. But this is a reasonable argument only in the context of mindful economics. In mindless economics, agents' reasons and perceptions of their interests have no place, and 'interests' and 'welfare' is just another word for 'preferences' and can be replaced by 'choices' in the way indicated above.

24

Max Albert

What is presented as an argument, then, is no argument at all if we take Gul and Pesendorfer at their word. It is part of a heuristic that has to be discarded once an economic model has been jotted down. If it were a proper argument, we might inquire whether it is true that agents have interests which they can perceive and so on. Mindful economists and psychologists might, then, come up with theoretical and empirical criticism of this argument (as, actually, they do). But Gul and Pesendorfer want to pre-empt such a criticism. Their strategy, however, undermines their own argumentation; they have defined away any basis for using the above statement as an argument in economics. Despite the absence of a scientific (and, hence, criticizable) argument for the alleged instability of inefficient states, Gul and Pesendorfer turn this hypothesis into a dogma by building it into the foundation of economic methodology. Indeed, they seem to define economics by this methodology (Gul and Pesendorfer 2008, p. 13). This is a good example of what Hans Albert has called an 'immunization strategy': Economics is defined by a methodology that requires economists to ignore certain phenomena, questions and arguments. Criticism can be ruled out by dismissing the critics as noneconomists. 8 In a similar way, theologians have been trying for a long time to protect their theories against criticism from the natural sciences (cf. also Hans Albert 1968/1985, ch. 5). The natural sciences, on the other hand, seem to proceed in a very different way. Not least, they progress by proposing hypotheses that connect different fields and yield new predictions. If these hypotheses survive severe testing, they can be used to criticize old theories, either because there is a direct clash between old theories and new successful hypotheses or because the new hypotheses imply that new kinds of data become relevant to, and speak against, the old theories. As Gul and Pesendorfer's analysis shows, their mindful opponents argue exactly along these lines. This does not mean that their hypotheses are true. But resorting to immunizations strategies in order to evade their criticism is not the way to progress. Gul and Pesendorfer relegate economic advice to normative economics and assume that, in this field, mindful economics becomes relevant after all, and with it the difficult philosophical and moral questions that positive economics avoids. In this paper, I argue instead that (i) economic advice is within the purview of positive economics, (ii) mindful economics is a proper part of positive economics, and, nevertheless, (iii) economists can avoid the said difficult philosophical and moral questions. In this appendix, I have, moreover, argued that (iv) Gul and Pesendorfer's conception of mindless economics should be rejected. According to Gul and Pesendorfer (2008, p. 8), agents' choices may not maximize happiness but, instead, reflect a sense of duty or the response to some impulse, and economics "takes no position on the question of which of those objectives the agent should pursue". I agree. For this reason, economists as advisors are not bound to advise their

8

See Hans Albert (1968/1985) for a thorough discussion of immunization strategies in various fields and contexts.

The Behavioral Challenge to Normative

Economics

25

clients only about the pursuit of happiness. They should take the actual goals of their clients into account. And they can focus on other aspects of policies than just the effects on people's happiness. But this point of view presupposes that we can use positive mindful economics in order to criticize the political propaganda of happiness theorists. Gul and Pesendorfer's mindless economics has nothing to contribute to such a criticism. All they can say is that happiness policy is not based on economics as they define it.

Appendix B: Normative Statements and How to Discuss Them Normative convictions are expressed in normative statements. Simple normative statements are value judgments in the narrow sense ('democracy is good'), general norms ('you should not kill'), recommendations, and so on. In contrast to positive statements, these statements are not about facts (not factual) and are, therefore, neither true nor false. This, at least, is the position of non-cognitivism in ethics, which is also the position taken by most economists and the position taken in this paper.9 More complicated statements ('Adam is obliged to help Eve') combine simple normative statements ('Adam should help Eve') with implicit references to facts, namely, the circumstances that, according to the speaker's value judgments, lead to Adam's obligation. For instance, the speaker may have the normative conviction that husbands should help their wifes and the positive conviction that Adam is Eve's husband. The factual statements implied by these more complicated statements can be true or false; in this sense, somebody sharing the speaker's value judgments might say that a specific complicated normative statement is true or false (because, e.g., Adam is or is not Eve's husband, and no other accepted reason for an obligation exists). However, even in these more complicated cases, the normative component is neither true nor false. The logical character of normative statements is highly contentious in philosophy. Part of the problem is that people express many different things when they express their normative convictions by uttering a normative statement. If somebody says, as an expression of his own convictions, 'Adam is obliged to help Eve', this usually means that he prefers Adam helping Eve to not helping her, at least under normal circumstances. It may also mean that he prefers, and possibly expects, others to have the same preference. The statement may imply that he thinks that Adam's obligation can be justified in terms of more basic normative principles; it almost certainly means that he believes certain circumstances prevail that lead to Adam's obligation, like Adam being Eve's husband. Moreover, it may express the false view that it is an objective truth - in the same sense that it may be objectively true that Adam is Eve's husband - that Adam ought to help Eve. Normative language is complicated because it is used to express all these very different things. If this analysis is correct, the meaning of 'Adam is obliged to help Eve' cannot be determined independently from the circumstances under which it is uttered. This 9

On non-cognitivism and the meaning and rational discussion of normative statements, see Hans Albert (2000, pp. 44-46) and Max Albert and Kliemt (2011), from where most of this appendix is taken.

26

Max Albert

is obvious for the implicit references to facts, which require knowledge about further normative convictions of the speaker and, possibly, the moral institutions of the speaker's society. Moreover, without knowing the speaker (and whether he meant the statement as expression of his own normative convictions), it is unclear whose moral preferences are expressed. From a logical point of view, then, we must analyze the normative content of a isolated statement like 'Adam is obliged to help Eve' as 'x prefers Adam helping Eve to Adam not helping Eve' and so on. This is a statement form, not a statement; it turns into a true or false positive statement if the variable x is replaced by a name. Statement forms of this kind can easily be handled. While the statement forms by themselves are neither true nor false, we can nevertheless analyze logically relations like logical inconsistency or logical consequence between them. Such a relation holds between two statement forms if it holds for all pairs of statements resulting from uniform substitution of variables by constants.10 A rational discussion of a set of normative statements requires, first of all, an analysis of the meaning of these statements, which must make use of the context in which they are uttered. It then proceeds in the usual way of any rational discussion, by criticism and counter-criticism. Criticism either points out logical inconsistencies among them or factual implications that seem to be false. However, in contrast to rational discussions about facts, there are no criteria according to which a participant of the discussion is obliged to accept a specific normative statement. While there are accepted scientific methodologies for establishing facts, so that not any consistent set of factual statements can be maintained, no such criteria exist in ethics. It is perfectly possible that all participants in in a rational discussion about normative statements are consistent and agree about all the facts but still disagree with respect to their normative convictions.11

Acknowledgements In writing the first version of this paper, I have benefitted from discussions with participants of the workshop 'New Frontiers in Normative Economics: Towards Behaviorally Informed Policy Making' of the Walter Eucken Institute in Freiburg, December 2011, and of the symposium on 'Collective Decisions' at Hamburg University's Center for Health Economics in June 2012, specifically, Daniel Hausman, Wolfgang Kerber, Mathias Kifmann, Robert Sugden, and Viktor Vanberg. The final version has benefitted from discussions at the 2014 Radein Conference, especially from comments by Lars Feld, Justus Haucap, Christian Müller, Nils Otter and Dirk Wentzel, and from further

10

I know of no source for the idea that the normative content of normative statements should in general be analyzed as a set of statement forms, although this is, of course, implied by the traditional idea that normative convictions are a special case of preferences. " This is the premise of Moore's 'open question argument'; cf. Mackie (1977, p. 51, p. 61-62).

The Behavioral Challenge to Normative Economics

27

c o m m e n t s by Mathias K i f m a n n . Moreover, comments and suggestions by Matthias Greiff and Hannes Rusch are gratefully acknowledged.

References Albert, Hans (1968/1985), Traktat über kritische Vernunft, Tübingen 1968, transl. as Treatise on Critical Reason, Princeton. Albert, Hans (1979/1999), The Economic Tradition, in: Karl Brunner (ed.), Economics and Social Institutions, Boston etc., revised and repr. in: Hans Albert, Between Social Science, Religion and Politics. Essays in Critical Rationalism (1999), Amsterdam and Atlanta, pp. 91-114. Albert, Hans (1987), Kritik der reinen Erkenntnislehre, Tübingen. Albert, Hans (2000), Kritischer Rationalismus, Tübingen. Albert, Max (2013), From unrealistic assumptions to economic explanations: Robustness analysis from a deductivist point of view, MAGKS Joint Discussion Paper Series in Economics 2013-52, Justus-Liebig-Universität Giessen. Albert, Max and Hartmut Kliemt (2011), Gerechtigkeitstheorien in der Ökonomik: Ausweg oder Irrweg?, in: Wolfgang Franz, Hans Jürgen Ramser and Manfred Stadler (Hg.), Umverteilung und soziale Gerechtigkeit. Wirtschaftswissenschaftliches Seminar Ottobeuren, Vol. 40, Tübingen, pp. 63-80. Arrow, Kenneth J. (1963), Social Choice and Individual Values, 2nd ed., New Haven and London. Bernheim, Douglas B. and Antonio Rangel (2008), Choice-theoretic foundations for behavioral welfare economics, in: Caplin and Schotter (eds.) (2008), pp. 155-192. Buchanan, James M. (1964), What should economists do?, repr. in: Geoffrey Brennan, Hartmut Kliemt and Robert Tollison (eds.), Collected Works, Vol. 1, pp. 28-42. Caplin, Andrew and Andrew Schotter (eds.) (2008), The Foundations of Positive and Normative Economics: A Handbook, Oxford. Caplin, Andrew and Andrew Schotter (2008a), Volume introduction, in: Caplin and Schotter (eds.) (2008), pp. xv-xxii. Dasgupta, Partha (2009), Facts and values in modern economics, in: Harold Kincaid and Don Ross (eds.), The Oxford Handbook of Philosophy of Economics, Oxford etc., pp. 580640. Gul, Faruk and Wolfgang Pesendorfer (2008), The case for mindless economics, in: Caplin and Schotter (eds.) (2008), pp. 3-39. Hamilton, William D. (1970), Selfish and spiteful behaviour in an evolutionary model, in: Nature 228, pp. 1218-1220. Hands, D. Wade (2012), The positive-normative dichotomy and economics, in: Uskali Mäki (ed.), Handbook of the Philosophy of Science, Vol. 13: Philosophy of Economics, Amsterdam etc., pp. 219-239. Keynes, John N. (1890/1973), The Scope and Method of Political Economy, 4 ,h ed. 1917, repr. by Augustus M. Kelley, Clifton 1973. Loewenstein, George and Emily Haisley (2008), The economist as therapist: methodological ramifications of'light' paternalism, in: Caplin and Schotter (eds.) (2008), pp. 201-245. Mackie, John L. (1977), Ethics: Inventing Right and Wrong, London etc.

28

Max Albert

Robbins, Lionel (1935), An Essay on the Nature and Significance of Economic Science, 2nd ed., London. Saijo, Tatsuyoshi and Hideki Nakamura (1995), The "spite" dilemma in voluntary contribution mechanism experiments, in: Journal of Conflict Resolution 39, pp. 535-560. Sugden, Robert (2008), Why incoherent preferences do not justify paternalism, in: Constitutional Political Economy 19, pp. 226-248. Sugden, Robert (2011), The behavioural economist and the social planner: to whom should behavioural welfare economics be addressed?, Papers on Economics and Evolution #1121, Jena: Max Planck Institute of Economics. Thaler, Richard H. and Cass R. Sunstein (2008), Nudge: Improving Decisions About Health, Wealth, and Happiness, New Haven. Vanberg, Viktor (2006), Democracy, citizen sovereignty and constitutional economics, Freiburg Discussion Papers on Constitutional Economics 06/2, repr. in: José Casas Pardo and Pedro Schwartz (eds.), Public Choice and the Challenges of Democracy (2007), Cheltenham, pp. 101-120. von Weizsäcker, Carl Christian (2005), The welfare economics of adaptive preferences, Preprints of the Max Planck Institute for Research on Collective Goods, No. 2005,11, Bonn. Weber, Max (1904), Die 'Objektivität' sozialwissenschaftlicher und sozialpolitischer Erkenntnis, in: Archiv für Sozialwissenschaft und Sozialpolitik 19, pp. 22-87.

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaftspolitik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

Soziale Präferenzen und begrenzte Rationalität in der experimentellen Verhaltensökonomik

Mathias Erlei

Inhalt 1.

Einleitung

30

2.

Vertragstheorie im experimentellen Test

31

2.1. Adverse Selektion

31

3.

4.

5.

2.2. Moralisches Wagnis

32

2.3. Spezifische Investitionen und unvollständige Verträge

33

Soziale Präferenzen

34

3.1. Ungleichheitsaversion

35

3.2. Wohlfahrtspräferenzen

36

3.3. Ein Beispiel für die Funktionsweise der Gleichgewichte mit sozialen Präferenzen

37

Begrenzte Rationalität

39

4.1. Quantenreaktionsgleichgewichte

40

4.2. Ein einfaches Beispiel für die Anwendung des LAQRE

41

4.3. Die grundsätzliche Bedeutung der begrenzten Rationalität

44

4.4. Lernprozesse und agentenbasierte Modelle

46

Fazit

47

Literatur

48

30

1.

Mathias

Erlei

Einleitung

Die Verhaltensökonomik ist ein sozialwissenschaftliches Forschungsprogramm, das versucht, wirtschaftliches Verhalten zu erklären. Im Zentrum der dabei entwickelten Ansätze steht vor allem das Bestreben, wichtige Erkenntnisse aus dem Bereich der Psychologie zu berücksichtigen. Auf diese Weise soll die Wirtschaftswissenschaft auf ein solideres Fundament gestellt werden. Im Rahmen der experimentellen Ökonomik wird versucht, einzelwirtschaftliche Verhaltensweisen und Marktprozesse durch kontrollierte Laborexperimente zu analysieren. Laborexperimente stellen eine einzigartige Methode dar, umfassende und detaillierte Daten über reales wirtschaftliches Verhalten (in einer künstlichen Laborsituation) zu gewinnen. Im Rahmen eines Laborexperiment ist es nicht nur möglich, den institutionellen Rahmen (Handlungsmöglichkeiten, zeitliche Abfolge der Handlungen, Kommunikationsmöglichkeiten,. ..) und die experimentelle Umwelt (Anfangsausstattungen, Informationsstand der Teilnehmer, monetäre Anreize, Marktstruktur,...) im Detail zu erfassen, sondern sie auch gezielt zu gestalten. Darüber hinaus lassen sich Laborexperimente - im Gegensatz zur realen Wirtschaftspraxis - beliebig reproduzieren, sodass jede vermeintliche Regelmäßigkeit einem neuen Test unterzogen werden kann. Die experimentelle Verhaltensökonomik kombiniert Inhalte der Verhaltensökonomik mit der Methode der kontrollierten Laborexperimente. Die Ziele eines solchen Forschungsprogramms können nicht zuletzt darin bestehen, (a) systematische Abweichungen vom ökonomischen Standardmodell - so genannte , Anomalien' - aufzuspüren oder (b) mithilfe der im Labor generierten Daten ein besseres, möglichst allgemeines Verhaltensmodell zu entwickeln, dass das Probandenverhalten signifikant besser erklärt als das übliche Rational Choice-Modell. In diesem Beitrag wird angestrebt, den zweiten Aspekt, also die Suche nach einem möglichst allgemeinen Ansatz, zu diskutieren. Im Vordergrund sollen dabei der zusätzliche Erklärungsgehalt, den die Berücksichtigung sozialer Präferenzen, der begrenzten Rationalität und (damit verbunden) einiger Lernmodelle generieren kann. Da es nicht möglich ist, eine umfassende Betrachtung der experimentellen Verhaltensökonomie zu liefern, beschränkt sich die Analyse auf das Anwendungsgebiet der Vertragstheorie und (am Rande) der Marktprozesse. Es ist völlig unstrittig, dass bei diesem Vorgehen einige wichtige Bereiche (und Anwendungen) der experimentellen Verhaltensökonomik vernachlässigt werden. Hier sind insbesondere die Prospect Theorie (Kahnemann und Tversky 1979) und viele sich darauf beziehende Entwicklungsstränge (z.B. Herweg et al. 2010, Herweg und Schmidt 2014) zu nennen. Im folgenden zweiten Abschnitt wird zunächst ein kurzer Überblick über experimentelle Studien zur ökonomischen Vertragstheorie geliefert. Dabei wird gezeigt, dass das im Labor festgestellte Verhalten der Probanden deutliche Abweichungen von der üblichen Gleichgewichtslösung aufweist und Hinweise für die Relevanz sozialer Präferenzen oder der begrenzten Rationalität vorliegen. In Abschnitt 3 werden einige prominente Beispiele zur Modellierung sozialer Präferenzen diskutiert. Die Funktionsweise dieser Modelle wird dabei am Beispiel eines Gift-exchange-Spiels dargestellt. Im vierten Abschnitt

Soziale Präferenzen und begrenzte Rationalität

31

wird der Aspekt der begrenzten Rationalität und dessen Modellierung untersucht. Die Analyse konzentriert sich dabei vorrangig auf die so genannten Quantenreaktionsgleichgewichte (quantal response equilibria), deren Funktionsweise wiederum am Beispiel des Gift-exchange-Spiels illustriert wird, und - deutlich kürzer - auf Lernprozesse und die agentenbasierte Modellierung. Der Beitrag schließt mit einem kurzen Fazit (Abschnitt 5).

2.

Vertragstheorie im experimentellen Test

Die ökonomische Vertragstheorie lässt sich in (zumindest) drei Forschungsrichtungen einteilen. Die erste dieser Richtungen - im Allgemeinen als Problem der adversen Selektion bezeichnet - untersucht Vertragsbeziehungen, in denen vor Vertragsabschluss eine Informationsasymmetrie besteht, die zu Marktversagen bzw. zu einem kompletten Marktzusammenbruch führen kann. Im Zentrum der zweiten Richtung steht das Problem des moralischen Wagnisses. Hierunter wird verstanden, dass sich nach Vertragsabschluss eine Informationsasymmetrie einstellt und dass selbst bei perfekter Antizipation ihrer Folgen effiziente Verhaltensmuster nicht immer gewährleistet werden können. Als dritter Forschungszweig lässt sich das Problem des Abschlusses von Verträgen im Zusammenhang mit spezifischen Investitionen anfuhren. Im Zentrum dieser Art von Modellen steht die Theorie unvollständiger Verträge. Diese geht von der Unmöglichkeit des Abschlusses von Verträgen aus, die für alle denkbaren Eventualitäten vorab effiziente Verhaltensweisen festlegen. Wenn somit erst nach Durchführung der Investitionen geklärt werden kann, wie zentrale Vertragsbestandteile - und damit auch die Verteilung des Überschusses aus der Transaktion - festgelegt werden, besteht die Gefahr, dass sich die investierenden Transaktionspartner nicht den vollen Nutzen aus den eigenen Investitionen aneignen können. Hieraus resultiert ein Unterinvestitionsproblem, das üblicherweise unter dem Stichwort ,Holdup' (Raubüberfall) diskutiert wird. Im Folgenden sollen einige der wichtigsten Ergebnisse der experimentellen Ökonomik zu diesen drei Bereichen der Vertragstheorie zusammengefasst werden.

2.1. Adverse Selektion Lynch et al. (1986) haben einen Lemons-Markt (Akerlof 1970) konstruiert und einem experimentellen Test unterzogen. In ihrem Ansatz existieren zwei mögliche Produktqualitäten, die die potentiellen Käufer erst nach erfolgtem Kauf voneinander unterscheiden können. Lynch et al. zeigen, dass - wie zu erwarten - die hohe Qualität vom Markt verschwindet und somit ein (zumindest partieller) Marktzusammenbruch festzustellen ist. Dementsprechend bestätigen Sie weitestgehend die bekannte Standardtheorie. Miller und Plott (1985) untersuchen die Wirksamkeit von Signalisierungsstrategien zur Überwindung des Adverse-Selektion-Problems. In ihrem Experiment finden sie nur eine partielle Bestätigung für das mögliche Trennungsgleichgewicht. Insbesondere stellen sie fest, dass die Probanden oftmals unnötig hohe Beträge für das Signalisieren aufwenden, was als Hinweis darauf interpretiert werden kann, dass der Aspekt der begrenzten Rationalität in ihrem Experiment nicht vernachlässigbar ist. Posey (1999) hat einen experimentellen Versicherungsmarkt konstruiert und getestet, in wie weit Filterung (Screening) dazu in der Lage ist, das Adverse-Selektions-Problem

32

Mathias

Erlei

zu lösen. Da das Augenmerk dieser Untersuchung auf die Wahl der Vertragsangebote gelegt wird, werden die besser informierten Agenten durch ein Computerprogramm simuliert. In den letzten zehn Perioden des Experiments werden zu 98 Prozent Gleichgewichtsverträge gewählt, was als Bestätigung der Standardtheorie angesehen werden kann. Gleichwohl stellt Posey erhebliche Lerneffekte fest, die in einem Gleichgewichtsansatz natürlich nicht erfasst werden können. Calabres und Charness (2003) untersuchen ebenfalls ein Adverse-Selektions-Problem mit Filterung als Lösungskonzept, wählen jedoch ein Design, in dem sowohl die Prinzipale als auch die Agenten durch menschliche Experimentteilnehmer vertreten werden. Im deutlichen Gegensatz zu Posey werden in ihrem Experiment nur in 35 Prozent der Fälle Gleichgewichtsverträge gewählt. Darüber hinaus stellen sie fest, dass,unfaire' Verträge mit einer hohen Wahrscheinlichkeit abgelehnt werden. Dies steht im deutlichen Gegensatz zur Standardtheorie und kann somit als Indiz für das Vorliegen sozialer Präferenzen oder als Indiz für die Relevanz begrenzter Rationalität interpretiert werden.

2.2. Moralisches Wagnis Unter dem Begriff,moralisches Wagnis' werden Transaktionen zusammengefasst, in denen das Verhalten des Agenten nach Vertragsabschluss nicht vorab, d.h. nicht innerhalb des geschlossenen Vertrages, festgelegt werden kann, sodass der Agent Anreizen unterliegt, die ihn zu (aus sozialer Sicht) ineffizienten Handlungen veranlassen. Aus der Vielzahl der verfugbaren experimentellen Studien sollen hier zwei Gruppen von Beiträgen skizziert werden. In den sogenannten Gift-exchange-Experimenten wird eine besonders stark vereinfachte Variante des Moral-hazard-Problems betrachtet, in der in Stufe 1 des Experiments der Prinzipal ein Vertragsangebot unterbreitet, das insbesondere keine Anteile am Erlös bzw. am Output vorsieht. Typischerweise wird ein Fixlohn in Verbindung mit einer vom Prinzipal (unverbindlich) gewünschten Arbeitsleistung angeboten. Diese Vertragsinhalte werden gegebenenfalls ergänzt durch eine Kombination von (zufallsbehafteter) Überwachung und Strafzahlung (bei Minderleistung) oder durch ein völlig unverbindliches Versprechen für die Leistung einer Bonuszahlung im Fall einer guten Performance. Diverse Varianten dieses experimentellen Spiels wurden von Ernst Fehr und diversen Koautoren untersucht.1 Dabei zeigen zum Beispiel Fehr und Gächter (2002), dass in der einfachsten Variante des Spiels (ohne Strafzahlung, ohne Bonuszahlung) nur 40 Prozent der Vertragsangebote anreizkompatibel sind und dass die Agenten oftmals einen höheren Arbeitseinsatz liefern als es für sie individuell optimal wäre. Dies geschieht insbesondere dann, wenn Prinzipale zuvor einen vergleichsweise großzügigen' Fixlohn angeboten haben. Fehr und Gächter interpretieren dieses Agentenverhalten als positive Reziprozität, also als spezielle Form sozialer Präferenzen. Darüber hinaus zeigen sie, dass die Einfuhrung von angedrohten Strafzahlungen diese freiwilligen Mehrleistungen verdrängen, sodass sich vermeintlich effiziente Vertragsangebote (mit Strafzahlungen) als nicht mehr vorteilhaft erweisen. Letzteres gilt insbesondere im Vergleich zu den unverbindlichen Bonus-Zahlungsversprechen, die, im Gegensatz zu Strafmechanismen, wirkungsvoll zu einer Erhöhung des

1

Siehe z.B. Fehr und Gächter (2002), Fehr et al. (2004,2007, 2008).

Soziale Präferenzen und begrenzte Rationalität

33

Arbeitsinputs führen (Fehr et al. 2004). Schließlich übertragen Fehr und Schmidt (2004) das Gift-exchange-Spiel auch in einen Mehraufgaben-Kontext (Multitasking) und zeigen, dass die Standardtheorie einerseits bestätigt wird (einseitige Leistungsanreize führen zu gravierenden Fehlallokationen), andererseits aber widerlegt wird, da die Bonus Verträge, die eigentlich auf unglaubwürdigen Versprechen beruhen, im Vergleich zu den anderen Vertragstypen als ökonomisch überlegen einzustufen sind. Anderhub et al. (2002) untersuchen ein deterministisches Hidden-action-Modell, in dem die zulässigen Vertragsangebote auch eine Erlösbeteiligung enthalten. Das Gleichgewicht laut Standardtheorie besteht in ihrem Design (mit einer stufenweise definierten Arbeitskostenfunktion) darin, dass ein hoher, negativer Fixlohn und eine Erlösbeteiligung zwischen 72,4 und 100 Prozent gewählt werden. Im Gleichgewicht gehen alle Gewinne aus der Transaktion an den Prinzipal, sodass der Agent nur dazu in der Lage ist, seine Kosten zu decken. Tatsächlich finden die Autoren, dass in immerhin zwei Dritteln der Fälle negative Fixlöhne und hohe Anreizintensitäten gewählt werden. Allerdings zeigt sich, dass es den Agenten gelingt, deutlich höhere Anteile an den Gesamtgewinnen zu realisieren. Darüber hinaus lehnen die Agenten mit einer Wahrscheinlichkeit von etwa 50 Prozent Vertragsangebote ab, die ihnen nur bis zu 20 Prozent des Gesamtüberschusses zukommen lassen würden. Diese letzten beiden Aspekte weisen daraufhin, dass auch in diesem Experiment soziale Präferenzen oder begrenzte Rationalität eine nicht vernachlässigbare Rolle spielen könnten.

2.3. Spezifische Investitionen und unvollständige Verträge Die Problematik spezifischer Investitionen wurde zuerst von Williamson (1975,1985) einer tiefergehenden Analyse unterzogen. Es folgte die spieltheoretische Modellierung des Sachverhalts (Grossman und Hart (1986), Hart und Moore (1988,1990)), die letztlich (in stark vereinfachter Form) als Ausgangspunkt für experimentalökonomische Tests diente. Sonnemans et al. (2001) kommen mit ihrem experimentellen Design den vertragstheoretischen Grundmodellen noch am nächsten. Sie untersuchen ein Holdup-Modell mit variierender Verteilung der Drohpunkte im Neuverhandlungsspiel. In Ihrem Treatment mit ,Inside Options', in dem die Nash-Verhandlungslösung das Gleichgewicht des Neuverhandlungsspiels bildet, sind alle wesentlichen Aspekte des Modells aus Grossman und Hart (1986) enthalten. Auf der einen Seite bestätigen die Autoren die Existenz des Unterinvestitionsproblems. Auf der anderen Seite erkennen sie nicht vernachlässigbare Abweichungen vom theoretischen Gleichgewicht: Die tatsächlichen Investitionen übertreffen die Gleichgewichtsinvestitionen, was Sonnemans et al. mit sozialen Präferenzen erklären. Alternativ wäre hier jedoch auch die begrenzte Rationalität als Erklärungsansatz denkbar. Des Weiteren zeigt sich, dass die Neuverhandlungen nicht effizient verlaufen. Einigungen kommen zumeist erst nach zwei oder drei Perioden zustande, was mit spürbaren Effizienzeinbußen verbunden ist. Dies deutet vor allem auf das Wirken einer nur begrenzten Rationalität hin. Schließlich steigt der relative Verhandlungserfolg der Investoren mit den von ihnen zuvor durchgeführten spezifischen Investitionen. Dies widerspricht den Vorhersagen der Standardtheorie und bildet ein Indiz für die Relevanz sozialer

34

Mathias Erlei

Präferenzen. In einem zweiten Treatment mit einer anderen Struktur des Neuverhandlungsspiels finden sich analoge Effekte. Erlei und Siemer (2013) variieren das Experiment von Sonnemans et al., indem sie die Drohpunkte des Neuverhandlungsspiels, die aus der Verteilung der für die Transaktionen relevanten (fiktiven) Vermögensobjekte resultieren, endogenisieren. Die Versteigerung der Vermögensobjekte fuhrt zu einer zunehmend kompetitiven Atmosphäre zwischen den beteiligten Parteien und verdrängt auf diese Weise einen erheblichen Teil der Effekte, die aus sozialen Präferenzen resultieren. Während somit die Bedeutung der sozialen Präferenzen zurückgedrängt wird, bleiben deutliche Hinweise auf das Vorliegen begrenzter Rationalität, insbesondere in Form ineffizienter Neuverhandlungen. Ellingsen und Johannesson (2004) zeigen in einem Holdup-Experiment die Bedeutung der Kommunikation auf und deuten damit auf begrenzte Rationalität oder soziale Präferenzen hin. Bruttel und Eisenkopf (2009) bestätigen die Wirksamkeit der vertikalen Integration und Anderhub et al. (2003) bestätigen die Vorteilhaftigkeit längerer Vertragslaufzeiten. Hoppe und Schmitz (2011) zeigen, dass Optionsverträge - wie aus theoretischer Sicht zu erwarten war - das Unterinvestitionsproblem merklich verringern. Überraschend ist aus theoretischer Sicht allerdings, dass Optionsverträge auch in einem Kontext wirken, in dem Neuverhandlungen (nach einem Verfallen der Option) möglich sind. Letzteres weist wiederum auf die Relevanz der begrenzten Rationalität bzw. der sozialen Präferenzen hin. Qualitativ ähnliche Ergebnisse finden sich auch bei Hackett (1993, 1994) und Sloof et al. (2004, 2006, 2007). Bei Olcina et al. (2000) und Königstein (2001) finden sich - im Gegensatz zur weiteren Literatur - keine Unterinvestitionen, was erneut für soziale Präferenzen oder begrenzte Rationalität spricht. Zusammenfassend lässt sich feststellen, dass die experimentelle Wirtschaftsforschung in allen drei Bereichen der Vertragstheorie deutliche Hinweise auf das Vorliegen sozialer Präferenzen und begrenzter Rationalität liefert. Die Abweichungen des tatsächlichen Verhaltens vom theoretischen Gleichgewicht führen zu zum Teil grundlegend veränderten Beurteilungen der untersuchten Vertragsbestandteile und bedürfen somit einer Erklärung. Wie dies mithilfe sozialer Präferenzen oder begrenzter Rationalität konkret umgesetzt werden kann, wird in den folgenden Abschnitten diskutiert.

3.

Soziale Präferenzen

Insbesondere die experimentellen Befunde zum Diktator- und zum Ultimatum-Spiel haben spätestens seit Mitte der 90er Jahre einen enormen Aufschwung von Modellen verursacht, die die Präferenzen der Wirtschaftssubjekte auch in Abhängigkeit vom Wohlbefinden anderer Personen sieht. Seit dieser Zeit haben sich zumindest drei unterschiedliche Konzepte solcher ,other-regarding preferences' etabliert. An erster Stelle ist hier vielleicht das Konzept der Reziprozität, die im Wesentlichen aus dem Prinzip des ,Wie du mir, so ich dir' besteht, zu nennen. Die Grundidee der Reziprozität ist sicher keineswegs neu und in anderen Disziplinen, wie etwa der Soziologie oder der Psychologie, längst etabliert.

35

Soziale Präferenzen und begrenzte Rationalität

Für die Ökonomik als Wissenschaft bestehen jedoch gewisse Probleme in der modelltechnischen Umsetzung der Grundidee. Diese bestehen unter anderem darin, möglichst allgemein und umfassend zu definieren, wodurch sich freundliches (,faires', kooperatives oder nettes) Verhalten von dessen Gegenpart unterscheidet. Selbst wenn diese Abgrenzung an sich durchaus möglich erscheint, erweist sich die Anwendbarkeit auf eine möglichst große Anzahl unterschiedlicher Spiele als weiteres Problem: Zum einen werden die Modelle mitunter ziemlich unhandlich und zum anderen - dies dürfte von größerer Bedeutung sein - erweisen sich Definitionen .freundlichen' Verhaltens, die in bestimmten experimentellen Spielen überzeugend aussehen, in anderen Spielen als durchaus fragwürdig. Meines Erachtens ist dies der Grund dafür, warum das Konzept der Reziprozität in der Ökonomik an Bedeutung verloren hat. Größere Bedeutung haben derzeit vor allen Dingen zwei Ansätze: Präferenzen mit Ungleichheitsaversion und Wohlfahrtspräferenzen (Effizienzpräferenzen), die im Folgenden skizziert werden sollen.

3.1. Ungleichheitsaversion Vorstellungen von Fairness und Gerechtigkeit beinhalten im Allgemeinen den Aspekt der Gleichheit. Analog dazu, wie sich das Alltagsverständnis einer sozialen (Verteilungs)Gerechtigkeit auf Unterschiede im Einkommen oder Vermögen bezieht, wird Fairness in Ungleichheitsaversionsmodellen durch die Differenzen in den Einnahmen (Gewinnen) als zusätzliches Argument in die Nutzenfunktion einbezogen. In der Literatur haben vor allem zwei Ansätze große Beachtung gefunden: die Modelle von Fehr und Schmidt (1999) und von Bolton und Ockenfels (2000). Beide Konzepte verwenden die üblichen spieltheoretischen Gleichgewichtskonzepte (Nash-Gleichgewicht, Teilspielperfektheit, Perfektes Bayesianisches Gleichgewicht usw.). Der einzige Unterschied zu den traditionellen Ansätzen besteht darin, dass die Nutzenfunktion neben den eigenen Auszahlungen auch das Argument der Auszahlungsunterschiede berücksichtigt. Fehr und Schmidt (1999) unterstellen die folgende Nutzenfunktion:

i*i

i*i

Hier beschreibt die monetäre Auszahlung (den Gewinn) des Spielers i und n ist die Anzahl der am Spiel beteiligten Spieler. Die Parameter at und ßt repräsentieren die Intensität der Abneigung gegen ungleiche Gewinne. Im mittleren Term werden all diejenigen bilateralen Gewinndifferenzen addiert, bei denen der betrachtete Spieler i einen geringeren Gewinn aufweist als der jeweilige Spieler j. Diese Summe - gewichtet mit dem Faktor a t / ( j i — 1) - geht anschließend negativ in die Nutzenfunktion des betrachteten Individuums ein. Analog erfasst der dritte Term die Summe aller Gewinndifferenzen für den Fall, dass der betrachtete Spieler i über den höheren Gewinn verfügt. Beide Arten von Gewinndifferenzen mindern den empfundenen Nutzen des Spielers, jedoch wird üblicherweise angenommen, dass die Individuen Gewinndifferenzen, die zu ihrem Nachteil ausfallen, stärker gewichten als solche, bei denen sie selbst das höhere Einkommen haben, also £*j > ßi > 0.

36

Mathias Erlei

In den erfolgreicheren Anwendungen unterstellen Fehr, Schmidt und ihre jeweiligen Koautoren im Allgemeinen eine Population von Spielern mit ungleichen Werten für die Parameter CLl bzw. ßt. Die resultierenden perfekt Bayesianischen Gleichgewichte entstehen dabei zumeist durch ein vergleichsweise subtiles Zusammenspiel der verschiedenen Spielertypen in ihren verschiedenen Rollen. Abbildung 1 zeigt einige Parameterkonstellationen, die die Autoren wiederholt verwendet haben. Abbildung 1: Typische Fehr-Schmidt-Ungleichheitsaversions-Parameterverteilungen

ai=ß

i

= 0

aL = 0,5; ßt = 0,25

Fehr und Schmidt (1999)

Fehr, Kremhelmer und Schmidt (2008)

30%

60%

30%



= 0,6

30%



at = 4; ßt = 0,6

10%



at = l)ßi

at = 2; 1 Ound c = £ ; y , . falls c = 0

Wie bei Fehr und Schmidt steigt der Nutzen des Individuums i mit seinem monetären Gewinn^, und sinkt mit den Abweichungen des Anteils des Spielers i vom Mittelwert der Anteile aller beteiligten Spieler (1 In). Des Weiteren gehen auch Bolton und Ockenfels von einer heterogenen Population von Spielern aus, die durch eine Verteilungsfunktion F(ai/bi) erfasst wird. Im Gegensatz zu Fehr und Schmidt werden jedoch nicht mehr alle Auszahlungsdifferenzen bilateral verglichen. Außerdem wird nicht nach Abweichungen zu Gunsten und zum Nachteil des betrachteten Spielers unterschieden. Trotzdem lässt sich feststellen, dass die Grundidee der beiden Ansätze sehr ähnlich, beinahe identisch ist und dass die Unterschiede im Detail von eher untergeordneter Bedeutung sind. 3.2. Wohlfahrtspräferenzen Die Ungleichheitsaversion-Ansätze basieren auf der Vorstellung einer Präferenz für eine möglichst gleiche (.gerechte') Verteilung der Gewinne. Dies hat zur Folge, dass die

Soziale Präferenzen und begrenzte

Rationalität

37

Gewinne anderer Spieler, sofern sie größer sind als die des betrachteten Spielers, negativ in die Nutzenfunktionen eingehen. Charness und Rabin (2002) formulieren ein alternatives Modell, in dem die Auszahlungen der jeweils anderen Spieler den eigenen Nutzen erhöhen. Eine vereinfachte Version der von Ihnen vorgeschlagenen Nutzenfunktionen sieht wie folgt aus:

mit flj < 1 als Gewichtungsparameter. Der Nutzen eines Spielers ergibt sich somit als gewichtete Summe der Gewinne aller Spieler. Bei Charness und Rabin ist die Höhe des Gewichtungsparameters davon abhängig, wie hoch das relative Einkommen des Individuums i ausfällt. Die mit diesem Ansatz verbundene Grundidee besteht darin, dass Spieler mitunter dazu bereit sind, eigene Gewinne zu opfern, wenn dafür die Gewinne der anderen Spieler hinreichend stark ansteigen. Charness und Rabin schätzen das beschriebene Modell mit den Daten aus einer Reihe unterschiedlicher Experimente und kommen zu dem Ergebnis, dass der Gewichtungsparameter 0j etwa bei 0,42 liegt, wenn der eigene Gewinn den der Mitspieler übertrifft. Anderenfalls unterscheidet er sich nicht signifikant von null. Ein weiteres Ergebnis dieser Schätzungen besteht darin, dass sie die Daten mit Wohlfahrtspräferenzen besser rekonstruieren können als mit Ungleichheitsaversion-Präferenzen. Zum selben Ergebnis kommen Engelmann und Strobel (2004) in ihrer Auswertung einer anderen Menge von Experimenten. Problematisch an diesem Vergleich ist jedoch, dass die Vertreter des Ansatzes mit Wohlfahrtspräferenzen in ihren Schätzungen die Heterogenität der Akteure, wie sie zum Beispiel in Tabelle 1 dargestellt wird, sowie die Interaktion zwischen den verschiedenen Typen von Spielern ausblenden. Damit werden sie der Grundidee des Ungleichheitsaversionsansatzes nicht wirklich gerecht und erzeugen gleichzeitig eine Verzerrung der Schätzungen zu ihren Gunsten. Trotzdem bleibt festzuhalten, dass die Idee der Wohlfahrtspräferenzen eine ernst zu nehmende Alternative zur Ungleichheitsaversion darstellt.

3.3. Ein Beispiel für die Funktionsweise der Gleichgewichte mit sozialen Präferenzen Im Folgenden soll kurz ein typisches Gleichgewicht des Ungleichheitsaversions-Ansatzes für das Gift-exchange-Spiel skizziert werden. Dazu wird unterstellt, dass die Population der potentiellen Spieler in zwei Typen eingeteilt werden kann: 60 Prozent der Spieler seien rein eigennützig (a t = ßi = 0), 40 Prozent der Spieler hingegen ungleichheitsavers mit = 2 und ßi = 0,75. Das konkrete Spiel lässt sich wie folgt beschreiben: In Stufe 1 unterbreitet der Prinzipal ein Vertragsangebot, bestehend aus einem Fixlohn w € {0,1,2, ...,100} und einem unverbindlichen Vorschlag für den Arbeitseinsatz des Agenten e € {0,1,0,2, ...,1}. In Stufe 2 nimmt der Agent das Angebot an oder er lehnt es ab. In Stufe 3 bestimmt der Agent seinen Arbeitseinsatz e € {0,1,0,2,..., 1}. Die damit verbundenen Kosten c(e) werden in Abbildung 2 abgebildet.

38

Mathias Erlei

Abbildung 2: Die Kosten des Arbeitseinsatzes im Gift-exchange-Spiel e c(e)

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1

0

1

2

4

6

8

10

12

15

18

Die monetären Auszahlungen für die beiden Spieler betragen UA = w — c(e) und Up — lOOe — w. Die teilspielperfekten Nash-Gleichgewichte dieses Spiels mit ausschließlich eigennützigen Spielern bestehen aus einem angebotenen Fixlohn von w = 0 oder w = 1, der Annahme dieses Angebotes und einem Arbeitseinsatz von e = 0,1. Betrachtet man nun den Fall, in dem 40 Prozent der Individuen Präferenzen mit Ungleichheitsaversion aufweisen, ergeben sich folgende Gleichgewichte. In Stufe 3 wählen eigennützige Agenten stets den minimalen Arbeitseinsatz e = 0,1. Ungleichheitsaverse Agenten werden jedoch bei hinreichend hohen Fixlöhnen freiwillig einen höheren Arbeitseinsatz liefern, um eine Angleichung der monetären Gewinne zu ermöglichen. Abbildung 3 zeigt das entsprechende Verhalten der ungleichheitsaversen Agenten. Abbildung 3: Der Arbeitseinsatz ungleichheitsaverser Agenten im Gleichgewicht w

0..9

e0pt

0,1

10.. 14 0,2

15.. 20 0,3

21.. 26 0,4

27.. 32 0,5

33.. 38 0,6

39.. 44 0,7

45.. 51 0,8

52.. 57

58.. 100

0,9

1

In Stufe 2 des Spiels akzeptieren eigennützige Agenten jedes Vertragsangebot. 2 Ungleichheitsaverse Agenten akzeptieren die Vertragsangebote jedoch nur dann, wenn w > 4. In Stufe 1 wählen eigennützige Prinzipale Verträge mit w = 4 oder w = 0. In beiden Fällen erhalten Sie einen erwarteten Gewinn in Höhe von UP = 6, da ungleichheitsaverse Agenten Lohnangebote von null ausschlagen. Beide Agententypen wählen den minimalen Arbeitseinsatz e = 0,1, sodass die Gewinne der Agenten 4 bzw. 0 betragen. Ungleichheitsaverse Prinzipale entscheiden sich im Gleichgewicht für einen Lohnangebot von w = 5. Dies hat zur Folge, dass beide Agententypen das Vertragsangebot annehmen und beide Agententypen den minimalen Arbeitseinsatz e = 0,1 liefern, sodass die Gewinne im Gleichgewicht identisch sind (UP = UA = 5). Der Nutzen der Prinzipale beträgt dann U= 5. Dieser Nutzen ist höher als zum Beispiel derjenige, den der ungleichheitsaverse Prinzipal mit w = 4 erzielen könnte: UP(w = 4) = (10 - 4) - 2 • max{4 - (10 - 4), 0} - 0,75 • max{(10 - 4) - 4,0} = 6 - 1,5 = 4,5. Schon dieses einfache Beispiel illustriert, dass die Verwendung sozialer Präferenzen dazu beitragen kann, Abweichungen der experimentellen Daten vom Nash-Gleich-ge-

2

Dabei wird erneut unterstellt, dass die Agenten bei Indifferenz die Vertragsangebote annehmen.

Soziale Präferenzen und begrenzte Rationalität

39

wicht zu erklären. In analoger Weise kann gezeigt werden, dass ungleichheitsaverse Akteure ,unfaire' Vertragsangebote ablehnen, was sowohl für Experimente zur adversen Selektion, zum moralischen Wagnis und zum Holdup-Problem gilt. Darüber hinaus lassen sich in Experimenten zum moralischen Wagnis freiwillige Mehrleistungen der Agenten, die Wirkungslosigkeit von Strafzahlungen und die Funktionsfahigkeit von unverbindlichen Bonuszahlungs-Versprechen rekonstruieren. In den Holdup-Experimenten kann nachgezeichnet werden, warum das Unterinvestitionsproblem schwächer ausfällt als die Standardtheorie prognostiziert und warum Spieler, die vergleichsweise hohe spezifische Investitionen vorgenommen haben, einen überraschend großen (Neu-)Verhandlungserfolg aufweisen. Es bleiben jedoch auch Erklärungslücken. Falls es zum Beispiel in einem experimentellen Spiel möglich ist, ungleiche Gewinne zwischen den Akteuren durch Anpassung einer Fixzahlung (zum Beispiel Fixlöhne) zu vermeiden, können verbleibende Ineffizienzen (etwa ineffiziente Neuverhandlungen im Holdup-Spiel oder eine zu geringe Anreizintensität in Moral-Hazard-Spielen) nicht erklärt werden. Schließlich gilt es auch zu bedenken, dass der bessere Fit der UngleichheitsaversionsModelle mit den Daten nicht zuletzt auch dadurch erkauft wurde, dass zusätzliche Modellparameter (ai, ßi, die Anzahl der Präferenztypen und die Verteilung der Typen in der Population) eingeführt wurden, die den Freiheitsgrad zur (nicht ganz unwillkürlichen) Anpassung des Modells an die Daten substantiell erhöht haben.

4.

Begrenzte Rationalität

Sowohl die Ungleichheitsaversions- als auch die Wohlfahrtspräferenz-Modelle basieren auf der Annahme vollkommener Rationalität und stellen - zumindest aus methodischer Sicht - ein Beispiel für die übliche neoklassische Vorgehensweise dar. Letztlich wird nur die Zielfunktion der Akteure modifiziert, ansonsten bleibt alles beim Alten. Güth und Kliemt (2003) kritisieren diese Vorgehensweise als (neo-)klassische Reparaturen und fordern eine grundlegendere Neuorientierung. Eine denkbare Vorgehensweise besteht darin, die Annahme vollkommener Rationalität aufzugeben. Da allgemein anerkannt wird, dass Menschen zumindest nicht vollkommen irrational handeln, hat sich hierfür der Ausdruck ,begrenzte Rationalität' etabliert. Herbert Simon (1957, 1959, 1961) hat in diesem Zusammenhang das Konzept des satisfizierenden Akteurs entwickelt. Satisfizierende Personen sind sich ihrer kognitiven Grenzen bewusst und beschränken sich in ihrem Verhalten darauf, zufriedenstellende (anstelle von optimalen) Lösungen zu finden. Ob eine Handlungsalternative als zufriedenstellend einzuordnen ist, hängt davon ab, ob das vorgegebene Anspruchsniveau des Entscheidungsträgers im Hinblick auf das zu lösende Problem erreicht wird oder nicht. Sauermann und Selten (1962) haben die Grundidee weiter entwickelt, indem sie das Anspruchsniveau der Akteure endogenisieren. Auch wenn das ,Satisficing' in den sechziger und siebziger Jahren durchaus wiederholt angewendet wurde, findet es in der modernen experimentellen Literatur, insbesondere im Hinblick auf die Vertragstheorie, kaum noch Beachtung. Die Ursache hierfür liegt meines Erachtens in zwei Schwächen: Zum einen blieben die Freiheitsgrade der Modellierung letztlich zu groß, sodass der bessere Fit zu den Daten

40

Mathias Erlei

wenig überraschen und auch nur bedingt überzeugen kann. Zum anderen ist die Modellierung deutlich aufwändiger als mit den üblichen neoklassischen Instrumenten, was die Frage aufwirft, ob die erzielten Erkenntnisgewinne die zusätzlichen Kosten dieser Modellierung rechtfertigen. Auch Oliver Williamson (1985) und Douglass North (1990) betonen wiederholt die große Bedeutung der begrenzten Rationalität, liefern jedoch kaum Anhaltspunkte für eine konkrete modelltechnische Umsetzung. Selbst Norths Konzept der mentalen Modelle bleibt weitgehend unbestimmt und eignet sich nur bedingt zur Formulierung empirisch widerlegbarer Hypothesen. Eine wichtige Ausnahme von diesem .Scheitern' der Ansätze zur begrenzten Rationalität stellt das Konzept der Quantenreaktionsgleichgewichte (quantal response equilibria; McKelvey und Palfrey 1995, 1998) dar, das insbesondere auch im Zusammenhang mit Experimenten zur ökonomischen Vertragstheorie angewendet wird.

4.1. Quantenreaktionsgleichgewichte Die Grundidee der Quantenreaktionsgleichgewichte ist vergleichsweise einfach: Menschen machen Fehler, d.h. sie wählen nicht immer die optimalen Verhaltensweisen, und jede mögliche Handlung wird mit einer strikt positiven Wahrscheinlichkeit gewählt. Gleichzeitig werden jedoch Maßnahmen, die einen höheren erwarteten Gewinn zur Folge haben, mit höherer Wahrscheinlichkeit gewählt als solche, die nur einen geringen Gewinn erwarten lassen. Ausgehend davon, dass alle an einem Spiel beteiligten Akteure eine Vorstellung von der Wahrscheinlichkeit des Verhaltens der anderen beteiligten Personen haben - es wird also eine Wahrscheinlichkeitsverteilung bezüglich der von den anderen Spielern verfolgten Strategiekombinationen (pr_¡) unterstellt lässt sich für jede Handlungsalternative j eines Spielers i der daraus resultierende erwartete Nutzen £ t / y ( p r _ ; ) berechnen. Aus diesen Erwartungsnutzen wird für alle Strategien des Spielers i die Auswahlwahrscheinlichkeit bestimmt. In allen dem Verfasser bekannten Anwendungen wurde dabei die Logit-Variante des Quantenreaktionsmodells verwendet, das die Wahrscheinlichkeit a t ¡ der Wahl einer bestimmten Strategie j durch Spieler i nach folgender Formel berechnet: e

EUijipr^i) ß

Ein Logit-Quantenreaktionsgleichgewicht (LQRE) liegt dann vor, wenn alle Spieler die Strategie-Wahlwahrscheinlichkeiten gemäß Gleichung (1) bestimmen und wenn außerdem ihre Erwartungen bezüglich des Verhaltens der anderen Spieler mit den in Gleichung (1) bestimmten Wahrscheinlichkeiten übereinstimmen, wenn also gilt =

Pr-ij-

Der in Gleichung (1) verwendete Parameter ß erfasst das Ausmaß des Abweichens der Akteure von den jeweils optimalen Strategien. Konvergiert der Parameter gegen unendlich, dann wird jede mögliche Strategie mit derselben Wahrscheinlichkeit gewählt, es

Soziale Präferenzen und begrenzte Rationalität

41

liegt also ein Fall vollkommenen Fehlens rationaler Abwägungen vor. Konvergiert umgekehrt der Parameter gegen null, dann konvergiert das LQRE gegen ein sequentielles Nash-Gleichgewicht (McKelvey und Palfrey 1995, S. 12). Da das Konzept des NashGleichgewichts vollkommene Rationalität unterstellt, lässt sich somit der Parameter ß als Rationalitätsindex interpretieren. Möchte man sich nicht auf den Informationsgehalt der strategischen Form eines Spiels beschränken, sondern auch die zusätzlichen, in der extensiven Form des Spiels enthaltenen Informationen berücksichtigen, dann kann man auf eine Erweiterung des Konzepts zurückgreifen: Im Logit-Agenten-Quantenreaktionsgleichgewicht (logit agent quantal response equilibrium; LAQRE) wird das LQRE auf die Agenten-Normalform des Spiels angewandt (McKelvey und Palfrey 1998). Das LQRE bzw. einige Varianten hiervon haben sich in der Zwischenzeit in vielen Anwendungen so gut bewährt (z.B. Anderson et al. 1998, 2001, 2004, Goeree und Holt 2000, 2001, Erlei und Schenk-Mathes 2012), dass Camerer et al. (2005, S. 167) fordern: „Quantal response equilibrium (QRE), a statistical generalization of Nash, almost always explains the direction of deviations from Nash and should replace Nash as the static benchmark to which other models are routinely compared."

4.2. Ein einfaches Beispiel für die Anwendung des LAQRE Im Folgenden soll zur Illustration der Funktionsweise des Quantenreaktionsgleichgewichts erneut die einfachste Variante des Gift-exchange-Spiels untersucht werden. Auf diese Weise kann das hier ermittelte Gleichgewicht auch mit dem oben besprochenen Gleichgewicht bei sozialen Präferenzen verglichen werden. Da es sich hierbei um ein Spiel in der extensiven Form handelt, wird das LAQRE- Konzept verwendet. Des Weiteren wird - ohne weitere Begründung 3 - davon ausgegangen, dass n = 10. Schließlich werden rein eigennützige, materielle Präferenzen unterstellt. In Stufe 3 des Spiels bestimmt der Agent seinen Arbeitseinsatz. Der zu erwartende nutzen aus dieser Entscheidung entspricht EU = w — c(e). Da der Fixlohn fur alle zulässigen Arbeitseinsätze des Agenten derselbe ist, entfallt er (durch Kürzung) in Gleichung (1). Damit variiert der erwartete Nutzen des Agenten ausschließlich über die Kosten seines Arbeitseinsatzes und es ergeben sich die in Abbildung 4 dargestellten Wahrscheinlichkeiten der Wahl des Arbeitseinsatzes (,Pr effort').

3

Üblicherweise wird dieser Parameter mithilfe eines Maximum Likelihood-Verfahrens geschätzt. Dies ist hier mangels Datenverfugbarkeit nicht möglich.

42

Mathias Erlei

Abbildung 4: Wahrscheinlichkeiten des Arbeitseinsatzes im LAQRE Pr effort

Da der erwartete Nutzen der Agenten mit zunehmendem Arbeitseinsatz sinkt, sinken auch die Auswahlwahrscheinlichkeiten im LAQRE. Die Wahrscheinlichkeitsverteilung bei Fehr und Gächter (2002) hat einen ähnlichen, wenngleich etwas steileren Verlauf. Letzteres spricht dafür, dass ein kleinerer Wert für fi angebracht wäre. In Stufe 2 des Spiels entscheidet der Agent darüber, ob er das Vertragsangebot des Prinzipals annimmt oder nicht. Mithilfe der soeben besprochenen Wahrscheinlichkeiten für die Wahl des Arbeitseinsatzes lässt sich nun der erwartete Nutzen aus einer Annahme des Angebots errechnen. Dieser variiert natürlich mit dem angebotenen Fixlohn, sodass eine Annahmewahrscheinlichkeit für jedes zulässige Niveau des Lohnsatzes ermittelt werden muss. Abbildung 5 zeigt das Ergebnis dieser Berechnungen. Abbildung 5: Vertragsannahmewahrscheinlichkeiten im LAQRE Pr(Ann)

Pr(Ann)

Abbildung 5 zeigt, dass die Annahmewahrscheinlichkeit mit steigendem Lohnniveau zunimmt. Bei einem Lohnangebot von null ist die Annahmewahrscheinlichkeit geringer

Soziale Präferenzen und begrenzte Rationalität

43

als 50 Prozent, da die Agenten in der folgenden Stufe mit strikt positiver Wahrscheinlichkeit Arbeitseinsätze in Höhe von e > 0,1 wählen und dadurch negative Nutzen erleiden würden. In Stufe 1 bestimmt der Prinzipal den Lohnsatz, den er dem Agenten anbietet. Unter Berücksichtigung des Annahme- und Arbeitseinsatzverhaltens des Agenten in den folgenden Stufen kann für jedes zulässige Lohnangebot ein erwarteter Nutzen ermittelt werden. Einsetzen in Gleichung (1) führt dann zur Wahrscheinlichkeitsverteilung (,pr wage') in Abbildung 6. Abbildung 6: Wahrscheinlichkeitsverteilung der Lohnangebote im LAQRE pr w a g e

prwage Abbildung 6 bringt zum Ausdruck, dass ein zu ,gieriges' Lohnangebot von null für den Prinzipal nur von geringem Interesse ist, da es von den Agenten zu häufig abgelehnt wird. Der erwartete Gewinn wird bei einem Lohnangebot von w = 11 (das Maximum in Abbildung 3) maximiert. Da jedoch auch der Prinzipal nur begrenzt rational ist, erhalten auch die anderen zulässigen Lohnsätze positive Wahrscheinlichkeiten. Bei einem Lohnsatz von w = 1 1 betragen die Annahmewahrscheinlichkeit 65 Prozent und der Erwartungswert des Arbeitseinsatzes E(e) = 0,40. Damit wird deutlich, auf welche Weise das LAQRE erklärt, warum (a) die Lohnangebote, (b) die Ablehnungswahrscheinlichkeiten und (c) die Arbeitseinsätze höher ausfallen als gemäß Nash-Gleichgewicht zu erwarten gewesen wäre. Nicht erklärt werden kann allerdings, warum das Verhalten der Probanden bei Fehr und Gächter (2002) einen positiven Zusammenhang zwischen Lohnsatz und Arbeitseinsatz, also positive Reziprozität, aufweist. Mit dem Wissen um die Natur des LAQRE-Gleichgewichts in diesem einfachen Giftexchange-Spiel lässt sich intuitiv recht gut erfassen, warum dieses Gleichgewichtskonzept auch bei anderen experimentellen vertragstheoretischen Anwendungen die festgestellten Abweichungen vom Nash-Gleichgewicht vergleichsweise gut erklären kann. Für Experimente mit adverser Selektion wurde festgestellt, dass ,unfaire' Verträge überraschend häufig abgelehnt wurden. Die Nash-Gleichgewichte solcher Spiele führen

44

Mathias Erlei

häufig zu einseitigen Verteilungen der Gewinne, was zur Folge hat, dass die benachteiligte Seite nur sehr geringe Kosten des Scheiterns der Vertragsverhandlungen aufweist. Entsprechend der Logik der Quantenreaktionsgleichgewichte führt dies zu Ablehnungswahrscheinlichkeiten von nahe 50 Prozent und damit zu großen Effizienzeinbußen für die vermeintlich bevorzugte Partei. Dies lässt sich noch weiter verallgemeinern: Ein großer Teil der Nash-Gleichgewichte (und Mechanismen), die auf dem richtigen Verhalten einer Person bei Indifferenz (oder marginalen Auszahlungsdifferenzen) basieren, werden aus Sicht des LQRE- Konzepts nicht funktionieren, da nahezu indifferente Personen die entsprechenden Handlungsmöglichkeiten mit nahezu gleichen Wahrscheinlichkeiten auswählen werden. In Modellen mit moralischem Wagnis können Quantenreaktionsgleichgewichte nachvollziehbar machen, warum die optimalen Anreizintensitäten nicht mit hinreichend hohen Wahrscheinlichkeiten gewählt werden. Auch lässt sich die Wahrscheinlichkeitsverteilung der angebotenen Verträge (mit oder ohne Erlösbeteiligung) mit Quantenreaktionsgleichgewichten deutlich besser rekonstruieren als mit Nash-Gleichgewichten. So finden beispielsweise Erlei und Schenk-Mathes (2012), dass die gemäß Nash-Gleichgewichten prognostizierten Verträge (es gab multiple Gleichgewichte) nicht in einem von 708 Fällen gewählt wurden! Die prognostizierte Wahrscheinlichkeitsverteilung gemäß LAQRE konnte die empirische Verteilung der Verträge jedoch vergleichsweise gut rekonstruieren. In Holdup-Experimenten lässt sich mithilfe der Quantenreaktionsgleichgewichte nachvollziehen, warum das Unterinvestitionsproblem nur in abgeschwächter Form zu erkennen ist und warum in den Neuverhandlungen regelmäßig Ineffizienzen festzustellen sind. Dass vermeintliche First-best-Lösungen bestenfalls unvollkommen wirken, muss, da .Fehler' im Konzept des Quantenreaktionsgleichgewichts quasi fest verankert sind, nicht mehr betont werden. Schließlich sollte nicht unerwähnt bleiben, dass das Quantenreaktions-gleichgewichtskonzept grundsätzlich offen ist für die Integration sozialer Präferenzen. Auch hierzu existieren bereits einige Ansätze. Beispielsweise haben Fischbacher et al. (2009) Ultimatumspiele mit und ohne Wettbewerb untersucht. In ihrem theoretischen Ansatz verknüpfen sie das Ungleichheitsaversionsmodell von Fehr und Schmidt mit dem LAQRE. Tatsächlich können sie alle wesentlichen Eigenschaften des Verhaltens in den verschiedenen Treatments zufriedenstellend erklären. Hoppe und Schmitz (2013) verknüpfen ebenfalls Ungleichheitsaversion mit dem Konzept der Quantenreaktionsgleichgewichte, um das Verhalten in einem Adverse-Selektions-Experiment zu erklären. Eines ihrer zentralen Ergebnisse ist, dass die Wirkung sozialer Präferenzen deutlich schwächer ausfallt als in Untersuchungen, die nicht in einen LQRE- Kontext eingebettet sind. In Erlei und Schenk-Mathes (2012) liefert der Einbezug sozialer Präferenzen keinen über das reine LAQRE hinausgehenden Erklärungsgehalt für das Verhalten der Probanden.

4.3. Die grundsätzliche Bedeutung der begrenzten Rationalität Die begrenzte Rationalität ist nicht nur deshalb von Bedeutung, weil sie zumeist das Verhalten realer Menschen in Kleingruppeninteraktionen präziser rekonstruieren kann als Nash-Gleichgewichte, sondern auch deshalb, weil bedeutende ökonomische Probleme bei

Soziale Präferenzen und begrenzte Rationalität

45

Unterstellung vollständiger Rationalität zum Teil gar nicht erfasst werden können. Ein Beispiel hierfür liefert die Theorie unvollständiger Verträge. Während Williamson (1975, 1985) die begrenzte Rationalität ins Zentrum seiner Analyse der Transaktionskosten (inklusive des Holdup-Problems) stellt, verzichtet die spieltheoretische Analyse des Holdup-Problems, so wie sie im Rahmen der Theorie unvollständiger Verträge (Grossman und Hart 1986; Hart und Moore 1988,1990 und eine Vielzahl sich hieran anschließender Beiträge) vorgestellt wurde, vollständig auf die Begrenztheit der Rationalität. Zunächst glaubte man, das Unterinvestitionsproblem damit präziser erfasst zu haben als dies bei Williamson der Fall war. Mit diesem vermeintlich tieferen Verständnis entwickelte sich eine intensive Diskussion darüber, wie das grundlegende Problem durch vertragliche oder organisatorische Alternativen möglichst perfekt gelöst werden kann bzw. welchen Grenzen solche Lösungsversuche unterliegen (z.B. Nöldeke und Schmidt 1995, deMeza und Lockwood 1998, Che und Hausch 1999). Schließlich zeigte sich jedoch, dass mithilfe eines ausgeklügelten Mechanismus' (Maskin und Tirole 1999, Maskin und Moore 1999, Maskin 2002) das Unterinvestitionsproblem überwunden werden kann: Selbst wenn die Transaktionspartner nicht dazu in der Lage sind, die möglichen zukünftigen Umweltzustände in einem Vertrag zu beschreiben, können sie dieselben Investitionen und dasselbe Wohlfahrtsniveau wie in einem vollständigen Vertrag erreichen. Dazu genügt es, dass die Transaktionsparteien vollkommen rational und risikoavers sind sowie dass sie die Wahrscheinlichkeiten ihrer zukünftigen Gewinne antizipieren können (vgl. Maskin 2002). Dieses Ergebnis stellt die theoretischen Grundlagen eines ganzen Forschungszweigs die Theorie unvollständiger Verträge - infrage. In der Folgezeit nahm das Interesse an der Rolle spezifischer Investitionen sowohl in der Vertrags- als auch in der Unternehmenstheorie immer weiter ab. Erlei und Roß (2014) zeigen jedoch, dass der von Maskin und seinen Koautoren entwickelte Mechanismus zumindest in einem Laborexperiment vollständig scheitert: Die Gewinne der Probanden sanken bei Anwendung des Mechanismus unter das Niveau der Gewinne, die erzielt werden könnten, wenn alle Seiten das Holdup-Problem ignorierten, d.h. wenn sie keine Investitionen durchführten und damit das schlechtest mögliche Ergebnis des ursprünglichen Property-Rights-Modells realisierten. Bezugnehmend darauf, dass das LAQRE das Laborverhalten der Teilnehmer vergleichsweise gut rekonstruieren kann, interpretieren Erlei und Roß das Scheitern des Maskin-Mechanismus als Folge der begrenzten Rationalität der Probanden. Ein deutlich besseres Ergebnis erzielten die Experimentteilnehmer hingegen in einem Treatment, indem sie durch eine vertikale Integration zumindest einseitige spezifische Investitionen institutionell absichern konnten. Diese im Vergleich zum Maskin-Mechanismus sehr einfache organisatorische Lösung, die Williamson (1985) als Lösungsansatz für begrenzt rationale Menschen vorgeschlagen hat, kann man somit zumindest als wirksam bezeichnen. Darüber hinaus wird ersichtlich, dass spezifische Investitionen nach wie vor ein wichtiger Bestandteil einer umfassenden Theorie der Unternehmung sein können. In einem solchen Ansatz dürfte jedoch der auf der begrenzten Rationalität basierenden Transaktionskostentheorie ein höheres Gewicht gegeben werden als der Property-RightsTheorie (mit ihrer Annahme der vollkommenen Rationalität). Dies ist sogar im Einklang mit Maskins eigener Einschätzung seiner Ergebnisse, so schreibt Maskin (2002, S. 732):

46

Mathias Erlei

„This suggests that 'bounded rationality' could be a potentially fruitful explanation of incompleteness." Maskin bezweifelt aber an gleicher Stelle, dass eine geeignete ökonomische Theorie begrenzt rationalen Verhaltens verfügbar sei. Dem soll an dieser Stelle jedoch widersprochen werden: Das Quantenreaktionsgleichgewicht ist zumindest ein Ansatz, der zu systematisch besseren Prognosen über das Verhalten der beteiligten Personen fuhrt als das üblicherweise verwendete Nash-Gleichgewicht.

4.4. Lernprozesse und agentenbasierte Modelle In vielen ökonomischen Experimenten finden sich Hinweise auf die Relevanz von Lerneffekten: Das Verhalten der Teilnehmer in frühen Perioden einer Session unterscheidet sich deutlich von dem späteren Verhalten derselben Personen. In manchen Experimenten, hier wären insbesondere die Doppelten Auktionen zu nennen, erfolgt der damit verbundene Lernprozess in sehr hoher Geschwindigkeit, so dass vermutet werden kann, dass noch während des Laborexperiments die wesentlichen Lernprozesse abgeschlossen werden. In anderen Experimenten (vgl. z.B. Erlei und Schenk-Mathes 2012) spricht manches dafür, dass in weiteren Perioden noch gewisse Anpassungen zu erwarten gewesen wären. Möchte man auch diesen Aspekt wirtschaftlichen Verhaltens untersuchen, so genügt es nicht mehr, Gleichgewichtsanalysen vorzunehmen. Vielmehr müssen die Lerndynamiken explizit abgebildet werden. Inzwischen existiert eine durchaus große Zahl unterschiedlicher Lernmodelle, die dabei verwendet werden könnten. Ein anschaulicher Überblick hierzu findet sich bei Brenner (2006). Nach Einschätzung des Verfassers dieses Beitrages lassen sich Lernprozesse am besten in Simulationsmodellen darstellen. Hierzu bieten sich insbesondere die so genannten ,agentenbasierten Modelle' an. Die moderne objektorientierte Programmierung bietet die Möglichkeit, (virtuelle) Personen als Objekte mit statischen und dynamischen Eigenschaften abzubilden. Zu den statischen Eigenschaften, die sich im Verlauf der Simulation nicht ändern, gehören zum Beispiel die unterstellte Präferenzstruktur eines Haushalts und seine Handlungsalternativen. Zu den sich im Ablauf der Simulation ändernden Eigenschaften gehören der Informationsstand der Agenten, ihr Lernen, Produzieren und Handeln sowie mögliche Ortswechsel. In den meisten agentenbasierten Modellen beginnen die Agenten mit einer zufällig ausgewählten Verhaltensweise und bewerten das daraus resultierende Ergebnis im Rahmen eines Lernalgorithmus. Aus diesem Lernalgorithmus ergeben sich Wahrscheinlichkeiten für die Auswahl zukünftiger Handlungen, deren Realisation dann zu weiterem Lernen und veränderten Handlungswahrscheinlichkeiten führt. Auf diese Art und Weise ist es möglich, zum Teil äußerst komplexe Strukturen, die einer analytischen Lösung nicht zugänglich sind, zu untersuchen. Zum Beispiel können die Institutionen und die Umweltvariablen eines Laborexperimentes ziemlich exakt nachgebildet werden, so dass anschließend verglichen werden kann, inwieweit der programmierte Lernprozess zu einem Verhalten fuhrt, das mit dem der Experiment-Teilnehmer weitgehend übereinstimmt. Umgekehrt kann auch das Verhalten in Laborexperimenten dazu verwendet werden, Simulationsmodelle für wesentlich komplexere Systeme als die eines Laborexperiments zu kalibrieren.

Soziale Präferenzen und begrenzte

Rationalität

47

Agentenbasierte Modelle und die experimentelle Wirtschaftsforschung haben eine weitere Gemeinsamkeit: Einige ihrer bedeutendsten Studien beziehen sich auf die Doppelte Auktion. Im Experimentallabor hat sich gezeigt, dass Märkte, die in Form einer Doppelten Auktion organisiert sind, bemerkenswert schnell zu gleichgewichtigen Preisen finden und darüber hinaus auch einen überraschend hohen Effizienzgrad aufweisen. Gode und Sunder (1993) haben die Doppelte Auktion als agentenbasiertes Modell simuliert. Das Aufsehen erregende Ergebnis dieser Studie besteht darin, dass selbst Händler die nur ein minimales Ausmaß an (programmierter) Intelligenz besitzen - so genannte Zero-Intelligence Traders - zu Effizienzgraden von deutlich über 90 % führen. Die Kombination der Ergebnisse aus diesen Studien legen nahe, dass wettbewerbliche Märkte keineswegs nur mit vollkommen rationalen Personen, sondern auch mit extrem fehlerbehafteten Akteuren funktionieren. Während die neoklassische Theorie zur Ableitung ihrer effizienten Marktgleichgewichte die Annahme vollkommener Rationalität benötigt, zeigen die Doppelte-Auktions-Märkte im Labor und in der Simulation, dass die Institutionen des Marktes als wirksames Substitut für das Fehlen der individuellen Rationalität angesehen werden können! Ein solches Ergebnis hat weitreichende Konsequenzen: So kann zum Beispiel die Kritik an der neoklassischen Rationalitätsannahme nicht als hinreichende Begründung für Marktversagen angesehen werden. Die umgedrehte Argumentation trifft es wesentlich besser: Gerade das Fehlen vollkommener Rationalität und vollkommener Informationen in der Realität liefert den entscheidenden Grund dafür, warum es schädlich ist, den wettbewerblichen Marktprozess daran zu hindern, seine Informations- und Allokationsfunktion zu erfüllen.

5.

Fazit

In diesem Beitrag wurde versucht zu zeigen, dass soziale Präferenzen und die Begrenztheit der Rationalität eine wichtige Rolle beim Verständnis von Kleingruppeninteraktionen spielen. Anhand diverser Experimente zur ökonomischen Vertragstheorie wurde zunächst gezeigt, dass die herkömmliche Gleichgewichtsanalyse, die auf vollkommener Rationalität und einer am rein materiellen Eigennutz ausgerichteten Motivation basiert, das Verhalten der Teilnehmer in Experimenten nicht adäquat rekonstruieren kann. Die Abweichungen des tatsächlichen Verhaltens von den teilspielperfekten Gleichgewichten liefern Hinweise darauf, dass die Gewinne der Mitspieler in die Präferenzen der Spieler eingehen und/oder dass Abweichungen vom vollkommenen Rationalverhalten einen bedeutenden Beitrag zum Verständnis der untersuchten Probleme liefern. Als (prominente) Beispiele wurden der Ungleichheitsaversions-Ansatz und das Quantenreaktionsgleichgewicht auf das Modell des einfachen Gift-exchange-Spiels angewandt. Bei Präferenzen mit Ungleichheitsaversion (und heterogenen Populationen von möglichen Spielern) weist zumindest eine Teilmenge der Spieler eine Vorliebe für eine Gleichverteilung der Gewinne auf und passt ihr individuelles Verhalten an diese Präferenzen an. Darüber hinaus existiert auch ein zweiter, indirekter Effekt: Die positive Wahrscheinlichkeit, dass ein oder mehrere Mitspieler soziale Präferenzen haben, verändert auch die materiellen Anreize eines rein egoistischen Spielers, da dieser nunmehr von einem veränderten Verhalten seiner Mitspieler ausgehen muss.

48

Mathias Erlei

Im Quantenreaktionsgleichgewicht begehen alle beteiligten Spieler Fehler mit strikt positiver Wahrscheinlichkeit. Je größer die Auswirkungen eines Fehlers ausfallen, desto geringer wird die Wahrscheinlichkeit einer entsprechenden Fehlentscheidung. Die direkten Auswirkungen solcher Fehler bestehen darin, dass Spieler auf einer bestimmten Stufe eines Spiels mit nicht vernachlässigbarer Wahrscheinlichkeit vom Nash-Gleichgewichtspfad abweichen. Die indirekte Folge des Begehens von Fehlern im Quantenreaktionsgleichgewicht äußert sich darin, dass Fehler von Spielern die Anreizstruktur der anderen Spieler beeinflussen und damit sogar das Verhalten eines vollkommen rationalen Akteurs ändern würden. Im Unterschied zu Kleingruppeninteraktionen finden sich in wettbewerblichen Marktexperimenten deutlich weniger Anzeichen für das Wirken sozialer Präferenzen oder die Bedeutung der begrenzten Rationalität. Die Ursache hierfür besteht darin, dass soziale Präferenzen in einem wettbewerblichen Kontext ausgehebelt werden (vgl. z.B. Fischbacher et al. 2009) und dass der wettbewerbliche Marktprozess dazu in der Lage ist, die Unvollkommenheit der individuellen Rationalität und der individuellen Informationsausstattung zu kompensieren. Im Rahmen dieses Prozesses erzeugt der Marktprozess die Informationen, die den Akteuren auf individueller Ebene fehlen, und lenkt die individuellen Verhaltensweisen in Richtung gesellschaftlich optimaler Zustände. Im Hinblick auf das Thema dieses Bandes (Verhaltensökonomik und Wirtschaftspolitik) ergeben sich somit zwei grundlegende Einsichten: (1) Unvollkommene Informationen und begrenzte Rationalität fuhren keineswegs direkt zu einem Marktversagen. Im Gegenteil: der wettbewerbliche Marktprozess ist ein äußerst wirksames Mittel zur Überwindung dieser faktisch existierenden individuellen Restriktionen. (2) Das Design von Anreizsystemen für Kleingruppeninteraktionen, für die oftmals kein Wettbewerbsmechanismus als Substitut bereitsteht, wird bei Vernachlässigung von sozialen Präferenzen und der Begrenztheit der Rationalität in vielen Fällen kläglich scheitern. Die experimentelle Verhaltensökonomik legt somit nahe, fiir derartige Probleme realitätsnähere Modellierungsannahmen zu verwenden.

Literatur Akerlof, George A. (1970), The market for 'lemons': Qualitative uncertainty and the market mechanism, in: Journal of Economics, 84, S. 488-500. Anderhub, Vital, Simon Gächter, und Manfred Königstein (2002), Efficient Contracting and Fair Play in a Simple Principal-Agent Experiment, in: Experimental Economics, 5, S. 5-27. Anderhub, Vital, Manfred Königstein und Dorothea Kübler (2003), Long-Term Work Contracts versus Sequential Spot Markets: Experimental Evidence on Firm-Specific Investment, in: Labour Economics, 10, S. 407-425. Anderson, Simon P., Jacob K. Goeree und Charles A. Holt (1998), Rent Seeking with Bounded Rationality: An Analysis of the All-Pay Auction, in: Journal of Political Economy, 106, S. 828-53. Anderson, Simon P., Jacob K. Goeree und Charles A. Holt (2001), Minimum-Effort Coordination Games: Stochastic Potential and Logit Equilibrium, in: Games and Economic Behavior, 34, S. 177-199.

Soziale Präferenzen und begrenzte Rationalität

49

Anderson, Simon P., Jacob K. Goeree und Charles A. Holt (2004), Noisy Directional Learning and the Logit Equilibrium, in: Scandinavian Journal of Economics, 106, S. 581-602. Bolton, Gary E. und Axel Ockenfels (2000), A Theory of Equity, Reciprocity and Competition, in: American Economic Review, 100, S. 166-193. Brenner, Thomas (2006), Agent Learning Representation: Advice on Modelling Economic Learning, in: Leigh Tesfatsion und Kenneth L. Judd (Hg.), Handbook of Computational Economics, Vol. 2., Amsterdam, S. 895-947. Bruttel, Lisa V. und Gerald Eisenkopf (2009), Incentive compatible contracts?, Working Paper, University of Konstanz. Calabres, Antonio und Gary Charness (2003), Optimal Contracts, Adverse Selection and Social Preferences: An Experiment, Working Paper, University of California, Santa Barbara. Camerer, Colin F., Teck-Hua Ho und Juin Kuan Chong (2005), Behavioral Game Theory: Thinking, Learning, and Teaching, in: Steffen Huck (Hg.), Advances in Understanding Strategic Behavior, Essays in Honor of Werner Güth, Palgrave, London., S. 119-179. Chamess, Gary und Matthew Rabin (2002), Understanding social preferences with simple tests, in: Quarterly Journal of Economics, 117, S. 817-869. Che, Yeon-Koo und Donald B. Hausch (1999), Cooperative Investments and the Value of Contracting, in: American Economic Review, 89 (1), S. 125-147. de Meza, David und Ben Lockwood (1998), Does asset ownership always motivate managers? Outside options and the property rights theory of the firm, in: Quarterly Journal of Economics, 113, S. 361-86. Ellingsen, Tore und Magnus Johannesson (2004), Is there a hold-up problem?, in: Scandinavian Journal of Economics, 106, S. 475-94. Engelmann, Dirk und Martin Strobel (2004), Inequality Aversion, Efficiency, and Maximin Preferences in Simple Distribution Experiments, in: American Economic Review, 94, S. 857869. Erlei, Mathias und Wiebke Roß (2014), Bounded Rationality as an Essential Ingredient of the Holdup Problem, Working Paper, TU Clausthal. Erlei, Mathias und Heike Schenk-Mathes (2012), Bounded Rationality in Principal-Agent Relationships, Working Paper, TU Clausthal. Erlei, Mathias und J. Philipp Siemer (2013), Endogenous Property Rights in a Hold-Up Experiment, in: Metroeconomica, 65, S. 1-34. Fehr, Emst und Simon Gächter (2002), Do Incentive Contracts Crowd Out Voluntary Cooperation?, Working Paper, Universität Zürich. Fehr, Ernst, Alexander Klein und Klaus M. Schmidt (2004), Contracts, Fairness, and Incentives, CESifo Working Paper, 1215. Fehr, Ernst, Alexander Klein und Klaus M. Schmidt (2007), Fairness and Contract Design, in: Econometrica, 75(1), S. 121-154. Fehr, Ernst, Susanne Kremhelmer und Klaus M. Schmidt (2008), Fairness and the optimal allocation of ownership rights, in: Economic Journal, 118, S. 1262-1284. Fehr, Ernst und Klaus M. Schmidt (1999), A Theory of Fairness, Competition and Co-operation, in: Quarterly Journal of Economics, 114, S. 817-868. Fehr, Ernst und Klaus M. Schmidt (2004), Fairness and Incentives in a multi-task principal-agent model, in: Scandinavian Journal of Economics, 106, S. 453-474.

50

Mathias Erlei

Fischbacher, Urs, Christina M. Wong und Ernst Fehr (2009), Fairness, Errors and the power of competition, in: Journal of Economic Behavior and Organization, 72, S. 527-545. Gode, Dhananjay K. und Shyam Sunder (1993), Allocative Efficiency of Markets with Zero-Intelligence Traders: Market as a Partial Substitute for Individual Rationality, in: Journal of Political Economy, 101, S. 119-137. Goeree, Jacob K., and Charles. A. Holt (2000), Asymmetric Inequality Aversion and Noisy Behavior in Alternating-Offer Bargaining Games, in: European Economic Review, 44,107989. Goeree, Jacob K., and Charles A. Holt (2001), Ten Little Treasures of Game Theory and Ten Intuitive Contradictions, in: American Economic Review, 91, 1402-22. Grossman, Sanford J. und Oliver D. Hart (1986), The costs and benefits of ownership: a theory of vertical and lateral integration, in: Journal of Political Economy, 94, S. 691-719. Giith, Werner und Hartmut Kliemt (2003), Experimentelle Ökonomik: Modell-Platonismus in neuem Gewände?, in: Martin Held, Gisela Kubon-Gilke und Richard Sturn (Hg.), Experimente in der Ökonomik, Jahrbuch Normative und institutionelle Grundfragen der Ökonomik, 2, S. 315-342. Hackett, Steven C. (1993), Incomplete contracting: a laboratory experimental analysis, in: Economic Inquiry, 31, S. 274-97. Hackett, Steven C. (1994), Is relational exchange possible in the absence of reputations and repeated contact?, in: Journal of Law, Economics and Organization, 10, S. 360-89. Hart, Oliver und John Moore (1988), Incomplete Contracts and Renegotiation, in: Econometrica, 56, S. 755-785. Hart, Oliver und John Moore (1990), Property rights and the nature of the firm, in: Journal of Political Economy, 98, S. 1119-1158. Herweg, Fabian, Daniel Müller und Philipp Weinschenk (2010), Binary Payment Schemes: Moral Hazard and Loss Aversion, in: American Economic Review, 100, S. 2451-2477. Herweg, Fabian und Klaus M. Schmidt (2014), Loss Aversion and Inefficient Renegotiation, Working Paper, Universität München. Hoppe, Eva I. und Patrick W. Schmitz (2011), Can Contracts Solve the Hold-up Problem? Experimental Evidence, in: Games and Economic Behavior, 73, S. 186-199. Hoppe, Eva I. und Patrick W. Schmitz (2013), Contracting under Incomplete Information and Social Preferences: An Experimental Study, in: Review of Economic Studies, 80, S. 15161544. Kahneman, Daniel und Amos Tversky (1979), Prospect Theory: An Analysis of Decision under Risk, in: Econometrica, 47(2), S. 263-292. Königstein, Manfred (2001), Holdup, inefficiency and fairness - an experimental study, Working Paper, Humboldt University at Berlin. Lynch, Michael, Ross M. Miller, Charles R. Plott, und Russell Porter (1986), Product Quality, Consumer Information and 'Lemons' in experimental markets, in: Pauline M. Ippolito und David T. Scheffman (Hg.), Empirical Approaches to Consumer Protection Economics, Washington D.C., S. 251-306. Maskin, Eric (2002), On Indescribable Contingencies and Incomplete Contracts, in: European Economic Review, 46 (4-5), S. 725-733.

Soziale Präferenzen und begrenzte Rationalität

51

Maskin, Eric und John Moore (1999), Implementation and Renegotiation, in: Review of Economic Studies, 66 (1), S. 39-56. Maskin, Eric und Jean Tiróle (1999), Unforeseen Contingencies and Incomplete Contracts, in: Review of Economic Studies, 66 (1), S. 83-114. McKelvey, Richard D. und Thomas R. Palfrey (1995), Quantal Response Equilibria for Normal Form Games, in: Games and Economic Behavior, 10, S. 6-38. McKelvey, Richard D. und Thomas R. Palfrey (1998), Quantal Response Equilibria for Extensive Form Games, in: Experimental Economics, 1 (1), S. 9-41. Miller, Ross und Charles R. Plott (1985), Product Quality Signaling in Experimental Markets, in: Econometrica, 53, S. 837-872. Nöldeke, Georg und Klaus M. Schmidt (1998), Sequential investments and options to own, in: Rand Journal of Economics, 29, S. 633-653. North, Douglass C. (1990), Institutions, Institutional Change and Economic Performance, Cambridge. Olcina, Gonzalo, Enrique Fatas und Concepción Penarrubia (2000), Inequity aversion as an efficient equilibrium selection mechanism: An experimental analysis of the hold up problem, Working Paper 15/00, University of Valencia. Posey, Lisa L. (1999), Screening Equilibria in Experimental Markets, Working Paper, Penn State University. Sauermann, Heinz und Reinhard Selten (1962), Anspruchsanpassungstheorie der Unternehmung, in: Zeitschrift für die gesamte Staatswirtschaft, 118, S. 577-597. Simon, Herbert A. (1957), Models of Man, London and New York. Simon, Herbert A. (1959), Theories of Decision-Making in Economics and Behavioral Science, in: American Economic Review, 49, S. 253-283. Simon, Herbert A. (1961), Administrative Behavior, 2. Aufl., New York. Sloof, Randolph, Joep Sonnemans, Hessel Oosterbeek (2004), Specific investments, holdup, and the outside option principle, in: European Economic Review, 48, S. 1399-1410. Sloof, Randolph, Hessel Oosterbeek, Amo Riedl, Joep Sonnemans (2006), Breach remedies, reliance and renegotiation, in: International Review of Law and Economics, 26, S. 263-296. Sloof, Randolph, Hessel Oosterbeek, Joep Sonnemans (2007), Does making specific investments unobservable boost investment incentives?, in: Journal of Economics and Management Strategy, 16, S. 911-942. Sonnemans, Joep, Hessel Oosterbeek, Randolph Sloof (2001), On the relation between asset ownership and specific investments, in: Economic Journal, 111, S. 791-820. Williamson, Oliver E. (1975), Markets and Hierarchies: Analysis and Antitrust Implications, New York. Williamson, Oliver E. (1985), The Economic Institutions of Capitalism, Free Press, New York and London.

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaftspolitik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

Behaviorism, Optimization and Policy Advice

Werner Güth und Hartmut Kliemt

Contents 1.

Introduction

54

2.

Rational deliberation and adaption out of the 'black box'

55

3.

Behavioral economic repairs

57

4.

Changing given preferences

59

5.

Towards giving up given preferences

61

5.1. Revealed motives in experimental economics

61

5.2. Experiments on cognitive and motivational processes

62

Summary remarks and practical implications

64

6.

References

65

54

1.

Werner Giith und Hartmut Kliemt

Introduction

Economists believe that their authority as 'scientific advisors' and 'scientific experts' can be based on the predictive power of economic theory. Being aware that the status of economic nomological knowledge is precarious at best, they claim that prediction without nomological knowledge is possible (and can nevertheless be separated from mere prophecy). In our discussion of behavioral economics policy advice we shall focus on this and the related assumption that in a valid rational choice explanation of behavior intentional rational choice making need not figure prominently as cause of observed phenomena. 'As if-arguments in particular, cannot serve as basis of intervening into the course of the world. 1 To intervene in a rational technology-based way we need to know the true explanations of behavior in terms of the law-like regularities governing it. Against this background the move towards 'experiential', in particular behavioral and experimental economics must be greeted with applause. To the extent that the results of these new approaches incorporate nomological knowledge they are indeed highly relevant for explanatory as well as policy purposes. Nevertheless, as we shall argue subsequently, prevalent interpretations of empirical results seem to suffer from serious defects that are detrimental to their application. As we intend to show, these defects can, at least in a way, all be traced back to the behaviorist roots of the modern - as opposed to the classical - utility concept. In modern decision theory the concept of preference as revealed in overt choice acts is constantly mixed with the concept of preference as reason for choices.2 We start with illustrating how 'methodological behaviorism', 'optimization' and 'decision logic' - strange bedfellows indeed - can be linked and defended by embedding them into evolutionary arguments (2.).3 We then turn to some conventional ad hoc repairs of the optimization framework (3.). After touching on psychological descriptions of adaptation like classical learning theory that are still largely compatible with old-fashioned behaviorism but share its limits (4.), we briefly indicate what should be done instead (5.). We conclude that as far as science-based economic policy and policy advice are concerned modesty is the first virtue of the empirically oriented economist (6.).4

1

2

3

4

Friedman's 1953/1966 allegedly 'instrumentalist' view was certainly more Popperian than it was later received. We would claim, that Friedman in fact supports our realist focus on true nomological explanations and not the view that theories are mere instruments of prediction. In terms of 'meaning and reference' this is related to the distinction between 'intensional' and 'extensional' in semantics. We do believe that such an effort is interesting and can be quite rewarding if made systematically within an indirect evolutionary approach; see on this for example Giith and Kliemt, 1993, 2012, Giith, Kliemt and Peleg 2000. On the so called process-performance-paradox in expert judgment see Camerer and Johnson 1991.

Behaviorism, Optimization and Policy Advice

2.

55

Rational deliberation and adaption out of the 'black box'

According to strict 'behaviorism' a properly empirical rather than speculative science of human behavior should be conceptualized in terms of what can be directly observed. Explanations must be in terms of regularities concerning overt behavior only. Therefore the fact that human individuals respond to stimuli in ways mediated by (often quite complicated) mental models cannot be accommodated properly by behaviorism. Given the deficiencies of strict behaviorism it is not surprising then that, at least in psychology, since mid 20th century non-behaviorist 'cognitive' approaches have taken over. Cognitive psychology allows for theoretical concepts concerning mental processes but rejects uncontrolled speculation. Theoretical hypotheses are acceptable only if they yield implications testable against directly observable behavior. Since economists had traditionally ascribed complex reasoning processes and decision-logic to human decision-makers they should have been ready to abandon simpleminded behaviorism as well. Yet, they are still under the spell of the great breakthroughs of economics of the 1930th and early 1940th. They are victims of their own past successes, in particular their elegant concept of 'revealed preference' and their notion of a utility function representing choice behavior rather than attitudes. In view of the history of economic thought it is unsurprising that economists to the present day try to combine revealed preference as basic concept with rational choice modeling in terms of logical rather than psycho-logical reasoning. 5 Past successes seem to support this strategy. In particular in cases of intense competition it is plausible that 'structural influences' on outcomes of inter-action are so strong that they dominate (eventually) the effects arising from individual intentions, cognitive processes etc. 6 But in such cases the predictive success of the economists' optimization models can itself be explained. Substantive rationality is not driving choices as a motivational factor. It is, in fact, not a motivational factor at all since behavior is only 'as if directly motivated by optimization and similar concerns. Adaptive selection and optimization models are related, in the following simple way: 7 Since it is impossible to improve on fully informed optimal behavior and since 'evolution' will lead to an optimal behavioral adaptation under certain competitive conditions the observable behavioral patterns (or results) derived from full rationality and from adaptive long-term equilibrium must be expected to coincide. 8 To put it slightly otherwise, whenever the structural conditions ('the habitat') are kept constant such that selection can run its course the results of 'social evolution' may be as if brought about

5

6

7

8

Hans Albert's impressive 'Marktsoziologie und Entscheidungslogik' (1967/1998) is still vastly underappreciated as a contribution to these issues. Not entirely in line with the spirit of the methodologically individualist program 'structural influences' rather than individual behavioral proclivities induce outcomes of social interaction. In Ken Binmore's terminology 'eductive' and 'evolutionary'; see Binmore 1987, 1988, Fagin et al. 1995 on reasoning about knowledge. In evolutionary game theory we can typically find justifications for most equilibrium refinements of the reasoning about knowledge approach.

56

Werner Giith und Hartmut Kliemt

by a process of maximizing objective functions. Yet, the observed substantively optimal overt behavior is not the result of rational plans. The behavior is merely 'as i f the outcome of'rational reasoning' and 'opportunistically forward-looking choice'. Whenever the locally optimal (evolutionarily stable) equilibria of social competition coincide with the logic of optimal planning they are in truth the result of rule-bound or routine-bound behavior (i.e. bounded rationality). Except for some extremely simple cases optimal results cannot be explained by 'the logic of the situation'. This has been already expressed Joseph Alois Schumpeter in the following passage: "The assumption that conduct is prompt and rational is in all cases a fiction. But it proves sufficiently near to reality, if things have time to hammer logic into men. Where this has happened, and within the limits it has happened, one may rest content with this fiction and build theories upon it ... and we can depend upon it that the peasant sells his calf just as cunningly and egoistically as the stock exchange member his portfolio of shares. But this holds good only where precedents without number have formed conduct through decades and, in fundamentals, through hundreds and thousands of years, and have eliminated unadapted behavior. Outside of these limits our fiction loses its closeness to reality" (Schumpeter 1959, p. 80). More generally speaking, if less well-adapted entities go broke ('extinct') or otherwise exit the interaction and are substituted by better-adapted entities, then an evolutionary selection process can emerge. 9 Its results will appear as if planned even though the process as a whole is unplanned. 10 The conventional conclusion from this is that no cognitive processes, no intentions etc. are needed to explain how choice makers bring about optimal results. After evolution ran its course all behave 'as i f they are intentionally seeking and seizing all opportunities to improve their situation. Since the relevant ultimate causes of optimal results are not cognitive processes we need not look into the black box and the processes inside that are generating the overt behavior of individuals, or so one clever conventional argument in favor of 'mindless' theory runs." Yet, in particular in the context of practical advice this rescue strategy for behaviorism and revealed preference concepts in economics comes at a high price. There is no room for information about nomological relations that can actually be used to influence choices. If someone intends to bring about certain effects the information that the effects may appear 'as i f brought about by something else is obviously useless. He or she wants to bring about something 'causally'. Relying on 'as if will not do for that purpose. In sum, even if the (evolutionarily stable equilibrium) behavior of those surviving a competitive contest can under some (demanding) conditions be expected to appear 'as i f chosen according to an optimal plan, it should be noted that it in fact arose from

9

10

11

See for an explication of the general conditions for evolution to take place, Eigen and Winkler 1981. The preceding line of argument relating to individuals, directly carries over to inter-firm competition, see Alchian 1950. Relationships to Gul and Pesendorfer's arguments in 2008 are obvious.

Behaviorism, Optimization and Policy Advice

57

something other than a plan. The true explanation of what is observed is in terms of evolutionary selection not in terms of optimization. Conscious planning and processes of teleological - forward-looking - reasoning do not play an explanatory role nor are they relevant for predicting the outcomes of (market) competition.

3.

Behavioral economic repairs

Behavioral economics mostly developed as a response to the evidence accumulating against the standard model of opportunistically rational choice. Though a step in the right direction it exhausted itself in repairs of what may be a 'sinking ship'. Since most economists insisted that the assumption of substantive rational choice had better not be given up altogether the emphasis was on 'one-step-away deviations' from the standard model such that the model could be upheld in essence while 'enlarging' its motivational scope within the optimization framework. Most economists tend to forget that - using their notion of utility - an alternative A is not chosen because higher utility is assigned to it. Higher utility is assigned to an alternative A to indicate the law-like regularity that, whenever both A and B are present, alternative A rather than alternative B would be chosen. Whatever is accomplished in 'one step away' modifications, the underlying strategy of representing overt behavior by a (now more complicated) 'utility function' is not changed. Utility is not and cannot be among the causal factors operative in motivating overt choices. In the behavioristic revealed preference perspective of neo-classical economics it is representing choices not reasons for choices. That an alternative A is chosen or will be chosen over an alternative B is indicated by assigning a higher value of the utility index to A than to B. At the risk of beating this to death, let us sum up: higher utility is assigned to A to represent the fact that A's higher rank as compared to B's is revealed in the choices made. To explain why these choices are made is - many economists claim - not among the topics to be studied by economists. Preferences or rather the choices from choice sets that are regularly and predictably made must/should be treated as 'given' by an economist who keeps within the limits of his field of interest and expertise. The construction of revealed preference is from the very beginning not in full harmony with the ways it is presently used. This makes itself felt throughout in modem behavioral economics. For instance, the popular reference to 'risk, loss, ambiguity, inequality, inefficiency, let-down, shame etc. ...' aversion seems to draw attention to the reasons for preferring, respectively not preferring alternatives. Yet this is strictly speaking not allowed within the externalist framework of 'preference as choice'. Now, if aversion is interpreted purely behaviorally then the whole strategy is transparently ad hoc. 12 This need not be a devastating counter argument as long as testable general implications can be derived. Only 'ad hocery' that does not lead to testable fur-

12

If the term aversion is interpreted purely behaviorally then this reminds of some forms of very old fashioned chemistry in which certain reactions were described in terms of 'aversions' of some substances against, say, water or air or whatever (as in Goethe's 'Wahlverwandtschaften'). Unsurprisingly there has been 'aversion aversion' (Güth 2008).

58

Werner Güth und Hartmut Kliemt

ther implications is methodologically unacceptable. For instance, a concept of aversion that could be measured as an independent factor influencing choice in a psychological manner could be completely legitimate. It may even be viable to 'read' a specific aversion ' o f f from the overt choice behavior. This may suggest a better account of overt choice behavior. Yet, this is fruitful only if there are general law-like regularities underlying the behavioral dispositions in which the so-called aversions express themselves. Since all empirical disciplines rely on the process of first overstating and then restricting the scope of intended applications of hypotheses, it would be illegitimate not to concede such a research strategy to economics. However, the problem at hand - the incoherence of the modern representative utility notion with the explanatory purposes for which economists intend to use it - cannot be neutralized within the so-called 'protective belt' of the theory (see Lakatos 1978). It affects the organizing core of the research program of economics. For, the basic negative heuristic of economics is demanding that the optimization paradigm must stand in the sense that the basic facts of given preferences - i.e. law-like regularities concerning choices from choice sets - can and must be summed up in a representative utility index. It is constitutive for the 'revealed preference' paradigm of economics that behavior can be represented as if maximizing a utility function. Merely what it is that is optimized or not is open to dispute. For, only to the extent that they are 'given' can economists read off preferences from overt choice behavior and represent these 'given preferences' - including risk attitudes - by utility functions. These utility functions in turn stenographically represent individuals' behavior as if maximizing the index.13 For the sake of specificity, think of ultimatum experiments. These show that the assumption that monetary payoff is all that matters must be mistaken. To respond to this, additional variables - that at least partly represent motives other than monetary payoff are brought into play in a more or less ad hoc manner by economists. That a hypothesis is generated ad hoc is not problematic as long as there is some empirical content that points beyond the occasion and can be tested independently.14 As far as this is concerned new factors like 'inequality aversion' seem to organize many observations concerning game playing. Though introduced ad hoc it does not only solve the problem posed by ultimatum game requirements. More generally speaking, as a means of organizing data the category of other regarding concerns can often account for many empirical facts, typically experimental ones (see, for example, Bolton and Ockenfels 2000; Fehr and Schmidt 1999). Likewise, the explanation of some anomalous behavior as triggered by 'loss aversion' may have empirical content if loss aversion is explicated in terms of a general law-like statement specifying the conditions under which it may arise etc.

13

According to standard economics 'preference' is a concept that can be explicated in terms of choices that reveal preferences; in the technical philosophical sense of 'explication' according to which a pre-theoretical concept is substituted by a similar, more precise, simple and empirically or analytically fruitful theoretical one, see on this (Siegwart 1997). 14 In terms of the methodology of scientific research programs it could be classified as progressive in the sense of Lakatos (1978).

Behaviorism, Optimization and Policy Advice

59

In view of the preceding, our main criticism of a research strategy invoking 'aversions' cannot be that 'aversions' are directly unobservable. 'Aversions' can be introduced as theoretical concepts standing in for dispositions based on law-like regularities. Theoretical concepts, including those referring to directly unobservable dispositions, are entirely legitimate in science (if not in behaviorism). The problem is that the uses made of most of the aversion concepts amount to dogmatic immunizations in a context in which coherence of preferences is always presupposed such that the choices can be represented by a utility function. If, as in the ultimatum game, choices cannot be represented by the natural order of monetary payoffs of the player herself the representing function may be formed on the basis of some combination of 'monetary payoff for self and monetary payoff for other'. Yet, even if such a function would actually work well it would still be representing choices. As long as we stick to the modern concept of utility as representing choices the loose way of speaking of persons being interested only in money is strictly speaking misleading. All that can be said in a behaviorist model is that monetary stimuli as input will regularly be answered by a certain kind of behavioral output. Reconstructing the stimuli as combinations of 'money for self and money for other' and to relate it to responder behavior does not change the basic concept of revealed preference. In the end the aim is merely to shield the theory from the necessity to have an explicit model of the processes taking place 'within' the individual. 15 In sum, we do not deny that 'neo-classical repairs' may to some moderate extent be progressive (in the Lakatosian sense) additions to standard economic theories. They are ad hoc but have been leading to what has become known as 'behavioral economics'. They go beyond the ad hoc response and lead to many valuable empirical insights based on testable implications. But they do not go far enough to neutralize the incoherencies mentioned above. We do believe that the 'negative heuristic' of the research program of economics that rules out any theory about the internal decision processes in terms of intentions and other non-behaviorist concepts should be given up (which means that the framework or paradigm is given up). Motivational factors like the several aversion concepts may be indicating a theory of what motivates directly observable overt behavior. However, then it seems rather strange not to go for cognitive psychology explicitly and directly instead of acting as if the old revealed preference concept were still in place. Much speaks in favor of boldly moving away from the underlying core assumption that revealed preference as represented by a utility function is all that is necessary as basic concept of economic theory. Mindful of this we should give up on the explanatory vision of the 'mindless economy'.

4.

Changing given preferences

To speak of given preferences does not necessarily mean that they are seen as constant over time. The concepts of given and constant preferences are distinct. Changing preferences can be treated as given at each point in time. Of course, the preferences re15

If we would model the internal processes in the decision making entity as a game then we could also say that the model is in the spirit of co-operative game theory which also took several actors as a unitary one via its basic coalition concept.

60

Werner Güth und Hartmut Kliemt

vealed at time t may differ from the preferences revealed at time t+1. Such differences may be due to exogenous shocks in circumstances other than human behavior and may in that regard be beyond the pale of behavioral (economic) explanations.16 The teleological conceptualization of choice making (the choice maker does x 'to' accomplish y in view of her expectations) is not adaptive or dynamic in spirit. The spirit is rather that of comparative statics in which the actor anticipates future consequences of action and compares them with each other and the status quo in which choice takes place. In any event, to the extent that preferences are merely 'read off from behavior they are at each point in time given and may or may not change. But there does not exist a systematic concept of preference change.17 In a dynamically changing environment even teleological rational choice models allow for some path-dependence. For example, so-called state variables capture how the past influences the future choice situations and how rational agents will want to condition their choices on these state variables.18 The future as expected by the decisionmaker is influenced by the past (as represented by the state variables). But the explanation remains 'teleological' in the sense that the decision-maker aims at something and does so relative to given aims, ends or values.19 As opposed to this a strictly adaptive approach bases its predictions on purely behavioral state variables like, for example, past success of choices in reinforcement learning (see on the learning tradition generally Bush and Mosteller 1955). Likewise others' and own past success in imitation dynamics reacting to relative success can be used to describe and to explain adaptive behavior in ways compatible with behaviorism. It seems worth emphasizing that all the preceding does not capture the fact that human motivation has an internal reasoning, a cognitive aspect that is causally relevant for human behavior. This is ruled out if explanations are to be made on the basis of given preferences interpreted in terms of given choice behavior.

16

11

18

19

Of course George Stigler's and Gary Becker's (1977) concern that thereby economic theory might lose its content should be taken seriously. They felt that they had to start from something that is not changing and then to explain the changes in preferences on that basis. Yet we do not believe that this ultimate effort to use scarcity constraints and as if optimization without actually considering the true processes of reasoning forms a convincing explanatory approach. With the notable exception of models of endogenously changing preferences that can be subjected to coherence principles; see Weizsäcker 2013 and the literature there cited. The so-called Folk Theorems for infinitely often repeated base games with a unique equilibrium require conditioning on past choices even when there are no state variables, i.e., when all subgames are isomorphic, see Güth, Leininger and Stephan 1991. Yet if we require that isomorphic subgames must have the same solution then such Folk Theorems violate isomorphic invariance requirements, see Harsanyi and Selten 1988. And these (or their expected effects) explain the choice of action. It is not the past as such which delivers the explanation.

Behaviorism, Optimization and Policy Advice

5.

61

Towards giving up given preferences

In neo-classical economics (initially) unknown preferences can be inferred from choice observations under the assumption that they are well-behaved in the sense of consistency. In this vein experimental economics elicited choice behavior and interpreted it as indicating what motivated actors in particular in the aforementioned 'one-stepaway deviations' from 'substantive rationality assumptions'.

5.1. Revealed motives in experimental economics Studies of a 'revealed motive type' try to keep within in the old optimization framework. They strive to combine the old conceptual basis of overt behavior with the underlying motives. Yet revealed motive approaches are still focusing on the outcomes rather than the processes leading to the outcomes. For instance in studies of so-called (pro-) social preferences motives are ascribed under the presumption that actor-behavior can be represented by utility functions into which variables representing outcomes concerning other individuals enter as arguments. In this strand of experimental economics preference formation and preference representation are not clearly separated. How choices are made and behavior is formed cannot be answered satisfactorily by inferring motives and ascribing values to actors from observing their overt behavior under the contrary to fact assumption of coherence. For instance, that behavior can be described as if - say - motivated by inequality aversion does per se not guarantee that it is motivated by it. The functional form that 'expresses inequality aversion' as a weighted sum of 'payoffs' of 'self and other(s)' does so from the point of view of an external observer. The external observer need not assume that this functional form describes what motivates the actors themselves. Without additional cognitive psychology assumptions the external observer cannot know what actors whose behavior he describes have on their minds when acting. AH that can legitimately be inferred is something akin to Schumpeter's previously cited statement concerning the optimal behavior of the peasant. Like the peasant who is optimizing without knowing it, so the individual who behaves as if being driven by inequality aversion does not show thereby that such an aversion figures prominently among the motives that pull him forward. It is rather the external observer who notices regularities in overt choice behavior that express an ordering that can be represented by a function based on a weighted sum of 'payoffs' of 'self and other(s)'. Like the peasant who is observing some fixed rule that itself came about in a process of adaptive learning the individual to whom inequality aversion is ascribed may as well be pushed by some heuristics or rules of thumb other than inequality aversion. In sum, within the framework in which utility functions represent choices rather than motives, the motives underlying choices that can be described by a weighted sum of 'payoffs' of 'self and other(s)' and thus in terms of 'overt inequality aversion' need not be of the type of (intentional) inequality aversion. Within the traditional perspective of the external onlooker motives bringing about overt behavior are strictly speaking only classifications of overt behavior not of the reasons leading to it. Quite generally a standard utility function that is based on several arguments does as such say nothing about the motives underlying the choices represented by it. Very trivi-

62

Werner Güth und Hartmut Kliemt

ally, the value of the function cannot be among the motives of the actions whose choice ordering is represented by the function. This does not change if the function happens to represent a trade-off between 'selfish' and 'social' concerns. Moreover, an obvious difficulty is that we strictly would have to speak of '(selfish and social) behavior' rather than 'preferences' here. Since strictly speaking the function represents choices while the processes leading to behavior can be left in the dark or the black-box (and it should not matter how and on the basis of how many variables the representation is calculated).

5.2. Experiments on cognitive and motivational processes Switching from the perspective of looking at classes of choices from the outside to a classification corresponding to the internal perspective of an actor is a commonsensical move. For instance, within the bounds of common sense the expression that somebody chooses because he or she does not 'like' inequality is fully justified. The 'revealed motive' perspective often suggests the use of the same expressions. Yet in an approach that restricts itself to describing overt behavior and to organizing observations of it according to behavioral regularities ('explaining the data') this is illegitimate. The internal point of view of the actor cannot play the commonsensical role we naturally tend to ascribe to it. In revealed motive approaches the motivational terms are used either metaphorically as a kind of shorthand for patterns in overt behavior or as theoretical terms for certain not directly observable factors. In the first case, if a motivational term is used merely as a short-hand for a set or class of overt choices the non-overt dimensions are trivially ruled out. There is no room for cognitive psychology notions. The observed behavior cannot be used to test a cognitive theory of what motivates behavior simply because such a theory is not admitted for explanatory and predictive purposes at all in such studies. In the second case, it seems somewhat strange that an originally behaviorist theory that takes pride in ruling out the need to rely on mental processes as causal factors operating in the psyche of the actor introduces mental concepts through the backdoor. Of course, theoretical terms of a non-mental theory can be given names alluding to cognitive processes and the subjective experience accompanying them. But strictly speaking it is illegitimate to interpret these terms and processes according to our common pretheoretical experience. They have to be understood as theoretical terms of a theory that relates observational terms to them according to the theory. If we intend to introduce psychological concepts as theoretical terms anyway why stick to the revealed motives approach? Why not go directly for cognitive psychology from the beginning? Once the artificial borderline separating economics from neighboring disciplines like experimental and cognitive psychology is abolished truly 'internalist' theories relying on theories of underlying mental processes can be formed. The use of psychological concepts is then neither merely metaphorical nor is a tedious reconstruction as theoretical terms of theory other than cognitive psychology necessary. Once cognitive theories relating to the internal point of view of the acting decisionmaker are admitted it becomes possible to reconstruct the deliberative processes of

Behaviorism, Optimization and Policy Advice

63

actors and to test hypotheses about these mental processes. Experiments can take into account for instance -

decision times informing us about the difficulties of participants to generate their choices,

-

information search (eye-tracking, mouse lab) indicating the aspects in which participants are actually interested, and those which they prefer to neglect,

-

use of artifacts like (payoff) calculators or (payoff) tables revealing what has been considered more or less seriously by a participant,

-

belief data concerning chance events and others' choices (so-called action beliefs),

-

questionnaire data,

-

process data of reasoning processes observable by using methods like 'speaking aloud', 'recording group discussions rather than individuals in making a choice', etc.

-

data gathered from fMRI ('brain-scanning') showing which regions of the brain are active when certain choice problems are addressed, whether emotional (system 1) or in the narrow sense cognitive (system 2) processes dominate if alternative issues including moral ones - are confronted. 20

Clearly all methods that can create empirical evidence to test theories about 'dynamic' deliberation as actually taking place in the human mind should be welcome. Research should be guided by the central substantive problems irrespective of the methods used to scrutinize them and of the presence of fashions, fads and herd behavior in theory formation. In general regardless of the experimental methods used, theories concerning -

what motivates participants,

-

how and under which circumstances they activate certain motives and how they try to generate satisfactory success levels for pursuing such motives

should be formed and tested. This should eventually lead to models of decision-making more than one step away from the standard rational choice approach. We are content to let our theoretical discussion end with the preceding more or less programmatic remarks. In any event, causal hypotheses will be necessary for developing policy advice. Clearly theories that explain the data rather than real world processes will not suffice. If the preceding is right then nomological knowledge that can be used in developing 'technological' policy prescriptions will rather not be of the 'as i f optimizing kind. Bearing this in mind let us turn to potential conclusions concerning the contribution of behavioral and experimental economics in solving policy problems.

20

Using the concepts of system 1 and system 2 in the sense of Kahneman 2012.

64

6.

Werner Giith und Hartmut Kliemt

Summary remarks and practical implications

Philosophically speaking the behaviorist tradition in decision theory and economics adopts an 'external point of view' to the decision-making process. Like a researcher who looks at a maze in which rats are reacting to stimuli to observe their behavior and to test theories about this behavior the externalist decision-theorist looks at human behavior from the 'outside'. Clearly, even such a decision-theorist could model some internal process of what motivates rats in the box (though it would seem far-fetched to approach them within a revealed-motives framework). In the same spirit a researcher could form some externalist model of the brain processes of humans and on this basis develop better predictions of overt behavior. This all does not model the cognitive processes and perceptions that as a matter of fact guide behavior 'from the inside'. To include the internal point of an actor, the selfunderstanding and motives as perceived by the actor herself should eventually play a role. Though this is ruled out by standard economic approaches it is hard to see why internalist theories of motivation should be ruled out in principle. The urge of economists to carve out a turf for themselves and to separate economics from cognitive psychology is certainly not a very convincing argument. As long as they lead to testable implications all theoretical approaches should be acceptable in principle. In any event, accepting psychology into economics is not such a big leap as it may seem to many economists. To reconstruct perception-based cognitive processes we need to give up the behavioral perspective of the old 'revealed-X' model. We need to make a 'leap' to an understanding of decision-making that includes modeling the intentions underlying decisions from an 'internal point of view'. 21 The decision-theorist must make an effort to look at the world as perceived by the actor and to form theories in these terms. Assuming that behavior depends on it, the decision-theorist must try to represent the perspective of the decision-maker in a decision-theoretic model. Only on this basis can the decision-theorist suggest certain measures that might improve the decision-making process and its results (as evaluated according to some standard of value or other). The preceding is relevant if we accept that the advisee receiving advice derived from economic theory is a human decision-maker. Moreover, when asked for advice on policy measures an economist who has explored internalist theories along with externalist ones should be in a position to present the best empirical evidence. Behaviorism rightly criticized speculation without observation but wrongly assumed that empirical knowledge could be reduced to factual observation and some form of inductive generalization based on overt behavior only. The pride economists still take in the allegedly solid foundation of their discipline in utility functions that represent choice behavior rather than the motives underlying behavior stands in the way of scientific development.

21

The concepts of an external and an internal point of view are used as suggested in the works of the legal scholar Herbert Hart in his seminal The Concept of Law (1961). As Hart we do not attach anything that is not in line with empirical cognitive psychology to the 'internal point of view'. We merely insist that certain theoretical concepts transporting 'meanings referring to intention' may be used in building models and testing the theories built on them.

Behaviorism, Optimization and Policy Advice

65

It is methodologically absurd to require that basic concepts of a theory must be fully 'translatable' into terms relating to directly observable behavior. All potent theories are formulated on the basis of theoretical concepts whose reference are not directly observable choices and then must be linked indirectly with specific observables. For policy advice there is indeed nothing more practical than a well-corroborated theory with nomological content. The counterfactuals implied by it 'if x would be the case then y would happen' can be used to bring about factual consequences. If somebody should decide to bring about x and would command the faculty to implement x then y would occur according to the theory. The economic expert can inform about experientially tested and confirmed economic theories, their 'technological' uses, and the reliability of the evidence supporting them; that is, he could inform about the state of economic science. Typically nomological knowledge directly applicable to practical issues of economic policy will not exist. As far as the aim of influencing the performance of complex economic systems is concerned evidence based policy advice shall in general be lacking since the authority of science is strictly dependent on nomological laws that more often than not may not exist. Of course the aim of science must be making progress on that front. As far as the latter is concerned we can make one safe prediction though: If the policy relevant empirical laws have anything to do with human motivation then they will violate the premises of an economic theory that rules out motivation by its basic revealed preference approach. It seems rather obvious that science based economic advice - in the strict sense of being based on scientific laws rather than merely judgments and opinions of scientists - requires that economics must be interpreted in terms of 'Marktsoziologie' rather than in terms of 'Entscheidungslogik' (see Albert 1967/1998). The several immunization strategies of economics stand in the way of honestly acknowledging this and the limits of scientific policy advice. The familiar 'as i f rationality approaches tend to deceive the experts into believing that they have the 'authority of science' for matters practical for which such authority does not exist. This is as bad as any kind of ideology.

References Albert, Hans (1967/1998), Marktsoziologie und Entscheidungslogik: Zur Kritik der reinen Ökonomik, Tübingen. Alchian, Armen A. (1950), Uncertainty, Evolution, and Economic Theory, in: Journal of Political Economy 58, pp. 211-221. Binmore, Kenneth (1987), Modeling Rational Players I., in: Economics and Philosophy 3, pp. 179-214. Binmore, Kenneth (1988), Modeling Rational Players II., in: Economics and Philosophy 4, pp. 9-55. Bolton, Gary and Axel Ockenfels (2000), ERC: A Theory of Equity, Reciprocity and Competition, in: American Economic Review 90, pp. 166-93. Bush, Robert and Frederick Mosteller (1955), Stochastic Models for Learning, New York.

66

Wemer Güth und Hartmut Kliemt

Camerer, Colin F. and Eric Johnson (1991), The process-performance paradox in expert judgment: How can experts know so much and predict so badly?, in: William M. Goldstein and Robert M. Hogarth (eds.), Research on Judgment and Decision Making, New York et. al., pp. 195-217. Caplin, Andrew and Andrew Schotter (eds.) (2008), The foundations of positive and normative economics, Oxford. Eigen, M. and R. Winkler (1981), Das Spiel, München. Fagin, Ronald, Joseph Y. Halpem, Yoram Moses and Mosche Y. Vardi (1995), Reasoning about Knowledge, Cambridge, MA/London. Fehr, Ernst and Klaus Schmidt (1999), A Theory of Fairness, Competition, and Cooperation, in: Quarterly Journal of Economics 114, pp. 817-68. Friedman, Milton (1953/1966), The Methodology of Positive Economics, in: Milton Friedman (ed.), Essays in Positive Economics, Chicago, pp. 3-46. Güth, Werner (2008), (Non)Behavioral Economics - A Programmatic Assessment, in: Journal of Psychology 216(4), pp. 245-254. Güth, Werner and Hartmut Kliemt (1993), Menschliche Kooperation basierend auf Vorleistungen und Vertrauen, in: Philip Herder-Dorneich, Karl-Emst Schenk, Karl und Dieter Schmidtchen (eds.), Jahrbuch für Neue Politische Ökonomie, 12. Band, Neue Politische Ökonomie von Normen und Institutionen, Tübingen, pp. 253-277. Güth, Werner and Hartmut Kliemt (2012), To weigh or not to weigh, that is the question: advice on weighing goods in a boundedly rational way, in: Guido Bünstorf (ed.), Evolution, Organization and Economic Behavior, Cheltenham, pp. 23-38. Güth, Wemer, Hartmut Kliemt and Bezalel Peleg (2000), Co-evolution of preferences and information in simple games of trust, in: German Economic Review 1 (1), pp. 83-110. Güth, Wemer, Wolfgang Leininger and Günther Stephan (1991), On Supergames and Folk Theorems: A Conceptual Analysis, in: Reinhard Selten (ed.), Game Equilibrium Models II: Morals, Methods, and Markets, Berlin et al., pp. 56-70. Gul, Faruk und Wolfgang Pesendorfer (2008), The case for mindless economics, in: Andrew Caplin and Andrew Schotter (eds.), The Foundations of Positive and Normative Economics, Oxford, pp. 3-43. Harsanyi, John C. and Reinhard Selten (1988), A General Theory of Equilibrium Selection in Games, Cambridge, Mass. Hart, Herbert L. A. (1961), The Concept of Law, Oxford. Kahneman, Daniel (2012), Thinking, Fast and Slow, Harmondsworth. Lakatos, Imre (1978), The Methodology of Scientific Research Programmes, Cambridge, MA. Schumpeter, Joseph A. (1959), The Theory of Economic Development, Cambridge, MA. Siegwart, Geo (1997), Explikation, in: Winfried Löffler and Edmund Runggaldier (eds.), Dialog und System, Sankt Augustin, pp. 15-45. Stigler, George J. and Gary S. Becker (1977), De Gustibus Non Est Disputandum, in: The American Economic Review 67, pp. 76 ff. Weizsäcker, Carl Christian von (2013), Schumpeterian Innovation and Preference Adaptation, in: Homo oeconomicus, 30(2), pp. 131-141.

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaftspolitik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen Carl Christian von Weizsäcker Inhalt 1.

Einleitung

68

2.

Grundlagen

69

2.1. Dialektik des Gemeinwohls 2.2. Der Begriff der Präferenzen und der bürgerlichen Freiheit

69 71

2.3. Das Problem des ,Homo Oeconomicus' 2.4. Adaptive Präferenzen 2.5. Fortschrittssequenzen

72 73 75

2.6. Theorem 1: Adaptive Präferenzen implizieren Nichtzirkularität von allen Fortschrittssequenzen 2.7. Theorem 2: Sind alle Fortschrittssequenzen nicht-zirkulär, dann sind die Präferenzen adaptiv 2.8. Interpretation der Äquivalenz von Adaptivität und Nicht-Zirkularität

3.

4.

77 78 78

2.9. ,Piecemeal-Engineeering'

79

Legitimierung der Geldform dezentraler Entscheidungen bei endogenen Präferenzen

80

3.1. Fortschritt mit vielen simultanen ,kleinen Schritten'

80

3.2. Kompatible Freiheitsrechte

81

3.3. Zur Implementation eines Regimes pragmatisch kompatibler Freiheitsrechte

84

3.4. Zum Begriff der gesellschaftlichen Präferenzen

88

3.5. Ex-Ante- und Ex-Post-Rechtfertigung von Ausbrüchen aus dem Status Quo

90

3.6. Die Verbindung zwischen adaptiven Präferenzen und quasi-adaptiven Quasi-Präferenzen

93

3.7. Präferenz-Entrepreneure

95

Ausblick

97

Literatur

97

68

1.

Carl Christian von Weizsäcker

Einleitung Der Homo Oeconomicus ist tot! Lang lebe der Homo Oeconomicus Adaptivus!

Das Generalthema dieser Tagung ist für mich nicht ganz neu: Was bedeuten die Ergebnisse der Behavioural Economics für die Wirtschaftspolitik? Ungefähr zu der Zeit, als Karl Paul Hensel das Radein-Seminar begründet hat, war ich als junger Professor an der Universität Heidelberg von einer kleinen Assistentenschar umgeben, die ganz überwiegend dem Marxismus zuneigte: Hans Nutzinger, Elmar Wolfstetter, Felix FitzRoy, und als studentische Hilfskräfte Jobst Lang und Angelika Rotter-Woletz, spätere Agelika Zahrnt, dann langjährige Präsidentin des Bundes Umwelt- und Naturschutz (BUND). Aus der Sicht eines Marxisten war der Homo Oeconomicus reine Ideologie zur argumentativen Verteidigung des Kapitalismus. Und die Idee, dass die Präferenzen des Homo Oeconomicus fix vorgegeben sind, wurde von den Marxisten erst recht durch den Kakao gezogen. Ich begann darüber nachzudenken, ob man normative Ökonomik auf individualistischer Grundlage auch noch machen könne, wenn die Präferenzen endogen bestimmt sind. Ein erstes positives Ergebnis war ein Artikel, der im Journal of Economic Theory 1971 erschien (von Weizsäcker 1971). Ohne diese Thematik ganz aus den Augen zu verlieren, wandte ich mich jedoch schwergewichtig mehr praktischen Fragen der Wirtschaftspolitik zu. Erst gegen Ende des letzten Jahrhunderts, quasi mit der Annäherung an die Emeritierung, begann ich wieder, mich intensiver mit der Thematik auseinander zu setzen. Davon zeugt meine Thünen-Vorlesung auf der Tagung des VfS in Magdeburg (von Weizsäcker 2002) im Jahre 2001. Seither habe ich mein Nachdenken über diese Thematik intensiver fortgesetzt. Dabei war ein Fixpunkt meiner Überlegungen immer die Hypothese, dass die endogene Präferenzbildung eine ganz bestimmte Struktur hat, die ich ,adaptive Präferenzen' nenne. Das Wort ist nicht neu. So hat Jon Elster schon in den achtziger Jahren diesen Terminus benutzt. Seine Definition ist jedoch etwas anders als die meinige, obwohl es eine starke Überlappung der beiden Begriffe gibt (Elster 1983). Vor einem Jahr habe ich ein längeres Manuskript geschrieben, das einen großen Teil meiner Überlegungen zusammenfasse Es kann von meiner Homepage abgerufen werden (von Weizsäcker 2013 a). Inzwischen sind allerdings meine Überlegungen auch noch weiter gegangen. Einiges von dem, was ich hier vortrage, ist in dieser Form auch in dem Manuskript vom Februar 2013 noch nicht enthalten. Zuerst eine Schwierigkeit: Die Begriffsstruktur, die ich verwende, ist für den Hörer sehr ungewohnt. Sie innerhalb von 30 Minuten zu verstehen, ist schwierig. Auch deshalb habe ich vorab einen Text ausgearbeitet. Im Prinzip kann sich der Hörer also durch vorherige Lektüre etwas in das Gedankengebäude hineindenken. Ich präsentiere in dieser schriftlichen Fassung auch sehr viel mehr als ich mündlich vortragen kann. Werner Heisenberg hatte folgendes Rezept für einen wissenschaftlichen Vortrag: Ein Drittel soll Material sein, das der Hörer schon kennt und verstanden hat. Ein Drittel soll Material sein, das der Hörer zwar noch nicht kennt, das er aber durch den Vortrag kennen und verstehen lernt. Ein Drittel soll Material sein, das der Hörer noch nicht kennt und das er auch durch den Vortrag noch nicht verstehen lernt. Aber er ist dann vielleicht

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

69

geneigt, nachträglich dieses letzte Drittel auch noch zu verstehen zu versuchen. Diesem Vorbild werde ich mich bemühen nachzueifern.

2.

Grundlagen

2.1. Dialektik des Gemeinwohls Moderne Versionen der liberalen Theorie behaupten einen Tatbestand, den ich die Dialektik des Gemeinwohls nennen möchte. Eine frühe Formulierung hat sie von Adam Smith erhalten: „As every individual, therefore, endeavours as much as he can both to employ his capital in the support of domestic industry, and so to direct the industry that its produce may be of the greatest value; every individual necessarily labours to render the annual revenue of the society as great as he can. He generally, indeed, neither intends to promote the public interest, nor knows how much he is promoting it. By preferring the support of domestic to that of foreign industry, he intends only his own security; and by directing that industry in such a manner as its produce may be of the greatest value, he intends only his own gain, and he is in this, as in many other cases, led by an invisible hand to promote an end which was no part of his intention. Nor is it always the worse for the society that it was no part of it. By pursuing his own interest he frequently promotes that of the society more effectually than when he really intends to promote it: I have never known much good done by those who affected to trade for the public good. It is an affectation, indeed, not very common among merchants, and very few words need be employed in dissuading them from it" (Smith 1840, S. 184). Insbesondere nach der durch Darwin hervorgerufenen Umstülpung des Denkens formuliert man das etwas anders. Durch ihn wurde der ,Gottesbeweis' mittels der Wohlgeordnetheit der Natur abgelöst. An seine Stelle trat der Gedanke der Evolution. Hieraus ergibt sich eine Substitution des Primats des Vertikalen, der Unterordnung, der Subordination, in einen Primat des Horizontalen, der spontanen Koordination. An die Stelle der vertikal gedachten Hierarchie tritt die horizontal gedachte Evolution. An die Stelle des vertikal gedachten Universums in Dantes ,Commedia' tritt das horizontal gedachte Universum der lebenden Welt in Darwins , Origin of the Species'. Als gesellschaftliche Instanz der Welterklärung tritt an die Stelle der hierarchisch geordneten Kirche die Wissenschaft, die dezentral operiert - und davon lebt, dass sie dezentral arbeitet. Als Instanz der legitimen Machtausübung tritt an die Stelle des monarchischen Gottesgnadentums die demokratisch legitimierte und durch den individualistisch geprägten Rechtsstaat disziplinierte Staatsgewalt. An die Stelle des Primats des Staatswohls in der alten Zeit tritt der Primat des Individualwohls, des individualistisch verrechtlichten Bürgerwohls. Diese Umstülpung aller Verhältnisse ist begleitet von einer sozialen und speziell wirtschaftlichen Dynamik, die man auch die ,Industrielle Revolution' oder dann die .Große Transformation' genannt hat. In ihrem Verlaufhat sich seit Malthus die Weltbevölkerung verzehnfacht und die durchschnittliche Lebenserwartung der Lebendgeborenen verdoppelt. Diese Dynamik entsprach als Gesamtphänomen dem aufklärerischen Gedanken des Fortschritts. Durch ihn wurde die Hoffnung auf ein besseres Leben vom

70

Carl Christian von Weizsäcker

Jenseits ins Diesseits gebracht. Und er hat sich bis heute in den meisten Schichten der Weltbevölkerung als Hoffnung, ja Erwartung erhalten. Es stellt sich heraus, dass dezentral aufgebaute Wirtschafts- und Wissenschaftssysteme solchen weit überlegen sind, die zentral aufgebaut sind. Die staatliche Gewalt ist als Inhaberin des Gewaltmonopols zentral, zentralistisch verfasst. Sie übt ihre Gewalt direkt im Sinne des Gemeinwohls aus, und zwar so, wie es von der jeweiligen Mehrheit verstanden wird. Wenn aber Entscheidungen zentral fallen, dann können ihrer pro Zeiteinheit nur wenige fallen. Überall dort, wo das Leben ohne explizite Entscheidungen bleibt, geht es auch weiter: es verharrt im Status Quo. Als Beispiel: Gesetze behalten ihre Gültigkeit, solange sie nicht explizit geändert werden. Es gibt immer einen Status Quo der geltenden Gesetze, der nur durch parlamentarische Entscheidungen geändert werden kann. Je mehr Gesetze kraft früheren Beschlusses Gültigkeit haben, desto träger wird der Gesamtkörper aller Gesetze. Die zentrale Entscheidungsstruktur des Staates impliziert damit, dass er pro Zeiteinheit wenige Entscheidungen fallt, dass er quasi,entscheidungsschwach' ist. Daher ist er stark orientiert am Status Quo. Das aber widerspricht dem Ideal des Fortschritts, der ja Veränderung voraussetzt. In der modernen Gesellschaft kommt der Fortschritt durch Veränderung, die ganz überwiegend in den dezentralen Strukturen der Gesellschaft angestoßen wird: das sind die Wirtschaft, die Wissenschaft, die Zivilgesellschaft. Es handelt sich ganz überwiegend um .kleine' Veränderungen, die sich aber in der Summe zu einer großen Veränderung akkumulieren. Dezentrale Entscheidungsstrukturen fuhren zu zahlreichen Entscheidungen und daher Veränderungen, aber sie sind nicht am Gemeinwohl orientiert, sondern am jeweils eigenen Vorteil der Entscheidenden. Es ist nunmehr Funktion der geeignet gestalteten institutionellen Rahmenbedingungen, dafür zu sorgen, dass sie dem Gemeinwohl dienlich sind, insbesondere also Fortschritt' unter dem Kriterium des Gemeinwohls generieren. Was ich ,Dialektik des Gemeinwohls' nenne, ist diese Struktur: Fortschritt kann in größerem Umfang nur gelingen, wenn in der Gesellschaft viele Entscheidungen fallen, die den Status Quo überwinden. Das kann nur eine stark dezentrale Entscheidungsstruktur leisten. In dieser aber werden die Entscheidungen ganz überwiegend am individuellen Vorteil ausgerichtet. Die Entlastung des Bürgers von der Verantwortung für das Gemeinwohl macht es erst möglich, dass so viele Entscheidungen fallen und damit Fortschritt auch im Sinne des Gemeinwohls erzielt werden kann. Es ist Aufgabe des Gesetzgebers und überhaupt der staatlichen Gewalt, für Institutionen zu sorgen, sodass die am individuellen Vorteil orientierten Entscheidungen zugleich dem Gemeinwohl dienen. In der Erfüllung dieser Aufgabe ist der Gesetzgeber auf die Sozialwissenschaften, speziell auch auf die Ökonomik angewiesen. Die hier dargestellte Dialektik des Gemeinwohls ist in ähnlicher Form schon in Hegels Rechtsphilosophie zu finden. Ihre spezifische Form des Spannungsverhältnisses zwischen dem Beharrungsvermögen direkt am Gemeinwohl orientierten Staatshandelns und der Fortschrittsorientierung direkt am Eigennutz orientierten individuellen Handelns ist der Ausgangspunkt der folgenden Überlegungen.

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

71

2.2. Der Begriff der Präferenzen und der bürgerlichen Freiheit Der moderne Rechtsstaat ist individualistisch verfasst. Inhaber von Grundrechten, von Rechtstiteln überhaupt, von sozialstaatlich begründeten Ansprüchen sind immer einzelne Personen. Die Antwort der .Kathedersozialisten' auf die damalige ,Soziale Frage' war der Entwurf eines Sozialstaats, der sich in die überkommene, am Individuum orientierte bürgerliche Rechtsordnung einfügte. Auch die politischen Teilhaberechte der modernen Demokratie sind Rechte, die dem einzelnen Bürger zukommen. Indem die Wahlen ,frei, gleich und geheim' sind, soll in ihnen der Bürgerwille als Summe und Mehrheit der Willenskundgebungen der einzelnen Bürger zum Ausdruck kommen. Die Wahl ist ausdrücklich geheim, damit es unmöglich wird, auf den Bürger Druck auszuüben, von seinem eigentlichen Willen in der Wahlentscheidung abzuweichen. Auch der Stimmenkauf soll auf diese Weise erschwert werden. Die demokratische Verfassung setzt die Möglichkeit der Lüge durch den einzelnen Wähler bewusst ein, um ihn von jedem Konformitätsdruck zu entlasten. Er mag nach außen erklären, .politisch korrekt' gewählt zu haben (um so irgendwelchen Bestrafungen' zu entgehen), obwohl er in der Wahlkabine .politisch inkorrekt' abgestimmt hat. Die Stimme des Bürgers bei der Wahl zählt, und das unabhängig davon, was die Kausalkette ist, die zu seiner Wahlentscheidung geführt hat. Diese Beobachtung ist, so meine ich, zentral für eine jede Demokratietheorie. Nur dann, wenn man dieses Prinzip beachtet, kann man den Begriff freier Wahlen verstehen. Die Quelle der Legitimität einer Wahl und eines Wahlergebnisses ist nicht der Verursachungszusammenhang, der zu dem Wahlergebnis gefuhrt hat, sondern ist der Wahlvorgang selbst, sofern dieser den Kriterien einer gleichen und geheimen Wahl entspricht. Eine Wahl wäre nicht mehr frei, wenn eine Obrigkeit die Gültigkeit eines Wahlergebnisses unter den Vorbehalt einer Untersuchung der Kausalketten stellen könnte, die zu den Wahlentscheidungen der Bürger gefuhrt haben. Bürgerliche Freiheit liegt nur vor, wenn die Legitimität der Entscheidung des Bürgers nicht unter den Vorbehalt einer gesellschaftlichen Ursachenuntersuchung der Entscheidung selbst gestellt wird. Bürgerliche Freiheit bedeutet, dass die gesellschaftliche Legitimitätsquelle und Anerkennungsquelle der Entscheidung des Bürgers diese selbst ist: Die Gesellschaft akzeptiert die Entscheidung des Bürgers im Rahmen seiner Wahlmöglichkeiten, weil sie die Entscheidung des Bürgers ist und egal, welches die Gründe für diese Entscheidung sind. In der ökonomischen Theorie entspricht dieser Vorstellung von bürgerlicher Freiheit der Begriff der Präferenzen. Das gilt jedenfalls für die normative Theorie, die in der Tradition dieses Fachs insbesondere unter dem Begriff ,Weifare Economics' gepflegt wird. Die positive, also rein nach dem Kausalprinzip verfahrende, erklärende ökonomische Theorie könnte zur Not den Begriff der Präferenzen ganz entbehren. Das war die Intention des berühmten Aufsatzes von Stigler und Becker mit dem Titel „De gustibus non est disputandum" (Stigler und Becker 1977). Mit dieser Thematik gebe ich mich in diesem Vortrag nicht ab. Ich konzentriere mich auf die normative Theorie, die ja auch als Teil der Sozialphilosophie verstanden werden kann.

72

Carl Christian von Weizsäcker

Die Präferenzen des einzelnen Bürgers bestimmen in den Modellen der normativen ökonomischen Theorie seine Entscheidungen. Er maximiert nach herkömmlicher Vorstellung seinen Nutzen gemäß seinen Präferenzen. Somit stehen die Präferenzen quasi als ,Ursache' für seine Wahl zwischen den ihm zur Verfügung stehenden Alternativen. Sie ersetzen damit die eigentlichen Ursachen im Sinne eines Kausalmodells menschlichen Verhaltens, das man in einem Modell der bürgerlichen Freiheit nicht brauchen kann. Die Fiktion der Willensfreiheit ersetzt das Robotermodell der kausalen Erklärung des Verhaltens. Und damit die Willensfreiheit aber nicht zu einem Modell chaotischen Verhaltens führt, versteht man die Entscheidung des Bürgers als Ausfluss seines Versuchs, seinen Nutzen im Rahmen einer als stabil vorgestellten Präferenzordnung zu maximieren. Je nach Betrachtungsweise führt das Präferenzmodell damit zu einem , Robotermodell' des Verhaltens, wo es jetzt eben die Präferenzordnung des Bürgers ist, die sein Verhalten steuert - oder aber das Modell dient eben dazu, die Entscheidungsfreiheit des Bürgers zu beschreiben, dessen Präferenzordnung ja nicht von seiner sozialen Umwelt oktroyiert ist, sondern die seiner eigenen Wahl ist. Die so modellierten Präferenzen sind aber auch die Quelle der Werte, an denen sich eine gute Wirtschaftspolitik orientieren soll. Das nennen wir normativen Individualismus'. Nicht irgendwelche Werte jenseits der einzelnen Individuen sind Maßstab für die Wirtschaftspolitik, sondern die Werte der Individuen selbst, die eben auch in ihrer Präferenzordnung zum Ausdruck kommen. Dieser ,normative Individualismus' gehört zu einer liberalen Auffassung von guter Wirtschaftspolitik. Es gibt dann das Prinzip der ,revealed preference'. Das ist für die alltäglichen Aufgaben der Wirtschaftspolitik von besonderer Bedeutung. Es besagt: wenn die Menschen sich gemäß ihren Präferenzen verhalten, dann kann man von ihrem Verhalten auf ihre Präferenzen zurückschließen. Die gesamte Kosten-Nutzen-Analyse basiert auf diesem ,revealed preference'-Prinzip. Dadurch kann man von dem erwarteten Nachfrageverhalten der Konsumenten auf deren Nutzen in Geldeinheiten zurückschließen, wenn es zum Beispiel um ein neues Infrastrukturprojekt geht. Samuelson und Houthakker haben vor drei Viertel-Jahrhunderten die Logik des ,revealed preference'-Prinzips für den Fall rationalen Verhaltens der Bürger entwickelt.

2.3. Das Problem des ,Homo Oeconomicus' Der Homo Oeconomicus ist die herkömmliche Denkfigur der Weifare Economics. Indem der Bürger als rational vorgestellt wird, kann man das Ergebnis seines Handelns auf seine Präferenzen und somit auf die Wertequelle für die Wirtschaftspolitik beziehen. Ferner setzt man für den Homo oeconomicus voraus, dass seine Präferenzordnung fest vorgegeben ist. Da die Erfüllung der Bedürfnisse der Menschen gemäß ihren Präferenzen der Maßstab für die Qualität der Wirtschaftspolitik ist, kann die Annahme der fix vorgegebenen Präferenzen das Geschäft der Weifare Econmics erleichtern. Wenn die Präferenzen selbst von den wirtschaftlichen Vorgängen beeinflusst werden, dann wird der Maßstab der Performance selbst von dem, was er messen soll, verändert. Das aber müsste die Weifare Economics wesentlich schwieriger machen. Daher besteht in der Ökonomik ein starker Widerstand dagegen, den Homo Oeconomicus durch ein anderes Menschenmodell zu ersetzen.

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

73

Immerhin gibt es inzwischen eine aktive Forschung unter dem Titel ,Behavioural Economics'. Aus den bisherigen Ergebnissen dieser Forschung werden auch schon Empfehlungen für die Wirtschaftspolitik abgeleitet, die unter dem Stichwort ,Libertarian Paternalism' und ,Nudge' eine erhebliche Resonanz gefunden haben. Allerdings bleibt hierbei ein wichtiges Kernstück der herkömmlichen Weifare Economics erhalten: die Hypothese, dass der einzelne Bürger selbst am besten weiß, was ihm frommt. Deren Validität wird in dieser Forschungsrichtung einstweilen nicht infrage gestellt. Ich gehe im Folgenden wie auch in anderen Arbeiten die Problematik des Homo oeconomicus anders an. Ich ersetze ihn durch den ,Homo Oeconomicus Adaptivus', der es erlaubt, dass seine Präferenzen von seiner ökonomischen Umgebung beeinflusst werden. Ich zeige, dass dann Weifare Economics immer noch möglich ist.

2.4. Adaptive Präferenzen Verwendet man Worte so, dass sie noch eine Beziehung zu ihrem üblichen Gebrauch haben, dann hat der gesunde Menschenverstand keine Zweifel: Die Präferenzen der Menschen sind beeinflussbar; sie können also nicht, wie beim Homo Oeconomicus, ein für alle Mal feststehen. Ein Modell, das auf diese Beobachtung Rücksicht nimmt, muss es somit ermöglichen, dass sich im Zeitverlauf die Präferenzen einer betrachteten Person verändern. Der modelltechnisch einfachste Fall veränderlicher Präferenzen ist der, dass die Präferenzen des Konsumenten von seinem eigenen tatsächlichen Konsum beeinflusst werden. Ein derartiges Modell soll hier vorgestellt werden. Trotz seiner Einfachheit trägt es recht weit. Das ermutigt zu der Vermutung, dass der hier gewählte Ansatz sehr fruchtbar ist, wenn es um eine bessere normative Ökonomik geht. Der Ansatz mag auch den interdisziplinären Dialog mit anderen Sozialwissenschaften und anderen sozialphilosophischen Richtungen erleichtern. Wir beschreiben eine Person nicht wie in der herkömmlichen neoklassischen Theorie mittels einer vorgegebenen Präferenzordnung, sondern mittels eines vorgegebenen Präferenzsystems. Ein solches Präferenzsystem, bezeichnet mit P, hat drei Komponenten. Diese sind: 1. Der Raum C der möglichen Konsumalternativen. Eine Konsumalternative soll .Warenkorb' genannt werden und als n-dimensionaler Vektor reeller Zahlen X = (x1,X2,... • dargestellt werden. Der Raum C der möglichen Konsumalternativen wäre damit Teil des n-dimensionalen Euklidische Raums, den man in der Mathematik üblicherweise mit Rn bezeichnet. Ein Beispiel wäre, dass C der Orthant der nichtnegativen Vektoren des Rn ist. Der Konsument unterliegt bestimmten Beschränkungen in der Auswahl seines zu konsumierenden Warenkorbs, z.B. einer Budgetbeschränkung: Der Warenkorb darf nicht mehr kosten als einem bestimmten Budget entspricht, wobei die Preise der Waren dem Konsumenten vorgegeben sind. Diese Wahlbeschränkungen können sich aber im Zeitverlauf ändern, zum Beispiel, weil sich die Preise ändern oder weil sich sein Budget ändert. 2. Der Raum der möglichen Präferenzordnungen des Konsumenten. Im Homo Oeconomicus-Modell besteht dieser Raum aus einem einzigen Element, eben den als fest angenommenen vorgegebenen Präferenzen. Im hier vorgestellten Modell sind prin-

74

Carl Christian von Weizsäcker

zipiell viele Präferenzordnungen möglich. Diese können vielleicht mathematisch in sinnvoller Weise parametrisiert werden. Hier gehe ich auf Details nicht ein. Dem Raum Q kann eine Topologie zugeordnet werden, sodass man in sinnvoller Weise von .Stetigkeit' und .Konvergenz' reden kann. So mag zum Beispiel der Raum Q auf solche Präferenzen beschränkt sein, die im folgenden Sinne stetig sind: für eine in einem vernünftigen Sinne definierte Topologie Tauf Q mag gelten: für jede vorgegebene Präferenzordnung qeQ und für je zwei Warenkörbe xeC und y e C derart, dass y ( > ; q)x (in Worten: bei Präferenzordnung q wird y dem X vorgezogen), gibt es eine Umgebung U(q) c Q sodass für r € U(q) ebenfalls gilt: y ( > ; r ) x . 3. Ein .Bewegungsgesetz' für die Veränderung der Präferenzen durch die Zeit. Dieses mag die Form einer Differentialgleichung oder einer Differenzengleichung annehmen, je nach dem, ob man in einem Modell mit kontinuierlicher Zeit oder in einem Modell mit diskreten Zeitperioden arbeitet. Im Fall kontinuierlicher Zeit mag diese Differentialgleichung so aussehen: ~ = q = f(x; q), wobei / eine Funktion sowohl des jeweils konsumierten Warenkorbs X als auch der gerade vorherrschenden Präferenzordnung q ist. Dies bringt zum Ausdruck, dass zu jedem Zeitpunkt eine Präferenzordnung vorherrscht, die sich aber in Abhängigkeit des konsumierten Warenkorbs im Zeitverlauf ändert. Diese drei Elemente eines Präferenzsystems mag man wie folgt in Kurzform schreiben:J> = { € ; % / } . In der folgenden Theorie spielt der jeweilige Status Quo eine große Rolle. Wir untersuchen den Einfluss, den ein jeweiliger Konsum-Status Quo auf die Präferenzen des Konsumenten hat. Ein Konsum-Status-Quo wird verstanden als ein über die Zeit konstant bleibender Konsum-Warenkorb X. Ich nehme an, dass es zu jedem KonsumStatus-Quo X eine Präferenzordnung gibt, die sich durchsetzt. Es sei p ( x ) diese Präferenzordnung. Wir bezeichnen p(x) als die vom Konsum-Status Quo induzierte Präferenzordnung. Mathematisch ist p(x) der Konvergenzpunkt der Differentialgleichung. Somit gilt folgendes: Annahme: Für konstantes X konvergiert q gemäß dem Bewegungsgesetz q = f(x; q ) gegen eine Präferenzordnung p ( x ) . Die Abbildung p ( x ) : C -» Q sei stetig. Definition (Induzierte Präferenzordnung): Die Präferenzordnung p ( x ) heiße die vom Status Quo X induzierte Präferenzordnung. Auf den Begriff der induzierten Präferenzordnung baue ich den Begriff der adaptiven Präferenzen auf. Der Ausdruck y ( > ; q)x soll heißen: bei Gültigkeit der Präferenzordnung q wird der Warenkorb y dem Warenkorb X vorgezogen. Der Ausdruck y ( > ; q)x soll heißen: bei Gültigkeit der Präferenzordnung q gilt entweder: y wird dem X vorgezogen, oder: y und X sind zueinander gleichwertig, d.h. indifferent. Der Ausdruck } ' ( = ; q ) x soll heißen: bei Gültigkeit der Präferenzordnung q sind y und X zueinander gleichwertig, d.h. indifferent. Wir definieren dann adaptive Präferenzen wie folgt:

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

75

Definition (Adaptive Präferenzen): Adaptive Präferenzen liegen vor, wenn folgendes gilt: Wenn > ' ( > ; p ( x ) ) x dann auch y{>\p(y))x~, wenn y(=;p(x))x dann

y(>;p(y))x Adaptive Präferenzen liegen mit anderen Worten vor, wenn folgendes gilt: Wenn bei von X induzierten Präferenzen der Warenkorb y dem Warenkorb X vorgezogen wird, dann ist das bei von y induzierten Präferenzen erst recht der Fall. Und: wenn bei von X induzierten Präferenzen y und X gleichwertig sind, dann wird bei von y induzierten Präferenzen jedenfalls X nicht dem y vorgezogen. Wir können adaptive Präferenzen als einen gewissen Präferenzkonservatismus bezeichnen. Die Präferenzen richten sich beim jeweiligen Status Quo ein: dieser wird gegenüber denselben Alternativen höher geschätzt als er geschätzt würde, wenn er nicht der Status Quo wäre. Nach den mir bekannten empirischen Befunden über menschliches Verhalten (,behavioral economics') ist die Hypothese gerechtfertigt, dass die Präferenzen der Menschen in der Tat adaptiv sind. Hierauf werde ich in diesem Beitrag jedoch nur am Rande eingehen. Ein schlagendes Beispiel für adaptive Präferenzen ist der Ausganspunkt der ,Nudging-Philosophie' (Thaler und Sunstein 2009): die Tendenz der Menschen, durch quasi,Nicht-Entscheiden' die jeweilige ,Default-Option' implizit vorzuziehen. Der Status Quo ist hier der Zustand, der entsteht, wenn die Default-Option ,gewählt' wird. Ich schreibe .gewählt' in Anfuhrungsstrichen, denn man kann als Außenstehender nicht ohne weiteres feststellen, ob der Konsument die Default-Option bewusst gewählt hat oder ob er es einfach versäumt hat, sich zu etwas zu entscheiden, sodass sich dann in dem vorhandenen institutionellen Zusammenhang die Default-Option automatisch durchsetzt. Man beobachtet jetzt, dass die Wahlentscheidungen der Menschen in sehr starkem Maße dahin tendieren, die jeweilige Default-Option zu wählen. Wird bei gegebenen Wahlmöglichkeiten die Default-Option durch Verschiebung des institutionellen Zusammenhangs geändert, dann nimmt die Entscheidungshäufigkeit zugunsten der alten Default-Option massiv ab und die Entscheidungshäufigkeit zugunsten der neuen Default-Option massiv zu. Dieses Faktum machen sich die .libertären Paternalisten' zunutze, um die Entscheidungen der Konsumenten zu deren eigenem Nutzen zu verbessern. Das ,Libertäre' kommt darin zum Ausdruck, dass sich die Wahlmöglichkeiten durch diesen Eingriff gar nicht geändert haben. Das ,Paternalistische' ist die Tatsache, dass man den institutionellen Set-Up so manipuliert, dass die Default-Option diejenige ist, die aus Sicht des Manipulators die letztlich beste Option für den Entscheidenden selbst ist. Ich will an dieser Stelle diesen Ansatz nicht kritisieren. Ich weise nur darauf hin, dass diese Philosophie des libertären Paternalismus nur deshalb praxisrelevant ist, weil die Präferenzen der Menschen eben adaptiv sind, d.h. stark dazu tendieren, den jeweiligen Status Quo aufrecht zu erhalten.

2.5. Fortschrittssequenzen In der folgenden Darstellung verwende ich ein besonders einfaches Modell des Präferenzsystems T . Ich nenne es das ,Class Room Model' oder auf Deutsch vielleicht das

76

Carl Christian von Weizsäcker

,Unterrichtsmodell'. Die Theorie ist aber wesentlich allgemeiner und gilt insbesondere auch für ein Modell mit kontinuierlicher Zeit. Dort ist nur die Begriffsarbeit und mathematische Beweisführung etwas komplizierter. Dafür ist das Modell mit kontinuierlicher Zeit realistischer. Im begrifflich einfacheren, aber etwas unrealistischeren ,UnterrichtsmodeH' nehme ich an, dass wir diskrete Einheitsperioden unterscheiden können, die ich hier einmal ,Jahre' nennen werde. Femer nehme ich an, dass der Induktionsprozess der Präfernzen genau ein Jahr dauert. Das bedeutet: die Präferenzen, nach denen sich der Konsument im Jahr t richtet, sind die Präferenzen, die durch den Warenkorb des Jahres t — 1 induziert wurden. Ich führe nun den Begriff der Fortschrittssequenz

ein.

Definition (Fortschritts-Sequenz): Die zeitliche Abfolge von endlich vielen Warenkörben X°,X1,X2 XT und Präferenzen q°.q1 ,q2,.... qT sei eine Fortschrittssequenz genannt, wenn folgendes gilt: 1. q° — p(x°) und ql = p ( x t _ 1 ) für t = 1 , 2 , . . . T - sowie2. x*(>;qt~1yxt~1. In Worten: im ,UnterrichtsmodeH' sprechen wir von einer Fortschrittssequenz, wenn gemäß den jeweils aktuellen Präferenzen der Warenkorb des nächsten Jahres dem Warenkorb dieses Jahres vorgezogen wird. Die interessante Frage ist die: unter welchen Voraussetzungen kann man gemäß den Präferenzen des Konsumenten bei einer Fortschrittssequenz von einem ,echten' Fortschritt sprechen? Ein Beispiel für eine .unechte' Fortschrittssequenz ist die Geschichte vom ,Hans im Glück' aus den Märchen der Brüder Grimm. Hans tauscht bekanntlich einen Goldklumpen gegen ein Pferd, dieses gegen ein Kuh, diese gegen ein Schwein usw., bis er schließlich dazu kommt, den zuletzt eingetauschten Stein wegzuwerfen, weil er ihm zu schwer ist. Unterstellen wir jetzt einmal, dass er sich danach einen Goldklumpen wieder gerne schenken lässt, dann sehen wir bei ihm eine Fortschrittssequenz, die ihn schließlich zu seinem Startpunkt zurück bringt. Es handelt sich um eine Fortschrittssequenz, weil er ja den einen Gegenstand gegen den nächsten freiwillig tauscht, also den nächstfolgenden Zustand dem jeweils aktuellen Zustand vorzieht. Dennoch kommt in der Summe kein echter Fortschritt heraus; denn er landet wieder dort, wo er angefangen hat. Ich formuliere somit als notwendige Bedingung dafür, dass eine Fortschrittssequenz einen echten Fortschritt darstellt, dass sie nicht-zirkulär ist. Definition (Fortschrittspfad'): Eine nicht-zirkuläre Fortschrittssequenz soll Fortschrittspfad genannt werden. Die formal-theoretische Arbeit besteht nun darin, Bedingungen zu finden, unter denen alle Fortschrittssequenzen auch Fortschrittspfade sind. Das zentrale formal-theoretische Ergebnis ist die in den folgenden Abschnitten darzustellende Äquivalenz zwischen der Annahme adaptiver Präferenzen und der Annahme der Nicht-Zirkularität von allen Fortschritts-Sequenzen.

Adaptive Präferenzen und die Legitimierimg dezentraler Entscheidungsstrukturen

77

2.6. Theorem 1: Adaptive Präferenzen implizieren Nichtzirkularität von allen Fortschrittssequenzen Um einen mathematischen Beweis zu führen, muss man das Modell genau spezifieren. Die Disziplin, der man sich bei einem mathematischen Beweis unterwirft, schränkt einen ein in dem, was man über die Welt aussagen kann. Das ist ihr Nachteil - und niemand wird vernünftigerweise verlangen wollen, dass man alle Aussagen über die Welt auf eine mathematische Deduktion reduziert. Andererseits ist die Unterwerfung unter die Disziplin des mathematischen Beweises ein wichtiges, ich meine: letztlich unentbehrliches, Hilfsmittel für die Begriffsarbeit, mit der wir versuchen, die Welt zu beschreiben. Ich führe hier keinen mathematischen Beweis vor; vgl. hierzu aber mein Manuskript vom Februar 2013 (von Weizsäcker 2013a, op cit, FN 4). Daher bringe ich auch keine präzise Formulierung der Annahmen über das Präferenzsystem P , die ich für den Beweis benötige. Immerhin sollen diese Annahmen hier skizziert werden. Annahme 1 (Stetigkeit): Die im Präferenzenraum ; p(z))x. Man beachte, dass diese Definition von Stetigkeit unabhängig von der gewählten Topologie des Raumes Q ist. Annahme 2: (Nicht-Saturiertheit): Die im Präferenzenraum ; q)x. Annahme 3 (Regularität): Die im Präferenzenraum Q enthaltenen Präferenzordnungen q haben die Eigenschaft der Regularität. Diese Eigenschaft bezieht sich auf den Vergleich zwischen je zwei Präferenzordnungen. Im Fall 71 = 2 heißt dies folgendes: Zwei Indifferenzkurven zweier unterschiedlicher Präferenzordnungen, die sich in einem Warenkorb X schneiden, schneiden sich in keinem anderen Warenkorb (.Single Crossing'). Im Fall 7t > 2 ist die Regularitätsbedingung ein mehr dimensionales Analogon zu dieser ,Single-Crossing'-Eigenschaft im zweidimensionalen Fall. Wir können nun folgendes zeigen: Theorem 1: Gelten für ein Präferenzsystem 3* = {C; Q ; / } die Annahmen 1,2 und 3, so sind adaptive Präferenzen eine hinreichende Bedingung dafür, dass sämtliche Fortschrittssequenzen nicht-zirkulär sind. Der Beweis für dieses Theorem ist recht aufwendig. Aber man kann sich die Intuition, die das Theorem 1 stützt, recht einfach klar machen. Die erste Beobachtung ist die: der Fall fixer Präferenzen (Homo Oeconomicus) ist ein Spezialfall adaptiver Präferenzen. Bei fixen Präferenzen ist jedoch offensichtlich gewährleistet, dass alle Fortschrittssequenzen nicht-zirkulär sind. Adaptive Präferenzen bedeuten jedoch, dass - im

78

Carl Christian von Weizsäcker

Vergleich zu fixen Präferenzen - der Widerstand gegen ein Abweichen vom Status Quo noch größer ist. Also muss man den Konsumenten mit mehr Vorteilen locken, damit er vom Status Quo abweicht. Also geht es auf einer Fortschrittssequenz bei adaptiven Präferenzen , steiler' nach oben als bei einer Fortschrittssequenz mit fixen Präferenzen. Unter einer zusätzlichen Annahme gibt es einen sehr einfachen Beweis für die Aussage des Theorems 1. Wenn wir annehmen, dass es einen kardinalen Nutzen gibt (eine Annahme, die in der herkömmlichen Neoklassik gern vermieden wurde), dann kann man die Annahme adaptiver Präferenzen auch so formulieren: der kardinale Nutzen U(x; q) ist für gegebenes X am höchsten bei den von X induzierten Präferenzen p ( x ) . Es soll also für alle q e Q gelten: U(x; p(x)) > U(x; q). Ferner gilt für eine Fortschrittssequenz natürlich i / { x t ; p ( x t _ 1 ) ) > U(xt~1;p(xt~1}). Somit finden wir für die Fortschrittssequenz U{x°-,P(x0)) 2

2

U(x ;p(x ))

< U(x1;p(x0)) < -

Daraus folgt U(x°;p(x0)) weisen war.

< Uix^pix1)) T

r 1

< U(x ; p(x " ))

< U(xT;p(xT)),

< ü(x2;p(x1))
; p ( y ) ) } ' oder einen Fall, in dem gilt y{=;p(x))x, jedoch x(>;p(y))y. Im ersten Fall gäbe es einen Vektor se > 0 mit einer positiven Zahl S und dem aus lauter Einsen bestehenden Vektor e derart, dass gilt y ( > ; p(x + £ e ) ) ( x + ee) und (x + £e)(>-,p(y))y. Dies deshalb, weil die Präferenzen stetig sind, die Funktion p ( x ) stetig ist und wegen der Annahme der NichtSättigung. Dann aber haben wir einen zirkulären Fortschrittspfad: X + ee; y; x + ee, was die Annahme des Theorems verletzt. Im zweiten Fall müssen wir nur die Rollen von X und 3' vertauschen und bekommen das gleiche Resultat. QED.

2.8. Interpretation der Äquivalenz von Adaptivität und Nicht-Zirkularität Die Eigenschaft der Adaptivität der Präferenzen ist eine ,lokale' Eigenschaft des Präferenzsystems T — { € ; Q ; / } . In ihre Definition sind nur zwei Warenkörbe und zwei

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

79

von diesen induzierte Präferenzordnungen involviert. Die Eigenschaft der universellen Nichtzirkularität von Fortschrittssequenzen ist eine .globale' Eigenschaft des Präferenzensystems T = {C; Q ; / } . Denn solche Fortschrittssequenzen können sich weit durch den ganzen Güterraum bewegen - und dasselbe gilt dann für die durch die Warenkörbe induzierten Präferenzen, die dann weit durch den ganzen Präferenzenraum Q wandern können. Die Eigenschaft der universellen Nichtzirkularität von Fortschrittssequenzen kann nicht direkt nachgewiesen werden, da man ja nicht den ganzen Güter- und Präferenzenraum abstecken kann. Die .lokale' Eigenschaft der Adaptivität der Präferenzen ist jedoch der empirischen Überprüfung durchaus zugänglich.

2.9. ,Piecemeal-Engineeering' Im Widerstand gegen den Totalitarismus seiner Zeit entwickelte Karl Popper (2003a; 2003b) sein Konzept der ,Offenen Gesellschaft'. Er sah im utopischen Denken die geistige Wurzel des Totalitarismus. Dieser rechtfertigt nach Popper die totale Unterwerfung des Individuums unter die staatliche Gewalt mit dem Ziel einer Gesellschaft, die allem Leiden, aller Unterdrückung und aller Ausbeutung ein Ende machen werde. In der Offenen Gesellschaft, seiner anti-totalitären Gegenkonzeption, richtet sich daher die Politik nicht an Gesellschaftsträumen aus, die weit entfernt vom Status Quo sind und über deren Implementierbarkeit sicher keine Einigkeit besteht. An die Stelle der Gesellschaftsträume tritt das, was Popper ,Piecemeal-Engineering' nennt: Ausgehend von einem realen Status Quo soll die Politik kleine Schritte in Richtung .Verbesserung' oder .Fortschritt' machen. Diese führen zu einem neuen Status Quo, von dem dann überprüft werden kann, ob er tatsächlich eine Verbesserung im Vergleich zum früheren Status Quo darstellt. Ist dies nicht der Fall, dann kann man den Schritt ja zurücknehmen und den alten Status Quo wieder ansteuern. Ist der neue Status Quo tatsächlich eine Verbesserung, dann kann man nunmehr einen weiteren ,Fort-Schritt' beginnen usw. Dabei ist bei Popper, wenn ich ihn recht verstehe, durchaus zugelassen, dass sich im Verlauf dieser kleinen Verbesserungsschritte die Beurteilungskriterien verändern, nach denen man Fortschritt oder Rückschritt feststellt. Denn auch Popper und seinen Nachfolgern ist ja bewusst, dass sich Präferenzen, Werte, Moralvorstellungen im Zeitverlauf verändern - und das durchaus auch in Rückkopplung mit den tatsächlichen Zuständen der Gesellschaft. Indessen ist, soweit ich sehe, bisher die Frage nie analytisch behandelt worden, ob eine Summe kleiner Verbesserungsschritte immer auch als .Gesamtverbesserung' angesehen werden kann. Genau dieser Frage widmet sich aber mein Ansatz. In diesem Abschnitt halte ich als These nur fest: auch das Konzept des PiecemealEngineering kann Überzeugungskraft nur gewinnen oder behalten, wenn die Summe der kleinen Verbesserungsschritte nicht zirkulär ist. Und weiterhin: eine Garantie für diese Nichtzirkularität der kleinen Schritte in der Gesamtgesellschaft setzt voraus, dass diese Nichtzirkularität auch für die Fortschrittssequenzen der einzelnen Bürger garantiert ist. Ich kann mir schlechterdings nicht vorstellen, dass es auf der kollektiven Ebene eine Nichtzirkularitätsgarantie der kleinen Verbesserungsschritte geben kann, wenn das Risiko besteht, dass die Bürger des Landes überwiegend so agieren wie Hans im Glück.

80

Carl Christian von Weizsäcker

Das jedenfalls dann nicht, wenn die politischen Wertungskriterien gemäß der Philosophie des .normativen Individualismus' sich aus den Wertungskriterien der einzelnen Bürger ergeben. Und diesem normativen Individualismus stimmen die Anhänger Poppers sicher zu. Daher verstehe ich meine Theorie auch als einen Beitrag zur Fundierung der Politik der kleinen Schritte im Sinne des Piecemeal-Engineering. Hier kommen wir zu dem Ergebnis, dass adaptive Präferenzen für diese Fundierung notwendig sind (Theoreme 1 und 2). Wie schon oben festgestellt, sind adaptive Präferenzen ein Ausdruck eines gewissen Präferenzkonservatismus: Der jeweilige Status Quo wird durch die von ihm induzierten Präferenzen aufgewertet. Das erscheint wie ein Paradoxon: Erst eine konservative Einstellung schafft das Fundament für das, was man echten Fortschritt nennen kann.

3.

Legitimierung der Geldform dezentraler Entscheidungen bei endogenen Präferenzen

3.1. Fortschritt mit vielen simultanen ,kleinen Schritten' In einer Gesellschaft vieler Bürger regt sich überall Veränderung. Die vereinfachende Annahme des ,Unterrichtsmodells' ist nicht kompatibel mit dieser Beobachtung. Wenn wir berücksichtigen, dass die induzierten Präferenzveränderungen je nach dem Zusammenhang schnell oder langsam vonstatten gehen, dann kann der Status Quo nicht als ein stationärer Zustand aufgefasst werden, bei dem schon die von diesem Status Quo induzierten Präferenzen gelten. Das Denkgebäude entspricht der dem Marktsystem innewohnenden Geldform der Koordination dezentraler Entscheidungen. Aber ich sehe keine grundsätzlichen Schwierigkeiten, das Denkgebäude auch auf andere Formen dezentraler Entscheidungen auszudehnen. Die Geldform der Koordination dezentraler Entscheidungen ist die Basis für einen wirtschaftspolitischen Kalkül, den man als ,Kosten-Nutzen-Analyse' bezeichnet. Die Ökonomik spricht auch von der ,Partialanalyse'. Es geht um die Legitimität dieser Partialanalyse unter dem Kriterium des Gemeinwohls. In dem klassischem Artikel ,The Use of Knowledge in Society' beschreibt Hayek die Funktion eines Systems von Preisen, das es den einzelnen Aktoren erlaubt, sich auf ihre eigenen lokalen Interessen zu konzentrieren, weil die (monetären) Kosten und Nutzen ihrer Handlungen zugleich die gesamtwirtschaftlichen Knappheitsverhältnisse widerspiegeln. Indem sie nur ihre eigenen Interessen verfolgen, tun sie auch das gesamtwirtschaftlich Richtige, weil sie über die Güterpreise die volkswirtschaftlichen Knappheitssignale in ihrem eigenen Interesse in korrekter Weise berücksichtigen (Hayek 1945). Die herkömmlichen Bedingungen dafür, dass bei fixen Präferenzen diese Legitimierung der dezentralen Entscheidungen funktioniert, diskutiere ich hier nicht. Ich verweise nur auf die klassischen Diskussionen zu den theoretischen Grundlagen der KostenNutzen-Analyse (Boardman et al. 2006). Hier geht es mir um das zusätzliche Legitimationsproblem, das durch die Endogenität der Präferenzen ins Spiel kommt.

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

81

Wenn Präferenzen sich endogen ändern, entsteht ein zusätzliches Legitimationsproblem für dezentrale Entscheidungen, also auch für Kosten-Nutzen-Kalküle: Angenommen Projekt A stehe zur Diskussion. Es werde unter Berücksichtigung der heute gültigen Präferenzen implementiert. Durch dessen Verwirklichung gibt es eine Rückkopplung auf die Präferenzen. Das Projekt A ist sozusagen erst endgültig legitimiert, wenn es auch unter der Beurteilung mit den Ex-Post-Präferenzen als sinnvoll angesehen wird. Unterstellen wir einmal eine Gesellschaft, in der ganz systematisch die ex ante legitimierten Projekte mit großer Wahrscheinlichkeit mit den Ex-Post-Präferenzen delegitimiert würden. Das kann die Öffentlichkeit dann bei jedem einzelnen Projekt mit hoher Wahrscheinlichkeit erwarten. Sie würde dann dafür votieren, Entscheidungen nicht mehr dezentral zu fallen. Unterstellt man aber, dass man dezentrale Entscheidungen benötigt, um die Gesellschaft vor Erstarrung zu bewahren, dann würde eine derartige Gesellschaft Gefangene des Status Quo werden, weil dezentrale Entscheidungen systematisch von den durch sie induzierten Präferenzen desavouiert und somit delegitimiert würden. Es ist daher von Interesse, hinreichende Bedingungen dafür aufzuzeigen, dass die Präferenz-Rückkopplung von dezentral veranstalteten und damit ex-ante legitimierten Ausbrüchen aus dem Status Quo auch zu einer Ex-Post-Legitimität der AusbruchsEntscheidung führt. Als Status Quo bezeichne hier die Welt, wie sie ist und sein wird, wenn ein in Frage stehendes Projekt nicht durchgeführt wird. Zu beurteilen ist somit, ob sich die Welt verbessert, wenn das Projekt durchgeführt wird. Man denke bei derartigen Projekten an den Bau einer Brücke, die Gründung einer Universität, die Änderung eines Gesetzes, die Einfuhrung eines neuen Produkts in den Markt etc. Es ist dabei im Moment gleichgültig, ob es sich hierbei um eine öffentliche, also staatliche Entscheidung handelt oder um eine private, wie zum Beispiel bei der Einführung eines neuen Produkts in den Markt.

3.2. Kompatible Freiheitsrechte In der hier vorgestellten Theorie führe ich die Ex-Post-Rechtfertigung von P r o j e k ten' mit einem bestimmten Begriff eines Systems der bürgerlichen Freiheit zusammen. Und ich zeige, dass adaptive Präferenzen ein zentrales Begründungselement für diese Ex-Post-Rechtfertigung sind. Aber auch ein Institutionensystem der bürgerlichen Freiheit funktioniert höchstens dann, wenn die Präferenzen adaptiv sind. Die Sozialphilosophie hat sich mit dem Begriff der Freiheit immer schwer getan. Aber man war sich, was freiheitliche Institutionen betrifft, immer darin einig, dass die Freiheitsrechte des einen nicht die Rechte des anderen .kränken' (Wilhelm von Humboldt) sollen. Es gibt somit ein grundsätzliches Problem der Kompatibilität der Freiheitsrechte der verschiedenen Bürger. Eine verkehrte Antwort auf das Kompatibilitätsproblem ist die folgende: Die Freiheitsrechte jedes Bürgers müssen so gestaltet sein, dass sein Handeln, gleichgültig, wie auch immer er im Rahmen seiner Rechte handelt, keine negativen Effekte auf andere Mitbürger bewirkt. Ich spreche hier von der ,Maximal-Kompatibilität von Freiheits-

82

Carl Christian von Weizsäcker

rechten'. Ein so zugeschnittenes System von Rechten wäre so restriktiv, dass Freiheit intuitiv verstanden - gar nicht mehr vorhanden wäre. Ich zeige das am Beispiel des Straßenverkehrs. Wir haben eine Straßenverkehrsordnung. Diese ermöglicht eine ganz zufriedenstellende Nutzung der Straßeninfrastruktur. Damit bereitet sie dem Bürger ein hohes Maß an zusätzlicher Mobilität, auf die er in den meisten Ländern der Welt inzwischen auch seinen Lebensstil eingerichtet hat. Diese Mobilität ist quasi Komponente seiner bürgerlichen Freiheit. Indessen besteht kein Zweifel, dass das Verhalten der Verkehrsteilnehmer auf der Straße auch zu Schäden bei anderen Verkehrsteilnehmern führt, bis hin zu Todesfallen Unschuldiger. Aber auch schon Staus auf den Autobahnen oder im Stadtverkehr zeigen routinemäßig negative externe Effekte an, die die Autofahrer selbst dann aufeinander ausüben, wenn sie sich strikt an die Vorgaben der Straßenverkehrsordnung halten. Eine hypothetische Straßenverkehrsordnung, in der derartige negative externe Effekte nicht auftreten, müsste zuvörderst die Anzahl der Teilnehmer am Straßenverkehr um Größenordnungen reduzieren. Dies allein würde schon dazu führen, dass die Finanzierung des Erhalts und des Ausbaus des Straßensystems über einen ,Preis' in der Form einer Mineralölsteuer problematisch würde. Zu guter letzt gäbe es dann auch wesentlich weniger befahrbare Straßen, sodass selbst die privilegierten Wenigen, die Autofahren dürfen, davon weniger hätten als im heute herrschenden System. Auch die Entwicklung der Automobil-Technik wäre angesichts des viel kleineren Marktes nicht so rasch erfolgt wie es tatsächlich der Fall war. Wir können den Schluss ziehen: Diese hypothetische Straßenverkehrsordnung wäre Pareto-inferior gegenüber der tatsächlichen. Vor die Wahl gestellt zwischen der hypothetischen, unfallfreien Straßenverkehrsordnung und der tatsächlichen würden sich sämtliche Bürger zugunsten der tatsächlichen entscheiden. Eine derart ,maximale' Kompatibilität der Freiheitsrechte der Bürger kann somit nicht das gute System der Freiheitsrechte sein. Wie kann ein solches dann aber charakterisiert werden? Ich schlage hier einen bestimmten Begriff der pragmatischen Kompatibilität' vor. Im Rahmen der Straßenverkehrsordnung ist die Zielsetzung ein sich selbst finanzierender und unter dieser Nebenbedingung möglichst zufriedenstellender Straßenverkehr, also ein Straßenverkehr, der den Überschuss des Nutzens über die Kosten für seine Teilnehmer maximiert. Die Freiheitsrechte, die die Straßenverkehrsordnung den einzelnen Verkehrsteilnehmern einräumt, sind somit derart, dass nach wie vor negative externe Effekte auf andere Verkehrsteilnehmer entstehen, dass diese aber dadurch aufgewogen werden, dass der jeweilige Verkehrsteilnehmer für diese von ihm verursachten negativen externen Effekt auch bezahlt. Ein Beispiel: indem ein Autofahrer eine vielbefahrene Strecke benutzt, bewirkt er, dass andere Nutzer dieser Strecke langsamer vorankommen. Dem dadurch bei den anderen Nutzern entstandenen Schaden steht jedoch gegenüber, dass der Autofahrer Treibstoff verbraucht, für den er Mineralölsteuer bezahlt, die dazu beiträgt, dass Investitionen finanziert werden können, die das Verkehrssystem insgesamt verbessern. In der Summe ist damit der externe Effekt, den der Autofahrer durch Nutzung des Verkehrssystems verursacht, nicht negativ: Dem Schaden für die gleichzeitig fahrenden Nutzer steht der Vorteil für die Nutzer gegenüber, der aus dem Beitrag zur Finanzierung von Verkehrsinvestitionen besteht.

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

83

Auch die Strafzahlungen für zu schnelles Fahren können so gestaltet sein, dass zu schnelles Fahren im Durchschnitt in der Summe positive externe Effekte verursacht. Die durch zu schnelles Fahren zusätzlich verursachten Unfallrisiken der anderen Verkehrsteilnehmer wären in ihrem Wert zu verrechnen gegen die mit einer gewissen Wahrscheinlichkeit fällig werdenden Strafzahlungen, die dazu dienen können, Investitionen zu finanzieren, die wieder allen Verkehrsteilnehmern zugute kommen. Das Beispiel der Straßenverkehrsordnung legt nahe, dass die pragmatische Kompatibilität' von Freiheitsrechten begrifflich eng verwandt ist mit dem Konzept der Effizienz, wie es der Ökonom seit langem verwendet. Indessen muss man bei einer abstrakteren Diskussion von Freiheitsrechten zusätzliche Vorsicht walten lassen. Das aus zwei Gründen, die man bei einem Subsystem wie dem Straßenverkehr vernachlässigen kann. Erstens muss man Verteilungseffekte der Zuteilung von Rechten im Allgemeinen berücksichtigen, während es sinnvoll ist, bei der Straßenverkehrsordnung Verteilungseffekte auszublenden. Zweitens jedoch bedarf es der Rücksichtnahme auf die Rückkopplung von einem System von Freiheitsrechten auf das Funktionieren des demokratischen Systems. Auch hier ist es plausibel, dass man bei der Straßenverkehrsordnung auf diese Rückkopplung keine Rücksicht nehmen muss. Um diese beiden allgemeinen Rücksichtnahmen bei der folgenden Definition pragmatischer Kompatibilität von Freiheitsrechten mit einzubeziehen, beschränke ich die Gültigkeit meiner Analyse auf Staaten, in denen es erstens einen gewissen Mindeststand an Grundrechten der Bürger gibt, wie zum Beispiel Meinungsfreiheit, Versammlungsfreiheit, bestimmte prozessuale Rechte im Fall von Rechtskonflikten, das Recht auf Auswanderung, allgemeines Wahlrecht. Zweitens soll die Gültigkeit des Konzepts der pragmatischen Kompatibilität nur für solche Staaten gelten, in denen ein bestimmter Mindeststandard an Sozialstaatlichkeit gewährleistet ist. Aus meiner Sicht erhält das Effizienzprinzip vor allem daher seine Attraktivität, dass man sich in einer dezentral organisierten Volkswirtschaft auf das Prinzip der .Generalkompensation' verlassen kann. Ich habe dieses Prinzip an anderer Stelle in die Diskussion eingeführt (von Weizsäcker 1998) und möchte es hier nicht in extenso verteidigen. Der Grundgedanke ist dieser: Hat man in einer dynamischen Wirtschaft die Wahl zwischen einem Effizienzregime und einem Verteilungsregime, dann stellen sich im Effizienzregime alle Einkommensperzentile besser als in dem Verteilungsregime. Dabei ist ein Verteilungsregime ein solches, bei dem bei jeder vorgeschlagenen , Innovation' ein Vetorecht deijenigen besteht, die sich durch diese Innovation schlechter stellen - es sei denn sie würden für ihre Nachteile jeweils voll entschädigt. Ein derartiges Verteilungsregime hätte es sehr schwer, vom Status Quo abzuheben, wäre daher zu Stagnation verdammt. Daher stellen sich letztlich alle Einkommensperzentile besser, wenn auf Kompensationen dieser Art im Einzelfall verzichtet wird und man in einem bestimmten rechtlichen Rahmen alle .Innovationen' zulässt, die einen Effizienzgewinn mit sich bringen. Es kann gezeigt werden, dass das Prinzip der Generalkompensation gerade dann gut funktioniert, wenn es über das Steuersystem und die Sozialkassen eine Umverteilung von Reich zu Arm gibt. Denn dann fuhrt selbst eine effiziente Innovation, die primär die Reichen begünstigt, über deren damit höhere Steuerzahlung auch recht un-

84

Carl Christian von Weizsäcker

mittelbar zu einer Begünstigung der Empfängerseite der steuerlichen Umverteilung (von Weizsäcker 2007). Diese Einschränkungen vorausgesetzt, definiere ich pragmatisch kompatible Freiheitsrechte als ein System von Rechten, das folgende Eigenschaft hat. Wir stellen uns Bürger vor, denen im Rahmen ihrer Rechte Handlungsoptionen offen stehen, von denen sie dann jeweils eine auswählen, wobei sie hierbei von ihren Präferenzen geleitet werden. Ändern sich nunmehr die Präferenzen eines dieser Bürger - nennen wir ihn Bürger 1 - dann soll die aus dieser Präferenzänderung resultierende Allokationsänderung der Volkswirtschaft zu Realeinkommensänderungen &.Yl der Bürger i derart fuhren, dass gilt AK; > 0 ist, wobei n die Anzahl der Bürger in dieser Volkswirtschaft ist. Man kann das verbal auch so ausdrücken: Da die Verhaltensänderung des Bürgers 1 aufgrund seiner Präferenzänderung diesem sicher einen Vorteil bringt (sonst hätte er sie ja unterlassen), muss gelten, dass der aus dieser Verhaltensänderung resultierende Gesamtschaden der anderen Bürger weniger stark ins Gewicht fallt als der Nutzen des ersten Bürgers. Dabei ist durchaus zu erwarten, dass als Reaktion auf die Verhaltensänderung des ersten Bürgers sich auch andere Bürger anders verhalten. Das ist das Grundprinzip. Zu seiner praktischen Umsetzung der nächste Abschnitt.

3.3. Zur Implementation eines Regimes pragmatisch kompatibler Freiheitsrechte In seinem klassischen Artikel „The Problem of Social Cost" entwickelt Coase (1960) ein Argument, weshalb das Recht sich so entwickelt, dass die Property Rights effizient verteilt sind. Dies hat die darauf aufbauende ,Economic Analysis of Law' veranlasst, das geltende Recht unter dem Aspekt zu ,verstehen', weshalb es effizient sei. Im Geiste dieses Ansatzes will ich hier zeigen, wie sich pragmatisch kompatible Freiheitsrechte entwickeln. Allerdings ist mein Ansatz insofern bescheidener, als er nur ,inkrementell' gilt und keine globale Optimierung im Sinne der Pareto-Optimalität beansprucht. Zuerst einige Beispiele. Mord oder die Androhung von Mord ist offenkundig nicht legal bei kompatiblen Freiheitsrechten. Sie stehen unter Strafe. Es ist klar, dass die Androhung von Mord im Zusammenhang mit Kidnapping zum Zwecke der Erpressung eines Lösegelds eine ineffiziente Handlung ist. Denn der Gewinn des Erpressers ist nicht größer als der monetäre Verlust des Erpressten. Dazu kommen die psychischen Kosten der Morddrohung. Eine Tat, deren Durchfuhrung zu einem Verlust an summiertem Einkommen fuhrt, kann in einem System pragmatisch kompatibler Freiheitsrechte nicht legal sein. Gleiches gilt für deren Androhung. Diese Androhung ist in der Regel ein Teil eines Erpressungsvorgangs. Andererseits ist die Drohung eines Kunden gegenüber dem bisherigen Lieferanten, diesen gegen einen Konkurrenten auszuwechseln, unter dem Prinzip der pragamtischen Kompatibilität von Freiheitsrechten legal und legitim. In der Tat handelt es sich hier um den Inbegriff von Wettbewerb, den wir intuitiv mit einem freiheitlichen Wirtschaftssystem verbinden. Aber dieses Beispiel zeigt auch, dass wirtschaftlicher Wettbewerb nicht möglich wäre, wenn man die Rechte nach dem Prinzip der Maximal-Kompatibilität zuschneiden würde. Denn offensichtlich würde der jetzige Lieferant geschädigt, wenn der

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

85

Kunde ihn durch einen Konkurrenten auswechseln würde. Andererseits erwarten wir vom Auswechseln eines Lieferanten durch den Kunden, dass der Kunde einen Vorteil zieht; andernfalls hätte er den Lieferanten ja nicht ausgewechselt. Zudem ist vermutlich der Vorteil dieses Wechsels für den neuen Lieferanten mindestens gleich hoch wie der Nachteil für den bisherigen Lieferanten. Beispielsweise könnte es der Fall sein, dass der neue Lieferant bei gleicher Qualität geringere Kosten hat und deshalb ein preislich günstigeres Angebot machen kann als der alte Lieferant. Damit ist für jeden Preis (den alten oder den neuen) die Marge des neuen Lieferanten höher als die des alten, sodass für jeden gegebenen Preis der Lieferantenvorteil beim neuen Lieferanten höher ist als beim alten. So entspricht der Lieferantenwechsel dem Prinzip der Effizienz. Aber auch die Androhung eines Lieferantenwechsels ist legal, wie überhaupt jede Androhung einer Verhaltensänderung immer dann legal ist, wenn auch diese Verhaltensänderung selbst legal ist, d.h. im Rahmen eines Regimes der pragmatischen Komptabilität den Anschein der Effizienz für sich hat. Der Kunde kann natürlich bluffen, wenn er dem bisherigen Lieferanten androht, ihn durch einen anderen Lieferanten zu ersetzen. Wenn der Lieferant vermuten muss, dass es für den Kunden bei den heutigen Lieferkonditionen von Vorteil ist, den Lieferanten zu wechseln, dann wird er die Lieferkonditionen für den Kunden verbessern. Dieses Ziel kann der Kunde möglicherweise auch dann erreichen, wenn er nicht ernsthaft die Absicht hatte, den Lieferanten auszutauschen. Es kann dann natürlich auch vorkommen, dass der Kunde den Lieferanten nach einer solchen Androhung selbst dann wechselt, wenn ihm das Nachteile bringt, um so gegenüber dem bisherigen Lieferanten nicht ,das Gesicht zu verlieren', nachdem dieser seinen Preis trotz der Androhung nicht gesenkt hat. Aber auch dieser Wechsel des Lieferanten ist dennoch effizient, wenn man den Reputationseffekt für den Kunden mit einbezieht. Es kann für den Kunden langfristig von Vorteil sein, seine Lieferanten selbst dann zu .disziplinieren', wenn dies kurzfristig mit Nachteilen verbunden ist, weil er sich so die Reputation eines harten Verhandlers erwirbt, was im Durchschnitt der Verhandlungen von Vorteil für den Kunden sein kann. Ob es Grenzen für die Legitimität dieses Kalküls gibt, mag unter dem Aspekt der ,Nachfragemacht' untersucht werden. Für diese gibt es ja bisher in der Wettbewerbstheorie kein klar definierbares Kriterium. Es ist auch von einem gewissen theoretischen Interesse, dass das Walras-ArrowDebreu-Modell des Allgemeinen Gleichgewichts dem Gedanken der pragmatischen Kompatibilität, nicht jedoch dem Gedanken der Maximal-Kompatibilität entspricht (von Weizsäcker 2013a, S. 59-61). Ein Aspekt der pragmatischen Kompatibilität von besonderem Interesse ist der der Interaktions-Intensität zwischen den Bürgern. Bildlich kann man das Ausmaß der Interaktionsintensität durch den Abstand zwischen je zwei Bürgern veranschaulichen. In den folgenden beiden Graphiken werden zwei Gesellschaften dargestellt, in denen die Interaktions-Intensität unterschiedlich ist.

86

Carl Christian von Weizsäcker

Abbildung 1: Symbolische Abbildung einer Gesellschaft mit geringer InteraktionsIntensität

o

0

o

o

o Abbildung 2: Symbolische Abbildung einer Gesellschaft mit hoher Interaktionsintensität

oo Wir können nun folgende Intuition formulieren: Bei geringer Interaktions-Intensität ist es sehr viel leichter, ein System der pragmatischen Kompatibilität von Freiheitsrechten aufzubauen als bei hoher Interaktions-Intensität. Denn bei geringer Interaktions-Intensität ist der Haupteffekt einer Verhaltensänderung eines Bürgers bei ihm selbst - und dieser ist annahmegemäß positiv, da er von einer Präferenzänderung herrührt. In einer Gesellschaft freier Bauern, die ihre Lebensmittel jeweils selbst produzieren und nur wenige Güter untereinander austauschen, wird eine Präferenzänderung bezüglich der Güter, die man konsumieren und daher auch selbst produzieren will, nur geringe Effekte für die benachbarten Hofbewohner haben. Es ist möglicherweise nicht falsch, wenn man sagt, dass sich im historischen Zeitverlauf die Interaktions-Intensität zwischen den Menschen gesteigert hat. Stichwort ist hier die Arbeitsteilung, deren beobachtete Produktivkraft der Ausgangspunkt von

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

87

Adam Smiths ,Wealth of Nations' gewesen ist. Durch sie wächst die wirtschaftliche Interaktions-Interdependenz um eine Größenordnung. Karl Marx bezeichnete diesen Vorgang als die ,Vergesellschaftung der Arbeit', die durch den Kapitalismus hervorgebracht wird. Dies ist ja für ihn auch die historische Aufgabe der Herrschaft des Kapitals. Mit Adam Smith und Karl Marx können wir somit sagen, dass in einer gesteigerten Interaktions-Intensität ein hohes Produktivitätspotential liegt. Max Weber und andere soziologische Theoretiker sahen vor hundert Jahren die Gefahr für die Freiheit des Individuums, die sich aus der zunehmenden Rationalisierung und Bürokratisierung von Wirtschaft und Gesellschaft ergeben (Weber 1988, S. 203204). Die moderne Kapitalismus-Kritik stößt in das gleiche Horn. Ich will diese Diskussion hier nicht weiter verfolgen. Ich erwähne sie nur, weil hier intuitiv erkannt wird, dass vermehrte Interaktions-Intensität auch ein Problem für die Freiheit sein kann. Es wird dann schwerer, die Gesetze und Institutionen zu finden, die dem Kriterium der pragmatischen Kompatibilität genügen. Nicht zuletzt deshalb, weil die ökonomische Theorie sich diesem Thema der Freiheit auch in Auseinandersetzung mit anderen sozialtheoretischen Ansätzen stellen sollte, habe ich hier einen Definitionsvorschlag einer freiheitlichen Ordnung entwickelt, der gerade die Interaktions-Intensität der Bürger in sein Zentrum stellt. Dies geschieht eben in Anlehnung an den Begriff der externen Effekte, der dem Ökonomen geläufig ist. Im Gegensatz zu Max Weber bin ich allerdings der Meinung, dass man recht schlüssig zeigen kann, wie sich im historischen Verlauf die Freiheitsspielräume der Bürger stark vermehrt haben. Das soll aber nicht Thema dieser Ausarbeitung sein. Nur so viel: je größer der Wohlstand ist, desto leichter fallt es dem Bürger, sich Handlungsfreiheit zu ,kaufen'. Die Motorisierung der Welt der reichen Länder ist hierfür ein Paradebeispiel. Wie aber kommt ein System pragmatisch kompatibler Freiheitsrechte in die Welt? Hier ist es wichtig zu verstehen, dass es eine hohe Verhaltensstabilität der Menschen gibt, die auf ihrem Präferenzkonservatismus beruht, also auf den adaptiven Präferenzen. Daher ist das Verhalten der Menschen für die Zukunft relativ gut aus ihrem vergangenen Verhalten zu extrapolieren. So kann sich die Rechtssetzung durch den parlamentarischen Gesetzgeber und durch die Gerichte an dem in der Vergangenheit beobachteten Verhalten der Menschen orientieren. Entstehen Missstände, sei es durch Verhaltensänderungen, sei es durch technologische Entwicklungen, so kann der Gesetzgeber eingreifen und sich erneut an die pragmatische Kompatibilität herantasten. Diese Reaktion auf Fehlentwicklungen wäre vergebens, wenn das Verhalten der Menschen sehr erratisch wäre und daher nicht von der Vergangenheit in die Zukunft extrapoliert werden könnte. Ohne hier ins Detail zu gehen, glaube ich plausibel machen zu können, dass es eine Evolution von Freiheitsrechten gibt bzw. geben kann, die sich an dem Prinzip von Trial and Error orientiert und - materiellen Fortschritt vorausgesetzt - zu einem zunehmenden Grad an individueller Freiheit fuhrt. ,Mehr Freiheit wagen' ist vielleicht eine Devise, die diesen Prozess beschreibt, zumindest solange Fehlentwicklungen nicht offensichtlich werden. Gibt es solche - wie aktuell bei solchen Ereignissen wie ,NineEleven' - ,dann ergeben sich Rückschläge beim Fortschritt in Richtung auf mehr

88

Carl Christian von Weizsäcker

Freiheit. Wichtig ist, dass es das tatsächliche Verhalten der Menschen ist (und nicht das mögliche Verhalten im Rahmen ihrer jeweiligen Freiheitsrechte), das letztlich bestimmt, wie die Gesellschaft die Freiheitsrechte festlegt und im Zeitverlauf verändert. 3.4. Zum Begriff der gesellschaftlichen Präferenzen Die normativ angelegte Theorie der Wirtschaftspolitik muss davon ausgehen, dass man auf der Ebene des Staates Entscheidungskriterien hat, die es dem Staat zu begründen erlauben, weshalb aus einem Menü von Auswahlmöglichkeiten eine bestimmte gewählt wird. In der herkömmlichen Social Choice-Theorie hat man versucht, aus individuellen Präferenzordnungen der Bürger eine ,Präferenzordnung' des Staates abzuleiten. Arrows Unmöglichkeitstheorem hat hier gezeigt, dass diese Ableitung keineswegs trivial ist. Aber die Social Choice-Theorie hat auch positive Ergebnisse gezeitigt, unter welchen Bedingungen ein solcher Präferenztransfer auf die kollektive Ebene gelingen kann. In der folgenden Analyse gehe ich davon aus, dass es sinnvoll ist, von .gesellschaftlichen Präferenzen' zu sprechen. Damit ist gemeint: wenn wir beobachten, dass dem Staat die Alternativen A,B,....Z zur Verfugung gestanden haben und er entscheidet sich für A, dann soll das heißen: der Staat präferiert Alternative A gegenüber den anderen möglichen Alternativen. Da wir auch im Folgenden von endogen bestimmten Präferenzen ausgehen wollen, sollen die gesellschaftlichen Präferenzen nur dann definiert sein, wenn man vorher die individuellen Präferenzen definiert. Wir bleiben somit dem Programm des methodologischen Individualismus treu. Um klar zu machen, dass die .gesellschaftlichen Präferenzen' dem Staat nicht die Person-Eigenschaft verleihen soll, spreche ich hier von ,Quasi-Präferenzen'. Es sei x ( t ) ein Konsumvektor, der einen Zeitverlauf des Konsums der Bürger beschreibt. Wenn es Tfl Bürger gibt und 71 unterschiedliche Güter, dann hat dieser Vektor die Dimension m mal 71. Es sei y ( t ) ein anderer Konsumvektor dieser Art. Wir können uns nun die Frage stellen, ob sich die staatlichen Instanzen namens der Gesellschaft für x ( t ) oder für 1' ( t ) entscheiden, wenn der Staat die Wahl zwischen diesen beiden Verläufen des Konsums hat. Wir unterstellen, dass diese Wahl auch davon abhängt, was die Präferenzen der Bürger sind. Diese werden symbolisch dargestellt durch einen mehrdimensionalen Vektor q ( t ) , der sich im Verlauf der Zeit ändern kann. Wenn der Präferenzenraum, in dem die Präferenzordnungen parametrisiert sind, ein Euklidischer Vektorraum der Dimension N ist, dann hat der Vektor die Dimension Tri mal N. Der Ausdruck y ( t ) [ > ; < j ( t ) ] x ( t ) soll bedeuten: gegeben der Präferenzenverlauf q ( t ) i y ( t ) diejenigen, die in die Kosten-Nutzen-Analyse eingehen, aufgrund derer man über das Projekt entscheidet. Und auch die sind nur für die nähere Zukunft einigermaßen sicher bekannt. In der Regel wird man für die weitere Zukunft einen mehr

92

Carl Christian von Weizsäcker

oder weniger gleichen Konsumstrom voraussetzen, sofern es sich um diejenigen Güter handelt, die von dem Projekt direkt tangiert sind. Die weitere Entwicklung der tatsächlichen Ströme r ( t ) , z ( t ) und s ( t ) spielt in der Regel bei der Entscheidung für oder gegen das Projekt keine Rolle. Hier verlässt man sich dann auf das Funktionieren des freien Spiels der Kräfte im Sinne der pragmatischen Kompatibilität der Freiheitsrechte. Mit anderen Worten: man entscheidet über ein Projekt in der Regel auf der Basis der heutigen Präferenzen, wohl wissend, dass das Projekt möglicherweise Rückwirkungen auf die Präferenzen hat. Man tut dies, weil man quasi ,instinktiv' von adaptiven Präferenzen ausgeht, die zu quasi-adaptiven QuasiPräferenzen führen, sodass man erwarten kann, dass Projekte, die Ex-Ante-Zustimmung erhalten, in aller Regel auch Ex-Post-Zustimmung bekommen. Da ich mich in dieser Arbeit auf die Implikationen des Phänomens endogen beeinflusster Präferenzen konzentriere, klammere ich die Aspekte des Irrtums über die Projekte aus. Diese gibt es natürlich in der Realität - wie zum Beispiel das chronische Problem der Kostenunterschätzung. So gibt es natürlich auch Enttäuschungen über Projekte. Um das System der Kosten-Nutzen-Analyse nicht voll zu desavouieren, ist es umso wichtiger, dass gilt: von Projekten induzierte Präferenzänderungen sind keine Quelle von zusätzlichem Ärger über durchgeführte Projekte. Das ist die ,Botschaft' des Theorems 3. Ein technischer Punkt: Man beachte, dass die Iteration von Konsumpfaden und Präferenzpfaden, die bei } ' ( t ) und r ( t ) beginnt und bei dem selbststablisierenden Paar { z ( t ) , s ( t ) } endet, nicht als eine Iteration durch die Zeit zu verstehen ist. Es ist das vielmehr in Analogie zum Tatonnement-Prozess nach Walras zu verstehen. Das, was sich in der Realität im Zeitablauf beobachten lässt, ist nur das selbstreproduzierende Paar { * ( £ ) , ? ( £ ) } für den Fall, dass das Projekt nicht angegangen wird, bzw. das selbstreproduzierende Paar ( z ( t ) , s ( t ) } für den Fall, dass das Projekt durchgeführt wird. Die übrigen Pfade y ( i ) , r ( t ) J Z 1 ( t ) , S ^ z 2 ^ ) , ® 2 ^ ) sind nur gedankliche Konstruktionen, die dazu dienen, den für den Begriff der pragmatischen Kompatibilität von Freiheitsrechten relevanten Vorgang der Präferenzänderung in den Blick zu nehmen. Abgesehen von y ( t ) sind sie somit allein relevant für den Interpreten aus der normativen Ökonomik. Nur y ( t } erfüllt für den Entscheidungsträger selbst eine Funktion, indem dies seine Prognose des Konsums für den Fall der Durchfuhrung des Projekts ist. Nachträglich beobachten kann auch er nur z ( t ) , nicht aber }'{£). Damit wird auch klar, dass es sich bei der im letzten Abschnitt eingeführten Annahme, dass der Prozess der gegenseitigen Beeinflussung von Konsum und Präferenzen konvergiere, gar keine Annahme ist, sondern sich in der Realität jedenfalls ergibt. Denn nach der Entscheidung für das Projekt ergibt sich auf jeden Fall ein KonsumPräferenzen-Paar ( z ( t ) , s ( t ) } . Und das ist jedenfalls selbstreproduzierend, weil es ja realiter stattfindet. Eine weitere Beobachtung ist die des nach wie vor bestehenden Status-Quo-Bias, wenn adaptive Präferenzen bzw. Quasi-Präferenzen vorherrschen. Es ist zwar gemäß Theorem 3 so, dass ex ante gerechtfertigte Projekte als Ausbrüche aus dem Status Quo auch ex post gerechtfertigt werden, was das System dezentraler Entscheidungen legiti-

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

93

miert. Aber es gilt nicht das umgekehrte: nicht jedes hypothetische Projekt, das ex post gerechtfertigt würde, ist auch ex ante gerechtfertigt. Wenn es aber ex ante nicht gerechtfertigt ist, dann wird es nicht durchgeführt. Es bleibt hypothetisch. Man kann insofern von einem Status-Quo-Bias sprechen. Dieser Status-Quo-Bias mag im Übrigen noch dadurch verstärkt werden, dass Entscheidungsträger Angst vor den unkontrollierbaren Konsequenzen eines Projekts haben: dass sie gemäß den Ex-Ante-Präferenzen q ( t ) zwar y(t) dem Status Quo vorziehen, dass sie aber andererseits den Status Quo dem z ( t ) vorziehen. Das führt dann zur Ablehnung des Projekts, obwohl sein unmittelbar zu erwartender Effekt unter den heutigen Präferenzen positiv gesehen wird. Es ist dies das unter Staatsmännern durchaus verbreitete Misstrauen gegen die Wirkungen des Handelns freier Bürger. Dem stehen dann, so hofft man, vielfach Reformer gegenüber, die mit dem Slogan ,mehr Freiheit wagen' arbeiten. Zum Abschluss dieses Abschnitts sei auf die hier aufgezeigte Symbiose oder Synthese von konsequentialistischem und deontologischem Denken hingewiesen. Nach meiner Meinung kommt man in der Sozialphilosophie mit einem rein konsequentialistischen, zum Beispiel rein utilitaristischen Denken ebenso wenig durch wie mit einem rein deontologischen, von allen Konsequenzen jeweiliger Institutionen absehenden Denken. In dem hier vorgestellten Ansatz ist die Entscheidung über einen Ausbruch aus dem Status Quo konsequentialistisch. Sie wird vorgenommen im Hinblick auf die erwartete Transformation vom Konsumpfad x(t) in den Konsumpfad y ( t ) . Die tatsächliche Transformation zu z(t) und damit die entstehende Differenz z ( t ) — y ( t ) wird deontologisch gerechtfertigt: Man kann z ( t ) ex ante gar nicht gut voraussagen; aber man lässt den Prozess der Präferenzänderung und Konsumänderung geschehen, weil er im Rahmen eines Systems pragmatisch kompatibler Freiheitsrechte abläuft. Insoweit ist der Ausbruch aus dem Status Quo ergebnisoffen und ist daher nicht konsequentialistisch, sondern deontologisch gerechtfertigt. 3.6. Die Verbindung zwischen adaptiven Präferenzen und quasi-adaptiven Quasi-Präferenzen Bei Theorem 3 habe ich vorausgesetzt, dass die Quasi-Präferenzen des Staates quasiadaptiv sind. Hier will ich skizzieren, dass adaptive Präferenzen der Bürger es sehr wahrscheinlich machen, dass die hieraus abgeleiteten Quasi-Präferenzen des Staats quasi-adaptiv sind. Zuerst ein einfaches Gedankenexperiment. Angenommen, wir wären in einer stationären Volkswirtschaft, in der die Präferenzen gelten, die von dem stationären Konsumvektor induziert worden sind. Es geht jetzt um ein Infrastrukturprojekt, zum Beispiel um den Bau einer Brücke. Eine Kosten-NutzenAnalyse unter Verwendung der Ex-Ante-Präferenzen führe zu dem Ergebnis, dass es sinnvoll ist, die Brücke zu bauen.

94

Carl Christian von Weizsäcker

Abbildung 3: Nachfragekurve für neues Produkt mit Ex-Ante-Präferenzen (links) und Ex-Post-Präferenzen (rechts)

Den Ex-Ante-Präferenzen entspreche die Nachfrage-Kurve nach der Brückennutzung. Nachdem nun die Brücke gebaut ist, implizieren die adaptiven Präferenzen, dass die Nachfragekurve, wenn sie sich überhaupt ändert, sich nach rechts verschiebt. Mit den Ex-Post-Präferenzen ist somit der Nutzen der Brücke noch größer. Also ist der Bau der Brücke auch mit den Ex-Post-Präferenzen gerechtfertigt. Bei einem Projekt in einer nichtstationären Volkswirtschaft kann dieses Ergebnis für eine stationäre Volkswirtschaft als Heuristik dienen. Denken wir zum Beispiel an die Einfuhrung eines neuen Produkts. (Auch eine neue Brücke ist natürlich ein neues Produkt.) Von den vielen Gütern in der Volkswirtschaft, also für großes 71, werden sehr viele gar nicht von dem neuen Produkt direkt betroffen sein. Wir können die Güter in drei Kategorien einteilen: Kategorie A: Die Nachfrage nach diesen Gütern steigt mit der Einführung des neuen Produkts. Das ist erstens das neue Produkt selbst, nach dem zuvor keine Nachfrage entstehen konnte, weil es das Gut noch gar nicht gab. Das sind zweitens Güter, die eine Komplementariät zu dem neuen Gut aufweisen. Beispiel: die Einführung des Automobils hat zu einer erhöhten Nachfrage nach geeignetem Treibstoff geführt. Kategorie B: Die Nachfrage nach diesen Gütern sinkt. Das sind Güter, die durch das neue Gut substituiert werden. Beispiel: die Einführung des Automobils hat die Nachfrage nach den Dienstleistungen von Pferdedroschken reduziert.

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

95

Kategorie C: Das sind alle anderen Güter, die nur schwach von der Einführung dieses Gutes betroffen sind, vor allem deshalb, weil sich das Budget der Bürger für diese anderen Güter verändert hat. Wir nehmen nun an, dass die Kosten-Nutzen-Analyse mit den Ex-Ante-Präferenzen das Ergebnis erbringt, dass das neue Produkt eingeführt werden soll. Nach der Einfuhrung des Produkts steigt wegen der adaptiven Präferenzen die Vorliebe fiir die Güter, auch das neue Gut, die der Gruppe A angehören. Auch wegen der adaptiven Präferenzen sinkt die Vorliebe für die Güter der Gruppe B. Da jedoch die Güter der Gruppe A mit dem Projekt vermehrt konsumiert werden, ist der Differentialnutzen, der aus dem Projekt durch den vermehrten Konsum bei den neuen Präferenzen entsteht, mit den neuen Präferenzen noch größer als bei den alten Präferenzen. Bei den Gütern der Gruppe B, die weniger konsumiert werden, gibt es durch diesen geringeren Konsum einen Differentialschaden bei den alten Präferenzen. Da aber bei den neuen Präferenzen die Güter der Gruppe B weniger hoch geschätzt werden als bei den alten Präferenzen, ist der Differentialschaden des geringeren Konsums mit den neuen Präferenzen geringer als bei den alten Präferenzen. Wenn wir gedanklich zuerst einmal unterstellen, dass die Konsumveränderung wegen des Projekts mit den neuen Präferenzen dieselbe ist wie bei den alten Präferenzen, dann sind auch die Kosten für die Konsumenten für die Güter der Gruppen A und B dieselben. Daraus aber resultiert, dass auch die Güter der Gruppe C, die nur durch den Budgeteffekt der Güter A und B affiziert sind, bei beiden Präferenzen in der gleichen Weise betroffen sind. So ergibt sich, dass der Zugewinn aus dem neuen Produkt bei den neuen Präferenzen solange mindestens so groß ist wie bei den alten Präferenzen, solange der neue Konsumvektor bei beiden Präferenzen derselbe ist. Nun kommt hinzu, dass dieser Konsumvektor bezüglich der alten Präferenzen optimiert war, nicht aber bezüglich der neuen Präferenzen. Somit ist der Nutzengewinn aus dem neuen Produkt schon bei einem für die neuen Präferenzen suboptimalen Konsumvektor mindestens so hoch wie der Nutzengewinn aus dem neuen Produkt mit den alten Präferenzen bei einem optimalen Konsumvektor. Daraus folgt, dass das neue Produkt sich erst recht bei den neuen Präferenzen lohnt, wenn es sich bei den alten Präferenzen lohnt. Dieses verbale Argument in eine saubere mathematische Beweisführung zu überführen, erfordert einen größeren Aufwand, den ich noch nicht geleistet habe. Man wird dann auch noch weitere Annahmen bezüglich der Struktur der Präferenzen machen müssen. Was zum Beispiel leicht zu zeigen ist, ist die Gültigkeit der Aussage, wenn die ordinalen Nutzenfunktionen sich als Nutzensummen schreiben lassen, wobei jeder Summand nur von einem Gut abhängt. Aber das ist eine sehr restriktive Annahme. Einen anderen Ansatz zur Herleitung von hinreichenden Bedingungen habe ich in einem früheren Aufsatz publiziert (von Weizsäcker 2013b).

3.7. Präferenz-Entrepreneure Wie oben im Teil 2 abgeleitet, ist die konservative Grundhaltung der Menschen in der Form der adaptiven Präferenzen Voraussetzung dafür, dass man von vielen kleinen Fortschritts-Stufen auf eine integrale, quasi säkulare Fortschritts-Phänomenologie schließen kann.

96

Carl Christian von Weizsäcker

Durch diese Erkenntnis kommt eine zusätzliche Komponente der Dialektik des Gemeinwohls ins Spiel. In einem demokratisch verfassten Gemeinwesen werden die staatlichen Entscheidungen durch Mehrheitsbeschluss festgelegt. Die konservative Präferenzstruktur der Wählerschaft macht es dann sehr schwer möglich, Neuerungen auf der Ebene des Staates durchzusetzen. Zu der strukturell gegebenen , Entscheidungsschwäche' zentralistischer Strukturen kommt nunmehr hinzu, dass eine präferenzkonservative Wählerschaft Abweichungen vom Status Quo ganz überwiegend gar nicht wünscht. Wir hatten in den vorangehenden Abschnitten 3.4 bis 3.6 gesehen, dass adaptive Präferenzen dazu fuhren, dass einer Ex-Ante-Befürwortung eines Projekts auch eine ExPost-Befurwortung folgt, sodass das Verfahren der Kosten-Nutzen-Analyse legitimiert wird. Aber es gilt, wie auch schon festgehalten, nicht das Umgekehrte. Ein hypothetisches Projekt, das gemäß den Ex-Post-Präferenzen befürwortet würde, kann daran scheitern, dass es gemäß den Ex-Ante-Präferenzen abgelehnt wird. Insofern mag es viele ungeborene Kinder geben, die sehr willkommen gewesen wären, wenn nur der Wille ex ante bestanden hätte, sie zu zeugen. Diese Beobachtung ist wichtig im Zusammenhang mit der präferenz-konservativen demokratischen Mehrheit. Mit ihr kann dieses Problem der versäumten Innovations-Projekte, die ex post begrüßt worden wären, dann sehr gravierend werden, wenn die Entscheidungsstruktur stark zentralisiert, sprich, stark politisiert wäre. Die historische Erfahrung lehrt, dass die Dezentralisierung der Entscheidungen auch hier eine progressive' Antwort bereitstellt. Es gibt in der Wirtschaft, in der Wissenschaft, in den Künsten den Präferenz-Entrepreneur. In der Wirtschaft zum Beispiel führt er unter Inkaufnahme von Kosten ein neues Produkt in den Markt ein, das sich gemäß der Nachfrage aufgrund der Ex-Ante-Präferenzen nicht rentieren würde. Er vertraut oder hofft darauf, dass die Verfügbarkeit des Produkts und die Erfahrungen, die die Konsumenten mit dem Produkt machen, deren Präferenzen so zugunsten des neuen Produkts verändern, dass der Absatz massiv steigt und die Innovation ein kommerzieller Erfolg wird. Dieser Schumpetersche Präferenz-Unternehmer unterläuft damit das Stagnationsproblem der Gesellschaft, indem er auf adaptive Präferenzen setzt. Ein Paradebeispiel eines solchen Unternehmers ist zum Beispiel Steve Jobs, der Produkte sehr erfolgreich in den Markt brachte, die den Test einer demokratischen Abstimmung mit den Ex-Ante-Präferenzen wohl nie bestanden hätten. Bei diesem Vorgang des Übergangs von Ex-Ante-Präferenzen zu Ex-PostPräferenzen spielen natürlich sowohl die Werbung als auch das Nachahmungsverhalten eine große Rolle. Es gibt somit eine Komponente in der Dialektik des Gemeinwohls, die gerade auf der Endogenität der Präferenzbildung und speziell auf den adaptiven Präferenzen beruht. Insofern ist für die Rechtfertigung dezentraler Entscheidungsstrukturen, sprich für die Rechtfertigung der Marktwirtschaft, die Annahme fixer Präferenzen nicht erforderlich. Im Gegenteil: das Phänomen der adaptiven Präferenzen verstärkt das Plädoyer für die Marktwirtschaft.

Adaptive Präferenzen und die Legitimierung dezentraler Entscheidungsstrukturen

4.

97

Ausblick

Das Ziel meiner Arbeit ist letztlich, eine Theorie der guten Wirtschaftsordnung zu entwickeln, die nicht mehr - wie die Euckens - darauf angewiesen ist, dass man die Präferenzen als fix vorgegeben ansieht und dass man die Endogenität der TechnologieEntwicklung als nicht relevant für diese Theorie ansieht. Zu Eucken habe ich in dieser Beziehung schon publiziert (von Weizsäcker 2013c). Die Fülle der Aspekte, die bei einer solchen Theorie berücksichtigt werden muss, kann hier nicht ausgebreitet werden. Hier sollen aus dem Vorangegangenen nur folgende Elemente einer solchen Theorie festgehalten werden: 1. Zentral ist, dass eine solche Theorie auch die persönliche Freiheit als Zielgröße mit einschließt. Dabei ist wichtig, dass man den engen Zusammenhang zwischen Wohlstand und Freiheit theoretisch erfasst. 2. Hierfür ist unabdingbar, dass auch bei endogen beeinflussten Präferenzen ein Programm des normativen Individualismus verwirklicht werden kann. Die Generalhypothese der adaptiven Präferenzen scheint dies zu ermöglichen, indem man damit den Begriff des Fortschritts aufrechterhalten kann - im Sinne von Poppers ,Piecemeal-Engineering'. 3. Die Hypothese der adaptiven Präferenzen ist ferner notwendig und, so scheint es, auch hinreichend, um ein System dezentraler Entscheidungen (Marktwirtschaft, Wissenschaftsfreiheit, Religionsfreiheit etc.) zu rechtfertigen, sodass damit Fortschritt auch gegen die .natürlichen' Beharrungskräfte durchgesetzt werden kann. 4. Man sollte für eine Theorie der guten Wirtschaftsordnung Abschied nehmen von dem Gedanken der globalen Optimierung. Bei endogen bestimmten Präferenzen, speziell auch bei adaptiven Präferenzen ist die , Pfadabhängigkeit' der Entwicklung auch bei guter Wirtschaftsordnung sehr wahrscheinlich. 5. Damit bleibt aber auch das Problem der ,Sackgassen': Auf individueller Ebene (Beispiel ,Sucht') kann hieraus eine Theorie abgeleitet werden (was nicht hier, aber in einem anderen Paper angedeutet wurde (von Weizsäcker 2014), nach der interventionistische Hilfestellungen kompatibel mit dem Gedanken des autonomen Handelns des Bürgers gemacht werden können. 6. Auf gesellschaftlicher Ebene mögen Sackgassen ebenfalls ein großes Problem sein. Hier ist dann wichtig der Gedanke des Systemwettbewerbs, der es ermöglichen könnte, aus einer Sackgasse wieder heraus zu finden.

Literatur Boardman, Anthony, David Greenberg, Aidan Vining und David Weimar (2006), Cost-Benefit Analysis: Concepts and Practice, Dritte Auflage, Upper Saddle River, New Jersey.

98

Carl Christian von Weizsäcker

Coase, Ronald (1960), The Problem of Social Cost, in: Journal of Law and Economics, Vol. 3, S. 1-44. Elster, Jon (1983), Sour Grapes - Studies in the Subversion of Rationality, Cambridge. Hayek, Friedrich August von (1945), The Use of Knowledge in Society, in: American Economic Review, Vol.35, S. 519-530. Popper, Karl R. (2003a), Die offene Gesellschaft und ihre Feinde, Band 1: Der Zauber Piatons, 8. Auflage, Tübingen. Popper, Karl. R. (2003b), Die offene Gesellschaft und ihre Feinde, Band 2: Falsche Propheten Hegel, Marx und die Folgen, 11. Auflage, Tübingen. Smith, Adam (1840), An Inquiry into the Nature and Causes of the Wealth of Nations, Edinburgh. Stigler, George und Gary Becker (1977), De Gustibus Non Est Disputandum, in: American Economic Review, Vol. 67, S. 76-90. Thaler, Richard und Cass Sunstein (2009), Nudge: Improving Decisions About Health, Wealth, and Happiness, New Haven und London. Von Weizsäcker, Carl Christian (1971), Notes on Endogenous Change of Tastes, in: Journal of Economic Theory, Vol. 3, S. 345-372. Von Weizsäcker, Carl Christian (1998), Das Gerechtigkeitsproblem in der Sozialen Markwirtschaft, in: Zeitschrift fur Wirtschaftspolitik, Jg. 47, S. 257-288. Von Weizsäcker, Carl Christian (2002), Welfare Economics bei endogenen Präferenzen, Thünen-Vorlesung 2001, in: Perspektiven der Wirtschaftspolitik, Jg. 3, S. 425-446. Von Weizsäcker, Carl Christian (2007), Soziale Marktwirtschaft als Utopie, in: Beat SitterLiver und Thomans Hiltbrunner (Hg.), Utopie heute I: Zur aktuellen Bedeutung, Funktion und Kritik des utopischen Denkens und Vorstellens, Fribourg und Stuttgart, S.153-181. Von Weizsäcker, Carl Christian (2013a), Freedom, Wealth and Adaptive Preferences, Manuskript Februar 2013. Von Weizsäcker, Carl Christian (2013b), Schumpeterian Innovation and Preference Adaptation, in: Homo Oeconomicus, Jg. 30, S. 131-141. Von Weizsäcker, Carl Christian (2013c), Akzeptanzdynamik der Marktwirtschaft: Die Frage nach der guten Wirtschaftsordnung, in: Theresia Theurl (Hg.), Akzeptanzprobleme der Marktwirtschaft: Ursachen und wirtschaftspolitische Konsequenzen, Berlin, S. 33-48. Von Weizsäcker, Carl Christian (2014), Konsumentensouveränität und beeinflussbare Präferenzen: Ist Laisser Faire bei Werbung das Richtige?, Manuskript März 2014, URL: http://www.coll.mpg.de/Download/Weizsaecker/Rotterdam.pdf (abgerufen am 30.07.2014). Weber, Max (1988), Die protestantische Ethik und der Geist des Kapitalismus, in: Max Weber, Gesammelte Aufsätze zur Religionssoziologie I, Tübingen.

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaftspolitik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

,Mentale Modelle' und ,Satisficing' als Alternativen zum Homo Oeconomicus

Martin Leschke

Inhalt 1.

Einleitung

100

2.

Das Homo-Oeconomicus-Modell als Referenzpunkt

101

3.

Hayeks Modell der Sinnesordnung

103

4.

Simons Modell des ,Satisficing Man'

105

5.

,Shared Mental Models' - der Ansatz von Denzau und North

109

6.

Kritische Betrachtung der vorgestellten Modelle

112

7.

Fazit

117

Literatur

118

100

1.

Martin Leschke

Einleitung

Der Homo Oeconomicus ist das Modellbild (zumeist .Menschenbild' genannt) der Standardökonomen. Dieses Modell zeichnet sich dadurch aus, dass es ein geschlossenes Entscheidungsmodell ist. Bei geschlossenen Entscheidungsmodellen sind als Elemente des Entscheidungsfelds -

die möglichen Instrumente bzw. Handlungsalternativen A,

-

der Alternativen-Ergebniszusammenhang A-E,

-

der Einfluss der Umwelt U,

-

die Entscheidungsregel G

gegeben. Beim Homo-Oeconomicus-Modell ist G (die Entscheidungsregel) durch die Rationalitätsannahme bestimmt: Der betrachtete Akteur, der seine Präferenzen (Zielfunktion) kennt und konsistent ordnet, wählt die Alternative, die ihm den höchsten Zielerreichungsgrad (Präferenzerfullungsgrad),verspricht'. Charakteristikum eines offenen Entscheidungsmodells ist dem gegenüber, dass das Entscheidungsfeld als nicht vollständig erfassbar angesehen wird. Der betrachtete Akteur ist somit gezwungen, mit komplexitätsreduzierenden Heuristiken zu arbeiten, auf deren Grundlage er dann die Entscheidung fällt. Entscheidungsmodelle können nun aus unterschiedlichen Perspektiven analysiert und bewertet werden. So kann etwa aus normativer Perspektive gefragt werden, wie leistungsfähig bestimmte Modelle hinsichtlich der Erreichung der Ziele des Akteurs (Individualperspektive) oder vieler Akteure (Kollektivperspektive) sind. Stellt man auf das Verstehen von gesellschaftlichen Phänomenen und/oder von Entwicklungsprozessen ab, die aus dem Handeln unterschiedlicher Akteure resultieren, lässt sich fragen, wie sinnvoll es hierbei ist, den Akteuren ein bestimmtes Entscheidungsverhalten zuzuschreiben, um zu validen Kausalerklärungen zu kommen. Dies lässt sich mithilfe der ,Colemanschen Badewanne' 1 verdeutlichen (siehe Abbildung 1). Abbildung 1: Die Colemansche Badewanne Makroebene:

Mikroebene:

A usgangssituation: (Veränderung von) Restriktionen

Akteur

Quelle: Gerecke (1998, S. 174).

1

Vgl. auch Coleman (1995, S. 417).

Soziales Phänomen (Explanandum) 4

(2)

—»•Handlung

Mentale Modelle' und .Satisficing' als Alternativen zum Homo

Oeconomicus

101

Die betrachteten repräsentativen Akteure treffen unter gegebenen (sich ggf. ändernden) Restriktionen (Rahmenbedingungen, Institutionen, sonstigen Beschränkungen) laufend Entscheidungen (1). Die daraus resultierenden Handlungen (2) führen nun ihrerseits zu neuen (ungeplanten, nicht intendierten) sozialen Phänomenen bzw. Makrogrößen (3), die sich im Lichte der Präferenzen der Akteure wiederum bewerten lassen und die je nach Orientierung der Akteure auch wieder auf die Ausgangssituation (die Basis für neue Entscheidungen) einwirken. Was leisten nun vor diesem Hintergrund Alternativkonzepte zum ökonomischen Standardmodell? Für welche (gesellschaftlichen) Problemstellungen sind sie geeigneter)? Für welche Probleme scheint das Homo-Oeconomicus-Konzept die bessere oder schlechtere Wahl zu sein? Diese Fragen sollen in dem vorliegenden Beitrag behandelt werden (abschließend beantwortet werden sie nicht). Begonnen wird mit einer knappen Darstellung der Logik des Homo-Oeconomicus-Konzepts (Abschnitt 2). Anschließend werden drei Konzepte als mögliche Alternativen vorgestellt: Friedrich A. Hayeks Modell der Sinnesordnung (Abschnitt 3), Herbert Simons Modell des ,Satisficing Man' (Abschnitt 4) sowie der Ansatz der ,Shared Mental Models' von Arthur Denzau und Douglass North (Abschnitt 5).2 Im sechsten Abschnitt werden die Ansätze kritisch betrachtet, und es wird hier sowie im abschließenden Fazit (Abschnitt 7) schließlich erörtert, welcher Ansatz bzw. welches Modell für welche gesellschaftlichen Fragestellungen (un)geeignet erscheint.

2.

Das Homo-Oeconomicus-Modell als Referenzpunkt

Als zentrale Bausteine des Homo-Oeconomicus-Modells können folgende Prinzipien genannt werden (Erlei, Leschke und Sauerland 2007, S. 2 ff.): -

das Individualprinzip (das Individuum handelt nach seinen Präferenzen und ist die grundlegende Quelle von Werten),

-

das Prinzip des methodologischen Individualismus' (alle Eigenschaften, die einem sozialen System - Gruppe, Gesellschaft, Unternehmen, Haushalt, Staat, Staatengemeinschaft oder andere Organisationen - zugesprochen werden, sind letztlich von den Eigenschaften und Anreizsystemen der Individuen abhängig und entsprechend rekonstruierbar),

-

das Prinzip der Problemorientierung (das Knappheitsproblem, welches im Blickpunkt der Analyse steht, determiniert die Auswahl der Präferenzen und Restriktionen der für das Problemfeld relevanten Akteure),

-

das Prinzip der Trennung zwischen Präferenzen und Restriktionen (die zugesprochenen Ziele bzw. Präferenzen sind konsistent und können schwach transitiv geordnet werden, zudem werden sie zumeist als konstant angenommen und von den Rest-

2

Es soll an dieser Stelle noch erwähnt werden, dass Hayek, Simon und North allesamt den Nobel-Gedächtnispreis (den Preis für Wirtschaftswissenschaften der schwedischen Reichsbank im Gedenken an Alfred Nobel) erhalten haben, und zwar in den Jahren 1974, 1978 und 1993.

102

Martin Leschke

riktionen, den Bedingungen des Handelns getrennt, so dass Verhaltens- und Ergebnisänderungen auf Restriktionsänderungen zurechenbar sind), -

das Rationalitätsprinzip (diese Entscheidungsregel besagt, dass Akteure stets fähig sind die aus ihrer Sicht beste Alternative zu wählen, nämlich diejenige, die unter den gegebenen Bedingungen für die beste Zielerreichung bzw. Präferenzerfüllung sorgt),

-

das Prinzip der Nicht-Einzelfallbetrachtung (in ökonomischen Modellen/Analysen werden (i.d.R.) keine Aussagen über singulare Ereignisse - das Verhalten einzelner in spezifischen Situationen, hierfür sind andere Wissenschaften besser geeignet, so z.B. die Psychologie - , vielmehr wird in ökonomischen Modellen/Analysen fast immer das repräsentative Verhalten von Akteuren in wiederkehrenden Situationen analysiert).

An diesen Bausteinen des Homo-Oeconomicus-Modells ist erkennbar, dass es dem Mainstream-Ökonomen weder auf eine Erklärung des Verhaltens von Akteuren in einem singulären spezifischen Einzelfall, noch auf eine universelle Erklärung des Handelns im Allgemeinen ankommt, sondern auf das repräsentative Verhalten der betrachteten Akteure (bzw. dessen Änderung) und die Erfassung der Resultate des Handelns abhängig von wesentlichen Knappheitsrestriktionen (bzw. deren Veränderung). Es handelt sich um ein geschlossenes Modell, in dem die Veränderungen der Ergebnisse der Entscheidungen der Akteure auf die Veränderungen der situativen Anreize zurückgeführt werden (Erlei, Leschke und Sauerland 2007, S. 6). Diese Art des Vorgehens mag für viele (auch gesellschaftliche) Problemstellungen gute Erklärungen und Einsichten liefern. Dennoch werden viele ,Dinge', die gerade für gesellschaftliche Entwicklungsprozesse relevant erscheinen, systematisch ausgeblendet. So fragt der Mainstream-Ökonom höchst selten nach der Präferenz- und Werteentstehung, er rekurriert i.d.R auf die offenbarten Präferenzen (,revealed preferences'). Die Mainstream-Ökonomin bezieht als Restriktionen selten Moralvorstellungen oder andere informelle Regeln oder Ideologien in die Betrachtung ein. Der Mainstram-Ökonom interessiert sich i.d.R. auch nicht dafür, welche Restriktionen warum von den Akteuren wie betrachtet und gewichtet werden. Und die Mainstram-Ökonomin negiert zumeist die Frage, ob Akteure überhaupt in der Lage sind, in komplexen Situationen zu optimieren oder ob sie nicht viel mehr Regeln und Heuristiken anwenden, um zu Entscheidungen zu kommen. Solche und ähnliche ,Dinge', die nicht vom ökonomischen Standardmodell erfasst werden, können aber relevant sein, um gesellschaftliche Entwicklung zu verstehen und ggf. auch die Prozesse der Entwicklung zielgerichtet zu beeinflussen. Daher ist es interessant, die in der Einleitung angesprochenen Alternativansätze näher zu betrachten und die Frage zu diskutieren, ob sie für bestimmte Analysen besser geeignet sind als das Standardmodell der Ökonomen, der Homo Oeconomicus. Begonnen wird mit Hayeks Modell der Sinnesordnung.

, Mentale Modelle' und, Satisficing' als A Iternativen zum Homo

3.

Oeconomicus

103

Hayeks Modell der Sinnesordnung

Hayek formulierte seinen ersten Beitrag zur Theorie der Entwicklung des Bewusstseins bereits im Jahr 1920 im Alter von 21 Jahren. In diesem zu seinen Lebzeiten nie veröffentlichten Aufsatz entwickelte er die grundlegenden Bausteine seiner Theorie der sensorischen Ordnung, die er 1952 in dem Buch ,The Sensory Order' veröffentlichte. In dem später erschienenen Beitrag ,The Sensory Order - After 25 Years' aus dem Jahr 1977 nimmt Hayek noch einmal rückblickend Stellung zu der Thematik. 3 Hayeks ausfuhrliche Ausarbeitung zu dem Thema, wie man sich das Funktionieren einer Sinnesordnung vorstellen kann und wie sie entsteht, ist ein Ausflug in die Physiologie des Gehirns. Ökonomen kennen ähnliche Analysen heutzutage aus dem Bereich der Neuro-Economics. Hier wird insbesondere untersucht, welche Teile des Gehirns bei Individuen in welchen Entscheidungssituationen besonders aktiviert werden (vgl. Lehmann-Waffenschmidt, Hain und Kenning 2007). Durch die Analyse und Verortung der Denkprozesse sollen dann Rückschlüsse auf die Art des Entscheidens gezogen werden. Vier Typen von Denkprozessen lassen sich auf diese Art und Weise unterscheiden: -

Typ 1: Kontrollierte Denkprozesse (echtes Nachdenken),

-

Typ 2: Automatische Denkprozesse (unbewusst, mühelos, parallel),

-

Typ 3: Kognitive Prozesse (wahr oder falsch, Beurteilungen),

-

Typ 4: Affektive Prozesse (emotionales Entscheiden).

Darauf aufbauend soll schließlich analysiert werden, welche Denk- und Entscheidungsprozesse in bestimmten (unterscheidbaren) Situationen vorherrschen bzw. dominant sind. Insbesondere in der an Anwendungsfragen interessierten Betriebswirtschaftslehre findet die Neuro-Economics eine immer stärkere Verbreitung. - Doch zurück zu Hayeks Theorie. Hayek trennt zuerst einmal die Welt der objektiven Dinge, also die physikalische Welt, von der wahrgenommenen Welt. Letztere ist bedingt durch die Sinnesordnung (,Sensory Order'). Diese Sinnesordnung zu erklären ist Hayeks Anliegen. Allerdings stellt er hierzu fest, dass es dem menschlichen Gehim niemals möglich sein wird, die Arbeitsweise des menschlichen Gehirns in allen seinen Details zu verstehen und zu entschlüsseln, denn dazu bedürfe es eines Organismus' höherer Ordnung. Dennoch erscheint es wissenschaftlich möglich, die Entstehung und Arbeitsweise der Sinnesordnung abstrakt zu erfassen und zu beschreiben. Die Erarbeitung von Mustererklärungen oder ,Erklärungen des Prinzips' ist also durchaus möglich. Ein Lebewesen - hier das Individuum - , das ein phänomenales Bewusstsein besitzt, nimmt nicht nur Reize auf, sondern verarbeitet diese auch. Es hat die Fähigkeit, zu empfinden, Entscheidungen zu treffen und zu handeln. Hierbei kann allerdings kein Individuum die physische Ordnung gänzlich abbilden. Vielmehr werden immer nur bestimmte Stimuli der realen Welt in der neuronalen Ordnung in Form von Impulsen oder ganzen

3

Die deutsche Ausgabe der ,Sensory Order' mit dem Titel ,Die sensorische Ordnung' aus dem Jahr 2006 enthält sowohl den Aufsatz von 1920 als auch den Aufsatz von 1977.

104

Martin Leschke

Impulsketten verarbeitet. Es besteht also ein Nicht-Isomorphismus zwischen der realen Welt und der neuronalen Ordnung. Letztere ist die Struktur des Nervensystems. Die Neuronen (Nervenzellen) sind über Synapsen (neuronale Verknüpfungen) miteinander verbunden und .verwandeln' Stimuli in Impulse oder auch Abfolgen von Impulsen. Die neuronale Verarbeitung der Stimuli kann nun in die mentale Ordnung oder Sinnesordnung (vollständig) überfuhrt werden. Zwischen der neuronalen Ordnung und der Sinnesordnung besteht nach Hayek mithin eine isomorphe Beziehung. Die physische Welt ist jedoch nicht vollständig erfassbar vom menschlichen Geist. Abbildung 2 veranschaulicht die Zusammenhänge noch einmal. Abbildung 2: Der Nicht-Isomorphismus (1) Die physische Ordnung, von der Stimuli ausgehen ni (2) Die neuronale Ordnung, die Impulse gibt und verarbeitet

(3) Die mentale Ordnung der Sinne, die Phänomene verarbeitet

65 Real GDP per capita in 100 USD Real GDP growth

Obs. 731 731 731 731 731 731 731 731

Mean 6.32 73.54 79.83 1.69 2.07 14.12 253.96 2.03

Std. Dev. 3.64 3.06 2.54 0.29 0.93 2.53 74.43 2.59

Min 0.00 63.10 69.70 1.08 0.00 7.20 85.85 -10.75

Max 21.64 80.30 85.80 3.18 5.30 20.80 564.85 14.59

Quelle: http://www.oecd.org/statistics/ Bei der ökonometrischen Spezifikation folgen wir der Literatur und schätzen geschlechterspezifische Regressionen mit festen Effekten, um die Determinanten der Suizidraten über die Zeit zu analysieren: S;,, = ß'Xj, + a ( + £t t Dabei stellen Si,t die geschlechterspezifischen Suizidraten im Land i und im Jahr t sowie Xi,t alle beobachteten Einflussfaktoren dar, wie beispielsweise die Arbeitslosenquoten, die Fertilitätsraten oder die geschlechterspezifischen Lebenserwartungen. Ver-

248

Horst Rottmann

schiedene nicht beobachtete, länderspezifische und zeitkonstante Einflussfaktoren (zusammengenfasst in der Variable a,), wie das Klima, die Religiosität, die geografische Lage, ethische oder gesellschaftliche Normen, fuhren dazu, dass die Suizidraten zwischen den Ländern variieren. In der Literatur werden hier gewöhnlich Regressionsmodelle mit festen Effekten (FE-Modell) geschätzt. Es ist jedoch auch möglich, Modelle mit stochastischen Effekten (random effects model, RE-Modell) zu schätzen. Der Vorteil von Modellen mit stochastischen Effekten liegt darin begründet, dass wir bei der Schätzung der Parameter sowohl die Variation der Daten über die Zeit als auch zwischen den Ländern voll ausnutzen und deshalb unter bestimmten Bedingungen effiziente Schätzer erhalten. Dieses RE-Modell beruht allerdings auf der Annahme, dass die unbeachteten länderspezifischen Effekte unkorreliert mit den im Modell enthaltenen Regressoren sind. Ist das nicht der Fall, ist der Random Effekt-Schätzer verzerrt. Im Gegensatz dazu verwendet das FE-Modell zum Schätzen der Parameter nur die Variationen der Daten innerhalb der einzelnen Länder und benötigt deshalb eine solche Annahme nicht. FE-Modelle sind deshalb robuster als RE-Modelle gegenüber den Problemen vernachlässigter Variablen. Allerdings erweisen sich Modelle mit festen Effekten als wenig robust, falls die Einflussfaktoren nur eine geringe Variation über die Zeit aufweisen und gleichzeitig mit Messfehlern behaftet sind (Griliches und Hausman 1986). Wir schätzen deshalb beide Modelle, um so auch die Robustheit der Ergebnisse zu prüfen. Des Weiteren integrieren wir in einigen Spezifikationen zusätzlich noch feste Zeiteffekte, um makroökonomische Schocks zu berücksichtigen, die alle Länder betreffen.

3.

Empirische Ergebnisse und ihre Interpretation

Tabelle 3 zeigt die Ergebnisse sowohl für das RE-Modell als auch das FE-Modell, wobei wir die Schätzungen für Männer und Frauen getrennt vorgenommen haben. Im Einklang mit der empirischen Literatur verwenden wir als abhängige Variable den Logarithmus der Suizidraten, um der Schiefe der Verteilungen entgegenzuwirken. Wir multiplizieren dabei den Logarithmus mit 100, so dass ein geschätzter Koeffizient von 1 eine Zunahme der Suizidrate um ein Prozent darstellt, falls die dazugehörige Einflussvariable um eine Einheit zunimmt. Beispielsweise erhöht eine Zunahme der Scheidungsrate um einen Fall pro 1000 Einwohner die Suizidraten der Männer um 7 %. Falls die Arbeitslosenrate um 4 Prozentpunkte steigt, erhöhen sich die Suizidraten für Männer ungefähr um 5 % und für Frauen um 9 %. Ein Anstieg der Arbeitslosenrate um 4 Prozentpunkte entspricht in etwa einer Standardabweichung der Arbeitslosenquote (siehe Tabelle 2). Die geschätzten Parameter und die dazugehörigen Standardfehler sind jeweils sehr ähnlich in beiden Spezifikationen (FE- und RE-Modell). Die Chi-Quadratstatistik des Hausman-Tests (Hausman 1978) mit acht Freiheitsgraden beträgt 14,07 und weist einen p-Wert von 0,079 auf. Deshalb können wir gerade noch die Nullhypothese verwerfen, dass unsere beobachteten Einflussfaktoren nicht mit den länderspezifischen Effekten korreliert sind. Falls aber die idiosynkratischen Störterme nicht identisch und unabhängig verteilt sind, ist der Hausman-Test verzerrt, da das Modell mit stochastischen Effekten in diesem Fall nicht effizient wäre. Arellano (1993) hat einen alternati-

Arbeitsmarkt und Arbeitslosigkeit

249

ven regressionsbasierten Test entwickelt, der heteroskedastizitäts- und autokorrelationsrobuste Standardfehler verwendet. Ein von Wooldridge (2002) vorgeschlagener Test verwirft klar die Nullhypothese, dass die idiosynkratischen Störterme nicht autokorreliert sind. Die Chi-Quadratstatistik des Tests von Arellano mit acht Freiheitsgraden beträgt 36,4 und verwirft damit klar die Annahmen des Modells mit stochastischen Effekten. Zwar weist auch dieser Test auf signifikante Unterschiede bei den geschätzten Parametern beider Modelle hin, trotzdem sind die Parameter aber bei allen Variablen in beiden Spezifikationen jeweils sehr ähnlich, so dass die inhaltlichen Interpretationen der Ergebnisse kaum beeinflusst werden. Auch bei den Frauen verwerfen die beiden Versionen des Tests jeweils die Annahmen des Modells mit stochastischen Effekten. Wiederum sind aber die Unterschiede bei den geschätzten Parametern sehr gering, so dass sie die inhaltlichen Interpretationen der Ergebnisse kaum beeinflussen. Unsere Ergebnisse sind also relativ robust gegenüber der verwendeten Schätzmethode. Tabelle 3: Random-Effects- und Fixed-Effects-Modelle: log Suizidrate

Unemployment rate Life expectancy Fertility Divorce rate GDP per capita (in 100$) Real GDP growth Share above 65 years Trend Constant N Rho r2_w

0) male RE 1.216*** (0.239) -5.644*** (0.789) -20.896*** (2.921) 7.039*** (1.471) 0.047* (0.024) -0.448** (0.190) 1.515*** (0.493) -0.270 (0.252) 711.479*** (52.750) 731 0.907 0.437

(2) male FE 1.281*** (0.239) -5.458*** (0.809) -20.814*** (2.922) 6.535*** (1.488) 0.049** (0.025) -0.446** (0.189) 1.659*** (0.497) -0.336 (0.263) 698.166*** (54.083) 731 0.926 0.437

(3) female RE 2.162*** (0.297) -0.783 (1.093) -20.773*** (3.865) 7.025*** (1.869) 0.196*** (0.030) -0.516** (0.237) 0.696 (0.646) -2.936*** (0.272) 303.043*** (81.344) 731 0.915 0.561

(4) female FE 2.253*** (0.298) -0.734 (1.107) -20.533*** (3.871) 6.536*** (1.889) 0.201*** (0.031) -0.514** (0.237) 0.854 (0.651) -2.986*** (0.279) 298.523*** (82.196) 731 0.931 0.561

Standardfehler in Klammern

*p < 0.10, **p < 0.05, *** p < 0.01 Quelle: eigene Schätzungen Im Folgenden werden wir deshalb nur noch Modelle mit festen Effekten darstellen. Die Standardfehler in Tabelle 3 beruhen auf der Annahme, dass die Störterme unabhängig und identisch verteilt sind. Der bereits oben erwähnte Test auf Autokorrelation

250

Horst Rottmann

der Störterme weist allerdings daraufhin, dass diese Annahmen verletzt sind. Tabelle 4 zeigt deshalb Schätzungen mit robusten Standardfehlern für verschiedene Modelle mit festen Effekten. Die Literatur zu Paneldaten verwendet hier meistens die von Arellano (1987) vorgeschlagenen im Hinblick auf Cluster robusten Standardfehler. Ihre Validität beruht allerdings auf der Annahme, dass es keine Korrelation zwischen den Querschnittseinheiten (geographische Korrelation) gibt. Während diese Annahme im Fall von mikroökonometrischen Paneldaten noch gerechtfertigt erscheinen mag, ist sie im Falle von makroökonomischen Daten aufgrund von gemeinsamen konjunkturellen und politischen Schocks äußerst umstritten (Urbain und Westerlund 2006; Hsiao 2007). Werden die Korrelationen der Störterme innerhalb und zwischen den Ländern ignoriert, so fuhrt dies zu verzerrten statistischen Schlussfolgerungen, da der Informationsgehalt von korrelierten Beobachtungen geringer ist (Cameron und Trivedi 2005, Hsiao 2007). Pesaran (2004) hat einen Querschnittstest vorgeschlagen, der die Nullhypothese daraufhin testet, ob die Korrelationen der Störterme zwischen den Ländern null sind. Dazu verwendet der Test den Durchschnitt aller paarweisen Korrelationen, die mithilfe von länderspezifischen Regressionen berechnet werden. Der durchschnittliche absolute Korrelationskoeffizient beträgt 0,41 für Männer beziehungsweise 0,38 für Frauen und verwirft auf dem 1 %- beziehungsweise 5 %-Signifikanzniveau die Nullhypothese der Unabhängigkeit der Störterme zwischen den Ländern. Deshalb verwenden wir in der folgenden Tabelle 4 das von Driscoll und Kraay (1998) vorgeschlagene nichtparametrische Verfahren, das heteroskedastizitätskonsistente Standardfehler schätzt, die robust gegenüber sehr generellen Formen von zeitlicher und geografischer Korrelation sind. Dabei benutzten wir für die Berücksichtigung der Autokorrelationsstruktur als maximale Laglänge den Wert drei (Hoechle 2007). Die empirische Literatur verwendet bei der Modellierung meistens den Logarithmus der Suizidraten als abhängige Variable, deutlich seltener werden die Suizidraten im Niveau als abhängige Variable verwendet (Ruhm 2000). Um die Robustheit unserer Ergebnisse in dieser Hinsicht zu überprüfen, enthält Tabelle 4 sowohl Schätzungen für das Niveau als auch den Logarithmus der Suizidraten als abhängige Variable. Unsere Benchmark Regressionen bestätigen einen großen Teil früherer Ergebnisse der empirischen Literatur über Determinanten des Suizids: So erhöht in allen Spezifikationen Arbeitslosigkeit signifikant die Suizidrate, wogegen ein höheres Wachstum des BIP diese senkt. Der Einfluss des Einkommens pro Kopf erscheint etwas überraschend: Ein höheres BIP pro Kopf führt zu einer höheren Suizidrate, was den theoretischen Überlegungen von Hamermesh und Soss (1974) widerspricht. Allerdings gibt es Hinweise darauf, dass in Gesellschaften mit sehr hohen durchschnittlichen Einkommen oder vielen sehr zufriedenen Menschen gerade die ärmsten oder aus sonstigen Gründen benachteiligten Personen besonders unglücklich sind, da ihr Glücksempfinden wesentlich durch den relativen Vergleich mit anderen Gesellschaftsmitgliedern beeinflusst wird. So haben Daly et al. (2011) in ihren empirischen Untersuchungen herausgefunden, dass die durchschnittliche Zufriedenheit der Bevölkerung die Suizidrate in den jeweiligen Ländern positiv beeinflusst. Die sozialen Determinanten des Suizids erweisen sich als statistisch signifikant: Die Lebenserwartung und die Fertilitätsraten senken die Suizidraten, wogegen die Scheidungsraten diese tendenziell erhöhen. Der Anteil der

Arbeitsmarkt

und

251

Arbeitslosigkeit

älteren Bevölkerung (65 Jahre und älter) erhöht die Suizidsterblichkeit. Während die meisten dieser Effekte für beide Geschlechter signifikant sind, sind die Lebenserwartung und die Altersvariable bei den Schätzungen für die Frauen nicht signifikant. In der Literatur gibt es häufig Hinweise auf signifikante Unterschiede bei den Determinanten des Suizidverhaltens von Männer und Frauen (Kuroki 2013). Tabelle 4: Benchmark Fixed-Effects-Modelle: Suizidrate

Unemployment rate Life expectancy Fertility Divorce rate GDP per capita (in 100$) Real GDP growth Share above 65 years Trend Constant N Rho r2_w

(1) Male level 0.218** (0.094) -1.300*** (0.262) -5.314*** (1.380) 1.735** (0.824) 0.017*** (0.005) -0.136*** (0.050) 0.518** (0.206) -0.143* (0.082) 116.598*** (18.613) 731

(2) Male In 1.281*** (0.410) -5.458*** (1.056) -20.814*** (5.362) 6.535** (2.774) 0.049** (0.024) -0.446** (0.182) 1.659** (0.713) -0.336 (0.312) 698.166*** (74.875) 731

(3) Female Level 0.131*** (0.044) 0.067 (0.129) -1.882*** (0.695) 0.542 (0.381) 0.017*** (0.003) -0.044*** (0.015) 0.102 (0.087) -0.281*** (0.032) 7.826 (9.952) 731

(4) Female In 2.253*** (0.543) -0.734 (1.152) -20.533*** (6.306) 6.536** (2.724) 0.201*** (0.032) -0.514*** (0.169) 0.854 (0.625) -2.986*** (0.273) 298.523*** (91.013) 731

0.419

0.437

0.465

0.561

Driscoll und Kraay robuste Standardfehler in Klammern. * p < 0.10, **p < 0.05, *** p < 0.01

Quelle: eigene Schätzungen Nachdem wir in unseren Benchmark Regressionen die sozialen und ökonomischen Determinanten der Suizidsterblichkeit geschätzt haben, integrierten wir (Rottmann 2014) die Arbeitsmarktinstitutionen. Dabei werden verschiedene Variablen der OECD und von G. Allard (2005) verwendet, um die Großzügigkeit der Arbeitslosenunterstützung und die Strenge des Kündigungsschutzes zu messen und die empirischen Ergebnisse hinsichtlich ihrer Robustheit zu überprüfen. Insgesamt zeigte sich, dass mit einem strikteren Kündigungsschutz sowohl bei Frauen als auch bei Männern eine höhere Suizidrate einhergeht. Eine großzügigere Arbeitslosenunterstützung senkt dagegen die Suizidraten der Männer, bei den Frauen hat eine großzügigere Ausgestaltung der Arbeitslo-

252

Horst Rottmann

senversicherung dagegen keinen Einfluss 1 . In unserem Aufsatz werden zudem viele theoretische Überlegungen präsentiert. Auch hier haben wir verschiede Spezifikationen geschätzt, um die Robustheit der Aussagen überprüfen zu können. So haben wir als abhängige Variable sowohl den Logarithmus als auch das Niveau der Suizidrate verwendet. Die prinzipiellen Aussagen erweisen sich wiederum als äußerst robust. Des Weiteren haben wir das Modell mit festen Effekten noch zusätzlich um feste Zeiteffekte erweitert, indem wir neben den festen Effekten für die Länder zusätzlich noch einen kompletten Satz von Jahres-Dummys eingefügt haben. Damit berücksichtigen wir allgemeine makroökonomische Schocks, die alle Länder betreffen. Deshalb können wir zur Schätzung der Parameter allerdings nur noch denjenigen Informationsgehalt der Variablen verwenden, der gleichzeitig über die Länder und über die Zeit variiert. Da die alleinige Berücksichtigung von festen Länder- und Zeiteffekten bereits 88 % der Suizidraten erklären würde, verbleibt für die Schätzung der Effekte von sozialen und ökonomischen Determinanten des Suizids relativ wenig Information. Trotzdem erwiesen sich die Ergebnisse auch dabei als sehr robust.

4.

Zusammenfassung

Der starke Anstieg der Arbeitslosigkeit in den südeuropäischen Ländern seit Beginn der Finanz- und Wirtschaftskrise führt zu Befürchtungen, dass sich in den von der Krise am stärksten betroffenen Ländern der Gesundheitszustand der Bevölkerung verschlechtern und die Neigung zur Selbsttötung zunehmen könnten. Die Soziologie, Psychologie und Ökonomie beschäftigen sich schon seit Langem mit den Determinanten des Suizids. Der Verlust von sozialen Bindungen oder die Zerstörung sozialer Netzwerke werden von Soziologen als mögliche Faktoren für höhere Suizidraten betont. Deshalb berücksichtigen sie bei ihren empirischen Untersuchungen beispielsweise die Religionszugehörigkeit, Fertilitäts- und Scheidungsraten als erklärende Variablen, um die sozialen Interaktionen in einer Gesellschaft abzubilden. Die neoklassische ökonomische Theorie modelliert Suizid als ein in die Zukunft gerichtetes nutzenmaximierendes Verhalten eines rationalen Agenten. Dabei hängt der persönliche Lebenszeitnutzen entscheidend von den zukünftigen Konsummöglichkeiten ab, die wiederum von der Arbeitslosenquote, dem BIP pro Kopf und dem Wachstum beeinflusst werden. Der Beitrag unserer Studie zur empirischen Forschung auf diesem Gebiet beruht vor allem auf zwei Schwerpunkten: Sie erweitert den Beobachtungsumfang gegenüber ähnlichen Studien deutlich, indem ein Panel mit 25 Ländern genutzt wird, die teilweise bis zu 40 Jahre beobachtet wurden. Dadurch ergeben sich hinsichtlich der Exogenität schwächere Anforderungen an die erklärenden Variablen. Da der moderne Wohlfahrtsstaat die individuelle Betroffenheit von Arbeitslosigkeit abmildert, wird in der Studie die empirische Literatur auch um diese Punkte erweitert.

1

In Rottmann (2014) werden mögliche Gründe hierfür ausführlich diskutiert.

Arbeitsmarkt und Arbeitslosigkeit

253

Die empirischen Ergebnisse zeigen, dass höhere Arbeitslosigkeit und Scheidungsraten sowie niedrigere Lebenserwartung und Geburtenraten die Suizidraten sowohl bei Männern als auch bei Frauen erhöhen. Ein stringenterer Kündigungsschutz erhöht sowohl für Männer als auch für Frauen die Suizidrate signifikant, dagegen senkt eine großzügigere Arbeitslosenunterstützung die Suizidrate der Männer signifikant. Diese Ergebnisse blieben auch bei vielfältigen Robustheitsüberprüfungen bestehen.

Literatur Allard, Gayle J. (2005), Measuring Job Security over Time: In Search of a Historical Indicator for EPL (Employment Protection Legislation), IE Working Paper 05-17. Andrés, Antonio Rodriguez (2005), Income Inequality, Unemployment, and Suicide: A Panel Data Analysis of 15 European Countries, in: Applied Economics, Vol. 37, S. 439-451. Arellano, Manuel (1987), Computing Robust Standard Errors for Within-Groups Estimators, in: Oxford Bulletin of Economics and Statistics, Vol. 49, S. 431^434. Arellano, Manuel (1993), On the testing of correlated effects with panel data, in: Journal of Econometrics, Vol. 59, S. 87-97. Becker, Gary S. und Richard A Posner (2004), Suicide: An economic approach, Mimeo, University of Chicago. Breuer, Christian (2014), Unemployment and Suicide Mortality: Evidence from Regional Panel Data in Europe, Health Economics, forthcoming. Cameron, A. Colin und Pravin K. Trivedi (2005), Microeconometrics: Methods and Applications, Cambridge University Press. Chuang, Hwei-Lin und Wei-Chiao-C. Huang (1997), Economic and social correlates of regional suicide rates: a pooled cross section and time series analysis in: Journal of SocioEconomics, Vol. 26, S. 277-89. Daly, Mary C., Andrew J. Oswald, Daniel Wilson und Stephen Wu (2011), Dark contrasts: the paradox of high rates of suicide in happy places, in: Journal of Economic Behavior and Organization, Vol. 80 (3), S. 435^42. Driscoll, John C. und Aart C. Kraay (1998), Consistent Covariance Matrix Estimation With Spatially Dependent Panel Data, In: Review of Economics and Statistics, Vol. 80, S. 549560. Dürkheim, Emile (1951), Suicide: A study in sociology, New York. Griliches, Zvi und Jerry A. Hausman (1986), Errors in Variables in Panel Data, in: Journal of Econometrics, Vol.31, S. 93-118. Hamermesh, Daniel S. und Neal M. Soss (1974), Theory of Suicide, in: Journal of Political Econ-omy, Vol. 82, S. 83-98. Hausman, Jerry A. (1978), Specification Tests in Econometrics, in: Econometrica, Vol. 46, S. 1251-1271. Helliwell, John F. (2007), Well-being and social capital: Does suicide pose a puzzle?, in: Social Indicators Research, Vol. 81, S. 4 5 5 ^ 9 6 . Hoechle, Daniel (2007), Robust Standard Errors for Panel Datasets with Cross-Sectional Dependence, in: Stata Journal, Vol. 7, S. 281-312

254

Horst Rottmann

Hsiao, Cheng (2007), Panel Data Analysis - Advantages and Challenges. IEPR Working Paper 06-49, Institute of Economic Policy Research, University of Souther California. Kuroki, Masonori (2010), Suicide and Local Unemployment in Japan: Evidence from Municipal Level Suicide Rates and Age-Specific Suicide Rates, in: Journal of Socio-Economics, Vol. 39, S. 683-691. Kuroki, Masanori (2013), The Effect of Sex Ratios on Suicide, in: Health Economics, Vol. 23, S. 1502-1510. Milner, Allison, Heidi Hjelmeland, Ella Arensman, und Diego De Leo (2013), SocialEnviromental Factors and Suicide Mortality: A Narrative Review of over 200 Articles, in: Sociology Mind, Vol. 3 (2), S. 137-148. Neumayer, Eric (2003), Are Socioeconomic Factors Valid Determinants of Suicide? Controlling for National Cultures of Suicide with Fixed-Effects Estimation, in: Cross-Cultural Research, Vol. 37 (3), S. 307-329. Neumayer, Eric (2004), Recessions Lower (Some) Mortality Rates: Evidence from Germany, in: Social Science and Medicine, Vol. 58, S. 1037-1047. Noh, Yong-Hwan (2009), Does unemployment increase suicide rates? The OECD panel evidence, in: Journal of Economic Psychology, Vol. 30, S. 575-582. Pesaran, Mohammad Hashem (2004), General Diagnostic Tests for Cross Section Dependence in Panels. Cambridge Working Papers in Economics, No. 0435, University of Cambridge. Rottmann, Horst (2014); Do Unemployment Benefits and Employment Protection Influence Suicide Mortality? An International Panel Data Analysis, Weidener Diskussionspapier 42. Ruhm, Christopher J. (2000), Are Recessions Good for Your Health? In: Quarterly Journal of Economics, Vol. 115(2), S. 617-650. Stuckler, David., Sanjay Basu, Marc Suhrcke, Adam Coutts und Martin McKee (2009), The public health effect of economic crises and alternative policy responses in Europe: an empirical analysis, in: The Lancet, Vol. 374, S. 315-323. Urbain, Jean-Pierre und Joakim Westerlund (2006), Spurious regression in nonstationary panels with cross-unit cointegration, METEOR Research Memorandum No. 057. Vogelsang, Timothy J. (2012), Heteroskedasticity, Autocorrelation, and Spatial Correlation Robust inference in linear panel models with fixed-effects, in: Journal of Econometrics, Vol. 166, S. 303 -319. Wagner, Adolph (1864), Die Gesetzmässigkeit in den scheinbar willkührlichen menschlichen Handlungen vom Standpunkte der Statistik, Hamburg. WHO - World Health Organization (2009), Financial crisis and global health: report of a highlevel consultation, online: http://www.who.int/mediacentre/events/ meetings/2009_financial_crisis_report_en_.pdf. Wooldridge, Jeffrey M. (2002), Econometric Analysis of Cross Section and Panel Data, Cambridge.

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaftspolitik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

Medien, Märkte und Marotten: Wie rational sind Mediennutzer?

Hanno Beck und Dirk Wentzel

Inhalt 1.

Behavioral Economics und Medienökonomik: Ein unbearbeitetes Feld

256

2.

Ökonomische Konzepte zur Analyse der Medien

258

2.1. Informationsgüter und Verfügbarkeit

258

2.2. Informationsgüter und Zahlungsbereitschaft

260

2.3. Konstanter Grenznutzen bei der Mediennutzung?

262

2.4. Ist die Konsumentenentscheidung tatsächlich noch wirksam?

263

2.5. Natürliche Monopole und öffentliche Güter? Nein Danke!

264

Medienökonomik und psychologische Erklärungsmuster

265

3.1. Ist der moderne Mediennutzer ein Homo Oeconomicus, ein Lemming oder ein entscheidungsstarker Verbraucher?

266

3.

4.

5.

3.2. Verwenden Mediennutzer Heuristiken?

267

3.3. Framing: Das Paradefeld der Medien und der spin doctors

269

3.4. Der Besitztumseffekt und Riepls Gesetz: Sterben Medien nie?

271

3.5. Liberaler Medienpaternalismus: Auch ein deutsches Schicksal?

271

Neue Ordnungsfragen moderner Medien

274

4.1. Erstes neues Ordnungsproblem: Informationen, Meldungen und Meinungen in individualisierten Medienmärkten

274

4.2. Zweites neues Ordnungsproblem: Wer regiert das Internet und die Suchmaschinen?

276

Schlussfolgerungen und offene Forschungsfragen

276

256

1.

Hanno Beck und Dirk Wentzel

Behavioral Economics und Medienökonomik: Ein unbearbeitetes Feld

Das Forschungsgebiet der Behavioral Economics entstand zu Beginn der 80er Jahre, als verschiedene Autoren kritische Aufsätze über den „Hausherrn der modernen Ökonomik", den sog. Homo Oeconomicus, publizierten. So hatten beispielsweise Kahnemann und Tversky (1979) mit der sog. Prospect Theory empirisch nachgewiesen, dass sich Menschen unter Risikobedingungen systematisch unterschiedlich verhalten, wenn es um die Bewertung von möglichen Gewinnen oder Verlusten geht. Thaler (1980) fragte schon kurze Zeit später nach einer positiven Theorie der Konsumentenentscheidung und implizierte damit zugleich, dass die vorherrschende Sichtweise eines dauerhaft rational und jederzeit voll informiert entscheidenden Wirtschaftssubjektes ausbaufähig sei. Es entstand eine wahre Flut von Beiträgen, die eine stärkere psychologische Fundierung der Wirtschaftstheorie forderten. Die Methode der experimentellen Wirtschaftsforschung gewann zunehmend an Bedeutung und wurde u.a. durch die Arbeiten etwa von Selten oder Ockenfels auch in Deutschland verbreitet (siehe Wentzel 2001). Der Homo Oeconomicus wurde zwar ordentlich unter Beschuss genommen, gleichwohl „überlebte" er - wenngleich geschwächt - vor allem in den mikroökonomischen Lehrbüchern des volkswirtschaftlichen Grundstudiums. Außer einigen methodischen Puristen würde wohl kein Ökonom mit offenem Blick heute noch behaupten wollen, dass sich Menschen jederzeit vollständig rational verhalten - allerdings ist das auch nicht das Problem, denn der Homo Oeconomicus ist vor allem eine wissenschaftstheoretische Notwendigkeit. Allerdings wäre auch die überzeichnete Gegenhypothese, dass Menschen sich immer irrational verhalten, leicht zu widerlegen. Die komplette Literatur zur Behavioral Economics umfasst also verschiedene Gesichtspunkte psychologisch fundierter Entscheidungsfindung in verschiedenen Anwendungsbereichen (Überblick bei Beck 2014). Die Behavioral Finance beispielsweise ist heute fester Bestandteil in Vorlesungen zur Finanzmarkttheorie geworden, und es gibt schon Unternehmen, die sich bei ihren PortfolioEntscheidungen an der Behavioral Finance orientieren. Auch die Medienökonomik ist ein vergleichsweise junges Forschungsgebiet (Überblick bei Wentzel 2002 und 2009; Beck und Wentzel 2009 und Beck 2010). Dabei standen sich die Forschungsfelder Medien und Ökonomik anfänglich beinahe feindselig gegenüber, wie Weinstein (1992, S. 73) feststellt: „When my colleagues at The New York Times use the word „academic", they intend no compliment; they mean irrelevant. And when my former colleagues in the academy describe someone's work as ,journalistic", they invariably mean shallow". Die frühe Medientheorie, die sich aus den Arbeiten von Paul Lazarsfeld entwickelte, war zunächst nur eine reine Medienwirkungstheorie (ausfuhrlich Baran und Davis 2000). Sie ging davon aus, dass sich Menschen durch Medien massiv beeinflussen, ja sogar manipulieren ließen. Vor allem die elektronischen Medien und in erster Linie das Fernsehen können durch die Macht der Bilder emotionalisieren und beeinflussen: Die Filme von Leni Riefenstahl über die Olympischen Spiele 1936 und die Machtergreifung

Medien, Märkte und Marotten

257

der Nationalsozialisten gelten bis heute als Musterbeispiel für die Verführungskraft des Fernsehens (aktuell hierzu siehe Schiller und Young 2012). Zunehmend wurden jedoch auch ökonomische Ideen und Hypothesen in den Mediensektor getragen. Betriebswirtschaftliche Kategorien wie Produktionskosten, Absatzkanäle und Reichweiten sind zu einer Theorie des Medienmanagements zusammengeführt worden (ausfuhrlich Beck und Wentzel 2009). Auch aus volkswirtschaftlicher Perspektive ist der Mediensektor in Forschung und Lehre integriert, zum einen als rein quantitativ wichtiger Sektor der Volkswirtschaft, zum anderen aber auch in theoretischer Perspektive als Bindeglied zwischen den Sektoren der Wirtschaft und der Politik. Auch die Theorie öffentlicher Güter oder die Club-Gut-Theorie ist auf die Medien angewandt worden. Gleichwohl hat das Konzept des Homo Oeconomicus in der Medientheorie und auch in der Medienökonomik niemals den Alleinvertretungsanspruch entwickeln können, den er zumindest zeitweilig in der traditionellen Ökonomik für sich behauptete. Durchforstet man die umfangreiche Literatur beider Forschungsbereiche nach Schnittmengen, so hat es den Anschein, als wären sich Medienökonomik und Behavioral Economics offensichtlich nie begegnet. Das wäre - für sich genommen - schon ein bemerkenswertes Ergebnis aus dem Blickwinkel der Theoriebildung, für das es unterschiedliche Erklärungen geben kann. Eine erste Hypothese könnte lauten: Die Medienökonomik (und die Medientheorie) waren von Anfang an stark psychologisch fundiert, haben also den Aspekt des „behavioral" schon von Beginn an inkorporiert. Eine zweite Hypothese könnte lauten: Vielleicht ist die sog. Anomalienforschung sehr nahe an die empirische Medienwirkungsforschung angelehnt: Immerhin ist die Darstellung einer Entscheidungssituation (im Sinne von Kahneman und Tversky 1979: „Framing of Decisions") eine klassische Aufgabe für Medien und für sog. spin doctors, die in politischen Kampagnen wie dem ersten Wahlkampf der Obama-Administration den eigenen Kandidaten in ein gutes Licht rücken wollen. Eine Vielzahl von methodischen und inhaltlichen Fragen drängen sich auf: Gibt es rationale Entscheidungen im Mediensektor, die weltweit zu ähnlichen Entscheidungsmustern führen (müssen)? Wenn diese Hypothese bestätigt werden könnte, warum sehen dann alle Medienunternehmen und -Sektoren in verschiedenen Ländern so unterschiedlich aus? Warum werden weltweit Medien unterschiedlich genutzt, obwohl der technische Nutzen und die Anwendungspotentiale - etwa bei der Verwendung von email oder SMS - weitgehend identisch sind? Aktuelle empirische Untersuchungen zeigen, dass europäische Jugendliche in Deutschland, Großbritannien, Spanien, Frankreich und Italien sehr unterschiedliche Nutzungsverhalten an den Tag legen, obwohl rein technisch das Medium für alle gleich wirkt (ausführlich Grabenströer 2013, S. 38 ff.). Es scheint also eine Art von kultureller Nutzungsgewohnheit zu geben, die einer eng ausgelegten technischen Rationalität widerspricht. Eine andere Frage drängt sich gerade in Deutschland auf: Warum schalten die Deutschen immer noch um 20.00 Uhr die Tagesschau ein, obwohl doch im Femsehen und erst Recht im Internet viele alternative Informationsquellen zur Verfugung stehen? Ist diese Verhaltensweise primär ökonomisch über den qualitativen Wert der Information zu erklären oder handelt es sich um ein soziologisch geprägtes, kulturelles Verhaltens-

258

Hanno Beck und Dirk Wentzel

muster? Eine aktuelle Untersuchung in den Media-Perspektiven (Hölig und Hasebrink 2013, S. 526 f.) bestätigt empirisch, dass die Altersgruppe der über 45- und 55-Jährigen primär dem Fernsehen als Informationsquelle vertraut und dort die Nachrichten bezieht. Die Tagesschau hat dabei mit 55 % Marktanteil als Marktfuhrer nach wie vor eine extrem starke Position, dicht gefolgt vom Heute Journal mit 45 %. „Das Erste" war eben nach dem Zweiten Weltkrieg das erste deutsche Fernsehen, und die Familie versammelte sich allabendlich vor den Nachrichten, die zugleich auch den Sendebeginn für das Abendprogramm darstellten. Es ist erstaunlich, dass die Tagesschau trotz großer Konkurrenz ihre starke Position behaupten konnte. Oder aber sind die Menschen einfach nur zu träge im Sinne von sozialer Hysterese, um Verhaltensgewohnheiten zu ändern? Wieso ist die Glaubwürdigkeit der öffentlich-rechtlichen Medien in den USA (sog. Public Broadcasting) trotz hoher Qualität vergleichsweise gering (vgl. Wentzel 2003), während sie in Deutschland trotz Gebührenärger vergleichsweise hoch ist? Obwohl die Summe der Rundfunkgebühren in Deutschland bei ca. 7,5 Mrd. Euro liegt und damit finanzwissenschaftlich auch für den Einzelhaushalt in jedem Fall eine Merklichkeit gegeben ist, regt sich selbst die junge Generation kaum auf und zahlt klaglos die Rundfunksteuer, während sie zeitgleich ihre eigenen Nachrichten über soziale Netzwerke und online-Dienste bezieht. Rein ökonomisch ist dies nicht zu erklären. In seinen Grundsätzen der Wirtschaftspolitik hat Walter Eucken (1952/90) von den sog. „ordnenden Potenzen" in einer Wirtschafts- und Gesellschaftsordnung gesprochen: Ohne Zweifel gehören die Medien zu diesen ordnenden Potenzen, die jedoch in allen Ländern sehr unterschiedlich gestaltet sind. Es gibt unterschiedliche Programmformate in verschiedenen Kulturkreisen und auch unterschiedliche Kommunikationsanforderungen: Was will der Mediennutzer eigentlich hören oder sehen? Und offensichtlich ist auch der Staatseinfluss in der Wirtschafts- und Medienpolitik in den Ländern unterschiedlich stark ausgeprägt. In dem vorliegenden Beitrag geht es darum, zunächst die möglichen Verknüpfungen zwischen beiden Forschungsgebieten aufzuzeigen. Sicherlich kann die Behavioral Economics durch Ergebnisse der Medienwirkungsforschung interessante Anregungen erfahren - et vice versa.

2.

Ökonomische Konzepte zur Analyse der Medien

2.1. Informationsgüter und Verfügbarkeit Der Erwerb eines Fernsehgerätes, eines Computers oder eines Smart-phone ist zunächst einmal nichts anderes als der Erwerb eines neuen Autos, einer Waschmaschine oder einer Urlaubsreise. Es geht zunächst um die Befriedigung eines Bedürfnisses, die beim Medienerwerb im Bereich der Informationsgewinnung, der Unterhaltung oder des Spiels liegen können. Informationen sind aber in vielerlei Hinsicht besondere Güter (siehe Beck 2010; Tietzel und Wentzel 2005). Den Wert einer Information kann man nicht a priori abschätzen, denn erst der Nutzer entscheidet, was er genau mit einer Information erreichen

Medien, Märkte und Marotten

259

will. Ein objektiver Wert ist kaum zu ermitteln, denn Informationen sind zu einem gewissen Grad auch „Erfahrungsgüter" (ausführlich Shapiro und Varian 1999, S. 5 ff.). Informationen können zudem durch Nicht-Rivalität im Konsum gekennzeichnet sein. Die Kenntnis über die Wettervorhersage des heutigen Tages wird nicht besser oder schlechter, je mehr Menschen diese Informationen nutzen. In den USA gibt es beispielsweise den „Weather Channel", der rund um die Uhr Wetterinformationen sendet und durch hohe Einschaltquoten sogar hoch profitabel ist. Selbst das Wetter taugt also zum Infotainment - zumindest in den USA. Bei kritischen oder sensiblen Informationen kann jedoch sehr wohl Rivalität im Konsum vorliegen. Insiderwissen an der Börse kann dann einkommenswirksam werden, wenn der Nutzer einen Informationsvorsprung hat. Für alle Informationen, gleich welches Bedürfiiis der Mediennutzer sie befriedigen, gilt, dass nur solche Informationen zählen, die den Informationsstand eines Nutzers vergrößern oder verändern. Es ist also notwendig, dass ein bestimmter Grad an Neuheit einer Information vorliegt (siehe Tietzel und Wentzel 2005). Es gibt das geflügelte Wort in der Medienbranche: Nichts ist so alt wie die Zeitung von gestern. Informationen haben aber auch noch eine weitere wichtige Eigenschaft, die in den digitalen Medien zunehmend an Bedeutung gewinnt: Die zeitliche Nutzung (Reihenfolge) einer Information ist entscheidend für deren Wert: Der Börsenhändler, der zuerst von einer technischen Innovation in einem Unternehmen erfährt, kann durch den Ankauf eines niedrig dotierten Aktienpaketes einen riesigen Gewinn machen. Eine bunte Illustrierte, die als erste von den amourösen Affaren eines Politikers erfährt, kann mit einer starken Auflagensteigerung rechnen. Ein Foto, das den französischen Präsidenten mitten in der Nacht auf seiner Vespa auf dem Weg zu seiner neuen Geliebten zeigt, dürfte in Fachkreisen für einen sechsstelligen Eurobetrag gehandelt werden. Diese Rangfolgeneigenschaft einer Information erklärt also relativ gut, warum häufig Geschichten auf den Markt kommen, die noch gar nicht fertig recherchiert sind: Eine gut recherchierte Story, an der ein Journalist mehrere Monate gearbeitet hat, kann über Nacht wertlos werden, wenn das konkurrierende Medienunternehmen schneller am Markt war. Bei der Rangfolgenposition der Informationsnutzung kommen auch psychologische Faktoren zur Geltung, wie sie z.B. in der Behavioral Economics diskutiert werden. Neuheit, also die Rangfolgenposition 1, scheint insbesondere für die jüngeren Nutzer einen herausragenden Stellenwert zu haben. Bei der Premiere eines Kino-Schlagers werden lange Warteschlangen und vergleichsweise hohe Eintrittspreise in Kauf genommen, obwohl der Film schon kurze Zeit später auf DVD oder über online-Portale bequemer und kostengünstiger zu betrachten wäre. Menschen campen vor den Buchhandlungen, um den neuen Harry Potter-Roman als Erster zu lesen. Solche Warteschlangen-Phänomene sind auch bei neuen /Ipp/e-Produkten immer wieder zu beobachten. Ökonomisch gesehen liegt hier eine außerordentliche Gegenwartspräferenz vor, die nicht vollständig rational erklärt werden kann und die sogar lange Warteschlangen in Kauf nimmt. Ein völlig neuer ökonomischer Blickwinkel zu Informationen ist zudem durch die Suchmaschinen und das Internet entstanden. Der Begriff, etwas zu „googeln", ist bereits

260

Hanno Beck und Dirk Wentzel

offiziell in die deutsche Sprache eingegangen. Obwohl das Unternehmen erst 1998 gegründet wurde, ist es innerhalb von nur 16 Jahren zur zweitwertvollsten Marke der Welt aufgestiegen - nach Apple, aber sogar noch vor Coca Cola. Google hat nach eigenen Angaben das Ziel, die Informationen der Welt zu ordnen und den Nutzern „kostenlos zur Verfügung zu stellen". Auf den ersten Blick - oder besser noch, auf den ersten klick - könnte es sich auch um die Zielsetzung eines Non-Profit-Unternehmens handeln. Tatsächlich entstehen für den Nutzer, der etwa die Frage nach den „besten Restaurants und Clubs in Berlin" eintippt, zunächst keinerlei Kosten, und er enthält in Sekundenbruchteilen wertvolle Informationen. Was sich gerade für die junge Generation nach einem großzügigen - weil kostenlosem - Angebot anhört, ist bei genauerem Hinschauen allerdings ein sehr interessantes Geschäftsmodell, denn wiederum kommt der Rangfolgeneigenschaft von Informationen die entscheidende Rolle zu: Sie wird gerade zum Kern der Informationsaufbereitung. Zwar liefert Google bei der genannten Anfrage eine schier unüberschaubare Anzahl an Hinweisen, und jedes noch so entlegene Restaurant in den Vororten Berlins findet Erwähnung. Aber neue und stabile empirische Untersuchungen zeigen, dass die meisten Nutzer nur maximal die ersten beiden Seiten der Google- Vorschläge durchforsten. Für jeden Berliner Clubbetreiber ist es also von entscheidender Bedeutung, eine vordere Rangposition zu erhalten - und dafür existiert eine außerordentlich hohe Zahlungsbereitschaft an den Betreiber von Suchmaschinen, von der Börsenzeitung (2014a) übrigens als Suchtmaschine bezeichnet. Damit ist schon eine durchaus interessante ökonomische Frage in den Raum gestellt. Würde ein rationaler Homo Oeconomicus, der ja stets vollständig informiert sein will, sich tatsächlich alle der mehreren Tausend relevanten Google-Vorschläge anschauen? Wenn ja, dann würde er kaum noch Zeit finden, ein Berliner Restaurant zu besuchen. Offensichtlich muss ein Mediennutzer bei vielen Tausend Information nach irgendeiner Daumenregel (Heuristik) abwägen, welche Informationen er wirklich als wichtig erachtet - und welche er ignoriert. Wenn die Daumenregel lautet: „Ich vertraue Google und schaue nur auf die ersten beiden Seiten mit üblicherweise 20 Vorschlägen", dann wird der Mediennutzer mit allergrößter Wahrscheinlichkeit eine sehr gute Wahl treffen. Der etwas ketzerische Hinweis von zumeist älteren Ordnungsökonomen, dass Google doch einen Marktanteil von sagenhaften 92,62 Prozent in Europa hat (siehe Börsenzeitung 2014b), fuhrt bei den jungen Nutzern nur zu Schulterzucken. Dass Google jedoch als Quasi-Monopolist die Rangfolge von Informationen und damit deren Wert bestimmt, hat die europäischen Wettbewerbshüter zu Recht alarmiert (siehe Börsenzeitung 2014a und 2014b). Die Wettbewerbsfragen in der digitalen Medienordnung sind von außerordentlicher Bedeutung (siehe Jungheim 2012), und die Abgrenzung der relevanten Märkte und Geschäftsstrategien wird immer schwieriger. Das Missbrauchspotential bei der Festlegung der Rangfolgenposition ist jedenfalls außerordentlich hoch.

2.2. Informationsgüter und Zahlungsbereitschaft Ein weiterer ökonomischer Sachverhalt von Informationen betrifft die potentielle und die tatsächliche Zahlungsbereitschaft für Informationen. Ökonomen verweisen zwar häufig darauf, dass grundsätzlich eine Zahlungsbereitschaft für Mediennutzung besteht.

Medien, Märkte und Marotten

261

Beim Besuch eines Kinos muss eine Karte gelöst werden, und selbst das Herunterladen von Musik über itunes oder vergleichbare Portale setzt den Erwerb eines Gutscheins oder die Hinterlegung einer Kreditkarte voraus. Im Internet ist das Durchsetzen von sehr geringen Preisen allerdings technisch schwierig wie auch ökonomisch kaum möglich. Soll man ein 10-jähriges Kind, das illegal ein Lied für 0,99 Cent heruntergeladen hat, verklagen? Was wäre der Streitwert? Wie sieht die juristische Verhältnismäßigkeit aus, auch im Hinblick auf eine mögliche Strafe? Die Kosten der Rechtdurchsetzung sind um ein vielfaches höher als ein potentieller Schaden einer Eigentumsrechtsverletzung, so dass im Niedrigkostenbereich Verstöße kaum geahndet werden. Durch das Internet empfinden die meisten Nutzer Informationen als kostenlos und sind beispielsweise kaum bereit, etwa für eine Internet-Zeitung etwas zu bezahlen. Auch dies ist der Grund, warum sich erst eine einzige Internet-Zeitung, die sog. Huffington Post, halbwegs etablieren konnte. Wie aber ist mit einer Ware zu verfahren, für die zwar Produktionskosten anfallen, für die aber kein positiver und nur ein sehr geringer Preis zu erzielen ist? Die meisten Internet-Unternehmen reagieren hier mit der sog. FREEMIUM-Strategie - Skype oder auch Acrobat Reader wären hier ein gute Beispiele. Ein sehr einfaches Basisprodukt wird kostenlos zum download freigegeben, primär auch um junge Leute an das Produkt zu gewöhnen und später zu binden, während die aufwendige und wesentlich hochwertigere Version für Fortgeschrittene nur über eine Lizenz genutzt werden kann. Die jugendlichen Eigentumsrechtsverletzungen sind sozusagen Teil der Marketing-Strategie: Wenn die Jugend irgendwann einmal offiziell im Unternehmen arbeitet, werden natürlich die üblichen Lizenzen gekauft. Zahlungsbereitschaft ist ein zunehmendes Problem für gedruckte Medien und hochwertigen Journalismus. Der Markt für Printmedien und den klassischen Qualitätsjournalismus schrumpft stark (vgl. Lindstädt 2012; Rothmann 2013). Selbst ein Flaggschiff wie die New York Times verkauft unter der Woche immer mehr online-Versionen für das ipad, während nur noch am Wochenende die traditionelle gedruckte Version mit dem weekend special geliefert wird. Durch das Internet ist der Wettbewerb mit den klassischen Medien massiv verschärft worden. Die beiden „Gesetze des Medienmarktes" - jede Information muss einen Neuheitscharakter haben und die Rangfolge der Informationsnutzung entscheidet über deren Wert (vgl. Tietzel und Wentzel 2005) - sind für gedruckte Medien im Wettstreit mit dem Internet immer schwieriger zu gewinnen. Das Internet erlaubt permanente Updates, wodurch es für traditionelle Medien immer schwieriger wird, etwas tatsächlich Neues zu berichten. Folglich nimmt der Wert einer Information für einen Medienanbieter oder für eine Zeitung immer stärker ab, je später er nach dem Internet über die Information verfügt. Er kann dieses Rennen rein technisch nicht gewinnen. Die klassischen Medien können mit der Handlungsschnelligkeit des Internet nicht mithalten, weshalb sie sich Nischen suchen müssen, um ihre Kernkompetenzen nach wie vor zielführend einsetzen zu können. Dies entspricht genau der sog. Nischentheorie (hierzu Dimmick und Rothenbuhler 1984, auch Dimmick 2003). Eine solche interessante Nische stellen beispielsweise die Sonntags- und Wochenzeitungen dar, die sich bewusst auf gut recherchierten Journalismus und Hintergrundberichte stützen. Der Trend geht eigentlich weniger weg von der Zeitung als von der Tageszeitung, die tagesaktuell sein muss und im Vergleich zum Internet immer alt ist. Die

262

Hanno Beck und Dirk Wentzel

Wochenzeitung hingegen setzt bewusst auf Qualität und Entschleunigung und besetzt damit eine attraktive Nische. Das Medienangebot muss sich also an das veränderte Verhalten der Mediennutzer anpassen.

2.3. Konstanter Grenznutzen bei der Mediennutzung? Schon im ersten Semester lernt jeder Student der Volkswirtschaftslehre das Gossensche Gesetz des abnehmenden Grenznutzens kennen. Je mehr von einem Gut genutzt wird, desto geringer ist der Zuwachs an Grenznutzen, bis er nach Überschreiten des Maximums sogar negativ wird. Grundsätzlich gelten diese mikroökonomischen Zusammenhänge auch für Medien (siehe Beck 2010). Jeder Zeitungsabonnent weiß, dass eine kurze und intensive Zeitungslektüre am Morgen zweckmäßig ist, um bestens über das Welt- und Marktgeschehen informiert zu sein. Der bekannte Medienphilosoph Hermann Lübbe (1994) hat sogar einmal postuliert, dass 5 Minuten Zeitungslektüre ausreichten, um informationstechnisch bestens versorgt zu sein. Er kannte damals noch nicht die Möglichkeiten, die das Internet informationstechnisch in der Zukunft bieten würde. Allerdings steigt die tägliche Mediennutzung weltweit an, was sich im Rahmen des Modells mit den sinkenden Preisen der Mediennutzung erklären lässt. Aktuell beläuft sich der tägliche Medienkonsum in Deutschland auf ca. 594 Minuten (siehe Lindstädt 2014, Bayerischer Rundfunk 2014). Durch die Verschmelzung von Individual- und Massenkommunikation hat sich das Smart-Phone zu einer Schnittstelle zwischen Telefonie und Nachrichten (SMS, Whats App) sowie zwischen Internet, Information, sozialen Netzwerken und Unterhaltung entwickelt. Nach einer Studie des medienpädagogischen Forschungsinstituts Südwest (MPFS 2013) nutzen in Deutschland bereits mehr als 40 Prozent aller Jugendlichen ein Smart-Phone mit stark wachsender Tendenz. Über 90 Prozent der Mädchen sind dabei täglich im Internet und primär in den sozialen Netzwerken unterwegs, während die männlichen Jugendlichen Spiele und Informationsdienste wie ileague bevorzugen. Selbst in den Grundschulen nutzen immer mehr Schüler ein Smart-Phone zu verschiedenen Zwecken. Und auch bei den älteren Mediennutzern, den sog. „silver surfern", sind weiterhin Zuwachsraten zu verzeichnen, und soziale Netzwerke werden als Möglichkeit gesehen, um mit alten Freunden und Bekannten im Kontakt zu bleiben. Ökonomisch betrachtet könnte man die Hypothese von einer Art von konstantem Grenznutzenverlauf aufstellen nach dem Motto: „Ich bin wach - also bin ich online!" Betrachtet man die empirischen Mediennutzungszahlen im Zeitverlauf (594 Minuten durchschnittlicher Mediennutzung in Deutschland täglich) und berücksichtigt man weitere technische Innovationen wie beispielsweise das sog. Smart TV und seine Anwendungsmöglichkeiten (Überblick bei Godefroid, Keber, Kühnle und Zöllner 2013), so scheint der Endpunkt der Mediennutzung die komplette Zeit zu sein, die ein Mensch am Tag wach ist. Gleichwohl kann der Hypothese konstanter Grenznutzenverläufe widersprochen werden. Dies hängt auch mit technischen Innovationen wie dem tablet PC zusammen, durch die die Nutzer quasi rund um die Uhr und überall Zugriff auf das Internet haben. Hinzu kommt, dass informative Applikationen zunehmend in den Alltag integriert wer-

Medien, Märkte und Marotten

263

den. Google maps ersetzt zunehmend die klassische Straßenkarte, Around me den Stadtfuhrer und das Branchenverzeichnis und das Navigationssystem den Straßenatlas. Die Verdrängung von Print durch online findet also auch in anderen Bereichen statt. Man muss sich auch fragen, ob die aktuellen Statistiken überhaupt noch eine inhaltlich korrekte Aussage treffen und eventuell zu falschen Schlussfolgerungen verleiten. Vor zehn Jahren noch konnte man genau feststellen und abgrenzen, wie viel Zeit ein Normalbürger vor dem Fernseher verbringt, vor seinem PC oder am Radio. Im Zeitalter der Medienkonvergenz und der Smart-Phones sind diese Abgrenzungen aber immer weniger sinnvoll.

2.4. Ist die Konsumentenentscheidung tatsächlich noch wirksam? Ein Kernpunkt ökonomischer Theoriebildung ist die Wahlentscheidung des Konsumenten. Entgegen dem soziologischen Menschenbild, das Rollenverhalten und Sozialisation als primär relevant für menschliche Entscheidungen ansieht, steht im ökonomischen Menschenbild die Entscheidungsfreiheit des Menschen im Vordergrund. Der Sachverhalt der permanenten Allverfiigbarkeit von Medien und Informationen hat dabei zwei Dimensionen: Erstens ist grundsätzlich positiv festzuhalten, dass Informationsnutzer - etwa Studenten, die sich auf eine Prüfung vorbereiten - rund um die Uhr Zugriff auf alle relevanten Literaturquellen haben. Selbst wenn die Bibliothek nicht 24 Stunden geöffnet ist, so kann man doch über Datenbanken, online-Recherchen und soziale Netzwerke jederzeit auf wichtige Informationen zugreifen. Zweitens ist aber zu fragen, ob ein dauerhaftes Verweilen in sozialen Netzwerken, 24 Stunden am Tag, 7 Tage die Woche, von der „Generation online" überhaupt noch als aktive Mediennutzung wahrgenommen wird. Mediennutzung wird teilweise gar nicht mehr als solche bewusst aufgenommen und scheint mithin eine Art von permanenter Lebensführung zu sein: Man ist immer online. Die einzige rationale Nabelschnur, die die jugendlichen Mediennutzer noch in Verbindung zu ökonomischen Kategorien hält, ist das Budget der Mediennutzung. Zwar ist die Internet flatrate heute in vielen Haushalten ebenso selbstverständlich wie das Kabelfernsehen, allerdings ist bei mobiler Internetnutzung über Smart Phone relativ schnell das maximale Datenvolumen erreicht. Zudem steigen die Opportunitätskosten der Mediennutzung - und dann wird es teuer und der Nutzer muss dann doch irgendwann o f f line gehen. Medienökonomisch sehr interessant ist, dass das mediale Unterhaltungsangebot nicht nur auf einem Medienübertragungskanal gesendet wird, sondern auf vielen Kanälen gleichzeitig und zeitversetzt. Dies ist ein großer Unterschied beispielsweise zur klassischen Samstagabend-Show, so wie sie noch vor wenigen Jahren üblich war, etwa die ZDF Show „Wetten - daß?", die als erfolgreichste Fernsehshow Europas in die Mediengeschichte eingehen wird. Aktuelle Formate der zumeist privaten Anbieter, etwa die kommerziell überaus erfolgreiche RTL-Show „Deutschland sucht den Superstar (DSDS)", ist nicht nur zur besten Sendezeit im Fernsehen, sondern hat zugleich eine interaktive Website und bedient facebook, twitter und andere Kanäle. Auch der gute alte Printmarkt wird bedient mit einer wöchentlichen Zeitschrift, die in der Aufmachung der

264

Hanno Beck und Dirk Wentzel

BRAVO ähnelt. Selbst wenn die Sendung also vorbei ist, läuft die Diskussion im Netz erst richtig an. Betrachtet man diese Entwicklung der Mediennutzung der Generation online, so kann von einer Veränderung der Kommunikationsformen gesprochen werden. Menschen haben das Bedürfnis zu kommunizieren, und sie tun dies täglich in verschiedensten Zusammenhängen: in der Familie, im Beruf, in der Universität und mit Freunden. Diese ganz alltägliche Kommunikation („Wie war Dein Tag?") scheint sich zunehmend in den Bereich der elektronischen Medien zu verlegen. Nur wenn noch Merklichkeit bei den Kosten existiert, wird wirklich überlegt, ob eine SMS, Whats App oder ein Video online tatsächlich ihr Geld wert ist. Bei Existenz einer flatrate wird die Mediennutzung quasi zeit- und grenzenlos.

2.5. Natürliche Monopole und öffentliche Güter? Nein Danke! Es ist unter Ökonomen häufig eine Debatte, ob technische Entwicklungen ökonomische Gesetzmäßigkeiten beeinflussen und sogar verändern können. Eine reine Theorie im Sinne von Carl Menger ist zunächst einmal völlig unabhängig vom Anwendungsbereich. Allerdings ist die Medienökonomik ein schönes Beispiel für das, was Karl Popper einst als das Sterben von Theorien bezeichnet hat. In Anlehnung an den „Club der toten Dichter" kann man die Medienökonomik auch als den Friedhof alter Theorien bezeichnen. Die Theorie natürlicher Monopole beispielsweise war zu Beginn des Medienzeitalters erklärungsstark, als der Staat sehr stark den Ausbau von Infrastruktur unterstützte, um Leitungsnetze und Übertragungsmasten bereitzustellen. Die Theorie geht von der sog. Sub-Additivität der Kosten aus, dass also ein großer Monopolist stets kostengünstiger anbieten könnte als eine Vielzahl von kleinen Anbietern. Das monopolistische Angebot sei somit zwangsläufig und ökonomisch effizient, und der Staat müsse nur beaufsichtigen, dass es nicht zum Missbrauch von Marktmacht käme. Durch die Theorie der bestreitbaren Märkte (contestable markets) im Anschluss an Baumol wurde jedoch ein neuer Gesichtspunkt in die theoretische Debatte eingeführt. Dieser Paradigmenwechsel in der Wettbewerbstheorie hat zu einer differenzierten Betrachtung von Netzwerkgütern gefuhrt, die gerade im Medienbereich eine zentrale Rolle in der Datenübertragung spielen. In den Vereinigten Staaten führte diese neue Sichtweise u.a. auch zur Zerschlagung des Monopolisten AT&T, um neuen Telekommunikationsanbietern den Marktzugang und damit mehr Wettbewerb zu ermöglichen. Eine weitere Theorie, deren Gültigkeit im Mediensektor längst widerlegt ist, ist die Theorie der öffentlichen Güter. Sie war die entscheidende Argumentationshilfe für den öffentlich-rechtlichen Rundfunk in Deutschland. Die beiden Grundannahmen der Theorie, die Nicht-Rivalität im Konsum und die Nicht-Ausschließbarkeit, waren in den Anfangstagen des Rundfunks in Deutschland auch tatsächlich gegeben (ausfuhrlich Wentzel 2002). Allerdings ist spätestens mit der Einfuhrung des Kabelfernsehens in Deutschland das Ausschlussprinzip technisch verwirklicht worden, so dass das entscheidende Kriterium eines öffentlichen Gutes verloren ging.

Medien, Märkte und Marotten

265

In Deutschland hat die Theorie öffentlicher Güter im Medienbereich jedoch weite Verbreitung gefunden. Auch die Gutachten des Bundesverfassungsgerichts, die die Rundfunkordnung in Deutschland entscheidend gestaltet haben und noch heute dem öffentlich-rechtlichen Rundfunk eine Bestandsgarantie ausstellen, stützen sich fast alle auf diese Theorie und auf die nicht mehr gültige Annahme knapper Sendefrequenzen, obwohl, wie Kühling (2014) ausfuhrlich darlegt, diese Hypothesen nichts mehr mit der Verfassungs- und Medienwirklichkeit in Deutschland gemeinsam haben. Mit der Zulassung privater Anbieter, der Verschlüsselung von Sendesignalen und der Öffnung der Übertragungsnetze für europäische und internationale Anbieter ist die programmliche Vielfalt ausreichend gesichert. Da sich das deutsche Verfassungsgericht auch 2014 wieder mit dem deutschen Rundfunk befassen muss in der Frage, ob nach wie vor ein ausreichende Staatsferne vorliegt, darf man nur wünschen, dass die Richter bis dahin Abschied von verworfenen medienökonomischen Theorien nehmen werden. Aus medienökonomischer Perspektive sind jedoch nicht nur alte Theorien verworfen, sondern auch neue Theorien entwickelt worden, die der Komplexität der Medien besser gerecht werden. Die Theorien der two-sided markets oder auch multi-sided markets (siehe Budzinski und Lindstädt 2010) beispielsweise haben einen neuen Blickwinkel auf das Verhältnis von Medieninhalten - etwa Großsportereignissen - und ihrer Verwertung am Markt sowie gleichzeitig der Bedeutung für die werbetreibende Industrie ermöglicht. Die Theorie zeigt die indirekten Netzwerkexternalitäten zwischen der Plattform und den verschiedenen Marktteilnehmern auf und ermöglicht dadurch auch konkrete Handlungsempfehlungen an die Wettbewerbsbehörden, die trotz der Vielschichtigkeit der Medienbranche dafür Sorge tragen müssen, dass der Wettbewerb prinzipiell offen und funktionsfähig bleibt.

3.

Medienökonomik und psychologische Erklärungsmuster

Die Konzepte der Behavioral Economics sind heute zu einem wichtigen Bestandteil ökonomischer Theoriebildung sowie auch wirtschaftspolitischer Handlungsempfehlungen geworden. Gerade auch für die Weiterentwicklung der medienökonomischen Theorie ist beispielsweise die Frage nach dem entscheidungstheoretischen Leitbild wichtig: Wie rational und wie autonom entscheiden Mediennutzer? Die Debatte ist dabei allerdings wesentlich weniger fundamentalistisch, wie sie zu Beginn der 90er Jahre zwischen den Befürwortern eines eng ausgelegten Homo Oeconomicus und den Vertretern der experimentellen Spieltheorie geführt wurde. Ebenfalls ist es für die Medienökonomik wichtig zu wissen, inwieweit Mediennutzer Heuristiken und Daumenregeln nutzen und inwieweit sie auch durch die unterschiedliche Darstellung von Medieninhalten (framing) beeinflusst werden können. Der StatusQuo-Bias ist ebenso wie eine gewisse Trägheit - vor allem bei den älteren Verbrauchern, sich auf neue Technologien einzulassen - als Handlungsmotiv in den Medien erkennbar. Und nicht zuletzt sind die Erkenntnisse der Behavioral Economics gerade für die Ordnungs- und Wirtschaftspolitik von besonderer Bedeutung, denn es besteht die Gefahr, dass die wirtschaftspolitischen Entscheider zu „liberalem Patemalismus" neigen. Dies gilt auch und gerade im Mediensektor, wo Deutschland mit dem größten und

266

Hanno Beck und Dirk Wentzel

teuersten öffentlich-rechtlichen Rundfunk weltweit ein besonders schönes Anschauungsbeispiel liefert.

3.1. Ist der moderne Mediennutzer ein Homo Oeconomicus, ein Lemming oder ein entscheidungsstarker Verbraucher? Ein Homo Oeconomicus würde vermutlich großes Unwohlsein spüren, wenn er sein Produkt kostenlos für die anderen Marktteilnehmer zur Verfügung stellen muss. Gerade daran muss er sich aber gewöhnen, wenn er im Mediensektor im Zeitalter des Internet überleben will. Setzt man ein enges Spielverständnis wie beispielsweise im klassischen Gefangenendilemma voraus, bei dem der Spieler in jedem einzelnen Zug seinen Nutzen maximieren will, dann bleibt der Homo Oeconomicus von Anfang an im defektiven Ate/¡-Gleichgewicht gefangen. Informationen sind sehr teuer in der Produktion, haben aber Grenzkosten der Reproduktion von nahezu Null. Um in der Mentalität eines kostenlosen Internets zu überleben, müssen kurzfristige und langfristige Strategien unterschieden werden, und es kann sinnvoll sein, etwas umsonst herzugeben, für das man aber eigentlich in der Entwicklung viel gezahlt hat, um langfristig ein Folgeprodukt verkaufen zu können. Bei der Mediennutzung scheint ein trade off zu existieren zwischen einer vermeintlich eindeutig besten und der einheitlichen Lösung. Wie Shapiro und Varían (1999, S. 173 ff.) ausführen, ist die Informationsgesellschaft primär durch temporäre Monopole gekennzeichnet. Bei der Einführung von neuen Medientechnologien gibt es immer langwierige Diskussionen unter den sog. nerdswelche Technologie denn überlegen wäre. Diese Diskussion gab es beispielsweise schon, als die Video-Technologie VHS eingeführt wurde, die im Wettstreit mit zwei anderen Technologien (Betamax und Video 2000) stand. Allerdings setzte sich VHS durch und konnte durch seinen Marktvorsprung schnell alle anderen Wettbewerber verdrängen, denn der Wettbewerb verschiedener Standards kennt üblicherweise nur einen Sieger (siehe auch Shapiro und Varían 1999, S. 261 ff.). Mediennutzer verhalten sich dann eher wie Lemminge, respektive sie werden Opfer von Netzwerk-Externalitäten: Sie spielen das schöne amerikanische Kinderspiel „Follow the leader", weil sie die Einheitlichkeit als wichtigste Eigenschaft einer Technologieplattform respektive eines Standards ansehen. Allerdings ist das Verhalten, einem Technologieführer zu folgen, rational, denn wer möchte sich schon drei verschiedene Video-Rekorder in sein Wohnzimmer stellen und dementsprechend drei verschiedene Sorten von Video-Kassetten sammeln? Welcher Zeitungsredakteur und welche Schreibkraft wären schon begeistert, wenn sie mit mehreren verschiedenen Textverarbeitungssystemen arbeiten müssten. Aber auch für die Unternehmen ist ein einheitlicher Standard vorteilhaft: Dies kann sogar selbst dann gelten, wenn wie beim Tastatur-Standard QWERTY weitgehend gesicherte Erkenntnis existiert, dass ein anderer, überlegener Standard, grundsätzlich existiert. Solange die Wech-

1

Nerds sind die sog. Streber und Computer-Freaks, die quasi im Internet leben und mit jedem technischen Detail eines Programms vertraut sind. Für den Verbraucher und seine Mediennutzung haben sie aber in der Regel wenig Bedeutung, denn die Mehrheit der Mediennutzer will eigentlich nur ein stabiles und einheitliches System, das zudem benutzerfreundlich ist.

Medien, Märkte und Marotten

267

seikosten höher sind als ein möglicher Nutzenzuwachs, ist kein Technologie-Wechsel zu erwarten. Aus der Netzwerktheorie ist es bekannt, dass es für die Informationsanbieter große Vorteile hat, wenn sie nur eine Kommunikationsplattform bedienen müssen. Dies gilt für Software (die Dominanz von Microsoft), email oder soziale Netzwerke, wenn sie Einheitlichkeit ermöglichen und damit Transaktionskosten für den Verbraucher senken. Andererseits können durch sog. lock-in-Effekte und technologische Pfadabhängigkeiten für die Technologienutzer auch Kosten entstehen (ausführlich Shapiro und Varian 1999, S. 103 ff.) Facebook ist das wichtigste soziale Netzwerk weltweit, weil es seinen Innovationsvorsprung (first mover advantage) zur völligen Marktabdeckung ausgenutzt hat. Die meisten der ca. 1,8 Mrd. Nutzer wollen aber gar kein zweites Netzwerk haben, weil diese Parallelkosten als unnötig empfunden werden. Der Marktfiihrer kann sich also darauf verlassen, dass die Lemminge schon kommen werden, obwohl das Aushängeschild der social media von vielen Kritikern für verschiedene Teile seiner Geschäftspolitik scharf angegriffen wird. Dennoch kann es sich kein großes Unternehmen heute noch leisten, nicht auf facebook zu sein - und dass gerade einmal genau zehn Jahre nach der Gründung des Unternehmens.

3.2. Verwenden Mediennutzer Heuristiken? Der erstmalige Kauf einer Tageszeitung oder eines anderen Medienproduktes ist im Grund genommen vergleichbar mit dem Kauf eines Loses. Der Käufer hat keine Ahnung, ob ihm der Inhalt gefallen wird, es ist eine klassische Entscheidungssituation unter Unsicherheit. Er ist auf eine Art Vermutungswissen angewiesen und muss mit Wahrscheinlichkeiten und Statistiken arbeiten. Bei Entscheidungssituationen unter Unsicherheit würde ein vollkommener Homo Oeconomicus exakt alle Eintrittswahrscheinlichkeiten möglicher Ereignisse berechnen und dann optimierend entscheiden. In der Realität wären hierfür mathematische Fähigkeiten notwendig, die den normalen Verbraucher - und vermutlich auch die meisten Professoren - überfordern würden. Stattdessen verwenden Menschen zumeist sog. „Heuristiken", also intelligente Daumenregeln zur Reduktion von Komplexität. Dabei werden in der Literatur verschiedene Konzepte unterschieden, die zum großen Teil auf die frühen Arbeiten von Tversky und Kahneman (1974) zurückgreifen. Eine erste Daumenregel stellt die sog. Repräsentativitätsheuristik dar, die dann verwendet wird, wenn die Wahrscheinlichkeit abgeschätzt werden soll, mit der ein Mensch einer bestimmten Gruppe zugehört. Wenn ein Mensch so aussieht, als wäre er ein Lehrer, Künstler, Popstar oder Professor, so vermuten die meisten Menschen auch, dass er es tatsächlich ist. Völlig unabhängig wir dabei die Grundgesamtheit bewertet: Es gibt beispielsweise viel mehr Beamte als Popstars in einer normalen deutschen Stadt, und dennoch vermuten die meisten Menschen kaum, dass ein sehr extrovertierter und gut aussehender Mensch ein Beamter sein könnte. Heuristiken können also auch fundamental in die Irre fuhren.

268

Hanno Beck und Dirk Wentzel

Eine andere Heuristik wird in der Verankerung gesehen, dem sog. anchoring. Menschen beginnen ihre Schätzungen immer mit einem Ausgangswert und versuchen dann, ihre Werte in einem stufenweisen Prozess weiter anzupassen. Der Ankerwert kann aber völlig zufällig und sogar willkürlich - wie in Experimenten bewiesen - durch ein Glücksrad gewählt sein. Egal, wie der Anker entsteht: Er kann die Schätzung systematisch verzerren. Eine weitere Heuristik wird im sog. availability bias, also in der Verfügbarkeit von Informationen, gesehen. Die Wahrscheinlichkeit eines Ereignisses wird danach bewertet, wie viele Repräsentanten des Ereignisses man persönlich kennt. Wer mehrere Menschen oder Familienangehörige kennt, die an Krebs erkrankt sind, wird für sich persönlich die Wahrscheinlichkeit dieser Erkrankung wesentlich höher einschätzen als jemand, in dessen Lebenswirklichkeit sie noch nicht vorgekommen ist. Auch der sog. Bestätigungsbias (confirmation bias) ist für die vorliegende Fragestellung ausgesprochen relevant. Unter ihm wird die Neigung verstanden wird, Fakten zu suchen (Zeitungen zu lesen, Medien 211 nutzen und mit Menschen zu sprechen), die die eigene Meinung bestätigen. Dass heißt also, nicht die Widerlegung der eigenen Meinung, sondern die Bestätigung eigener Positionen bestimmt die Informationsselektion. Auch aus diesem Grund haben Medienunternehmen großes Interesse, sehr viele Informationen über das Profil eines potentiellen Kunden zu erhalten. Man kann ihn dann gezielt mit Informationen versorgen, die zu einer höheren Kaufwahrscheinlichkeit führen2. Heuristiken helfen also bei der Lösung komplexer Probleme - nicht nur weil die Menschen über keine wirklichen intellektuellen Alternativen verfügen, sondern auch, weil sie bisweilen leistungsfähiger und effizienter sind als aufwendige analytische Lösungen (vgl. Gigerenzer et al. 1999). Heuristiken sind einerseits effiziente Problemlösungstechniken, andererseits fuhren sie zu Fehleinschätzungen, wenn sie im falschen Umfeld genutzt werden (sog. „ökologische Rationalität"). Für die Nutzung und Bewertung von Medien und Informationen spielen diese Heuristiken eine große und gewichtige Rolle. Ein signifikantes Kennzeichen der Informationsgesellschaft ist die riesige Menge von verfugbaren Informationen, die Komplexität, der sog. Information overflow. Selbst ein noch so fleißiger Homo Oeconomicus hätte nicht die Kapazität, sämtliche Informationen zu sichten, zu bewerten und in eine qualitative Rangfolge zu stellen. Das Problem ist vergleichbar zu einem travelling salesman problem in der Mathematik und Operations Research, das sich auch nicht mehr durch Zählen und Vergleichen lösen lässt. Es bedarf intelligenter Algorithmen, die die Komplexität reduzieren und halbwegs handhabbar machen - auch für normale Menschen mit begrenztem Zeitbudget und durchschnittlicher Intelligenz. Heuristiken spielen in der Medienökonomik vor allem eine Rolle bei der Bildung von Reputation. Diese Form der Daumenregel ist übrigens in der Behavioral Econow/cs-Literatur gar nicht behandelt worden. Dies wurde vielleicht auch deshalb unterlas-

2

Bei Amazon heißt es dann immer: „Kunden, die dieses Produkt gekauft haben, interessierten sich auch für folgendes Produkt".

Medien, Märkte und Marotten

269

sen, weil die Reputationsdaumenregel sehr erfolgreich ist und man - im Gegenteil zu anderen Heuristiken - eigentlich niemanden durch Experimente aufs Glatteis führen kann. Man könnte von einem „Hut ab bias" sprechen nach dem Motto: Hut ab, diese Daumenregel funktioniert immer (ausfuhrlich Beck 2014). Seriöse und traditionelle Medienanbieter wie die FAZ, die NZZ, die NY Times oder auch CNN versuchen ganz bewusst, zum Anker der Mediennutzer zu werden. Auch aus diesem Grund versucht man sich im Bereich des Qualitätsjoumalismus zu positionieren, um langfristige Glaubwürdigkeit aufzubauen. Außerdem nutzen Medienunternehmen die Trägheit von Mediennutzern und den confirmation bias. An junge Nutzer (Abiturienten und Studenten) werden sehr häufig Abonnements verschenkt, um die Kunden früh zu binden: „Get them young", ist hier die Devise. Zeitungsleser präferieren üblicherweise die Zeitung, in der sie die eigene Meinung bestätigt bekommen - was zur Dissonanzreduktion geeignet ist.

3.3. Framing: Das Paradefeld der Medien und der spin doctors Ein vertrauliches Gespräch beim Arzt könnte so verlaufen: „Ich kann Ihnen die gute Mitteilung machen, dass wir ein Medikament haben, das ihre Krankheit mit 95 prozentiger Wahrscheinlichkeit heilen wird". Es könnte aber auch so verlaufen: „Leider muss ich Ihnen mitteilen, dass die Ihnen verschriebenen Medikamente in 5 Prozent aller Fälle tödliche Nebenwirkungen haben". Mathematisch ist es eine 95/5 Entscheidung - egal von welchem Blickwinkel es betrachtet wird. In der Realität wird aber die Präsentation der Wahrscheinlichkeiten direkte Auswirkungen auf die Entscheidung der Beteiligten haben. Dieser Effekt wird in der Literatur als framing bezeichnet. Das Konzept des framing, das Ökonomen vergleichsweise neu in ihr Theoriegebäude integriert haben, spätestens nach den Nobelpreisen für Kahnemann und Smith, ist auch unter Medienexperten bekannt. Allerdings kann von einem framing im engen Verständnis der Theorie nicht wirklich gesprochen werden. Es geht eher um Werbung, Werbepsychologie - und im Extremfall auch um Manipulation oder Verbrauchertäuschung. Shapiro und Varian (1999, S. 70 f.) verweisen beispielsweise auf das Konzept des sog. Goldilock pricing, das aus der empirischen Marketingforschung hervorgegangen ist. Simonson und Tversky (1992) untersuchten eine Werbekampagne für einen Mikrowellenherd, bei dem die Verbraucher zwischen einer sehr einfachen Basisversion für 109,99 $ und einer besseren Version für 179,99 $ wählen konnten. In dieser ersten Versuchsanordnung entschieden sich nur 45 % der Befragten für die technisch hochwertigere Lösung. Sobald jedoch eine dritte Alternative eines Luxusmodells (Gold version) für 199,99 $ angeboten wurde, entschieden sich 65 % für die mittlere Variante, die zuvor nur von 45 % gewählt wurde. Das bedeutet, dass die Bewertung eines Produktes direkt abhängig ist vom Gesamtzusammenhang, innerhalb dessen es präsentiert wird: „Just like Goldilocks, most consumers don't want to choose between 'to big' and 'too small'. They want the product that is 'just right' (Shapiro und Varian 1999, S. 71)3.

3

Allerdings muss angemerkt werden, dass das Beispiel von Shapiro und Varian kein echtes framing darstellt, sondern durch das Hinzustellen eines zusätzlichen Produktes eigentlich eine völlig neue Entscheidungssituation entsteht.

270

Hanno Beck und Dirk Wentzel

Dass Medien allein schon durch die unterschiedliche Darstellung eines Sachverhaltes beeinflussen und sogar manipulieren können, ist durch zahlreiche empirische Beispiele bekannt und wird von keinem Medienwissenschaftler bestritten. Extreme Formen waren beispielsweise die Propagandafilme der Nationalsozialisten oder auch der Kommunisten unter Stalin. Aber auch in den modernen Medien gibt es immer wieder Diskussionen, ob Medien einen politischen bias haben und durch geschickte Darstellung von Sachverhalten, eben durch framing, Inhalte verzerrt darstellen. In den Vereinigten Staaten gibt es beispielsweise den Nachrichtensender FOX NEWS, der als sehr konservatives Sprachrohr der Republikanischen Partei und der TEA Party-Bewegung gilt. Aber auch die öffentlich-rechtlichen Sender in Deutschland sind immer wieder dem Vorwurf der politischen Einseitigkeit ausgesetzt - beispielsweise die Magazine des WDR. Medienwissenschaftler verweisen zu Recht auf den Umstand, dass es nur sehr wenige objektive Informationen gibt. Eine Temperaturangabe im Wetterbericht, der Abschlusswert des DAX im Börsenbericht oder auch ein Ergebniss der Fußballbundesliga können objektiv eindeutig sein. Bei komplexen politischen und ökonomischen Zusammenhängen ist die Deutung jedoch nicht so einfach (ausfuhrlich Wentzel 2002). Empirische Untersuchungen etwa über die Berichterstattung im Irak-Krieg auf AI Jazeera, CNN, BBC und in der deutschen ARD zeigen, dass die Wahrheit und die Objektivität wohl eher im Auge des Betrachters liegen. Framing ist also ein durch und durch medienökonomisches Konzept, dass sich die Ökonomen ausgeliehen haben. Auch im Bereich der politischen Wissenschaft und im Bereich der Public Relations ist der Rahmen, also der Kontext, in dem eine Information verarbeitet wird, von entscheidender Bedeutung. Als der amerikanische Präsident Barack Obama am 28. Januar 2014 seine sechste Rede zur Lage der Nation abhielt (State of the Union Speech), begannen schon während der Sendung die Umfragen der Meinungsforscher und der Experten, wie die Leistung des Präsidenten einzuschätzen war. Natürlich wird jede Partei versuchen, für ihren Standpunkt möglichst glaubwürdige Zeugen vor die Kamera zu bringen, um der Bewertung einen gewissen spin in die eigene gewünschte Richtung zu ermöglichen. Die hochbezahlten Medienexperten in den politischen Parteien werden deshalb auch als spin doctors bezeichnet. Das bedeutete also, dass auch nach der Ausstrahlung einer Information an ihrer Bewertung gearbeitet wird. Auch die empirische Medienwirkungsforschung kennt zahlreiche empirische Studien, die die Effekte der Werbepsychologie bestätigen. So untersuchte beispielsweise Oliver (2002), wann Vorfilme (sog. trailer) auf unterschiedliche Zielgruppen positiv wirken und die meist Jugendlichen Probanden zum Besuch im Kino anregten. Die Ergebnisse der Studie bestätigen, dass männliche Jugendliche eher zum Kinobesuch angeregt wurden, wenn der Vorfilm möglichst viel Action-Szenen enthielt, während die jungen Damen primär durch emotionale Szenen und Beziehungsgeschichten angesprochen wurden. Ob ein Kinofilm also erfolgreich sein wird, hängt zu einem ganz besonderen Teil von den Vorfilmen ab, die heute über verschiedene Medienkanäle geschaltet werden.

Medien, Märkte und Marotten

271

3.4. Der Besitztumseffekt und Riepls Gesetz: Sterben Medien nie? Die Erfindung des VCR Video-Recorders im Jahr 1977 führte bei den Betreibern von Kinos zu einem großen Aufschrei: Jetzt, so hieß es, „sei das Kino tot" und niemand würde mehr freiwillig ein Ticket kaufen, wenn er für den gleichen Preis die VideoKassette bekäme, die der Kunde dann auf Wunsch täglich wiederholen könnte. Wohl selten war eine medienökonomische Prognose so falsch wie 1977. Es lag vermutlich auch daran, dass die Propheten des Kinosterbens das Riepische Gesetz nicht kannten oder nicht kennen wollten. Der widerlegten Hypothese vom Kinosterben und der Ablehnung der neuen Technologie liegt auch eine Beobachtung zu Grunde, die in der Behavioral Economics diskutiert wurde: Menschen bewerten Gegenstände anders, wenn diese sich schon in ihrem Besitz befinden (endowment effect). Sie lehnen zudem häufig Veränderungen ab, insbesondere dann, wenn der tatsächliche Wert der Neuerung nicht genau abzuschätzen ist (status quo bias). Thaler (1980) und andere haben diese Effekte ausführlich dargestellt, diskutiert und mit zahlreichen Experimenten nachgewiesen. Menschen messen also Gegenständen einen höheren Wert bei, wenn sie diese schon besitzen. Die Wertschätzung für ein Objekt hängt nach dieser Auffassung also sowohl vom objektiven Nutzwert wie auch vom Besitzstatus ab. Eine Folge des endowment effects ist der status quo bias: Menschen schätzen ihren gegenwärtigen status quo ein und vergleichen diesen mit den möglichen Alternativen. Wenn dieser halbwegs zufriedenstellend ist, dann entscheiden sie sich gegen mögliche Veränderung ganz nach dem alten Sprichwort: Der Spatz in der Hand ist besser als die Taube auf dem Dach! Länderspezifisch kann diese Änderungsneigung sehr unterschiedlich ausgeprägt sein, wie etwa die empirischen Untersuchungen von Hofstede (2001) zeigen. Der status quo bias deckt sich in gewisser Hinsicht mit den Überlegungen von Riepl zur Mediensubstitution (ausfuhrlich Lindstädt 2012). Ein neues Medium wird ein altes Medium niemals vollständig, sondern nur partiell verdrängen, so dass es mit jeder technischen Innovation zu einer Ausdifferenzierung der Medienlandschaft kommt. Das kann zwar bestimmte Märkte in ihrer Ausprägung stark schrumpfen - der Markt für CDs ist durch die Erfindung der MP3-Technologie auf ein Minimum beschnitten worden gleichwohl gibt es Konsumenten, die bestimmte Neuerungen nicht mitmachen wollen, etwa weil ihnen die kognitiven oder finanziellen Möglichkeiten fehlen oder einfach weil sie nostalgische Gefühle für die alte Technologie hegen. Auch aus diesem Grund ist die Einfuhrung neuer Medien fast immer in der jugendlichen Zielgruppe angesiedelt, in der die Pionierkonsumenten - in Analogie zu den Schumpeterschen Pionierunternehmern als erste eine Neuerung testen und weiterverbreiten.

3.5. Liberaler Medienpaternalismus: Auch ein deutsches Schicksal? Die mit Blick auf die Ordnungspolitik wichtigste Diskussion in der Behavioral Economics wird um den sogenannten „Liberalen Patemalismus" geführt (siehe Thaler und Sunstein 2003). Es geht um die Frage, ob und wie die neuen Erkenntnisse zur staatlichen Verhaltenslenkung der Bürger eingesetzt werden können - und ob dies aus einer

272

Hanno Beck und Dirk Wentzel

normativen Perspektive überhaupt wünschenswert sein kann. Dies ist gerade medienökonomisch sehr interessant. Thaler und Sunstein (2003) verdeutlichen den Liberalen Paternalismus mit einem einfachen Beispiel: Wenn ein Manager einer Kantine feststellt, dass die Anordnung, in der Speisen präsentiert werden, die tatsächliche Entscheidung für bestimmte Speisen beeinflusst, wie soll er sich dann verhalten? Obst oder vegetarisches Essen könnten vor dem gezuckerten Nachtisch angeordnet werden, damit der Kunde quasi im eigenen Interesse zur gesunden Wahl gezwungen wird (ausführlich Beck 2009). Das klingt auf den ersten Eindruck ganz sympathisch und richtig. Aber man denke nur an den Aufschrei, der in Deutschland kurz vor der Bundestagswahl 2013 ertönte, als die Grünen im Wahlprogramm einen verpflichtenden Veggie Day forderten, um den von ihnen stark kritisierten Fleischkonsum zu reduzieren. „Bevormundung, Gängelung, Freiheitsbeschränkungen, Dirigismus": das waren eher noch die höflichen Dinge, die den Grünen von da an um die Ohren schallten und die ihnen ein vergleichsweise schlechtes Wahlergebnis bescherten. Der Vorwurf, um den es rein ökonomisch ging, ist der des liberalen Paternalismus. Die Grundidee der liberalen Paternalisten besteht darin, dass Menschen Entscheidungen treffen, die so nur durch ihre begrenzte kognitive Fähigkeiten erklärt werden könnten, durch ihre ebenfalls begrenzte Rationalität und - vermutlich am schlimmsten ihre begrenzte Willensschwäche. Dies ist durchaus ein reales Problem, beispielsweise in den Vereinigten Staaten, wo die Fettleibigkeit (obesity) mit der Weile zur ersten Todesursache in der Bevölkerung angewachsen ist - noch vor Krebserkrankungen oder Herzinfarkten. Beim Anblick von Hamburgern oder Coca Cola können viele Amerikaner offensichtlich nicht nein sagen. Und sicherlich kann kein einziger Raucher weltweit sagen, er wäre nicht über die negativen Folgen des Rauchens ausreichend informiert gewesen. Staatliche Eingriffe, die durch Erkenntnisse der Behavioral Economics Einfluss auf das tatsächliche Konsumentenverhalten ermöglichen, können das Verhalten in eine vermeintlich bessere Richtung lenken. So erwägt beispielsweise die Stadt New York, den Verkauf von soft drinks in fast /cW-Ketten auf kleine Becher zu beschränken und das kostenlose Wiederauffullen zu untersagen (free refill), um die riesigen Zuckermengen, die die Verbraucher durch die soft drinks aufnehmen, zu reduzieren. Ob solche Maßnahmen tatsächlich so einfach sind und Erfolge bewirken, also schlechte Angewohnheiten durch staatliches „Anschubsen" zu korrigieren sind, ist vor dem Hintergrund der langjährigen Anti-Raucher-Kampagnen allerdings empirisch nicht so einfach feststellbar. Allerdings besteht die große Gefahr, dass staatliche Stellen, einmal mit den Instrumenten für einen wohlwollenden, liberalen Paternalismus ausgestattet, es nicht nur bei kleinen Schubsern belassen. Die anfängliche Beeinflussung zielt auf Personen ab, denen von Seiten des Staates rationales Verhalten nur begrenzt zugetraut wird. Es besteht jedoch die Gefahr, dass ein liberaler zunehmend in einen autoritären Paternalismus abdriftet (ausführlich hierzu Beck 2009 s.o.).

Medien, Märkte und Marotten

273

Im Bereich der Medienökonomik hat der Paternalismus einen wichtigen Platz und die öffentlich-rechtlichen Medien in Deutschland vielleicht sogar seinen Paradefall. Ob das Adjektiv „liberal" hier noch zweckmäßig verwendet werden kann, wird in der Literatur unterschiedlich bewertet. Von Anfang an versuchte der deutsche Staat schon in den frühen 20er Jahren, bei der Entwicklung des Rundfunks und der Telekommunikation in jeder Phase Einfluss zu nehmen - auch um eigenen Interessen zu dienen. Privaten Anbietern wurde hier nichts zugetraut - ein großer Unterschied zur parallelen Entwicklung im amerikanischen Medienmarkt, die primär auf Privatinitiative beruhte. Und auch in die Programminhalte griffen staatliche Stellen in Deutschland schon früh ein, bis die Medien nach der Machtergreifung der Nationalsozialisten ohnehin gleichgeschaltet wurden. In den verschiedenen Urteilen des Bundesverfassungsgerichts nach dem Zweiten Weltkrieg (Überblick bei Wentzel 2002) wurde dem privaten Medienmarkt nicht zugetraut, dass er zu Meinungsvielfalt beitragen kann. Deshalb müsse Pluralismus durch die öffentlich-rechtlichen Medien „organsiert" werden - so die Sichtweise des Verfassungsgerichts. Später, als nach 1984 immer mehr private Sender aus dem Boden sprossen und Vielfalt entstand (auch im Bereich der unteren Programmqualitäten), verhängten die Richter eine Bestands- und Entwicklungsgarantie für das öffentlich-rechtliche Fernsehen und sicherten die Finanzierung über eine Zwangssteuer, die irreführend mit dem Begriff der Gebühr gekennzeichnet wurde. Nach der Entstehung des Internet trieb der liberale Medienpaternalismus in Deutschland noch weitere Blüten, als sogar eine Ausweitung der öffentlich-rechtlichen Sender in den ow/we-Bereich gerechtfertigt wurde mit dem Argument einer sonst nicht gewährleisteten Grundversorgung. Während sich die Sendeformate der öffentlich-rechtlichen Anstalten immer mehr an die Vorgaben der privaten annäherten, betrieben sie gleichzeitig eine Strategie der massiven Senderausbreitung. Auch bei sehr attraktiven Programminhalten beteiligen sich die öffentlich-rechtlichen Sender im Bietungsverfahren, etwa bei den Verwertungsrechten der Fußballbundesliga. Warum nur ARD und ZDF exklusiv über Spiele der deutschen Nationalmannschaft berichten dürfen, ist wettbewerbspolitisch äußerst kritisch zu bewerten und Paternalismus in Reinkultur. Auch bei der Zuteilung von Sendefrequenzen werden die diversen Spartenkanäle der öffentlich-rechtlichen Anstalten nach wie vor bevorteilt. Von Frequenzknappheit kann wirklich nicht mehr gesprochen werden, wenn die Tagesschau parallel im ersten Programm und in allen anderen ARD-Sendern gleichzeitig läuft. Dies gilt auch für die permanente Ausweitung der Spartenkanäle, die den privaten Anbietern direkt Konkurrenz machen sollen. Liberaler Paternalismus kann sich für die wirtschaftliche Freiheit des Individuums sehr kritisch auswirken. In der Mediennutzung ist jede Form von Patemalismus und staatlicher Einflussnahme allerdings noch kritischer zu bewerten, denn es geht immer auch um Informationsnutzung, Informationsinterpretation und um die Bildung öffentlicher Meinung. Ein weitgehender Rückzug des Staates aus diesem sensiblen Feld wäre ordnungspolitisch dringend geboten.

274

4.

Hanno Beck und Dirk Wentzel

Neue Ordnungsfragen moderner Medien

Neben den formalen Theorien zur Erklärung von Medieninhalten und Informationen sind immer auch Ordnungsfragen zu klären (ausfuhrlich Wentzel 2002). Die Arbeitsund Wissensteilung in einer Wirtschaftsordnung, die Suggestivkraft der Medien, das Verhältnis von publizistischem und ökonomischem Wettbewerb, das qualitative Angebot im Fernsehen und nicht zuletzt die Steuerungs- und Wirkungspotentiale sind aktuelle Ordnungsfragen, die nach wie vor klärungsbedürftig bleiben. Allerdings wandeln sie sich auch im Zeitablauf und vor allem durch das Aufkommen neuer Technologien, die den Anbietern und Nachfragern auf den Medienmärkten neue Produkte und Handlungspotentiale offenbaren. So sind beispielsweise durch das Aufkommen von Blogs, Diskussionsforen im Internet, Twitter, facebook, Whats App eine Vielzahl von neuen Informationskanälen entstanden, in denen Informationen in Sekundenschnelle verbreitet werden. Öffentliche Meinung im klassischen Verständnis von Noelle-Neumann (1996), bildet sich heute in der Generation online innerhalb von Sekunden. Wie nachhaltig diese wirkt, ist eine andere Frage, wie folgendes Beispiel verdeutlicht: Im Dezember 2010 verunglückte der junge Stuntman Samuel Koch in der Samstagabend Fernsehshow „Wetten - dass" schwer. Er überlebte knapp, ist aber seit diesem Unfall dauerhaft querschnittsgelähmt. Der Fall erregte in der Öffentlichkeit in ganz Deutschland große Aufmerksamkeit. Er kann gleichzeitig aber auch als ideales Anschauungsbeispiel für den generationsbedingten Wandel in der Mediennutzung und für neue Ordnungsfragen herangezogen werden. Das ZDF reagierte unmittelbar nach dem Unfall mit dem Abbruch der Sendung und mit einer Art von Nachrichtensperre. Tageszeitungen erschienen am nächsten Sonntag nicht, und für die Wochenzeitungen war der Fall zu kurzfristig. Die eigentliche öffentliche Meinung bildete sich aber schon Minuten nach dem Unfall im Internet, in dem Tausende zumeist Jugendlicher darüber diskutierten, ob es richtig wäre, die Sendung abzubrechen oder nicht. Es kursierten auch eine Vielzahl von Falschmeldungen über den Gesundheitszustand des jungen Mannes, die allesamt platziert wurden von Menschen, die keinerlei Zugang zu geprüften Informationen hatten, die gleichwohl alle an der brandneuen Geschichte partizipieren wollten. Etwa zwei Stunden nach der Sendung flaute die Debatte im Netz ab. Am Montagmorgen, als die Tageszeitungen mit dem Aufmacher über den Unfall titelten, war für die meisten jugendlichen Nutzer die Geschichte schon nicht mehr interessant.

4.1. Erstes neues Ordnungsproblem: Informationen, Meldungen und Meinungen in individualisierten Medienmärkten Das Internet, so wird behauptet, hat die Mediennutzung demokratisiert. Ob es die Qualität der Informationenn wirklich verbessert hat, bleibt eine offene Forschungsfrage. Sicherlich ist im Internet ein Vielfaches an Informationen verfügbar, aber die systematische Verknüpfung von Wissen ist nicht immer gesichert. Auch kann man im Internet Opfer eines „Entrüstungssturms" (sog. shit Storni) werden, der aber auch genauso schnell wieder abflachen kann, wie er kommt. Eine wichtige Funktion des Journalismus ist die des sog. gatekeepers, der Meinungen selektiert, gewichtet, interpretiert und in verständlichen Worten für den Leser aufbereitet. Der Beitrag eines renommierten Journalisten dürfte üblicherweise einen hohen

Medien, Märkte und Marotten

275

Wahrheitsgehalt aufweisen, denn er will seine lange aufgebaute Reputation nicht gefährden. Letztlich ist die Qualität eines Nachrichtenmediums - egal ob Zeitung oder Fernsehen - immer nur so gut wie die beteiligten Journalisten. Beim Qualitätsjournalismus hängt es weniger ab von einer formalen journalistischen und/oder akademischen Ausbildung, die einen guten Journalisten auszeichnet, sondern von seiner besonderen Befähigung, Informationen einzuordnen. Die bekannte amerikanische Fernsehreporterin Christiane Amanpour beispielsweise hat sich über Jahre durch ihre mit vielfaltigen Preisen ausgezeichneten Reportagen aus dem nahen Osten und Afghanistan eine solche Reputation erworben, dass sie nunmehr die Ankerfrau (anchor womeri) von CNN ist und das besondere Privileg hat, die Exklusiv-Interviews mit den Staatsführern zur besten Sendezeit zu führen. Untersuchungen belegen, dass die Glaubwürdigkeit von Christiane Amanpour größer ist als die des amerikanischen Präsidenten - und des Oppositionsführers. Allerdings ist diese Spezies von Journalisten stark rückläufig, wie Rothmann in ein einer empirischen Untersuchung zeigt. „Seit einer schweren Branchenkrise im Jahr 2001 ist der tägliche Qualitätsjournalismus in Deutschland stark bedroht. Anzeigeneinnahmen und Lesererlöse sinken gleichermaßen und erschweren die Produktion von Qualitätsinhalten" (Rothmann 2013, S. 10). Durch die völlig individualisierten Medien gerät der Qualitätsjournalismus - so die Hypothese von Rothmann - zunehmend in die Defensive, weil die Nutzer (user) kaum Zeit darauf verwenden, zu prüfen, wie „gut recherchiert" eine Information ist - und von wem sie stammt. Zunehmend werden gedruckte Medien durch den Informationsvorsprung der digitalen Medien in den Hintergrund gedrängt (siehe Lindstädt 2012), und jeder kann im Internet seine Meinung äußern - völlig unabhängig von der Vorbildung. Aus medienökonomischer Sicht müsste es theoretisch für Qualitätsjournalismus immer einen Markt geben. Allerdings könnte dieser durch Blogs und vor allem durch soziale Netzwerke deutlich verändert werden. Ob er tatsächlich kleiner wird - wie Rothmann postuliert ist nicht zwingend. Er könnte zumindest theoretisch auch größer werden. Als es an einer Grundschule an der Ostküste der USA 2012 zu einem Massaker kam, waren die ersten Bilder über facebook bereits im Netz, bevor die Sicherheitskräfte überhaupt an der Schule eintrafen. Schnelligkeit scheint das wichtigste Kriterium für Nachrichten zu werden - und hier kann der Qualitätsjournalismus in die Defensive geraten. Andererseits können Blogs auch durchaus Qualitätsjoumalismus darstellen. Man muss die täglichen und teilweise sehr kontroversen Auslassungen von Paul Krugman nicht mögen, aber immerhin lehrt er an einer herausragenden amerikanischen Universität, schreibt für die New York Times, ist Bestseller-Autor - und hat einen Nobelpreis in Wirtschaftswissenschaften erhalten. Ähnlich dekorierte Journalisten wird es selbst bei der NZZ, der FAZ und der ZEIT nur selten geben. Man kann also durchaus von einem Zuwachs an Qualitätsjournalismus im Netz sprechen. Die Huffington Post ist ein interessantes Beispiel für den Versuch, eine Art von Qualitätsjoumalismus auch im Netz bereit zu stellen. Die „klassische „one to manyKommunikation" soll durchbrochen werden (siehe Schuh 2013, S. 8 ff.). Gleichzeitig sollen aber redaktionelle Mindeststandards sichergestellt werden. Deshalb werden die

276

Hanno Beck und Dirk Wentzel

Beiträge in der Internet-Zeitung aus drei verschiedenen Quellen gespeist: Erstens von den ca. 15 fest angestellten Redakteuren im Münchner newsroom, zweitens durch autorisierte Blogger (die also einen Mindeststandard garantieren) und drittens durch Leserbeiträge in Form von Kommentaren (ausfuhrlich Schuh 2013, S. 9), die dann wiederum die ganze Bandbreite der Meinungen ausfüllen.

4.2. Zweites neues Ordnungsproblem: Wer regiert das Internet und die Suchmaschinen? Eine weitere interessante und keineswegs vollständig bearbeitete Forschungsfrage lautet: Welchen Wert hat eine Information - etwa über die eigene Person, wenn sie freiwillig und für jeden zugänglich ins Netz gestellt wird? Wie kann man ökonomisch erklären, dass Nutzer von facebook ohne jedes Problem die Eigentumsrechte am eigenen Bild abtreten? Bilder, die man freiwillig auf facebook stellt, und sei es das Bild der eigenen Frau, des neugeborenen Babys oder des Hundewelpen, gehören facebook und können jederzeit an andere Unternehmen weitergegeben werden, etwa zu Werbezwecken. Das Recht am eigenen Bild gilt uneingeschränkt für normale Privatpersonen. Es erfahrt in der Generation online allerdings keine große Wertschätzung mehr. Die jungen Nutzer erstellen zudem von sich selbst Profile, die jedem Datenschutzbeauftragten den Schweiß auf die Stirn treiben. Zukünftige Arbeitgeber bedienen sich teilweise ganz offen auf facebook, um den wahren Hintergrund eines Bewerbers zu recherchieren. Wenn zudem verschiedene Datenbanken zusammengeführt werden, etwa das facebook-?Tofil mit den Suchanfragen bei google (die mindestens ein halbes Jahr gespeichert werden) und den Einkäufen bei Amazon, dann entstehen neue und sehr aussagekräftige Datenbanken (sog. big data) mit vielfältigen Anwendungsmöglichkeiten. Es ist vor diesem Hintergrund auch nicht verwunderlich, dass die NSA-Untersuchungsaffare die jungen Nutzer kaum berührte - übrigens auch nicht die Aktienkurse der betroffenen US-Unternehmen. Vor diesem Hintergrund drängt sich die Frage auf, wer im Internet in welcher Weise und vor allem mit welchen wirtschaftlichen und politischen Zielen Informationen sammelt. Die bereits erwähnte Untersuchung der EU-Kommission zum möglichen Missbrauch von Marktmacht durch google dürfte nicht der letzte Fall dieser Art gewesen sein.

S.

Schlussfolgerungen und offene Forschungsfragen

Medienökonomik wie auch das Forschungsgebiet der Behavioral Economics sind spezielle Teilgebiete der Ökonomik. Beide Gebiete sind vor allem durch eine starke empirische Fundierung gekennzeichnet: In der Medienökonomik ist es die Ausrichtung auf den Kunden und die empirische Messung, ob ein Produkt und ein Sendeformat tatsächlich den Wünschen der Nachfrager entspricht. Bei der Behavioral Economics ist es vor allem die experimentelle Wirtschaftstheorie, die die Grundannahmen der neoklassischen Ökonomik zumindest in Frage gestellt hat und durch entsprechende Ver-

Medien, Märkte und Marotten

277

suchsanordnungen überprüft. Eine stärkere Verknüpfung beider Forschungsgebiete könnte sicherlich zu interessanten neuen Erkenntnissen führen. Die Medienökonomik hat quasi von Haus aus eine mehr oder minder stark ausgeprägte verhaltenspsychologische Fundierung. Sie beschäftigt sich mit Fragen, wie Medien wirken - in Wissenschaft und Praxis. „Modellplatonismus" kann sie sich gar nicht leisten, wenn sie von den Vertretern der reinen Medienwissenschaft und der Medienpraxis als wissenschaftliche Beratung ernst genommen werden will. Durch die digitale Medientechnologie sind neue Verhaltensweisen entstanden und Produkte entwickelt worden. Das Bild von der Generation online steht sinnbildlich für die meist sehr jungen Nutzern, die quasi Medien nutzen und im Internet unterwegs sind. Durch flatrates besteht die Tendenz, morgens einzuloggen und abends auszuloggen: Mediennutzung begleitet quasi jede berufliche und freizeitliche Aktivität. Ob traditionelle Konzepte - etwa die Statistiken zur quantitativen Mediennutzung - hier noch zweckmäßige Informationen liefern, darf bezweifelt werden. Suchmaschinen wie google oder soziale Netzwerke wie facebook verändern wirtschaftliche und journalistische Prozesse. Jugendliche freuen sich über die - wie sie es empfinden - kostenlose und hochwertige Information, die sie über google erhalten, und ignorieren Wettbewerbsfragen sowie möglichen Missbrauch völlig. Eine Art von Mikro-Makro-Paradoxon, das sich wohl eher mit dem Instrument der Behavioral Economics als mit der klassischen Ökonomie erklären lässt. Auch die Ordnungsfragen der Medien werden durch die neuen technologischen Entwicklungen beeinflusst. Der dauerhafte Ruf „Alles wird schlechter" (hier in der Form: Der Qualitätsjournalismus muss sterben) scheint eher ein üblicher Reflex auf jede neue Technologie zu sein als eine ernsthafte wirtschafts- und medienpolitische Prognose.

Literatur Baran, Stanley J. and Dennis K. Davis (2000), Mass Communication Theory: Foundations, Ferment, and Future, Belmont Ca. Beck, Hanno (2008), Die Logik des Irrtums: Wie uns das Gehirn täglich ein Schnippchen schlägt, FAZ-Buch, Frankfurt. Beck, Hanno (2009), Wirtschaftspolitik und Psychologie: Zum Forschungsprogramm der Behavioral Economics, in ORDO - Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft, Band 60, S. 119-151. Beck, Hanno (2010), Medienökonomie: Print, Femsehen und Multimedia, 3. Auflage, Berlin. Beck, Hanno (2014), Behavioral Economics, Springer Verlag, Berlin - im Druck. Beck, Hanno und Dirk Wentzel (2009), Medienökonomik - Neuere Entwicklung und Ordnungsfragen, in: Dirk Wentzel (Hg.), Medienökonomik - Theoretische Grundlagen und ordnungspolitische Gestaltungsaltemativen, Stuttgart, S. 3-32. Börsenzeitung (2014a), Google: Suchtmaschine, in: Börsenzeitung, Nr. 25 vom 6. Februar 2014, S. 9.

278

Hanno Beck und Dirk Wentzel

Börsenzeitung (2014b), Google findet die richtige Antwort, in: Börsenzeitung, Nr. 25 vom 6. Februar 2014, S. 9. Budzinski, Oliver und Nadine Lindstädt (2010), Neuere Entwicklungen in der Medienökonomik, Das Konzept der Mehrseitigen Märkt, in: WiST, Wirtschaftswissenschaftliches Studium, Heft 9, S. 436-443. Dimmick, John M. (2003), Media Competition and Coexistence - The Theory of the Niche, New Jersey. Dimmick, John M. und Eric Rothenbuhler (1984), The Theory of the Niche: Quantifying Competition Among Media Industries, in: Journal of Communication 34(1), S. 103-119. Eucken, Walter (1952/90), Grundsätze der Wirtschaftspolitik, Tübingen. Gigerenzer, Gerd, Peter M. Todd and the ABC Research Group (eds.) (1999), Simple heuristics that make us smart, New York. Godefroid, Patrick, Tobias Keber, Boris Kühnle und Oliver Zöllner (2013), Smart-TV - ein interdisziplinärer Überblick, in: Medienwirtschaft 3/2013, S. 26-37. Grabenströer, Nadja (2013), Nutzerverhalten auf sozialen Netzwerkseiten im internationalen Vergleich. Eine Analyse deutscher, britischer, spanischer, französischer und italienischer Nutzer, in: Medienwirtschaft 3/2013, S. 38-53. Hofstede, Geert (2001), Culture's Consequences - Comparing Values, Behaviors, Institutions and Organizations Across Nations, 2. Auflage, London, Neu Delhi. Hölig, Sascha und Uwe Hasebrink (2013), Nachrichtennutzung in konvergierenden Medienumgebungen, in: Media Perspektiven 11/2013: 522-536. URL: http://www.mediaperspektiven.de/uploads/tx_mppublications/ll-2013_Hasebrink_Hoelig.pdf (19.01.2014). Jungheim, Stephanie (2012), Medienordnung und Wettbewerbsrecht im Zeitalter der Digitalisierung und Globalisierung, Tübingen. Kahneman, Daniel und Arnos Tversky (1979), Prospect Theory: An Analysis of Decision under Risk, in: Econometrica, Vol. 47, S. 263 - 291. Kühling, Jürgen (2014), Unsere Sender, unsere Richter, in: Frankfurter Allgemeine Zeitung, Nr. 34 vom 10. Februar 2014, S. 7. Lindstädt, Nadine (2012), Media Markets Going Online - Effects and Consequences on Competition Structures, University of Southern Denmark, Esbjerg. Lindstädt, Nadine (2014), New Perspectives in the Digital Media, Vortrag an der Hochschule Pforzheim, 25. April 2014. Lübbe, Hermann (1994), Mediennutzungsethik: Medienkonsum als moralische Herausforderung, in: Hilmar Hoffmann (Hg.), Gestern begann die Zukunft: Entwicklung und Bedeutung der Medienvielfalt, Darmstadt, S. 313-318. Luhmann, Niklas (1996), Die Realität der Massenmedien, Opladen. MPFS - Medienpädagogisches Forschungsinstitut Südwest (2013), Studie zur Mediennutzung der Jugend, download http://www.mpfs.de/index.php?id=613. Noelle-Neumann, Elisabeth (1996), Öffentliche Meinung - Die Entdeckung der Schweigespirale, Frankfurt. Oliver, Mary Beth (2002), Empirical Media Research, Penn State University, State College. Rothmann, Wasko (2013), (Qualitäts-) Journalismus ohne Wert? Über eine Paradoxie im digitalen strategischen Pfad der Qualitätstageszeitung, in: Medienwirtschaft 3/2013, S. 10-24. Schiller, Kay und Christopher Young (2012), München 1972: Olympische Spiele im Zeichen des modernen Deutschland, Göttingen.

Medien, Märkte und Marotten

279

Schuh, Christoph (2013), Die Huffington Post in Deutschland, Interview mit Christoph Schuh, Mitglied des Vorstands der TOMORROW FOCUS GmbH AG, München, in: Medienwirtschaft 4/2013, S. 8-11. Shapiro, Carl und Hal. R. Varian (1999), Informations Rules, Harvard Business School Press, Bosto. Simonson, Itamar und Arnos Tversky (1992), Choice in Context: Tradeoff Contrast and Extremeness Aversion, in: Journal of Marketing Research, Vol. 29 (1992), S. 281-295. Thaler, Richard (1980), Toward a positive theory of consumer choice, in: Journal of Economic Behavior and Organization, Vol. 1, S. 39 - 60. Thaler, Richard und Cass R. Sunstein (2003), Libertarian Paternalism, in: American Economic Review Papers and Proceedings, Vol. 92, Nr. 2 (May 2003), S. 175 - 179. Tietzel, Manfred und Dirk Wentzel, (2005), Pressefreiheit: Erfolg oder Mißerfolg einer Institution, in: Thomas Eger (Hg.), Erfolg und Versagen von Institutionen, Berlin, S. 53-88. Tversky, Arnos und Daniel Kahneman (1974), Judgement under uncertainty: Heuristics and biasses, in: Science, Vol. 185, S. 1124-1131. Tversky, Amos und Daniel Kahneman (1981), The Framing of decisions and the psychology of choice, in: Science, Vol. 211 (1981), pp. 453 - 458. Weinstein, Michael (1992), Economists and the Media, in: Journal of Economic Perspectives, Vol. 6, Nr. 3, S. 73-77. Wentzel, Dirk (2001), Fairneß, Reziprozität und Eigennutz: Anmerkungen zu dem gleichnamigen Buch von Axel Ockenfels, in: ORDO - Jahrbuch fiir die Ordnung von Wirtschaft und Gesellschaft, Band 52, S. 373-379. Wentzel, Dirk (2002), Medien im Systemvergleich - Eine ordnungsökonomische Analyse des deutschen und amerikanischen Fernsehmarktes, Stuttgart. Wentzel, Dirk (2003), Der amerikanische Medienmarkt und sein ordnungspolitisches Leitbild, in: Orientierungen der Wirtschaftspolitik, Heft 1/2003, S. 53-56. Wentzel, Dirk (2009) (Hg.), Medienökonomik - Theoretische Grundlagen und ordnungspolitische Gestaltungsalternativen, Stuttgart.

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaftspoltik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

Sportpolitik und Verhaltensökonomik: Sollten Fußballverbände den Ligawettbewerb regulieren?

Oliver Budzinski und Tim Pawlowski

Inhalt 1.

Einleitung

282

2.

Die sportökonomische Standardtheorie und ihre Probleme

283

2.1. ,Uncertainty-of-Outcome'-Hypothese und ,Competitive Balance'

283

2.2. Sportpolitische Implikationen: Regulierung des Ligawettbewerbs als Aufgabe

285

2.3. Theoretische und empirische Schwächen der Standardtheorie

288

Die Wahrnehmung des Ligawettbewerbs durch die Fans und ihre verhaltensökonomischen Erklärungen

291

3.1. Verhaltensökonomik, Sportökonomik und das Forschungsprojekt Fanwahrnehmung

291

3.2. ,Framing'

292

3.3. Satisfizierung und Schwelleneffekte

294

3.4. Aufmerksamkeitseffekte

295

4.

Sportpolitische Implikationen

298

5.

Fazit

302

Literatur

303

3.

282

1.

Oliver Budzinski und Tim Pawlowski

Einleitung1

Seit den 1950er Jahren hat sich eine eigenständige Sportökonomik entwickelt, welche insbesondere den professionellen bzw. kommerziellen Sport als Teil der Marktwirtschaft versteht und analysiert. Allerdings werden in dieser Denktradition eine Reihe von Besonderheiten betont, die es nach Meinung ihrer Protagonisten rechtfertigen, von einer eigenständigen Sportökonomik zu sprechen (Dietl 2011; Pawlowski 2014a). Dennoch unterliegt die Sportökonomik natürlich einer Ko-Evolution mit der ,normalen' Ökonomik und importiert regelmäßig Trends in Theorie und Methodik, mitunter sehr unmittelbar, mitunter allerdings auch mit einer erheblichen Zeitverzögerung. Im Folgenden wird ein Beitrag zu einer verhaltensökonomischen Perspektive zentraler sportökonomischer Probleme vorgelegt, welche bisher in der Sportökonomik noch eher vernachlässigt worden ist. Zu den zentralen Konzepten, welche die Besonderheit der Sportökonomik begründen, gehören die ,Uncertainty-of-Outcome'-Hypothese sowie die Idee einer ,Competitive Balance', insbesondere im Ligawettbewerb. Beide stellen auch die wesentliche Grundlage dar, aufgrund derer Sportverbände als marktinterne Organisationen in die Markt- und Wettbewerbsbeziehungen intervenieren, nicht selten mit signifikanten antikompetitiven Effekten, welche aber eben über die Besonderheiten des Sportes gerechtfertigt werden. Vor dem Hintergrund verhaltensökonomischer Überlegungen und eigener empirischer Erhebungen diskutieren wir im vorliegenden Beitrag diese Grundlage kritisch. Dabei kommen wir zu dem zentralen Ergebnis, dass ,Competitive Balance' zwar tatsächlich ein wichtiges Konzept für eine ökonomiebasierte Sportpolitik darstellt, dass aber der bisher dominierende Blick auf die totale, objektiv-statistische Ausgeglichenheit einer ganzen Liga kritisch zu sehen ist. Vielmehr spielt die Fanwahrnehmung eine erhebliche Rolle, und ,Competitive Balance' ist vor allem dann relevant, wenn sie sich auf einzelne, wichtige Entscheidungen (beispielsweise das Meisterschaftsrennen) bezieht und nicht auf die Liga insgesamt. Daraus ergeben sich weitreichende Implikationen für die Sportpolitik. Der Beitrag gliedert sich wie folgt: Zunächst stellen wir in Abschnitt 2 die sportökonomische Standardtheorie inklusive ihrer theoretischen und empirischen Probleme vor. Dabei gehen wir insbesondere auch auf die sportpolitischen Implikationen ein. In Abschnitt 3 stellen wir unser Forschungsprojekt zur Fanwahrnehmung vor und diskutieren seine Ergebnisse vor dem Hintergrund grundlegender und weithin akzeptierter verhaltensökonomischer Theoriebausteine. Schließlich diskutieren wir in Abschnitt 4, welche Implikationen sich aus der Analyse für die Sportpolitik ergeben und wie sich diese von jenen der traditionellen Sportökonomik unterscheiden. Ein Fazit (Abschnitt 5) beschließt den Beitrag.

Wir danken den Teilnehmern des 47. Forschungsseminares Radein und insbesondere Justus Haucap für wertvolle Diskussion und Anregungen.

283

Sportpolitik und Verhaltensökonomik

2.

Die sportökonomische Standardtheorie und ihre Probleme

2.1. ,Uncertainty-of-Outcome'-Hypothese und ,Competitive Balance' Sowohl die sogenannte ,uncertainty-of-outcome'-Hypothese (TJOH) als auch das Konzept der wettbewerblichen Ausgeglichenheit (,competitive balance'; CB) stellen - historisch betrachtet - konstitutive Elemente der Sportökonomik dar. Von der Pionierarbeit Rottenbergs (1956) an hat sich die Sportökonomik als eigenständige Subdisziplin der Volkswirtschaftslehre (bzw. der - im anglo-amerikanischen Sinn verstandenen - Ökonomik) gerade über den mit diesen beiden Konzepten verbundenen Theoriestrang etabliert (neben Rottenberg 1956 insbesondere auch Neale 1964 und El-Hodiri und Quirk 1971 sowie zusammenfassend Fort und Quirk 1995). Demnach beschreibt die UOH als wesentliche Motivation von Nachfragern nach Sportereignissen (im Folgenden Fans) eine positive Zahlungsbereitschaft für das Miterleben sportlicher Wettkämpfe (sei es als LiveZuschauer im Stadion oder als TV-Zuschauer von Sportübertragungen). Zwar sei auch die absolute Qualität einer sportlichen Darbietung, also das Talentniveau der Sportler bzw. die Außerordentlichkeit der sportlichen und athletischen Fähigkeiten, von Relevanz für die Sportnachfrage, jedoch komme der relativen Qualität des sportlichen Wettbewerbs eine noch größere Bedeutung zu: Der ökonomische Mehrwert von Sportwettbewerben als Zuschauerunterhaltung lebt davon, dass der Ausgang des Wettbewerbs ex ante möglichst unvorhersehbar ist (,uncertainty of outcome'). Die Spannung ist für die Zuschauer besonders groß, wenn das Ergebnis hart umkämpft ist und lange unklar ist, wer gewinnen wird. Daraus, so die UOH, zieht der typische Zuschauer im Wesentlichen seinen Unterhaltungsnutzen aus dem Sportereignis. Im Gegensatz dazu sinkt der Unterhaltungsnutzen des Sports, wenn der Ausgang des Wettkampfes bereits vorher abzusehen oder gar bekannt ist. Beispielsweise können Wiederholungen von vergangenen Sportereignissen im TV nicht dieselbe Spannung und Unterhaltung erzielen wie Live-Übertragungen - und bleiben dem entsprechend auch hinsichtlich der Zahlungsbereitschaft der Nachfrager weit hinter Live-Ereignissen zurück. Zusammenfassend besagt die UOH, dass eine höhere Unsicherheit über den Ausgang eines Sportereignisses (UO) zu mehr Spannung (S) fuhrt, was wiederum den Grenznutzen der Zuschauer erhöht und damit - ceteris paribus - eine Steigerung der Nachfrage (D) bewirkt. Eine steigende Nachfrage wiederum sollte bei konstantem Angebot zu steigenden Erträgen (R) führen. (1) UOT

St

Dt

Rt.

Somit ist davon auszugehen, dass die Anbieter von Sportereignissen, also ihre Organisatoren ebenso wie die Teilnehmer am sportlichen Wettkampf (so sie an den Erträgen partizipieren), ein Interesse daran haben, dass die UO möglichst hoch ist - jedenfalls aber auf keinen Fall so niedrig wird, dass die sinkende Spannung einen Nachfragerückgang verursachen wird. Es ergibt sich damit die Frage, welche Faktoren die U O wesentlich und kritisch beeinflussen. In der sportökonomischen Standardtheorie wird hier insbesondere der relativen Wettbewerbsfähigkeit der am sportlichen Wettkampf Beteiligten eine entscheidende Rolle zugewiesen (Rottenberg 1956; Neale 1964). Je ausgeglichener die Wettbewerbsfähigkeit der Wettbewerber ist, umso weniger lässt sich das Ergebnis des sportlichen Wettbewerbs prognostizieren und umso größer ist die Spannung. Und andersherum: Je größer der Unterschied in der Wettbewerbsfähigkeit der Teilnehmer ist, umso

284

Oliver Budzinski und Tim Pawlowski

vorhersehbarer wird der Wettbewerbsausgang und umso geringer die Spannung. Somit kommt der ,competitive balance' (CB), der wettbewerblichen Ausgeglichenheit, eine entscheidende Rolle zu. Betrachtet man beispielsweise eine Fußballliga, so sorgen große Qualitätsunterschiede zwischen den Teams dafür, dass das Ergebnis der Saison ebenso wie die Ergebnisse einzelner Spiele relativ vorhersehbar sind - und die Saison, abgesehen von der seltenen, ausnahmsweisen Überraschung, vergleichsweise langweilig verläuft. Sind die Teams hingegen etwa gleichstark, entwickelt sich ein intensiver und weniger vorhersagbarer Wettbewerb, welcher für mehr Spannung sorgt. Im theoretischen Optimum perfekter CB besitzt jedes Team ex ante die gleiche Wahrscheinlichkeit, ein anstehendes Spiel zu gewinnen. Zusammenfassend gilt: (2) CB t

UOt

St

DT

Rt.

Damit hat die sportökonomische Standardtheorie nicht nur ihren wesentlichen Einflussfaktor gefunden, sondern zudem leitet sich daraus eine Implikation ab, die die Ökonomik des Sports besonders macht und einen wesentlichen Unterschied zu anderen Märkten begründet: Unter der (empirisch gehaltvollen) Annahme, dass die sportlichen Wettbewerber - also beispielsweise die Vereine einer Fußballiga - an den Erträgen partizipieren (über mehr - oder teurer - verkaufte Eintrittskarten ebenso wie über Anteile an den Einnahmen aus dem Verkauf von Übertragungs- und anderen Vermarktungsrechten), ergibt sich, dass alle Wettbewerber ein wirtschaftliches Interesse an einem möglichst ausgeglichenen Wettbewerb haben! Während also in anderen Märkten jeder Wettbewerber danach strebt, Marktführer zu werden und die Konkurrenz möglichst weit auf Abstand zu bringen (bzw. sie aus dem Markt zu verdrängen, um Marktmacht zu erlangen), so haben die Wettbewerber in einem Sportmarkt ein eigennütziges Interesse daran, die Konkurrenz zu erhalten, da sie sich gegenseitig benötigen, um ein lebensfähiges, ökonomisch profitables Produkt anbieten zu können. Und nicht nur das: im Grunde haben sogar alle Marktteilnehmer ein ökonomisches Interesse an einem ausgeglichenen Wettbewerb (hohe CB) und damit daran, die Wettbewerbsfähigkeit ihrer Konkurrenten zu erhalten. Diese machtvolle Erkenntnis zeigt sich auch in berühmten Zitaten der wissenschaftlichen Pioniere der Sportökonomik: „The nature of the industry is such that competitors must be of approximately equal 'size' if any are to be successful; this seems to be a unique at-tribute of professional competitive sports. (...) That is to say, the 'tighter' the competition, the larger the attendance" (Rottenberg 1956, S. 242, S. 246). Und: ,,'Oh Lord, make us good, but not that good' must be the prayer" (Neale 1964, S. 2). Es ist auch gerade diese Implikation der sportökonomischen Standardtheorie, welche eine große sportpolitische Bedeutung entfaltet: professionelle Sportvereine in Teamsportarten (ebenso wie professionelle Sportler in Individualsportarten) sehen sich im Spannungsfeld zwischen dem sportlichen Anreiz, möglichst oft und möglichst klar zu siegen, und dem ökonomischen Anreiz, über einen möglichst ausgeglichenen und damit möglichst spannenden Wettbewerb die Erträge zu maximieren. Damit wird der Boden dafür bereitet, Interventionen in den Wettbewerb zu begrüßen, welche das gemeinsame ökonomische Interesse auch zu Lasten des individuellen sportlichen Siegesinteresses fördern (siehe Abschnitt 2.2). Dies zeigen beispielsweise auch die Standardmodelle der Sportökonomik (grundlegend El-Hodiri und Quirk 1971; erweitert bspw. Fort und Quirk 1995 oder Vrooman 1995).

Sportpolitik und

Verhaltensökonomik

285

Dieser Theoriestrang der Sportökonomik modelliert professionelle Sportligen, also beispielsweise eine Fußballliga, als einen Ligawettbewerb, bestehend aus zwei Teams, die beide versuchen, ihre Gewinne zu maximieren. Zentraler Einsatzfaktor ist die Investition in Talent (Spieler), die maßgeblich den Erfolg determiniert. Ein wesentlicher Parameter sind dabei die Grenzertragskurven der beiden Teams, die sich unterscheiden können. Typischerweise werden sogenannte big market teams (BMT) von sogenannten small market teams (SMT) unterschieden, wobei ein BMT ursprünglich ein Team ist, dass über ein größeres Zuschauerpotenzial verfugt 2 und damit auf jedem Erfolgsniveau mehr Eintrittskarten verkaufen kann bzw. die Eintrittskarten auf jedem Erfolgsniveau zu einem höheren Preis verkaufen kann.3 Folglich verbessern zwar beide Teams ihre Ertragschancen, wenn sie erfolgreicher sind (also öfter Spiele gewinnen, d.h. eine höhere winning percentage erzielen). Jedoch sind die Erträge des BMT bei jedem gegebenen Erfolgsniveau (= bei jedem winning percentage) höher als jene des SMT. Die Modellanalysen vergleichen dann nicht-kooperative Gleichgewichte, d.h. jedes Team versucht individuell seine Gewinnfunktion zu maximieren, mit kooperativen Gleichgewichten, also einer gemeinsamen Maximierungsstrategie der Liga (der Kartell- oder Monopolfall). Das dominierende Ergebnis der verschiedenen Variationen dieses Standardmodells ist es dabei, dass das kooperative Gleichgewicht zu einer höheren CB führt als das nicht-kooperative Gleichgewicht. Folglich verbessert eine CB-steigernde Intervention in den Ligawettbewerb die Wohlfahrt - und die interventionsfreundliche Implikation des sportökonomischen Standardansatzes, dass die wettbewerbliche Ausgeglichenheit der Liga (CB) der entscheidende Faktor für spannende Sporterlebnisse ist, wird überwiegend bestätigt. Darüber hinaus werden die Ertragsmöglichkeiten bzw. die finanzielle Ausstattung der Teams als wesentliche Ursache geringer CB ausgemacht, so dass ein theoretisches Fundament für solche Eingriffe gelegt wird, welche ungleiche Finanzausstattungen der Ligateilnehmer ausgleichen oder zumindest verringern (financial level-playing fielet).

2.2. Sportpolitische Implikationen: Regulierung des Ligawettbewerbs als Aufgabe Die sportökonomische Standardtheorie impliziert also zusammenfassend, dass Interventionen in kommerzielle Sportmärkte, welche die CB erhöhen (bzw. ihre Verringerung verhindern oder bekämpfen), aus ökonomischer Sicht als gerechtfertigt betrachtet werden können. Bevor wir einen genaueren Blick auf die hieraus folgenden sportpolitischen Implikationen werfen können, ist es aber sinnvoll, kurz die besondere Organisation des Sports zu erläutern. Anders als in anderen Märkten existieren im kommerziellen Sport (wie auch in den nicht-kommerziellen Bereichen des Sports) machtvolle Sportverbände,

2

3

Die Größe des Zuschauerpotenzials bemisst sich dabei ursprünglich an der Einwohnerzahl des exklusiven Einzugsgebietes eines Teams. Freilich lassen sich auch andere Faktoren wie beispielsweise Reputation und Tradition eines Teams in die Modellanalyse einbauen. In weiteren Entwicklungen sind auch andere Ertragsarten einbezogen worden, also beispielsweise Einnahmen aus dem Verkauf von Übertragungsrechten oder Transfereinnahmen.

286

Oliver Budzinski und Tim Pawlowski

welche als private, nicht-staatliche Einrichtungen 4 den Markt regulieren, also (insbesondere formelle) marktinterne Institutionen bereitstellen. In vielen Sportarten ist es dabei wie im Fußball so, dass die Vereine, welche die Teams des Ligawettbewerbs stellen, sich auf regionaler Ebene zu regionalen Sportverbänden (sogenannte Stadt-, Kreis- oder Regionsfachverbände) zusammenfinden. Diese regionalen Sportverbände bilden dann wiederum überregionale (bspw. Niedersächsischer Fußballverband, NFV, oder eine Stufe höher der Norddeutsche Fußball-Verband)) und diese schließlich nationale Verbände (bspw. Deutscher Fußball-Bund, DFB) als Dachverbände, wobei spätestens letztere dann als Organisatoren kommerzieller Sportveranstaltungen (beispielsweise die 1. und 2. Fußballbundesliga in Deutschland 5 ) auftreten. Die nationalen Verbände bilden ihrerseits internationale Verbände, wie beispielsweise die Union des Associations Européennes de Football (UEFA) oder die Fédération Internationale de Football Association (FIFA), welche wiederum eigene kommerzielle Sportveranstaltungen anbieten.6 Die Existenz solcher Sportverbände ist dabei notwendig, da die Organisation einer Liga oder einer Meisterschaft eine gewisse Minimumkooperation zwischen den Wettbewerbern voraussetzt, wie beispielsweise die Einigung auf Regeln des sportlichen Wettbewerbs, Organisation der Regeldurchsetzung, Spielpläne und -Zeiten usw. Darin liegt auch begründet, dass Sportverbände in den allermeisten Fällen insofern (Gebiets-) Monopolisten sind, da sich nur so ein einheitliches Meisterschaftssystem (eine Bestenermittlung) je Sportart implementieren lässt.7 Gleichzeitig geht damit eine erhebliche Macht für die Sportverbände einher, denn die Grenze zwischen Sportregeln und solchen, welche den wirtschaftlichen Wettbewerb zwischen den Teilnehmern beeinflussen, sind fließend und nicht eindeutig defmierbar (Budzinski 2012, S. 47-51).8 Dem entsprechend regulieren Sportverbände in der Praxis viel mehr als den Sportbetrieb; sie nehmen auch erheblichen wettbewerbsrelevanten wirtschaftlichen Einfluss (siehe die unten folgende Auflistung). Je nach den Details ihrer Organisation kann man Sportverbände daher als Kartell der Wettbewerber im Sportmarkt oder monopolistisches Zuliefererunternehmen (als Anbieter marktinterner Institutionen und sogenannter compétition organizing services) betrachten,

4

5

6

7

8

Aus ökonomischer Sicht handelt es sich um private Unternehmen oder um Vereinigungen von Unternehmen. Die eigentliche Veranstaltung (aber nicht die Regelsetzung und -durchsetzung) übernimmt dabei in Deutschland im Auftrag des DFB das Unternehmen DFL Deutsche Fußball Liga GmbH, eine hundertprozentige Tochter des Vereines Die Liga - Fußballverband e. V. Hierin sind die teilnehmenden Vereine der beiden obersten Profiligen (bzw. ihre Kapitalgesellschaften) zusammengeschlossen. Es gibt allerdings im Bereich des kommerziellen Sports auch Ausnahmen dieser bottom-upStruktur, wie beispielsweise die Fédération Internationale de l 'Automobile (FIA), welche die großen kommerziellen Motorsportmeisterschaften organisiert. Einer der wenigen Autoren, der Vorteile eines Wettbewerbs zwischen verschiedenen Meisterschaften derselben Sportart in den Vordergrund stellt, ist Ross (1989, 2003). Ein Beispiel stellt die Regeländerung des Fußballweltverbandes FIFA hinsichtlich der physischen Beschaffenheit des Balles für die Fußballweltmeisterschaft in Südafrika 2010 dar. Erscheint diese Intervention zunächst als pure Änderung des sportlichen Regelwerkes ohne wirtschaftliche Motive oder Effekte, so wird der kommerzielle Aspekte deutlich, wenn man sich vergegenwärtigt, dass man sich insbesondere mehr Tore und (dadurch) ein attraktiveres Spiel von dem neuen Ball erhoffte.

Sportpolitik und Verhaltensökonomik

287

welches seine Marktmacht in vertikaler Sicht auch missbrauchen kann (Budzinski und Szymanski 2015). Insofern trifft die Aussage der Sportökonomik, dass CB-verbessernde Interventionen ökonomisch sinnvoll sind, auf einen machtvollen Akteur, die Sportverbände, der solche Interventionen umsetzen kann. Es kann daher nicht verwundern, dass Sportverbände regelmäßig auf CB verweisen, um Eingriffe in den Wettbewerb zu rechtfertigen und um wirtschaftliche Aspekte des Sports zu regulieren. Darunter finden sich dann durchaus auch solche Interventionen, welche im Effekt weniger die CB verbessern als die Profitabilität des Sportes zu Lasten anderer Marktseiten (Zulieferer, Fans) oder auch zu Lasten bestimmter Marktteilnehmer - mithin antikompetitiv - erhöhen. Des Weiteren können sich CB-Effekte mit anderen, auch antikompetitiven Zielen und Effekten vermischen. Zu den Interventionen und marktinternen Regulierungen, welche durch Sportverbände auch mit Hinweis auf CBVerbesserungen erlassen wurden und werden, zählen beispielsweise: -

-

-

-

-

9

die künstliche Beschränkung der Teilnehmerzahlen an Ligen oder Meisterschaften über das sportlich notwendige hinaus (Marktzutrittsschranken); beispielsweise hat die FIA Formel 1 Weltmeisterschaft die restriktive Begrenzung der Anzahl der Teams (und das bewusste Nicht-besetzen von frei gewordenen Teamplätzen) in der Vergangenheit auch immer wieder explizit damit begründet, dass dann höhere Erträge für die verbleibenden Teams zu erzielen wäre; diskriminierende Zulassungs- und Lizensierungsregeln, wie beispielsweise die sogenannte 50plus-Regel in der deutschen Fußball-Bundesliga, welche neue Investoren (outsider) von der Übernahme von Fußballklubs ausschließt, die Altinvestoren {insider) aber explizit ausnimmt (Budzinski und Müller 2013, S. 278-283) oder die entsprechenden Regeln in professionellen Sportligen in den USA (inklusive Gebietsschutzklauseln); explizite Preiskartelle wie sie bei der zentralisierten Vermarktung von Übertragungsrechten gängig sind (mit Literaturhinweisen: Budzinski 2012, S. 52-53, 58-62); die indirekte oder direkte Regulierung des Budget- und Investitionsverhalten der Wettbewerber, wie beispielsweise Umverteilungsarrangements hinsichtlich der Einnahmen aus Eintrittskarten (wie in den amerikanischen Profiligen NFL und MLB), Übertragungsrechten oder gar Sponsorenzuwendungen, Obergrenzen für Gehälter und Lohnsummen (zum Beispiel in den amerikanischen Profiligen NFL, NBA, NHL) sowie absolute oder relative Budgetobergrenzen (worunter als indirekte Version auch die jüngsten UEFA Financial Fairplay Regulierungen 9 fallen); die Regulierung des Talentmarktes (Arbeitsmarktes) unter Einschränkung der Vertragsfreiheit: Vorzugsziehungsrechte für neue Talente (reverse draft system), umfangreiche und detaillierte Transferregulierungen, Beschränkungen des Beratermarktes etc.; Exklusiwereinbarungen mit Zulieferern und Ausstattern.

Vgl. zu der intensiven und kontroversen Diskussion Budzinski (2014), Franck (2014), Könecke und Schubert (2014), Maxcy (2014), Peeters und Szymanski (2014a, 2014b), Preuss, Haugen und Schubert (2014), Saldsieder und Wentzel (2014), Szymanski (2014) und Budzinski und Szymanski (2015).

288

Oliver Budzinski und Tim Pawlowski

Die wettbewerblich und ökonomisch fragwürdigen Elemente solcher marktinterner Regulierungen werden dabei typischerweise mit der besonderen ökonomischen Theorie des Sportes (wie oben in Abschnitt 2.1 skizziert) gerechtfertigt, also damit, dass der spannungswahrende oder spannungserhöhende Effekt (CB-Verbesserung) der Intervention deren negative Effekte überkompensieren würde. Dieses Begründungsmuster korrespondiert insofern auch zu staatlicher Politik, als dass diese in vielen Bereichen Ausnahmen für den kommerziellen Sport zugelassen hat und dabei letztendlich in nicht wenigen Fällen explizit oder implizit auf das gleiche Begründungsmuster rekurriert hat. Hier wären als Beispiele die Wettbewerbspolitik (Ross 2003, Kahn 2009 und Zimbalist 2009 für die USA sowie Budzinski 2012, 2014 und Budzinski und Szymanski 2015 für die EU), die Arbeitsmarktpolitik oder die allgemeine Wirtschaftspolitik zu nennen, in welchen durchaus restriktive marktinterne Eingriffe, welche in anderen Märkten als inakzeptabel gelten würden, immer wieder durch die staatlichen Regulierungsinstanzen goutiert wurden und werden.

2.3. Theoretische und empirische Schwächen der Standardtheorie Während die in Abschnitt 2.1 skizzierte sportökonomische Standardtheorie also weiterhin das sportpolitische Denken dominiert, sind in der wissenschaftlichen Sportökonomik zunehmend theoretische und empirische Schwächen des Standardansatzes herausgearbeitet worden. Dabei steht insbesondere die Hypothese im Zentrum der Kritik, dass eine Erhöhung der CB (also ein stärker ausgeglichener sportlicher Wettbewerb) zu einer größeren Nachfrage und damit zu einer höheren Ertragskraft des Sportes führen würde. Ohne Anspruch auf Vollständigkeit sei bezüglich der theoretischen Weiterentwicklungen erstens auf Erweiterungen des Standardmodells in Richtung der sogenannten ContestTheorie verwiesen, welche zu dem Ergebnis kommen, dass perfekte CB nicht gewinnmaximierend ist, sondern dass Ungleichheiten in der relativen Wettbewerbsfähigkeit der Teams sehr wohl überlegen sein können (Szymanski und Késenne 2004; Szymanski 2006a,c). Wenn der Betrag des Grenzertragzugewinns des BMT größer ist als der Betrag des Grenzertragrückgangs des SMT bei einer marginalen Verringerung der CB, dann würde ein zentraler Planer (= eine Liga) unter Umständen ein Gleichgewicht mit weniger CB präferieren als im nicht-kooperativen Gleichgewicht, da der Gesamtgewinn der Liga steigt und der Verlierer (durch interne Umverteilungsmechanismen) kompensiert werden könnte. Mit anderen Worten, machtvolle Sportverbände haben nicht zwangsläufig ein Eigeninteresse an CB - und daher kann man auch nicht ohne Weiteres erwarten, dass marktinterne Regulierung zu einer höheren CB führt als freier Wettbewerb! Zweitens kann auch bezweifelt werden, ob eine Maximierung der CB im Sinne der Nachfrager, also der Zuschauer bzw. Fans, ist. Die ökonomische Theorie der Superstars hat sich seit den 1980er Jahren entwickelt und liefert auch für die Sportökonomik relevante Inhalte. So betont sie die Präferenz der Konsumenten für herausragende Talente und argumentiert, dass zweitbeste Talente aus Sicht der Fans nur ein schwaches Substitut für das beste Talent darstellen (Rosen 1981). Hinzu kommt, dass in ihrer Qualität bekannte Talente oftmals neuen Talenten mit unbekannter Qualität vorgezogen werden (MacDonald 1988). Darüber hinaus existieren positive Netzwerkexternalitäten (inklusive sogenannter Boulevardexternalitäten), welche zu einer Steigerung des Konsumnutzens

Sportpolitik und Verhaltensökonomik

289

führen, wenn sich die Starnachfrage auf wenige, allgemeinbekannte Superstars konzentriert (Adler 1985; Franck und Nüesch 2007). Das Auftreten eines Superstars oder eines Superstarteams ist freilich zwangsläufig mit einer sinkenden wettbewerblichen Ausgeglichenheit verbunden, denn Teil des Superstarphänomens ist ja das überragende Talent und damit - zumindest im Sport - eine wettbewerbliche Überlegenheit bis hin zur Dominanz. Gleichzeitig zeigt jedoch die Starökonomik, dass das Auftreten solcher Starphänomene sehr wohl mit der Generation ökonomischer Wohlfahrt verbunden ist. Und in der Tat hat ja das Auftreten besonderer Superstars wie Boris Becker im Tennis, Michael Schumacher in der Formel 1 oder Tiger Woods im Golf zu einem erheblichen Interesse der Konsumenten an diesen Sportarten beigetragen - obwohl die genannten Persönlichkeiten sicher nicht die CB erhöht haben. Mit anderen Worten, Fans wollen Stars (siegen) sehen (Pawlowski und Anders 2012). 10 Dabei bleibt es unbestritten, dass eine anhaltende Dominanz sowie das Fehlen von ernsthaften Gegnern auch zu Langeweile und zu einem sinkenden Interesse führen können. Somit deutet die Superstarökonomik lediglich, dafür aber deutlich darauf hin, dass eine perfekte CB - im Sinne einer absoluten Ausgeglichenheit - nicht den Präferenzen der Nachfrager entspricht. Darauf deutet auch drittens hin, dass es schwer vorstellbar ist, dass ein reiner Zufallsverlaufeiner Meisterschaft - welcher ja bei absolut gleichstarken Wettbewerbern effektiv resultieren würde - für echte Spannung sorgen würde. Beispielsweise ließe sich der Konsumnutzen aus Sportwetten kaum ohne die Existenz von Favoriten und Außenseitern mithin ohne die Existenz einer Mindestunausgeglichenheit - denken. Und gerade das besondere Spannungselement, ob bzw. wenn der Außenseiter den Favoriten schlägt, würde bei perfekter CB entfallen. Neuere theoretische Modelle zeigen aber, dass gerade aus Überraschungen Konsumnutzen resultiert (Coates, Humphreys und Zhou 2015). Insgesamt deuten Theorien jüngeren Datums also an, dass der Zusammenhang zwischen CB, Spannung und Nachfrage nicht so linear und ,simple' ist, wie es die Standardtheorie tendenziell postuliert hatte. Wenn es eine optimale CB gibt, so muss diese irgendwo zwischen perfekter Ausgeglichenheit und perfekter Unausgeglichenheit liegen, wobei die sportökonomische Forschung dieses Optimum bisher nicht ermitteln konnte: „Competitive balance is like wealth. Everyone agrees it is a good thing to have, but no one knows how much one needs" (Zimbalist 2002, S. 111). Die theoretischen Zweifel werden auch dadurch motiviert, dass sich die empirische Sportökonomik in den letzten 6 Jahrzehnten auffallend schwer getan hat, einen stabilen Zusammenhang zwischen gemessener wettbewerblicher Ausgeglichenheit und gemessener Nachfrage im Sinne von CB t ^ D t zu etablieren. Dabei werden in der empirischen Literatur typischerweise drei Dimensionen wettbewerblicher Ausgeglichenheit unterschieden (Cairns, Jennett und Sloane 1986): -

10

kurzfristige CB, welche sich auf ein konkretes Spiel oder einzelnes Event bezieht,

In eine ähnliche Richtung weisen empirisch unterstütze Überlegungen, dass Fußballfans im Stadion vor allem ihr Heimteam siegen sehen wollen - und das möglichst klar und hoch (Forrest et al. 2005; Coates und Humphreys 2010, 2012).

290

-

-

Oliver Budzinski und Tim Pawlowski

mittelfristige CB11, welche sich auf Unterwettbewerbe einer laufenden Saison bezieht, also beispielsweise in einer professionellen Fußballliga auf den Meisterschaftskampf, den Kampf um die Qualifikationsplätze für die europäischen Wettbewerbe oder den Kampf um den Klassenerhalt, und schließlich langfristige CB, welche zwei Komponenten enthält: Die statische Komponente bezieht sich dabei auf die , Spannung innerhalb einer Saison' über mehrere Spielzeiten hinweg, während sich die dynamische Komponente auf die Dominanz (bzw. auf die Abwesenheit von Dominanz) einzelner Teams über mehrere Spielzeiten hinweg bezieht.

Wenn man sich die meiststudierte internationale Sportart anschaut - professioneller Fußball - dann kann man festhalten, dass auch eine jahrzehntelange intensive Forschung in der Summe keinen eindeutigen und stabilen Zusammenhang zwischen kurzfristiger und langfristiger CB zum einen und der Nachfrage durch Zuschauer im Stadion oder vor dem TV-Gerät andererseits etablieren konnte.12 Die meisten empirischen Papiere, die den Zusammenhang zwischen kurzfristiger CB und der Anzahl der Stadionbesucher (Nachfrage nach Eintrittskarten) analysieren, finden entweder keinen signifikanten Effekt (beispielsweise Hart, Hutton und Sharot 1975; Szymanski 2001; Forrest und Simmons 2002, 2006; Rottmann und Seitz 2008; Benz, Brandes und Franck 2009) oder einen, welcher der gängigen Hypothese CB t ^ D t sogar widerspricht (beispielsweise Peel und Thomas 1992; Czarnitzki und Stadtmann 2002; Feddersen et al. 2006; Buraimo und Simmons 2008; Pawlowski und Anders 2012)! Letzteres gilt auch für den Zusammenhang von langfristiger CB und aggregierten Zuschauerzahlen einer Liga. Trotz zunehmender Dominanz einzelner weniger Teams in den Ligen - also einer steigenden Unausgeglichenheit (beispielsweise Flores, Forrest und Tena 2010; Pawlowski, Breuer und Hovemann 2010) - lassen sich bspw. in der 1. Fußball Bundesliga in Deutschland seit Jahren steigende Zuschauerzahlen beobachten (DFL 2014). Ein etwas anderes Bild ergibt sich allerdings im Hinblick auf die sogenannte mittelfristige CB, wobei diese allerdings nur recht selten im Fokus der empirischen Analysen stand. Hier zeigen die wenigen vorliegenden Studien einen positiven Effekt auf die Nachfrage, wenn ein Team sich entweder noch im Meisterschafts- oder Aufstiegsrennen befand (Jennett 1984; Forrest und Simmons 2002; Rottmaim und Seitz 2008; Pawlowski und Anders 2012; Scelles et al. 2013), während weder die Chance auf einen Platz in einer der europäischen Wettbewerbe noch der Abstiegskampf die Zuschauernachfrage signifikant steigern konnte (Jennett 1984; Pawlowski und Anders 2012). Angesichts der geringen Anzahlen an Studien sind diese Ergebnisse aber mit Vorsicht zu bewerten. Dennoch muss man zusammenfassend eine zentrale Hypothese der sportökonomischen Standardtheorie in Frage stellen: Es scheint keinen systematischen empirischen Zusammenhang zwischen wettbewerblicher Ausgeglichenheit und Zuschauerzahlen bzw. Nachfrage zu geben (Szymanski 2001; Leach 2006, S. 117)!

11

Kringstad und Gerrard (2005) bezeichnen diese CB-Dimension als „competitive intensity".

12

Für eine ausfuhrlichere Literaturanalyse siehe Pawlowski (2013a, 2013b). Auch die Ergebnisse für die ebenfalls häufig analysierten US-amerikanischen Profiligen liefern bestenfalls gemischte Resultate.

Sportpolitik und

291

Verhaltensökonomik

Allen Studien, unabhängig davon, ob sie sich auf kurz-, mittel- oder langfristige CB konzentrieren, ist dabei gemein, dass CB bzw. ihre Veränderungen anhand der objektiven Spieldaten bzw. -ergebnisse gemessen werden. Dafür, wie diese objektiven Daten zu Indikatoren für die verschiedenen Dimensionen von CB zusammengestellt werden, existieren eine Vielzahl ausgefeilter und teilweise komplexer Methoden (Übersichten liefern beispielsweise Humphreys 2002, Zimbalist 2002, Pawlowski 2014b sowie sportökonomische Lehrbücher wie beispielsweise Downward et al. 2009); alle beruhen aber auf statistischem Input. Möglicherweise bilden objektive Indikatoren die von den Fans wahrgenommene Spannung aber nur unzureichend ab, d.h. die wahrgenommene Spannung mag sich von der objektiv feststellbaren Spannung unterscheiden (OCB = objektive CB; PCB = wahrgenommene (,perceived') CB): (3) OCB f PCB. Und während weiter gelten könnte (4) PCB t

St

Dt

Rt ,

so hieße das eben nicht zwangsläufig, dass dies auch für OCB erfüllt sein müsste. Und die empirische Literatur zeigt ja auch (5) OCB t f S t

Dt

Rf .

Genau hieran setzt das Forschungsprojekt (Pawlowski 2013a,b; Pawlowski und Budzinski 2013) an, über dessen Ergebnisse und Implikationen wir in den folgenden Kapiteln berichten. Gemäß der Maßgabe von Zimbalist (2002, S. 112), „the best measure of competitive balance is the one to which fans show the greatest sensitivity", haben wir die Fans direkt über die von ihnen wahrgenommene Spannung befragt.

3.

Die Wahrnehmung des Ligawettbewerbs durch die Fans und ihre verhaltensökonomischen Erklärungen

3.1. Verhaltensökonomik, Sportökonomik und das Forschungsprojekt Fanwahrnehmung Um Erkenntnisse darüber zu gewinnen, wie Fans die Spannung ihrer Heimatligen (im professionellen Fußball) wahrnehmen, haben wir bei insgesamt 14 Spielen der Saison 2011-2012 der jeweils höchsten Spielklasse in Deutschland (Bundesliga), den Niederlanden (Eredivisie) und Dänemark (Superligaen) durch studentische Interviewer standardisierte Fragebögen von den Stadionbesuchern sowie von Besuchern von Bars mit Liveübertragung ausfüllen lassen. 13 In der Summe erhielten wir 1689 verwertbare Fragebögen (1203 in Deutschland, 267 in Dänemark und 219 in den Niederlanden, was auch in etwa den Proportionen der Länder entspricht). Sowohl die Ligen als auch die Spiele wurden nach Kriterien ausgewählt, welche Verzerrungen minimieren sollten. Die Fragebögen enthielten eine Reihe von Fragen, welche aus verschiedenen Richtungen die seitens der 13

Zu den Details der Studie sowie methodischen Reflektionen sowohl zur Erhebung als auch zu den Auswertungen vgl. Pawlowski (2013a,b) sowie Pawlowski und Budzinski (2013, 2014). Im vorliegenden Beitrag müssen wir uns leider auf eine sehr knappe Darstellung beschränken. Das Forschungsprojekt wurde finanziell mit einem UEFA Research Grant gefördert.

292

Oliver Budzinski und Tim Pawlowski

Fans wahrgenommene Spannung (in verschiedenen Dimensionen der CB) einfangen sowie übliche Persönlichkeitsmerkmale vermerken sollten. Im Hinblick auf die sportpolitischen Implikationen, welche im Fokus des vorliegenden Beitrages stehen, geht es uns in diesem Kapitel darum, eine Verbindung von Theorie und Empirie herzustellen, d.h. wir wollen die gefundenen empirischen Ergebnisse (Pawlowski 2013b; Pawlowski und Budzinski 2013, 2014) in einen theoretischen Zusammenhang stellen, um verwertbare Politikimplikationen ableiten zu können. Hierzu ist die sportökonomische Standardtheorie in ihrer strengen Form nicht geeignet, da sich die Spannungswahrnehmung perfekt-rationaler Fans nicht von jener Spannung unterscheiden dürfte, wie sie durch objektive Daten gemessen wird (siehe Abschnitte 2.1 und 2.3). Wie die nachfolgenden Abschnitte zeigen werden, bestehen aber sehr wohl erhebliche und wichtige Unterschiede, so dass wir auf einen Theorierahmen rekurrieren, der besonders geeignet ist, subjektiv-rationales und wahrnehmungsbasiertes Verhalten zu erklären - und genau dafür auch in der modernen ökonomischen Theorie sehr anerkannt ist (wenn er auch für die Sportökonomik bisher noch nicht systematisch erschlossen worden ist): die Verhaltensökonomik. Im Kontext des vorliegendes Bandes ist es dabei nicht sinnvoll, an dieser Stelle die Grundlagen, wesentlichen Theorien und Literaturmeilensteine der Verhaltensökonomik darzulegen; dies wird an anderer Stelle im vorliegenden Band sehr viel ausführlicher und besser geleistet. Daher diskutieren wir im Folgenden direkt, inwieweit Framing-, Satisficing- und Salienceeffekte als Erklärungsmuster dienen können (Abschnitte 3.2-3.4), um den Zusammenhang von CB - genauer PCB - und Fannachfrage genauer zu verstehen, und damit die sportökonomische Standardtheorie zu erweitern geeignet sind. Sportpolitische Implikationen stehen dann im Zentrum von Abschnitt 4. 3.2.

,Framing'

,Framing' bedeutet, dass handelnde Akteure durch den Kontext einer Entscheidungssituation in ihrer Wahrnehmung, Einschätzung und damit letztlich auch in ihrer Handlungsentscheidung beeinflusst werden. Zum Kontext einer Situation gehört dabei neben den begleitenden Umweltbedingungen auch der individuelle Erfahrungsschatz mit vergangenen, ähnlichen Situationen. In Bezug auf die Wahrnehmung der wettbewerblichen Ausgeglichenheit einer professionellen Fußbailiga bedeutet dies, dass statistisch messbare CB-Werte von den Individuen vor dem Hintergrund bisheriger CB-Niveaus wahrgenommen und eingeschätzt werden. Die Erfahrung mit vergangenen CB-Niveaus framt die Einschätzung, indem sie als sogenannter reference point dient. Somit können Änderungen der CB-Niveaus die wahrgenommene Spannung (PCB) stärker beeinflussen als absolute CB-Niveaus. Wenn beispielsweise eine Fußballiga historisch stets sehr niedrige CB-Niveaus aufgewiesen hat, so können selbst marginale Verbesserungen der CB dafür sorgen, dass die wettbewerbliche Ausgeglichenheit als ,hoch' wahrgenommen wird ,hoch' gemessen am individuellen Referenzpunkt (Ankereffekt). Hat beispielsweise eine Mannschaft eine Liga über Jahre hinweg dominiert, wird aber in der laufenden Saison auf einmal durch ein anderes Team herausgefordert, so kann dies für einen erheblichen Sprung in der wahrgenommenen Spannung und auch in der Nachfrage sorgen - selbst wenn der Rest der Liga so chancenlos bleibt wir bisher. Sind die Fans jedoch an hohe CB-Niveaus gewöhnt, dann mag bereits eine marginale Verschlechterung der CB als

293

Sportpolitik und Verhaltensökonomik

, niedrige CB' wahrgenommen werden, selbst wenn die absoluten Werte immer noch auf einem objektiv hohen Niveau sein sollten. Die wahrgenommene Wettbewerbsintensität (PCB) hängt also bei Framing-Effekten im Wesentlichen von einem Auseinanderfallen von erwarteter CB und tatsächlicher CB ab: Ist die CB höher als erwartet, dann wird die PCB die OCB übersteigen; ist die CB hingegen niedriger als erwartet, so wird die PCB niedriger ausfallen als die OCB. 14 Somit wäre es denkbar, dass die folgende Situation auftritt: ( 6 ) OCBLIGA.A > OCBLIGA_B

A

PCBLIGA_A < PCBLIGA_B .

Man stelle sich zur Illustration folgendes hypothetisches Beispiel vor: Land A habe ein vergleichsweise unausgeglichene Premierliga mit objektiven CBR 15 -Werten um das Niveau 0,3 herum. Hingegen ist die Premierliga in Land B ziemlich ausgeglichen und realisiert typischerweise CBR-Werte um das Niveau 0,7. Wenn nun Liga A unerwarteter Weise einen CBR-Wert von 0,45 erreicht, während Land B ebenso überraschend für die Fans auf 0,55 fallt, so ist es nicht unplausibel, dass wahrgenommene wettbewerbliche Ausgeglichenheit (PCB) in Land A (positiv überraschte Fans) höher ausfällt als in Land B (negativ überraschte Fans), obwohl objektiv Liga B immer noch ausgeglichener ist als Liga A. In der Tat finden wir in unserer Studie empirische Befunde, die auf die Existenz solcher Fram ¡'«g- E ffekte hindeuten (Pawlowski und Budzinski 2013, 2014). In unserem Sample weist die dänische Superligaen bessere OCB-Werte auf als die deutsche Bundesliga (in den ersten zwei Perioden) sowie die niederländische Eredevisie (in allen Perioden; siehe Abb. 1). Vereinfacht gilt also: ( 7 ) OCBDK > O C B D > OCBNL.

Während in der niederländische Eredivisie die CB jedoch über die drei Perioden von niedrigem Niveau aus marginal steigt (in CBR-Werten um etwa 14 Prozent) und sich die deutsche Bundesliga in dieser Hinsicht uneinheitlich entwickelt (aber insgesamt einen Rückgang um etwa 12 Prozent aufweist), erlebt die dänische Superligaen einen starken Rückgang der OCB (bei CBR um ca. 34 Prozent von 0,8 auf 0,53). Dies korrespondiert mit der Wahrnehmung der Spannung durch die Fans (Abb. 2): Bei beiden Fragen zeigt sich, dass die dänischen Fans die Spannung in ihrer Liga deutlich schlechter einschätzen als die niederländischen und die deutschen Fans. Etwas vereinfacht gilt somit ( 8 ) PCBDK < PCBNL < P C B d ,

also eine Umkehrung der OCB-Relationen! Die Differenz zwischen dem OCB- und dem PCB-Ranking kann dadurch erklärt werden, dass die Wahrnehmung der Fans stärker

14

15

Dies ist freilich eine ceteris paribus-Argumentation. Selbstverständlich können weitere Einflüsse auf die Erwartungen wirken, wie beispielsweise Regeländerungen oder ein außergewöhnlicher Zufluss an Talent (bspw. in Form von Starspielern). Das Competitive Balance Ratio (CBR) wurde von Humphreys (2002) entwickelt und misst die statische und die dynamische Komponente der langfristigen CB zusammen (vgl. Abschnitt 2.3). Je höher der Wert des Maßes desto größer die CB (Wertebereich: 0-1).

294

Oliver Budzinski und Tim Pawlowski

durch vergangene CB-Niveaus sowie Veränderungen des CB-Niveaus beeinflusst wird als durch die absoluten statistischen Werte. Abbildung 1: Trends in Competitive Balance in the Danish Superligaen (DSL), the Dutch Eredivisie (DED) and the German Bundesliga (GBL) H-Index of competitive balance 118 116

(4-year moving average)

114

1 1 1 1 IL • DSL a DED a G B L J, !

3,66

112

%

/ 0,53 {

110 108 108

Competitive balance ratio

J*,**

104

Ï

3.36

0,37

!

0,53

\

0.58

0,42

j

\ « /

m u - f

jiï: 1

'102

1991/921997/98

1998/992004/05

2005/062010/11

Quelle: Pawlowski und Budzinski 2014, S. 151. Abbildung 2: Perceived Level of Excitement and Willingness-to-pay to Increase the Current Level of Excitement in the Danish Superligaen (DSL), the Dutch Eredivisie (DED) and the German Bundesliga (GBL)

Sample average Thinking back to previous seasons, how wouid you rate the level of excitement in your LEAGUE?1* {0=not exciting.. 10=very exciting)

Sample average "Imagine you couid increase the level of excitement in your LEAGUE by making a financial contribution!" (Euros per stadium ticket per game)

Quelle: Pawlowski 2013a; Pawlowski und Budzinski 2014, S. 151. 3.3. Satisfizierung u n d Schwelleneffekte In der Verhaltensökonomik wird davon ausgegangen, dass rationale Individuen keinesfalls bei allen Konsumprozessen ein optimierendes Verhalten an den Tag legen und ein optimales Nutzenniveau bei allen Gütern anstreben. Da davon ausgegangen wird, dass auch kognitive Ressourcen knapp sind und dem entsprechend effektiv und effizient eingesetzt werden sollten, kann stattdessen bei vielen Konsumprozessen beobachtet werden, dass ,lediglich' ein satisfizierendes Nutzenniveau angestrebt wird und oberhalb dieses Niveaus keine kognitiven Ressourcen mehr auf eine weitere Optimierung, verschwendet' werden. Diese werden vielmehr auf solche Konsumprozesse konzentriert, in denen ein

295

Sportpolitik und Verhaltensökonomik

satisfizierendes Nutzenniveau noch nicht erreicht werden konnte. In der Konsequenz bedeutet dies, dass Veränderungen oberhalb des Satisfizierungsniveaus keine Verhaltensreaktionen auslösen; ein Unterschreiten der Satisfizierungsgrenze aber sehr wohl, so dass beispielsweise bei Zahlungsbereitschaften Diskontinuitäten auftreten. In Bezug auf die wettbewerbliche Ausgeglichenheit einer Liga könnte also das Phänomen auftreten, dass marginale Veränderungen der CB keine Nachfragereaktion auslösen, weil sie sich oberhalb der satisfizierenden (sozusagen hinreichenden) CB abspielen. Gleichzeitig bliebe CB ein wichtiger Nachfragefaktor, denn bei einem Absinken unter die kritische Schwelle eines gerade noch satisfizierenden Spannungsniveaus wäre mit einer diskontinuierlichen, sprunghaften Änderung der Nachfrage zu rechnen. Wiederum liefert unser Forschungsprojekt zumindest eine vorläufige unterstützende empirische Evidenz (siehe Abb. 3). Zum einen weisen die aus den Daten abgeleiteten und auf PCB beruhenden konditioneilen Nachfragekurven einen S-förmigen Verlauf auf, mithin existiert also ein inelastischer Bereich bei sehr hohen (und bei sehr niedrigen) PCBWerten (Pawlowski 2013a,b). Zum anderen zeigt die Analyse der geäußerten Zahlungsbereitschaften (bei allen Problemen, die dieser Methode inhärent sind), dass die Zahlungsbereitschaft für zusätzliche Spannung sprunghaft ansteigt, wenn die PCB unter ein bestimmtes Niveau fallt (Pawlowski und Budzinski 2013).

Abbildung 3: Willingness-to-pav WTP (per stadium ticket per game) to Increase the Current Level of PCB

Median WTP (Categories)

Median WTP (.converted in Euros)

Mean WTP (Std. Err.*) (Categories)

Mean WTP (Std. Err.*) (converted in Euros)

MW

Denmark

1

1.5

1.791 (.1137)

5.12 (.3250)

•8»

Germany

1

1.5

1.216 (.0458)

3.15 (.1186)

Netherlands

1

1.5

1.249 (.1018)

3.24 (.2636)

* Standard Errors (Std. Err.) were derived by bootstrapping (r=999)

Quelle: Pawlowski und Budzinski 2013, S. 120.

3.4. Aufmerksamkeitseffekte Eine weitere Erkenntnis der Verhaltensökonomik besteht darin, dass selbst rationale Individuen nicht allen Situationen die gleiche Aufinerksamkeit widmen und Unterschiede

296

Oliver Budzinski und Tim Pawlowski

in der Aufmerksamkeit wiederum subjektive Bewertungsunterschiede auslösen können. Darüber hinaus kann es sein, dass die Bewertung komplexer Handlungs- oder Entscheidungssituationen durch besondere Aufmerksamkeit auf einzelne Elemente der Gesamtsituation determiniert wird. Weswegen gerade bestimmte Elemente besondere Aufmerksamkeit genießen, ist dabei zunächst unerheblich; dies kann in der (subjektiven) relativen Wichtigkeit dieser Elemente ebenso begründet liegen wie in einer besonderen Hervorhebung dieser Elemente durch externe Kanalisierungen von Aufmerksamkeit (beispielsweise durch Medien). Im Hinblick auf die Einschätzung der Fans hinsichtlich der wettbewerblichen Ausgeglichenheit bzw. der Spannung einer professionellen Fußballiga mögen solche Aufmerksamkeitseffekte eine besondere Rolle spielen. Die relative Wichtigkeit eines Spieles - in den Augen der Fans - hängt plausibler Weise auch davon ab, um welche Positionen in der Meisterschaft es geht. So dürfte der Wettbewerb um Platz 1 in der Tabelle einer Liga mit 18 Vereinen als deutlich wichtiger und relevanter wahrgenommen werden als der Wettbewerb um Platz 10 - mit einer entsprechenden Verteilung der Aufmerksamkeit (sowohl inhärent als auch seitens der Medien). Den Wettbewerben um entscheidende Platzierungen - die Meisterschaft, die Qualifikationsplätze für die europäischen Wettbewerbe, Abstiegs- und Aufstiegsplätze usw. - dürfte in der Wahrnehmung der Fans eine deutlich höhere Wichtigkeit und Aufmerksamkeit zukommen als den ,unwichtigen' Kämpfen um Mittelfeldplätze 16 jenseits der entscheidenden Ränge. Von besonderer Bedeutung sind diese Effekte, weil sie die Einschätzung der Fans zur CB der gesamten Liga beeinflussen und zentral treiben können. Man betrachte beispielsweise die folgenden beiden Szenarien einer 18-Team-Liga: A) Der Wettbewerb um die Meisterschaft wird zwischen drei Teams, welche sehr ähnlich stark sind, bis zur letzten Minute der Saison ausgetragen und erst am letzten Spieltag entschieden. Im Mittelfeld hingegen sind die Abstände zwischen den Teams relativ hoch, so dass der Wettbewerb um Platz 10 bereits einige Spieltage vor Saisonende entschieden ist. B) Ein Team dominiert die Liga und sichert sich die Meisterschaft lange vor dem Saisonende. Hingegen geht es im Kampf um Platz 10 zwischen vier ebenbürtigen Teams hoch her und eine Entscheidung fallt erst am letzten Spieltag. Es ist zu erwarten, dass die Fans Szenario A eine höhere PCB beimessen als Szenario B. Allerdings werden die üblicherweise verwendeten OCB-Indikatoren nicht notwendigerweise zum gleichen Ergebnis kommen, da sie nicht zwischen einem ausgeglichenen

16

Dies dürfte selbst dann gelten, wenn für die Teilnehmer selbst auch die Frage, ob Platz 10 oder 11 realisiert wird, von einer gewissen Bedeutung ist, weil zentral eingeworbenen Einnahmen (beispielsweise Einnahmen aus dem Verkauf von Übertragungsrechten bei Zentralvermarktung) gemäß eines Leistungsschlüssels verteilt werden und damit jede Platzverbesserung in der Liga (zumindest marginal) höhere Einnahmen bedeutet. Es erscheint jedoch zweifelhaft, dass solche Regulierungen dazu fuhren, dass Fans Mittelfeldwettbewerbe ähnlich gewichten wie Meisterschaftsentscheidungen - insbesondere vor dem Hintergrund, dass gemäß neuerer empirischer Forschung selbst die Teilnehmer der Liga den Mittelfeldkämpfen ein geringeres Gewicht beimessen und ihr Einsatzniveau reduzieren (Feddersen, Humphreys und Soebbing 2012).

Sportpolitik und

Verhaltensökonomik

297

Wettbewerb um die relativ wichtige Position 1 und einem ausgeglichenen Wettbewerb um die relativ unwichtige Position 10 diskriminieren, sondern beide gleich gewichten. Mit anderen Worten, OCB-Indikatoren, welche die wettbewerbliche Ausgeglichenheit der Liga insgesamt messen, werden typischer Weise von der wahrgenommenen CB divergieren, da die Fans mehrheitlich ihre Aufmerksamkeit auf wenige, als besonders wichtig wahrgenommene Subwettbewerbe konzentrieren werden. Dem entsprechend sollte der Unterschied zwischen OCB und PCB geringer werden, wenn OCB-Indikatoren eingesetzt werden, welche genau auf die relevanten Subwettbewerbe, also beispielsweise das Meisterschaftsrennen, fokussieren. In unserer empirischen Forschung haben wir die Fans nicht nur nach ihrer allgemeinen Einschätzung von Spannung und wettbewerblicher Ausgeglichenheit ,ihrer' Liga gefragt (siehe Abb. 2 in Abschnitt 3.2), sondern auch zu 11 Aspekten, welche die unterschiedlichen Dimensionen der CB (siehe Abschnitt 2.3) reflektieren. Darunter befinden sich auch Fragen nach der Spannung der fußballtypischen Subwettbewerbe (vgl. Abb. 4). Und tatsächlich ergibt sich hier teilweise eine größere Übereinstimmung zwischen OCB und PCB. Betrachtet man beispielsweise das Meisterschaftsrennen, so erzielt die dänische Superligaen den schlechtesten PCB-Wert, wird also im Hinblick auf diese Entscheidung von ihren Fans in stärkerem Maße als unausgeglichen wahrgenommen als die niederländische Eredivisie und deutsche Bundesliga von jeweils ihren Fans. Dies korrespondiert mit der simplen Statistik, dass es in den fünf Spielzeiten vor unserer Befragung in Deutschland und den Niederlanden jeweils 4 verschiedene Meister gab, in Dänemark hingegen der FC Kopenhagen alle bis auf eine Meisterschaft für sich entscheiden konnte. Zu einem ähnlichen Ergebnis kommt man, wenn man sich die durchschnittlichen Punktevorteile der Meister gegenüber ihren härtesten Konkurrenten anschaut (siehe Abb. 5). Während die Meister der deutschen und der niederländischen Liga im Durchschnitt 5,2 bzw. 3,4 Punkte Vorsprung hatten, so waren es in Dänemark 12,4 Punkte. Dies kann als Unterstützung für die These aufgefasst werden, dass die Spannung des Meisterschaftsrennens von herausragender Bedeutung für die wahrgenommene Spannung ist - und in den Augen der Fans wichtiger als die wettbewerbliche Ausgeglichenheit der Liga insgesamt. Neben den sportpolitischen Implikationen (siehe Abschnitt 4) würde dies für die sportökonomische Forschung auch bedeuten, dass die sogenannte mittelfristige Dimension der CB (siehe die gängige Klassifizierung in Abschnitt 2.3) von größerer Relevanz ist. Dies ist insofern eine bedeutsame Erkenntnis, da die empirischen Analysen bisher vorwiegend auf die anderen beiden CBDimensionen gerichtet und dem entsprechend auch statistische und ökonometrische Indikatoren für die CB von Subwettbewerben noch vergleichsweise unterentwickelt sind (Fort und Maxcy 2003).

298

Oliver Budzinski und Tim Pawlowski

Abbildung 4: Fans' Evaluation of Different Dimensions of Excitement in the Danish Superligaen (DSL), the Dutch Eredivisie (DED) and the German Bundesliga (GBL)

t/ 3,44

V\

2,89 J

lÉf

2,7

• DSL

's 1'3,39 3,17 !

SB

mm»Hpi

TS

1



a DED

3,15 3,09

nGBL 3,36

.

.

I i

"Thefighifor the title remains "Thefightforqualifying places "Thefightfor qualifying places "The fight against relegation exciting for a long time" for the UEFA CL remains for the UEFA EL remains remains exciting for a tong exciting for a long time" excitingfora long time" time" "Thinking back to previous seasons, what is your opinion of your league with regard to...?" (1=1 do not agree...4=1 agree completely); Sample average

Quelle: Pawlowski 2013a; Pawlowski und Budzinski 2014, S. 158.

Abbildung 5: Average Number of Points ahead in the Danish Superligaen, the Dutch Eredivisie and the German Bundesliga 12,0 10,0 а,o б,0 4.0 2,0 0,0

12,4

^•.3.4 • V - - — Champion

• DSL s DED OGBL

6.2 f k

sssamP f

B i r

Club with UEFA CL qualification possibility

h h R



4.2

2,2 | -

-

-v

i /

Club with UEFA EL qualification possibility

Quelle: Pawlowski und Budzinski 2014, S. 159.

4.

Sportpolitische Implikationen

Wie in Abschnitt 2.2 ausfuhrlich dargelegt wurde, stellt die sportökonomische Standardtheorie mit ihrer zentralen Hypothese, dass mehr CB stets zu mehr Nachfrage führen und somit die Wohlfahrt der Marktteilnehmer ebenso erhöhen würde wie die Fanwohlfahrt, einen wesentlichen Grund dar, eine Vielzahl unterschiedlicher marktinterner Regulierungen im Sport durchzuführen und zu akzeptieren. Dazu gehören regelmäßig auch solche, die in anderen Märkten als antikompetitiv eingeschätzt und untersagt würden (siehe die Liste typischer marktintemer Regulierungen durch Sportverbände in Abschnitt 2.2). Zweifel an der zentralen Hypothese, dass mehr CB stets besser sei als weniger, führen somit auch dazu, dass sonstige negative Effekte marktinterner Regulierung nicht mehr so ohne weiteres zu rechtfertigen seien, weil mindestens unklar wird, ob positive CBEffekte (wenn es sie denn gibt) sie überkompensieren würden. Insofern stellen die theoretischen Herausforderungen und der Mangel an empirischer Unterstützung für die Standardtheorie (siehe Abschnitt 2.3) ein erhebliches Problem für marktmächtige Sportverbände dar, da sie die Rechtfertigung ihrer profitablen Sportpolitik (Ausnutzung der Marktmacht) erodieren. Schließlich haben die theoretischen und empi-

Sportpolitik und

Verhaltensökonomik

299

rischen Zweifel das Potenzial, die Rolle einer wettbewerblichen Ausgeglichenheit insgesamt für irrelevant zu erklären. Insofern stellt eine verhaltensökonomische Perspektive in gewisser Weise tatsächlich eine positive Nachricht für die CB-Tradition bereit: CB spielt für die Nachfrage der Fans eine Rolle und ist keinesfalls irrelevant! Allerdings ist es die wahrgenommene wettbewerbliche Ausgeglichenheit (PCB), welche über eine steigende Spannung den Grenznutzen und damit die Zahlungsbereitschaft der Fans erhöht, und diese ist nicht identisch mit den üblicherweise und mehrheitlich in der Literatur verwendeten Messindikatoren für CB (OCB). Dem entsprechend kann es für ansonsten fragwürdige Regulierungen nicht als Rechtfertigung ausreichen, dass diese die standardmäßig gemessene OCB erhöhen würde. Bei einer näheren Betrachtung zeigt sich dann auch, dass die Erkenntnisse einer verhaltensökonomischen Betrachtung den Spielraum für marktinterne Regulierungen deutlich enger - und anders ausgerichtet - sehen, als es der gegenwärtig üblichen Praxis vieler Sportverbände entspricht. Die stärkste Unterstützung von CB-bewahrenden oder CB-fördernden Regulierungen liefern die Schwelleneffekte (siehe Abschnitt 3.2), da sie ein Argument dafür liefern, CBEffekte von Regulierungen nicht allein deswegen zu vernachlässigen, weil sich gegenwärtig bzw. in der unmittelbaren Vergangenheit keine empirischen Effekte marginaler CB-Änderangen auf die Nachfrage zeigen lassen. Die fehlende Reaktion mag schließlich darin begründet sein, dass sich die bisherigen Änderungen innerhalb des Satisfizierungsbereiches abgespielt haben, mithin auf Niveaus, die den Fans hinreichend hoch genug wahren. Droht freilich ein Absinken unter diese Schwelle, müsste mit sprunghaften nachteiligen Änderungen zu rechnen sein, was wiederum ein Argument dafür sein kann, dies durch sportpolitische Eingriffe zu verhindern (im Sinne eines sportpolitischen Vorsichtsprinzips). Problematisch ist dabei allerdings, dass sich diese Schwellenwerte ex ante nicht so ohne weiteres determinieren lassen und CB-fordernde, aber ansonsten restriktive Politiken oberhalb des Schwellenwertes lediglich die negativen restriktiven Effekte aufweisen werden. Insofern ist Vorsicht geboten, wenn die Relevanz der CB-Effekte (im Sinne der Schwelleneffekte) unklar ist, die marktinterne Regulierung aber restriktive und/oder antikompetitive Effekte mit sich bringt. Diese Skepsis bezüglich CB-motivierter restriktiver marktinterner Intervention verstärkt sich, wenn man bedenkt, dass Framing-EiitYXc bewirken, dass sich Fans an länger existierende OCB-Niveaus gewöhnen und lediglich erhebliche Abweichungen davon zu Änderungen der PCB führen (siehe Abschnitt 3.1). Beide Effekte zusammenfassend könnte man formulieren, dass marktinterne Regulierung durch Sportverbände, welche restriktive bzw. antikompetitive Effekte mit sich bringt, nur dann durch eine CB-Verteidigung gerechtfertigt werden kann, wenn (1) eine erhebliche Unausgeglichenheit besteht oder sich die OCB erheblich und nicht-antizipierbar verschlechtert (d.h. eine starke Änderung des Niveaus auftritt), (2) durch die Intervention des Sportverbandes eine wesentliche Verbesserung des OCB-Niveaus mit hinreichender Sicherheit erzielt werden kann (d.h. Effektivität der Maßnahmen) und

300

Oliver Budzinski und Tim Pawlowski

(3) es keine weniger restriktiven Maßnahmen gibt, die vergleichbare CB-Effekte erzielen können (wobei es hier um ungefähr ähnliche und nicht absolut identische Effekte geht); zudem gilt: (4) Je restriktiver die Effekte der Maßnahme, umso größer und sicherer müssen die CB-Niveaueffekte sein. Auch ohne eine weitere Analyse bestimmter Politikmaßnahmen lässt sich erkennen, dass der Spielraum für restriktive bzw. antikompetitive Regulierungen durch Sportverbände bei einer solchen Kriterienliste nicht allzu groß ausfallen würde, insbesondere dann nicht, wenn es Aufgabe des marktmächtigen Sportverbandes wäre, die Größe und Sicherheit der CB-Effekte nachzuweisen. Auch wenn einem die eben aufgelisteten Bedingungen im Hinblick auf die Praxis der Sportverbände, welche kommerzielle bzw. professionelle Sportarten regulieren (es sei nochmal auf die Liste typischer Interventionen in Abschnitt 2.2 verwiesen), bereits sehr weitreichend erscheinen und eine erhebliche Änderung der Sportpolitik nach sich ziehen würden, so steckt das eigentlich revolutionäre Potenzial in den dritten diskutierten Effekten, nämlich den Implikationen der Aufmerksamkeitseffekte. Diese legten ja nahe, dass für das Verhalten der Fans (und somit letztlich für ihre Grenznutzen und die Fanwohlfahrt) in erster Linie spannende Subwettbewerbe innerhalb einer professionellen Fußballiga relevant sind - und nicht etwa die sportliche Ausgeglichenheit der Liga insgesamt. 17 Mit anderen Worten, es kommt darauf an, dass beispielsweise der Meisterschaftskampf und der Abstiegskampf hinreichend spannend (im Sinne der outcome uncertainty) sind, und nicht darauf, dass alle 18 Mannschaften der Liga tingefahr gleich stark sind! In der Annahme, letzteres würde die Fanwohlfahrt beeinflussen, d.h. letzteres wäre das, was für Fans Spannung ausmacht, liegt der zentrale Irrtum großer Teile der CB-fokussierten Sportökonomik. Radikal formuliert ließe sich sagen, dass die wettbewerbliche Ausgeglichenheit aller Mannschaften der Liga (d.h. jeder hat die gleiche ex ante Wahrscheinlichkeit, zu gewinnen und Meister zu werden) irrelevant bzw. vor dem Hintergrund von Superstareffekten u.ä. sogar schädlich ist. Viel relevanter ist es, dass die als wichtig wahrgenommenen Subwettbewerbe nicht dominiert werden, sondern dass es hier hinreichend viele wettbewerblich ausgeglichene Mannschaften gibt, um einen möglichst offenen (und spannenden) Ausgang des Subwettbewerbs zu garantieren. In ökonomischer Sprache wäre somit ein Oligopol an Mannschaften, das um die Meisterschaft kämpft, und ein anderes Oligopol, welches gegen den Abstieg kämpft, relevant, um fanwohlfahrtsgerecht die Ertragsmöglichkeiten der Liga zu maximieren. Der Abstand zwischen diesen Oligopolen sowie die CB zwischen den im unwichtigen' Mittelfeld kämpfenden Mannschaften ist hingegen wenig relevant - und könnte dem entsprechend ohne Schaden auch sehr groß (Abstand) bzw. sehr klein (Mittelfeld-CB) sein. Eine Frage, die sich dann stellt, wäre jene nach der optimalen Größe dieser Subwettbewerbsoligopole. Dem traditionellen Denken folgend, könnte man auch hier zunächst

17

Selbstverständlich gelten die folgenden Überlegungen analog auch für andere Arten professioneller bzw. kommerzieller Sportmeisterschaften.

Sportpolitik und Verhaltensökonomik

301

einmal argumentieren, dass möglichst weite Oligopole vorteilhaft sind. Es wäre aber kritisch zu hinterfragen, ob ein enger Meisterschaftskampf zwischen 6, 7 oder 8 sehr ausgeglichenen Teams wirklich spannender sein muss als jener zwischen ,nur' 3 oder 4 Mannschaften. Nimmt man Superstar- und Markeneffekte (siehe Abschnitt 2.3) hinzu, so könnte auch einiges dafür sprechen, dass enge Oligopole hinreichend für satisfizierende Spanungsniveaus sind. Im Extremfall kann ein Duopol ausreichen: Ein enger Meisterschaftskampf zwischen zwei ebenso populären wie polarisierenden Teams kann mühelos zu den - in den Augen der Fans - besten Saisons aller Zeiten zählen. Allerdings ist auch hinsichtlich allzu enger Oligopole mit Vorsicht zu argumentieren: Wenn beispielsweise aus einem Duopol um die Meisterschaft eine Mannschaft wegbricht, dann droht eine (schädliche) Dominanz, die sich unter Umständen nicht so ohne weiteres aufbrechen lässt, wenn alle anderen in ihrer Wettbewerbsfähigkeit weit hinterherhinken. Während in Spanien das Dauerduopol von Real Madrid und dem FC Barcelona (das sich seit der abgelaufenen Saison mit Athletico Madrid möglicherweise mittelfristig zu einem Triopol entwickeln wird) in Anbetracht der finanziellen Rahmenbedingungen der Vereine durchaus fiir nachhaltige Spannung sorgen kann, könnte man eventuell die schottische Liga als Beispiel heranziehen, wo ein ehemaliges Duopol nach dem Zwangsabstieg der Glasgow Rangers zu einem Monopol mit Celtic Glasgow als den alles dominierenden Verein geworden ist - und wer weiß, ob sich die Bundesliga nicht auf dem schottischen Weg befindet? Insofern deuten die hier angestellten Plausibilitätsüberlegungen darauf hin, dass die Oligopole um die Subwettbewerbe nicht zu eng sein sollten, aber zweifellos ist hier weitere Forschung notwendig. Unabhängig davon, ob nun eher enge oder eher weite Oligopole optimal sind, so fuhrt der Vorrang ausgeglichener Subwettbewerbe vor einer insgesamt ausgeglichenen Liga zu erheblichen Implikationen für typische Sportpolitikmaßnahmen. Diese sind nämlich in vielen Fällen am Ideal der wettbewerblichen Ausgeglichenheit aller Ligateilnehmer ausgerichtet, wie beispielsweise Reallokationsmechanismen im Rahmen der Zentralvermarktung, ,Revenue Sharing'-Modelle für Ticket- oder Sponsoreinnahmen, verschiedene Arten von ,Salary' und ,Payroll Caps' oder Regulierungen des Talentmarktes. Diesen geht es regelmäßig darum, dass der Abstand zwischen den stärksten und den schwächsten Teams der Liga nicht zu groß wird, mit anderen Worten, sie atmen den Geist der Ligaausgeglichenheit. Ist aber die Ausgeglichenheit der Subwettbewerbe viel relevanter, so wäre es unter Umständen vorteilhafter - aus Ligamanagementperspektive wie auch aus Wohlfahrtsperspektive - , Maßnahmen so auszurichten, dass sie eine genügende Zahl an Spitzenteams ebenso sicherstellen wie eine hinreichende Ausgeglichenheit zwischen den schwächeren Teams. Der Abstand zwischen beiden hingegen bedürfte keines regulatorischen Eingriffs, bzw. solche Interventionen könnten sogar schädlich sein, wenn sie relativ zu Lasten der zweit-, dritt- und viertstärksten Teams (im Vergleich zur stärksten Mannschaft) gehen. Interessant sind vor diesem Hintergrund Konzepte relativer Budgetcaps ä la UEFA ,Financial Fair Play'-Regulierungen, welche darauf zielen, bestehende Unterschiede in den finanziellen Leistungsfähigkeiten der Wettbewerber einzufrieren bzw. zu zementieren (Budzinski 2014; Szymanski 2014). Man könnte sich vorstellen, dass diese sehr wohl kompatibel mit den hier geäußerten Ideen sein könnten, wenn denn eine entsprechende

302

Oliver Budzinski und Tim Pawlowski

Oligopolstruktur zum Zeitpunkt der Regulierung bestand. Spannend wäre es, die dem System inhärente Verhinderung von Aufholinvestitionen durch Oligopolaußenseiter durch die diskriminierende Definition sogenannter relevanter Einkünfte durch die UEFA (mit dem Ziel, Finanzzuschüsse durch vermögende Privatpersonen zu reduzieren) vor diesem Hintergrund zu analysieren (Budzinski und Szymanski 2015).

5.

Fazit

Zu den zentralen Kernpunkten der sportökonomischen Standardtheorie gehört die Hypothese, dass eine stärkere wettbewerbliche Ausgeglichenheit (,Competitive Balance') den Grenznutzen des Konsums eines kommerziellen Sportereignisses erhöht und somit eine höhere Nachfrage und Zahlungsbereitschaft bewirkt. Diese entsteht daraus, dass die Konsumenten professioneller Sportereignisse eine Präferenz für Spannung haben und eine höhere wettbewerbliche Ausgeglichenheit mehr Spannung durch größere Ergebnisunsicherheit bewirkt. Daher ist ein möglichst ausgeglichener sportlicher Wettbewerb aus Sicht der Organisatoren professioneller Sportereignisse, wie beispielsweise einer professionellen bzw. kommerziellen Fußballiga, vorteilhaft und trägt zur Maximierung der Erträge bei. Da gemäß der vorherrschenden Hypothese ein präferenzgerechteres Produkt angeboten wird, steigt neben den Anbietererträgen auch die Wohlfahrt. Diese Denkweise ist von zentraler sportpolitischer Bedeutung, da sportpolitische Interventionen in den sportlichen und ökonomischen Wettbewerb - beides ist kaum voneinander trennbar - oftmals genau mit dieser Argumentation begründet werden, insbesondere wenn ansonsten restriktive und antikompetitive Effekte des regulativen Eingriffs auftreten, welche eben nur über die CB-Verteidigung im Sinne einer Wohlfahrtsanalyse zu rechtfertigen sind. Sportpolitische Eingriffe in den Wettbewerb erfolgen dabei typischerweise marktintem durch Sportverbände und werden durch die eigentliche, staatliche Politik regelmäßig akzeptiert oder durch Sonderregeln alimentiert. In jüngerer Zeit hat sich allerdings innerhalb der Sportökonomik immer mehr Zweifel an der strikten Gültigkeit der CB-Hypothese geregt. Dazu haben sowohl neuere theoretische Entwicklungen als vor allem aber auch der Mangel an empirischen Belegen zu Gunsten der CB-Hypothese (bei einer wachsenden Vielzahl an empirischer Evidenz, die entweder keinen oder gar einen gegenläufigen Zusammenhang findet) beigetragen. In diesem Kapitel fügen wir zu dieser Diskussion sowohl einen theoretischen als auch einen empirischen Beitrag hinzu. Auf der Grundlage einer verhaltensökonomischen Auseinandersetzung damit, wie Fans Spannung und wettbewerbliche Ausgeglichenheit wahrnehmen, resümieren wir die Erkenntnisse eines empirischen Drei-Länder-Projektes, in welchem wir Besucher und andere Fans von professionellen Fußballspielen befragt haben. Genauer gesagt diskutieren wir theoretisch und empirisch Framing-, Schwellen- \in&Aufmerksamkeits-Effekte. Dabei zeigt sich, dass sich die Wahrnehmung von Spannung und wettbewerblicher Ausgeglichenheit signifikant von jener unterscheidet, wie sie in der sportökonomischen Literatur mit Hilfe statistischer Analyse objektiver Daten hergeleitet wird. Diese Einsicht kann einerseits zu einer .Ehrenrettung' der CB-Hypothese beitragen - allerdings auf der Basis einer wahrgenommenen CB (PCB); sie weist andererseits aber auch daraufhin, dass in vielen Situationen statistisch messbare CB-Veränderungen über-

Sportpolitik und

Verhaltensökonomik

303

haupt nicht wahrgenommen werden (beispielsweise oberhalb von Satisfizierungsschwellen oder innerhalb von großzügigen Spielräumen um Referenzpunkte herum) - und damit handlungsirrelevant sind. Hinzu kommt, dass PCB sich in erster Linie auf Teile des sportlichen Wettbewerbs und nicht auf selbigen in einer Gesamtheit bezieht. Ob als relevant wahrgenommene Subwettbewerbe wie der Kampf um die Meisterschaft oder jener gegen den Abstieg spannend im Sinne einer wettbewerblichen Ausgeglichenheit sind, ist für die Gesamtbewertung der Fans (und ihr Nachfrageverhalten) deutlich relevanter als die Frage, ob die Liga insgesamt ausgeglichen ist - ein Konzept, auf das die Literatur sich bisher mehrheitlich verlegt hat. Diese Unterschiede zwischen dem traditionellen Konzept wettbewerblicher Ausgeglichenheit und der Fanwahrnehmung bringen erhebliche sportpolitische Implikationen mit sich. So sind ansonsten restriktive und antikompetitive (marktinterne wie marktexterne) Eingriffe in den sportlichen und ökonomischen Wettbewerb nur in wenigen, besonderen Situationen einer CB-Verteidigung zugänglich, da nämlich in vielen Fällen CB-Änderungen - selbst wenn sie durch die Politikmaßnahmen bewirkt werden sollten (was ja politökonomisch auch noch zweifelhaft sein kann) - keine Verhaltenseffekte bewirken, weil sie unterhalb von Wahrnehmungsschwellen bzw. außerhalb von Wahrnehmungsbereichen bleiben. Es besteht somit aus ökonomischer Sicht eine besondere Nachweispflicht für Sportverbände, wenn sie antikompetitiv in die Märkte eingreifen wollen, um die CB zu wahren oder zu verbessern - eine Nachweispflicht, welche auf tatsächliche Nutzenund Nachfrageeffekte abzielt. Noch weiterreichende Implikationen folgen aus dem Fokus der Fans auf Subwettbewerbe: Anstelle von regulatorischen Eingriffen, welche die wettbewerbliche Ausgeglichenheit der gesamten Liga verbessern, könnten aus ökonomischer Sicht Politikmaßnahmen vorteilhaft sein, die , lediglich' sicherstellen, dass relevante Subwettbewerbe, wie das Meisterschaftsrennen, hinreichend spannend sind, d.h. dass es hierfür hinreichend viele ausgeglichene starke Wettbewerber gibt. Hierfür mögen unter Umständen nachhaltige enge Oligopole vollkommen ausreichend oder sogar überlegen sein. Es wird interessant sein, ob zweifellos notwendige weitere Forschung diese Tendenz in den Implikationen bestätigt, mit weitreichenden Konsequenzen für die Regulierungspraxis von Sportverbänden in kommerziellen und professionellen Sportwettbewerben.

Literatur Adler, Moshe (1985), Stardom and Talent, in: American Economic Review, Vol. 75, S. 208-212. Benz, Men-Andri, Leif Brandes und Egon Franck (2009), Do Soccer Associations Really Spend on a Good Thing? Empirical Evidence on Heterogeneity in the Consumer Response to Match Uncertainty of Outcome, in: Contemporary Economic Policy, Vol. 27 (2), S. 216235. Budzinski, Oliver (2012), The Institutional Framework for Döing Sports Business: Principles of EU Competition Policy in Sports Markets, in: International Journal of Sport Management and Marketing, Vol. 11 (1-2), 2012, S. 44-72. Budzinski, Oliver (2014), The Competition Economics of Financial Fair Play, in: Oliver Budzinski und Arne Feddersen (Hg.), Contemporary Research in Sports Economics: Proceedings of the S"1 ESEA Conference, Frankfurt a.M., S. 75-96.

304

Oliver Budzinski und Tim Pawlowski

Budzinski, Oliver und Anika Müller (2013), Finanzregulierung und internationale Wettbewerbsfähigkeit: Der Fall Deutsche Bundesliga, in: Ralf Dewenter, Justus Haucap und Christiane Kehder (Hg.), Wettbewerb und Regulierung in Medien, Politik und Märkten, Baden-Baden, S. 261-290. Budzinski, Oliver und Stefan Szymanski (2015), Are Restrictions of Competition by Sports Associations Horizontal or Vertical in Nature?, in: Journal of Competition Law & Economics, forthcoming. Buraimo, Babatunde und Robert Simmons (2008), Do Sports Fans Really Value Uncertainty of Outcome? Evidence from the English Premier League, in: International Journal of Sport Finance, Vol. 3 (3), S. 146-155. Cairns, John P., Nick Jennett und Peter Sloane (1986), The Economics of Professional Team Sports: A Survey of Theory and Evidence, in: Journal of Economic Studies, Vol. 13 (1), S. 3-80. Coates, Dennis und Brad R. Humphreys (2010), Week to Week Attendance and Competitive Balance in the National Football League, in: International Journal of Sport Finance, Vol. 5 (4), S. 239-252. Coates, Dennis und Brad R. Humphreys (2012), Game Attendance and Outcome Uncertainty in the National Hockey League, in: Journal of Sports Economics, Vol. 13 (4), S. 364-377. Coates, Dennis, Brad R. Humphreys und Li Zhou (2015), Outcome Uncertainty, Reference-Dependent Preferences and Live Game Attendance, in: Economic Inquiry (forthcoming). Czamitzki Dirk und Georg Stadtmann (2002), Uncertainty of outcome versus reputation: Empirical evidence for the First German Football division, in: Empirical Economics, Vol. 27, S. 101-112. DFL (2014), Bundesliga Report 2014: Die wirtschaftliche Situation im Lizenzfußball, Frankfurt a.M.. Dietl, Helmut M. (2011), Besonderheiten des Sports - Was rechtfertigt eine eigene Ökonomik?, in: Eike Emrich, Christian Pierdzioch und Martin-Peter Büch (Hg.), Europäische Sportmodelle: Gemeinsamkeiten und Differenzen in international vergleichender Perspektive, Schorndorf, S. 17-36. Downward, Paul, Alistair Dawson und Trudo Dejonghe (2009), Sports Economics: Theory, Evidence and Policy, London. El-Hodiri, Mohamed und James Quirk (1971), An Economic Model of a Professional Sports League, in: Journal of Political Economy, Vol. 79, S. 1302-1319. Feddersen, Arne, Malte Borcherding und Wolfgang Maennig (2006), The novelty effect of the new football stadia: The case of Germany, in: International Journal of Sport Finance, Vol. 1 (3), S. 174-188. Feddersen, Arne, Brad R. Humphreys und Brian P. Soebbing (2012), Contest Incentives in European Football, Working Paper No. 2012-13, University of Alberta. Flores, Ramon, David Forrest und Juan D. Tena (2010), Impact on Competitive Balance from Allowing Foreign Players in a Sports League: Evidence from European Soccer, in: Kyklos, Vol. 63, S. 546-557. Forrest, David und Robert Simmons (2002), Outcome Uncertainty and Attendance Demand: The Case of English Soccer, in: Journal of the Royal Statistical Society, Series D (The Statistician), Vol. 51, S. 229-241. Forrest, David und Robert Simmons (2006), New issues in attendance demand: The case of the English Football League, in: Journal of Sports Economics, Vol. 7 (3), S. 247-266.

Sportpolitik und Verhaltensökonomik

305

Forrest, David, James Beaumont, John Goddard und Robert Simmons (2005), Home Advantage and the Debate about Competitive Balance in Professional Sports Leagues, in: Journal of Sports Sciences, Vol. 23, S. 439-445. Fort, Rodney und Joel Maxcy (2003), Competitive Balance in Sports Leagues: An Introduction, in: Journal of Sports Economics, Vol. 4 (2), S. 154-160. Fort, Rodney und James Quirk (1995), Cross-Subsidization, Incentives and Outcomes in Professional Team Sports Leagues, in: Journal of Economic Literature, Vol. 33 (3), S. 1265-1299. Franck, Egon (2014), Financial Fair Play in European Club Football - What is it All About?, in: International Journal of Sports Finance, Vol. 9 (3), S. 193-217. Franck, Egon und Stephan Nüesch (2007), Avoiding 'Star Wars': Celebrity Creation as Media Strategy, in: Kyklos, Vol. 60 (2), S. 211-230. Hart, Robert A., J. Hutton und T. Sharot (1975), A statistical analysis of association football attendances, in: Applied Statistics, 24(1), S. 17-27. Humphreys, Brad R. (2002), Alternative Measures of Competitive Balance in Sports Leagues, in: Journal of Sports Economics, Vol. 3 (2), S. 133-148. Jennett, Nicholas (1984), Attendances, Uncertainty of Outcome and Policy in Scottish League Football, in: Scottish Journal of Political Economy, Vol. 31, S. 176-198. Kahn, Lawrence M. (2009), Sports, Antitrust Enforcement and Collective Bargaining, in: The Antitrust Bulletin, Vol. 54 (4), S. 857-881. Kesenne, Stefan (2000), Revenue Sharing and Competitive Balance in Professional Team Sports, in: Journal of Sports Economics, Vol. 1 (1), S. 56-65. Könecke, Thomas und Mathias Schubert (2014), Socio-economic Doping and Enhancement in Sport: A Case-based Analysis of Dynamics and Structural Similarities, in: Oliver Budzinski und Arne Feddersen (Hg.), Contemporary Research in Sports Economics: Proceedings of the 5th ESEA Conference, Frankfurt a.M., S. 97-114. Kringstad, Morten und Bill Gerrard (2005), Theory and Evidence on Competitive Intensity in European Soccer, International Association of Sports Economists Conference Paper, 0508. Leach, Stephanie A. (2006), Financial viability and competitive balance in English football, London. MacDonald, Glenn (1988), The Economics of Rising Stars, in: American Economic Review, Vol. 78, S. 155-166. Maxcy, Joel (2014), The American View on Financial Fair Play, in: Oliver Budzinski und Arne Feddersen (Hg.), Contemporary Research in Sports Economics: Proceedings of the 5th ESEA Conference, Frankfurt a.M., S. 57-73. Neale, Walter C. (1964), The Peculiar Economics of Professional Sports: a Contribution to the Theory of the Firm in Sporting Competition and in Market Competition, in: Quarterly Journal of Economics, Vol. 78 (1), S. 1-14. Pawlowski, Tim (2013a), Wettbewerbsintensität im Profifußball - Eine empirische Untersuchung zur Bedeutung für die Zuschauer, Wiesbaden. Pawlowski, Tim (2013b), Testing the Uncertainty of Outcome Hypothesis in European Professional Football: A Stated Preference Approach, in: Journal of Sports Economics, Vol. 14 (4), S. 341-367. Pawlowski, Tim (2014a), Sportökonomik: Einführung kompakt, Konstanz. Pawlowski, Tim (2014b), Competitive Balance, in: Christian Deutscher, Gregor Hovemann, Tim Pawlowski und Lutz Thieme (Hg.), Handbuch Sportökonomik, Schorndorf, forthcoming.

306

Oliver Budzinskì und Tim Pawlowski

Pawlowski, Tim und Christoph Anders (2012), Stadium Attendance in German Professional Football: The (Un)Importance of Uncertainty of Outcome Reconsidered, in: Applied Economics Letters, Vol. 19, S. 1553-1556. Pawlowski, Tim, Christoph Breuer und Arnd Hovemann (2010), Top Clubs' Performance and the Competitive Situation in European Domestic Football Competitions, in: Journal of Sports Economics, Vol. 11, S. 186-202. Pawlowski, Tim und Oliver Budzinski (2013), The (Monetary) Value of Competitive Balance for Sport Consumers - A Stated Preference Approach to European Professional Football, in: International Journal of Sport Finance, Vol. 8 (2), S. 112-123. Pawlowski, Tim und Oliver Budzinski (2014), Competitive Balance and Attention Level Effects: Theoretical Considerations and Empirical Evidence, in: Oliver Budzinski und Arne Feddersen (Hg.), Contemporary Research in Sports Economics: Proceedings of the 5th ESEA Conference, Frankfurt a.M., S. 147-160. Peel, David A. und Dennis A. Thomas (1992), The demand for football: Some evidence on outcome uncertainty, in: Empirical Economics, 17 (2), S. 323-331. Peeters, Thomas und Stefan Szymanski (2014a), Financial Fair Play: Winners and Losers on and off the Pitch, in: Oliver Budzinski und Arne Feddersen (Hg.), Contemporary Research in Sports Economics: Proceedings of the 5th ESEA Conference, Frankfurt a.M., S. 15-31. Peeters, Thomas und Stefan Szymanski (2014b), Financial Fair Play in European Football, in: Economic Policy, forthcoming. Preuss, Holger, Kjetil Haugen und Mathias Schubert (2014), UEFA Financial Fair Play: The Curse of Regulation, in: European Journal of Sport Studies, Vol. 2 (1), S. 33-51. Rosen, Sherwin (1981), The Economics of Superstars, in: American Economic Review, Vol. 71 (5), S. 845-858. Ross, Stephen F. (1989), Monopoly Sports Leagues, in: Minnesota Law Review, Vol. 73 (3), S. 643-761. Ross, Stephen F. (2003), Competition Law as a Restraint on Monopolistic Exploitation by Sports Leagues and Clubs, in: Oxford Review of Economic Policy, Vol. 19 (4), S. 569-584. Rottenberg, Simon (1956), The Baseball Player's Labour Market, in: Journal of Political Economy, Vol. 64 (3), S. 242-258. Rottmann, Horst und Franz Seitz (2008), Wer oder was bestimmen die Zuschauerzahlen in der Fußballbundesliga?, in: Schmollers Jahrbuch - Zeitschrift für Wirtschafts- und Sozialwissenschaften, Vol. 128 (2), S. 291-306. Saldsieder, Nina und Dirk Wentzel (2014), Ordnungsfragen und Notwendigkeiten für ein Financial Fair Play im europäischen Profifußball, erscheint in: ORDO - Jahrbuch für die Ordnung von Wirtschaft und Gesellschaft. Scelles, Nicolas, Christophe Durand, Liliane Bonnal, Daniel Goyeau und Wladimir Andreff (2013), Competitive Balance versus Competitive Intensity before a Match: Is one of these two Concepts more Relevant in Explaining Attendance?, in: Applied Economics, Vol. 45 (29), S. 4184-4192. Szymanski, Stefan (2001), Income Equality, Competitive Balance and the Attractiveness of Team Sports, in: The Economic Journal, Vol. 111, S. 69-84. Szymanski, Stefan (2006a), Tilting the Playing Field: Why a Sports League Planner Would Choose Less, Not More, Competitive Balance, IASE Working Paper 06-20. Szymanski, Stefan (2006b), Uncertainty of Outcome, Competitive Balance and the Theory of Team Sports, in: Wladimir Andreff und Stefan Szymanski (Hg.), Handbook on the Economics of Sport, Cheltenham, S. 597-600.

Sportpolitik und Verhaltensökonomik

307

Szymanski, Stefan (2006c), Competitive Balance in Sports Leagues and the Paradox of Power, IASE Working Paper 06-18. Szymanski, Stefan (2014), Fair Is Foul: A Critical Analysis of UEFA Financial Fair Play, in: International Journal of Sports Finance, Vol. 9 (3), S. 218-229. Szymanski, Stefan und Stefan Késenne (2004), Competitive Balance and Gate Revenue Sharing in Team Sports, in: The Journal of Industrial Economics, Vol. 52 (1), S. 165-177. Vrooman, John (1995), A General Theory of Professional Sports Leagues, in: Southern Economic Journal, Vol. 61 (4), S. 971-990. Zimbalist, Andrew (2002), Competitive Balance in Sports Leagues: An Introduction, in: Journal of Sports Economics, Vol. 3 (2), S. 111-121. Zimbalist, Andrew (2009), The BCS, Antitrust and Public Policy, in: The Antitrust Bulletin, Vol. 54 (4), S. 823-855.

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaftspolitik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

Korruption und Korruptionsbekämpfung aus Sicht der Verhaltensökonomik

Björn Frank

Inhalt 1.

Einleitung

310

2.

Vor der experimentellen Korruptionsforschung

310

3.

Die Entwicklung der experimentellen Korruptionsforschung

312

4.

Wirtschaftspolitisch relevante Erkenntnisse der verhaltensökonomischen Korruptionsforschung

314

4.1. Vieraugenprinzip

314

4.2. Personalrotation

315

4.3. Korruptionsbekämpfung durch Frauenforderung?

316

4.4. Was ist Korruption? Verhaltensökonomische Unterstützung für die Arnim Hypothese

316

Einige offene Fragen

318

5.1. Korruptionspersistenz

318

5.2. Externe Validität

320

5.

Literatur

322

310

1.

Björn Frank

Einleitung

Am 11. August 2014 wurde der Präsident des Weltschachbunds FIDE gewählt. Großmeister Anish Giri antwortete kurz zuvor auf die Frage, wen er, wenn er dürfte, wählen würde, den Ex-Schachweltmeister Garri Kasparov oder den ehemaligen Präsidenten der autonomen Republik Kalmückien Kirsan Iljumschinow: „At first I would try to get as much money from both of them as possible, and after that, as long as no one can see, I probably was for Garry."1 Dieses Beispiel zeigt zweierlei. Erstens ist in bestimmten Institutionen Korruption so selbstverständlich, dass man in der sicheren Erwartung, von jedem verstanden zu werden, Witze darüber machen kann. Zweitens: Ökonomische Analysen von Korruption müssen fast zwangsläufig verhaltensökonomisch sein. Wer Schmiergeld annimmt, der mag (implizit oder explizit) eine Gegenleistung versprechen, aber ein bindender Vertrag kann zwischen Bestechungsgeldgeber und -nehmer nicht geschlossen werden. Daher ist zweifelhaft, ob sich Homines Oeconomici auf korrupte Vereinbarungen einlassen würden; reale Akteure tun das offensichtlich, und deren Verhalten zu analysieren ist das Programm der Verhaltensökonomik (vgl. etwa Just 2014). Verhaltensökonomik ist nun nicht dasselbe wie experimentelle Wirtschaftsforschung, aber im Bereich der Korruptionsforschung sind bislang fast alle verhaltensökonomischen Arbeiten experimentell. In Kapitel 2 skizziere ich kurz die ,vor-experimentelle' empirische Korruptionsforschung, weil das erstens nützlich sein kann für die Beantwortung der Frage, welche Ansätze wir als verhaltensökonomisch ansehen wollen, und weil zweitens die experimentelle Korruptionsforschung durch die nicht-experimentelle motiviert wurde. In Kapitel 3 erläutere ich dann, wie experimentelle Korruptionsforschung im Prinzip funktioniert. Kapitel 4 beschreibt einige wirtschaftspolitisch relevante Ergebnisse (s.a. Lambsdorff 2012). Obwohl schon bei der Gelegenheit weiterer Forschungsbedarf erkennbar wird, schließt sich ein gesondertes Kapitel über offene Forschungsfragen an.

2.

Vor der experimentellen Korruptionsforschung

Nach der wohl gängigsten Definition ist Korruption der „Missbrauch anvertrauter Macht zum privaten Nutzen oder Vorteil" 2 . Unter Ökonomen kann man den Begriff der Korruption zweckmäßigerweise präzisieren als eine Variante der Prinzipal-AgentBeziehung. Diese ist dadurch charakterisiert, dass der Agent (z.B. ein Beamter) deshalb anders agiert, als der Prinzipal (z.B. der Staat) es wünscht, weil er auch seine eigenen Interessen verfolgt. Im Fall der Korruption verfolgt der Agent dagegen die Interessen Dritter, wofür diese Dritten eine Belohnung in Aussicht stellen. Das wirkt als Definition ein bisschen kompliziert, hat aber gegenüber dem ,Missbrauch anvertrauter Macht' den

1 2

http://www.youtube.com/watch?v=Wlwj4CCnkGM. http://www.transparency.de/was-ist-korruption.2176.0.html. Der eingangs erwähnte Stimmenkauf ist demnach natürlich auch ein Fall von Korruption, da ja Macht anvertraut wurde, in diesem Fall den wahlberechtigten Delegierten von den nationalen Schachverbänden.

Korruption und Korruptionsbekämpfung

311

Vorteil, dass nicht mehr ein einzelner Akteur - der Amtsinhaber - im Mittelpunkt steht, sondern die Beziehung zwischen Prinzipal und Agent sowie zwischen Agent und Bestechungsgeldzahler 3 . Ökonomen haben begonnen, sich für diese Beziehung zu interessieren, nachdem zunächst die Folgen der Korruption verstanden wurden. Ein Meilenstein hierfür war das Papier von Mauro (1995). Die ökonometrisch unkomplizierte Arbeit verwendet erstmals internationale Querschnittsdaten über das (wahrgenommene) Korruptionsniveau von Ländern und beendet eine fruchtlose Diskussion, die sich mangels Daten aus „vicarious problem solving" (Schelling 1978, S.18) speiste, also aus der Imagination eines im Armsessel sitzenden Ökonomen, was die Motive und Handlungen der korrupten Akteure sein mögen. Da kann es dann sein, dass Korruption allokativ neutral ist, weil immer das effizienteste Unternehmen die Ausschreibung gewinnt, denn das effizienteste Unternehmen kann die höchsten Bestechungsgelder zahlen, oder Korruption könnte gar positiv als ,Leistungsanreiz' für andernfalls träge Bürokraten wirken. Zwar glaubten wohl die wenigsten, dass dies die Schäden der Korruption überwiegt, aber ohne Evidenz kam die Diskussion nicht vom Fleck, bis Mauro zeigte, dass Korruption das BEPWachstum und die Investitionsquote senkt. Das ist nicht nur statistisch signifikant, sondern auch quantitativ bedeutsam; Mauro nennt das Beispiel Mexiko, dessen Investitionsquote immerhin um 5 Prozentpunkte stiege, wenn es das Korruptionsniveau von Italien erreichen würde, was sich nach einem durchaus erreichbaren Ziel anhört. Auf Mauro folgte eine Welle von Arbeiten, die die schädliche Wirkung von Korruption mit weiteren Kontrollvariablen bestätigten und vor allem mit besseren Datensätzen arbeiten konnten; bekannt ist insbesondere der Korruptionsperzeptionsindex (CPI) von Transparency International.'' Neben den Korruptionswirkungen lassen sich damit auch ihre Ursachen untersuchen. Die große Analyse der Korruptionsursachen mit internationalen Querschnittsdaten hat Treisman (2000) vorgelegt. Er untersucht eine Vielzahl möglicher Determinanten der Korruption; am Ende sind es sechs Variablen, die robust bei verschiedenen Spezifikationen - einen signifikanten Erklärungsbeitrag leisten und zusammen 89 % der Variation im Corruption Perception Index erklären. Drei davon das (logarithmierte) Bruttoinlandsprodukt pro Kopf, die Offenheit der Volkswirtschaft (approximiert durch die Importquote) und der Föderalismus - sind Variablen, deren Einfluss sich mit orthodoxer MikroÖkonomik erklären lässt. Ein weiterer Befund ist institutionenökonomisch: Ehemalige britische Kolonien sind weniger korrupt, mutmaßlich aufgrund der überlieferten juristischen Tradition. Aber was ist mit folgenden Ergebnissen: Erstens, ob ein Land aktuell demokratisch regiert wird oder nicht, hat nur dann einen Einfluss, wenn es sich um langjährige, ununterbrochene Demokratie (1950 bis 1995) handelt. Zweitens sind protestantische Länder weniger korrupt; Treisman

3

4

Zwar ist im Folgenden der Einfachheit halber von BestechungsgeW die Rede, aber natürlich kann die Belohnung des Agenten auch nichtmonetär erfolgen. Phänomene, die in keiner Weise mit Bestechung zu tun haben, wohl aber (entsprechend der allgemeineren Bedeutung des Begriffs Korruption) mit dem Verfall der allgemeinen Sitten, sind nicht Gegenstand dieses Papiers. Vgl. den ausfuhrlicheren Überblick über die ersten zehn Jahre empirischer Korruptionsforschung in Frank (2004).

312

Björn Frank

(2000) nimmt an, dass Amtsinhaber hier weniger Absicherung qua Hierarchierespektierung erfahren. Ist das schon Verhaltens Ökonomik? Nicht wirklich. Denn es fehlt der Versuch, in dem Verhalten der Akteure ein Muster zu erkennen, das zu erkennen nützt, weil es in verschiedenen Zusammenhängen immer wiederkehrt. Verhaltensökonomik soll ja einen erhöhten Realitätsgehalt haben, aber so weit von Einzelfallbeschreibungen entfernt sein, dass man noch von ökonomischer Theoriebildung sprechen kann. Unabhängig davon, wieviel verhaltensökonomischen Gehalt man Arbeiten mit internationalen Querschnittsdaten zubilligen will: Sie haben doch Anstoß zur Entwicklung der experimentellen Korruptionsforschung gegeben.

3.

Die Entwicklung der experimentellen Korruptionsforschung

Am Anfang der experimentellen Korruptionsforschung steht der Versuch, Mauro (1995) zu folgen und mit internationalen Querschnittsdaten eine Hypothese zu testen, die unmittelbar aus dem neoklassischen Akteursmodell hergeleitet werden kann: Wenn die Agenten ceteris paribus besser bezahlt werden, dann haben sie im Falle der Aufdeckung ihres Gesetzesverstoßes und der Entlassung aus dem Dienst mehr zu verlieren. Ihre Korruptionsneigung wird also geringer sein. Damals - etwa 1997 - war aber die Schnittmenge der Länder, zu denen Korruptionsperzeptionsdaten vorlagen, und derjenigen mit international vergleichbaren Informationen über die Besoldung im öffentlichen Dienst für uns unbefriedigend, genauso wie die trotzdem versuchten Regressionen. Das Korruptionsexperiment in Frank und Schulze (2000) diente also schlicht der Beschaffung eines zweitbesten Datensatzes. In diesem ersten Experiment wurde etwa die Hälfte der Teilnehmer zwar bezahlt, diese Bezahlung war aber nicht durch mögliche Sanktionen gefährdet. Ihr Einfluss wäre also ein reiner Loyalitäts- oder Reziprozitätseffekt gewesen, der allerdings nicht beobachtet wurde 5 . Besondere Bedeutung für die weitere Entwicklung hat das zweite veröffentlichte Korruptionsexperiment von Abbink, Irlenbusch und Renner (2002). Während Frank und Schulze (2000) nur das Agentenverhalten beobachteten und die angebotenen Bestechungsgelder simulierten, entschieden bei Abbink et al. reale Versuchspersonen in der Rolle der Bestechungsgeldgeber. Wie seitdem die meisten Korruptionsexperimente im Prinzip funktionieren, zeigt Abbildung 1. Dieses .stilisierte Korruptionsexperiment', hat ganz so einfach doch nie stattgefunden, aber die Varianten von Korruptionsexperimenten, die zu wirtschaftspolitisch interessanten Erkenntnissen führen, lassen sich als Abweichungen vom Spielbaum in Abb. 1 gut erläutern. Die erste Entscheidung trifft die Firma F, die entweder bestechen kann (und dann die Höhe des Bestechungsgeldes wählt, hier zwischen 1 € und 10 €) oder eben nicht. Besticht sie nicht, dann kann der Beamte den Auftrag trotzdem an F geben, allerdings ist F

5

In Schulze und Frank (2003) führten wir dann ein Entdeckungsrisiko ein. Van Rijckeghem und Weder (2001) gelang dann mit anderen internationalen Querschnittsdaten der Nachweis einer Korrelation von Besoldung und Korruptionsniveau. Für eine neuere experimentelle Bestätigung dieses Zusammenhangs vgl. Van Veldhuizen (2013).

Korruption und

313

Korruptionsbekämpfung

nicht die Firma, die den Auftrag aus ökonomischer Sicht bekommen sollte. Dies ist auf zweierlei Weise abgebildet: Erstens würde bei einem Auftrag an eine effiziente Firma (also nicht an F) eine positive Externalität in Form einer Spende an Ärzte ohne Grenzen entstehen. Zweitens ist es für den Beamten schwierig zu begründen und durchzusetzen, dass F den Auftrag bekommen soll, was zu Kosten in Höhe von 2 für ihn fuhrt. Tatsächlich kommt es in der .experimentellen Praxis' nie dazu, dass F den Auftrag bekommt, ohne zu bestechen. Vielmehr behält F dann einfach die Anfangsausstattung in Höhe von 10, und der Beamte behält seine in Höhe von 5. Abbildung 1: Ein stilisiertes Korruptionsexperiment Auftrag an effiziente Firma_

P(F) =10 P(B) = 5

j-

P(F) =10 + 20 P(B) = 5 - 2

Keine Bestechung

Firma F

P(F) = 10 - b P(B) = 5 + 2 b

Bestechung b e {1, 2, ... 10}

Beamter B Auftrag an F

P(F) = 10 + 20 - b P(B) = 5 + 2 b - 2

Schauen wir, wie die Anreize für den Beamten sind, wenn er ein Bestechungsgeld erhält. Die Firma zahlt einen Betrag b, 2b kommen beim Beamten an, was den unterschiedlichen Grenznutzen des Geldes bei diesen Akteuren widerspiegeln soll. Wiederum gilt: Sich erkenntlich zu zeigen und F den Auftrag zu verschaffen kostet den Beamten Ressourcen. Und das Bestechungsgeld hat er ja schon, die Firma kann ja schlecht auf Rückerstattung klagen. Trotzdem revanchieren sich viele Versuchspersonen und verhelfen der Firma zum Auftrag, der ihm zu einem zusätzlichen Payoff von 20 verhilft. Dies ähnelt typischen Ergebnissen des Gift Exchange-Spieis, das allerdings aufgrund der fehlenden Externalitäten mit anderen moralischen Konnotationen versehen ist. Auf den Gedanken, dass Korruption auf der Norm der Reziprozität beruht, sind vor den Ökonomen schon andere Sozialwissenschaftler gekommen (vgl. etwa Neckel 1995). Aber Korruptionsexperimente bestätigen ja nicht nur das Phänomen der Reziprozität,

314

Björn Frank

sie machen zudem die Determinanten der Korrumpierbarkeit analysierbar. Das führte zu einem Boom der experimentellen Korruptionsforschung, der sich mit zwei Literaturquellen veranschaulichen lässt: Mit Serra und Wantchekon (2012) ist ein Sammelband erschienen, der ausschließlich Surveys zu verschiedenen Aspekten der experimentellen Korruptionsforschung gewidmet ist. Und der derzeit neueste Survey (Bobkova und Egbert 2012) wird der Masse der Beiträge nur Herr, indem er sich auf neueste Beiträge konzentriert, wobei er jetzt (2014) schon nicht mehr aktuell sein kann. Vor diesem Hintergrund versuche ich gar nicht erst, hier einen Literaturüberblick zu geben. Mir geht es erstens darum, an ausgewählten Beispielen zu zeigen, wie die experimentelle Korruptionsforschung auf Fragen aus dem ,richtigen Leben' reagiert, und zweitens, wie die Ergebnisse der Experimente wieder zu neuen Fragen führen, die nicht nur interne Puzzles der Experimentatorenszene sind, sondern auch darüber hinaus potenziell anregend.

4.

Wirtschaftspolitisch relevante Erkenntnisse der verhaltensökonomischen Korruptionsforschung

4.1. Vieraugenprinzip Ich glaube zwar, dass Scitovsky (1986, S. 70 f.) im Prinzip recht hat, wenn er schreibt: „Not surprisingly, perhaps, economists are human. They sometimes do and sometimes do not find what they are looking for, but very seldom they find what they are not looking for." Für die experimentelle Korruptionsforschung gilt das aber nicht, mit schöner Regelmäßigkeit kommt es zu Befunden, die zumindest auf den ersten Blick überraschen. Ein gutes Beispiel sind die Experimente zum Vieraugenprinzip, das eine intuitiv plausible Maßnahme gegen Korruption ist: Kann ein Beamter nicht allein entscheiden, dann wird es für den Bestechungsgeldgeber riskanter und teurer. Ich vermute, dass Schikora (2010), der das erste Experiment dazu durchführte, zunächst eine korraptionssenkende Wirkung einer Entscheidung durch ein Zweierteam in der Rolle der Beamten erwartete und überrascht war, das Gegenteil zu finden. Von der Replikation durch Li (2012) 6 kann ich das mit größerer Sicherheit sagen; mit Dreierteams in der Rolle der Beamten wie des Bestechungsgeldgebers konnte das Resultat von Schikora (2010) repliziert werden, und zwar sowohl in Deutschland wie in China. Diese Experimente schreien einerseits nach einer verhaltensökonomischen Erklärung, für die die im Team geteilten moralischen Kosten (oder die geteilte Schuld; Rothenhäusler, Schweizer und Szech 2013) ein offensichtlicher Kandidat sind, und andererseits nach weiteren Experimenten: Wie kann eine Gruppe von Entscheidern so konstruiert werden, dass das Mehraugenprinzip doch zum gewünschten Erfolg führt?

6

S.a. Li, Bühren, Frank und Qin (2014); das steht in Einklang mit dem Diktator-Experiment von Dana, Weber und Kuang (2007), die finden, dass Gruppen deutlich weniger abgeben als einzelne Entscheider.

Korruption und

Korruptionsbekämpfung

315

4.2. Personalrotation Aus dem Befund zum Vieraugenprinzip sollte man nun nicht schließen, dass die ökonomische Intuition vor Korruptionsexperimenten stets versagt (in welchem Fall man sich die Experimente schenken könnte, weil ein ganz einfaches empirisches Gesetz gefunden worden wäre). Dass Personalrotation gegen Korruption hilft, ist intuitiv plausibel, wenn man verstanden hat, dass korrupte Transaktionen auf einer Vertrauensbeziehung beruhen. Für manche Korruptionsfälle ist es korrekt, sie als One Shot-Spiel abzubilden, etwa bei Konfrontationen von Zöllner und Reisendem. In anderen Fällen wiederholen sich die Interaktionen zwischen den Beteiligten typischerweise, etwa bei festen Ansprechpartnern für Bauunternehmen im Bauamt. Zu bestechen ist in solchen Fällen leichter und erfolgversprechender, als wenn der Bestechungsgeldgeber ständig mit anderen Agenten zu tun hat. Er kann dessen Reaktion besser vorhersehen: Wird er sich opportunistisch verhalten und das Geld einfach ohne Gegenleistung behalten? Könnte er gar den Bestechungsversuch anzeigen? Ferner hat der Agent einen höheren Anreiz zur Kooperation, da er sich davon auch in Zukunft (bzw. in den folgenden Runden des Experiments) weitere Angebote erhoffen darf. Wie oft das Korruptionsspiel wiederholt wird, wie viel Zeit Bestechungsgeldgeber und Agent also haben, um Vertrauen zueinander aufzubauen, hängt jedoch nicht nur von der Institution ab, um die es geht (also z.B. Zoll oder Bauamt). Durch Personalrotation kann der Staat selbst die Rundenzahl verringern. Abbink (2004) vergleicht mit einem Design, das dem in Kapitel 3 skizzierten recht ähnlich ist, das Korruptionsniveau, das sich aus einer Interaktion derselben Probanden über 30 Runden ergibt, mit dem von 30 Interaktionen mit jeweils wechselndem Partner. Die Personalrotation senkt das durchschnittlich gezahlte Bestechungsgeld um fast die Hälfte, insbesondere wird häufiger gar nicht mehr bestochen, ferner fuhrt Bestechung deutlich seltener zum gewünschten Ergebnis. Dieses Ergebnis konnte Li (2012) in einem zehnrundigen Korruptionsexperiment replizieren, aber nur in Deutschland. In China dagegen entsteht durch die Vorleistung des Bestechungsgeldgebers sofort eine Guanxi-Beziehung7, die das Gegenüber verpflichtet, sich zu revanchieren; dieser Effekt ist so stark, dass die Korruption in OneS/rai-Interaktion nicht mehr signifikant verschieden von der bei zehnmaliger Wiederholung ist. Mittlerweile gibt es eine ganze Reihe von Korruptionsexperimenten, die in verschiedenen Ländern genau gleich durchgeführt wurden 8 . Die Arbeit von Li (2012) ist ein schönes Beispiel dafür, dass es hierbei nicht darum geht, Kulturen oder Länder zu identifizieren, die inhärent korrupter sind. Vielmehr wird untersucht, welche Spezifika der jeweiligen Kultur sich auf das Korruptionsverhalten auswirken und beim Design von Maßnahmen der Korruptionsbekämpfung berücksichtigt werden sollten.

7 8

Vgl. etwa Song, Cadsby und Bi (2011) oder Rühle (2012). Für einen ersten Survey vgl. Banuri und Eckel (2012).

316

Björn Frank

4.3. Korruptionsbekämpfung durch Frauenförderung? Einige Experimentatoren erheben nie das Geschlecht ihrer Probanden, andere nur dann, wenn sie ex ante Hypothesen über Gendereffekte haben, die in ihrem speziellen Experiment auftreten könnten 9 . Mittlerweile gibt es aber so viel experimentelle Evidenz zu der Frage, inwiefern sich Frauen in Korruptionsexperimenten anders verhalten, dass zu diesem speziellen Gebiet gleich zwei Surveys vorliegen: Frank, Lambsdorff und Boehm (2011), auf den ich mich im Folgenden im Wesentlichen beziehe, und Chaudhuri (2012). Frank und Schulze (2000) fanden bei den Teilnehmerinnen ihres Experiments eine Bestechlichkeit, die kaum (und statistisch nicht signifikant) geringer war als bei den Männern. Dabei gab es, wie in Abschnitt 3 schon angedeutet, kein Entdeckungsrisiko. In einem Treatment mit einer Entdeckungswahrscheinlichkeit, die von der Höhe der angenommenen Bestechungsgelder abhing, waren Frauen jedoch signifikant weniger bestechlich, was dazu passt, dass Frauen in vielen Experimenten risikoaverser sind als Männer (Eckel und Grossman 2008). Natürlich könnte dieser Effekt in der Realität durch Lern- oder Selbstselektionseffekte zunichte gemacht werden, d.h. Frauen in bestimmten Entscheidungspositionen verhalten sich möglicherweise systematisch anders als Studentinnen im Labor. Aber weniger wahrscheinlich ist, dass dies auch für die folgenden beiden Beobachtungen gilt: Erstens, Frauen in der Rolle des Beamten verhalten sich viel öfter opportunistisch als Männer, d.h. sie nehmen das Bestechungsgeld an, erbringen aber keine Gegenleistung (dies fanden sowohl Lambsdorff und Frank 2011, als auch Rivas 2013). Das ist natürlich sehr entmutigend für potenzielle Bestechungsgeldgeber. Zwar könnte der Bestechungsgeldgeber drohen, sich selbst und die Person, die das Bestechungsgeld angenommen hat, auffliegen zu lassen. Dass die Befriedigung aus dieser Revanche den materiellen Verlust aus der Selbstanzeige überkompensiert, ist - zweitens - nach den experimentellen Ergebnissen von Lambsdorff und Frank (2011) aber eher für Männer als für Frauen typisch. Korrupte Transaktionen lassen sich also leichter durchsetzen, wenn insofern das Verhalten männlich geprägt ist. Ist das nun politikrelevant? Zumindest Perus ehemaliger Präsident Alberto Fujimori, ein - sagen wir - erfahrener Korruptionspraktiker (McMillan und Zoido 2004), war der Meinung, dass dort, wo er die Korruption reduzieren wollte, nämlich bei der Verkehrspolizei seiner Hauptstadt, besser nur weibliche Kräfte eingesetzt werden sollten; Mexiko City imitiert dieses Modell der Korruptionsbekämpfung gerade.

4.4. Was ist Korruption? Verhaltensökonomische Unterstützung für die Arnim-Hypothese Der angekündigte Wechsel des früheren Kanzleramtschefs Ronald Pofalla zur Deutschen Bahn, einem Unternehmen also, dessen weitere Entwicklung sehr stark von politischen Rahmenbedingungen und Entscheidungen abhängt, wurde heftig kritisiert; viel

9

So hält es Martin Dufwenberg, vgl. Dufwenberg und Muren (2006a,b) für DufwenbergExperimente, in denen er ausnahmsweise für Gender kontrolliert.

Korruption und Korruptionsbekämpfung

317

zitiert wurde das dpa-Interview mit dem Staatsrechtler Hans Herbert von Arnim, der Pofallas Verhalten als .bezahlte Korruption' bezeichnete 10 . Halten wir uns nicht mit der naheliegenden Frage auf, was man sich unter unbezahlter Korruption vorzustellen hätte, sondern fragen, ob Fälle wie Ronald Pofalla - oder Gerhard Schröder, Wolfgang Clement, Eckart von Klaeden, Dirk Niebel, Werner Müller und Alfred Tacke etc.11 - als Korruptionsfalle zu bezeichnen sind. Hier sind zwei Varianten zu unterscheiden. Erstens der Fall, dass die ehemaligen Politiker bei ihrem neuen Arbeitgeber etwas leisten, was für das Unternehmen mindestens ebenso viel wert ist wie die Entlohnung, die es zahlt. Entsteht dieser Wert daraus, dass der ehemalige Politiker seine Kenntnisse und Kontakte dafür einsetzt, dass das Unternehmen unbillige Wettbewerbsvorteile etwa durch institutionelle Markteintrittsbarrieren erhält, dann ist das problematisch und rechtfertigt zumindest das Nachdenken über eine Karenzzeit zwischen öffentlichem Amt und einer politiknahen privatwirtschaftlichen Tätigkeit im Anschluss. Der zweite Fall ist aber ökonomisch noch interessanter: Die Tätigkeit im Unternehmen könnte ein Dankeschön für spezielle Entscheidungen, Einflussnahmen oder auch nur Informationen in der Amtszeit sein. Abbildung 2 illustriert diesen Fall. Sämtliche Aktionen und Payoffs wurden aus Abbildung 1 übernommen, nur die Reihenfolge der Züge wurde getauscht: Zunächst ist jetzt Spieler B an der Reihe und kann eigene Ressourcen opfern, um etwas für die Firma zu tun, oder er kann das unterlassen. Anschließend kann ihn die Firma belohnen, muss das aber nicht tun, und im teilspielperfekten Nash-Gleichgewicht sollte das auch nicht passieren. Aber das teilspielperfekte Nash-Gleichgewicht des ursprünglichen Korruptionsspiels (Abbildung 1) war ja auch korruptionsfrei, im Gegensatz zum beobachtbaren Verhalten. Auch hier könnte das Verhalten nicht vom Kalkül des Homo Oeconomicus, sondern von Reziprozität getrieben sein. Es sind hier wie im Fall normaler Korruption dieselben psychologischen Mechanismen, die greifen müssen, damit eine volkswirtschaftlich schädliche Vereinbarung geschlossen und eingehalten wird. Ein Experiment, dessen Design dem in Abb. 2 gezeigten Spiel entspricht, habe ich als Pretest gemeinsam mit Elina Khachatryan an der Universität Kassel durchgeführt. Das Framing war neutral, insbesondere wurde Bestechungsgeld nicht als solches bezeichnet, sondern als .gesendeter Betrag'. Allerdings hießen die Spieler ,Beamter' und ,Firma'. Im Anschluss an das Experiment wurden die Probanden gefragt, wie viel das Experiment ihrer Meinung nach mit Korruption zu tun hat und ob sie während des Experiments schon an Korruption gedacht hatten. Es zeigte sich in diesem Pretest kein signifikanter Unterschied zum Treatment mit ,normaler' Korruption, das in Anlehnung an Abb. 1 gespielt wurde 12 .

10

11 12

Vgl. etwa http://www.faz.net/aktuell/politik/pofalla-und-die-bahn-staatsrechtler-form-vonbezahlter-korruption-12740381 .html. Für eine Übersicht vgl. https://lobbypedia.de/wiki/Portal_Seitenwechsel. Eine Analyse der eigentlichen Entscheidungen der Probanden kann mit den vorliegenden Daten noch nicht geleistet werden.

© 318

Björn Frank

Abbildung 2: Korruption mit Wechsel in die Wirtschaft statt Bestechungsgeld

Auftrag an effiziente Firma

Beamter B

P(F)=10-b P(B) = 5 + P(F)=10 P(B) = 5

A

. V*™**

P(F) = 10 + 20 - b P(B) = 5 + 2 b - 2

Auftrag an F

Firma Kein Job für B

5.

P(F) = 10 + 20 P(B) = 5 - 2

©

Einige offene Fragen

Anstelle eines Fazits diskutiere ich in diesem Kapitel das Phänomen der Korruptionspersistenz als größte praktische Herausforderung für die Korruptionsbekämpfung (5.1) und Feldexperimente als vielversprechendste Weiterentwicklung der experimentellen Forschung zur Korruption (5.2).

5.1. Korruptionspersistenz Korruption ist ein Gleichgewichtsphänomen. Stößt man ein hochkorruptes Gesellschaftssystem an, kann man es kurzfristig aus dem Gleichgewicht bringen, in das es aber, wie zu befürchten ist, wieder zurückkehrt. Ein solcher Anstoß könnte etwa in einem neuen Team motivierter Staatsanwälte bestehen oder im gesetzlichen Schutz von Whistleblowern. So kommen einige Fälle ans Licht, aber wenn Richter korrupt sind und die Presse nicht unabhängig, dann werden die Staatsanwälte selbst der Korruption bezichtigt, die Whistleblower werden zu feindlichen Agenten, und die Risiken korrupten Verhaltens kehren bald auf das alte Niveau zurück.

319

Korruption und Korruptionsbekämpfung

Abbildung 3: Multiple Korruptionsgleichgewichte



Anteil korrupter Agenten a Abbildung 3 zeigt eine Möglichkeit, das Phänomen multipler Gleichgewichte - eines mit hoher, eines mit niedriger Korruption - zu illustrieren 13 . Auf der Ordinate sind Kosten C und Benefits B der Korruption aus Sicht eines einzelnen Agenten abgetragen, beide hängen davon ab, wie hoch der Anteil korrupter Agenten insgesamt ist, dieser Anteil ist auf der Abszisse abgetragen. So, wie die Kurven in Abbildung 3 gezeichnet sind, wäre eine Situation ganz ohne Korruption (bzw. ganz ohne korrupte Agenten) kein Gleichgewicht. Die Kosten der Korruption sind in so einer Situation vermutlich gering, weil Korruptionsbekämpfung nicht sehr hoch auf der politischen Agenda steht, da keine aktuellen Fälle die Compliance fördern. Es ist dann relativ leicht, Bestechungsgeldzahlungen als Geschenk oder als legitimes Dienstleistungshonorar zu camouflieren. Steigt die Zahl korrupter Agenten, so wird dies zunächst politische Reaktionen provozieren, so dass die Kosten steigen. Ab einem bestimmten Anteil a wird Korruption dann aber wieder weniger riskant, die erwarteten Kosten sinken, denn, um nur ein Beispiel zu nennen, die Wahrscheinlichkeit, dass ein Kollege zum Whistleblower wird, ist geringer, je höher die Wahrscheinlichkeit ist, dass der Kollege selbst etwas zu verbergen hat. Ebenso könnten die Benefits der Korruption zunächst - mit steigendem a - steigen, weil das Wahrnehmen von Gelegenheiten sicherlich begünstigt wird, wenn die Bestechenden mit einer höheren Wahrscheinlichkeit rechnen können, auf korrupte Agenten zu treffen. Die

13

Die Abbildung ist eine Variante der Darstellung von Andvig (1991, S. 71), der eine (Netto-) Benefits-Kurve für einen korrupten und eine für einen nicht-korrupten Agenten zeichnet. Wenn die Kosten eines nicht-korrupten Agenten 0 sind und wenn wir unsere Benefits-Kurve als ,zusätzliche Benefits für einen korrupten Agenten im Vergleich zu einem nicht korrupten' interpretieren, dann entspricht unsere Abb. 3 genau der von Andvig (1991). Für eine formale Ableitung multipler Korruptionsgleichgewichte vgl. Andvig und Moene (1990).

320

Björn Frank

Benefits sinken dann aber, sobald die Schäden der erhöhten Korruption die Renten, die insgesamt zu verteilen sind, zu stark schmälern. Die Zahl der Gleichgewichte hängt von der Form und Lage der Kurven ab; in Abbildung 3 gibt es ein instabiles Gleichgewicht (aig) und zwei stabile: a sg und 1. Sind Maßnahmen gegen Korruption erfolgreich, so verschieben sie entweder die Kostenkurve nach oben oder die Benefits nach unten. Das schlechte der beiden Gleichgewichte bleibt aber trotzdem bei a=l. Vieles, was man mittlerweile über Korruption und Korruptionsbekämpfung weiß, mag helfen, Determinanten des individuellen Verhaltens marginal zu ändern, völlig unklar bleibt, wie es gelingen kann, von einem Gleichgewicht in das andere zu gelangen. 14 Vielleicht ist das schlicht unmöglich. Vielleicht stößt aber auch die mikroökonomische Verhaltensökonomik an ihre Grenzen, weil eigentlich eine Gesellschaftstheorie gefragt wäre.

5.2. Externe Validität Sind die Ergebnisse von Experimenten extern valide, dann erlauben Beobachtungen im Labor Rückschlüsse auf reales Verhalten realer Akteure in ihrer natürlichen Umwelt. Dies kann sich beispielsweise auf die Wirkung sozioökonomischer Unterschiede zwischen Probanden beziehen oder auf die Wirkung unterschiedlicher institutioneller Designs. Die Frage nach der externen Validität ist die wichtigste Kritik, der sich die experimentelle Korruptionsforschung stellen muss (s.a. Armantier und Boly 2012, S. 118 f.). Stärker als bei vielen anderen Arten von Experimenten zwingen Korruptionsexperimente die Probanden dazu, über einen möglichen Verstoß gegen gesellschaftliche oder moralische Normen zu entscheiden. Dies gefährdet die externe Validität aus zwei Gründen: Erstens könnte die Korruptionsneigung bei solchen Probanden größer sein, die das das Experiment als Spiel eher im Sinne von Gesellschaftsspiel' begreifen, beim dem es in Ordnung ist, anderen zu schaden, um zu gewinnen (so wie es bei Monopoly zweifellos Spieler gibt, die sich diebisch über den Erwerb der Schlossallee freuen, sich im richtigen Leben aber niemals an Immobilienspekulationen beteiligen würden). Zweitens könnte ein entgegengesetzter Effekt sein, dass die Spieler in Korruptionsexperimenten wissen, dass ihr Verhalten beobachtet wird, auch wenn sie typischerweise ein Pseudonym verwenden sollen. Zudem ist der persönliche Gewinn auch bei maximaler Korruption relativ gering, so dass Probanden dem Experimentator und vielleicht auch sich

14

Auch das oben schon angeführte Ergebnis von Treisman (2000), wonach nur jahrzehntelang etablierte Demokratien weniger korrupt sind als autokratische Regime, steht damit in Einklang. Becker et al. (2015) werten Haushaltssurveys in Osteuropa aus und finden in Gebieten, die einmal zum 1918 untergegangenen Habsburger Reich gehörten, immer noch höheres Vertrauen in Polizei und Justiz und weniger Schmiergeldzahlungen an diese Institutionen als in anderen Regionen Osteuropas. Allerdings spielt es keine Rolle, wie lange die betreffenden Regionen zum Habsburger Reich gehört hatten; sie scheinen also recht schnell in ein besseres Gleichgewicht gelangt zu sein. In der heutigen Zeit aber muss man befürchten, dass eine demokratische Revolution, die rechtsstaatliche Institutionen einführt, die Gesellschaft trotzdem (zunächst) im schlechten stabilen Gleichgewicht belässt.

Korruption und

Korruptionsbekämpfung

321

selbst eine Korruptionsaversion vortäuschen können, die bei realen Anreizen und ohne die Beobachtung im Labor keinen Bestand hätte. Hinzu kommt, dass Probanden in Laborexperimenten meist Studentinnen und Studenten sind, die sich von realen Entscheidungsträgern in korruptionsanfälligen Positionen dadurch unterscheiden, dass sie normalerweise keine Lernerfahrungen in einem korrupten Umfeld haben und viele von ihnen sich vielleicht bewusst entscheiden würden, gar nicht in solche Positionen zu gelangen. Gerade in Korruptionsexperimenten muss man befurchten, dass studentische Probanden nicht repräsentativ für die relevanten Entscheidungsträger sind. Für diese Probleme gibt es zwei Lösungsversuche. Erstens echte Feldexperimente, d.h. solche, die nicht nur außerhalb von künstlichen Laborumgebungen durchgeführt werden, sondern auch ohne dass die Probanden überhaupt wissen, dass sie an einem Experiment teilnehmen. Die Schwierigkeit beim Design solcher Experimente besteht darin, dass die Bedingungen für alle Probanden gleich sein sollen, mit Ausnahme der experimentellen Treatments, die ihnen randomisiert zugeordnet werden sollen. Das Musterbeispiel für ein echtes Korruptions-Feldexperiment ist die Studie von Armantier und Boly (2011, 2013)15. Über eine lokale Arbeitsvermittlungsagentur in Ouagadougou (Burkina Faso) warben sie Personen mit Hochschulbildung für das Korrigieren von Diktaten an. Jeder erhielt 20 Diktate; auf der zweiten Seite des elften Diktats war jeweils eine Banknote befestigt - mit einem Post-It-Zettel, auf dem der (vorgebliche) Examenskandidat darum bat, wenige Fehler zu finden. Treatmentvariablen waren die Höhe der regulären Entlohnung, die Höhe des angebotenen Bestechungsgeldes und ob eine Kontrolle der Qualität der Korrektur angekündigt wurde. Beobachtet wurde, ob im Diktat des Bestechungsgeldgebers hinreichend viele Fehler übersehen wurden, um ihn bestehen zu lassen, und ob das Bestechungsgeld angenommen oder der Bestechungsversuch gemeldet wurde. Im Durchschnitt lehnten etwa 50 % der Teilnehmer ab; diese Quote war höher bei besserer Entlohnung und niedriger bei höherem Bestechungsgeld. Die Annahme des Geldes ging häufig mit dem Anstreichen von weniger Fehlern einher. Nun könnte man sagen, dass der Aufwand, um diese Ergebnisse zu erzielen, unverhältnismäßig hoch war, aber Armantier und Boly (2011, 2013) produzieren über den konkreten Fall hinaus weitere Benefits, indem sie dasselbe Experiment auch als Laborexperiment durchführen und prüfen, ob sich das Verhalten in Labor und Feld unterscheidet. Dies war in den wesentlichen Punkten nicht der Fall: ,,[T]he results obtained in the laboratory and in the field in Ouagadougou are remarkably similar" (Armantier und Boly 2013, S. 1178). Dies stärkt das Vertrauen, das man in die Ergebnisse von Korruptionsexperimenten haben kann.

15

Für eine umfassende Übersicht über weitere randomisierte kontrollierte Studien im Feld, allerdings häufig entweder doch mit größerem Verlust von Kontrolle und/oder weniger auf Korruption im engeren Sinne bezogen, sondern eher auf verwandte Phänomene wie Veruntreuung, siehe Hanna et al. (2011).

322

Björn Frank

Dass Feld- und Experimentalevidenz sich aufeinander beziehen und quasi gegenseitig stützen, ist die zweite Forschungsstrategie, die dem Problem der fraglichen externen Validität zu begegnen versucht, und das bedarf keines echten Feldexperiments ä la Armantier und Boly. Dazu abschließend drei Beispiele: 1. Barr und Serra (2010) führten an der Universität Oxford ein Korruptionsexperiment mit 195 Studenten durch, die aus 43 Ländern stammten. Für solche Teilnehmer, die noch nicht lange in Großbritannien waren, fanden sie eine positive Korrelation zwischen dem Korruptionsniveau ihrer Heimat und dem Verhalten im Experiment; immerhin ein Indiz dafür, dass das Korruptionsspiel im Labor mit dem realen Leben zu tun hat. 2. Wenn - wie in Fußnote 5 schon angeführt - van Rijckeghem und Weder (2001) mit Felddaten einen Zusammenhang von Beamtenbesoldung und Korruptionsniveau finden, dann erhöht das die Wahrscheinlichkeit, dass die gleichlautenden Ergebnisse von Laborexperimenten keine irrelevanten Artefakte sind. Das wiederum erhöht die Wahrscheinlichkeit, dass auch solche experimentellen Ergebnisse, die keine unmittelbare Entsprechung in Feldstudien haben, extern valide sind und helfen können, die weniger detaillierte Feldevidenz zu interpretieren. Ein Beispiel ist, dass der Effekt einer höheren Entlohnung wegen der Angst vor Einkommensverlust im Entdeckungsfall auftritt und entfällt, wenn mögliche Entdeckung keine spürbare Rolle mehr spielt. 3. Dass zur selben Forschungsfrage sowohl Feld- als auch Experimentalevidenz vorliegt, muss nicht dem Zufall überlassen bleiben. Der in Abschnitt 4.3 angeführte experimentelle Befund, dass Frauen weniger korruptionsgeneigt sind als Männer, aber nicht etwa aus intrinsischer Motivation heraus, sondern als Folge höherer Risikoaversion, könnte die internationale Querschnittsstudie von Esarey und Chirillo (2013) angestoßen haben. Deren Befund passt zur experimentellen Evidenz: Frauen sind dann nicht mehr korruptionsabgeneigter als Männer, wenn das gesellschaftliche Umfeld durch hohe Akzeptanz von Bestechung gekennzeichnet ist. Damit zeichnet sich das Muster einer möglichen weiteren Entwicklung der verhaltensökonomischen Korruptionsforschung ab: Die nächsten Laborexperimente könnten durch das Bedürfnis motiviert sein, Feldevidenz besser zu verstehen, und Feldevidenz könnte gezielt gesucht werden, die dazu dient, die Validität experimenteller Ergebnisse zu überprüfen.

Literatur Abbink, Klaus (2004), Staff rotation as an anti-corruption policy: an experimental study, in: European Journal of Political Economy, Vol. 20, S. 887-906. Abbink, Klaus, Bernd Irlenbusch und Elke Renner (2002), An Experimental Bribery Game, in: Journal of Law, Economics and Organization, Vol. 18, S. 428-454. Andvig, Jens Chr. (1991), The Economics of Corruption: A Survey, in: Studi economici, Vol. 43, S. 57-94. Andvig, Jens Chr. und Karl Ove Moene (1990), How Corruption May Corrupt, in: Journal of Economic Behavior and Organization, Vol. 13, S. 63-76.

Korruption und Korruptionsbekämpfung

323

Armantier, Olivier und Amadou Boly (2011), A controlled field experiment on corruption, in: European Economic Review, Vol. 55, S. 1072-1082. Armantier, Olivier und Amadou Boly (2012), On the External Validity of Laboratory Experiments on Corruption, in: Danila Serra und Leonard Wantchekon (Hg.), New Advances in Experimental Research on Corruption, Bingley, S. 117-144. Armantier, Olivier und Amadou Boly (2013), Comparing Corruption in the Laboratory and in the Field in Burkina Faso and in Canada, in: The Economic Journal, Vol. 123, S. 11681187. Banuri, Sheheryar und Catherine Eckel (2012), Experiments in Culture and Corruption: A Review, in: Danila Serra und Leonard Wantchekon (Hg.), New Advances in Experimental Research on Corruption, Bingley, S. 51-76. Barr, Abigail und Danila Serra (2010), Culture and Corruption: An experimental Analysis, in: Journal of Public Economics, Vol. 94, S. 862-869. Becker, Sascha O., Katrin Boeckh, Christa Hainz und Ludger Wößmann (2015), The Empire is Dead, Long Live the Empire! Long-Run Persistence of Trust and Corruption in the Bureaucracy, erscheint in: Economic Journal. Bobkova, Nina und Henrik Egbert (2012), Corruption Investigated in the Lab: A Survey of the Experimental Literature, in: International Journal of Latest Trends in Finance & Economic Sciences, Vol. 2, S. 337-349. Chaudhuri, Ananish (2012), Gender and Corruption: A Survey of the Experimental Evidence, in: Danila Serra und Leonard Wantchekon (Hg.), New Advances in Experimental Research on Corruption, Bingley, S. 13-49. Dana, Jason, Roberto A. Weber und Jason Xi Kuang (2007), Exploiting Moral Wiggle Room: Experiments Demonstrating an Illusory Preference for Fairness, in: Economic Theory, Vol. 33, S. 67-80. Dufwenberg, Martin und Astri Muren (2006a), Generosity, Anonymity, Gender, in: Journal of Economic Behavior & Organization, Vol. 61, 42-49. Dufwenberg, Martin und Astri Muren (2006b), Gender Composition in Teams, in: Journal of Economic Behavior & Organization, Vol. 61, S. 50-54. Eckel, Catherine C. und Philip J. Grossman (2008), Men, Women, and Risk Aversion: Experimental Evidence, in: Charles R. Plott und Vernon L. Smith (Hg.), Handbook of Experimental Economics Results, Vol. 1, Amsterdam, S. 1061-1073. Esarey, Justin und Gina Chirillo (2013), "Fairer Sex" or Purity Myth? Corruption, Gender, and Institutional Context, in: Politics & Gender, Vol. 9, S. 361-389. Frank, Björn (2004), Zehn Jahre empirische Korruptionsforschung, in: Vierteljahreshefte zur Wirtschaftsforschung, Vol. 73, S. 184-199. Frank, Björn und Günther Schulze (2000), Does economics make citizens corrupt?, in: Journal of Economic Behavior and Organization, Vol. 43, S. 101-113. Frank, Björn, Johann Graf Lambsdorff und Frédéric Boehm (2011), Gender and corruption lessons from laboratory corruption experiments, in: European Journal of Development Research, Vol. 23, S. 59-71. Hanna, Rema, Sarah Bishop, Sara Nadel, Gabe Scheffler und Katherine Durlacher (2011), The effectiveness of anti-corruption policy: what has worked, what hasn't, and what we don't know - a systematic review. Technical report. EPPI-Centre, Social Science Research Unit, Institute of Education, University of London. Just, David R. (2014), Introduction to Behavioral Economics, Hoboken.

324

Björn Frank

Lambsdorff, Johann Graf (2012), Behavioral and Experimental Economics as a Guidance to Anticorruption, in: Danila Serra und Leonard Wantchekon (Hg.), New Advances in Experimental Research on Corruption, Bingley, S. 279-300. Lambsdorff, Johann Graf und Björn Frank (2011), Corrupt reciprocity: Experimental evidence on a men's game, in: International Review of Law and Economics, Vol. 31, S. 116-125. Li, Sha (2012), Interkulturelle experimentelle Korruptionsforschung: deutsche und chinesische Akteure im Vergleich, Kassel. Li, Sha, Christoph Bühren, Björn Frank und Haiying Qin (2014), Group decision making in a corruption experiment: China and Germany compared, erscheint in: Jahrbücher für Nationalökonomie und Statistik / Journal of Economics and Statistics. Mauro, Paolo (1995), Corruption and Growth, in: Quarterly Journal of Economics, Vol. 110, S. 681-712. McMillan, John und Pablo Zoido (2004), How to Subvert Democracy: Montesinos in Peru, in: Journal of Economic Perspectives, Vol. 18, S. 69-92. Neckel, Sighard (1995), Der unmoralische Tausch: Eine Soziologie der Käuflichkeit, in: Kursbuch, 120. Jg., S. 9-16. Rivas, M. Fernanda (2013), An Experiment on Corruption and Gender, in: Bulletin of Economic Research, Vol. 65, S. 10-42. Rothenhäusler, Dominik, Nikolaus Schweizer und Nora Szech (2013), Institutions, Shared Guilt, and Moral Transgression, mimeo: http://papers.ssrn.com/sol3/papers. cfm?abstract_id=2289884. Rühle, Susanne (2012), Guanxi Capitalism in China. The role of private enterprises and networks for economic development, Marburg (online-Version unter http://publikationen.ub.uni-frankfurt.de/opus4/frontdoor/deliver/index/docld/23002/file/ Ruehle+Dissertation_online-version.pdf). Schelling, Thomas C. (1978), Micromotives and Macrobehavior, New York. Schikora, Jan T. (2010), Bringing the Four eyes principle to the Lab, mimeo: http://www.econstor.eu/dspace/bitstream/10419/37465/3/VfS_2010_pid_509.pdf. Schulze, Günther und Björn Frank (2003), Deterrence versus Intrinsic Motivation - Experimental Evidence on the Determinants of Corruptibility, in: Economics of Governance, Vol. 4, S. 143-160. Scitovsky, Tibor (1986), Human Desire and Economic Satisfaction, Brighton. Serra, Danila und Leonard Wantchekon (Hg.) (2012), New Advances in Experimental Research on Corruption, Bingley. Song, Fei, C. Bram Cadsby und Yunyun Bi (2011), Trust, Reciprocity, and Guanxi in China: An Experimental Investigation, in: Management and Organization Review, Vol. 8, S. 397421. Treisman, Daniel (2000), The Causes of Corruption: A Cross-National Study, in: Journal of Public Economics, Vol. 76, S. 399-457. Van Rijckeghem, Caroline und Beatrice Weder (2001), Bureaucratic Corruption and the Rate of Temptation: How Much do Wages in the Civil Service Affect Corruption? in: Journal of Development Economics, Vol. 65, S. 307-331. Van Veldhuizen, Roel (2013), The influence of wages on public officials' corruptibility: A laboratory investigation, in: Journal of Economic Psychology, Vol. 39, S. 341-356.

Teil III: Die Sicht der Praxis

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaftspolitik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

(Ir-)Rationalität in der Wirtschaftspolitik

Christa Thoben

Inhalt 1.

Einführung: Das schwierige Verhältnis von Politik und Beratung

328

2.

Wirtschaftspolitik zwischen Information und Interessen

329

2.1. Abwägen in der Wirtschaft

330

2.2. Abwägen in der Politik

330

Rationalität in der Politik: Ein Fazit

335

3.

Literatur

335

328

1.

Christa Thoben

Einführung: Das schwierige Verhältnis von Politik und Beratung

Was bedeutet Rationalität in der praktischen Wirtschaftspolitik? Für mich als Politikerin bedeutet es, möglichst viele Informationen zu sammeln, Kontakt zu Wissenschaft und Forschung zu suchen und ein abwägendes Urteil zu treffen. In politischen Ämtern trifft man immer Entscheidungen unter Unsicherheit. Man kann ohne Unsicherheit wissenschaftliche Aufsätze veröffentlichen, aber man kann sich als Politikerin nicht an politischen Entscheidungen vorbeidrücken. Mit Hans Albert könnte man sagen, dass Wissenschaft für „Aufklärung" sorgt. Aber die Last der Entscheidung obliegt allein den politischen Repräsentanten. Nach meinem Studium, Ende der 60er Jahre, ging ich zum Rheinisch-Westfälischen Institut für Wirtschaftsforschung nach Essen. Die Entfernung zwischen der Universität und den Wirtschaftsforschungsinstituten war damals so groß, wie man es sich heute kaum mehr vorstellen kann. Man nahm sich gegenseitig nicht ernst. Wir, die Mitarbeiter der Institute, waren unbedeutende Schreiber - und die eigentliche Forschung fand, so die Wahrnehmung, an der Universität statt. Gleichzeitig wurden die Beratungsleistungen, die wir versuchten zu erbringen, dringend gebraucht. Es gab die Gemeinschaftsdiagnose, die in Deutschland einmal im Jahr zwischen den anerkannten Wirtschaftsforschungsinstituten zur Konjunkturlage erstellt wird. Ein paar Jahre später wurde entdeckt, dass man vielleicht auch eine Strukturberichterstattung braucht. Es fanden damals Grundsatzdebatten statt, ob wir in Richtung Planification gehen wollten. Dass sich die Distanz zwischen Hochschulen und Instituten heute stark verringert hat, verdanken wir nicht den Universitäten, sondern der Beweglichkeit in der Wirtschaftsforschung. Denn die Institute realisierten, dass es nicht ausreicht, auf Nebenkriegsschauplätzen zu verharren. Heute gibt es wohl kein einziges von diesen fünf großen Instituten mehr, deren Mitarbeiter nicht auch Lehraufträge an Universitäten haben und exzellente wissenschaftliche Beiträge publizieren. Der Informationswert einer Landkarte im Maßstab von eins zu eins wäre null. Die Aufgabe der Politik besteht also darin, wissenschaftliche Erkenntnisse sinnvoll zu reduzieren. Welche Fehler macht man dabei? Die Suche nach absoluter Sicherheit geht immer schief. Wollen Wissenschaftler eigentlich die Begrenztheit ihrer Sicht aushalten? Oder neigen sie dazu, so zu tun, als ob sie jetzt alles wissen? Wissen ist aber immer nur vorläufig. In vielen Beiträgen zu dieser Tagung wird ganz häufig der Begriff Heuristik als Adjektiv oder Substantiv verwendet. Ich habe verzweifelt versucht herauszufinden, was das heißt. Wenn Sie im Duden nachgucken, bleibt alles etwas vage. Wikipedia hat mir geholfen. Heuristik bedeutet nach landläufigem Verständnis nicht mehr, als dass man Daumenregeln hat - und sonst nichts. Warum sagt man das eigentlich nicht? Warum nimmt man dann dieses Fremdwort, um diese Vorläufigkeit quasi zu verschleiern? Aus Sicht der politischen Nachfrager nach wirtschaftspolitischer Beratung stellen sich häufig folgende Fragen: Was können wir, was wollen wir, wenn wir politische Verantwortung haben? Woher bekommen wir politische Beratung? Die Wissenschaftler tun sich immer noch schwer mit der Beratungsaufgabe. Sie möchten gerne mitspielen, aber sie sagen gleichzeitig, dass sie Abstand von uns Politikern halten möchten. Das kann ich auch verstehen. Aber dann darf man nicht umgekehrt häufig den Vorwurf hören, Politiker

(Ir-) Rationalität in der Wirtschaftspolitik

329

wären alle ein bisschen dumm. Wir Politiker müssen abwägen unter Unsicherheit. Und das ist anstrengend, weil manches für, anderes gegen eine konkrete Entscheidungsoption spricht. Und hierzu passt auch, was ich heute aus Ihrem Kreis gehört habe. Jemand sagte, er würde nie in so einen Politikerjob gehen. Aber wer soll es denn machen, wenn Leute, die studiert haben und vielleicht sogar ein bisschen mehr als andere wissen, ihre Kompetenzen nicht einbringen wollen?

2.

Wirtschaftspolitik zwischen Information und Interessen

Aber nun zu meinen eigenen Erfahrungen in der „Feldarbeit". Ich wurde 2005 in Nordrhein-Westfalen, einem Land mit 18 Millionen Einwohnern, Wirtschaftsministerin. Dabei musste ich feststellen, dass man nicht ein ganzes Land vollkommen neu gestalten kann, sondern dass man nur versuchen kann, seine Vorstellungen schrittweise umzusetzen. Aus meinem Studium hatte ich meine Begeisterung für Popper (2005) „mitgebracht": Danach kann man Aussagen über die Realität immer nur falsfizieren, nicht aber Wahrheit beweisen. Und was macht man eigentlich, wenn man nicht mehr weiß als eine vorläufige Antwort? Große Schritte oder kleine Schritte? Popper (2004) sagt: Macht die Veränderungen in kleinen Schritten; wenn man sich dann mal vertan hat, kann man kleine Schritte auch wieder zurücknehmen. Ich fand das als Messlatte für politische Verantwortung nicht schlecht. Wer aber kann mir als Politikerin auf der Suche nach geeigneten Instrumenten helfen. Wer weiß was? Wer gibt einem Hinweise? Wissenschaftliche Erklärungen gelingen immer nur ex post. Das hilft mir aber nicht. Wer hilft mir ex post, wenn ich in eine bestimmte Richtung will? Mir scheint, dass auch die Behavioral Economics dafür wenig bieten. Christoph Schmidt, er ist Mitglied im Sachverständigenrat, hat kürzlich einen Beitrag darüber veröffentlicht, was in den letzten Jahren alles versucht wurde, um festzustellen: Können wir - Politiker und Politikberater - uns noch vertrauen? Und was kann der eine, was kann der andere? Ich will Ihnen wenige Zitate aus seinem Beitrag dazu vortragen: „Statt absolute Gewissheiten über die Effekte von Maßnahmen oder veränderter Weichenstellungen vorzutäuschen, muss eine gute Politik stets mögliche Erfolge und Risiken einer Maßnahme sorgfaltig gegeneinander abwägen.... Zweitens muss man einsehen, dass es gerade die ,großen' Fragen sind, für die es nur wenig Präzedenzfalle gibt, so dass man für ihre Analyse bestenfalls plausible Analogieschlüsse heranziehen kann und die verbleibende Unsicherheit über die Schlussfolgerungen groß ist. ... Die evidenzbasierte Politikberatung zeigt offen auf, in welchem Ausmaß die Schlussfolgerungen durch empirische Belege abgesichert sind. Dabei wird transparent dargelegt, wie der vorliegende Erfahrungsschatz mit theoretischen Annahmen zusammengeführt wird." (Schmidt 2013, S. 3-6) Wenn sich empirische Wirtschaftsforschung bemüht, beratend tätig zu sein, dann muss sie den Versuch gerade im Rahmen einer guten Wirtschaftspolitik starten. Es geht dabei nicht allein darum, den Akteuren in Politik und Verwaltung oder gar allein der jeweils aktuellen Regierung Hinweise zu geben, sondern die Aufgabe der Wissenschaft wäre es auch, die breite Öffentlichkeit nach dem sog. Dreiklang „Erkennen, Erwarten, Ergründen" über relevante Erkenntnisse der empirischen Wirtschaftsforschung aufzuklären und

330

Christa Thobert

dadurch den öffentlichen Diskurs zu beflügeln. Aber selbst die Frage, ob man eine Verantwortung hat, den öffentlichen Diskurs zu beflügeln, ist unter Wissenschaftlern noch strittig. Man kann sich theoretisch mit wunderbaren Texten untereinander bestätigen, dass man auf dem neuesten Stand der Forschung ist; dabei wird aber nicht immer darauf geachtet, ob man eigentlich den Menschen hilft, mehr zu verstehen von dem, was man für wichtig hält. Heute sind Empirie und Wissenschaft und Politik näher aneinander gerückt als vor 50 Jahren. Doch der Chor der Ratschläge ist seitdem keineswegs harmonischer geworden. Zu jedem Thema, zu dem ich mir eine Meinung bilden musste, bekam ich eine Fülle von Vorschlägen. Und dann? Wie wäge ich ab? Ich glaube, es ist aus der Sicht der Politik richtig, dass man Methodenpluralismus bewusst akzeptiert. Mal hilft einem das eine bei der eigenen Willensbildung, mal das andere. Also geht es letztlich nicht um eine Entscheidung zwischen Homo Oeconomius oder Behavioral Economics. Ich glaube, wenn man Verantwortung hat, muss man versuchen, aus beiden Sichtweisen und vorhandenen Untersuchungen Nutzen zu ziehen.

2.1. Abwägen in der Wirtschaft Ich möchte Ihnen Beispiele für die Anwendung von Erkenntnissen der Verhaltensökonomik vortragen. Relevante Informationen sind ja für Entscheidungen von Individuen wichtig. Die totale Transparenz ist sehr selten, sie wird bei Modellierungen auf der Basis des Homo Oeconomicus aber unterstellt. Es gibt wunderschöne Beispiele - zunächst aus der Wirtschaft selbst. •





Die Markenpräferenz der Menschen speist sich nicht aus dem Verstand. Entscheidungen von Frauen, etwa bestimmte Lebensmittel oder Kosmetika zu kaufen, sind fast immer emotional basiert. Ein Mann ist demgegenüber ja bekanntlich viel rationaler; das einzige Produkt aber, wo der normale Mann zugibt, dass er emotional reagiert, ist das Auto. Besonders eindrucksvoll auch: die Mode. Empirische Untersuchungen belegen, dass Mode das wichtigste Mittel der Textilindustrie ist gegen die zunehmende Haltbarkeit der Stoffe. Oder nehmen Sie ein anderes Beispiel: Wie kann ein Supermarkt damit Erfolg haben, dass er einzelne Produkte im Sonderangebot anbietet, wenn er sich nicht darauf verlassen könnte, dass der Mensch mit seinem Auto auch einige Kilometer dahin fährt, um das Sonderangebot zu kaufen und dann viel mehr kauft als geplant - nach dem Motto: Wenn ich schon mal hier bin, kaufe ich auch alles andere? Eine solche Mischkalkulation geht auf. Das müssen Unternehmen wissen.

2.2. Abwägen in der Politik In der Politik ist das letztlich nicht anders. Auch hierzu einige Beispiele aus der Praxis.

(lr-) Rationalität in der

Wirtschaftspolitik

331

Subventionen In meine Regierungszeit fiel die Konjunkturkrise und damit auch die Abwrackprämie. Was bedeutete nun Abwägen in diesem Kontext? Die Autoproduzenten in NordrheinWestfalen produzieren vor allem Kleinwagen. Ich wusste auch, dass kein Porschekäufer auf 1500 oder 2000 Euro reagiert, aber der, der Kleinwagen kauft! Und die Maßnahme hat tatsächlich gewirkt. Man kann also Menschen auch zu etwas verlocken - ganz im Sinne des „liberalen Paternalismus" (Thaler und Sunstein 2003; 2009). Nur: Ist die staatliche Intervention jetzt legitimiert, weil die Inanspruchnahme freiwillig erfolgt? Oder störe ich die optimale Ressourcenallokation dadurch? Wie reagiere ich als Wirtschaftspolitikerin auf einen der stärksten Abschwünge in der Neuzeit? Soll ich etwas tun oder nicht? Unter dieser Abwägung war ich für die Abwrackprämie. Anhand weiterer Beispiele möchte ich Ihnen erläutern, welche Schwierigkeiten zwischen den identifizierten Defiziten und Schritten zu ihrem Abbau bestehen, die aus einem Wechselspiel von Interessen und Information herrühren: Man kommt in ein Amt und stellt fest, dass es mit der Innovationsförderung besser laufen müsste. Was macht man dann? Zu meiner Studienzeit kämpfte das Kieler Institut natürlich gegen Subventionen. Gleichzeitig war es für Forschungsförderung, weil man so den Prozess der Erneuerung beschleunigen könne. Ich habe mich damals schon gefragt: Wieso ist das keine Subvention? Sinnvoll kann es trotzdem sein. Man sollte also nicht mit Kampfbegriffen arbeiten, sondern sachlich fragen, welche Maßnahme geeignet ist. Clusterwettbewerbe Ich habe mich damals dazu entschlossen, Clusterwettbewerbe auszulohen. Die EU war begeistert und wollte das bei der nächsten Strukturforderung gleich für alle Länder vorschreiben. Clusterwettbewerbe waren neu und ungewohnt, aber es hat geklappt. Wir haben entlang der Wertschöpfungsketten Wettbewerbe ausgelöst - das hatte gleichzeitig den Vorteil einer Kooperation von Wissenschaft und Wirtschaft und von kleinen und mittleren Unternehmen. Und es passierte noch etwas anderes: Selbst diejenigen, die nicht im Wettbewerb gewonnen haben, gaben hinterher ihr eigenes Projekt nicht auf, sondern führten es auch ohne Förderung fort. Übrigens klappte diese Art von Ausschreibung besser als das, was viele Universitäten mit sog. Transferstellen versuchten, die sie mit jungen Wissenschaftlern besetzten. Wer hat denn geglaubt, dass der normale engagierte Professor sein Wissen über so eine Transferstelle in den Mittelstand hineinbringt? Ich habe es nie verstanden. Beim Besuch solcher Einrichtungen konnte ich mir ein stilles Lächeln häufig nicht verkneifen. Wirtschaftsförderung Noch ein langjähriges Dauerthema war die regionale WirtschaftsfÖrderung. Begründet wurde sie mit der sog. Exportbasistheorie, welche die Wirtschaft einer Region in einen exportorientierten Basissektor und in einen nicht-grundlegenden Sektor unterteilt, der die Binnennachfrage befriedigt. Entscheidend für den Wohlstand sei v.a. der Basissektor, weil die hier erzielten Einkommen in die Region investiert und sich über einen Multiplikatoreffekt vervielfältigen würden (grundlegend Andrews 1953; North 1955). Ich halte

332

Christa Thoben

diese Theorie für kompletten Unsinn. Man grenzte danach mit irgendwelchen Arbeitsmarktdaten Förderregionen ab, und dann wurden da alle möglichen Investitionen subventioniert, aber nur, wenn die Produkte außerhalb der Förderregion verkauft werden. Man hätte das konzentrieren können auf Infrastrukturmaßnahmen, um in einer Region die Ansiedlungsbedingungen insgesamt zu verbessern. Aber da gab es ein paar Professoren, die mit der Abgrenzung der Arbeitsmarktregionen ihr Geld verdienten. Unternehmensgründungen Ein weiteres Thema: die Förderung von Untemehmensgründungen. Ich habe mir angesehen, wer da überall angeblich eine Gründungsförderung betreibt. So ein Durcheinander können Sie sich gar nicht vorstellen. Der eine bei irgendeiner Handwerkerschaft, der andere bei irgendeinem Verband, Industrie- und Handelskammern waren auch dabei, schließlich die kommunale Wirtschaftsforderung. Wohin geht also jemand, der sich überlegt, sich selbständig zu machen? Unter wissenschaftlicher Begleitung wurde ein Konzept entwickelt: Was müsste man eigentlich in einem sog. „Startercenter" an Beratungsleistungen anbieten, damit ein Interessierter wirklich die Hilfe bekommt, die er braucht und nicht hin- und hergeschickt wird. Wir haben es geschafft. Wir haben in Nordrhein-Westfalen ohne einen Pfennig öffentlicher Mittel erreicht, dass ganz viele sich beworben haben, um Startercenter zu werden. Die Bedingungen, die sie erfüllen mussten, waren definiert und werden alle drei Jahre überprüft. Exportförderung Ebenfalls ein umstrittenes Thema: Exportförderung. Natürlich kann man sich auf den Standpunkt stellen, dass die Unternehmen den Weg selber finden müssen. Doch es ist auch sinnvoll, die Transparenz, die Information für die Beteiligten zu verbessern: über Auslandsmärkte, über Messen, über Kooperationsmöglichkeiten. Als Politikerin können Sie das dadurch fördern, dass Sie z.B. Gemeinschaftsstände auf wichtigen Messen im Inund Ausland begleiten. Dann ist der Mittelständler eher bereit mitzukommen, weil er dann auch auf ein paar Kollegen trifft und nicht alles selber organisieren muss. Ich glaube, das kann man verantworten, auch wenn es ein bisschen Geld kostet. Der Homo Oeconomicus braucht ja ganz viele Informationen. Man unterstellt ihm ja sogar in der Realität vollständige Information. Wie verbessere ich aber in der Realität die Information? Der liberale Paternalismus muss das wieder alles in ein schräges Licht rücken; das leuchtet mir nicht ein. Energiepolitik Auch im Energiebereich haben wir gefragt, wie wir es hinbekommen, dass der Einzelne - ob Unternehmer oder privater Haushalt - weiß, dass es wahnsinnige Möglichkeiten gibt, Energie zu sparen und die Energieeffizienz zu steigern. Wir haben Veranstaltungen durchgeführt und Beratungsdienstleistungen angeboten. Sie glauben nicht, wie viele Menschen das, was sie dringend wissen müssten, schlicht nicht wissen. Also der Versuch, die Information ein Stückchen zu verbessern, ist wichtig. Wir haben z.B. Roadshows zusammen mit dem ADAC gemacht, jeweils auf Marktplätzen. Wir haben Schulen und Mittelständler eingeladen und gefragt, ob sie schon mal ausprobiert hätten, wie ihre Fahrweise den Spritverbrauch verändert. Viele Menschen

(Ir-) Rationalität in der Wirtschaftspolitik

333

wissen das nicht. Sie fahren, beschleunigen und bremsen wie verrückt. Bei anderer Fahrweise können sie bis zu 35 Prozent des Sprits sparen. Und andererseits gibt es eine große emotionale Aufregung bei 5 Cent Spritpreissteigerung! Auch hier gibt es eine riesige Wissenslücke. Versuchen Sie einmal selber herauszufinden, wie viel Zeit Sie wirklich auf einer Strecke sparen, wenn Sie pausenlos wie ein Gejagter Gas geben. Ich möchte, dass der Mensch in die Nähe der relevanten Information kommt: Wenn er Spaß am „sportlichen Fahren" hat, muss er nur wissen, dass er nicht gleichzeitig über die Spritpreise klagen kann. Wir haben auch den Ausstieg aus dem subventionierten Steinkohlebergbau beschlossen - für einen Ökonomieprofessor wahrscheinlich viel zu langsam. Ich will Ihnen nur beschreiben, was da alles an Informationen von Seiten des Steinkohlebergbaus nicht gewünscht war. Ich wurde beschimpft, weil wir so vieles öffentlich machten. Dazu zählte diese Information: Wenn wir nicht jedes Jahr - und zwar dauerhaft - im dreistelligen Millionenbereich Euro aufwenden, um das Grundwasser herunter zu pumpen, wird das Ruhrgebiet ein See, dann fließt die Emscher rückwärts. Nach dem Krieg konnte man wahrscheinlich begründen, dass der Steinkohlebergbau sinnvoll war. Aber kann man das heute noch sagen, wo wir schon 60 Prozent der Kohle deutlich preiswerter importieren können? Man muss also die Information verbessern! Sonst kann sich der normale Wähler sein Urteil nicht bilden, sondern er hat Angst, dass er nachts friert, wenn wir die Steinkohle nicht weiter subventionieren. Energiewende Damit bin ich bei der Energiewende. Ich will sie nicht ganz erläutern, aber was glauben Sie, was Ihnen alles an Argumenten vorgetragen wird? •

Ein Beispiel: Ich werde eingeladen, die größte Solaranlage in ganz NordrheinWestfalen einzuweihen. Zwei Tage vor dem Ereignis bekomme ich den Anruf, ich soll doch besser zu Hause bleiben, denn es habe geschneit, die Panele seien alle zugefroren. Daraufhabe ich ganz fröhlich gesagt: Dann komme ich besonders gerne. Denn dann kann ich Ihnen die Problematik schildern, dass wir bei dieser Art Versorgung in unserer Klimazone eine Parallelversorgung brauchen. Also bin ich da hingefahren - was sie gar nicht so lustig fanden - und habe gesagt: Jetzt nehmen wir mal an, es wäre kein Schnee da und die Sonne würde scheinen. Wieviel Prozent des Stroms mit der größten Anlage in Nordrhein-Westfalen könnten Sie denn wenigstens unter optimalen Bedingungen schaffen? Am Ende gaben sie zu: maximal zehn Prozent!



Oder nehmen Sie die Biomasse: Sie müssen kämpfen, damit Sie überhaupt Informationen bekommen, die Sie an die Öffentlichkeit weitergeben können. Wenn Sie ein modernes Braunkohlekraftwerk - 500 Megawatt - durch die nachwachsenden Rohstoffe und dadurch erzeugten Strom ersetzen wollen, dann brauchen Sie - auf der Basis von Mais - ein Drittel der Fläche von Nordrhein-Westfalen und mit Raps sogar zwei Drittel. Und jetzt stellen Sie sich die Proteste mal vor!

334

Christa Thoben



Letztes Beispiel: Stromintensive Branchen müssen natürlich unbedingt von der EEG-Umlage befreit werden. Die Aluminiumindustrie argumentiert immer mit der Primärenergieerzeugung, denn Primäraluminium ist das einzige Metall, das beim Recyceln null Prozent Qualität verliert. Wovon man aber nicht redet, ist der Stromverbrauch: Für Recyceltes brauchen Sie zehn Prozent des Stromverbrauchs im Vergleich zu Primäraluminium. Und jetzt tippen Sie mal, wieviel Prozent der Aluminiumerzeugung in Nordrhein-Westfalen schon recycelt wird: in den einzelnen Hütten unterschiedlich zwischen 40 und 60 Prozent. Argumentiert wird immer mit der Gesamtmenge der Aluminiumerzeugung. Das macht es schon etwas schwierig, vernünftige Entscheidungen durchzusetzen.

Und dann hatten wir noch etwas Spannendes, wo Herr Haucap wahrscheinlich jetzt einen Konflikt mit mir anfangen würde: die Kommunen und ihre wirtschaftliche Betätigung. Sie wissen, dass mit der Liberalisierung der Strommärkte da ein ziemliches Durcheinander aufgetreten ist. Aber ich kann doch nicht erlauben, dass die großen Stromversorger in alle Versorgungsgebiete der Stadtwerke eintreten dürfen, aber diesen verbieten, sich zu wehren! Wenn die Stadtwerke Strom erzeugen, müssen sie m.E. mindestens die Menge erzeugen dürfen, die man für die Versorgung ihres Stadtgebietes braucht. Die Gemeindeordnung so zu verändern, war sehr gefahrengeneigt, weil die Großen sich schon vorgestellt hatten, was sie alles an zusätzlichen Absatzmärkten gewinnen würden. Ich will Ihnen nur sagen, welche Abwägungen man nach meiner Überzeugung dann vornehmen muss. Intransparenz - das muss man als Politiker wissen - ist für viele Unternehmen ein Teil ihres Geschäfts. Informationen kriegt man nicht freiwillig. Also ist Aufklärung Teil der politischen Verantwortung. Ladenschluss

Ein lustiges Beispiel, das in einem Beitrag, den ich gelesen hatte, auftauchte, war das Ladenschlussgesetz. Was einem passiert, wenn man das verändern will - und ich habe es verändert - , das ist einfach unglaublich! Da ich aus dem Einzelhandel komme, hat es mich immer gestört, dass das Ladenschlussgesetz dazu führt, dass man den Fleißigen ob Bäckermeister oder Friseur - verklagen kann, wenn er zu früh öffnet oder zu lange auf hat. Der würde das doch nicht machen, wenn er zu nicht auch Kunden hätte, die das wünschen. Also haben wir gesagt: Den Sonntagsschutz muss man wohl ein Stück erhalten, also sonntags erst ab 11 Uhr und dann auch nur ein paar Produkte; aber alltags können wir es total frei geben. Es wird keiner seinen Laden um 24 Uhr geöffnet halten, wenn er keine Kunden hat. Auf was für Probleme stößt man dann? Das hatte ich mir vorher auch nicht vorgestellt. Es gab riesigen Widerstand der Gewerkschaften, aber nicht, weil die Arbeitszeit der Mitarbeiter dadurch verändert wurde. Völlig falsch! Was ich nicht wusste, war, dass bei der alten Regelung jede Stunde außerhalb der definierten Ladenöffnungszeiten als Überstunde bezahlt wurde. Und die Gewerkschaften sagten nun: Wenn wir das liberalisieren, gibt es nur noch eine Zeit. Das hatte ich übersehen ... Dann kam die katholische Kirche. Das war die lustigste Auseinandersetzung. Ich bin katholisch und ich bleibe das auch. Nur: Da bemühte man gleich den Sonntagsschutz. Ich

(Ir-) Rationalität in der

Wirtschaftspolitik

335

habe gesagt: Wir haben doch sonntags erst spät ab 11 Uhr und nur für wenige Stunden und Produkte erlaubt. Und wenn Sie den Sonntagsschutz so hoch halten, warum haben Sie eigentlich eine Vorabendmesse? Die Frage fanden sie schon nicht ganz so elegant. Unabhängig davon bekam ich plötzlich von der Gemeinde Goch ein Schreiben, die - mit Unterstützung des Bischofs von Münster - selbst auch Wallfahrtsort werden wollte; darum wollte man künftig auch sonntags die Geschäfte öffnen dürfen. Das Schreiben habe ich dann mit großer Begeisterung zu allen Veranstaltungen mitgenommen.

3.

Rationalität in der Politik: Ein Fazit

Rationalität in der Politik bedeutet für mich nach alledem, dass man Entscheidungen unter Unsicherheit fassen muss. Eine der Erkenntnisse aus dieser Radein-Tagung lautet: Der Homo Oeconomicus kann es nicht alleine; die andere Sichtweise der Behavioral Economics aber auch nicht. Was könnte ein Politiker davon mitnehmen? Ich hoffe: Nachdenklichkeit - auch wenn damit ein Stück Unsicherheit verbleibt. Und: Es gibt Werkzeuge, die beim Erklären zumindest ex post helfen. Allerdings nehme ich noch etwas mit: Herr von Weizsäcker, mich hat das bei Ihnen überzeugt, ich sage es mal in meinen Worten: die Dialektik des Gemeinwohls. Dezentrale Entscheidungen, die den Status quo überwinden, funktionieren nur bei einer stark dezentralen Gesellschaft. Das entspricht auch meinen Beobachtungen, meinen Überlegungen, meinen Überzeugungen. Und Sie sagen: Gerade wenn diese zumeist am Vorteil des Einzelnen ausgerichtet sind, kann damit dem Gemeinwohl gedient werden. So habe ich es wenigstens verstanden. Das finde ich überzeugend. Als Gesetzgeber müssen Sie natürlich auch auf die Rahmenbedingungen achten. Der eine oder andere Aufsatz hat geschrieben: Da alles so ein bisschen unsicher bleibt, bleibt am Ende nur die Ordnungspolitik. Was ich aber nirgendwo gefunden habe, ist, was das praktisch heißt. Wenigstens nach meiner Überzeugung ist die Grenzziehung zwischen dem, was „ordnungspolitisch" ist, und dem, was dann eine „direkte Steuerung" darstellt, unscharf. Und dann hilft mir diese Begrifflichkeit alleine nichts. Vielmehr müssen wir aushalten, dass es oft die Grauzone ist, die das wirkliche Leben bestimmt.

Literatur Andrews, Richard B. (1953), Mechanics of the Urban Economic Base. Historical Development of the Base Concept, in: Land Economics, Vol. 29, S. 161-167. North, Douglass C. (1955), Location Theory and Regional Growth, in: Journal of Political Economy, Vol. 63, S. 243-258. Popper, Karl R. (2004), Das Elend des Historizismus, 7. Auflage, Tübingen. Popper, Karl R. (2005), Logik der Forschung, 11. Auflage, Tübingen.

336

Christa Thoben

Schmidt, Christoph (2013), Research with Impact. Forschung und Politikberatung am RWI, RWI Position Nr. 54, 5. Dezember 2013; online: http://www.rwi-essen.de/media/content/pages/publikationen/rwi-positionen/RWI_Position_54_Research-with-Impact.pdf (Abruf: 28. November 2014). Thaler, Richard H. und Cass R. Sunstein (2003), Libertarian Paternalism, in: American Economic Review, Vol. 93, Papers & Proceedings, S. 175-179. Thaler, Richard H. und Cass R. Sunstein (2009), Nudge: Wie man kluge Entscheidungen anstößt, Berlin.

Teil IV: Epilog

Christian Müller und Nils Otter (Hg.), Behavioral Economics und Wirtschaflspoltik Schriften zu Ordnungsfragen der Wirtschaft • Band 100 • Stuttgart • 2015

Radein und Rationalität: Der Einfluss des Alkoholkonsums auf die Suizidraten

Horst Rottmann

Inhalt 1.

Einleitung

340

2.

Datenbeschreibung und empirische Spezifikation

340

3.

Empirische Ergebnisse und ihre Interpretation

340

Literatur

343

340

1.

Horst Rottmann

Einleitung

Dieser Beitrag zur empirischen Forschung knüpft an meinen in diesem Band enthaltenen Aufsatz „Arbeitsmarkt und Arbeitslosigkeit: Die empirischen Determinanten des Suizidverhaltens in den OECD-Ländern" an. Die Leiter dieses Seminars baten mich, zusätzlich zu den Arbeitsmarktinstitutionen eine für den Radein-Verein 1 nicht ganz uninteressante Einflussquelle auf die Suizidraten zu analysieren: den Einfluss des Alkoholkonsums auf die Suizidraten. In den existierenden empirischen Studien wird dabei überwiegend bei Männern ein positiver Zusammenhang zwischen dem Alkoholgenuss pro Kopf und den Suizidraten festgestellt (Noh 2009; Neumayer 2003). Ob der Alkoholkonsum einen eigenständigen Erklärungsfaktor darstellt oder mit anderen unbeobachteten Determinanten assoziiert ist, bleibt dabei allerdings unklar. Der Hintergrund für die Einbeziehung dieser Variable als möglicher Einflussfaktor in dieser Studie ist folgender: Der Autor wurde zum Vortrag eingeladen und bekam vorher aus berufenem Munde zu hören, dass auf diesem Seminar tagelang diskutiert wird, oftmals bis tief in die Nacht - und dass die Diskutanten dabei auch angemessene Mengen an Wein und Bier verzehren. Deshalb bot es sich an, auch zu analysieren, inwieweit der durchschnittliche jährliche Alkoholkonsum die Suizidrate beeinflussen kann. Diese Analysen stießen bei der Zuhörerschaft auf besonders großes Interesse. Deshalb werden sie hier zusätzlich dargestellt.

2.

Datenbeschreibung und empirische Spezifikation

Die Daten und die empirische Spezifikation werden bereits ausfuhrlich in meinem o. g. Aufsatz in diesem Band beschrieben. Als Benchmark Regressionen verwenden wir wieder die Spezifikationen der dortigen Tabelle 4.

3.

Empirische Ergebnisse und ihre Interpretation

Nachdem wir in unseren Benchmark-Regressionen die sozialen und ökonomischen Determinanten der Suizidsterblichkeit geschätzt haben, zeigen wir nun die um den Alkoholkonsum erweiterten Ergebnisse. In Tabelle 1 sind die Ergebnisse für das Niveau der Suizidraten für verschiedene Spezifikationen wiedergegeben. In den Spalten eins und zwei befinden sich Modelle mit stochastischen und festen Effekten. Dabei zeigt sich, dass ein höherer Alkoholkonsum signifikant die Suizidraten senkt. Dieses Ergebnis erscheint auf den ersten Blick sehr erstaunlich. Allerdings könnte der durchschnittliche Alkoholkonsum auch den Einfluss anderer Variablen abbilden, wie beispielsweise die Häufigkeit von sozialen Kontakten innerhalb einer Gesellschaft. So wird ein Großteil des Alkohols in Wirtshäusern konsumiert. Wir berücksichtigen zwar in unseren Schätzungen bereits die Fertilitäts- und die Scheidungsraten als Indikatoren für die sozialen Kontakte. Diese Raten bilden vor 1

Das Forschungsseminar Radein zum Vergleich von Wirtschafts- und Gesellschaftssystemen e.V. ist der Trägerverein der seit 1968 jährlich durchgeführten Seminare in Südtirol.

Radein und

341

Rationalität

allem die familiären Bindungen, aber wahrscheinlich weniger die Integration im Freundeskreis ab. Mit zunehmendem Alkoholkonsum sollte aber der negative Effekt des Alkohols in einer Gesellschaft deutlicher zum Vorschein kommen. Deshalb habe ich in den Spalten drei und vier quadratische Terme des Alkoholkonsums und des Bruttoinlandprodukts pro Kopf aufgenommen, um zu überprüfen, ob nichtlineare Effekte vorhanden sind. Tatsächlich erweist sich der Koeffizient des quadratischen Terms der Alkoholvariablen als positiv und signifikant. Dieses Ergebnis bleibt unabhängig davon bestehen, ob wir ein Modell mit festen oder stochastischen Effekten wählen. Es scheint also tatsächlich so zu sein, dass mit zunehmendem Alkoholkonsum in einer Gesellschaft zunächst die Suizidraten abnehmen, aber ab einem gewissen Niveau wieder zunehmen. Den Mitgliedern des Radein-Vereins war es ein großes Verlangen, zu erfahren, bis zu welchem Niveau die Suizidraten abnehmen. Tabelle 1: RE- und FE-Modelle: Alkoholkonsum und Suizidrate

Unemployment rate Life expectancy Fertility Divorce rate Share of 65 years age Trend Real GDP growth GDP per capita (in 100$) Alcohol per capita Alcohol per capita A 2

(1) RE base 0.213*** (0.063) -1.504*** (0.213) -5.272*** (0.776) 1.770*** (0.387) 0.423*** (0.129) -0.119* (0.065) -0.134*** (0.050) 0.020*** (0.006) -0.287*** (0.102)

(2) FE base 0.237** (0.093) -1 404*** (0.280) -5.133*** (1.607) 1.685* (0.887) 0.474** (0.222) -0.161* (0.082) -0.134*** (0.049) 0.023*** (0.005) -0.293** (0.144)

133.499*** (15.001) 716 0.864 0.421

125.254*** (21.060) 716

GDP per capita A 2 Constant N

rho r2_w

Standard errors in parentheses *p < 0.10, ** p < 0.05, »** p < 0.01

0.421

(3) RE squ 0.263*** (0.066) -1.456*** (0.213) -5.288*** (0.820) 1.660*** (0.393) 0.320** (0.135) -0.189*** (0.071) -0.141*** (0.050) 0.067*** (0.021) -1.035** (0.448) 0.028* (0.017) -0.000** (0.000) 129.951*** (15.159) 716 0.848 0.428

(4) FE squ 0.307*** (0.086) -1.275*** (0.271) -5.084*** (1.579) 1.553* (0.905) 0.365 (0.270) -0.276*** (0.074) -0.142*** (0.049) 0.082*** (0.028) -1.225*** (0.311) 0.035** (0.013) -0.000* (0.000) 115.440*** (17.846) 716 0.429

342

Horst

Rottmann

Berechnen wir mit den geschätzten Koeffizienten aus Spalte 3 die die Suizidrate minimierende Alkoholmenge pro Kopf, so ergibt sich eine Menge von 18,5 1 reinen Weingeist pro Jahr für die erwachsene Bevölkerung. Mit den geschätzten Parametern aus Spalte 4 ergibt sich kein wesentlich anderer Wert (17,5 1). Da im Jahr 2009 der Alkoholkonsum in Deutschland bei durchschnittlich knapp 12 1 pro Erwachsenem lag, waren die Mitglieder des Radein-Vereins wegen ihres Seminars schnell beruhigt. Berücksichtigt man allerdings, dass das Seminar in Italien stattfindet, so ist der italienische Alkoholkonsum relevant. Dieser betrug im Jahre 2009 nur knapp 7 1 Weingeist pro Erwachsenem. Ein wichtiger Grund also, dass bei den abendlichen lang anhaltenden Diskussionen keine neuen Gepflogenheiten eingeführt werden müssen. Da diese Ergebnisse durchaus mit schweren potenziellen Konsequenzen für den Radein-Verein verbunden sind, wurden weitere Spezifikationen geschätzt, um die Robustheit der Aussagen überprüfen zu können. In Tabelle 2 sind die Schätzungen für die vier Spezifikationen aus Tab. 1 nun mit dem Logarithmus der Suizidrate als abhängige Variable wiedergegeben. Tabelle 2: RE- und FE-Modelle: Alkoholkonsum und log Suizidrate (1) RE base 1.330*** (0.242) -6.065*** (0.827) -19.728*** (2.982) 7.025*** (1.496) 1 422*** (0.498) -0.344 (0.256) -0.426** (0.191) 0.068*** (0.025) -1 111 *** (0.392)

(2) FE base 1.390*** (0.392) -5.855*** (1.067) -19.609*** (6.216) 6.601** (3.071) 1.557** (0.740) -0.418 (0.313) -0.424** (0.171) 0.070*** (0.025) -1.106* (0.636)

N rho r2_w

746.757*** (58.632) 716 0.916 0.438

730.879*** (78.952) 716

Standard errors in parentheses.

< 0.10, **/?